- - - - -
Glossar

Generative Pre-trained Transformer (GPT)

Ein Generative Pre-trained Transformer ist ein Sprachmodel, das auf Deep Learning beruht und Texte generiert, als wären sie von Menschen geschrieben. Die Nutzer 'füttern' GPT mit einem Satz und der Transformer generiert verständliche Informationen aus Datensätzen, die öffentlich zugänglich sind. Neben Text kann die Technologie zum Beispiel auch Gitarren Tabs und Computer Code verarbeiten. Die Technologie wird von OpenAI entwickelt. GPT-2 umfasste 1,5 Milliarden Parameter. Es wird angenommen, dass GPT-4 mit 100 Billionen Parametern arbeitet.

Synonyme: GPT, Generative Pre-trained Transformer