Zum Hauptinhalt springen

GPT

« Zurück zum Glossar Index

Was ist GPT?

GPT (Generative Pre-trained Transformer) ist eine Familie von neuronalen Netzwerkmodellen, die die Transformator-Architektur verwenden und einen wichtigen Fortschritt in der künstlichen Intelligenz darstellen.

Diese Sprachmodelle werden auf großen Datensätzen unmarkierter Texte vorab trainiert und können menschenähnliche Texte und Inhalte generieren sowie Fragen in Konversationsform beantworten. Der erste GPT wurde 2018 vom amerikanischen Unternehmen OpenAI vorgestellt.

Wie sind GPT-Modelle aufgebaut?

GPT-Modelle sind auf neuronalen Netzen basierende Sprachvorhersagemodelle, die auf der Transformer-Architektur aufbauen.

Sie analysieren Anfragen in natürlicher Sprache und sagen auf Grundlage ihres Sprachverständnisses die bestmögliche Antwort voraus.

Dabei nutzen sie Mechanismen der Selbstbeobachtung (Attention), um sich bei jedem Verarbeitungsschritt auf verschiedene Teile des Eingabetextes zu konzentrieren und mehr Kontext zu erfassen.

Wie werden GPT-Modelle trainiert?

GPT-Modelle werden mit enormen Datenmengen trainiert. Beispielsweise wurde GPT-3 mit über 175 Milliarden Parametern trainiert und anhand von über 45 Terabyte an Daten aus Quellen wie Webtexten, Common Crawl, Büchern und Wikipedia.

Das Training erfolgt im halbüberwachten Modus: Zunächst wird das Modell mit unbeschrifteten Trainingsdaten gefüttert, wobei es lernt, Sätze zu verstehen und zu rekonstruieren.

Anschließend werden die Ergebnisse durch überwachtes Training verfeinert, ein Prozess bekannt als Verstärkungslernen mit menschlichem Feedback (RLHF).

Was sind die verschiedenen GPT-Versionen?

Die GPT-Familie hat sich seit ihrer Einführung stetig weiterentwickelt:

  • GPT-1: Erstmals 2018 vorgestellt
  • GPT-2: Veröffentlicht 2019
  • GPT-3: Eingeführt 2020
  • GPT-4: Veröffentlicht 2023
  • GPT-4o: Eingeführt 2024
  • GPT-4.1: Neueste Version, seit Mai 2025 verfügbar

Die neueste Version, GPT-4.1, wurde im Mai 2025 eingeführt und umfasst drei Varianten: GPT-4.1, GPT-4.1 Mini und GPT-4.1 Nano, alle mit Wissensstand Juni 2024.

Das GPT-4.1 Modell ist für Plus-, Pro- und Team-Abonnenten von ChatGPT verfügbar, während GPT-4.1 Mini als Standardmodell für alle Nutzer, einschließlich kostenloser Konten, dient.

Was ist der Unterschied zwischen GPT und ChatGPT?

GPT ist die zugrunde liegende Technologie – ein Sprachmodell zur Verarbeitung und Erzeugung von Sprache. 

ChatGPT hingegen ist die von OpenAI entwickelte Webschnittstelle – eine Chatbot-Anwendung – die es Benutzern ermöglicht, mit einem GPT-Modell zu interagieren.

Ein häufig verwendetes Bild beschreibt GPT als den Motor in einem Auto, während ChatGPT das Auto selbst ist.

Welche Anwendungsfälle gibt es für GPT-Modelle?

GPT-Modelle können für zahlreiche Aufgaben eingesetzt werden:

  • Inhaltserstellung: Generierung von Texten für soziale Medien, Blogs und Marketing
  • Textkonvertierung: Umschreiben von Texten in verschiedene Stile (humorvoll, professionell, etc.)
  • Programmierung: Code schreiben und erklären in verschiedenen Programmiersprachen
  • Übersetzung: Texte in verschiedene Sprachen übersetzen
  • Zusammenfassung: Lange Texte und Dokumente komprimieren
  • Frage-Antwort-Systeme: Informationen bereitstellen und komplexe Themen erklären

Kann GPT multimodal sein?

Ja, generative transformerbasierte Systeme können auch auf Aufgaben ausgerichtet sein, die über Text hinausgehen.

Beispielsweise kombiniert Microsofts Visual ChatGPT ChatGPT mit visuellen Grundlagenmodellen, um sowohl Bilder als auch Text als Ein- oder Ausgabe zu ermöglichen.

Auch Text-to-Speech-Technologien können mit GPT-Sprachmodellen kombiniert werden, um Audioinhalte zu erstellen.

Wie werden GPT-Modelle domänenspezifisch angepasst?

GPT-Systeme können auf bestimmte Bereiche oder Domänen ausgerichtet werden. Beispiele hierfür sind:

  • EinsteinGPT für Vertrieb und Marketing
  • BloombergGPT für den Finanzbereich
  • Khanmigo für Bildungszwecke
  • SlackGPT für den Instant-Messaging-Dienst Slack
  • BioGPT für den biomedizinischen Bereich

Die Domänenspezifität wird oft durch Software-Plug-Ins oder Erweiterungen erreicht, die direkt mit der ChatGPT-Schnittstelle interagieren.

Häufige Fragen (FAQ)

Was bedeutet GPT?

GPT steht für Generative Pre-trained Transformer, was die grundlegende Technologie und Architektur dieser KI-Modelle beschreibt.

Wie unterscheidet sich GPT-4.1 von früheren Versionen?

GPT-4.1 bietet verbesserte Fähigkeiten in der Codierung und Befolgung von Anweisungen sowie ein erweitertes Kontextfenster von einer Million Token.

Ist GPT frei verfügbar?

Nur ältere Versionen wie GPT-2 sind als Open-Source-Software verfügbar, während neuere Versionen nur über APIs oder Dienste wie ChatGPT zugänglich sind.

Kann GPT Bilder verstehen?

Ja, in multimodalen Varianten können GPT-Modelle auch Bilder verarbeiten und verstehen.

Wie wird GPT in Unternehmen eingesetzt?

Unternehmen nutzen GPT für Kundenservice, Inhaltsproduktion, Datenanalyse und zur Automatisierung verschiedener Prozesse.

Verwandte Begriffe

  1. Transformer-Architektur
  2. Large Language Model (LLM)
  3. ChatGPT
  4. Künstliche Intelligenz (KI)
  5. Natural Language Processing (NLP)
  6. Neuronale Netzwerke
  7. Attention-Mechanismus
  8. Generative KI
  9. Verstärkungslernen mit menschlichem Feedback (RLHF)
  10. Multimodale KI
« Zurück zum Glossar Index