Uni-Hacks

Wie funktioniert ChatGPT? (LLMs einfach erklärt)

Wie funktionieren ChatGPT & Co technisch?

Hast du dich jemals gefragt, wie ChatGPT es schafft, in Sekundenbruchteilen sinnvolle Antworten zu liefern?

In diesem Beitrag erkläre ich dir, wie ChatGPT technisch funktioniert – einfach, verständlich und ohne unnötigen Fachjargon. Denn wer KI nutzt, sollte auch wissen, was dahintersteckt!

1. Die Grundlagen von Large Language Models (LLMs)

Um zu verstehen, wie ChatGPT funktioniert, müssen wir erst klären, was ein Large Language Model (LLM) überhaupt ist. Denn das ist die Technologie, die hinter ChatGPT steckt. Im Grunde genommen ist ein LLM ein Computerprogramm, das mithilfe riesiger Mengen an Text trainiert wurde, um menschliche Sprache zu verarbeiten. Es kann Fragen beantworten, Texte schreiben oder sich an Unterhaltungen beteiligen, aber es versteht Sprache nicht wirklich – zumindest nicht so, wie wir Menschen es tun. Stattdessen arbeitet es mit Wahrscheinlichkeiten. Das bedeutet, dass das Modell anhand der vorherigen Wörter in einem Satz berechnet, welche Wortfolge mit höchster Wahrscheinlichkeit als nächstes Sinn ergibt.

Ein wichtiger Punkt, der oft für Verwirrung sorgt, ist die Unterscheidung zwischen künstlicher Intelligenz, maschinellem Lernen, generativer KI und LLMs. Viele nutzen diese Begriffe synonym, dabei beschreiben sie eigentlich verschiedene Dinge.

Künstliche Intelligenz ist ein Sammelbegriff für alle Technologien, die menschenähnliche Denkprozesse simulieren – dazu gehören nicht nur Sprachmodelle wie GPT, sondern auch Bilderkennung oder Entscheidungsalgorithmen. Maschinelles Lernen ist ein Teilbereich der KI, bei dem ein Computer nicht mit festen Regeln programmiert wird, sondern aus Daten Muster erkennt und daraus Vorhersagen ableitet.

Generative KI wiederum ist ein spezieller Bereich der künstlichen Intelligenz, der darauf ausgelegt ist, Inhalte zu generieren – dazu zählen Texte, Bilder, Musik oder Videos. Sprachmodelle wie GPT gehören zu dieser Kategorie, da sie menschenähnlichen Text erzeugen können.

LLMs (Large Language Models) sind eine spezifische Form des maschinellen Lernens innerhalb der generativen KI, die sich ausschließlich auf die Verarbeitung und Generierung natürlicher Sprache konzentrieren. Sie sind darauf trainiert, aus riesigen Mengen an Textdaten, Zusammenhänge zu erkennen und kontextbasierte Antworten zu geben.

Gehirn und KI

2. Wie funktionieren neuronale Netze?

Das Herzstück von GPT, dem LLM hinter ChatGPT ist ein sogenanntes neuronales Netz, das inspiriert vom menschlichen Gehirn arbeitet. Unser Gehirn besteht aus Milliarden von Nervenzellen, die ständig Informationen austauschen. Eine einzelne Nervenzelle kann nur eine sehr begrenzte Menge an Informationen verarbeiten, aber indem viele Neuronen miteinander vernetzt sind, entsteht komplexes Denken. Ähnlich funktioniert ein künstliches neuronales Netz: Es besteht aus vielen miteinander verbundenen Recheneinheiten, die jeweils einen kleinen Teil einer Information verarbeiten und das Ergebnis an andere Einheiten weiterleiten.

Dieses System ermöglicht es dem Modell, Muster zu erkennen, Sprache zu analysieren und sinnvolle Antworten zu generieren. Stell dir vor, du liest das Wort „Kirsche“. Sofort fallen dir Begriffe wie „Frucht“, „rot“ oder „süß“ ein – dein Gehirn erkennt also automatisch die Zusammenhänge zwischen den Wörtern. Ein neuronales Netz macht im Prinzip dasselbe, indem es analysiert, welche Wörter häufig gemeinsam auftreten, und daraus statistische Zusammenhänge ableitet.

Du möchtest professionelles Training für deine Abschlussarbeit?

Dann nimm jetzt Teil an meinem neuen online CRASH-KURS! (100% kostenlos)

(und erfahre die 8 Geheimnisse einer 1,0 Abschlussarbeit)

Hier mehr erfahren!

3. Wie GPT trainiert wird und lernt

Damit ChatGPT sinnvolle Antworten liefern kann, durchläuft GPT zwei Hauptphasen: Vortraining und Feinabstimmung (Fine-Tuning).

Im Vortraining analysiert das Modell riesige Mengen an Texten wie Bücher, Artikel, Webseiten und sucht nach statistischen Mustern. Es speichert keine Fakten, sondern erkennt, welche Wörter häufig gemeinsam auftreten und welche Satzstrukturen typisch sind. So lernt es, Sprache zu imitieren, aber nicht wirklich zu „verstehen“. Es weiß zum Beispiel nicht, dass Paris die Hauptstadt von Frankreich ist. Es hat nur gelernt, dass „Paris ist die Hauptstadt von…“ mit hoher Wahrscheinlichkeit mit „Frankreich“ weitergeht.

Nach dem Vortraining folgt das Fine-Tuning, bei dem menschliche Experten die Antworten des Modells bewerten und anpassen. Damit wird ChatGPT darauf optimiert, nicht nur grammatikalisch korrekte, sondern auch sinnvollere und präzisere Antworten zu generieren.

Wie funktionieren ChatGPT & Co technisch

4. Wie das Modell Sprache versteht und Antworten erstellt

GPT basiert auf einer speziellen Architektur namens Transformer-Modell, die es ermöglicht, Sprache im Kontext zu analysieren. Im Gegensatz zu traditionellen Sprachmodellen, die Wörter nur isoliert betrachten, kann GPT den gesamten Satz berücksichtigen und so Bedeutungen besser erfassen.

Ein gutes Beispiel ist das Wort „Bank“, das sowohl eine Sitzgelegenheit als auch ein Finanzinstitut sein kann. GPT entscheidet sich für die richtige Bedeutung, indem es den gesamten Satz betrachtet. Wenn du beispielsweise schreibst: „Ich habe mein Geld zur Bank gebracht“, erkennt das Modell durch das Wort „Geld“, dass hier das Finanzinstitut gemeint ist. Im Satz „Ich setze mich auf die Bank im Park“ zeigt das Wort „Park“, dass es sich um eine Sitzgelegenheit handelt.

Damit ChatGPT Texte nicht nur analysieren, sondern auch selbst generieren kann, zerlegt es jede Eingabe in kleine Einheiten, sogenannte Tokens – das können ganze Wörter oder Wortteile sein. Danach berechnet es anhand bereits bekannter Muster, welches Token mit der höchsten Wahrscheinlichkeit als Nächstes passt. Dabei berücksichtigt das GPT Modell den gesamten Kontext und nicht nur das letzte Wort.

Da ChatGPT keine festen Antworten speichert, sondern jede Reaktion durch Wahrscheinlichkeitsberechnungen neu generiert, kann es vorkommen, dass du für dieselbe Frage leicht unterschiedliche Antworten erhältst. Je nachdem, wie die Frage formuliert ist oder welche Version des GPT-Modells verwendet wird, kann sich die Wahrscheinlichkeitsverteilung leicht ändern und damit die Antwort variieren.

5. Grenzen und Probleme von ChatGPT

GPT hat keine echte Intelligenz – es versteht Wörter nur als mathematische Muster. Dadurch kann es manchmal falsche oder unlogische Antworten geben.

Frühere Versionen von ChatGPT konnten nur auf Daten bis zu einem bestimmten Zeitpunkt zugreifen, da das Modell nicht in Echtzeit trainiert wird. Inzwischen gibt es jedoch neuere Versionen, die mit einer Bing-Suche oder Plugins kombiniert sind, sodass ChatGPT aktuelle Informationen aus dem Internet abrufen kann.

Allerdings gibt es auch hier Einschränkungen: Das Modell kann nur auf öffentlich zugängliche Informationen zugreifen und filtert keine unseriösen Quellen heraus. Deshalb sollte man Antworten aus Echtzeitsuchen immer gegenprüfen, bevor man sich auf sie verlässt.

Zudem kann es Informationen „halluzinieren“, also Dinge behaupten, die nicht stimmen. Zum Beispiel, dass Albert Einstein 1950 den Nobelpreis für Physik gewann. Da es mit bestehenden Texten trainiert wurde, kann es auch Vorurteile oder Verzerrungen übernehmen.

Zudem gibt es ethische Herausforderungen: Da Sprachmodelle auf vorhandenen Daten basieren, können sie unbewusst Vorurteile reproduzieren. Außerdem besteht die Gefahr, dass Sprachmodelle zur Erstellung und Verbreitung von Desinformationen oder Fake News genutzt werden. Unternehmen und Forscher arbeiten ständig daran, diese Risiken zu minimieren – dennoch solltest du kritisch hinterfragen, was ein Sprachmodell wirklich kann und wo dessen Grenzen liegen.

Die Zukunft von KI und Menschen

6. Zukunft

Die Entwicklung von Sprachmodellen geht rasant weiter. Forschende arbeiten daran, zukünftige LLMs mit weniger Verzerrungen, besserem Faktenverständnis und einer höheren Anpassungsfähigkeit zu entwickeln. Eine zentrale Frage bleibt: Wird KI irgendwann so intelligent wie ein Mensch?

Während aktuelle Modelle lediglich Wahrscheinlichkeiten berechnen, gibt es Forschungsansätze, die Künstliche Intelligenz mit logischem Denken, Gedächtnis und langfristiger Planung kombinieren wollen. Ob eine KI jedoch jemals echtes Bewusstsein oder eigenständige Entscheidungsfähigkeit entwickeln kann, ist noch nicht klar.

Was denkst du, wird KI in Zukunft menschliche Intelligenz übertreffen? Schreib es in die Kommentare!

Wenn du auf dem Weg zu mehr Erfolg im Studium noch ein wenig Starthilfe für deine wissenschaftliche Arbeit benötigst, dann habe noch ein PDF für dich, das du dir gratis herunterladen kannst:

Die 30 besten Formulierungen für eine aufsehenerregende Einleitung


Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert