Grundlagen: KI und LLMs#

Künstliche Intelligenz ist nicht nur ein bedeutendes und interdisziplinäres Teilgebiet der Informatik, sondern spätestens seit dem Aufkommen von KI-Chatbots wie ChatGPT auch eines der meistdiskutierten gesellschaftlichen Themen. Um informiert und präzise über Chancen und Risiken sprechen zu können, ist es sinnvoll, zunächst zentrale Begrifflichkeiten zu klären und ein grundlegendes Verständnis der Funktionsweise von KI-Technologien zu entwickeln. Beides wird Gegenstand dieses Kapitels sein.

Begriffsabgrenzung#

Begrifssabgrenzung KI - Machine Learning - Deep Learning - LLMs

Fig. 1 KI-Chatbots wie ChatGPT, also Large Language Models (LLMs), machen nur einen kleinen Teil der Technologien aus, die unter Künstliche Intelligenz fallen.#


Wenn von KI-Chatbots wie ChatGPT o. Ä. gesprochen wird, ist die Rede von LLMs (Large Language Models). Diese machen aber nur einen kleinen Teil der Technologien und Konzepte aus, die unter den Schirm der künstlichen Intelligenz fallen, wie Fig. 1 zeigt.

Künstliche Intelligenz bezeichnet zunächst einmal nur die Theorie, dass menschliche Intelligenz von einer Maschine gezeigt wird.

Machine Learning (ML), eines der größten und schnellstwachsenden Forschungsgebiete der Informatik, ist ein Teilbereich von KI. ML-Algorithmen verwenden große Datensätze, um Muster zu erkennen und zu lernen, autonome Entscheidungen und Vorhersagen zu treffen [SBS18]. Neben ML stehen weitere Forschungsansätze, die unter Künstliche Intelligenz fallen, z. B. formale Logik, die aber heute seltener diskutiert werden.

Deep Learning (DL) ist wiederum ein Teilbereich von Machine Learning, bei dem künstliche neuronale Netze mit vielen Schichten zum Einsatz kommen (die Funktionsweise wird im Folgenden noch näher erläutert). DL ist sehr leistungsfähig und bildet die Grundlage vieler aktueller KI-Anwendungen, erfordert aber auch erhebliche Mengen an Daten- und Rechenressourcen [JZH21].

Ein besonders sichtbares Anwendungsfeld von DL ist die Verarbeitung natürlicher Sprache, wobei LLMs verwendet werden - tiefe neuronale Netze, die mit sehr großen Textmengen trainiert wurden und deren Ziel es ist, Sprache zu verstehen und zu erzeugen [CWW+24].

Wie funktioniert Deep Learning?#

Was steckt nun eigentlich hinter KI-Anwendungen wie ChatGPT? Im Grunde zunächst: sehr viel Mathematik.

Grundprinzip DL (Input - Model - Output)

Fig. 2 Grundprinzip Deep Learning: Input - Model - Output.#


Fig. 2 veranschaulicht das Grundprinzip von Deep-Learning-Anwendungen. Ein DL-Modell bekommt einen Input, z.B. ein Bild eines Tiers, übergeben und trifft davon ausgehend eine Voraussage (Prediction), ob es sich bei diesem Tier um einen Vogel handelt – gibt also einen Output aus.

Was ist ein Modell?#

Zentral für diese Funktionsweise ist das Modell, das den Input verarbeitet und durch Training darauf optimiert wurde, möglichst akkurate Predictions basierend auf dem Input zu treffen. Ein Modell ist zunächst einmal ein mathematisches System. Künstliche neuronale Netze sind eine Art von Modellen, die bei Deep Learning-Anwendungen verwendet werden.

Skizze Modell

Fig. 3 Skizze Modell (neuronales Netzwerk)#


Fig. 3 illustriert ein solches Netzwerk aus Knotenpunkten, die miteinander verbunden sind. Diese Knoten bekommen Informationen von anderen Knoten, rechnen etwas mit ihnen und geben im Anschluss das Ergebnis weiter. Diese Funktionsweise soll im Folgenden an Ausschnitt aus obigem Modell veranschaulicht werden.

Ausschnitt ML-Modell

Fig. 4 Ausschnitt ML-Modell#


Fig. 4 illustriert diesen Ausschnitt. Die Verbindungen zwischen den Knoten haben Gewichte, die bemessen, wie wichtig die jeweils weitergegebene Information für den Folgeknoten ist.

Input

Fig. 5 Input#


In Fig. 5 bekommt der Modell-Ausschnitt nun einen numerischen Input übergeben. Das könnte z. B. ein Pixelfarbwert sein, wenn es um Bilderkennung geht.

Erster Knoten wird berechnet

Fig. 6 Erster Knoten wird berechnet#


Die Berechnung des ersten Knotens erfolgt als Summe der eingehenden Knotenverbindungen, entsprechend ihren Gewichtungen, wie in Fig. 6 gezeigt.

Zweiter Knoten wird berechnet

Fig. 7 Zweiter Knoten wird berechnet#


Ebenso wird der zweite Knotenwert berechnet, s. Fig. 7.

Dritter Knoten wird berechnet

Fig. 8 Dritter Knoten wird berechnet#


Beim dritten Knotenwert gibt es zwei eingehende Verbindungen, die gewichtet summiert werden, wie in Fig. 8 gezeigt wird.

Vierter Knoten wird berechnet

Fig. 9 Vierter Knoten wird berechnet#


Analog erfolgt die Berechnung des vierten Knotens in Fig. 9.

Output

Fig. 10 Output#


Auch der Endknoten wird in Fig. 10 genauso berechnet. Dieser Wert könnte jetzt z. B. eine Aussage darüber machen, mit welcher Wahrscheinlichkeit es sich bei dem Bild um einen Vogel handelt – in diesem Beispiel mit 89,1 Prozent.

Modelle erhalten also einen Input, stellen einige Berechnungen damit an und geben einen entsprechenden Output aus.

Wie funktioniert das Training des Modells?#

Was macht dieses Prinzip nun intelligent, d. h., wie kann sich das Modell selbst verbessern?

Trainingsmechanismus

Fig. 11 Visualisierung des Trainingsmechanismus#


Im Trainingsprozess des Modells macht es immer wieder Predictions, basierend auf verschiedenen Input-Daten. Diese Prediction wird dann überprüft und, falls sie falsch war, werden die Gewichte des Modells angepasst. Das erfolgt durch den Algorithmus selbst – an dieser Stelle lernt die Maschine. Dieser Prozess wird in Fig. 11 dargestellt.

Um das Modell so zu trainieren, dass es möglichst akkurate Predictions trifft, braucht man eine große Menge an Trainingsdaten, bei denen die „Lösung“ (d. h., ist es ein Vogel?) schon bekannt ist. Mit genügend Wiederholungen des Trainingsvorgangs kann sich das Modell dann für seine Aufgabe optimieren.

Das macht deutlich, dass die Auswahl der Trainingsdaten entscheidend ist – sie sollten möglichst heterogen und vielfältig sein, damit das Modell auf unbekannten Daten gut generalisieren kann.

Wie funktionieren LLMs?#

Wie oben beschrieben sind LLMs Large Language Models, also sehr große neuronale Netze, die mit erheblichen Mengen an Daten darauf trainiert werden, mit Sprache umzugehen und Sprache zu erzeugen. Insbesondere lernen LLMs:

  • wie Wörter typischerweise aufeinander folgen

  • welche Sätze Sinn ergeben

  • wie Fragen und Antworten zusammenhängen

Das LLM generiert die Ausgabe Textbaustein für Textbaustein, d. h. für jedes Wort wird vorhergesagt, welches darauffolgende Wort am wahrscheinlichsten ist.

Fazit#

KI ist abhängig von seiner Datenbasis und kann Biases seiner Trainingsdaten reproduzieren und verstärken.

KI-Modelle sind statistische Systeme → Die wahrscheinlichste Antwort wird zurückgegeben.

KI basiert oft auf sehr großen Modellen und benötigt entsprechende Ressourcen (Rechenleistung, Energie, Datenmengen).