IQ Archive
Artificial Intelligence

Large Language Model (LLM)

Was ist ein Large Language Model?

Ein Large Language Model (LLM) ist ein hochentwickeltes System der künstlichen Intelligenz, das auf Deep-Learning-Techniken und massiven Datensätzen basiert, die typischerweise wesentliche Teile des öffentlichen Internets umfassen. Im Kern nutzen diese Modelle eine Transformer-Architektur, die 2017 von Google-Forschern eingeführt wurde und es der KI ermöglicht, die Wichtigkeit verschiedener Wörter in einem Satz abzuwägen (ein Mechanismus namens “Attention”), um das wahrscheinlichste nächste Token in einer Sequenz vorherzusagen.

Berühmte Beispiele sind OpenAIs GPT-4, Anthropics Claude und Googles Gemini. Während sie als Textvorhersager begannen, hat ihre Skalierung es ihnen ermöglicht, komplexe Aufgaben wie Programmieren, kreatives Schreiben und logische Schlussfolgerungen auszuführen.

LLMs und menschliche Intelligenz

Aus psychometrischer Sicht stellen LLMs eine faszinierende Fallstudie dar, da sie kristalline Intelligenz effektiv von fluider Intelligenz und Bewusstsein entkoppeln.

  1. Kristalline Intelligenz (Gc): LLMs besitzen ein Niveau an Gc, das jeden Menschen weit übertrifft. Sie haben mehr Bücher, wissenschaftliche Arbeiten und Codebasen “gelesen”, als ein Mensch in tausend Leben könnte. Ihre Fähigkeit, diese Informationen abzurufen und zu synthetisieren, ist übermenschlich.
  2. Fluide Intelligenz (Gf): Dies ist umstritten. Während LLMs Logikrätsel lösen können, tun sie dies oft, indem sie Muster in ihren Trainingsdaten erkennen, anstatt neuartiges Denken anzuwenden. Moderne Modelle zeigen jedoch zunehmende Fähigkeiten im “Zero-Shot”-Reasoning (Lösen von Problemen, die sie noch nie gesehen haben), was auf eine Form von synthetischer fluider Intelligenz hindeutet.

Die “Stochastische Papageien”-Debatte

Eine Hauptkritik, geprägt von der Linguistin Emily M. Bender und ihren Kollegen, ist, dass LLMs lediglich “stochastische Papageien” sind. Diese Theorie besagt, dass die Modelle keine Bedeutung verstehen; sie fügen lediglich sprachliche Formen basierend auf Wahrscheinlichkeiten zusammen, ohne Bezug zur realen Welt.

Wenn Sie zum Beispiel ein LLM fragen: “Welche Farbe hat der Himmel?”, antwortet es “Blau”, nicht weil es den Himmel gesehen hat oder das Konzept von Farbe versteht, sondern weil die Wörter “Himmel” und “Blau” in seinem Datensatz häufig zusammen vorkommen.

Emergente Eigenschaften und AGI

Das Gegenargument stützt sich auf emergente Eigenschaften. In komplexen Systemen ist “mehr anders”. Wenn ein LLM groß genug wird (Milliarden von Parametern), beginnt es Fähigkeiten zu zeigen, die nicht explizit programmiert wurden, wie die Fähigkeit, Sprachen zu übersetzen oder Software zu debuggen.

Dies führt zur Frage der künstlichen allgemeinen Intelligenz (AGI). Wenn eine Maschine den Turing-Test bestehen, im 90. Perzentil des Anwaltsexamens abschneiden und medizinische Zustände besser diagnostizieren kann als ein Arzt, spielt es dann eine Rolle, ob sie im menschlichen Sinne “versteht”? Für die pragmatische Definition von Intelligenz – “die Fähigkeit, Probleme zu lösen” – sind LLMs derzeit die engste Annäherung an einen nicht-biologischen Verstand.

Verwandte Begriffe

Artificial General Intelligence Turing Test Neural Networks Crystallized Intelligence Pattern Recognition
← Zurück zum Glossar