LLM (Large Language Model) ist ein auf riesigen Textmengen trainiertes KI-System, das Sprache versteht, erzeugt und für vielfältige Sprachaufgaben eingesetzt werden kann.

Rubrik: GenAI & Content Creation · Unterrubrik: Grundlagen · Niveau: Einsteiger Synonyme / Auch bekannt als: LLM, Sprachmodell, großes Sprachmodell, Foundation Model, Basismodell

Was ist ein Large Language Model?

Ein Large Language Model – kurz LLM – ist ein KI-System, das auf der Basis von Milliarden von Texten aus dem Internet, Büchern und anderen Quellen trainiert wurde. Es versteht natürliche Sprache und kann Text generieren, zusammenfassen, übersetzen, erklären oder analysieren. LLMs sind die technologische Grundlage hinter bekannten KI-Assistenten wie ChatGPT, Claude oder Google Gemini.

Erklärung

Large Language Models basieren auf einer Computerarchitektur namens Transformer, die 2017 von Google-Forschern entwickelt wurde. Dieser Ansatz ermöglicht es dem Modell, Zusammenhänge zwischen Wörtern über weite Textabschnitte hinweg zu erkennen – eine entscheidende Fähigkeit, um natürliche Sprache zu verarbeiten.

Das Training eines LLM läuft in mehreren Phasen ab. Zunächst wird das Modell auf gigantischen Textmengen vortrainiert: Es lernt, das nächste Wort in einem Satz vorherzusagen. Dabei entwickelt es ein statistisches Weltbild der Sprache. In einem zweiten Schritt – dem sogenannten Fine-Tuning – wird das Modell auf spezifische Aufgaben spezialisiert oder mithilfe menschlicher Rückmeldungen (Reinforcement Learning from Human Feedback, RLHF) auf hilfreiche, harmlose Antworten ausgerichtet.

Texte werden in sogenannte Token zerlegt – das können Wörter, Wortteile oder einzelne Zeichen sein. Das Modell arbeitet ausschließlich mit diesen Token-Folgen, nicht mit ganzen Sätzen. Ein typisches LLM kann je nach Modell zwischen einigen tausend und mehreren hunderttausend Token gleichzeitig verarbeiten; diese Menge nennt man das Kontext-Fenster.

Die Größe eines LLM wird in Parametern gemessen. Parameter sind die gelernten Gewichte des neuronalen Netzes. GPT-4 etwa wird auf über eine Billion Parameter geschätzt, während kleinere, effiziente Modelle wie Llama 3 von Meta mit wenigen Milliarden Parametern ähnliche Ergebnisse liefern können. Größere Modelle sind nicht automatisch besser – Trainingsqualität, Daten und Feinabstimmung spielen eine ebenso wichtige Rolle.

Ein bekanntes Problem von LLMs sind Halluzinationen: Das Modell erfindet sachlich falsche Informationen, gibt diese aber mit scheinbarer Sicherheit aus. Das liegt daran, dass das Modell keine Datenbank durchsucht, sondern auf Basis statistischer Muster Antworten generiert. Für professionelle Medienarbeit ist daher eine manuelle Überprüfung aller LLM-Ausgaben unverzichtbar.

Wichtige aktuelle LLMs sind: GPT-4o (OpenAI), Claude 3.5 Sonnet/Opus (Anthropic), Gemini 1.5 Pro (Google), Llama 3.1 (Meta, Open Source) und Mistral Large (Mistral AI). Jedes Modell unterscheidet sich in Kontext-Fenstergröße, Stärken bei bestimmten Aufgaben, Geschwindigkeit und Kosten.

Beispiele

  1. Redaktionsarbeit: Eine Onlineredaktion nutzt ein LLM, um aus Pressemitteilungen erste Textentwürfe zu erstellen, die anschließend von Redakteur:innen überarbeitet werden. Das LLM strukturiert den Text und fasst die wichtigsten Informationen zusammen.
  2. Kundenkommunikation: Ein Medienunternehmen setzt ein per Fine-Tuning spezialisiertes LLM als Chatbot auf seiner Website ein, der häufig gestellte Fragen zu Abonnements automatisch beantwortet.
  3. Übersetzung und Lokalisierung: Eine Werbeagentur verwendet ein LLM, um englische Werbekampagnen ins Deutsche zu übersetzen und dabei kulturell passende Formulierungen zu wählen, die anschließend von einem Muttersprachler überprüft werden.

In der Praxis

Für die Medienproduktion empfiehlt es sich, LLMs über benutzerfreundliche Oberflächen wie ChatGPT (chat.openai.com) oder Claude.ai zu nutzen. Fortgeschrittene Nutzer:innen können über APIs (Programmierschnittstellen) direkt auf die Modelle zugreifen und sie in eigene Workflows integrieren. Dabei ist zu beachten: Je präziser und strukturierter die Eingabe (der sogenannte Prompt) formuliert ist, desto besser die Ausgabe. Vage Anfragen führen zu generischen Ergebnissen; konkrete, kontextreiche Prompts zu brauchbaren Texten.

Beim Einsatz für professionelle Inhalte sollte stets ein Faktencheck erfolgen, da LLMs keine verlässliche Informationsquelle sind. Sie eignen sich hervorragend als Schreibassistenten, Brainstorming-Partner oder für strukturelle Aufgaben wie Gliederungen, Zusammenfassungen und Umformulierungen.

Vergleich & Abgrenzung

LLMs werden häufig mit klassischen Suchmaschinen verwechselt: Suchmaschinen durchsuchen indexierte Webseiten und liefern Links; LLMs generieren Antworten auf Basis von Trainingsmustern. Das Ergebnis kann klingen wie eine Suchmaschinenantwort, ist aber keine Echtzeit-Information aus dem Web (außer bei Modellen mit aktivierter Websuche-Funktion).

Ältere regelbasierte KI-Systeme (z. B. einfache Chatbots der 2010er Jahre) folgten festgelegten Entscheidungsbäumen; LLMs hingegen sind flexibel und können auf unvorhergesehene Fragen reagieren. Sie unterscheiden sich auch von Bildgenerierungsmodellen (wie Stable Diffusion), die auf Bilddaten statt auf Texten trainiert sind.

Häufige Fragen (FAQ)

Kann ein LLM wirklich „denken" oder „verstehen"? LLMs verarbeiten Sprache auf der Basis statistischer Muster – sie haben kein Bewusstsein, keine Meinungen und kein echtes Verständnis im philosophischen Sinne. Sie können jedoch komplexe Aufgaben lösen, Texte strukturieren und Zusammenhänge erkennen, die für viele Alltagsaufgaben ausreichend sind. Die Grenze zwischen „Simulation von Verstehen" und „echtem Verstehen" ist wissenschaftlich umstritten.

Sind meine Eingaben in einem LLM sicher? Das hängt vom jeweiligen Anbieter ab. Bei öffentlichen Diensten wie ChatGPT (kostenlose Version) können Eingaben für das weitere Training verwendet werden. Unternehmen sollten keine vertraulichen Kunden- oder Geschäftsdaten in öffentliche LLM-Dienste eingeben. Für sensible Daten existieren datenschutzkonforme Enterprise-Varianten oder selbst gehostete Open-Source-Modelle wie Llama 3.

Verwandte Einträge

Weiterführend

  • Vaswani, A. et al. (2017): Attention Is All You Need. Google Research / arXiv:1706.03762
  • Bommasani, R. et al. (2021): On the Opportunities and Risks of Foundation Models. Stanford CRFM / arXiv:2108.07258
  • Bundeszentrale für politische Bildung (2024): Große Sprachmodelle – wie funktioniert KI? bpb.de
Verwandte Einträge
ChatGPTClaudeGenerative KIPrompt Engineering
← Zurück zu GenAI & Content Creation
Infotag · 13. Mai · 15:00 Uhr · Vor Ort

Sei am Mittwoch dabei.
Bring Eltern oder Freunde mit.

Ein halber Nachmittag, der dir drei Jahre Klarheit bringen kann. Kostenlos, unverbindlich, ehrlich.

  • Rundgang durch Studios, Schnitträume und Tonstudio
  • Echte Absolventenfilme sehen
  • 1:1-Beratung zu Bewerbung & BAföG
  • Studierende direkt fragen
  • Kaffee, Snacks, kein Sales-Pitch
  • Auch online möglich

Platz beim Infotag reservieren

Dauert 30 Sekunden. Bestätigung per E-Mail.
100 % kostenlos · keine Verpflichtung · jederzeit absagbar