Mark Jackley | Content Strategist | 16. Februar 2024
Große Sprachmodelle, kurz LLMs, sind eine zunehmend verbreitete Form der künstlichen Intelligenz, die in erster Linie darauf ausgelegt ist, auf Eingaben per Text, Sprache oder anderen Kanälen mit menschenähnlichen Antworten zu reagieren. Da LLMs auf großen Textmengen trainiert werden, lernen sie, das nächste Wort oder eine Wortfolge basierend auf dem durch den Prompt vorgegebenen Kontext vorherzusagen – sie können sogar den Schreibstil bestimmter Autoren oder ganzer Genres nachahmen.
LLMs gelangten in den frühen 2020er-Jahren aus den Forschungslabors in die breite Öffentlichkeit. Seitdem haben sie sich dank ihrer beeindruckenden Fähigkeit, Anfragen zu interpretieren und relevante Antworten zu generieren, sowohl zu eigenständigen Produkten als auch zu wertsteigernden Funktionen in Unternehmenssoftware entwickelt. Sie unterstützen heute unter anderem Natural Language Processing, maschinelle Übersetzung, Content-Erstellung, Chatbots, Dokumentenzusammenfassungen und vieles mehr.
Diese Technologie entwickelt sich rasant weiter. Sie verarbeitet immer größere Datenmengen und integriert zusätzliche Trainings- und Tuningphasen, um die Leistungsfähigkeit der Modelle zu erhöhen. Umfangreichere und tiefere Trainingsprozesse – ermöglicht durch immer leistungsfähigere Compute-Infrastrukturen – führen zu zunehmend ausgereiften Fähigkeiten im Bereich des Reasonings. Diese lassen sich nutzen, um Pläne zu erstellen, mit denen organisatorische Ziele effizient erreicht werden können. Diese Reasoning-Fähigkeiten bilden zudem die Grundlage für die Funktionsweise von KI-Agenten. Sie setzen fortgeschrittene LLMs ein, um Aufgaben zu erledigen, die ihnen von menschlichen Anwendern vorgegeben werden.
Große Sprachmodelle sind Systeme der künstlichen Intelligenz, die auf umfangreichen Datensätzen trainiert wurden – oft bestehend aus Milliarden von Wörtern aus Büchern, dem Web und anderen Quellen –, um menschenähnliche und kontextrelevante Antworten auf Anfragen zu erzeugen. Da LLMs darauf ausgelegt sind, Fragen – oder „Prompts“ in der LLM-Terminologie – zu verstehen und natürliche Sprachantworten zu generieren, können sie Aufgaben übernehmen wie das Beantworten von Kundenanfragen, das Zusammenfassen von Berichten, das Übersetzen zwischen Sprachen sowie das Verfassen von Gedichten, Computercode oder ersten Entwürfen von E-Mails. LLMs verfügen in der Regel über ein ausgeprägtes Verständnis der Grammatik und Semantik der Sprachen, in denen sie trainiert wurden. Zudem lassen sie sich so konfigurieren, dass sie mit den unternehmenseigenen Daten arbeiten und dadurch Antworten liefern, die speziell auf die Organisation zugeschnitten sind.
Trotz dieser beeindruckenden Fähigkeiten sollten sich Anwender der Grenzen von LLMs bewusst sein. Veraltete Daten oder unpräzise formulierte Prompts können zu Fehlern führen – wie z. B. wenn ein Chatbot eine falsche Antwort zu den Produkten eines Unternehmens gibt. Ein Mangel an ausreichenden Daten kann dazu führen, dass LLMs Antworten erfinden oder „halluzinieren“. Und obwohl LLMs hervorragende Vorhersagen liefern, konnten sie historisch nur unzureichend erklären, wie sie zu einer bestimmten Schlussfolgerung gelangt sind. Genau in diesen Bereichen setzen neuere LLMs an und streben deutliche Verbesserungen an.
Dennoch stellen LLMs einen bedeutenden Fortschritt im Bereich des Natural Language Processing dar. Für Unternehmen ergeben sich vielfältige Einsatzmöglichkeiten – neue Anwendungen entstehen derzeit in rasantem Tempo und werden bereits breit eingesetzt.
Wichtige Erkenntnisse
Die Verarbeitung natürlicher Sprache ist seit den 1960er-Jahren ein aktives Forschungsfeld der künstlichen Intelligenz, und frühe Sprachmodelle reichen mehrere Jahrzehnte zurück. Große Sprachmodelle haben das Gebiet entscheidend vorangebracht, indem sie Deep Learning einsetzen – eine Technik, bei der Machine Learning in Schichten auf neuronale Netze aufsetzt, um deutlich leistungsfähigere Modelle zu entwickeln. Ein weiteres Merkmal von LLMs ist, dass das Training des Foundation Models ohne menschliche Eingriffe in Form von gelabelten Daten erfolgt – ein Verfahren, das als selbstüberwachtes Lernen bezeichnet wird.
Die moderne Vorstellung eines LLM entstand 2017 durch ein wegweisendes Paper von Google, das eine leistungsstarke neue Architektur namens Transformer-Netzwerke beschrieb. Transformer nutzen einen Self-Attention-Mechanismus, der parallele Verarbeitung ermöglicht und sowohl das Training als auch den Einsatz der Modelle erheblich beschleunigt und kostengünstiger macht. OpenAI setzte diese Architektur ein, um GPT-1 zu entwickeln, das von vielen als das erste moderne LLM betrachtet wird.
Unternehmen wurden schnell aufmerksam – sie erkennen zunehmend, dass LLMs eine Vielzahl von Anwendungsfällen unterstützen können und ein enormes Potenzial bieten, ihre Geschäftsprozesse produktiver, effizienter und kundenorientierter zu gestalten.
LLMs sind nur eine von vielen Arten künstlicher Intelligenz, die durch Machine Learning entwickelt werden. Dennoch gibt es einige Merkmale, die diese Modelle klar definieren und von anderen unterscheiden. An erster Stelle steht ihre Größe. Das „Large“ in LLM bezieht sich sowohl auf die Anzahl der Parameter, die die endgültige Ausgabe berechnen, als auch auf die Datenmenge, die beim Training des Modells verwendet wird, um diese Parameter anzupassen.
LLMs sind der Motor unter der Haube vieler moderner Anwendungen. Die breite Öffentlichkeit entdeckte ihre beeindruckenden Fähigkeiten vor allem mit dem Aufkommen von ChatGPT – der browserbasierten Bereitstellung des GPT-3.5-Modells von OpenAI – sowie späterer Versionen wie GPT-4o und GPT-4. Doch die Vorteile reichen weit über den Consumer-Bereich hinaus: In Unternehmen beweisen LLMs ihr Potenzial in Branchen und Geschäftsbereichen wie Finanzdienstleistungen, HR, Einzelhandel, Marketing und Vertrieb, Softwareentwicklung, Kundensupport und Gesundheitswesen.
Zu den verbreiteten geschäftlichen Einsatzszenarien gehören Kundenservice-Chatbots, Analysen der Kundenstimmung sowie kontextbezogene, idiomatische und natürlich klingende Übersetzungsdienste. Daneben übernehmen LLMs im Hintergrund spezialisierte Aufgaben wie die Vorhersage von Proteinstrukturen in der pharmazeutischen Forschung, das Schreiben von Softwarecode oder das Unterstützen von Agenten, die Unternehmen zunehmend zur Automatisierung von Geschäftsprozessen einsetzen.
LLMs kommen in einer stetig wachsenden Zahl von geschäftlichen Anwendungsfällen zum Einsatz. Viele Unternehmen nutzen heute beispielsweise Chatbots als Bestandteil ihrer Kundenservice-Strategie. Doch dank der Vielseitigkeit dieser Modelle setzen innovative Enterprise-Softwareentwickler die zugrunde liegende Technologie ein, um ein breites Spektrum an Aufgaben zu bewältigen – weit über die reine Generierung sprachlicher Antworten hinaus.
1. Automatisierung des Kundensupports
Der Kundenservice ist der offensichtlichste Anwendungsbereich von LLMs in Unternehmensumgebungen – insbesondere aus Sicht der Kundschaft. Dialogorientierte Benutzeroberflächen, also Chatbots, können rund um die Uhr nahezu unbegrenzt viele Anfragen bearbeiten. Dies kann die Reaktionszeiten erheblich verkürzen, die häufig durch überlastete Callcenter-Mitarbeiter entstehen – ein wesentlicher Faktor für Kundenfrustration.
Durch die Integration von Chatbots mit weiteren LLM-basierten Anwendungen lassen sich Folgeaktionen nach einem Supportkontakt automatisieren, wie z. B. das Versenden eines Ersatzteils, eines Dokuments oder einer Umfrage. LLMs können zudem menschliche Supportteams direkt unterstützen, indem sie zeitnahe Informationen, Stimmungsanalysen, Übersetzungen und Zusammenfassungen von Interaktionen bereitstellen.
Ein Fondsmanager, der in mehr als 50 Ländern und 80 Sprachen tätig ist, nutzt diese Möglichkeiten, um es Kunden zu erleichtern, die Finanzprodukte zu finden und auszuwählen, die am besten zu ihren Bedürfnissen passen. Das auf Altersvorsorgekonten spezialisierte Unternehmen modernisierte seinen Kundenservice mit einem maßgeschneiderten Chatbot – und erzielte damit eine Steigerung des Servicelevels um 150 % sowie eine Senkung der Betriebskosten um 30 %. Kunden können nun jederzeit und in vielen Sprachen über die Webseite des Unternehmens Fragen zu ihren Konten stellen.
2. Inhaltsgenerierung und Zusammenfassung
LLMs können eigenständige Inhalte erstellen oder bestehende Inhalte zusammenfassen. Beide Einsatzszenarien sind für Unternehmen jeder Größe äußerst wertvoll: Generative KI wird zunehmend genutzt, um Berichte, E-Mails, Blogs, Marketingmaterialien und Social-Media-Beiträge zu verfassen – und dabei die Fähigkeit von LLMs zu nutzen, Inhalte für bestimmte Zielgruppen oder einzelne Kunden maßzuschneidern.
Die Zusammenfassung großer Informationsmengen verdichtet Inhalte domänensensibel in ein Format, das Menschen schneller erfassen und verarbeiten können. LLMs erreichen dies entweder, indem sie die Relevanz verschiedener Ideen im Text bewerten und zentrale Abschnitte extrahieren, oder indem sie kompakte Überblicke über jene Informationen generieren, die sie als besonders relevant und wichtig erachten.
Allerdings wird LLMs gelegentlich vorgeworfen, „auf Durchschnitt zu kürzen“ – also zu generisch zusammenzufassen und wichtige Details oder Akzentuierungen des Ausgangstextes zu übersehen. Zudem ist es schwierig, die Zuverlässigkeit von Zusammenfassungen objektiv zu bewerten und die Leistung verschiedener Modelle entsprechend zu vergleichen. Dennoch setzen Unternehmen diese Fähigkeit mit großer Begeisterung ein.
Ein führender Anbieter für Cloud-Kommunikation implementierte LLMs, um Transkripte von Hunderten Supporttickets und Chats, die täglich in fast zwei Dutzend Sprachen stattfinden, automatisch zusammenzufassen. Diese Zusammenfassungen helfen Supportingenieuren nun, Kundenprobleme schneller zu lösen und das gesamte Kundenerlebnis zu verbessern.
3. Sprachübersetzungen
Googles ursprüngliches Ziel bei der Entwicklung von Transformern war es, Maschinen besser für die Übersetzung zwischen Sprachen zu befähigen. Erst später beeindruckte das Modell Entwickler mit deutlich weiterreichenden Fähigkeiten. Die ersten Implementierungen dieser Architektur erreichten das gesetzte Ziel: Sie lieferten eine unübertroffene Leistung bei der Englisch-Deutsch-Übersetzung – und das mit einem Modell, das erheblich weniger Trainingszeit und Compute-Ressourcen benötigte als seine Vorgänger.
Moderne LLMs gehen weit über diesen begrenzten Anwendungsfall hinaus. Obwohl die meisten LLMs nicht speziell als Übersetzungssysteme trainiert werden, brillieren sie dennoch darin, Texte einer Sprache zu interpretieren und klar in einer anderen Sprache wiederzugeben – vorausgesetzt, sie wurden umfassend auf Datensätzen in beiden Sprachen trainiert. Dieser Durchbruch beim Überwinden sprachlicher Barrieren ist für global tätige Unternehmen von enormem Wert. Multinationale Unternehmen nutzen fortschrittliche Sprachdienste beispielsweise dafür, mehrsprachigen Support für ihre Produkte und Dienstleistungen bereitzustellen, Leitfäden, Tutorials und Marketinginhalte zu übersetzen oder bestehende Schulungsmaterialien zu nutzen, um Mitarbeiter beim Eintritt in neue Länder zu trainieren.
Fortschritte bei multimodalen Modellen
Ein aktives Forschungsfeld beschäftigt sich damit, LLMs als Foundation Models für KI einzusetzen, die Ausgaben in anderen Modalitäten als Sprache erzeugt. Die beeindruckende Vielseitigkeit von LLMs ermöglicht es – durch Fine-Tuning mit gelabelten Daten –, Audio, Bilder und sogar Videos zu interpretieren und zu erzeugen. Modelle, die Prompts in anderen Modalitäten entgegennehmen oder Ausgaben in solchen Modalitäten generieren, werden häufig als Large Multimodal Models (LMMs) bezeichnet.
Umweltaspekte
LLMs benötigen in der Regel enorme Rechenleistung, um entwickelt und im großen Maßstab betrieben zu werden. Das Training eines einzelnen Modells auf einem Cluster mit Hunderten oder sogar Tausenden GPUs über mehrere Wochen kann immense Energiemengen verbrauchen. Und sobald ein erfolgreiches Modell bereitgestellt ist, verlangt auch die Inferenzinfrastruktur weiterhin erhebliche Strommengen, um laufend Benutzeranfragen zu verarbeiten.
Für das Training von GPT-4 wurden Schätzungen zufolge etwa 50 Gigawattstunden Energie benötigt. Zum Vergleich: 50 Gigawattstunden könnten theoretisch 4.500 bis 5.000 durchschnittliche US-Haushalte ein Jahr lang mit Strom versorgen. ChatGPT verbraucht inzwischen schätzungsweise Hunderte Megawattstunden pro Tag, um Millionen von Anfragen zu beantworten. Mit zunehmender Größe der Sprachmodelle dürften die Bedenken hinsichtlich Energieverbrauch und Nachhaltigkeit weiter zunehmen. Aus diesem Grund gehören Unternehmen im Bereich künstliche Intelligenz zu den Vorreitern bei der Suche nach alternativen Energiequellen, um ihren CO2-Fußabdruck zu reduzieren.
Oracle stellt Unternehmen die Leistungsfähigkeit von LLMs zur Verfügung, ohne dass sie sich mit den technischen Details – oder dem Energiebedarf – dieser faszinierenden Technologie auseinandersetzen müssen. Oracle Cloud Infrastructure (OCI) Generative AI ist ein vollständig verwalteter Service, der die Bereitstellung modernster LLMs vereinfacht – individuell angepasst, äußerst effektiv und kosteneffizient, ohne dass komplexe Infrastruktur verwaltet werden muss. Unternehmen können aus mehreren Foundation Models wählen und diese anschließend auf dedizierten GPU-Clustern mit ihren eigenen Daten feinabstimmen, sodass maßgeschneiderte Modelle entstehen, die ihre geschäftlichen Anforderungen optimal unterstützen.
Unternehmen, die stärker mit der zugrunde liegenden Technologie experimentieren möchten, nutzen zunehmend Machine Learning in Oracle Database. Die Plattform ermöglicht es Data Scientists, Modelle schnell zu entwickeln, indem sie zentrale Elemente des Machine-Learning-Lebenszyklus vereinfacht und automatisiert – ohne dass sensible Daten aus den Oracle Databases migriert werden müssen. Zu den Funktionen zählen gängige Machine-Learning-Frameworks, APIs, automatisiertes Machine Learning (AutoML) und No-Code-Oberflächen sowie mehr als 30 leistungsstarke In-Database-Algorithmen für die Modellerstellung in Anwendungen.
Viele führende Unternehmen nutzen zudem die Oracle AI Infrastructure, um ihre eigenen LLMs zu entwickeln. Diese Infrastruktur bildet die Grundlage für höherwertige KI-Services wie OCI Generative AI und eignet sich für selbst anspruchsvollste LLMs – mit beschleunigter Rechenleistung, leistungsfähiger Vernetzung und optimiertem Speicher.
Das Potenzial von LLMs, die Arbeitsweise von Unternehmen und ihre Interaktionen mit Kunden zu transformieren, ist so groß, dass neue Durchbrüche und Investitionen in diese Technologie globale Märkte bewegen und Unternehmensstrategien neu ausrichten können. Gleichzeitig ist es für Geschäfts- und IT-Verantwortliche wichtig, über den Hype hinauszublicken – die Grundlagen der Funktionsweise von LLMs ebenso zu verstehen wie ihre Grenzen und die Herausforderungen bei der Einführung. Nur so lassen sich die vielen greifbaren Vorteile erkennen, die diese Technologie bieten kann.
LLMs treiben viele der bahnbrechenden Technologien an, die unsere Arbeitswelt grundlegend verändern.
Wie werden große Sprachmodelle für spezifische Anwendungen feinabgestimmt?
LLMs werden für spezifische Anwendungen feinabgestimmt, indem auf die anfängliche Pretraining-Phase des selbstüberwachten Lernens zur Entwicklung eines Foundation Models eine Phase des überwachten Lernens mit einer kleineren Menge domänenspezifischer, gelabelter Daten folgt.
Welche Branchen profitieren am meisten vom Einsatz großer Sprachmodelle?
Nahezu jede Branche entdeckt derzeit die Vorteile von LLMs. Insbesondere das Gesundheitswesen, die Finanzdienstleistungen und der Einzelhandel prüfen vielfältige Einsatzszenarien, um den Kundenservice zu verbessern und Geschäftsprozesse zu automatisieren.
Können große Sprachmodelle in Unternehmenssysteme integriert werden?
Große Sprachmodelle werden häufig integriert, indem Foundation Models mit Unternehmensdaten feinabgestimmt und durch proprietäre Daten mittels Retrieval-Augmented Generation erweitert werden.