Ein Jahr ChatGPT - und jetzt?

Wie Unternehmen KI-Tools wie ChatGPT und Co. für die eigene Geschäftsentwicklung nutzen können, ist Thema dieses Beitrags von unserem Gastexperten Pitt Höher. Tauchen Sie ein in die Welt der Large Language Models (LLM) und erkunden Sie das Potenzial, das in der Verarbeitung natürlicher Sprache und KI-basierter Innovation schlummert. Ein Glossar am Ende hilft, die weite Welt der KI-Möglichkeiten besser zu verstehen.
IHK24 Artikel Bannerbild 2023 (5)

Was ist ChatGPT & generative KI?

Mittlerweile ist ChatGPT weitgehend bekannt, aber die Frage, wie diese Technologie im Unternehmenskontext in konkrete Mehrwerte umgesetzt werden kann, ist für viele noch offen.
ChatGPT basiert auf einem sogenannten Large Language Model (LLM) und stellt eine Form der generativen Künstlichen Intelligenz (KI) dar. Das „Large" in Large Language Model bezieht sich auf die enorme Anzahl von Parametern, die während des Trainings angepasst werden, um aus Daten zu lernen. Beispielsweise hat GPT-3, das Standardmodell von ChatGPT, etwa 175 Milliarden solcher Parameter.
Diese LLMs sind in der Lage, eine Vielzahl von Aufgaben im Bereich der natürlichen Sprachverarbeitung (Natural Language Processing) zu bewältigen. Dazu gehören unter anderem das Generieren und Klassifizieren von Texten, das Beantworten von Fragen in Konversationen und das Übersetzen von Sprachen. Dies ist möglich, weil LLMs durch Training an sehr großen Textmengen ein semantisches Verständnis von Sprache entwickelt haben und so die Wahrscheinlichkeit des nächsten Wortes vorhersagen können.
Generative KI wird nachhaltige Auswirkungen auf Wirtschaft und Gesellschaft haben. Eine Studie von McKinsey prognostiziert weltweit einen jährlichen Produktivitätsgewinn von 2,6 bis 4,4 Billionen US-Dollar durch generative KI. Der Einfluss dieser Technologie erstreckt sich über alle Branchen, wobei 75 Prozent der Wertschöpfung auf vier Schlüsselbereiche entfallen:
  • Kundenservice
  • Marketing und Vertrieb
  • Softwareentwicklung
  • Forschung und Entwicklung (F&E)
Laut einer Analyse von IDC erzielen Unternehmen für jeden in KI investierten Dollar einen durchschnittlichen Ertrag von 3,5 Dollar.

Konkrete Anwendungsfälle

Kundenbetreuung: LLM ermöglichen Self-Service durch KI-Chatbots, die komplexe Anfragen sofort und personalisiert beantworten, Probleme beim Erstkontakt lösen und die Reaktionszeit durch Echtzeitunterstützung verkürzen. Dies kann zu einer Produktivitätssteigerung von 30-45% führen.
Marketing und Vertrieb: Hier sorgen LLMs für eine effiziente Erstellung von Inhalten und eine personalisierte Produktfindung, was den E-Commerce-Umsatz ankurbeln kann. Generative KI könnte die Produktivität im Marketing um 5 bis 15 Prozent des Gesamtbudgets steigern.
Wissensmanagement: LLMs können den Informationsaustausch innerhalb einer Organisation erheblich erleichtern, da sie die Kommunikation mit Systemen und Datenbanken in natürlicher Sprache ermöglichen. Dadurch können die richtigen Informationen zur richtigen Zeit gefunden werden.
Software-Engineering: In der Software-Entwicklung ermöglicht die Behandlung von Coding als natürliche Sprache die Generierung oder Verbesserung von Code auf der Grundlage von Eingaben in natürlicher Sprache, was zu Produktivitätssteigerungen von 20 bis 45 % führt.

Herausforderungen und Lösungsansätze

Trotz ihres Potenzials müssen bei der Verwendung von LLM einige Einschränkungen berücksichtigt werden. Obwohl LLMs überzeugende Texte erzeugen können, kann die Genauigkeit und Zuverlässigkeit dieser Texte nicht immer garantiert werden. Zwei wesentliche technische Herausforderungen sind die Erklärbarkeit der Ergebnisse und das Phänomen der Halluzinationen, bei dem das Modell falsche oder irreführende Informationen erzeugt, die nicht von echten Inhalten unterschieden werden können.
Um diesen Herausforderungen zu begegnen, gibt es neben dem Prompt Engineering zwei gängige Methoden: Fine-Tuning und Retrieval-Augmented Generation (RAG).
Prompt Engineering beschreibt den Prozess, bei dem die Anfragen (Prompts) an ein LLM angepasst werden. Beispielsweise kann dem Modell eine Rolle zugewiesen oder die Zielgruppe spezifiziert werden, um die Wahrscheinlichkeit zu erhöhen, dass die Antwort den Erwartungen des Nutzers entspricht. Diese Methode erfordert kein tiefes technologisches Verständnis und basiert auf der Fähigkeit, seine Gedanken und Fragen klar und verständlich zu formulieren. Der Nachteil ist, dass Prompt Engineering erlernt werden muss und dass die Qualität der Antwort nicht über die Fähigkeiten des Modells hinausgehen kann.
Fine-Tuning bezeichnet den Prozess, bei dem ein bereits vortrainiertes Modell mit einem spezifischen, oft kleineren Datensatz weiter trainiert wird, um es an eine bestimmte Aufgabe oder Domäne anzupassen. Diese Methode ermöglicht eine verbesserte Leistung innerhalb dieser Aufgabe oder Domäne und ist wesentlich effizienter als das Trainieren eines neuen Modells. Allerdings kann es bei der Feinabstimmung zu einer Überanpassung kommen, bei der das Modell die Trainingsdaten “auswendig lernt” und nicht mehr in der Lage ist, mit neuen und unbekannten Anfragen effektiv zu interagieren. Die Qualität und Größe des Datensatzes für das Fine-Tuning ist entscheidend für die Leistungsfähigkeit des angepassten Modells.
Retrieval-Augmented Generation (RAG) ist eine Technik, die Informationen aus externen Datenquellen extrahiert und in die Antworten eines LLM integriert. Dies ermöglicht die Generierung präziser und faktenbasierter Antworten durch den Zugriff auf verlässliche Quellen und macht RAG besonders geeignet für Anwendungen, die aktuelle und überprüfbare bzw. verlässliche Informationen erfordern. Die Implementierung eines RAG-Systems ist jedoch komplexer und kann zu höheren Latenzzeiten führen, da externe Datenquellen durchsucht werden müssen.

Umsetzungsszenario

ChatGPT hat zweifellos das Potenzial von LLMs aufgezeigt und die Tür zu einer Vielzahl von Anwendungsmöglichkeiten im Bereich der generativen KI geöffnet. Nun ist es an der Zeit, dieses Potenzial zu nutzen, innovative Geschäftsmodelle zu entwickeln und bestehende Strukturen zu transformieren. Dabei ist es wichtig, LLMs nicht nur als Antwort auf einen aktuellen Trend einzusetzen, sondern sie gezielt in Anwendungsfeldern einzusetzen, die einen Mehrwert für die jeweilige Organisation versprechen.
Für den Erfolg von KI-Projekten, insbesondere im Bereich Natural Language Processing, ist ein ganzheitlicher Ansatz unabdingbar. Die Realisierung nachhaltiger Mehrwerte erfordert die Kombination von fachlichem Domänenwissen und technologischer Expertise, umgesetzt durch ein interdisziplinäres Team.
Eine effektive Herangehensweise an den Einsatz von KI beginnt mit einer Explorationsphase. In dieser Phase kommen unterschiedliche Fachbereiche wie Marketing oder Produktion zusammen und lernen an konkreten Beispielen die Möglichkeiten und Grenzen der Technologie kennen. Zudem werden Ideen für eigene Anwendungsfälle entwickelt. Anschließend wird in Zusammenarbeit mit Technologieexperten eine tiefergehende Analyse durchgeführt, um die potenziellen Anwendungsfälle auszuarbeiten und ihre Machbarkeit zu bewerten.
Die Validierung dieser Anwendungsfälle erfolgt durch die Entwicklung von KI-Prototypen. Auch hier ist die Einbindung eines interdisziplinären Teams von Vorteil: Während die Technologieexperten die Prototypen entwerfen und technisch evaluieren, ist die Einbindung der Nutzer unerlässlich, um eine hohe Benutzerfreundlichkeit zu gewährleisten und Akzeptanz zu schaffen.
Nach erfolgreicher Entwicklung und Validierung eines KI-Prototyps steht die Skalierung im Fokus. Ziel ist es, aus dem Prototyp eine nachhaltige Lösung zu entwickeln und diese in bestehende Prozesse und Systeme einzubetten. Dieses strukturierte Vorgehen ermöglicht es Unternehmen, das Potenzial von KI für innovative Lösungen voll auszuschöpfen und ihre Geschäftsmodelle zukunftsfähig zu gestalten.

Vertiefende Angebote

Im Rahmen unserer institutionellen Partnerschaft der IHK Südlicher Oberrhein und dem Zukunft.Raum.Schwarzwald mit dem BadenCampus in Breisach, unterstützen wir folgendes finanziell gefördertes Angebot:
Sie möchten die Potenziale der generativen KI auch für Ihr Unternehmen nutzbar machen? Nutzen Sie die Chance und bewerben Sie sich für den FRAI.accelerator am BadenCampus, der im April 2024 startet und auf das Themengebiet Natural Language Processing spezialisiert ist. Der Accelerator begleitet Sie von der Identifikation von Use Cases über die Entwicklung von Prototypen bis hin zur Skalierung, unterstützt von führenden Experten auf diesem Gebiet.
Zusätzlich haben Sie die Möglichkeit, von Fördermitteln des Landes Baden-Württemberg zu profitieren. Bei Interesse kontaktieren Sie den BadenCampus unter info@badencampus.de mit dem Stichwort ‘FRAI.accelerator’. (Sobald die Bewerbungsplattform zur Verfügung steht, aktualisiern wir dies ebenfalls hier.)
Für alle, die sich für generative KI interessieren und ihr Potenzial in der Praxis erproben möchten, bieten der BadenCampus am 1. März 2024 die Online-Session "Build your own GPT - Practical Potentials of LLMs" an. Eine kostenfreie Teilnahme und Anmeldung ist hier möglich.
Des Weiteren können Sie kostenfrei an monatlichen Online-Impulsen des impulsnetzwerk.ihk.de wie an der KI Café Impuls Serie teilnehmen, weitere Tipps und Tricks zu ChatGPT nachlesen oder uns für initiale KI-Inhouse-Workshops buchen.

Glossar

ChatGPT: Ein Computerprogramm, das auf Basis von großen Datenmengen trainiert wurde, um Texte zu verstehen und zu generieren. Es kann auf Fragen antworten, Texte schreiben und vieles mehr.
Generative Künstliche Intelligenz (KI): Ein Typ von Künstlicher Intelligenz, der neue Inhalte erzeugen kann, die zuvor nicht existierten, wie Texte, Bilder oder Musik.
Large Language Model (LLM): Ein sehr großes Computermodell, das darauf trainiert ist, menschliche Sprache zu verstehen und zu generieren. "Large" bezieht sich auf die große Menge an Daten, mit denen das Modell trainiert wurde.
Natürliche Sprachverarbeitung (Natural Language Processing, NLP): Ein Bereich der Informatik, der sich damit beschäftigt, wie Computer menschliche Sprache verstehen und verarbeiten können.
Semantisches Verständnis: Die Fähigkeit, die Bedeutung und den Kontext von Wörtern und Sätzen in der menschlichen Sprache zu verstehen.
Software-Engineering: Die Praxis der Entwicklung und Wartung von Software.
Halluzinationen (im Kontext von KI): Fehlerhafte oder irreführende Informationen, die von einem KI-Modell generiert werden, ohne dass diese auf echten oder korrekten Daten basieren.
Prompt Engineering: Die Kunst, Anfragen oder Befehle an ein KI-Modell so zu formulieren, dass es die gewünschten Ergebnisse liefert.
Fine-Tuning: Das Anpassen eines bereits vortrainierten Modells auf spezifische Aufgaben oder Daten, um dessen Leistung zu verbessern.
Retrieval-Augmented Generation (RAG): Eine Technik, bei der ein KI-Modell Informationen aus externen Datenquellen sucht und diese in seine Antworten einbezieht.
Explorationsphase: Ein Prozessschritt, bei dem eine Organisation die Möglichkeiten und Grenzen einer Technologie erforscht.
KI-Prototyp: Ein erstes Modell oder Beispiel eines KI-Systems, das entwickelt wird, um zu zeigen, wie es funktionieren kann.
Skalierung: Der Prozess, eine Lösung oder ein Produkt so anzupassen, dass es in einem größeren Maßstab oder für eine größere Benutzergruppe eingesetzt werden kann.
(Stand 14. Februar 2024, Gastautor: Pitt Höher (BadenCampus); Herausgeber: Emmanuel Beule)