Large Language Models (LLMs) wie GPT-3 können nicht nur Fragen beantworten und Informationen wiedergeben, sondern haben auch die Fähigkeit, diese Informationen zu interpretieren, umzuschreiben und völlig neue Texte zu generieren. Sie können kohärente und menschenähnliche Texte produzieren, die auf dem Wissen basieren, das ihnen vermittelt wurde. Dadurch sind sie äußerst vielseitig und können in einer breiten Palette von Anwendungen eingesetzt werden, darunter Übersetzungen, Texterstellung, Dialogsysteme und viele mehr.
Mittels Retrieval Augmented Generation (RAG) nutzen Unternehmen Large Language Models mit ihrem spezifischen Wissen. Hierzu wird Large Language Models unternehmensspezifisches, nicht allgemein zugängliches Wissen aus unterschiedlichsten Quellen wie PDFs, Word-, PowerPoint-, Excel-Dateien und Datenbanken zur Verfügung gestellt, welches sie logisch verarbeiten. Diese Informationen werden in einer Wissensdatenbank gespeichert und können so in passendem Format und Umfang den Large Language Models bereitgestellt werden. Die Large Language Models dienen somit als reine Logikinstanz zur Zusammenführung der Informationen und werden lediglich mit Fachwissen aus der Wissensdatenbank gefüttert.
Die Verwendung einer RAG-Modellarchitektur läuft typischerweise folgendermaßen ab:
Ein Benutzer stellt eine Anfangsfrage, die an die Wissensdatenbank gesendet wird. Aus der Datenbank werden nun die Informationsabschnitte, die relevant für die gestellte Frage sind, extrahiert und zusammen mit der Frage des Nutzers an das Large Language Model übergeben. Das Large Language Model hat nun beides: die ursprüngliche Frage und die relevanten Informationsabschnitte aus internen Daten. Damit ist das Large Language Model in der Lage, Antworten speziell mithilfe der internen Daten zu geben oder eine gewünschte Aktion auszulösen, z.B. eine Pop-Up Meldung in einem Dashboard, Versendung einer E-Mail oder Ähnliches.
Dies macht diese Technik vielseitig einsetzbar. Bspw. können Risikoanalysen auf Grundlage von Jahresabschlüssen und Prüfungsberichten schneller durchgeführt werden und vom System direkt geeignete Gegenmaßnahmen vorgeschlagen werden.
Durch umfangreiche Branchenkenntnisse, tiefgehende praktische Erfahrung sowie ein ausgeprägtes technisches Verständnis in unserem Team von Fachexperten für Themen des Risikomanagements und Data Scientists können individuelle KI-Lösungen realisiert werden. Deloitte begleitet seine Kunden auf dem Weg zu eigens auf ihre Bedürfnisse zugeschnittenen Anwendungen und navigiert sie sicher durch typische Herausforderungen wie die Sicherstellung einer ethischen und sicheren Anwendung mithilfe unseres Trustworthy AI Frameworks.
In sechs Schritten führen wir unsere Kunden zum unternehmenseigenen KI-Tool:
Gemeinsam mit dem Kunden erfassen wir in einem strukturierten Vorgehen zunächst die konkreten Anforderungen im Rahmen einer zwei bis vier-wöchigen Analyse. Dazu gehören je nach Erfahrung unserer Kunden der Aufbau eines Data Science-Teams im Kundenunternehmen oder die Auswahl der passenden Infrastruktur, bspw. On-Premises- oder Cloud-Umgebung, und Software, bspw. Versionsmanagement oder integrierte Entwicklungsumgebung (IDE). Im Zuge von moderierten Gruppendiskussionen identifizieren wir gemeinsam mit den Fachmitarbeitenden geeignete Anwendungsfälle im eigenen Unternehmen, wobei diese nach Relevanz und Dringlichkeit bewertet werden.
Hierbei kommen selbst in kleinen Einrichtungen schnell über 50 Anwendungsfälle zusammen. Unser Kunde kann für die Identifizierung der Anwendungsfälle einen eigenen Fokus z.B. auf Automatisierung von Risikoanalysen oder Risikoindikatoren legen. Die Anwendungsfälle analysieren wir anschließend auf Machbarkeit und hinsichtlich ihrer Anforderungen, sodass auf Kundenseite ein umfassendes Verständnis für die erforderlichen Voraussetzungen und den Umsetzungsprozess erreicht wird. Somit kann unser Kunde eine fundierte Entscheidung für einen oder mehrere umzusetzende Anwendungsfälle treffen.
Die eigentliche Umsetzung beginnen wir mit der Datenbeschaffung. Diese erfolgt je nach Anwendungsfall bspw. durch Web Scraping von News- oder Social-Media-Inhalten oder APIs (Application Programming Interfaces). Im Fall von Retrieval Augmented Generation (RAG) findet die Datenbeschaffung in der Regel in Form einer strukturierten Identifizierung relevanter unternehmensinterner Dateien und Datenbanken statt. Anschließend führen wir die Systementwicklung mit Modellauswahl und ggf. -training, Design und Realisierung einer Benutzeroberfläche durch.
Hierbei profitieren unsere Kunden von unseren vielfältigen Initiativen aus dem Deloitte aistudio, welches vorkonfigurierte KI-Tools bereitstellt, die schnell auf die jeweiligen Kundenanforderungen angepasst werden können. Darüber hinaus verfügen wir durch unsere Allianzpartnerschaften mit Google, Amazon Web Services (AWS) und Microsoft Azure über umfangreiche Kenntnisse in der effizienten Nutzung der über die Anbieter verfügbaren KI-Funktionalitäten.
Nach der Entwicklung integrieren wir das System in die bestehende IT-Infrastruktur und führen eine Testphase durch, die sicherstellt, dass das System störungsfrei funktioniert. In der Roll-out- und Schulungsphase wird das entwickelte System den Mitarbeitenden zur Verfügung gestellt und sie werden von uns hinsichtlich der Nutzung geschult. Eine kontinuierliche Überwachung und Weiterentwicklung, auch nach Projektabschluss z.B. durch Erfassung von Benutzerfeedback, stellen einen langfristigen Betrieb und hohe Qualität der Ergebnisse sicher. Wir unterstützen unsere Kunden auch bei diesen Aufgaben und Herausforderungen im operativen Betrieb.
Durch die passende Infrastruktur, ein ausgebildetes Team sowie die Begleitung von KI-Umsetzungen während des Projektes befähigen wir unsere Kunden, zukünftig eigenständig weitere Anwendungsfälle umzusetzen. Kontaktieren Sie uns gerne bei weiteren Fragen zu unseren Services.
Sebastian Pachl
Manager | Financial Industry Risk and Regulatory
spachl@deloitte.de
+49 69 756956937