Direkt zum Inhalt

Sind Sie bereit für das Zeitalter der generativen KI?

Während einer Anhörung im Senat der Vereinigten Staaten von Amerika am 16. Mai forderte Sam Altman, der Chief Executive Officer von OpenAI, die Regierungen auf, Künstliche Intelligenz (KI) zu regulieren. Der "Vater von ChatGPT" erkannte die Risiken der KI - und insbesondere der generativen KI - an. Die Welt scheint noch nicht bereit zu sein für eine so mächtige Technologie. Aber das Potenzial der KI, das Wirtschaftswachstum voranzutreiben, ist so gross, dass es einen hohen Preis haben würde, die Entwicklung zu stoppen (wie es einige Experten vorgeschlagen haben) oder die damit verbundenen Chancen aus Angst vor den Risiken nicht zu nutzen: den Preis der Untätigkeit. Ist Ihr Unternehmen also bereit für das Zeitalter der generativen KI?


Überall dort, wo die Erstellung von Inhalten in einem Geschäftsprozess oder einer Dienstleistung vorkommt, besteht die Möglichkeit, generative KI zu nutzen. Zu den möglichen Anwendungsfällen in verschiedenen Branchen und Anwendungen gehören:

Die potenziellen Vorteile der generativen KI sind enorm. Sie sind jedoch auch mit erheblichen Risiken verbunden und werfen eine Reihe rechtlicher, ethischer und regulatorischer Bedenken auf. Zum Beispiel birgt die Fähigkeit der generativen KI, sehr überzeugende Inhalte zu generieren, das Risiko von Fehlinformationen und auch das Risiko von Betrug für Organisationen, die sich zur Unterstützung ihrer Entscheidungsfindung auf die Angaben Dritter verlassen. Generative KI wirft angesichts der damit verbundenen Datenschutz- und Sicherheitsrisiken auch Bedenken hinsichtlich der Einhaltung von Datenschutzgesetzen auf, da Anbieter sensible Eingabedaten verwenden könnten, um ihr Modell zu verbessern oder diese Daten an Dritte weiterzugeben, und individuelle Rechte wie Löschung, Information, Einwilligung und Widerruf sind schwieriger durchzusetzen. Es besteht auch das Risiko des Missbrauchs. Generative KI-Systeme können für andere Zwecke als die ursprünglich beabsichtigten verwendet werden, z. B. für die Erstellung ausgeklügelter Phishing-Kampagnen und Malware - was ebenfalls ein Risiko für die Cybersicherheit darstellen würde -, selbst wenn Schutzmechanismen vorhanden sind.

Die Frage, ob Benutzer das Urheberrecht für Inhalte beanspruchen können, die von einem generativen KI-System erzeugt wurden, das auf urheberrechtlich geschützten Daten trainiert wurde, ist Gegenstand laufender Rechtsstreitigkeiten weltweit. Und ob ein generatives KI-System als Autor wissenschaftlicher Veröffentlichungen anerkannt werden sollte, ist eine ethische Frage, da es nicht für die Qualität und Integrität der von ihm generierten Inhalte verantwortlich gemacht werden könnte. Hinzu kommt, dass Unternehmen, die KI-Systeme auf den Markt bringen oder in Betrieb nehmen, bald Vorschriften einhalten müssen, die darauf abzielen, die Risiken zu kontrollieren, wie Sam Altman angedeutet hat.

Das Gesetz der Europäischen Union (EU) über künstliche Intelligenz wird derzeit vom Europäischen Parlament geprüft und soll 2024 verabschiedet werden. Es ist ein Ansatz zur Regulierung der KI, der Mindestanforderungen festlegt, um die Risiken und Bedenken im Zusammenhang mit der KI anzugehen.

Generative KI stellt eine besondere Herausforderung für die Regulierung dar. KI-Systeme mit hohem Risiko, d.h. solche, die die Gesundheit und Sicherheit von Personen gefährden oder deren Grundrechte beeinträchtigen, unterliegen strengen Compliance-Anforderungen: kontinuierliches Risikomanagement, strenge Datenverwaltung und -kontrolle, umfassende technische Dokumentation und Aufzeichnungen, Gewährleistung menschlicher Aufsicht, Transparenz und ein hohes Mass an Genauigkeit, Robustheit, Konsistenz und Cybersicherheit. Es ist klar, dass generative KI-Systeme ein enormes Potenzial haben, als risikoreich eingestuft zu werden, und die Einhaltung der Anforderungen des EU-KI-Gesetzes für solche Systeme wird daher eine Herausforderung sein.

Denken Sie beispielsweise an die Anforderung der Transparenz, die verlangt, dass die Funktionsweise eines KI-Systems hinreichend transparent sein muss, damit die Nutzer seine Ergebnisse angemessen interpretieren und nutzen können. Eine kürzlich durchgeführte Studie, die die Konsistenz von ChatGPT bei der Erteilung moralischer Ratschläge untersuchte, kam zu dem Schluss, dass es inkonsistent ist und einen moralischen Standpunkt vermissen lässt. Noch wichtiger ist, dass es das moralische Urteil der Benutzer stärker beeinflusst, als diese wahrnehmen können, obwohl sie sich ihrer Interaktion mit einem KI-System bewusst sind [1]. ChatGPT hat das Potenzial, zu korrumpieren, und Transparenz erweist sich als unzureichend, um den verantwortungsvollen Einsatz von KI zu ermöglichen.

Was ist dann ausreichend? Wir müssen abwarten, wie die EU die spezifischen Probleme der generativen KI regelt. In der Zwischenzeit müssen Unternehmen, die generative KI einsetzen, zwischen übertriebenen und realistischen Anwendungen unterscheiden und einen verantwortungsvollen Einsatz sicherstellen. Sie sollten sich auch auf die Einhaltung des EU-KI-Gesetzes vorbereiten, denn bei Nichteinhaltung drohen hohe Bussgelder (in manchen Fällen mehr als die GDPR-Bussgelder) und ein Imageschaden.

 

Dieser Artikel wurde geschrieben von Aczel Garcia Rios PhD und Rebeka Gadzo


Referenzen

[1] "ChatGPT's inconsistent moral advice influences users' judgment" S. Krügel, A. Ostermaier, and M. Uhl, Nature, Scientific Reports 13, 4569 (2023). DOI: s41598-023-31341-0

Fanden Sie dies hilfreich?

Vielen Dank für Ihr Feedback

Wenn Sie helfen möchten, Deloitte.com weiter zu verbessern, füllen Sie bitte ein 3-minütige Umfrage aus