Deloitte befasste sich frühzeitig mit dem Thema und hat in intensiver
Entwicklungsarbeit zusammen mit dem Deloitte aiStudio das Tool Lucid [ML]
erstellt, welches die treibenden Faktoren eines Machine Learning (ML) Modells nachvollziehbar darstellt: sowohl auf der sogenannten „globalen“ Ebene, um die allgemeine Funktionsweise des Modells zu verstehen, sowie auf „lokaler“ Ebene zur Erklärung einer bestimmten Risiko-Entscheidung.
Analog zu bekannten Stress-Test-Ansätzen generiert Lucid [ML] gezielt
Testfälle zur Messung, wie das „Black Box“-Modell reagiert, um sich iterativ
ein Bild der Funktionsweise zu verschaffen. Eine große Stärke von Lucid [ML] liegt darin, dass es verschiedene Analysemethoden kombiniert und so eine robuste Einschätzung der Ergebnisse des „Black Box“-Modells treffen kann und zusätzlich auf die Stabilität des untersuchten „Black Box“-Modells hindeutet. Lucid [ML] ist auch Modell-agnostisch, d.h. es kann unterschiedliche „Black Box“-Modelle untersuchen – auch ML-Modelle, die mit Tabellen (Zahlen), Bildern und Texten arbeiten.
XAI-Tools („erklärbare KI“) wie Lucid [ML] ebnen den Weg einer
regulatorisch konformen und transparenten Nutzung von KI-Tools im innovativen Wandel. Insbesondere stark regulierte Industrien wie die Versicherungsbranche können so von Innovation profitieren, ohne das Risiko einzugehen, die notwendigen Rahmenbedingungen nicht einhalten zu können. Die gewonnene Transparenz kann zudem dabei helfen, ML-Tools besser zu verstehen, Inkonsistenzen innerhalb der Modelle zu visualisieren und damit letztendlich die Tools selbst zu optimieren.
Mit Lucid [ML] sorgt Deloitte für Transparenz beim Einsatz von KI:
Nicht nur um regulatorische Anforderungen zu erfüllen, sondern um eine transparente Einführung und Nutzung von KI-basierten Lösungen und Prozessen zu stärken.