Skip to main content

Een oproep tot transparantie en verantwoordelijkheid in kunstmatige intelligentie

Kunstmatige intelligentie (AI) wordt steeds vaker gebruikt voor beslissingen die van invloed zijn op ons dagelijks leven, zelfs mogelijk op leven of dood. Deloitte pleit daarom voor transparantie en verantwoordelijkheid in AI: AI die uitlegbaar is voor medewerkers en klanten en in lijn is met de kernprincipes van het bedrijf.
Lees meer over algoritmes in de publieke sector

 

De berichtgeving in de media over kunstmatige intelligentie is vaak euforisch of alarmerend. In de eerste variant wordt AI gepresenteerd als een goddelijke technologie die al onze problemen zal oplossen, van het genezen van kanker tot het beëindigen van de opwarming van de aarde. In de laatste schilderen op Frankenstein of Terminator geïnspireerde verhalen AI af als een technologie die we niet onder controle kunnen houden en die mensen te slim af zal zijn op manieren die we niet kunnen voorzien - onze banen doden, zo niet het voortbestaan van de mensheid bedreigen.

In de afgelopen jaren is het aantal negatieve verhalen over AI sterk toegenomen. Tech-ondernemer Elon Musk heeft zelfs verklaard dat AI gevaarlijker is dan kernwapens. Er zijn talloze gevallen geweest waarin geavanceerde of AI-aangedreven algoritmen werden misbruikt, misgingen of schade veroorzaakten. Er werd onthuld dat het Britse politieke adviesbureau Cambridge Analytica de gegevens van miljoenen Facebook-gebruikers verzamelde zonder hun toestemming om de Amerikaanse verkiezingen te beïnvloeden, wat vragen opriep over hoe algoritmen kunnen worden misbruikt om de publieke sfeer op grote schaal te beïnvloeden en te manipuleren. Het is duidelijk geworden dat AI-modellen vooroordelen kunnen repliceren en institutionaliseren. Een AI-model met de naam COMPAS - dat in de VS wordt gebruikt om recidive te voorspellen - bleek bijvoorbeeld bevooroordeeld te zijn tegen zwarte mensen, terwijl een AI-aangedreven wervingstool vooroordelen tegen vrouwen vertoonde.

Sommige soorten AI kunnen worden bespeeld door kwaadwillende krachten en gedragen zich uiteindelijk totaal anders dan bedoeld. Dat was het geval met een specifieke Twitter-bot, die in minder dan een dag veranderde van een vriendelijke chatbot in een trol die opruiende berichten en complottheorieën plaatste. Andere zaken brachten onopgeloste vragen rond ethiek bij de toepassing van AI aan de oppervlakte. Zo besloot Google een contract met het Pentagon om AI te ontwikkelen die potentiële drone-doelen in satellietbeelden zou identificeren, niet te verlengen, na grootschalige protesten van werknemers die bang waren dat hun technologie voor dodelijke doeleinden zou worden gebruikt.

Stefan van Duin, partner Analytics en Cognitive bij Deloitte en expert in het ontwikkelen van AI-oplossingen, begrijpt deze maatschappelijke angst voor AI. "Hoe meer we AI gaan toepassen in het bedrijfsleven en de samenleving, hoe meer impact het zal hebben op mensen in hun dagelijks leven – mogelijk zelfs bij beslissingen over leven of dood zoals het diagnosticeren van ziekten, of de keuzes die een zelfrijdende auto maakt in complexe verkeerssituaties", zegt Van Duin. "Dit vraagt om een hoge mate van transparantie en verantwoordelijkheid."

Deloitte is een groot voorstander van transparantie en verantwoordelijkheid in AI. Transparante AI is AI die uitlegbaar is aan medewerkers en klanten. Dat kan een uitdaging zijn, want AI is van nature niet transparant, zegt Van Duin. "De vraag is dus: hoe kunnen we AI zo transparant mogelijk maken? Hoe kunnen we uitleggen hoe een op AI gebaseerde beslissing is genomen, waarop die beslissing is gebaseerd en waarom deze is genomen zoals deze is genomen?" Naast transparantie is er de kwestie van verantwoordelijkheid in AI.

"Transparante AI maakt onze onderliggende waarden expliciet en stimuleert bedrijven om verantwoordelijkheid te nemen voor beslissingen op basis van AI", zegt Van Duin. "Verantwoorde AI is AI die alle ethische overwegingen heeft en is afgestemd op de kernprincipes van het bedrijf."

Deze publicatie verkent het standpunt van Deloitte over transparantie en verantwoordelijkheid in AI. Het is gebaseerd op Deloitte's eigen ervaringen met het ontwikkelen en toepassen van AI-technologie, zowel in het bedrijf als voor zijn klanten, evenals op zijn jarenlange ervaring met het valideren en testen van modellen, het bieden van assurance en het adviseren over strategie- en innovatieprojecten.

Vier proposities voor verantwoorde AI

 

In de publicatie worden vier proposities besproken die Deloitte heeft ontwikkeld rondom het onderwerp transparante en verantwoorde AI. 'AlgoInsight' is een technische toolkit om AI-modellen te valideren en om het besluitvormingsproces van AI-modellen uit te leggen aan medewerkers en klanten. Het 'FRR Keurmerk voor Robotica en AI' is een keurmerk voor AI-aangedreven producten, dat klanten verzekert dat AI op een verantwoorde manier wordt gebruikt. 'Digital Ethics' biedt een kader om organisaties te helpen bij het ontwikkelen van leidende principes voor hun gebruik van technologie, en om een governancestructuur te creëren om deze principes in hun organisatie te verankeren. Ten slotte omvat 'AI-Driven Business Models' het volledige traject, van het definiëren van de visie en het opbouwen van de capaciteiten tot de daadwerkelijke implementatie en het vastleggen van waarde.

Transparante AI is verklaarbare AI

 

Een van de redenen waarom mensen bang zijn voor AI, is dat AI-technologieën moeilijk te verklaren zijn, zegt Evert Haasdijk. Hij is senior manager Forensic bij Deloitte en een gerenommeerd AI-expert, die als universitair docent aan de VU Amsterdam werkte en meer dan 25 jaar ervaring heeft in het ontwikkelen van AI-enabled oplossingen. "Sommige AI-technologieën zijn vrij eenvoudig uit te leggen, zoals semantisch redeneren, planningsalgoritmen en sommige optimalisatiemethoden", zegt Haasdijk. "Maar bij andere AI-technologieën, met name datagedreven technologieën zoals machine learning, is de relatie tussen input en output moeilijker uit te leggen. Dat kan onze fantasie op hol doen slaan."

Maar AI hoeft niet zo ondoorzichtig te zijn als het lijkt. De spreekwoordelijke 'black box' van AI kan worden geopend, of in ieder geval is het mogelijk om uit te leggen hoe AI-modellen tot een beslissing komen. Het punt van transparante AI is dat de uitkomst van een AI-model goed uitgelegd en gecommuniceerd kan worden, zegt Haasdijk. "Transparante AI is verklaarbare AI. Het stelt mensen in staat om te zien of de modellen grondig zijn getest en zinvol zijn, en dat ze kunnen begrijpen waarom bepaalde beslissingen worden genomen."

Transparante AI gaat niet over het online publiceren van algoritmen, zegt Haasdijk – iets waar momenteel over wordt gesproken als verplicht voor algoritmes die door overheden in Nederland worden ingezet. "Uiteraard zijn er problemen met intellectueel eigendom; de meeste bedrijven houden de details van hun algoritmes graag geheim", zegt Haasdijk. "Maar wat nog belangrijker is, de meeste mensen weten niet hoe ze AI-modellen moeten begrijpen. Alleen het publiceren van regels code is niet erg nuttig, vooral als je geen toegang hebt tot de gegevens die worden gebruikt - en het publiceren van de gegevens is vaak geen optie vanwege privacyregelgeving." Volgens Haasdijk zal het publiceren van AI-algoritmes in de meeste gevallen niet veel transparantie opleveren. "Het gaat erom dat je door een AI-model moet kunnen uitleggen hoe een beslissing tot stand is gekomen."

Transparante AI stelt de mens in staat om te begrijpen wat er in AI-modellen gebeurt, benadrukt Haasdijk. "AI is slim, maar slechts op één manier. Wanneer een AI-model een fout maakt, heb je menselijk oordeel nodig. We hebben mensen nodig om de context waarin een algoritme werkt te peilen en de implicaties van de uitkomsten te begrijpen."

De mate van transparantie hangt af van de impact van de technologie, vult Haasdijk aan. Hoe meer impact een geavanceerd of AI-aangedreven algoritme heeft, hoe belangrijker het is dat het verklaarbaar is en dat alle ethische overwegingen aanwezig zijn. "Een algoritme om gepersonaliseerde commerciële aanbiedingen te sturen, heeft niet dezelfde mate van controle nodig als een algoritme om een krediet toe te kennen of een medische behandeling aan te bevelen", zegt Haasdijk. "Uiteraard moeten alle AI-modellen met zorg worden ontwikkeld en moeten organisaties vooruitdenken over de mogelijke gevolgen. Maar AI-modellen die beslissingen met een grote impact nemen, kunnen alleen worden toegestaan met de hoogste normen van transparantie en verantwoordelijkheid."

Verborgen vooroordelen opsporen

 

Dus hoe creëer je transparante AI? Ten eerste, zegt Haasdijk, zijn er technische stappen. "De technische juistheid van het model moet worden gecontroleerd, alle passende tests moeten worden uitgevoerd en de documentatie moet correct worden uitgevoerd", legt hij uit. "De ontwikkelaar van het model moet kunnen uitleggen hoe hij het probleem heeft aangepakt, waarom een bepaalde technologie is gebruikt en welke datasets zijn gebruikt. Anderen moeten in staat zijn om het proces te auditen of te repliceren als dat nodig is."

Het volgende dat moet worden beoordeeld, is of de uitkomsten van het model statistisch verantwoord zijn. "Je moet nagaan of bepaalde groepen ondervertegenwoordigd zijn in de uitkomsten en, zo ja, het model aanpassen om dat te verhelpen." Deze stap kan helpen om verborgen biases in data op te sporen, een bekend probleem in de wereld van AI, zegt Haasdijk. "Stel, je gebruikt AI om sollicitanten te screenen op potentiële nieuwe managers in je bedrijf. Als het model wordt gevoed met gegevens van eerdere managers die voornamelijk blanke mannen waren, zal het model dat repliceren en kan het concluderen dat vrouwen of mensen van kleur niet geschikt zijn voor managementrollen."

Een uitdaging hierbij is dat de meeste datasets niet specifiek zijn gebouwd om AI-modellen te trainen. Ze zijn verzameld voor andere doeleinden, wat kan leiden tot vertekende resultaten. "AI-modellen zijn niet in staat om bias in datasets te detecteren", legt Haasdijk uit. "Alleen mensen, die de context begrijpen waarin de gegevens zijn verzameld, kunnen mogelijke vooroordelen in de uitkomst van het model herkennen. Het controleren van trainingsgegevens op mogelijke vooringenomenheid vereist daarom de grootst mogelijke zorgvuldigheid en voortdurende controle."

Tot slot moeten AI-modellen worden gevalideerd om organisaties in staat te stellen te begrijpen wat er in het model gebeurt en de resultaten verklaarbaar te maken. De AlgoInsight-propositie van Deloitte biedt een verscheidenheid aan tools – zowel open source als intern ontwikkeld – om bedrijven te helpen bij het valideren van geavanceerde of AI-aangedreven algoritmen. De toolkit stelt organisaties in staat om in de 'black box' van AI te kijken, mogelijke vooroordelen in trainingsdata bloot te leggen en het besluitvormingsproces van AI-modellen uit te leggen aan medewerkers en aan klanten. U kunt meer lezen over AlgoInsight in het artikel Unboxing the Box met AlgoInsight: een toolkit om transparantie in kunstmatige intelligentie te creëren.

'Computer zegt nee'

 

Er zijn een aantal redenen om transparante AI na te streven. Een belangrijke is dat bedrijven inzicht moeten hebben in de technologieën die ze gebruiken voor besluitvorming. Hoe vanzelfsprekend dit ook klinkt, het is niet altijd vanzelfsprekend. "De boardroom en het hoger management van een bedrijf zijn vaak niet echt op de hoogte waar developers op de technische en de data analytics afdelingen mee bezig zijn", zegt Haasdijk. "Ze hebben een idee, maar ze weten het niet precies. Dit brengt risico's met zich mee voor het bedrijf."

Paradoxaal genoeg, naarmate open source AI-modellen gebruiksvriendelijker worden, kunnen er meer AI-toepassingen worden gebouwd door mensen die de technologie niet volledig begrijpen. "Er zijn open source-modellen die heel gemakkelijk te gebruiken zijn. Iemand kan het voeden met gegevens en een resultaat krijgen, zonder echt te begrijpen wat er in het model gebeurt en de mogelijkheden en beperkingen van de uitkomsten te begrijpen", zegt Haasdijk. "Dit kan in de nabije toekomst voor veel problemen zorgen. Een risico dat AI gebruiksvriendelijker en breder beschikbaar wordt, is dat iemand in een bedrijf AI onverantwoord gebruikt en zich er niet van bewust is - laat staan dat zijn bazen ervan op de hoogte zijn."

Het kan voor bedrijven lastig zijn om alle AI-modellen bij te houden die binnen hun organisatie worden gebruikt, zegt Haasdijk. "Een bank heeft onlangs een inventarisatie gemaakt van al hun modellen die geavanceerde of AI-aangedreven algoritmen gebruiken, en vond een duizelingwekkend totaal van 20.000." Sommige van deze algoritmen, zoals kapitaalreguleringsmodellen, staan onder streng toezicht van toezichthouders. Maar in de meeste gevallen zijn geavanceerde of AI-aangedreven algoritmen niet onderworpen aan enige vorm van externe en interne regelgeving - denk aan algoritmen die worden gebruikt in marketing, prijsstelling, klantacceptatie, frontoffice of geautomatiseerde rapporten. "Transparante AI kan bedrijven helpen om weer grip te krijgen op de verscheidenheid aan AI-modellen die in hun organisatie worden ingezet", zegt Haasdijk.

Transparante AI kan organisaties meer inzicht geven in wanneer en waarom AI-algoritmen fouten maken, en hoe ze hun modellen dienovereenkomstig kunnen verbeteren. "AI-modellen maken wel degelijk fouten – in veel gevallen maken ze minder fouten dan mensen, maar toch wil je weten wanneer en waarom dat gebeurt", zegt Haasdijk. "Neem het voorbeeld van de zelfrijdende auto die een dame aanreed die met haar fiets aan het wandelen was, omdat het algoritme de situatie verkeerd inschatte. Het is essentieel dat bedrijven begrijpen wanneer en waarom dit soort fouten gebeuren, om soortgelijke ongelukken in de toekomst te voorkomen."

Ten slotte kan transparante AI organisaties helpen om individuele beslissingen van hun AI-modellen uit te leggen aan werknemers en klanten. En dat is niet alles wat klanten van de organisaties verwachten; met de GDPR-uitspraak die onlangs in werking is getreden, is er ook regeldruk om klanten inzicht te geven in hoe hun gegevens worden gebruikt. "Stel dat een bank een AI-model gebruikt om te beoordelen of een klant wel of geen lening kan krijgen", zegt Haasdijk. "Als je een lening weigert, wil de klant waarschijnlijk weten waarom die beslissing is genomen en wat hij moet veranderen om de lening te krijgen. Dat betekent dat de bank een grondig begrip moet hebben van hoe hun AI-model tot een beslissing komt, en dit in heldere taal moet kunnen uitleggen. 'Computer says no' is geen acceptabel antwoord."

Herstel van vertrouwen

 

De mogelijke gevolgen van AI zijn een punt van zorg geworden op het niveau van de politiek. Inmiddels werken meer dan 20 landen aan een nationale AI-strategie en zijn er verschillende nationale en regionale AI-gerelateerde beleidsmaatregelen aangekondigd. De Europese Commissie heeft een deskundigengroep op hoog niveau inzake kunstmatige intelligentie opgericht om te werken aan ethische richtsnoeren voor betrouwbare AI. Op internationaal niveau hebben de Verenigde Naties een AI and Global Governance Platform opgericht om de wereldwijde beleidsuitdagingen van AI te onderzoeken, als onderdeel van de strategie van de secretaris-generaal voor nieuwe technologieën.

Veel van deze initiatieven komen tegemoet aan de publieke bezorgdheid over het verlies van controle door een AI-revolutie. Met elk nieuw incident waarbij AI misgaat – waarvan aan het begin van dit artikel een paar voorbeelden werden genoemd – neemt de vraag naar transparante, en vooral verantwoorde, AI toe. "Mensen willen niet alleen begrijpen hoe beslissingen op basis van AI tot stand komen", zegt Van Duin. "Ze willen er zeker van zijn dat AI wordt gebruikt om de mensheid ten goede te komen en geen schade aanricht."

Tot nu toe is er nog niet één algemeen geaccepteerd kader voor het beoordelen van AI, constateert Van Duin. "Voor privacykwesties moeten organisaties zich houden aan de GDPR-regelgeving, het Europese wettelijke kader voor hoe om te gaan met persoonsgegevens. Maar er is niets vergelijkbaars voor ethiek in AI, en tot nu toe lijkt het erop dat er alleen richtlijnen op hoog niveau zullen zijn die veel ruimte laten voor interpretatie. Daarom ligt er een grote verantwoordelijkheid bij bedrijven, organisaties en de samenleving om ervoor te zorgen dat we AI ethisch gebruiken."

Verankering van ethiek in de organisatie

 

Niet alleen de consument vraagt om een duidelijke visie op AI; Medewerkers eisen het ook van hun bedrijf. Dit maakt het stakeholderlandschap rondom AI complexer. Zoals eerder vermeld besloot Google vorig jaar een contract met het Pentagon met automatische herkenningssoftware voor drones niet te verlengen, na grootschalige protesten van werknemers. Meer dan 4.000 werknemers, waaronder enkele van de beste AI-onderzoekers van het bedrijf, ondertekenden een petitie waarin werd geëist "een duidelijk beleid waarin staat dat noch Google noch zijn aannemers ooit oorlogstechnologie zullen bouwen". De protesten leidden ertoe dat Google een waardeverklaring over AI publiceerde, waarin het bedrijf onder meer beloofde zijn AI-technologie niet voor wapens te gebruiken. Een paar maanden later besloot Google af te zien van een bod op een cloudcomputingcontract van het Pentagon ter waarde van $ 10 miljard, daarbij verwijzend naar het feit dat het contract zou botsen met de waarden van het bedrijf op het gebied van AI.

"Een bedrijf dat zich om ethische redenen terugtrekt uit een bod op een contract van 10 miljard dollar is een duidelijk teken des tijds", zegt Tjeerd Wassenaar, partner bij Deloitte Risk Advisory met een focus op ethiek en bedrijfswaarden. Met zich snel ontwikkelende technologieën als AI worden organisaties gedwongen om structureel na te denken over de ethische gevolgen, betoogt Wassenaar. "Technisch is er veel mogelijk", zegt hij. "Nu moeten bedrijven beslissen hoe ver ze willen gaan. Momenteel is er in de meeste bedrijven geen duidelijk beleid hieromtrent. Het geval van Google-medewerkers die protesteren tegen hun eigen bedrijf geeft aan dat veel mensen in de organisatie niet het gevoel hebben dat deze grenzen zijn gesteld."

De vraag naar transparante en verantwoorde AI maakt deel uit van een breder debat over bedrijfsethiek, zegt Wassenaar. "Wat zijn uw kernwaarden, hoe verhouden deze zich tot uw technologische en datacapaciteiten, en welke governancekaders en -processen heeft u om ze bij te houden? Dat zijn vragen waar bedrijven zich op dit moment mee moeten bezighouden. Als ze dat niet doen, riskeren ze hun reputatie, juridische problemen en boetes, en het ergste van alles, het vertrouwen en de loyaliteit van hun klanten en werknemers."

De Digital Ethics propositie van Deloitte helpt bedrijven om structureel om te gaan met digitale ethiek. Het helpt bedrijven om hun kernprincipes te definiëren, om governancekaders op te stellen om deze in de praktijk te brengen, en om benchmarks op te zetten om te monitoren of de principes effectief zijn geïmplementeerd. U kunt meer lezen over digitale ethiek in het artikel Digitale ethiek: ethiek structureel inbedden in uw organisatie.

Het positieve potentieel van AI realiseren

 

Transparantie en verantwoordelijkheid in AI zullen ervoor zorgen dat geavanceerde of AI-aangedreven algoritmen grondig worden getest, verklaarbaar en afgestemd op de kernprincipes van het bedrijf. Kortom, het zal organisaties helpen om weer grip te krijgen op de AI-modellen die worden ingezet. "We moeten het gevoel hebben dat we de touwtjes in handen hebben", zegt Van Duin. "Veel mensen voelen het tegenovergestelde: dat we de controle verliezen. Door transparantie te creëren en duidelijke richtlijnen en procedures op te stellen voor het maken van AI-toepassingen, kunnen we ervoor zorgen dat geavanceerde of AI-aangedreven algoritmen functioneren zoals bedoeld en dat we de waarde kunnen vastleggen die het belooft."

Ondanks de op Frankenstein of Terminator geïnspireerde verhalen die je in media-artikelen kunt lezen, zijn de meeste geavanceerde of AI-aangedreven algoritmen die nu worden ontwikkeld relatief onschuldig en gaan ze niet over beslissingen met een grote impact, zegt Van Duin. "Maar we moeten nu beginnen met het denken over transparantie en verantwoordelijkheid in AI." Zelfrijdende auto's zijn het perfecte voorbeeld, zegt hij: ze zullen niet snel op grote schaal beschikbaar zijn, maar bedrijven werken momenteel aan deze technologie. En de zelfrijdende auto zal per definitie situaties van leven en dood geprogrammeerd hebben. "Dit is het moment om ervoor te zorgen dat deze algoritmes op de juiste manier worden gebouwd."

Met al het gepraat over de potentiële risico's van het gebruik van AI, zou je bijna vergeten dat AI echte zakelijke kansen biedt. Early adopters in het bedrijfsleven hebben verbluffende resultaten laten zien op het gebied van kostenverlaging, betere service, betere kwaliteit of zelfs volledig nieuwe bedrijfsmodellen. Deloitte's AI-Driven Business Models-propositie helpt bedrijven om te beoordelen hoe ze AI op dit moment in hun bedrijf kunnen inzetten en welke capaciteiten ze moeten opbouwen. U kunt meer lezen in het komende artikel over AI-gestuurde bedrijfsmodellen.

Transparantie en verantwoordelijkheid in AI helpen op de lange termijn niet alleen om rampen te voorkomen, maar ook om de positieve potentie van AI te realiseren om grote bijdragen te leveren aan het goede leven, zegt Van Duin. Hij somt op: "Er zit een enorm potentieel in de zorg. AI kan medische diagnoses ondersteunen, het kan de behandeling ondersteunen en levens redden. Het zou ons energieverbruik kunnen verminderen door processen te optimaliseren. Het zou de noodzaak voor ons om een auto te bezitten kunnen verminderen, wat een positieve impact op het milieu zal hebben en ons geld zal besparen. Het zou het aantal verkeersongevallen kunnen verminderen. De toegang tot informatie zal beter worden, het zal ons helpen om effectiever te werken. Dat kan ertoe leiden dat we meer vrije tijd hebben - misschien wordt op een gegeven moment een 30- of 20-urige werkweek de norm in plaats van 40 uur. Kortom, de kwaliteit van leven kan enorm toenemen."

De impact van AI kan enorm zijn, zegt Van Duin. Maar uiteindelijk, zegt hij, zal AI het vertrouwen van het grote publiek nodig hebben om de meeste impact te hebben. "Als alle overwegingen rond transparantie en verantwoordelijkheid aanwezig zijn, kan AI de wereld een betere plek maken."

Did you find this useful?

Thanks for your feedback

If you would like to help improve Deloitte.com further, please complete a 3-minute survey