Internationale richtlijnen voor ethische AI

Internationale richtlijnen voor ethische AI

In de afgelopen twee maanden, i.e. in april en mei 2019, hebben zowel de OESO als de Europese Commissie richtlijnen gepubliceerd voor betrouwbare en ethische artificiële intelligentie (AI). In beide gevallen gaat het slechts om aanbevelingen, die als zodanig niet juridisch bindend zijn, en werden de aanbevelingen opgesteld door deskundigen op dit gebied.

“Waarom hebben we richtlijnen nodig voor betrouwbare, ethische AI?”, vraagt u zich misschien af. In de afgelopen jaren zijn er meerdere oproepen geweest, van deskundigen, onderzoekers, wetgevers en de rechterlijke macht om een soort wettelijk kader of richtlijnen voor ethische AI te ontwikkelen.  Er zijn immers verscheidene gevallen in het nieuws geweest waar de ethiek van AI-systemen in twijfel werd getrokken. Een van de probleemgebieden heeft te maken met vooroordelen m.b.t. geslacht of ras, enz. Zo was er bijvoorbeeld het geval van COMPAS: dat is risico-evaluatiesoftware die wordt gebruikt om de kans te voorspellen dat iemand een recidivist is. Het bleek dat het systeem een dubbele raciale vooringenomenheid had, één in het voordeel van blanke verdachten en één in het nadeel van zwarte verdachten. Meer recentelijk heeft Amazon zijn AI HR assistent in de ijskast gezet omdat het systematisch mannelijke sollicitanten bevoordeelde. Een ander probleemgebied is privacy, waar men zich zorgen maakt over diepgaand leren/machineleren, en met technologieën zoals gezichtsherkenning.

In het geval van de EU-aanbevelingen speelt nog een andere factor een rol. Zowel de VS als China hebben een aanzienlijke technologische voorsprong op de EU als het gaat om AI-systemen. De EU wil nu van betrouwbare en ethische AI haar niche maken.

EU Richtlijnen

De richtlijnen van de EU zijn op 8 april 2019 door de Europese Commissie gepubliceerd. (Bemerk dat de term ‘richtlijnen’ in het Nederlands eigenlijk niet correct is. Het gaat om loutere aanbevelingen, en niet om EU-richtlijnen die wel afdwingbaar zijn). Reeds eerder, in december 2018, had het Europees Parlement al een rapport gepubliceerd waarin het om een wettelijk kader voor AI vroeg. Het EU-Parlement stelde voor om de AI-systemen in grote lijnen in overeenstemming te brengen met de drie wetten van de robotica. De Commissie is het Parlement daar niet in gevolgd. Het verklaarde dat betrouwbare AI aan de volgende voorwaarden moet voldoen:

  • Het systeem moet wettig zijn, d.w.z. met inachtneming van alle toepasselijke wet- en regelgeving,
  • Het systeem moet ethisch zijn, d.w.z. met inachtneming van ethische beginselen en waarden, en
  • Het systeem moet solide/robuust zijn, zowel vanuit technisch oogpunt als met inachtneming van de sociale omgeving.

Daartoe wordt in de richtlijnen een reeks van 7 belangrijke vereisten voorgesteld:

  • Menselijk agentschap en overzicht: AI-systemen moeten mensen in staat stellen met kennis van zaken beslissingen te nemen en hun fundamentele rechten te bevorderen. Tegelijkertijd moet worden gezorgd voor adequate toezicht mechanismen, die kunnen worden bereikt door menselijk overzicht in te schakelen op meerdere niveaus.
  • Robuustheid en veiligheid: betrouwbare AI vereist algoritmes die veilig, betrouwbaar en robuust genoeg zijn om te gaan met fouten en inconsistenties tijdens alle fases van de levenscycli van AI-systemen.
  • Privacy en data governance: burgers moeten de volledige controle hebben over hun eigen data, terwijl de data die op hen betrekking hebben, niet gebruikt mogen worden om hen te schaden of te discrimineren.
  • Transparantie: de traceerbaarheid van AI-systemen moet gewaarborgd worden, i.e. de systemen moeten kunnen uitleggen hoe ze tot hun conclusies gekomen zijn. Mensen moeten zich er ook van bewust zijn dat ze met een AI-systeem werken en moeten op de hoogte zijn van de mogelijkheden en beperkingen van het systeem.
  • Diversiteit, non-discriminatie en eerlijkheid: ongerechtvaardigde vooroordelen moeten worden vermeden, aangezien dit tal van negatieve gevolgen kan hebben, van de marginalisering van kwetsbare groepen tot de verergering van vooroordelen en discriminatie. Om diversiteit te bevorderen, moeten AI-systemen toegankelijk zijn voor iedereen, ongeacht een handicap, en moeten alle relevante belanghebbenden gedurende hun hele leven betrokken worden.
  • Maatschappelijk en ecologisch welzijn AI-systemen moeten ten goede komen aan alle mensen, inclusief toekomstige generaties. Daarom moet ervoor worden gezorgd dat ze duurzaam en milieuvriendelijk zijn. Bovendien moeten zij rekening houden met het milieu, met inbegrip van andere levende wezens, en hun sociale en maatschappelijke impact moet zorgvuldig worden overwogen.
  • Verantwoording: er moeten mechanismen worden ingevoerd om de verantwoordelijkheid en verantwoording voor de AI-systemen en de resultaten daarvan te waarborgen. De controleerbaarheid, die de beoordeling van algoritmen, gegevens en ontwerpprocessen mogelijk maakt, speelt daarbij een belangrijke rol. Bovendien moet worden gezorgd voor adequate en toegankelijke verhaalsmogelijkheden.

Later dit jaar zal een proefproject van start gaan, waarbij de belangrijkste belanghebbenden zullen worden betrokken. Het proefproject zal het voorstel grondiger bestuderen en feedback geven, waarop de aanbevelingen kunnen worden verfijnd. De EU nodigt ook geïnteresseerde bedrijven uit om zich aan te sluiten bij de Europese AI-alliantie.

OESO

De OESO bestaat uit 36 leden, waarvan ongeveer de helft EU-lidstaten zijn. Niet-EU-leden zijn onder meer de VS, Japan, Australië, Nieuw-Zeeland, Zuid-Korea, Mexico, e.a. Op 22 mei 2019 hebben de lidstaten van de OESO de aanbeveling van de OESO-Raad inzake kunstmatige intelligentie aangenomen. Net zoals dit bij de EU het geval was, zijn dit aanbevelingen die niet juridisch bindend zijn.

In de OESO-aanbeveling worden vijf complementaire, op waarden gebaseerde beginselen voor een verantwoord beheer van betrouwbare AI geïdentificeerd:

  1. AI moet alle mensen en de planeet ten goede komen door het stimuleren van inclusieve groei, duurzame ontwikkeling en welzijn.
  2. AI-systemen moeten zodanig worden ontworpen dat de rechtsstaat, de mensenrechten, de democratische waarden en de diversiteit worden geëerbiedigd, en zij moeten adequate waarborgen bevatten – bijvoorbeeld door menselijk ingrijpen mogelijk te maken – om een eerlijke en rechtvaardige samenleving te waarborgen.
  3. Er moet transparantie zijn en de verantwoorde openbaarmaking rond AI-systemen moet ervoor zorgen dat mensen de op AI-gebaseerde resultaten begrijpen en deze kunnen aanvechten.
  4. AI-systemen moeten gedurende hun hele levenscyclus op een robuuste, beveiligde en veilige manier functioneren en potentiële risico’s moeten voortdurend worden geëvalueerd en beheerd.
  1. Organisaties en personen die AI-systemen ontwikkelen of gebruiken, moeten aansprakelijk worden gesteld voor de goede werking ervan in overeenstemming met de bovenstaande beginselen.

In overeenstemming met deze op waarden gebaseerde beginselen doet de OESO ook vijf aanbevelingen aan regeringen:

  1. Moedig publieke en private investeringen in onderzoek en ontwikkeling aan, ten einde innovatie in betrouwbare AI te stimuleren.
  2. Bevorder toegankelijke AI-ecosystemen met digitale infrastructuur, technologieën en mechanismen om gegevens en kennis te delen.
  3. Zorgen voor een beleidsomgeving die de weg vrijmaakt voor de invoering van betrouwbare AI-systemen.
  4. Stel mensen in staat om de nodige vaardigheden voor AI te verwerven en werknemers te ondersteunen bij een eerlijke overgang.
  5. Bevorder samenwerking over de grenzen en sectoren heen om te komen tot een verantwoord beheer van betrouwbare AI.

Zoals u kunt zien, zijn veel van de basisprincipes in beide reeksen richtlijnen vergelijkbaar. En, zoals eerder vermeld, zijn deze EU- en OESO-richtlijnen slechts aanbevelingen die niet juridisch bindend zijn. Wat de EU betreft, kan zij op een gegeven moment in de toekomst wetgeving doorvoeren die gebaseerd is op deze beginselen. De VS hebben al aangekondigd dat ze de OESO-aanbevelingen zullen naleven.

 

Bronnen:

Deel dit artikel: