Artificiële intelligentie, ethiek en recht

Artificiële intelligentie, ethiek en recht

Artificiële intelligentie (AI) raakt elke dag meer verankerd in ons leven. Zelfs goedkope smartphones hebben camera’s die AI gebruiken om de foto’s die we maken te optimaliseren. Probeer online hulp te krijgen voor een probleem, en je wordt waarschijnlijk eerder door een chatbot dan door een persoon begroet. We hebben zelfrijdende auto’s, vrachtwagens, bussen, taxi’s, treinen, enz. AI kan een kracht ten goede zijn, maar ook een kracht ten kwade. Cybercriminelen gebruiken AI om identiteiten en bedrijfsgeheimen te stelen, om illegale toegang te krijgen tot systemen, om geld te verduisteren, om opsporing door de politie te vermijden, enz. AI wordt bewapend en gemilitariseerd. Er is reden om bezorgd te zijn om de ethische vraagstukken die in dit verband rijzen. De kans is groot dat er wettelijke kaders moeten worden geïmplementeerd om deze problematiek aan te pakken.

Laten we eerst even stilstaan bij enkele van de ethische problemen waarmee we nu al geconfronteerd worden. Het gebruik van gezichtsherkenningssoftware op luchthavens en in grote steden roept zowel vragen op over de privacy als over de veiligheid. Dezelfde zorgen hebben betrekking op het gebruik van Big Data voor Machine Learning. In eerdere artikelen hebben we al aandacht besteed aan het probleem van vooringenomenheid in AI, waarbij de AI-algoritmes onze vooroordelen erven omdat ze worden weerspiegeld in de datasets die ze gebruiken. Een van de gebieden waar de ethische kwesties van AI echt op de voorgrond komen, is bij zelfrijdende voertuigen. Laten we dat voorbeeld verder uitdiepen.

Soms kunnen verkeersongevallen niet worden vermeden, en die kunnen leiden tot dodelijke slachtoffers. Stel u voor dat de remmen van uw auto stoppen met werken, terwijl u door de straat rijdt. Direct vóór u komen enkele kinderen uit een stilstaande wagen, op de rijstrook voor tegemoetkomend verkeer komt een vrachtwagen aangereden, en aan de andere kant van de weg staan enkele mensen op de stoep te praten. Wat doet u? En wat moet een zelfrijdende auto doen? Met zelfrijdende auto’s is de kans groot dat de autofabrikant de beslissing voor u moet nemen.

In de ethiek wordt dit probleem meestal aangeduid als het Trolley Probleem. Een op hol geslagen trolley rijdt over een spoorbaan en u staat bij een wissel die het spoor kan veranderen. Als u niets doet, komen er vijf mensen om het leven. Als u met de hendel het spoor wisselt, wordt er één persoon gedood. Wat is de beste oplossing?

Het “Moral Machine experiment” is de naam van een onlineproject waar verschillende variaties van het Trolley Probleem werden gepresenteerd aan mensen van over de hele wereld. Het stelde vragen om te bepalen of het redden van mensen voorrang moet krijgen op dieren (inclusief huisdieren), passagiers op voetgangers, meer levens op minder, mannen op vrouwen, jong op oud, enz. Er werd zelfs gevraagd of gezonde en fitte mensen voorrang moeten krijgen boven zieke mensen, mensen met een hoge sociale status boven mensen met een lage sociale status, of gezagsgetrouwe burgers boven mensen met een strafblad. In plaats van de vragen direct te stellen, bood het onderzoek meestal gecombineerde opties: wie sterft, drie bejaarde voetgangers of drie jeugdige passagiers?

In totaal heeft het experiment 40 miljoen beslissingen in 10 talen verzameld van miljoenen mensen in 233 landen en gebieden. Verrassend genoeg varieerden de resultaten sterk van land tot land, van cultuur tot cultuur en langs economische lijnen. “Zo zullen bijvoorbeeld deelnemers uit collectivistische culturen als China en Japan de jongeren minder vaak sparen dan de ouderen, zo veronderstelden de onderzoekers, omdat er meer nadruk wordt gelegd op het respecteren van de ouderen. Evenzo zijn deelnemers uit armere landen met zwakkere instellingen toleranter voor voetgangers die roekeloos de straat oversteken tussen aankomend verkeer versus voetgangers die legaal oversteken. En deelnemers uit landen met een hoge economische ongelijkheid vertonen een grotere kloof tussen de behandeling van personen met een hoge en lage sociale status”. (Karen Hao, in Technology Review)

Over het algemeen waren de mensen over de hele wereld het erover eens dat het sparen van het leven van mensen boven dat van dieren voorrang moet krijgen, en dat veel mensen moeten worden gered in plaats van weinig. In de meeste landen vonden de mensen ook dat de jongeren boven de ouderen moesten worden gered, maar zoals gezegd was dat in het Verre Oosten niet het geval.

Dit roept natuurlijk een aantal serieuze vragen op. Wie gaat die beslissingen nemen en wat gaan ze kiezen, rekening houdend met de verschillende keuzes die de mensen hebben voorgesteld? Zullen we verschillende prioriteiten hebben, afhankelijk van het feit of we bijvoorbeeld Japanse of Duitse zelfrijdende auto’s gebruiken? Of zullen de autofabrikanten verschillende keuzes maken op basis van de plaats waar de auto rijdt? En wat als er meer levens kunnen worden gespaard als we de bestuurder opofferen?

Als het gaat om het opofferen van de bestuurder, heeft één autofabrikant, Mercedes, al duidelijk gemaakt dat dit nooit een optie zal zijn. De rechtvaardiging die zij geven, is dat zelfrijdende auto’s zullen leiden tot veel minder ongelukken en dodelijke slachtoffers, en dat die gelegenheden waarbij voetgangers worden opgeofferd voor bestuurders, gevallen van aanvaardbare nevenschade zullen zijn. Maar is dat wel de juiste keuze en is het echt aan de autofabrikant om die keuze te maken?

Een ethicus heeft vier hoofdbekommernissen geïdentificeerd die moeten worden aangepakt wanneer we naar oplossingen zoeken met betrekking tot ethische AI:

  1. Wiens morele maatstaven moeten worden gehanteerd?
  2. Kunnen machines praten over morele kwesties? (Wat als het bijvoorbeeld gaat om meerdere zelfrijdende voertuigen? Zullen ze met elkaar communiceren om het beste scenario te kiezen).
  3. Kunnen algoritmen rekening houden met de context?
  4. Bij wie ligt de aansprakelijkheid?

Op basis van deze overwegingen kunnen enkele principes worden vastgesteld om het gebruik van AI te reguleren. In een eerder artikel hebben we al de beginselen genoemd die de EU en de OESO voorstellen. Ook het World Economic Forum had in 2018 al 5 kernprincipes voorgesteld om AI ethisch verantwoord te houden:

  • AI moet een kracht zijn ten goede en voor diversiteit
  • Verstaanbaarheid en eerlijkheid
  • Gegevensbescherming
  • AI mag niet ten koste van personen komen. Ze moeten samen kunnen bloeien
  • De macht van AI om te vernietigen moet geconfronteerd worden.

Een initiatief waarbij verschillende technische bedrijven betrokken zijn, heeft ook zeven kritische punten geïdentificeerd:

  1. Nodig ethische deskundigen uit die de diversiteit van de wereld weerspiegelen
  2. Betrek ook mensen die mogelijk negatief worden beïnvloed door AI
  3. Zorg voor betrokkenheid op bestuursniveau
  4. Betrek een werknemersvertegenwoordiger in het proces
  5. Selecteer een externe leider
  6. Plan voldoende tijd in om elkaar te ontmoeten en te overleggen.
  7. Verbindt u tot transparantie

Een diepere vraag is echter of de regulering van AI aan de sector mag worden overgelaten. Moeten deze beslissingen niet eerder door overheden worden genomen? De mensen achter het Moral Machine Experiment vinden dat alvast, net als veel wetenschappers en deskundigen op het gebied van ethiek. Tot nu toe is er echter nog niet veel gedaan als het gaat om wettelijk oplossingen, en zijn er nog geen wettelijke kaders. Het beste wat we hebben is voor de leden van de EU en de OESO die een aantal richtlijnen hebben opgesteld, maar dat zijn slechts richtlijnen die niet afdwingbaar zijn. En dat is niet genoeg. Een waakhondorganisatie in het Verenigd Koninkrijk heeft gewaarschuwd dat AI zo snel vooruitgang boekt dat we nu al moeite hebben om de achterstand in te halen. We kunnen het ons niet veroorloven om deze kwesties nog langer uit te stellen.

 

Bronnen:

 

 

Deel dit artikel: