In eerdere artikelen hebben we besproken over hoe kunstmatige intelligentie bevooroordeeld is en over hoe bevooroordeelde kunstmatige intelligentie blijft bestaan. Nu artificiële intelligentie (AI) steeds meer ingang vindt, levert dit ethische problemen op. De vraag werd gesteld of de industrie kan worden vertrouwd om zichzelf te reguleren, dan wel of wettelijke kaders nodig zijn. In dit artikel verkennen we de huidige initiatieven voor regulering van kunstmatige intelligentie. We kijken naar initiatieven binnen de industrie om kunstmatige intelligentie te reguleren en naar pogingen om wettelijke kaders voor artificiële intelligentie te creëren. Maar eerst onderzoeken we waarom regulering nodig of wenselijk is.
Waarom is regulering van artificiële intelligentie nodig?
Vorig jaar publiceerde de Raad van Europa een document waarin zij concludeerde dat een juridisch kader nodig was omdat er inhoudelijke en procedurele lacunes waren. Ook UNESCO heeft in haar Aanbeveling over de Ethiek van Kunstmatige Intelligentie (Recommendation on Ethics in Artificial Intelligence) een aantal belangrijke punten opgesomd. Ook de Mozilla Foundation noemt in haar Witboek over Betrouwbare AI (White Paper on Trustworthy AI) een reeks belangrijke uitdagingen die moeten worden aangepakt en die regelgeving wenselijk maken. Dit zijn:
- Monopolie en centralisatie: Grootschalige AI vereist veel middelen en momenteel beschikt slechts een handvol Tech-giganten daarover. Dit heeft een verstikkend effect op innovatie en concurrentie.
- Gegevensprivacy en -beheer: Voor de ontwikkeling van complexe AI-systemen zijn enorme hoeveelheden gegevens nodig. Veel AI-systemen die momenteel door grote technologiebedrijven worden ontwikkeld, verzamelen persoonsgegevens van mensen via invasieve technieken en vaak zonder hun medeweten of uitdrukkelijke toestemming.
- Vooringenomenheid en discriminatie: Zoals in eerdere artikelen is besproken, berust AI op rekenmodellen, gegevens en kaders die bestaande vooroordelen weerspiegelen. Dit leidt dan weer tot bevooroordeelde of discriminerende resultaten.
- Verantwoording en transparantie: Veel AI-systemen presenteren slechts een uitkomst zonder te kunnen uitleggen hoe die uitkomst tot stand is gekomen. Dit kan het gevolg zijn van de gebruikte algoritmen en technieken voor machinaal leren, maar het kan ook bedoeld zijn om bedrijfsgeheimen te bewaren. Transparantie is nodig om verantwoording af te leggen en validering door derden mogelijk te maken.
- Industrie normen: Technologiebedrijven hebben de neiging snel technologie te bouwen en in te zetten. Bijgevolg zijn veel AI-systemen ingebed in waarden en veronderstellingen die tijdens de ontwikkelingscyclus niet ter discussie of in vraag worden gesteld.
- Uitbuiting van werknemers: Uit onderzoek blijkt dat technologiewerkers die het onzichtbare onderhoud van AI uitvoeren kwetsbaar zijn voor uitbuiting en overwerk.
- Uitbuiting van het milieu: De hoeveelheid energie die nodig is voor AI-datamining maakt het zeer milieuonvriendelijk. De ontwikkeling van grote AI-systemen verhoogt het energieverbruik en versnelt de ontginning van natuurlijke grondstoffen.
- Veiligheid en beveiliging: Cybercriminelen hebben AI omarmd. Zij kunnen steeds geraffineerdere aanvallen uitvoeren door AI-systemen te misbruiken.
Om al deze redenen is regulering van AI noodzakelijk. Veel grote technologiebedrijven propageren nog steeds het idee dat de industrie zichzelf moet reguleren, en dat dit niet de taak is van overheden. Veel landen, en ook de EU, vinden daarentegen dat de tijd rijp is voor overheden om een wettelijk kader op te leggen om AI te reguleren.
Initiatieven binnen de industrie om kunstmatige intelligentie te reguleren
Firefox en de Mozilla Foundation
De Mozilla Foundation is een van de leiders op het gebied van het bevorderen van betrouwbare AI. Ze hebben al verschillende initiatieven gelanceerd, waaronder campagnes voor belangenbehartiging, verantwoordelijke computerwetenschappelijke uitdagingen, onderzoek, fondsen en beurzen. De stichting wijst er ook op dat “de ontwikkeling van een betrouwbaar AI-ecosysteem een grote verschuiving vereist in de normen die ten grondslag liggen aan onze huidige computeromgeving en samenleving. De veranderingen die we willen zien zijn ambitieus, maar ze zijn mogelijk.” Ze zijn ervan overtuigd dat de “beste manier om dit te realiseren is om te werken als een beweging: samenwerken met burgers, bedrijven, technologen, overheden en organisaties over de hele wereld.”
IBM
Ook IBM bevordert een ethische en betrouwbare AI en heeft een eigen ethische commissie opgericht. IBM vindt dat AI op de volgende principes moet worden gebaseerd:
- Het doel van AI is de menselijke intelligentie te vergroten…
- Gegevens en inzichten behoren toe aan de maker
- Technologie moet transparant en verklaarbaar zijn
Daartoe heeft het vijf pijlers geïdentificeerd waaraan iedere applicatie getoetst moet worden:
- Uitlegbaarheid: Een naadloze ervaring vereist niet dat de transparantie opgegeven wordt.
- Eerlijkheid: Goed gekalibreerd kan AI mensen helpen eerlijkere keuzes te maken.
- Robuustheid: Aangezien systemen worden ingezet om cruciale beslissingen te nemen, moet AI veilig en robuust zijn.
- Transparantie: Transparantie versterkt het vertrouwen, en de beste manier om transparantie te bevorderen is openbaarmaking.
- Privacy: AI-systemen moeten voorrang geven aan de privacy en de rechten van de consument op het gebied van gegevensbescherming.
Google zegt dat het “ernaar streeft technologieën te creëren die belangrijke problemen oplossen en mensen helpen in hun dagelijks leven. We zijn optimistisch over het ongelooflijke potentieel van AI en andere geavanceerde technologieën om mensen mondiger te maken, de huidige en toekomstige generaties op grote schaal ten goede te komen en te werken aan het algemeen belang. [Applicaties moeten]
- Sociaal voordelig zijn.
- Het creëren of versterken van oneerlijke vooroordelen vermijden.
- Zijn gebouwd en getest op veiligheid
- Verantwoordelijk zijn voor mensen
- Privacy design principes integreren
- Hoge normen van wetenschappelijke uitmuntendheid handhaven
- Beschikbaar worden gesteld voor gebruik dat in overeenstemming is met deze beginselen.”
Het maakte ook duidelijk dat het “geen AI zal ontwerpen of inzetten in de volgende toepassingsgebieden:
- Technologieën die algemene schade veroorzaken of kunnen veroorzaken. Wanneer er een materieel risico op schade bestaat, gaan wij alleen verder wanneer wij van mening zijn dat de voordelen aanzienlijk groter zijn dan de risico’s en zullen wij passende veiligheidsbeperkingen inbouwen.
- Wapens of andere technologieën waarvan het voornaamste doel of de toepassing is mensen letsel toe te brengen of dit rechtstreeks te vergemakkelijken.
- Technologieën die informatie verzamelen of gebruiken voor toezicht waarbij internationaal aanvaarde normen worden geschonden.
- Technologieën waarvan het doel in strijd is met algemeen aanvaarde beginselen van internationaal recht en mensenrechten.”
Het voegt eraan toe dat die lijst kan evolueren.
Toch lijkt Google een problematische relatie te hebben met ethische AI. Het maakte geen goede indruk toen het in 2019 zijn volledige ethische raad heeft ontslagen, om die te vervangen door een team van ethische AI-onderzoekers. Toen vervolgens, bij afzonderlijke gelegenheden, ook twee leden daarvan werden ontslagen, kwam dat opnieuw in het nieuws.
Facebook/Meta
Terwijl anderen het hebben over betrouwbare en ethische AI, heeft Meta (het moederbedrijf van Facebook) daarentegen andere prioriteiten en spreekt het over verantwoordelijke AI. Ook Meta onderscheidt vijf (of tien) pijlers:
- Privacy en veiligheid
- Eerlijkheid en inclusiviteit
- Robuustheid & Veiligheid
- Transparantie & Controle
- Verantwoording & Bestuur
Juridische kaders voor kunstmatige intelligentie
Naast deze initiatieven binnen de sector zijn er ook voorstellen voor wettelijke kaders. Het bekendst is de AI-wet van de EU. Andere landen volgen dit voorbeeld.
De Verordening betreffende Kunstmatige Intelligentie van de EU
The EU describes its AI act as “a proposed European law on artificial intelligence (AI) – the first law on AI by a major regulator anywhere. The law assigns applications of AI to three risk categories. First, applications and systems that create an unacceptable risk, such as government-run social scoring of the type used in China, are banned. Second, high-risk applications, such as a CV-scanning tool that ranks job applicants, are subject to specific legal requirements. Lastly, applications not explicitly banned or listed as high-risk are largely left unregulated.”
De EU omschrijft haar ontwerp voor een Verordening betreffende Kunstmatige Intelligentie als een voorgestelde Europese wet inzake kunstmatige intelligentie (AI) – de eerste wet inzake AI van een belangrijke regelgever waar dan ook. De verordening deelt toepassingen van AI in drie risicocategorieën in. Ten eerste worden toepassingen en systemen die een onaanvaardbaar risico vormen – zoals sociale scoring door de overheid, zoals bijv. in China – verboden. Ten tweede zijn toepassingen met een hoog risico, zoals een instrument voor het scannen van cv’s dat sollicitanten rangschikt, onderworpen aan specifieke wettelijke voorschriften. Ten slotte worden toepassingen die niet uitdrukkelijk verboden zijn of als risicovol zijn aangemerkt, grotendeels ongereguleerd gelaten.
De tekst kan misleidend zijn omdat het voorstel in feite geen drie maar vier risiconiveaus voor AI-toepassingen onderscheidt: 1) onaanvaardbaar risico, waarvoor een verbod geldt, 2) hoog risico, waarvoor specifieke wettelijke voorschriften moeten gelden, 3) laag risico, waarvoor meestal geen regelgeving nodig is, en 4) geen risico, waar geen enkele regelgeving voor nodig is.
Door een categorie “onaanvaardbaar risico” op te nemen, introduceert het voorstel het idee dat bepaalde soorten AI-toepassingen verboden moeten worden omdat ze fundamentele mensenrechten schenden. Alle toepassingen die menselijk gedrag manipuleren om gebruikers hun vrije wil te ontnemen, alsmede systemen die sociaal scoren mogelijk maken, vallen in deze categorie. Uitzonderingen zijn toegestaan voor militaire doeleinden en wetshandhaving.
Systemen met een hoog risico “omvatten biometrische identificatie, beheer van kritieke infrastructuur (water, energie, enz.), AI-systemen bestemd voor toewijzing in onderwijsinstellingen of voor personeelsbeheer, en AI-toepassingen voor toegang tot essentiële diensten (bankkredieten, overheidsdiensten, sociale uitkeringen, justitie, enz”. Ook hier zijn er uitzonderingen voorzien, waarvan vele te maken hebben met gevallen waarin biometrische identificatie is toegestaan. Het gaat bijvoorbeeld om vermiste kinderen, verdachten van terrorisme, mensenhandel en kinderporno. De EU wil een database aanleggen die alle risicovolle aanvragen bijhoudt.
Toepassingen met een beperkt risico of een laag risico omvatten bijv. diverse bots die bedrijven gebruiken om met hun klanten te interageren. Het idee hier is dat transparantie vereist is. Gebruikers moeten bijvoorbeeld weten dat zij in interactie zijn met een chatbot en tot welke informatie de chatbot toegang heeft.
Voor alle AI-systemen die geen risico vormen voor de rechten van de burger is geen regelgeving nodig. Deze toepassingen omvatten spelletjes, spamfilters, enz.
Op wie is de EU Verordening betreffende Kunstmatige Intelligentie van toepassing? Net als de Algemene Verordening Gegevensbescherming (AVG) is de EU Verordening betreffende Kunstmatige Intelligentie niet uitsluitend van toepassing op in de EU gevestigde organisaties en burgers. De verordening geldt ook voor iedereen buiten de EU die een AI-toepassing (product of dienst) binnen de EU aanbiedt, of als een AI-systeem informatie over EU-burgers of -organisaties gebruikt. Voorts is de wet ook van toepassing op systemen buiten de EU die gebruikmaken van resultaten die door AI-systemen binnen de EU zijn gegenereerd.
Een werk in uitvoering: de EU Verordening betreffende Kunstmatige Intelligentie is nog steeds een werk in uitvoering. De Commissie heeft haar voorstel gedaan en nu kunnen de wetgevers feedback geven. Momenteel zijn er reeds meer dan duizend amendementen ingediend. Sommige fracties vinden dat het kader te ver gaat, terwijl andere vinden dat het niet ver genoeg gaat. Een groot deel van de discussies gaat over het definiëren en categoriseren van AI-systemen.
Andere vermeldenswaardige initiatieven
Naast de Europese de EU Verordening betreffende Kunstmatige Intelligentie zijn er nog enkele andere noemenswaardige initiatieven.
De Raad van Europa: de Raad van Europa (verantwoordelijk voor het Europees Verdrag voor de Rechten van de Mens) heeft een eigen Ad Hoc Comité voor Kunstmatige Intelligentie opgericht. Dit Ad Hoc Comité publiceerde in 2021 een paper, genaamd A Legal Framework for AI Systems. Het document was een haalbaarheidsstudie waarin werd onderzocht waarom een juridisch kader voor de ontwikkeling, het ontwerp en de toepassing van AI nodig is, dat gebaseerd is op de normen van de Raad van Europa inzake mensenrechten, democratie en de rechtsstaat. Er werden verschillende inhoudelijke en procedurele lacunes vastgesteld en er werd geconcludeerd dat een alomvattend rechtskader nodig is, waarin zowel bindende als niet-bindende instrumenten worden gecombineerd.
De UNESCO publiceerde een reeks aanbevelingen over de ethiek van kunstmatige intelligentie, die in november 2021 door 193 landen werden onderschreven.
De VS: op 4 oktober heeft het Witte Huis een Blueprint for an AI Bill of Rights uitgebracht om een kader op te zetten dat mensen kan beschermen tegen de negatieve effecten van AI.
In het Verenigd Koninkrijk bestaan nog geen overheidsinitiatieven. Maar de Universiteit van Cambridge heeft op 16 september 2022 een paper gepubliceerd over A Legal Framework for Artificial Intelligence Fairness Reporting.
Bronnen:
- https://thecritic.co.uk/issues/june-2022/good-and-evil-on-the-new-frontier/
- https://cepa.org/europes-artificial-intelligence-debate-heats-up/
- https://www.ibm.com/artificial-intelligence/ethics
- https://foundation.mozilla.org/en/blog/trustworthy-ai-abridged-version/
- https://ai.google/principles
- https://www.bbc.com/news/technology-47825833
- https://ai.facebook.com/blog/facebooks-five-pillars-of-responsible-ai/
- https://en.wikipedia.org/wiki/Artificial_Intelligence_Act
- https://artificialintelligenceact.eu
- https://www.caidp.org/resources/eu-ai-act/
- https://www.zdnet.com/article/the-eu-ai-act-what-you-need-to-know/
- https://edoc.coe.int/en/artificial-intelligence/9648-a-legal-framework-for-ai-systems.html
- https://www.unesco.org/en/artificial-intelligence/recommendation-ethics
- https://www.zdnet.com/article/the-white-house-passes-an-ai-bill-of-rights-that-attempts-to-put-your-privacy-concerns-at-ease/
- https://www.cambridge.org/core/journals/cambridge-law-journal/article/legal-framework-for-artificial-intelligence-fairness-reporting/C2D73FBE9BB74E5D41DDA6BDCA208424