11 april 2019

Zeven richtlijnen voor betrouwbare AI

De ontwikkeling van kunstmatige intelligentie – ofwel artificial intelligence (AI) – gaat steeds sneller. Dat brengt uitdagingen met zich mee op ethisch en juridisch vlak. Het is niet altijd eenvoudig voor AI-ontwikkelaars om deze uitdagingen af te wegen. Om ze daarbij te ondersteunen heeft de Europese Commissie zeven richtlijnen opgesteld.

 

Volgens de Commissie moeten AI-systemen eerlijke en rechtvaardige samenlevingen stimuleren door de grondrechten van de mens te bewaren en menselijke autonomie niet te beperken of misleiden. AI-systemen moeten daarnaast betrouwbaar en veilig zijn, zodat het kan omgaan met haar eigen fouten en eventuele menselijke fouten die kunnen voorkomen bij de ontwikkeling van het systeem. Mensen dienen zelf de controle te houden over de gegevens die het AI-systeem verwerkt. Een van de voordelen van de richtlijnen is, aldus de Commissie, dat ze mensen meer vertrouwen geven in kunstmatige intelligentie. De zeven richtlijnen luiden als volgt.

 

1. Menselijk toezicht

AI-systemen moeten een rechtvaardige maatschappij ondersteunen. Het doel is dat ze ons menselijk handelen en onze fundamentele rechten ondersteunen en niet ondermijnen, beperken of misleiden. De mens moet de regie houden.

 

2. Robuust en veilig

Betrouwbare kunstmatige intelligentie vereist veilige algoritmen, die betrouwbaar en robuust zijn en fouten of inconsequenties in alle levensfasen van AI-systemen kunnen opvangen.

 

3. Privacy van data

Burgers moeten altijd de volledige controle hebben over hun eigen persoonsgegevens. Tegelijkertijd mogen die gegevens niet worden gebruikt om ons te schaden of te discrimineren.

 

4. Transparantie

AI-systemen moeten traceerbaar zijn.

 

5. Diversiteit, non-discriminatie en eerlijkheid

AI-systemen moeten rekening houden met het menselijke kunnen, onze beperkingen en behoeften en moeten door iedereen kunnen worden gebruikt.

 

6. Maatschappelijk en ecologisch welzijn

AI-systemen moeten worden gebruikt om positieve sociale verandering te bevorderen en duurzaamheid en ecologisch bewustzijn te vergroten.

 

7. Verantwoordelijkheid

Er moeten mechanismen worden ingebouwd om de verantwoordelijkheid en verantwoording voor AI-systemen en hun resultaten te waarborgen.

 

Internationale consensus

De richtlijnen zijn door de Europese Commissie opgesteld in samenwerking met onafhankelijke experts. De volgende stap is een pilotfase. In deze fase, die in de zomer van dit jaar ingaat, kunnen belanghebbenden feedback geven op de richtlijnen. Uiteindelijk zal dat proces moeten leiden tot internationale consensus op het vlak van AI.

 

Waarom is het zo belangrijk internationale consensus te hebben op het gebied van AI?

Kunstmatige intelligentie kan enorm veel betekenen voor de mensheid, maar het kan haar ook schaden. Een zelflerend systeem onder controle van de mensheid zou ziektes kunnen genezen, maar zou door kwaadwillenden ook ingezet kunnen worden om ziektes te creëren. Het kan daarmee zo goed zijn voor het biologisch leven als een miljoen extra bossen, maar ook zo schadelijk als duizend kernwapens. Wat nú al zeker is, is dat AI in de toekomst een rol gaat spelen in ons leven. Het is daarom belangrijk om de richtlijnen en grenzen van het toelaatbare nu al vast te stellen, voordat we in situaties als in de film I, Robot terechtkomen (tip!).