artikel

Is kunstmatige intelligentie een bedreiging voor de mensenrechten?

Innovatie

Deel 7 van de serie ‘Perspectieven op Kunstmatige Intelligentie’. Van alle technologische ontwikkelingen van dit moment is kunstmatige intelligentie het meest ingrijpend en het minst begrepen. We zien indrukwekkende nieuwe toepassingen, maar kunnen de impact op mensen, organisaties en maatschappij nog nauwelijks overzien. In deze serie blogs, Perspectieven op Kunstmatige Intelligentie, onderzoeken we niet alleen de mogelijkheden, maar ook de bedoelde en onbedoelde consequenties.

Is kunstmatige intelligentie een bedreiging voor de mensenrechten?

Angst voor kunstmatige intelligentie is terecht

Bij mijn lezingen over robotisering en kunstmatige intelligentie komen na enige tijd steevast de vragen uit het publiek over de gevaren van de technologie. Neemt kunstmatige intelligentie de macht van de mensen over? Waarom zouden alle slechte dingen die je met kunstmatige intelligentie kunt doen niet daadwerkelijk gaan gebeuren? Zal kunstmatige intelligentie leiden tot de ondergang van de mensheid?

Het zijn existentiële vragen die verdergaan dan de discussie over de impact van robotisering op werkgelegenheid en het managen van de transitie naar een arbeidsmarkt waarin al het routinematige werk door computers wordt uitgevoerd. Het debat over de potentiële negatieve effecten van kunstmatige intelligentie is belangrijk om de verdere technologische ontwikkeling in goede banen te leiden.

Tijdens het World Economic Forum in Davos in januari 2018 stond dit onderwerp voor het eerst prominent op de agenda. En terecht. Eén van de sprekers was Yuval Noah Harari. Hij is de auteur van één van de beste boeken van de afgelopen jaren: Homo Deus. Hij beschrijft hoe de autoriteit en de vrije wil van de mens wordt ondermijnd naarmate wij meer beslissingen overlaten aan algoritmes totdat uiteindelijk humanisme en liberalisme plaats maken voor dataism. Hij legt op een goed onderbouwde en plausibele manier uit hoe degenen die de data controleren, de toekomst van de mensheid en van het leven zelf bepalen. Als organismen biochemische algoritmes zijn, zal de combinatie van informatietechnologie en biotechnologie resulteren in machines die ons beter kennen dan wij onszelf kennen. Zo kunnen nieuwe, digitale dictaturen ontstaan. Zijn alarmistische boodschap vindt steeds meer gehoor.

Van narrow AI naar general AI en AI met zelfbewustzijn

De toepassingen van kunstmatige intelligentie die we momenteel het meest gebruiken, zijn vooral bedoeld om mensen te assisteren op een specifiek terrein. We spreken van narrow AI. Denk aan vertalingen van Google Translate, spraakondersteuning door Siri van Apple, zelfrijdende auto’s, chatbots die de klantenservice vervangen en expertsystemen voor artsen en juristen van IBM Watson. Het zijn voorbeelden van toepassingen die laten zien dat de kunstmatige intelligentie op deelterreinen de menselijke intelligentie overstijgt. De sociale en economische gevolgen zijn groot. We zien grote verschuivingen op de arbeidsmarkt en op de beurs zijn de vijf grootste bedrijven van de wereld, gemeten naar beurswaarde, vijf Amerikaanse technologiebedrijven: Apple, Alphabet, Microsoft, Amazon en Facebook. Zij worden op de voet gevolgd door hun Chinese evenknieën Alibaba en Tencent.

De ontwikkeling van kunstmatige intelligentie houdt hier niet op en verbreedt zich van narrow AI naar general AI en Artificial Superintelligence. We hebben het dan over AI systemen die zelfbewust en autonoom zijn. Ze kunnen kennis verwerken en reproduceren, leren, redeneren en strategisch plannen. Als de machines intelligenter zijn dan de mensen die de machines hebben gemaakt en hun eigen agenda hebben, moeten we ons zorgen gaan maken. Stephen Hawking was één van de eerste wetenschappers die waarschuwde voor machines die mensen kunnen manipuleren en wapens kunnen ontwikkelen die zich tegen mensen keren, waarmee de menselijke soort ophoudt te bestaan. Ook Elon Musk heeft AI een fundamenteel risico voor het voortbestaan van de menselijke beschaving genoemd.

De snelheid waarmee AI slimmer wordt, zien we bijvoorbeeld bij AlphaGo van Google Deepmind. In mei 2017 versloeg deze computer de beste Go speler van de wereld, Ke Jie. Deze computer was getraind aan de hand van wedstrijden die in het verleden door mensen waren gespeeld. De volgende versie, AlphaGo Zero, kreeg als input alleen de spelregels mee en leerde het spel door uitsluitend tegen zichzelf te spelen. Het systeem had 21 dagen nodig om op het niveau van zijn voorganger te komen.

Fusie van menselijk brein en AI

Het onderscheid tussen mensen en machines lijkt heel duidelijk, maar zal gaan vervagen. We kunnen nu al patiënten met de ziekte van Parkinson of epilepsie helpen met implantaten in de hersenen. De volgende stap is om het brein van gezonde mensen door middel van brain-computer interfaces te upgraden. Bedrijven zoals Neuralink en Kernel werken aan de fusie van biologische intelligentie en kunstmatige intelligentie, waardoor bijvoorbeeld je geheugen verbetert, je sneller kunt denken en een directe interface krijgt met een computer. Ook kun je zo een digitale kopie van jezelf maken. De vraag is of je bij dergelijke brain-computer interfaces nog kunt achterhalen of de oorsprong van je gedachten en ideeën in je eigen brein ligt of in een computer. Uiteindelijk zijn ook onze emoties biochemische algoritmes die AI systemen steeds beter leren begrijpen en kunnen beïnvloeden.

Naar een ethisch raamwerk voor AI

Ondanks de onmiskenbare risico’s, gaat de ontwikkeling van kunstmatige intelligentie verder. We kunnen niet terug in de tijd en houden de ontwikkeling niet tegen, maar we hebben wel invloed op de wijze waarop de technologie wordt ingezet. De technologie biedt verschillende opties en de toepassing daarvan hangt af van de keuzes die mensen maken. Het is zoals Andrew Mcafee en Erik Brynjolfsson schrijven in hun boek Machine Platform Crowd: ‘So we should ask not “What will technology do to us?” but rather “What do we want to do with technology?” More than ever before, what matters is thinking deeply about what we want. Having more power and more choices means that our values are more important than ever.’

Met andere woorden, de vraag is hoe we de menselijke autonomie in stand houden te midden van machines die ons brein hacken en in staat zijn autonoom beslissingen te nemen. Ook tijdens het World Economic Forum bleek dat er nog geen pasklare antwoorden zijn. Het ethisch debat over de doelstellingen en principes van kunstmatige intelligentie is nog maar net begonnen en heeft tot nu toe vooral suggesties opgeleverd voor een ethisch raamwerk, waarin bijvoorbeeld wordt vastgelegd dat AI systemen moeten worden ontworpen ten behoeve van mensen, dat de beslissingen van die systemen controleerbaar en omkeerbaar moeten zijn en dat de algoritmes vrij van vooroordelen moeten zijn.

In het volgende blog gaan we nader in op de regelgeving voor de ontwikkeling van kunstmatige intelligentie en op de noodzaak om de macht van datamonopolies in te perken.

Door: Willem Peter de Ridder

Willem Peter de Ridder

Willem Peter de Ridder

Futuroloog dr. Willem Peter de Ridder is spreker, auteur en strategieconsultant. Als directeur van Futures Studies ondersteunt hij organisaties bij het verkennen van de toekomst en het formuleren van een toekomstbestendige strategie. Voor meer informatie: www.futuresstudies.nl.

Eerder verschenen in deze serie:

Reageer op dit artikel