Categorieën
Publicaties

Data Science, AI en Ethiek

Ontwikkelingen in Data Science en AI dwingen ons opnieuw na te denken over ethiek. Dat stelt Johan Wempe tijdens de Roundtable over DATA SCIENCE EN AI op maandag 27 juni 2022 bij de Koninklijke Groote Club in Amsterdam.

Door de ontwikkelingen in onze samenleving op het gebied van Data Science en artificiële intelligentie zullen we opnieuw moeten nadenken over vraagstukken rond ethiek en de gangbare ethische theorieën. Het wordt mij steeds duidelijker dat we met de gangbare ethische theorieën eigenlijk niet meer in staat zijn actuele maatschappelijke vraagstukken te begrijpen en dat we op nieuwe manieren over normen en waarden moeten nadenken. Met name in de digitalisering zie je dat de grenzen van de traditionele ethiek overschreden worden. Waar faalt die traditionele manier van kijken en tegen welke reële vraagstukken lopen we aan?

De gangbare ethiek steunt op twee uitgangspunten die een toepassing ervan op veel actuele vraagstukken belemmeren. Bij ethiek gaat het om een keuze (een beslissing) tussen goed en fout. Het betreft voorts een beslissing van het individu. Ik denk dat die uitgangspunten niet meer op gaan in het tijdperk van digitalisering. Dankzij de ontwikkelingen rond Data Sciences en artificiële intelligentie worstelen we met het feit dat vanaf de middeleeuwen het individu centraal is komen te staan. Ook het stellen van morele vragen ten aanzien van collectief handelen zoals de verantwoordelijkheid van ondernemingen en het klimaatvraagstuk is lastig met de gangbare ethiek. Kun je hier spreken van een keuze of beslissing? Wanneer neemt een bedrijf een beslissing en wie of wat draagt daar de verantwoordelijkheid voor? Kun je onze levensstijl die ten grondslag ligt aan het klimaatvraagstuk als een keuze zien? Een oplossing kan zijn om ethiek (ook) op systeem- of organisatieniveau te begrijpen.

Descartes die grote invloed heeft gehad op het westerse Verlichtingsdenken. Als we praten over Descartes dan hebben we het over het dualisme en iedereen die iets van filosofie heeft meegekregen kent zijn uitspraak: “Ik denk, dus ik ben”. De (westerse) wereld moest zich ontdoen van dat middeleeuwse denken waarbij eigenlijk alles vanuit een goddelijk perspectief bekeken werd. De wereld was geordend volgens normen en principes die God gemaakt had. Dat betekende dat je je had te schrikken in die orde. Met het humanisme tijdens de renaissance en later met de Verlichting komt de mens centraler te staan en ontstaat een ander wereldbeeld waarbij het individu centraal staat en de natuur begrepen wordt als causaal geordend, waarmee de basis wordt gelegd voor de natuurwetenschappen. Deze mechanisering van het wereldbeeld is het directe gevolg van het dualisme. Volgens Descartes moeten we het lichaam beschouwen als een mechanisch systeem, waarin op een of andere manier toch ook plaats is voor zoiets als een geest. Die wisselwerking tussen de geest in dat lichaam is kort gezegd het dualisme van Descartes. In de visie van Descartes zit de geest in dat lichaam verscholen en stuurt het het gedrag van mensen. De geest als “the man in the machine”. Het lichaam voldoet aan alle natuurwetten, maar er is een spanning tussen dat lichaam en de geest. Maar hoe stuurt de geest nu die “machine” aan? Er een stroming die eigenlijk, de rol van de geest geheel reduceert tot fysieke processen. Dick Swaab heeft het over “wij zijn ons brein”. Hij maakt de geest steeds kleiner en miskent een rol voor de geest anders dan een fysiek proces. Daarmee verdwijnt ook de ethiek. Kun je nog van verantwoordelijkheid spreken wanneer er geen ik is die de machine aanstuurt? Pas in de jaren 60 van de vorige eeuw is men gaan tornen aan de redenering van Descartes. Descartes verwart categorieën.

De naoorlogse normatieve ethiek

Het lijkt erop dat we dat proces van de Verlichting in de afgelopen 50 jaar hebben uit gefaseerd, maar in feite gaat het proces door. Als je bijvoorbeeld leest wat de journalist Henk Hofland begin jaren zeventig schrijft in “Tegels Lichten”, dan zie je dat het individu steeds centraal blijft staan in het denken. Het dan opkomende verzet tegen gezag en autoriteit kun je begrijpen als een proces van emancipatie, maar blijft feitelijk een volgende stap in het project “Verlichting”. De emancipatiebewegingen van de laatste decennia steunen op een heilig geloof in een ‘ik’ dat enerzijds respect verdient en anderzijds handelt en daarmee verantwoordelijkheid draagt. In ons denken proberen we dus vast te houden aan het individu dat sturing geeft aan het gedrag van mensen en daarmee de wereld. Je ziet ook dat het natuurwetenschappelijke model dominanter wordt en dat het beeld dat we van de mens hebben volstrekt gedetermineerd is. Aldus ontstaat een paradox: De mens, zowel lichaam als geest, voldoen aan de wetten van de natuur en zijn daarom volstrekt gedetermineerd Tegelijk behandelen we het individu als autonoom handelend wezen die de werkelijkheid controleert en daarom verantwoordelijk is voor zijn handelen.

Een nieuwe normatieve positie

In de laatste 30 jaar zie je dat er veel filosofen kritiek hebben op dit denken. Met name in het communitarisme, waar Jürgen Habermas en Alasdair MacIntyre exponenten van zijn, zie je dat deze filosofen zich afzetten tegen dit liberale denken. De filosofen die zich afzetten tegen het liberale denken zeggen dat de mens als het ware is ingebed in grote processen waar ze deel van uitmaken. Dat betekent niet dat ze zo ver gaan als Swaab, dat ze zeggen dat we al het menselijke terzijde schuiven, maar wel dat de mens is ingebed in een netwerk van systemen en dat we moeten gaan nadenken hoe die systemen gestuurd worden en hoe hierbinnen verantwoordelijkheid vorm kan krijgen. Deze filosofen zetten zich af tegen het idee van een IK en een ZELF die aan de touwtjes trekt. Nee, het ZELF is ingebed in structuren en is een onlosmakelijk onderdeel hiervan.

Digitale beslissingen

Als we nu kijken naar de digitale wereld en naar artificiële intelligentie dan is het interessante dat die behoefte van het individu om de werkelijkheid te controleren wringt met de werking van die systemen. Een heleboel actoren nemen allerlei beslissingen en we moeten maar vertrouwen op de beslissingen die “het systeem” neemt. Voorbeelden zijn er bij de vleet.

Een faculteit wilde een op algoritmen gebaseerd systeem gebruiken dat scripties van studenten nakijkt. Dat is natuurlijk geweldig want het gaat om veel studenten en het bespaart behoorlijk wat tijd. Zo’n algoritme kijkt bovendien onbevooroordeeld naar de scripties en de student krijgt de beoordeling die past bij de kwaliteit van zijn werk. Toch zag de examencommissie het niet zitten omdat er kennelijk ergens iets begon te wringen.

Bij Unilever en Amazon in de VS werd een AI-systeem ingezet voor personeelsselectie. Unilever gebruikt het systeem tot op de dag van vandaag omdat het een heleboel efficiency oplevert. Amazon stopte ermee omdat er in het zelflerende systeem al gauw een bias voor bepaalde personeelsprofielen ontstond.

Bekend is natuurlijk de “Toeslagen affaire” waaraan problemen met algoritmen mede ten grondslag liggen. Het probleem was niet louter de bias die in het systeem sluipt en ook niet het schier onmogelijke om de fouten op te sporen en te corrigeren. Het grote probleem was dat het vertrouwen in onze overheid op een fundamentele manier was ondergraven.

Michael Sandel, ook een filosoof die behoort tot de communitaristische stroming, geeft een voorbeeld van een hypothetische AI-toepassing die uit alle beschikbare mensen de ideale partner kiest. In eerste instantie zien mensen zo’n App wel zitten. Het bespaart een heleboel emoties en je loopt minder blauwtjes. Toch gaat er ook in dit voorbeeld iets fundamenteels wringen. Dat is het feit dat al die voorbeelden zoeken naar perfectie en dat alleen de beste oplossing goed genoeg is. Het aardige is, zoals in het laatste voorbeeld, dat een relatie juist groeit doordat er botsingen zijn. Het proces doet ertoe en het louter inzetten van artificiële intelligentie om een optimale oplossing te vinden, miskent het belang van het proces.

AI en ethiek

Ik denk dat er bij ethische vragen wanneer we het hebben over artificiële intelligentie sprake is van een paradox. Het liberale denken waarbij de mens centraal staat, met de ambitie steeds betere en optimale beslissingen te nemen, zal ertoe leiden dat de mens zoekraakt in het systeem. Ik denk dat dat komt doordat we de mens nog steeds als bestuurder van het systeem zien En dus als verantwoordelijke voor de effecten van dat systeem. Moeten we wel blijven vasthouden aan de gedachte dat het individu besluit en daarom verantwoordelijkheid is?

Bronnen van verantwoordelijkheid

Misschien houden we te veel vast aan het individu dat rationele keuzes maakt en daarvoor verantwoordelijk gehouden kan worden. Misschien moeten we nadenken over andere manieren waarop verantwoordelijkheid gestalte kan krijgen. Ik denk dat we de gedachte van louter individuele verantwoordelijkheid moeten loslaten en nadenken over verantwoordelijkheden die in het systeem gedeeld worden en georganiseerd worden rond een veelheid aan actoren. En als je op deze manier redeneert moet je, consequent zijn en niet blijven vasthouden aan een individu als bron van verantwoordelijkheid. Je moet morele verantwoordelijkheid (mede) buiten het individu zoeken.

En dat brengt me bij het begrip identiteit, dat echt iets anders is als het begrip IK of ZELF of GEEST. Identiteit is iets dat niet zonder meer aan een individu gekoppeld hoeft te zijn. Identiteit kan ook best betrekking hebben op een gemeenschap, een organisatie of een samenleving. Bij deze benadering van identiteit gaat het niet meer alleen over het individu en de daaraan verbonden verantwoordelijkheid, maar over systemen en samenwerkingsverbanden met een veelheid aan verantwoordelijkheden. We moeten ethiek niet alleen in het individu zoeken, maar vooral ook in de manier waarop ethiek verankerd is in systemen die veelal op artificiële intelligentie zijn gebaseerd.

Normalisering van ons wereldbeeld

We moeten dan niet meer denken in termen van hoe houd ik controle over die artificiële intelligente systemen. Nee, je moet zorgen dat AI-systemen ingebed zijn in een samenhangend complex van activiteiten waarin doelen van zo’n systeem een plekje krijgen. We zullen ook erover na moeten denken hoe we met de slimheid van het systeem om moeten gaan en hoe we die kunt verankeren met onze doelen en ethische waarden, zodat we de risico’s en misschien zelfs ook de existentiële risico’s kunt uitsluiten dan wel verkleinen.

De boodschap waarmee ik begon is, dat we ethiek niet zien als louter een normatief beslissen in termen van goed of fout door natuurlijke personen maar dat we ook (vooral) moeten kijken hoe ethiek verankerd kan zijn (moet zijn) in een systeem.

Dat betekent dat we misschien niet het overzicht en de controle over een systeem hoeven te hebben, maar dat we ethiek (ook) moeten begrijpen op het niveau van systemen waarin menselijk en digitaal handelen beiden hun plek hebben. Dan zullen we ook in staat zijn om in die systemen correctiemechanismen te verankeren en verantwoordelijkheid en identiteit op systeemniveau te begrijpen en niet meer alleen op het niveau van een individu.

De Verlichting heeft ons veel gebracht. Met name door het denkende en handelende individu centraal te stellen en verantwoordelijk te houden. Nu vormt het louter vasthouden aan de fictie van het autonome IK een belemmering om na te denken over verantwoordelijkheid bij de grote uitdagingen van onze tijd. Digitalisering, data science en artificiële intelligentie bieden grote kansen om de wereld van morgen vorm te geven. Laten we ervoor zorgen dat we de systemen die we bouwen steunen op een moreel fundament.

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *