
Eeuwenlang waren God en de menselijke geest de hoogste autoriteit. Pas na de middel-eeuwen kwam een einde aan het geocentrische wereldbeeld dankzij de copernicaanse revolutie. De ontwikkeling van de wetenschap kreeg een impuls wat voor een mentaliteitsverandering zorgde en resulteerde in een antropocentrisch wereldbeeld onder de vlag van het humanisme. Maar dat humanistische wereldbeeld zal plaats maken voor een datacentrisch wereldbeeld, aldus het betoog van historicus Yuval Noah Harari in zijn boek Homo Deus. Het universum bestaat uit datastromen. Menselijk gedrag is om te zetten in datastromen. Dataïsme is het nieuwe wereldbeeld, en wij zijn overgeleverd aan de macht van het algoritme.
Zijn wij bereid om onszelf over te geven aan macht van het algoritme? In het theocentrische wereldbeeld was de mens bereid om zich over te geven aan de wil van God. Het humanisme leert dat je vooral naar jezelf moet luisteren, en moet vertrouwen op je eigen ratio en intuïtie. Het dataïsme leert ons om te vertrouwen op het algoritme. Een kandidaat zoeken voor een vacature: vraag het algoritme. Of een levenspartner: vraag het algoritme. Of welke ziekte heb ik nu? Welke medicijnen heb ik nodig? Wat moet ik vandaag gaan doen? Welke informatie ga ik lezen? Wie krijgt er toeslagen en wie niet? Wie moet er vervolgd worden? Etc. etc.
Deze discussie voeren we aan de Dataïsme tafel van de Triple-E sessie in Amsterdam. Het gaat over algoritmes en hun bijwerkingen. Kunnen AI-algoritmes zelfstandig werken? Hoe vertrouw je resultaten uit een black box waarvoor niemand verantwoordelijk is? Hoe bepaal je wat is echt, wat is fake, en wie heeft gelijk?

De eerste tafel opent deze discussie met een bekend voorbeeld van het auto-besturings-algoritme dat de keus moet maken tussen een vrouw met een kinderwagen aanrijden of een aantal wegwerkers: ‘Wij zullen die keuze nooit aan een computer willen overlaten’ is het statement. Daar is niet iedereen het over eens. Degene die zich druk maakt over die keus is de verzekeringsmaatschappij, en als empirisch is aangetoond dat de keuze van het algoritme leidt tot minder ongelukken dan de keuzes van mensen, dan wordt het acceptabel dat er soms iets gebeurt.
‘Een mening van de huisarts wordt toch meer op prijs gesteld dan een analyse op de thuiscomputer’. ‘Maar ligt dat dan niet aan de interface?’ Als die interface net zo menselijk is als die huisarts aan de telefoon dan wordt het al anders. Google heeft voorbeelden van AI telefonische assistent die erop gericht zijn menselijk over te komen. Inclusief bedenktijd en aarzelingen.
Bij de tweede tafelgang start het betoog met het voorbeeld van een AI-computer die wordt gevraagd ‘Is there a God?’. Na twee miljard jaar rekenen komt het antwoord met ‘Now there is’. De vraag is of we morele issues aan een computer willen overlaten. Een autopilot van een vliegtuig is op dit moment al veiliger dan een piloot. Maar de autopilot computer kan geen morele afwegingen maken. De mens zal willen beslissen als zich een noodsituatie aandient om de moraliteit te destilleren.
Wat wordt als referentiekader genomen bij de besluiten die een AI algoritme neemt? Vaak is het uitgangspunt een man van middelbare leeftijd. Als vrouw krijg je dan per definitie een verkeerd antwoord. De discussie gaat over biassed beslissingen van AI. ‘In de zorg moet je rekening houden met de persoonlijke levenssfeer van een patiënt’. ‘Maar in de directiekamer worden ook heel vaak biassed beslissingen genomen.’ Bij een algoritme kan je er nog aan schaven om het resultaat beter te krijgen, bij een directiekamer is dat een stuk ingewikkelder.
Een praktijkvoorbeeld wordt naar voren gebracht bij de samenstelling van het kaasschap bij een supermarktketen. Door te variëren per regio komen verschillen boven water die een algoritme niet uit zichzelf zal introduceren. Een algoritme doet datgene wat in het verleden tot resultaat heeft geleid, en is niet in staat is om vernieuwing te introduceren.
We zien deze tunneling ook bij het klikken op de volgende video bij youtube kanalen. Door steeds weer opnieuw de herbevestiging te zien van wat je al gezien hebt ontstaat polarisatie in de samenleving: bijvoorbeeld mensen voor vaccins en tegen vaccins die elkaar bestoken met hun gelijk want ze bekijken alleen nog dingen die het algoritme voor hun opzoekt.
Waarom willen mensen ook de krant lezen die hun eigen mening bevestigt? Je zou een dag in de week verplicht een andere krant moeten lezen om te voorkomen dat je als persoon teveel verzuild. Als het God niet meer is die bepaalt wat we moeten doen, en het is ook de wetenschap niet meer die we bereid zijn om te geloven, dan is het de data van ons eigen gedrag die bepaalt wat we in het vervolg gaan doen.
Het gevoel van Neo in de Matrix dient zich aan: nemen we de ‘red pill’ of de ‘blue pill’? Zijn we continue bereid om een potentieel verontrustende of levensveranderende waarheid te leren kennen of blijven we liever in tevreden onwetendheid met de volgende suggestie van het AI algoritme van wat we moeten bekijken of lezen?
Een voorbeeld wordt gegeven uit de financiële wereld. Stel een AI-algoritme definieert het risico van een portefeuille en op basis daarvan worden keuzes gemaakt. Is dit voldoende voor de AFM en de Nederlandse bank? Niemand weet wat en hoe er is gerekend, je kan het niet narekenen, maar men moet wel vertrouwen op het antwoord. Ook hier is het betoog dat als het algoritme zich empirisch bewezen heeft, er een statistische basis is waarop men kan vertrouwen. In praktijk zijn er al AI-algoritmes die beoordelen wat de kans is dat iemand in financiële problemen komt en aan de hand daarvan kan de bank een gesprek met de klant in plannen, of bepaalde investeringen weigeren.
“This is your last chance. After this there is no turning back. You take the blue pill, the story ends. You wake up in your bed and believe whatever you want to. You take the red pill, you stay in Wonderland, and I show you how deep the rabbit hole goes.
Remember, all I’m offering is the truth.
Nothing more.”