Categorieën
Publicaties

Impact van Data Science & AI op bedrijven in de toekomst

Van louter digitale etalages zijn we de afgelopen twintig jaar gegroeid naar nieuwe bedrijfsmodellen met interactieve klanten platformen. Bedrijven als Uber, AirBnB, Booking.com, etc. zorgden voor andere bedrijfsmodellen en verschuivingen in het krachtenveld. Welke impact gaan hashtag#Data en hashtag#AI hebben op branches en organisaties de komende twintig jaar?

Welke nieuwe takken van sport zullen ontstaan? Welke bedrijven zullen gaan verdwijnen en welke nieuwe bedrijfsmodellen kunnen we verwachten? In welke branches gaat het eerst gebeuren, en hoe kan je hierop anticiperen?

Toekomstige bedrijven

Als er wordt gesproken over hoe Data en AI-bedrijven de komende jaren zal veranderen zien we twee type bedrijven. Enerzijds spreken we van bedrijven waarbij een menselijke rol niet leidend is. Denk hierbij aan de organisaties als Booking. Data en AI spelen hierbij al een grote rol, het idee bestaat dat een volledig data/AI ondersteuning bij deze bedrijven de komende jaren zal plaatsvinden. Anderzijds spreken we van organisaties waar emotionele situaties een grote rol spelen, organisaties zoals het ziekenhuis. Het idee bestaat dat het algoritme in de komende jaren een betere diagnose zal kunnen stellen dan de arts, waar dat niet al zo is. De dialoog over een ziekte, de risico’s en de handeling tussen de arts en patiënt is echter ook een belangrijk onderdeel van het werk. Hierbij is er namelijk sprake van onzekerheden en emoties van de patiënt. De waarde van het algoritme zal in dit geval voornamelijk ondersteunend zijn waarbij de arts de uiteindelijke beslissing maakt en communicatie heeft met de patiënt.

De angst is aanwezig dat we het menselijk aspect uit het oog verliezen. Bij AI zal dit namelijk de boventoon moeten blijven voeren, de mens moet ‘de stekker eruit kunnen trekken’. Emotie is wat mensen drijft – en daar zal de computer zijn beperkingen in hebben en houden. Tegelijkertijd bestaat het idee dat deze kijk op het algoritme zal verschuiven in de loop der tijd. Het vertrouwen in de techniek zal toenemen en daarmee zal noodzakelijke gevoelde ‘grip’ afnemen. Zo boekt iedereen al zijn vakantie via Booking, terwijl men vroeger ook behoefte had aan de reisagent die u meenam door dit proces.

Bij de toepassing van Data en AI werd als essentieel beschouwd dat bedrijven en organisaties goed stil staan bij wat je precies wilt optimaliseren. Wat wil je optimaliseren in een ziekenhuis? Is dat uiteindelijk de gezondheid van de mens, of iets anders? Indien hier niet goed over wordt nagedacht kunnen gevaarlijke situaties ontstaan. Zo zien we dat bij social media het algoritme continu de tijd van de gebruiker op het platform wilt optimaliseren. Deze optimalisatie kan leiden tot negatieve gevolgen met mogelijke psychische schade. Het algoritme is erop ingericht de gebruiker continu te belonen met een korte termijn satisfactie (‘ping’). Feitelijk zitten we hier als samenleving in een groot experiment, waarvan de uitkomsten nog niet duidelijk zijn. Bij verdere gevaren als gevolg van de technische mogelijkheden werd gesproken over hete totale controlesysteem dat China aan het invoeren is.

Verantwoordelijkheid (van mens naar machine?)

Gedurende de tafeldialoog kwamen een aantal onderwerpen geregeld op in het kader van bovenstaande vraagstelling die een bijna filosofische inslag hadden.

Bij organisaties van de toekomst waarbij Data en AI ingezet zal worden met als doel geautomatiseerd optimale keuzes te maken zal de uitlegbaarheid essentieel zijn. Een voorbeeld die vaker werd genoemd is wie eindverantwoordelijke is indien een zelfrijdende auto een foute keuze maakt met mogelijk dodelijke gevolgen? Het is cruciaal de stappen in te kunnen zien over hoe deze keuze tot stand is gekomen. Het ‘black-box’ fenomeen wat wij terugzien bij machine learning algoritmen kan in dit geval niet worden geaccepteerd. Deze noodzaak zien we voornamelijk terug bij besluiten die over mensen gaan, andere voorbeelden hiervan zien we dan ook terug binnen de zorg. Hierbij kan “System says No” zonder uitleg en context niet geaccepteerd worden.

Daarnaast is er bij overdragen van verantwoordelijkheden van mens naar machine ook sprake van een cultureel element. Individueel ingerichte (Westerse) samenlevingen zullen hier wellicht meer moeite mee hebben dan groepsculturen, Oosterse samenlevingen, waar men meer gewend is dat niet één persoon de eindverantwoordelijkheid heeft, maar ‘de groep’. Vraag is dan ook al snel wat ‘bewustzijn’ is – van een persoon, een groep of een computer – en of dit een gradueel gebeuren zal zijn bij verdere voortgang van AI. Mensen hebben wellicht ook geen bewustzijn, maar wel de hoogst bekende manifestatie van bewustzijn?

Conclusie

In de komende tientallen jaren zullen veel functies van de organisatie vervuld kunnen worden door een hashtag#AI-algoritme. De begrenzingen zullen blijken bij organisaties of werkzaamheden waarbij het sociale aspect een grote rol speelt. Indien een algoritme keuzes maakt die over mensen gaan is het cruciaal terug te kunnen herleiden waarom deze keuze gemaakt is. Alhoewel het vertrouwen in een algoritme tevens cultureel afhankelijk is, bestaat er het idee dat dit eventuele wantrouwen in een algoritme zal verschuiven. Het vertrouwen in de techniek zal toenemen op basis van ervaringen en daarmee zal de noodzakelijke gevoelde ‘grip’ op de besluitvorming afnemen.

Categorieën
Publicaties

Dataïsme – de macht van het algoritme

Eeuwenlang waren God en de menselijke geest de hoogste autoriteit. Pas na de middel-eeuwen kwam een einde aan het geocentrische wereldbeeld dankzij de copernicaanse revolutie. De ontwikkeling van de wetenschap kreeg een impuls wat voor een mentaliteitsverandering zorgde en resulteerde in een antropocentrisch wereldbeeld onder de vlag van het humanisme. Maar dat humanistische wereldbeeld zal plaats maken voor een datacentrisch wereldbeeld, aldus het betoog van historicus Yuval Noah Harari in zijn boek Homo Deus. Het universum bestaat uit datastromen. Menselijk gedrag is om te zetten in datastromen. Dataïsme is het nieuwe wereldbeeld, en wij zijn overgeleverd aan de macht van het algoritme.

Zijn wij bereid om onszelf over te geven aan macht van het algoritme? In het theocentrische wereldbeeld was de mens bereid om zich over te geven aan de wil van God. Het humanisme leert dat je vooral naar jezelf moet luisteren, en moet vertrouwen op je eigen ratio en intuïtie. Het dataïsme leert ons om te vertrouwen op het algoritme. Een kandidaat zoeken voor een vacature: vraag het algoritme. Of een levenspartner: vraag het algoritme. Of welke ziekte heb ik nu? Welke medicijnen heb ik nodig? Wat moet ik vandaag gaan doen? Welke informatie ga ik lezen? Wie krijgt er toeslagen en wie niet? Wie moet er vervolgd worden? Etc. etc.

Deze discussie voeren we aan de Dataïsme tafel van de Triple-E sessie in Amsterdam. Het gaat over algoritmes en hun bijwerkingen. Kunnen AI-algoritmes zelfstandig werken? Hoe vertrouw je resultaten uit een black box waarvoor niemand verantwoordelijk is? Hoe bepaal je wat is echt, wat is fake, en wie heeft gelijk?

De eerste tafel opent deze discussie met een bekend voorbeeld van het auto-besturings-algoritme dat de keus moet maken tussen een vrouw met een kinderwagen aanrijden of een aantal wegwerkers: ‘Wij zullen die keuze nooit aan een computer willen overlaten’ is het statement. Daar is niet iedereen het over eens. Degene die zich druk maakt over die keus is de verzekeringsmaatschappij, en als empirisch is aangetoond dat de keuze van het algoritme leidt tot minder ongelukken dan de keuzes van mensen, dan wordt het acceptabel dat er soms iets gebeurt.

‘Een mening van de huisarts wordt toch meer op prijs gesteld dan een analyse op de thuiscomputer’. ‘Maar ligt dat dan niet aan de interface?’ Als die interface net zo menselijk is als die huisarts aan de telefoon dan wordt het al anders. Google heeft voorbeelden van AI telefonische assistent die erop gericht zijn menselijk over te komen. Inclusief bedenktijd en aarzelingen.

Bij de tweede tafelgang start het betoog met het voorbeeld van een AI-computer die wordt  gevraagd ‘Is there a God?’. Na twee miljard jaar rekenen komt het antwoord met ‘Now there is’. De vraag is of we morele issues aan een computer willen overlaten. Een autopilot van een vliegtuig is op dit moment al veiliger dan een piloot. Maar de autopilot computer kan geen morele afwegingen maken. De mens zal willen beslissen als zich een noodsituatie aandient om de moraliteit te destilleren.

Wat wordt als referentiekader genomen bij de besluiten die een AI algoritme neemt? Vaak is het uitgangspunt een man van middelbare leeftijd. Als vrouw krijg je dan per definitie een verkeerd antwoord. De discussie gaat over biassed beslissingen van AI. ‘In de zorg moet je rekening houden met de persoonlijke levenssfeer van een patiënt’. ‘Maar in de directiekamer worden ook heel vaak biassed beslissingen genomen.’ Bij een algoritme kan je er nog aan schaven om het resultaat beter te krijgen, bij een directiekamer is dat een stuk ingewikkelder.

Een praktijkvoorbeeld wordt naar voren gebracht bij de samenstelling van het kaasschap bij een supermarktketen. Door te variëren per regio komen verschillen boven water die een algoritme niet uit zichzelf zal introduceren. Een algoritme doet datgene wat in het verleden tot resultaat heeft geleid, en is niet in staat is om vernieuwing te introduceren.

We zien deze tunneling ook bij het klikken op de volgende video bij youtube kanalen. Door steeds weer opnieuw de herbevestiging te zien van wat je al gezien hebt ontstaat polarisatie in de samenleving: bijvoorbeeld mensen voor vaccins en tegen vaccins die elkaar bestoken met hun gelijk want ze bekijken alleen nog dingen die het algoritme voor hun opzoekt.

Waarom willen mensen ook de krant lezen die hun eigen mening bevestigt? Je zou een dag in de week verplicht een andere krant moeten lezen om te voorkomen dat je als persoon teveel verzuild. Als het God niet meer is die bepaalt wat we moeten doen, en het is ook de wetenschap niet meer die we bereid zijn om te geloven, dan is het de data van ons eigen gedrag die bepaalt wat we in het vervolg gaan doen.

Het gevoel van Neo in de Matrix dient zich aan: nemen we de ‘red pill’ of de ‘blue pill’? Zijn we continue bereid om een potentieel verontrustende of levensveranderende waarheid te leren kennen of blijven we liever in tevreden onwetendheid met de volgende suggestie van het AI algoritme van wat we moeten bekijken of lezen?

Een voorbeeld wordt gegeven uit de financiële wereld. Stel een AI-algoritme definieert het risico van een portefeuille en op basis daarvan worden keuzes gemaakt. Is dit voldoende voor de AFM en de Nederlandse bank? Niemand weet wat en hoe er is gerekend, je kan het niet narekenen, maar men moet wel vertrouwen op het antwoord. Ook hier is het betoog dat als het algoritme zich empirisch bewezen heeft, er een statistische basis is waarop men kan vertrouwen. In praktijk zijn er al AI-algoritmes die beoordelen wat de kans is dat iemand in financiële problemen komt en aan de hand daarvan kan de bank een gesprek met de klant in plannen, of bepaalde investeringen weigeren.

“This is your last chance. After this there is no turning back. You take the blue pill, the story ends. You wake up in your bed and believe whatever you want to. You take the red pill, you stay in Wonderland, and I show you how deep the rabbit hole goes.

Remember, all I’m offering is the truth.

Nothing more.”