Wat we ons data laten zeggen

Erdinç Saçan heeft inzichten van experts verzameld over de vragen of algoritmes een bijdrage kunnen leveren aan meer gelijkheid en hoe we komen tot inclusieve ontwikkeling van artificiële intelligentie. Dit heeft geleid tot het mooie boek Inclusieve Artificial Intelligence (vrij beschikbaar, zie Fontys nieuwsbericht of directe download links EPUB of PDF). Mijn antwoorden op de vragen van Erdinç Saçan heb ik hier tot een kort artikel uitgewerkt.

Erdinç Saçan, Inclusieve Artificial Intelligence (foto Fontys website)

Techniek altijd én goed én slecht

Op de vraag of we algoritmen kunnen inzetten voor het algemene belang, om discriminatie en ongelijkheid te bestrijden, is mijn antwoord: Ja, dat zou kunnen. AI kan bijdragen aan de bestrijding van discriminatie en ongelijkheid, bijvoorbeeld door slim door data in nieuws, social media, beleidsstukken te zoeken naar voorbeelden van discriminatie. Maar ja, een typisch probleem met AI dat nu overal naar voren komt is dat het zorgt voor bubbels en daarmee discriminatie en ongelijkheid ook kan versterken.

Een belangrijke les van de techniekfilosofie dat techniek ambivalent is. Dat wil zeggen dat techniek ethisch geladen is, dus niet neutraal. En die ethische lading van techniek is niet eenduidig maar er zijn altijd én positieve en én negatieve kanten.

Inclusieve AI

Vervolgens was de vraag hoe we kunnen zorgen dat beslissingen door algoritmes inclusief zullen zijn. Oftewel, kan de automatisering van beslissingen verbeterd en inclusiever worden gemaakt?

Dat kan vast en zeker. Bij de ontdekking dat partijdigheid of discriminatie blijken ingebouwd in algoritmes, of wanneer zelflerende algoritmes zich in ongewenste richting hebben ontwikkeld, kan daarvoor worden gecorrigeerd. Dat is een manier om om te gaan met de ambivalentie van techniek, van AI. De techniekontwikkeling moet reflexief worden gemaakt: evaluatie en bijsturing inbouwen in het proces. Dit gaat over inclusiviteit met betrekking tot wie te maken krijgen met de effecten, positief en negatief.

Ten tweede sluit het transparanter maken van algoritmes aan bij het principe van inclusiviteit in de zin dat iedereen dan kan meekijken hoe de rekensommen en de beslissingen worden gemaakt.

Ten derde wordt inclusiviteit bevorderd door het organiseren van inbreng van meer mensen bij het ontwerp en de ontwikkeling van algoritmes (co-creatie, co-design).

Wat we ons data laten zeggen

Ten slotte, is wat mij betreft de prestige die we toekennen aan algoritmes een belangrijke ethisch onderwerp. Voor het goed omgaan met AI is het hard nodig om AI “op z’n plek” te zetten. Het besef van de ambivalente uitwerking ervan zou bij iedereen goed moeten indalen. Dat voorkomt hopelijk een onterecht vertrouwen in overdreven krachten van AI. Het lijkt me een verstandige vuistregel dat AI ons kan helpen bij ons werk, ons denken en handelen, maar dat het nooit wenselijk is om beslissingen helemaal uit te besteden aan geautomatiseerde systemen.

Een belangrijke vraag die we ons altijd moeten stellen is: Wat doen we met de antwoorden, voorstellen die geautomatiseerde systemen ons geven? Blind opvolgen, of als input gebruiken voor beslissingen die we uiteindelijk zelf blijven maken? Dus, heel concreet:

  • Wat laten we data ons zeggen?
  • Hoe houden we “the human in the loop”?

Dit zijn heel concrete maar wezenlijke vragen die passen bij het praktijkgericht onderzoek op een hogeschool.

Als de data zeggen dat je boos bent…

Ter illustratie, moet ik denken aan een kunstwerk dat 10 of 15 jaar geleden in een stad in de buurt werd geplaatst (D-Toren, Doetinchem). Het is een installatie die van kleur kan veranderen op basis van een peiling van de stemming in de stad. De stemming van een stad kun je normaal niet zien. Nu dus wel. Zo’n interactieve installatie is typisch iets van onze tijd. Zouden de inwoners het altijd eens zijn met de stemmingskleur?

D-toren in Doetichem (foto via www.d-toren.nl)

Het peilen van de stemming in de stad gebeurt met de input van deelnemers op een website. Het zou ook echt van deze tijd zijn om te proberen met sensoren of data van social media en een algoritme de peiling van de stemming te automatiseren.

Stel je nu voor dat een gezondheidshorloge jouw persoonlijke stemming peilt en dat die stemming wordt weergegeven met een licht op je hoofd dat van kleur verandert. Op een dag kleurt je hoofd rood: boos. Maar je voelt je helemaal niet boos. Wat doe je dan? Horloge weg, want het werkt niet goed. Of denk je: ik voelde me niet boos, maar de data zeggen dat ik diep van binnen wel boos ben dus… ja misschien ben ik toch wel boos, ik geloof dat ik al iets begin te voelen.

Het is volgens mij echt een probleem dat we veel te veel prestige verlenen aan “wat de data zeggen”. Het valt niet mee om er tegenin te gaan, onszelf in de loop te houden. Dat is dus een uitdaging voor een praktijkgerichte data-ethiek in onze tijd.