Sennay Ghebreab - Strijder voor eerlijker algoritmes

Sennay Ghebreab - Strijder voor eerlijker algoritmes Foto Coco Olakunle

Neuro-informaticus Sennay Ghebreab (1973) wilde op de middelbare school arts worden, vertelt hij op zijn werkkamer op het Science Park van de Universiteit van Amsterdam (UvA). Maar toen zijn vader een computer voor hem kocht, raakte hij zo gefascineerd dat hij impulsief koos voor de – toen nieuwe – studie technische informatiesystemen en voor AI. ‘AI houdt ons als maatschappij een spiegel voor.’

Tekst Vittorio Busato, foto Coco Olakunle

Sennay Ghebreab studeerde af en promoveerde op een onderwerp dat betrekking had op medische beeldverwerking. ‘Dat kun je zien als een soort correctie op mijn technische studiekeuze. Met die medische toepassing van informatiesystemen kon ik toch wat meer met mensen doen.’ Ghebreab is initiatiefnemer van het aan de UvA nog officieel te openen CIVIC AI Lab, een onderdeel van het publieke en private kennisinstituut Innovation Center for Artificial Intelligence (ICAI). De missie van dat lab is kunstmatige of artificiële intelligentie (AI) in te zetten voor de ‘social good’. Ghebreab: ‘Iedereen zou moeten kunnen profiteren van de goede dingen die AI te bieden heeft. Met mijn collega’s maak ik me daarom hard voor een inclusieve AI.’

U bent neuro-informaticus. Voor uw proefschrift heeft u zich beziggehouden met neuronale netwerken die gebaseerd zijn op de werking van het visuele brein. Is AI hetzelfde als neuronale netwerken?

‘AI is een heel breed veld dat zich richt op systemen die kunnen leren van en interacteren met data, en die systemen kunnen zichzelf vervolgens ook weer aanpassen op basis van die data. Neuronale netwerken of deep learning-technieken zijn dus onderdeel van AI.’

En die technieken kunnen bijvoorbeeld resulteren in een algoritme?

‘Ja. Een algoritme is een afgeleide rekenregel op basis van een gevonden patroon in een grote hoeveelheid data.’

In een interview met u in Het Parool las ik dat u zich hard maakt voor eerlijke en onbevooroordeelde algoritmes.

‘Eerlijkere. Helemaal eerlijk en onbevooroordeeld zullen algoritmes nooit worden. En hoewel algoritmes tegenwoordig in vrijwel alle sectoren en uithoeken van de samenleving worden toegepast, zijn niet alle algoritmes ontwikkeld met het idee een breed publiek te dienen. Daardoor zie je allerlei voorbeelden van algoritmes die bepaalde bevolkingsgroepen zoals ouderen en mensen met een donkere huidskleur uitsluiten of discrimineren. Dat moeten we als maatschappij niet willen, evenmin moeten ontwikkelaars van algoritmes dat willen. Vrijwel alle algoritmes die bepaalde groepen uitsluiten zijn ook niet ontwikkeld om die mensen te discrimineren, maar ze zijn wel het gevolg van het niet of onvoldoende rekening houden met sociale context. En omdat algoritmes nu zo mainstream worden, zie je dat allerlei ingeslopen vooringenomenheden en vooroordelen alleen maar worden versterkt.’

U bent daar zelf cru mee geconfronteerd.

‘Ja, ik praat daar niet graag meer over, want dat gaat zo’n eigen leven leiden. Maar jaren geleden werd ik geweigerd door de automatische draaideur op mijn werk. Ik vermoedde dat de draaideur werkte op basis van een algoritme dat was getraind met plaatjes van voornamelijk witte mensen.
De ervaring bracht mij tot nadenken over hoe algoritmes menselijk gedrag kunnen overnemen!’

Maar zo’n algoritme is het resultaat van een neuronaal netwerk dat zichzelf dat toch heeft aangeleerd?

‘Jawel, maar leren gebeurt op basis van input. En input wordt nog altijd heel vaak door mensen gegeven. Als de input vertekend is, dan is de output ook vertekend.’

Dat vereist dan wel wijsheid van ontwikkelaars van algoritmes?

‘Zeker, en niet alleen van de ontwikkelaars, maar ook van de toepassers. Als bijvoorbeeld de Gemeente Amsterdam mij en mijn collega’s om advies vraagt voor de toepassing van bepaalde algoritmes, dan proberen we onze opgedane interdisciplinaire wijsheid over onder meer de sociale context ook in te brengen.’

U bent geen doemdenker over de toepassing van algoritmes?

‘Nee. Data komen van ons allemaal uit de samenleving. Als we het hebben over oneerlijkheden of biases door AI, dan is dat een reflectie op die vertekeningen in de maatschappij.
Mijn stelling is dat AI ons als maatschappij dan ook een spiegel voorhoudt. AI dwingt ons te reflecteren waar die oneerlijkheden vandaan komen.’

Beginnen bedrijven als Google en Facebook door de algoritmes die zij toepassen, ons als mens/consument echt te kennen? Maar schieten ze ook niet met hagel? Ze verzamelen zoveel data dat er altijd wel een bepaald patroon in ons gedrag te vinden is?

‘Ze vinden niet zomaar iets, ze vinden hele specifieke persoonsgebonden zaken. Neem Cambridge Analytica dat met hulp van psychometrici op basis van Facebook-data heel nauwgezet individuele profielen van mensen wist op te stellen, inclusief hoe vatbaar ze waren voor manipulatie. Zulke micro-targeting associeer ik juist met scherp schieten.’

Is dat een angstaanjagende ontwikkeling?

‘Tech-bedrijven lopen voorop in de toepassing van AI. De publieke sector en burgers lopen achterop qua bewustwording wat AI is, kan en doet. Sommige tech-bedrijven hebben zo’n voorsprong dat ze straks de plaats innemen van overheden of naast overheden staan om de macht over te nemen. Dat de Facebooks en de Googles de nieuwe machthebbers aan het worden zijn vind ik niet zozeer angstaanjagend, de onwetendheid bij burgers beangstigt me daarentegen wel. Om die onwetendheid tegen te gaan, zouden AI en algoritmes verplicht onderdeel moeten worden van het curriculum in het onderwijs.’

Heeft u wellicht politieke ambities, om vanuit een politieke functie burgers bewuster te maken van en beter te leren omgaan met algoritmes?

‘Nee, dat kan ik ook prima vanaf deze plek doen. Er is op allerlei niveaus heel veel aandacht voor het onderwerp, die bewustwording over algoritmes is echt wel gaande. Maar waaraan ik de komende jaren vooral voor een jongere generatie hoop bij te dragen is het verhogen van hun digital literacy en digital numeracy. Net zoals jongeren leren lezen en schrijven in de traditionele zin, zouden ze ook moeten leren lezen en schrijven om zich staande te kunnen houden in de digitale wereld. Het zou heel mooi zijn als ze op jonge leeftijd niet alleen weten hoe algoritmes werken, maar ook zelf algoritmes kunnen bedenken.’

Probeert u zo als een idealistische wetenschapper bij te dragen aan een betere wereld?

‘Absoluut. De grote tech-bedrijven weten door onder meer ons gedrag op social media inmiddels heel goed wie wij zijn.’
Niet zozeer als wetenschapper, als mens is enig idealisme mij niet vreemd.’

Clou© nr 97, april 2020

Meer MOA


Kennispartners van Clou

MOA is een

CRKBO Instelling CMYK

Contact

MOA, Expertise Center voor Marketing-insights, Onderzoek & Analytics

Kingsfordweg 151, 1043 GR, Amsterdam
+31 20 5810710
Dit e-mailadres wordt beveiligd tegen spambots. JavaScript dient ingeschakeld te zijn om het te bekijken.