Een oproep tot ethische ontwikkeling van AI

Een van de hoofdpunten waarop wij ons als ISOC NL richten is het streven naar een neutraal internet. Makkelijker gezegd dan gedaan uiteraard, want eerst moet worden begrepen wat ‘neutraal’ in deze context precies betekent en op welke manieren daaraan voldaan kan worden.

De visie van Professor Sennay Ghebreab is hierin cruciaal. Door de toenemende mate waarin AI impact heeft op alle soorten technologie die worden gebruikt, waaronder op het internet, is het nodig om de ontwikkelingen op dit gebied goed in de gaten te houden en in de juiste banen te leiden. Pas als AI daadwerkelijk inclusief wordt kunnen we beginnen te spreken over het toenemen van de neutraliteit van (ook) het internet.

Hetzelfde geldt voor het streven naar een betrouwbaar internet. Want hoe weten we of de keuzes die (vaak zonder ons bewustzijn erover) gemaakt worden tot stand komen op een eerlijke en te vertrouwen manier? Ghebreab geeft een krachtige analyse met een voorstel tot praktische vervolgstappen.

(Dit artikel is oorspronkelijk gepubliceerd in Vrij Nederland en mag met toestemming van de VN redactie en Sennay Ghebreab op de ISOC NL site geplaatst worden. Zie hier het originele artikel.)


Zo zorgen we dat kunstmatige intelligentie de wereld voor iederéén beter maakt


Door Sennay Ghebreab

Smart cars, smart homes, smart speakers: kunstmatige intelligentie (AI) komt vooral ten goede aan mensen die de wind toch al mee hadden, schrijft neuro-informaticus Sennay Ghebreab. Hoe zorgen we dat AI de wereld voor élke burger beter maakt?

‘Toen ik een paar dagen geleden aankwam op Terschelling,’ vertelde Freek Vielen van het Nieuw Utrechts Toneel / De Nwe Tijd vorig jaar op Oerol tijdens de ‘theatrale denkexercitie’ De Futuristen, ‘moest ik een heel eind fietsen. Het was lang geleden dat ik zo’n eind moest fietsen. En ik dacht: wat heerlijk. Wat is fietsen toch fijn. Eigenlijk kan ik best goed fietsen. Ik zou het vaker moeten doen. Toen ik die avond terugreed, had ik tegenwind. En pas toen realiseerde ik me dat ik op de heenweg wind mee had gehad. Toen ik weer thuis was – moe, chagrijnig en uitgeput van dat klote-eind fietsen, tegen die kutwind in – toen dacht ik: wat gek dat ik de wind mee niet heb gevoeld. Dat ik de wind mee gewoon als mijn eigen prestatie heb gezien. En ik dacht ineens een beetje beschaamd: waarschijnlijk gaat het vaker zo in het leven. Als je wind mee hebt, dan tel je die wind op bij je eigen prestaties. Dan zeg je: “Ik heb die studie afgemaakt”, “ik heb die baan gevonden”, “ik ben rijk geworden”, zonder dat omstandigheden en mensen daaraan hebben meegeblazen.’

Hij vervolgde: ‘En ik dacht: wat zou het fijn zijn als er iets was waardoor we andermans tegenwind zouden kunnen zien. Ik droomde over een superbewustzijn, een algoritme dat rekening kan houden met de winden die we mee en tegen krijgen. Hoeveel fijner en eerlijker zou het dan kunnen worden. Vooral voor de mensen met de meeste tegenwind. Tot dat algoritme er is, dacht ik, zou het niet verkeerd zijn dat bewustzijn bij mijzelf wat meer te trainen.’

Menselijke waarden

Smartphones, smart cars, smart homes, smart companies en smart cities zijn de algoritmische meewind geworden voor mensen die de wind toch al mee hadden. Maar hoe zit het met de mensen die wind tegen hebben? Zal kunstmatige intelligentie de samenleving ook voor deze mensen ten goede veranderen? Is het toekomstscenario van De Futuristen haalbaar?

Er is groeiende bezorgdheid over de mate waarin AI uitsluiting en discriminatie in de samenleving versterkt.

Eind 2018 vroeg het onafhankelijke Amerikaanse Pew Research Center zeshonderd internetpioniers, technologie-experts, activisten en ontwikkelaars over de hele wereld hoe zij denken over AI en de toekomst van de mensheid. Veel deskundigen denken dat AI de samenleving ten goede zal veranderen. Ze wijzen op het enorme potentieel van AI voor de wereldeconomie, en naar hoe AI nu al boeren helpt bij verbetering van gewassen, dokters bij snellere diagnoses en ouderen bij het verhelpen van eenzaamheid. Maar er zijn ook deskundigen die voorspellen dat AI zal leiden tot massale werkloosheid, groeiende economische verschillen, sociale onrust, verlies van autonomie, keuzevrijheid en de vrije wil.

Maar of ze nu optimistisch of pessimistisch zijn, de meeste AI-experts zijn het over één ding eens: hoe AI onze samenleving zal beïnvloeden, hangt sterk af van hoe goed ontwikkelaars en gebruikers van AI-technologieën in staat zullen zijn menselijke waarden als gelijkheid, rechtvaardigheid en waardigheid mee te nemen in hun ontwerpen.

Patronen

Er is groeiende bezorgdheid over de mate waarin AI uitsluiting en discriminatie in de samenleving versterkt. Verschillende voorbeelden hiervan hebben veel media-aandacht getrokken: Amazons algoritme voor werving van personeel dat vrouwen discrimineert, het COMPASS-systeem in de VS dat zwarte mensen een hoger risico op recidive toekent in vergelijking met witte mensen met dezelfde criminele geschiedenis, en het Amerikaanse medische risicoprofileringssysteem dat miljoenen zwarte mensen met klinisch exact dezelfde ziekten als witte mensen minder snel toegang geeft tot gezondheidszorg. Een voorbeeld dichter bij huis is SyRi, het Nederlandse AI-systeem voor het opsporen van fraude met sociale voorzieningen, dat vooral arme mensen en mensen met een migratieachtergrond eruit pikt omdat zij in bepaalde wijken wonen.

Als zwarte mensen in het verleden zieker moesten zijn dan witte mensen om zorg te krijgen, dan zullen algoritmen die getraind zijn op basis van historische dossiers blijven discrimineren.

In al deze voorbeelden gaat het om algoritmen die patronen herkennen in grote hoeveelheden data en op basis daarvan autonoom beslissingen leren nemen. Als die data historische of actuele sociale vooroordelen en ongelijkheden bevatten, dan zullen die vooroordelen en ongelijkheden onvermijdelijk worden overgenomen en gereproduceerd door deze algoritmen. Als algoritmen bijvoorbeeld worden getraind op historische politiedata, dan worden bewuste of onbewuste vooroordelen in arrestaties overgenomen in ‘predictive policing’ systemen. Of als zwarte mensen in het verleden zieker moesten zijn dan witte mensen om toegelaten te worden tot dezelfde gezondheidszorg, dan zullen algoritmen die getraind zijn op basis van historische gezondheidsdossiers zwarte patiënten ook in de toekomst blijven discrimineren.

Algoritmewaakhond

Instellingen en bedrijven reageren op de groeiende zorgen rondom discriminerende algoritmen met maatregelen die gericht zijn op het controleren en reguleren van algoritmen. Zo bevat de ethische richtlijn die de Europese Commissie in 2019 heeft gepubliceerd de volgende aanbeveling: wanneer gegevens worden verzameld, kunnen deze sociale vooroordelen, onnauwkeurigheden, fouten en vergissingen bevatten die vóór de training van een algoritme moeten worden verwijderd. D66 en CDA adviseren zelfs een ‘algoritmewaakhond’ in te stellen die algoritmen voor het publieke domein screent op vooringenomenheid en ongelijkheid.

Het is soms onmogelijk om ervoor te zorgen dat de datasets waarop algoritmen worden getraind onbevooroordeeld zijn.

Hoe goed bedoeld deze maatregelen ook zijn, ze volstaan niet om AI met menselijke waarden en respect voor diversiteit te creëren. Zo is het soms onmogelijk om ervoor te zorgen dat de datasets waarop algoritmen worden getraind onbevooroordeeld zijn, of om algoritmen te ontwikkelen die schadelijke vooroordelen en ongelijkheden opsporen en elimineren. Bovendien maskeert de nadruk op het controleren en reguleren van gegevens en algoritmen, en dus op technische problemen, de hoofdoorzaken van discriminerende algoritmen, namelijk historische en hedendaagse vooroordelen en ongelijkheden in de samenleving en het gebrek aan diversiteit in organisaties.

Volgens het Amerikaanse onderzoeksinstituut AI NOW is 80% van de universiteitsprofessoren in AI wereldwijd man. Bij Facebook is 85% van de AI-experts man en bij Google 90%. Met de etnische diversiteit is het nog slechter gesteld. Zo is bijvoorbeeld slechts 2,5% van de werknemers van Google zwart, terwijl Facebook en Microsoft elk maar 4% zwarte AI-experts in dienst hebben. Over de Nederlandse situatie zijn te weinig gegevens beschikbaar, maar er is geen reden om aan te nemen dat de diversiteit aan AI-experts in Nederlandse bedrijven en universiteiten veel afwijkt van deze statistieken.

Van het een komt het ander

Gebrek aan diversiteit is problematisch voor elke organisatie die opereert in een diverse samenleving, maar voor organisaties die zich bezighouden met AI is dit gebrek nog veel schadelijker vanwege het grenzeloze bereik en de razendsnelle impact van AI. Miljarden mensen maken gebruik van Facebook, Google en Twitter, en de meesten daarvan lijken niet op de witte mannelijke ontwikkelaars van deze technologieën. Het gevaar dat grote groepen mensen die gebruik maken van deze technologieën te maken krijgen met discriminatie, uitsluiting of een oneerlijke behandeling is daarom reëel en wijdverbreid.

Het aantal twitterverwijzingen naar de complottheorie ‘omvolking’ is in vier jaar tijd verdrievoudigd naar 1,5 miljoen.

Uit onderzoek van het Britse Institute for Strategic Dialogue blijkt dat vooral Facebook, Twitter en YouTube worden ingezet om haat en geweld tegen minderheden te propageren. Zo is het aantal tweets dat het woord ‘remigratie’ bevat gestegen van 66.000 in 2014 naar 150.000 in 2018. Het aantal twitterverwijzingen naar ‘omvolking’ – de theorie dat de witte Europese bevolking doelbewust wordt vervangen door mensen uit Afrika en het Midden-Oosten – is in vier jaar tijd verdrievoudigd naar 1,5 miljoen. Deze fenomenen zullen niet alleen negatief uitpakken voor bepaalde bevolkingsgroepen, maar voor complete samenlevingen.

Het gebrek aan diversiteit van mensen in AI en het probleem van uitsluitende en discriminerende algoritmen worden tot nu toe als twee afzonderlijke zaken behandeld, maar het zijn twee kanten van dezelfde medaille: gebrek aan diversiteit op de werkvloer is verweven met discriminerende algoritmen. Van het een komt het ander. Maar van het ander komt ook het een, want om discriminerende algoritmen aan te pakken of te voorkomen, is het van belang dat zulke algoritmen worden ontwikkeld en getoetst in teams van mensen met verschillende achtergronden en expertise.

Illusie van eerlijkheid

Overheidsinstellingen, universiteiten en technologiebedrijven benadrukken voortdurend het belang van diversiteit van data, diversiteit van mensen en perspectieven, diversiteit van processen en platforms. En toch wil het maar niet lukken om diversiteit in AI te realiseren. Het is alsof de nadruk op en aandacht voor diversiteit er is om een illusie van eerlijkheid en betrokkenheid en inclusie te wekken.

Google zou bijvoorbeeld zeven principes voor ethische AI in de praktijk brengen door middel van intern onderwijs en ontwikkeling van verantwoordelijke AI. Het bedrijf zou wervings- en selectieprocessen herzien en externe toezichthouders betrekken bij het bedrijf. Er werd een externe adviesraad van diverse mensen opgericht om de verantwoorde ontwikkeling van AI te garanderen. Maar een paar weken na de oprichting van de raad werd deze alweer afgeschaft na publieke verontwaardiging over de benoeming in de raad van Kay Coles James, president van de rechtse denktank The Heritage Foundation en openlijk anti-immigratie en anti-LGBTQ. Google wordt nog steeds geconfronteerd met protesten en vertrekkende werknemers vanwege de manier waarop het bedrijf omgaat met seksuele discriminatie en intimidatie. Vrouwen voelen zich niet veilig in het door mannen gedomineerde bedrijf.

Een ander voorbeeld is het gerenommeerde Stanford Institute for Human-Centered Artificial Intelligence, dat begin dit jaar van start is gegaan met het doel een diverse groep mensen onderzoek te laten doen naar de impact en het potentieel van AI. Kort na de oprichting is het instituut verwikkeld geraakt in onrust over diversiteit: van de 120 stafleden is het overgrote deel man, en niemand zwart.

Queer in AI

Organisaties stellen vaak dat ze niet in staat zijn om divers talent te vinden dat voldoet aan vooraf gestelde functie-eisen. Het probleem blijkt echter keer op keer niet de afwezigheid van divers talent te zijn, maar het onvermogen om een omgeving te creëren waarin divers talent kan worden herkend, aangetrokken en behouden. Talenten met een migratie-achtergrond zeggen vaak dat ze na aanstelling worden behandeld als uithangbord van diversiteit, en dat hun talenten onderbenut, ondergewaardeerd en onderbetaald blijven. Ook in AI. Deze kunstmatige inclusie is het echte probleem dat serieuze aandacht en actie verdient als we ethische en inclusieve AI-systemen willen ontwikkelen.

Gezichtsherkenningstechnologie reproduceert sociale ongelijkheden: het werkt het best bij witte mannen en het slechtst bij zwarte vrouwen.

Nu zijn het vaak AI-deskundigen met een minderheidsachtergrond die de aandacht vestigen op en actie ondernemen tegen het gebrek aan diversiteit in AI. Zo zijn Black in AI, een initiatief van zwarte AI-experts van Stanford, MIT en andere instituten over de hele wereld en soortgelijke initiatieven zoals Queer in AI en Women in Machine Learning begonnen met het delen van hun werk en ervaring op AI-conferenties in het Westen. Als hun visa voor landen als de VS en Canada tenminste niet worden geweigerd, zoals dat 24 onderzoekers uit Afrika en Zuid-Amerika recent is overkomen: zij kregen geen visa om de topconferentie Neural Information Processing Systems in december 2019 in Canada bij te wonen.

Ongelijkheidsatlas

Naast academische uitwisseling hebben deze initiatieven zich een maatschappelijk doel gesteld: het bevorderen van divers AI-talent, het ontwikkelen van AI-technologieën voor opkomende werelddelen zoals Afrika, en het gebruik van algoritmische vooroordelen als middel om sociale ongelijkheid en discriminatie van minderheden te kwantificeren en aan de kaak te stellen. Met andere woorden: ze gebruiken discriminerende algoritmen als een spiegel voor discriminatie en uitsluiting in onze samenleving. Zo getuigde Joy Buolamwini, AI-expert en oprichter van het Algorithmic Justic League, afgelopen zomer nog samen met het Amerikaanse congreslid Alexandria Ocasio-Cortez dat gezichtsherkenningstechnologie sociale ongelijkheden reproduceert: het werkt het best bij witte mannen en het slechtst bij zwarte vrouwen.

Als ze worden ontwikkeld door diverse teams, kunnen algoritmen nieuwe wegen creëren naar een meer inclusieve samenleving.

Als ze worden ontwikkeld door mensen met een diverse en interdisciplinaire achtergrond, kunnen algoritmen meer zijn dan alleen een spiegel voor de samenleving. Ze kunnen ook nieuwe wegen creëren naar een eerlijke en meer inclusieve samenleving.

Neem de MIT-ongelijkheidsatlas, ontwikkeld door een divers en interdisciplinair team van wetenschappers op basis van geo-locatiedata van 4,5 miljoen mobiele-telefoongebruikers in Boston. De atlas laat zien waar mensen met verschillende sociaal-economische achtergronden elkaar ontmoeten, waar ze wel of niet door de stad bewegen, op weg naar huis, werk, musea, bioscopen, theaters en parken. De atlas kent gebouwen en straten een ongelijkheidsscore toe op basis van de inkomensdiversiteit van mensen die deze plaatsen bezoeken. Een café waarin mensen met allerlei verschillende inkomens elkaar ontmoeten, krijgt een lage ongelijkheidsscore, terwijl een restaurant waarin alleen rijke, welgestelde mensen komen een hoge ongelijkheidsscore krijgt. De atlas geeft hiermee een beeld van de diversiteit van duizenden locaties in Boston, maar ook inzicht in hoe straten en gebouwen aangepast dienen te worden om ruimtelijke diversiteit, vitaliteit en inclusiviteit in de stad te bevorderen.

Een zetje

Echt ethische en inclusieve AI begrijpt, waardeert en bouwt voort op verschillen tussen mensen op het gebied van sociaal-culturele waarden, kennis, vaardigheden en levensstijl. Van techbedrijven zoals Facebook, Google en Twitter kan niet worden verwacht dat ze werken aan ethische en inclusieve AI omdat ze hun eigen verdienmodel vooropstellen. Ook kun je geen ethische en inclusieve AI verwachten door controle en regulering van AI zolang publieke organisaties zoals overheden, gemeenten en universiteiten en hun gekozen vertegenwoordigers zelf niet voldoende divers en inclusief zijn. Inclusie leidt op termijn tot ethiek, maar ethiek leidt niet per se tot inclusie.

Om AI ethisch en inclusief te maken, moet voldaan worden aan minimaal twee voorwaarden.

Ten eerste moet AI worden onderwezen aan burgers uit alle lagen van de bevolking, ook en misschien vooral aan burgers in de marge van de samenleving. Dit vergroot en verrijkt tegelijkertijd de talentenpool. Initiatieven zoals Codeer College Codam in Amsterdam begrijpen dit en zetten een moedige stap naar gratis en fundamenteel nieuwe vormen van peer-to-peer onderwijs.

In de tweede plaats moet publieke AI gecreëerd worden door diverse en interdisciplinaire AI-teams, in samenwerking met burgers, gemeenschappen en het maatschappelijk middenveld. Dit maakt AI-technologieën mogelijk die burgers en gemeenschappen beter en eerlijker dienen. Initiatieven zoals Civic AI Lab streven dit na, en ontwikkelen algoritmen die niet alleen burgers helpen die de wind toch al in de rug hebben, maar ook een zetje geven aan mensen die de wind tot nu toe tegen hadden.