Je ziet het overal gebeuren bij het voetballen, het opsporingswerk, het bedrijfsleven, de wetenschap, de politiek, de sociale media: langzaam (of misschien niet eens zo langzaam) neemt de techniek het over van de mens. Algoritmes bepalen steeds vaker wat er moet (of zou moeten) gebeuren. Waar blijft de discussie?De BBC heeft zo wat voorbeelden op een rijtje gezet.
Sociale media zijn in vele opzichten grote algoritmes, waar codes de gang van zaken bepalen. Alles wat mensen daar doen wordt opgeslagen. Aan de hand daarvan worden gebruikers voorstellen gedaan, reclame gestuurd of wat dan ook. Ook het uitfilteren van ongewenste berichtgeving, nepnieuws of wat dan ook verloopt grotendeels door een ‘digitaal filter’.
Dat gaat regelmatig hartstikke fout. Op basis van die verzamelde gegevens krijgen gebruikers som uiterst kwalijke en extreme teksten voorgesteld. Extreme inhoud doet het op sociale media beter dan genuanceerde en dat ‘weten’ algoritmes.
Ook verzekeringsmaatschappijen maken er gebruik van. Die moeten risico’s inschatten en zoals bekend is niets zo moeilijk als voorspellen, vooral waar het om de toekomst gaat. Daar zijn de algoritmes goed in, is de gedachte. Het grappige én onrustbarende is dat algoritmes geen neutrale ‘rekensystemen’ zijn maar door mensen gefabriceerde producten met alle risico’s van dien.
“Algoritmes kunnen je leven sterk beïnvloeden en je krijgt meestal weinig informatie”, zegt Timandra Harkness, auteur van ‘Big data: Does size matter?’. “Als je naar een andere postcode verhuist dan gaat je premie omhoog of omlaag. Dat ligt niet aan jou maar dat andere mensen vaker of minder vaak te maken hebben gehad met misdaad, ongelukken of wat dan ook.”
Ze ziet het niet gebeuren dat premies afhankelijk worden van het (risicomijdende of risicozoekende) gedrag van de verzekerde, bijvoorbeeld. “Uiteindelijk is het punt van een verzekering dat we het risico delen. Iedereen betaalt een premie en mensen die het nodig hebben krijgen geld. We leven in een oneerlijke wereld. Elk model dat je maakt is op de een of andere manier oneerlijk.”
Ik (=as) heb zelf wel eens aan mijn inboedelverzekeraar voorgesteld toen de premie aanzienlijk werd verhoogd omdat ik in een risicogebied woonde om een soort all-riskverzekering in te stellen zoals bij autoverzekeringen vrij normaal is. Ik heb daar nooit antwoord op gekregen.
Gezondheidszorg
In de gezondheidszorg wordt bij het vaststellen van het probleem veelvuldig gebruik gemaakt van kunstmatige intelligentie. Zo zouden algoritmes al beter zijn dan menselijke specialisten in het beoordelen van borstfoto’s op kanker, maar er wordt wel eens vergeten dat voor het ‘aanleren’ van die vaardigheden aan ki-systemen erg veel gegevens nodig zijn en waar haal je die zo snel op een wettige manier vandaan? Bovendien, en dat wordt ook nog wel eens vergeten, vreet ki een hoop energie.
Ook de politie maakt gretig gebruik van digitale technieken, waarbij het niet alleen gaat om gezichtsherkenning, maar ook om het inschatten van ‘misdadige potentie’ van een buurt. Eerder dit jaar heeft de denktank RUSI een rapport uitgebracht over het gebruik van algoritmes in het opsporings- en handhavingswerk. Het grote probleem blijft nog steeds dat ook die algoritmes mensenwerk zijn, waarvan de werking, soms zelfs voor de makers, vaak duister (een ‘zwarte doos’) is.
Niet zo lang geleden is er een pleidooi gehouden om de werking van ki-systemen transparant te maken: hoe komt dat tot een bepaald besluit. Voorlopig is ook hierover de discussie nog niet eens begonnen, terwijl deze technieken steeds verder om zich heen grijpen… Het droevige is dat we ons steeds sterker afhankelijk maken van de techniek zonder daar de gevolgen van te beschouwen.
Bron: BBC