Ki-systeem herkent berichten van trollen en bots

Internet Research Agency

Intenet Research Agency in st. Petersburg zou zo’n tollenfabriek zijn waar, onder veel meer, onzin over corona wordt geproduceerd en over Europa verspreid

Berichten op sociale media zijn notoir onbetrouwbaar. Daar komt nog eens overheen dat allerlei mensen en organisaties er lol in of baat bij hebben de boel te verzieken. In Rusland, maar niet alleen daar, schijnen zelfs trollenfabrieken te zijn die zo hun eigen agenda’s hebben. Ook worden worden er automatische systemen ingezet (bots) om via halve of hele leugens zaken naar de hand van de botmeester te zetten. Nu schijnt er een zelflerend ki-systeem te zijn ontwikkeld dat dat ongerief zou kunnen onderscheiden van door normale mensen geproduceerde eigen waarheden. 

Sedert de sociale media de wereld veroverd hebben is er een voortdurende digitale oorlog ontstaan waar bepaalde, vaak niet al te frisse organisaties en landen hun voordeel mee (proberen te ) doen. Ondertussen zijn de mensen verslaafd geraakt aan het  uitventen van al hun ontboezemingen en belevenissen en er niet meer van weg te meppen. Al het gedoe rond, met name, Facebook, heeft de resultaten van het ‘ongenade’ gevallen bedrijf niet in het minst aangetast.
En ja het is zo makkelijk om mee te draaien en je kan je, als je een beetje bijdehand bent, van een groot, toegewijd publiek verzekeren, dus de trollen en de bots kunnen naar hartenlust hun gang gaan. Volgens Meysam Alizadeh van de Princetonuniversiteit en zijn medeonderzoekers zouden er tussen 2013 en 2018 zo’n 53 grootscheepse beïnvloedingsacties op de sociale media zijn geweest in 24 landen.
De bedrijven die die media beheren proberen wat aan die al of niet geautomatiseerde stroom vuil te doen, maar dat is niet alleen ingewikkeld. Je loopt ook steeds achter de feiten aan. Daarbij worden ook lerende ki-systemen gebruikt. Daarbij heb je het ook over een gigantische hoeveelheid berichten, filmpjes e.d. die dagelijks het wereldwijde web worden opgestuurd. Alizadeh en de zijnen wilden een systeem dat geïndustrialiseerde informatiecampagnes kan onderscheiden van een normale activiteit (‘geleuter’ had ik bijna gezegd).

Basis voor hun onderzoek was een kort bericht vergezeld van een koppeling. Als studiemateriaal voor hun systeem lieten ze die in databestanden van Twitter, Reddit en Facebook rondgrazen van ruim zevenmiljoen berichtjes. Ze lieten het systeem op zoek gaan naar campagnes van Russische, Chinese en Venezolaanse trollen(fabrieken). Kennelijk komt de dreiging altijd van buiten. Amerikaanse trollen(fabrieken) bestaan natuurlijk niet. Je zou kunnen zeggen dat de Amerikaanse president een trollenfabriek op zich is, maar dit ter zijde.

Het algoritme bleek na die leerperiode in staat gestuurde campagnes te onderscheiden, schrijven de onderzoekers zelf. Volgens de onderzoekers laten dergelijke campagnes duidelijke sporen na in hun inhoud die je van maand tot maand door de sociale media heen zou kunnen volgen. De ‘vijand’ gaf zich vooral bloot door de gepresenteerde koppelingen naar verdachte webstekken. De Venezolaanse trollen waren het makkelijkst te herkennen. De Chinezen en de Russen opereerden geraffineerder, aldus de onderzoekers.

Indammen

De onderzoekers denken dat dit soort ki-systemen in staat zouden zijn dergelijke beïnvloedingscampagnes te achterhalen en tegen te gaan. Dat zou direct te bekijken zijn zodra het bericht verschijnt. “De herkenning is weliswaar niet perfect, maar het dwingt de makers creatief te zijn of zelfs hun campagne te staken”, zegt medeonderzoeker Jacob Shapiro.
Overigens blijken die de trollen en hun bazen wel degelijk lering te hebben getrokken. De campagnes zijn inderdaad steeds geraffineerder geworden en als de trollen hun strategie veranderen dan moet het ki-systeem eerst weer leren waar die aan te herkennen valt alvorens die nieuwe strategie te herkennen. Nee, perfect is het allemaal niet.

Het wordt gewoon weer een digitale wapenwedloop, net als de strijd tussen de webbeveiligers en de webmisdadigers (en ander ongerief). Wordt vervolgd.

Bron: bdw

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Deze website gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie-gegevens worden verwerkt.