Vragen? Bel 06 – 160 749 53 of mail mij info@jarnoduursma.nl

Vragen? Bel of mail mij

Het verspreiden van nepnieuws online wordt een steeds groter probleem. In dit blog schets ik een speculatief scenario over hoe we dit met behulp van AI zouden kunnen oplossen.

Malieveld Den Haag

Wie de afgelopen week actief is geweest op sociale media heeft ‘m vast wel gezien. De foto van de vrouw in Den Haag die met bloemen in haar hand tegenover een agent van de mobiele eenheid staat. Aan de agent is te zien dat hij met zijn wapenstok haar gaat slaan. Het tafereel vindt plaats na afloop van de demonstratie tegen de maatregelen ten aanzien van de anderhalvemetersamenleving. Het meest werd de foto gedeeld door mensen die boos waren over het politieoptreden in Den Haag. En op het eerste gezicht doet de foto ook wenkbrauwen fronsen. Je slaat toch niet een ongewapende vrouw met bloemen in haar hand?

Alles in context

Maar zoals alles wat je ziet in het nieuws en op sociale media geldt ook hier: alles is context. Wanneer je de foto bekijkt vanuit een andere hoek gemaakt, zie je om deze vrouw heen een groep met woeste hooligans die uiterst agressief de mobiele eenheid benaderen. Het is dus letterlijk en figuurlijk maar net vanuit welke hoek je de foto te zien krijgt. Context is alles.

Bij de foto van de vrouw met de bloemen moest ik meteen denken aan een voorspelling die ik deed in mijn rapport “machines met verbeeldingskracht – een kunstmatige realiteit”.

Synthetische Content

In dit rapport beschreef ik uitvoerig de opkomst van synthetische content. Dat zijn verschillende soorten content die door kunstmatig intelligente software zijn geproduceerd. Denk aan afbeeldingen van mensen die nooit bestaan hebben, auto’s die nooit bestaan hebben, teksten die door kunstmatig intelligente software worden gecreëerd, maar ook stemmen die nagebootst kunnen worden. Allemaal nep.

Ik beschreef in mijn rapport ook letterlijk dat een risico van dit soort generatieve kunstmatig intelligente software was dat kwaadwillenden het kunnen gebruiken om het sentiment richting de politie negatief te beïnvloeden. Bijvoorbeeld wanneer deze software in staat is om op basis van een paar zinnen een volledig verzonnen artikel te creëren. Voor de mensen die het niet hebben meegekregen: Kunstmatig intelligente software is inderdaad in staat om zelf tekst te genereren, 

Slimme AI tekstschrijvers

Recent kwam bijvoorbeeld GPT3 uit, een taalmodel dat is getraind op maar liefst 175 miljard parameters. Dit systeem is in staat om grote verzamelingen internet-teksten te analyseren en op basis daarvan teksten te genereren. GTP3 is vooral goed in het voorspellen van het volgende woord in een bepaalde zin en op basis daarvan een tekst te schrijven. Soms zijn deze teksten niet meer te onderscheiden van door mensen geschreven teksten.

 

Verbale en fysieke agressie door politie

GTP3 is in theorie dus perfect om snel, massaal en veelvuldig nepnieuws mee te verspreiden. (Het systeem is nu nog imperfect en duur, maar je snapt wat ik bedoel). En ik beschrijf dus ook letterlijk in mijn rapport uit oktober 2019 hoe kwaadwillenden dit soort synthetische tekstschrijvers zouden kunnen gebruiken om de politie in een kwaad daglicht te stellen.

“De gefantaseerde headlines ‘Politie grijpt hardhandig in bij vreedzame demonstratie tegen te tolerant immigratiebeleid’, ‘Demonstranten aangevallen door politiek gekleurde politieagenten bij vreedzame demonstratie Nederlandse Volkspartij’, ‘Verbale en fysieke agressie door politie bij bijeenkomst in Den Haag’ kunnen dan wellicht razendsnel leiden tot geloofwaardige gegenereerde artikelen die de werkelijkheid geweld aandoen”

 

Frappant om te lezen hoe actueel mijn eerdergenoemde zorg is geworden. Sommige synthetische systemen worden trouwens ingezet om nep-teksten op te sporen en te ontmaskeren. Het Grover programma uit 2019 is daar een voorbeeld van. Dat is een goede zaak.

 

Brainwave Project Debater

Maar een creatieve, fantasierijke brainwave bracht mij nog verder. Wat als Project Debater hier de oplossing kon zijn? Voor wie het gemist heeft: in mijn vorige blog over “pratende machines” schreef ik over Project Debater. Dat is een kunstmatig intelligent systeem van IBM dat in staat is om te debatteren. Het AI-systeem kan grote hoeveelheden relevante data doorploegen en daar alle sleutelzinnen uithalen die het bewijs leveren voor of tegen een bepaalde claim. Het kan dus over een bepaalde stelling de voor- en tegenargumenten verzamelen en daar vervolgens het debat over aangaan met een mens.

En ik had dus een geweldig idee: stel dat de software van Project Debater perfect werkt. Zouden we het dan wereldwijd in kunnen zetten om nepnieuws op sociale media te bestrijden en meningen te voorzien van de juiste context?

Webcare-medewerker op steroïden

Wat als we Project Debater konden gebruiken om wereldwijd mensen op sociale media te wijzen op feitelijke onjuistheden in hun redeneringen? Wat als we Project Debater kunnen inzetten als een “journalistieke machine”? Een razendsnel kunstmatig intelligent systeem dat op sociale media in iedere discussie kan participeren en mensen wereldwijd kan informeren over bepaalde feitelijkheden die ze zelf over het hoofd zien? Over voor- en nadelen van een bepaalde stelling. Een hyper-intelligente webcare-medewerker op steroïden.

Project Debater als een soort voorvechter van feitelijkheden. Een krachtig stuk software dat mensen uit hun filterbubbel trekt door zaken te voorzien van context. Dat alle boze reacties op Facebook onder de foto van de vrouw met bloemen in haar hand zouden worden aangevuld met contextuele informatie, aangeleverd door de politie, Wikipedia en andere burgerjournalisten ter plaatse.

Bericht op Twitter: “Dat kan toch niet zomaar! Wat is dit voor politiestaat wanneer demonstranten zomaar worden gearresteerd?”
Project Debater: “Volgens de politie zijn de demonstranten meerdere keren aangesproken, gewaarschuwd en gevorderd om het terrein te verlaten. Zij hebben dit geweigerd. Daarom zijn agenten overgegaan tot aanhouding.”

Met eindeloze energie zou Project Debater de discussie aangaan met hatelijke figuren op Facebook en Twitter. Ze erop wijzen wanneer ze feitelijk onjuiste informatie delen of zaken uit de context trekken. Natuurlijk is dit idee bijna te mooi om waar te zijn en zitten er flink wat haken en ogen aan. Sterker nog: de vraag is of zoiets ooit zou kunnen. Want het is gewoon een bijzonder moeilijk probleem, zelfs al voor een mens van vlees en bloed.

Het is trouwens ook een lastig probleem omdat we wereldwijd in een post-truth samenleving zijn beland. Kort gezegd: we zijn het soms al niet eens over wat en wanneer iets feitelijk heeft plaatsgevonden.

Hmmmmm… toch even kijken of Project Debater een “Donate now” knop op z’n website heeft.

Wat klanten zeggen

"In 45 minutes the participants of our ANVR travel congress in Portugal got a barrage of examples from applications of artificial intelligence. Jarno's presentation made it clear to us in a very vivid way that the future has already begun. A great presentation!"
Frank Oostdam | en
Director ANVR
Frank Oostdam | en
"Het verhaal van Jarno werd zeer positief ontvangen en het helpt mij als manager om samen met mijn collega’s op zoek te gaan naar de kansen die de digitale transformatie ons te bieden heeft. Wat mij betreft is er geen strijd tussen mens en machine. Het is de kunst om als mens mét machine intelligenter te worden. Jarno heeft ons wakker geschud. Dank!"
Cesar Blaauwgeers
Landelijk teammanager Data & Informatie, Antea Group
Cesar Blaauwgeers
"In zijn lezing over The Metaverse nam Jarno het publiek stap voor stap mee naar een wereld die sommigen totaal vreemd is. Hij praat niet over hoofden heen, maar checkt regelmatig bij het publiek wat hun (voor)kennis is en zet ook kanttekeningen bij ontwikkelingen. Erg prettig. Na afloop schoof Jarno aan bij de paneldiscussie die ik begeleidde. Hij wist zaken goed toe te lichten op een losse, spontane manier. "
Anic van Damme
Creative storyteller | Presentator | Journalist
Anic van Damme