Sinds oktober 2017 ligt mijn boek in de winkel: De digitale butler – Kansen en bedreigingen van kunstmatige intelligentie. Kunstmatige intelligentie gaat ons als samenleving namelijk vele zoete vruchten opleveren, maar er zijn ook forse zorgen. Dit blog is een zo volledig mogelijk overzicht van de risico’s van kunstmatige intelligentie.

Contact

12 risico’s van kunstmatige intelligentie

Kunstmatige intelligentie is een onderwerp dat bij veel mensen tot de verbeelding spreekt. Een belangrijke oorzaak zijn natuurlijk de vele Hollywood-films die over dit onderwerp zijn verschenen. In de Hollywood-films zie je vaak sciencefiction-achtige doemscenario’s. Deze scenario’s zijn bijna altijd overdreven, maar toch verschijnen er steeds meer verontrustende berichten over kunstmatige intelligentie, gevoed door de kwalitatieve groeispurt van deze nieuwe technologie. (Met name de kwalitatieve verbetering van machine learning en deep learning)

Sciencefiction wordt realiteit. Slimme computersystemen kunnen namelijk steeds beter onthouden en lezen wat wij als mensen kunnen, zoals kijken, luisteren of spreken. En ze leren patronen en regels te ontdekken uit grote hoeveelheden data. Op sommige vlakken zijn dit soort systemen ons snel de baas. Dat heeft nogal wat gevolgen.

Ontwrichting

Kunstmatige intelligentie (KI) is wat mij betreft de meest ontwrichtende technologie van de komende 10 jaar. De kwaliteit van deze technologie is op een aantal vlakken de afgelopen jaren fors verbeterd, met alle gevolgen van dien. Slimme software-systemen snappen steeds beter wie wij zijn, wat we doen, wat we willen en waarom we dat willen. Een wereld vol mogelijkheden opent zich. Chatbots, slimme virtual assistants en autonome intelligente software-assistenten gaan ons steeds meer helpen. KI systemen gaan ons welvaart, tijdsbesparing, gemak, inzichten en comfort brengen. We gaan gewend raken aan een persoonlijke assistent die 24 uur per dag beschikbaar is en weet wat we nodig hebben, voordat we het zelf weten. Net zoals het nu lastig is voor te stellen dat je leeft zonder internet, zo is het over 10 jaar met je persoonlijke assistent.

En slimme KI-systemen gaan ons inzichten verschaffen die we nooit voor mogelijk hadden gehouden en antwoorden geven op vragen waarvan we niet wisten dat ze bestonden. KI-systemen zijn sneller, nooit moe, leren van voorbeelden en van elkaar en zijn in specifieke domeinen veel slimmer dan de mens. Geen toekomstmuziek, maar realiteit.

Concreet: slimme computersystemen kunnen beter kunstvervalsingen herkennen dan menselijke experts. Een ander systeem kan dementie herkennen nog voordat een medisch specialist hieraan denkt. Een kunstmatig intelligent systeem herkent huidkanker eerder dan een medicus, een ander systeem doet het vergelijkbare met nagelschimmel. Onderzoekers van Stanford kunnen op basis van Google Street View beelden voorspellen wat het stemgedrag zal zijn bij de verkiezingen en een algoritme, gevoed door data afkomstig van de Apple watch kan diabetes voorspellen. Facebook weet al dat je verkering hebt voordat je het zelf handmatig hebt aangegeven op het platform. Amazon heeft het patent op ‘predictive shipping’: dat ze je al een pakketje mogen sturen voordat je zelf weet dat je het wilt hebben. De voorspellende waarde van KI gaat groot zijn.

Maar we kunnen onze ogen niet sluiten voor de mogelijk negatieve scenario’s: president Poetin van Rusland zei recent nog dat de koploper op het gebied van kunstmatige intelligentie waarschijnlijk ook de leider van de wereld zou worden. En wat te denken van het KI-systeem dat claimt op basis van gezichtsherkenningstechnologie iets te kunnen zeggen over iemands seksuele geaardheid? Hoe gaan we om met dit soort nieuwe technologie?

Het is daarom verstandig een potentieel krachtige technologie als kunstmatige intelligentie goed te bekijken: zowel de positieve als minder positieve kanten. Here we go.

12 risico’s van kunstmatige intelligentie

1 . Gebrek aan transparantie
Veel KI-systemen zijn gebouwd met als motor zogenaamde neurale netwerken; complexe systemen van knooppunten die onderling verbonden zijn.Deze systemen zijn echter minder goed in staat om hun ‘beweegredenen’ voor beslissingen weer te geven. Je ziet alleen wat er ingaat en wat er uitkomt. Het systeem is veel te complex. Bij militaire of medische beslissingen is het echter belangrijk dat we kunnen herleiden welke data tot welke beslissingen hebben geleid. Welke achterliggende gedachte of redenering heeft geleid tot de output? Welke data is gebruikt om het model te trainen? Hoe ‘denkt’ het model? Nu hebben we vaak geen idee.

2. Vooringenomen algoritmes
Wanneer wij onze algoritmes voeden met de datasets die bevooroordeelde data bevatten, bevestigt het systeem logischerwijze onze vooroordelen. Er zijn inmiddels vele voorbeelden van systemen die etnische minderheden sterker benadelen dan de blanke populatie. Want wanneer een systeem gevoed wordt met discriminerende data, zal het systeem ook dit soort data produceren en zal het voor waarheid worden aangenomen. Het wordt een self fulfilling prophecy. En vergeet niet: vooroordelen zijn vaak een blinde vlek.

En er is tegenwoordig nog te weinig expertise aanwezig bij bedrijven om deze datasets goed te beoordelen en eventuele aannames en vooringenomen data eruit te filteren. De meest kwetsbaren worden anders nog meer benadeeld door dit soort systemen.

En hoe vergewissen we ons ervan dat onze datasets (waarop we steeds meer vertrouwen) niet expres worden bevuild door vijandige overheden of andere kwaadwillenden? We moeten voorkomen dat we steeds meer in een ‘computer says no’-samenleving terecht komen, waarbij mensen te veel leunen op de output van slimme systemen, zonder te weten hoe de algoritmes en data tot hun resultaat zijn gekomen.

3. Aansprakelijkheid voor handelen
Er is nog heel veel onduidelijk over de juridische aspecten van steeds slimmer wordende systemen. Hoe zit het bij aansprakelijkheid wanneer het KI-systeem een fout maakt? Beoordelen we dat net zoals een mens? Wanneer systemen meer zelflerend en autonoom worden, wie is dan verantwoordelijk? Kan een bedrijf nog verantwoordelijk worden gehouden voor een algoritme dat zelf heeft geleerd en vervolgens zelf zijn eigen koers bepaalt? Dat op basis van grote hoeveelheden data zélf conclusies heeft getrokken om tot specifieke beslissingen te komen? Accepteren we dat KI-machines ook foutjes maken, al is dat met fatale afloop?

4. Een te groot mandaat
Hoe meer slimme systemen wij gebruiken, des te meer we tegen het vraagstuk van reikwijdte aanlopen. Hoeveel mandaat geven wij onze slimme virtuele assistenten? Wat mogen ze wel voor ons beslissen en wat niet? Rekken wij de autonomie van slimme systemen steeds verder op, of moeten wij daarover koste wat kost regie houden, zoals de Europese Unie graag wil? Wat laten we wel en niet bepalen en uitvoeren door slimme systemen, zonder tussenkomst van mensen? En moet er niet een standaard ‘preview’ functie worden aangebracht in slimme KI systemen? Het risico is dat we te veel autonomie uit handen geven, zonder dat de technologie of randvoorwaarden er klaar voor zijn. En zonder dat we zelf na verloop van tijd nog weten waaraan en waarom we die taken uitbesteden. Het risico is namelijk dat we steeds meer in een wereld terechtkomen die we zelf niet meer begrijpen. We moeten onze onderlinge empathie en solidariteit niet uit het oog verliezen. Het is namelijk een werkelijk risico dat we moeilijke beslissingen (bijvoorbeeld ontslag) te makkelijk overlaten aan ‘slimme’ machines, omdat we het zelf te moeilijk vinden.

5. Te weinig privacy
Elke dag creëren we 2,5 kwintiljoen bytes aan data (dat is 2,5 miljoen terabyte, waarbij 1 terabyte 1000 gigabyte is). Van alle digitale gegevens in de wereld is 90 procent in de afgelopen twee jaar gecreëerd. Om slimme systemen goed te laten functioneren heb je als bedrijf heel veel zuivere data nodig. Behalve in kwalitatief goede algoritmes zit de kracht van een KI-systeem ook in het bezitten van goede datasets. Bedrijven die bezig zijn met kunstmatige intelligentie worden steeds meer de Holle Bolle Gijs van onze data: het is nooit genoeg en alles is geoorloofd om nog betere resultaten te behalen. Het gevaar is bijvoorbeeld dat bedrijven steeds scherper een profiel van ons maken met een steeds grotere precisie. En dat deze middelen ook worden ingezet voor politieke doeleinden.

Het gevolg is dat onze privacy afbrokkelt. Maar wanneer wij onze eigen privacy vervolgens afschermen, maken ze gewoon gebruik van vergelijkbare doelgroepen: van mensen die erg op ons lijken. En onze data worden massaal doorverkocht en niemand weet meer wie ze krijgt of waarvoor ze worden gebruikt. Data is de olie van KI-systemen en onze privacy is hoe dan ook in het geding.

En niet onbelangrijk: technologie krijgt ogen om te zien. Camera’s kunnen makkelijk worden uitgerust met software met gezichtsherkenning. Ons geslacht, leeftijd, etniciteit en gemoedstoestand kan gemeten worden met slimme software. Dat is geen toekomst, dit soort software bestaat al. In Utrecht werd een ‘dynamic advertising billboard’ uitgezet omdat er publieke verontwaardiging was ontstaan door de aanwezige spy-software op deze billboards. Ook analyse van gezicht, stem, gedrag en gebaren leidt tot steeds scherpere profielen. In realtime kan er door het gebruik van slimme camera’s een profiel van ons worden gemaakt. Slimme systemen kunnen beter dan onze partner of familieleden onze gemoedstoestand bepalen. Dat is niet iets van de toekomst: dat bestaat nu al. En dat is makkelijk en vaak als open source beschikbaar. Overheid blij, bedrijven blij. Bye bye privacy.

In China zijn een aantal van deze mogelijkheden al realiteit. Sommige agenten dragen een bril met facial recognition technology met een database met gezichtsfoto’s van duizenden ‘verdachten’ erop. Maar vergeet niet: je bent in China al redelijk snel verdacht wanneer je bepaalde politieke uitspraken doet in het openbaar. In China bestaat het social crediting system al: een puntensysteem waarin je wordt beoordeeld op basis van bepaald gedrag. Mensen met een hogere scores krijgen privileges. En er hangen in het land ont-zet-tend veel camera’s met beeldherkenning- of gezichtsherkenningssoftware.

6. Veel invloed van grote technologiebedrijven
Bovenstaand onderwerp sluit aan bij de macht van grote technologiebedrijven. Facebook, Microsoft, Google, Apple, Alibaba, Tencent, Baidu en Amazon. Deze acht technologiebedrijven hebben het financiële vermogen, de data en de intellectuele capaciteiten om kunstmatige intelligentie kwalitatief enorm te laten groeien. Het gevaar is dus dat een heel krachtige technologie in handen komt van een relatief kleine groep commerciële (!) bedrijven. En hoe beter de technologie, hoe meer mensen het gaan gebruiken, hoe beter de technologie wordt. Et cetera. Dat geeft een steeds grotere voorsprong aan de grote jongens. Ook werkt de overdracht van algoritmes in zogenaamde ‘transfer learning’ steeds beter. Er is dan steeds minder data nodig voor een goed resultaat. En de eerder genoemde commerciële doelstelling, zo leert de ervaring, zal altijd overheersen en het is onduidelijk hoe deze bedrijven de technologie in de toekomst gaan gebruiken.

7. Kunstmatige superintelligentie
In de discussie over de nadelen van kunstmatige intelligentie, overheerst mijns inziens iets te vaak de discussie over superintelligentie. Systemen zo intelligent dat ze op meerdere facetten de menselijke intelligentie ver overstijgen. Dat ze zichzelf allerlei vaardigheden en kennis eigen kunnen maken, zonder tussenkomst van mensen. Dat ze zichzelf kunnen trainen op voor hen onbekende situaties. Dat ze context snappen. Een soort superintelligent orakel dat de mensheid slechts beschouwd als ‘slakken in de tuin’: zolang je er geen last van hebt, mogen ze blijven leven.

Vooropgesteld: ik vind dat we dit scenario serieus moeten nemen en dat we met name moeten letten op het overbrengen van onze ethische moraal op intelligente systemen. Dat we ze dus niet betonnen regels meegeven, maar iets leren over menselijke overwegingen. Heel belangrijk. Het liefst geven we systemen een ‘geweten’ mee, anders worden het anti-sociale persoonlijkheden. Ik geloof dus niet dat wij op enige korte termijn ook maar iets gaan zien van een bewustzijn in dit soort systemen. Daarvoor is de technologie nog veel te jong, als het al Uberhaupt mogelijk is om bewustzijn te creeeren in dit soort systemen. Dus: nadenken erover is prima en wet moeten superintelligentie ook echt serieus nemen, maar er zijn momenteel wel degelijk andere risico’s.

O ja, even een nuancering. Ik ben niet zozeer bang voor een systeem dat de wereld gaat overnemen in bezit van enige vorm van bewustzijn. Maar… waarschijnlijk zullen we veel vaker last krijgen van systemen die geprogrammeerd zijn met een bepaalde doelstelling en daarbij meedogenloos deze doelstelling willen gaan volgen. Zonder daarbij rekening te houden met zaken die wij als mensen belangrijk vinden zoals empathie en sociale gelijkheid. Gewoonweg omdat ze zo geprogrammeerd zijn. Omdat wat wij belangrijk vinden hun blinde vlek is. En dat is GEEN science fiction.

Facebook levert een ‘prachtig’ voorbeeld van hoe een kunstmatig intelligent systeem totaal verkeerd kan uitpakken. Steeds slimmere Facebook-algoritmes hebben namelijk maar één doel: jou zo lang mogelijk op het platform houden. Maximale betrokkenheid creëren op de content. Clicks en reacties verzamelen. Maar het systeem is daarbij ongevoelig voor zaken als ‘de objectieve feitelijke weergave van zaken’. Waarheid is onbelangrijk, want het systeem is enkel geïnteresseerd in het tijd die je doorbrengt op het platform. Facebook doesn’t care about the truth, met alle kwalijke gevolgen van dien.

8. Impact op de arbeidsmarkt
KI gaat de komende jaren zorgen voor druk op de arbeidsmarkt. Door de snelle toename van de kwaliteit van kunstmatige intelligentie zullen slimme systemen veel beter worden in specifieke taken. Het herkennen van patronen uit grote hoeveelheden data, het verschaffen van specifieke inzichten, en het uitvoeren van cognitieve taken zal worden overgenomen door slimme KI-systemen. Professionals moeten de ontwikkeling van kunstmatige intelligentie scherp in de gaten houden, want systemen kunnen steeds beter kijken, luisteren, spreken, analyseren, lezen en content maken.

Er zijn dus zeker mensen met een baan in de gevarenzone die zich snel moeten gaan aanpassen. Maar veruit het grootste deel van de bevolking zal gaan samenwerken met kunstmatig intelligente systemen. En vergeet niet: er zullen ook weer heel veel nieuwe banen bijkomen, al zijn deze lastiger te bedenken dan de banen die verdwijnen. De maatschappelijke ongelijkheid zal de komende jaren toenemen door de kloof tussen haves en have-nots. Wij moeten als samenleving mijns inziens zorgen voor de have-nots. De mensen die enkel de capaciteit hebben om routinematig hand- of denkwerk te verrichten. En het wordt steeds belangrijker als professional om je aan te passen aan de snel veranderende omgeving.

9. Autonome wapens.

Elon Musk van Tesla waarschuwde deze zomer nog de Verenigde Naties over autonome wapens, aangestuurd door kunstmatige intelligentie. Samen met 115 andere experts wees hij op de mogelijke dreiging van autonoom oorlogstuig. Logisch: het zijn krachtige middelen die veel schade kunnen aanbrengen. Niet alleen écht militair materieel is gevaarlijk, maar omdat technologie steeds makkelijker, goedkoper en gebruiksvriendelijker wordt, komt het in handen van iedereen… ook kwaadwillenden. Voor duizend dollar heb je al een hele goede drone met een camera. Een whizzkid kan daar software op installeren zodat de drone autonoom gaat vliegen en er is nu al facial recognition software waarmee de drone gezichten kan herkennen en de desbetreffende persoon kan gaan volgen. Stel je voor dat je een autonome drone laat vallen in een menigte op koningsdag en vergezeld laat gaan van een “onschuldige” knal. De paniek die dan uitbreekt..

En het is wachten op de eerste autonome drone met gezichtsherkenning én een 3D geprinte buks, pistool of ander schiettuig. Check deze video van Slaughterbots om daar een beeld van te krijgen.

10. Alles wordt onbetrouwbaar. o.a. Fake news en Filter bubbles

Slimme systemen zijn steeds meer in staat content te maken: gezichten te creëren, teksten samen te stellen, tweets te produceren, beelden te manipuleren en slim te adverteren.

KI systemen kunnen winter laten veranderen in zomer en dag in nacht. Levensechte gezichten maken van mensen die nooit bestaan hebben.

Open source software Deepfake kan foto’s van gezichten plakken op bewegende videobeelden. Zo lijkt het dus op video dat jij iets doet (wat dus niet waar is en niet is gebeurd). Beroemdheden hebben hier nu al last van omdat kwaadwillenden makkelijk pornografische video’s kunnen maken met deze beroemdheden in de hoofdrol. Wanneer deze technologie iets gebruiksvriendelijker is, is het afpersen van een willekeurig iemand kinderlijk eenvoudig. Je kunt een foto plakken van wie-dan-ook en dit plakken op ranzige porno. Vervolgens is 1 mailtje voldoende: “Beste XYZ, In bijgevoegd filmbestand speel jij de hoofdrol. Tevens heb ik de namen en gegevens van al je 1.421 LinkedIn connecties gedownload en ben ik in staat hen te mailen met dit bestand. Wil je dit voorkomen, maak dan 5 bitcoins over aan onderstaand adres.” .. Faceswap video blackmailing.

 

Bij kunstmatig intelligente systemen die nep-content maken ligt tevens het risico van manipulatie en beïnvloeding door bedrijven en overheden op de loer. Content kan dan met zo’n snelheid en schaal geproduceerd worden, dat meningen beïnvloed worden en nepnieuws met grote kracht de wereld in geslingerd wordt. Specifiek gericht op mensen die daar gevoelig voor zijn. Manipulatie, framing, sturing en beïnvloeding. Deze praktijken zijn al realiteit, zoals we hebben gezien bij de case rondom Cambridge Analytica, het bedrijf dat gegevens van 87 miljoen Facebookprofielen van Amerikanen wist buit te maken en deze gegevens gebruikte voor een onzuivere (angstzaaiende) campagne om president Trump aan de macht te krijgen. Bedrijven en overheden met slechte bedoelingen hebben met kunstmatige intelligentie een krachtige tool in handen.

Wat als er een video opduikt van een Israelische generaal die iets zegt over het uitroeien van de Palestijnen met op de achtergrond beelden van wat waterboarding lijkt te zijn? Wat als we video’s te zien krijgen van Russische raketten die op Syrische steden vallen met een stem-opname van president Poetin die losjes vertelt over genocide? Kruidvat -> lont -> vonk -> explosie.

En kijk nog even naar deze nepvideo van Barack Obama om een goed beeld te krijgen.

En hoe voorkomen we dat de algoritmes van sociale media ons steeds meer ‘op maat’ bedienen en daarmee onze eigen mening versterken in onze steeds sterker wordende echo-put? Dat verschillende groepen in de samenleving steeds meer leven in hun eigen filter bubbel van “gelijk hebben”? Zo kunnen op grote schaal steeds meer individuele filterbubbels gecreëerd worden met alle maatschappelijke onrust tot gevolg.

11. Hacking algoritmes
Kunstmatige intelligente systemen worden steeds slimmer en kunnen binnen afzienbare tijd met grote snelheid en op grote schaal malware en ransomware verspreiden. Ook worden ze steeds beter in het binnendringen van systemen en het kraken van encryptie en beveiligingen, zoals recent nog met de Captcha sleutel. Met name wanneer de kracht van kunstmatige intelligentie nog meer gaat toenemen, zullen we kritisch moeten kijken naar onze huidige versleutelingsmethodes.

Voorbeeld: Een zelfrijdende auto is software op wielen. Het is verbonden met het internet en kan dus gehackt worden. (is al gebeurd). Dat betekent dat een eenzame gek op z’n zolderkamertje een drama zoals in Nice kan veroorzaken. En zo komen er steeds meer apparaten die zijn verbonden met het internet, waarvan de beveiliging echt schrikbarend slecht is.

Ook in bijvoorbeeld ziekenhuizen is steeds meer apparatuur aangesloten op het internet, Wat als de digitale systemen daar gehackt worden met zogenaamde gijzelsoftware? Dat is software die complete computersystemen kan blokkeren in ruil voor losgeld. Je moet er niet aan denken dat iemand een enorme storing in pacemakers creëert of dreigt dat te doen.

12. Loss of Skills
Door het gebruik van computers verliezen we steeds meer menselijke vaardigheden. Is dat jammer? Soms wel, soms niet. Slimme software maakt ons leven makkelijker en zorgt ervoor dat we minder saaie taken hoeven te doen. Navigeren, schrijven met de hand, onthouden van telefoonnummers, in staat zijn om regen te voorspellen door naar de lucht te kijken et cetera. Niet van cruciaal belang. We verliezen vaardigheden in het dagelijks leven en laten deze over aan technologie. Mijns inziens is het wel belangrijk ons af te vragen: worden we daarbij niet te afhankelijk van nieuwe technologie? Hoe hulpeloos willen we zijn zonder technologie om ons heen?

En niet onbelangrijk aangezien slimme computersystemen steeds meer gaan begrijpen wie we zijn, wat we doen en waarom we dat doen: is het niet een belangrijke menselijke vaardigheid om frustratie te verdragen? Geduldig te kunnen zijn? Of genoegen te nemen met iets minder dan ‘hypergepersonaliseerd’? In ons werk worden wij steeds meer geassisteerd door slimme computersystemen die emoties en gemoedstoestand van derden lezen, zoals nu bijvoorbeeld al in de klantenservice gebeurt. In hoeverre verliezen wij de vaardigheid om zelf deze waarnemingen te doen en onze antennes te trainen? Worden we dan uiteindelijk minder goed in het lezen van onze medemens in een fysiek gesprek?

Dat is nu al een beetje het geval natuurlijk, omdat we steeds meer gebruikmaken van onze smartphone in onze communicatie. Zijn we daardoor minder goed geworden in het aflezen van onze gesprekspartner in een face-to-face gesprek? Kortom, welke van onze vaardigheden, zowel praktisch als emotioneel, willen we overlaten aan slimme computersystemen? Zijn aandacht, intimiteit, liefde, concentratie, frustratietolerantie, empathie aspecten uit ons leven die wij steeds meer willen laten overnemen door technologie?

Wat dat betreft is KI als technologische ontwikkeling een tweesnijdend zwaard: vlijmscherp in zowel de mogelijke positieve als de negatieve uitkomst.

Ben ik iets vergeten of zoek je een lezing over de voor- en/of nadelen van kunstmatige intelligentie? Neem dan contact met me op.

Contact

Mijn klanten