11 risico’s van kunstmatige intelligentie

Kunstmatige intelligentie is een onderwerp wat bij veel mensen tot de verbeelding spreekt. Een belangrijke oorzaak daarvan zijn natuurlijk de vele Hollywoodfilms die over dit onderwerp zijn verschenen. In de Hollywood films zie je vaak science fiction achtige doemscenarios. Deze scenarios zijn bijna altijd overdreven, maar toch verschijnen er steeds meer en meer verontrustende berichten over kunstmatige intelligentie, gevoed door de kwalitatieve groeispurt van deze nieuwe technologie. Slimme computersystemen kunnen namelijk steeds meer van hetgeen wij als mensen kunnen zoals kijken, luisteren, spreken, onthouden en lezen. En ze leren zelf patronen en regels te ontdekken uit grote hoeveelheden data. Dat heeft nogal wat gevolgen.

Ontwrichting
Kunstmatige intelligentie is daarom wat mij betreft de meest ontwrichtende technologie van de komende 10 jaar. De kwaliteit van deze technologie is op een aantal vlakken de afgelopen jaren veel beter geworden, met alle gevolgen van dien. Slimme software-systemen snappen steeds beter wie wij zijn, wat we willen en waarom we dat willen. Een wereld vol mogelijkheden opent zich. Chatbots, slimme virtual assistants en autonome intelligente software-assistenten gaan ons steeds meer helpen. KI systemen gaan ons welvaart, tijdsbesparing, gemak, inzichten en comfort brengen. We gaan gewend raken aan een persoonlijke assistent die 24 uur per dag beschikbaar is en weet wat we nodig hebben voordat we het zelf weten. Net zoals het nu lastig is voor te stellen dat je leeft zonder internet, zo is het over 10 jaar met je persoonlijke assistent.

En slimme KI systemen gaan ons inzichten verschaffen die we nooit voor mogelijk hadden gehouden, antwoorden geven op vragen waarvan we niet wisten dat ze bestonden. KI systemen zijn sneller, nooit moe, leren van voorbeelden en elkaar en in specifieke domeinen veel slimmer dan de mens.

Maar we kunnen onze ogen niet sluiten voor de mogelijk negatieve scenario’s: president Poetin van Rusland noemde recent nog dat de koploper op het gebied van kunstmatige intelligentie waarschijnlijk ook de leider van de wereld zou worden. En wat te denken van het AI systeem dat het theoretisch mogelijk maakt op basis van gezichtsherkenningstechnologie om iets te kunnen zeggen over iemands geaardheid? Hoe gaan we om met dit soort nieuwe technologie?

Het is daarom verstandig om een potentieel krachtige technologie als kunstmatige intelligentie goed te bekijken: zowel de positieve als minder positieve kanten. Here we go.

11 risico’s van kunstmatige intelligentie

1 . Gebrek aan transparantie: KI systemen zijn gebouwd op neurale netwerken en deze zijn minder goed in staat hun ‘beweegredenen’ voor beslissingen te kunnen weergeven. Het systeem is vaak veel te complex. Bij militaire of medische beslissingen is het echter wel belangrijk dat we kunnen herleiden welke data tot welke beslissingen heeft geleid. Welke achterliggende gedachte of redenering heeft geleid tot de output. Dit is een nadeel en is op sommige vlakken dus ook een rem op de groei van het gebruik van KI systemen.

2. Vooringenomen algoritmes: Wanneer wij onze algoritmes voeden met de datasets die bevooroordeelde data bevatten, kan het niet anders zijn dat het systeem onze vooroordelen bevestigt. Er is tegenwoordig nog te weinig expertise aanwezig bij bedrijven om deze datasets goed te kunnen beoordelen en eventuele aannames en vooringenomen data eruit te filteren. En hoe vergewissen we er ons van dat onze datasets (waar we steeds meer op gaan vertrouwen) niet worden bevuild door vijandige overheden of andere kwaadwillenden? We moeten voorkomen dat we steeds meer in een ‘computer says no’ samenleving terecht komen waarbij mensen teveel leunen op de output van slimme systemen zonder dat we weten wat de algoritmes en data tot hun resultaat zijn gekomen.

3. Aansprakelijkheid voor handelen: Er is nog heel veel onduidelijk over de juridische aspecten van steeds slimmer wordende systemen. Hoe zit het bij aansprakelijkheid wanneer het KI systeem een fout maakt? Beoordelen we dat net zoals een mens? Wanneer systemen steeds meer zelflerend en autonoom worden, wie is dan verantwoordelijk? Kan een bedrijf nog verantwoordelijk worden gehouden voor een algoritme dat zijn eigen koers bepaalt?

4. Een te groot mandaat: Hoe meer slimme systemen wij gebruiken, hoe meer we tegen het vraagstuk van reikwijdte aanlopen. Hoeveel mandaat geven wij onze slimme virtuele assistenten? Wat mogen ze wel voor ons beslissen en wat niet? Rekken wij de autonomie van slimme systemen steeds verder op, of moeten wij daar koste wat het kost regie op houden, zoals de Europese Unie graag zou willen? Wat laten we wel en niet bepalen en uitvoeren door slimme systemen, zonder tussenkomst van mensen? Het risico is dat we teveel autonomie uit handen geven zonder dat de technologie of randvoorwaarden er klaar voor zijn en zonder dat we zelf na verloop van tijd nog weten wat en waarom we die taken uitbesteden.

5. Te weinig privacy: Om slimme systemen goed te laten functioneren heb je als bedrijf heel veel zuivere data nodig. De kracht van een KI systeem zit, naast kwalitatief goede algoritmes, ook in het bezitten van goede datasets. Bedrijven die bezig zijn met kunstmatige intelligentie worden steeds meer de Holle Bolle Gijs van onze data: het kan niet genoeg zijn; alles is geoorloofd om nog betere resultaten te halen. Het gevaar is bijvoorbeeld dat bedrijven steeds scherper een profiel van ons kunnen maken met een steeds grotere precisie. Dat onze privacy afbrokkelt.
En wanneer wij onze eigen privacy vervolgens afschermen, maken ze gewoon gebruik van vergelijkbare doelgroepen: van mensen die erg op ons lijken. En onze data wordt massaal doorverkocht en niemand weet meer aan wie en waar de data voor gebruikt wordt. Data is de olie van KI systemen en onze privacy is hoe dan ook in het geding.

6. Te veel invloed van grote technologiebedrijven: Bovenstaand onderwerp sluit aan bij de macht van grote technologiebedrijven. Facebook, Microsoft, Google, Apple, Alibaba, Tencent, Baidu en Amazon: Acht technologiebedrijven die het financiële vermogen, de data en de intellectuele capaciteiten hebben om kunstmatige intelligentie kwalitatief enorm te laten groeien. Het gevaar schuilt er echter in dat een hele krachtige technologie in handen komt van een relatief kleine groep commerciële bedrijven. En hoe beter de technologie, hoe meer mensen het gaan gebruiken, hoe beter de technologie wordt etcetera. Ook werkt de overdracht van algoritmes in zogenaamde ‘transfer learning’ steeds beter. Er is dan steeds minder data nodig voor een goed resultaat. En de eerder genoemde commerciële doelstelling, leert de ervaring, zal altijd overheersen en het is onduidelijk hoe deze bedrijven de technologie in de toekomst gaan gebruiken.

7. Kunstmatige superintelligentie: In de discussie over de nadelen van kunstmatige intelligentie, overheerst wat mij betreft iets te vaak de discussie over superintelligentie. Systemen zo intelligent dat ze op meerdere facetten de menselijke intelligentie ver overstijgen. Dat ze zichzelf allerlei vaardigheden en kennis eigen kunnen maken, zonder tussenkomst van mensen. Dat ze zichzelf kunnen trainen op voor hen onbekende situaties. Dat ze context snappen. Een soort superintelligent orakel dat de mensheid beschouwd als slakken in de tuin; zolang je er geen last van hebt, mogen ze blijven leven.

Vooropgesteld: ik vind dat we dit scenario serieus moeten nemen en dat we met name moeten letten op het overbrengen van onze ethische moraal op intelligente systemen. Dat we ze dus niet betonnen regels meegeven, maar iets leren over menselijke overwegingen.
Ik geloof dus niet dat wij op enige korte termijn ook maar iets gaan zien van een bewustzijn in dit soort systemen. Daarvoor is de technologie nog veel te jong. Dus: nadenken erover is prima en wet moeten superintelligentie ook echt serieus nemen, maar er zijn ook zeker andere risico’s.

8. Impact op de arbeidsmarkt: KI gaat de komende jaren zorgen voor druk op de arbeidsmarkt. Door de snelle toename van de kwaliteit van kunstmatige intelligentie zullen slimme systemen veel beter worden in specifieke taken. Het kunnen herkennen van patronen uit grote hoeveelheden data, het verschaffen van specifieke inzichten, en steeds meer cognitieve taken zullen worden overgenomen door slimme KI systemen. Mensen met taken op het gebied van beeldherkenning, videoherkenning, tekstherkenning en aanverwante zaken moeten de ontwikkeling van kunstmatige intelligentie scherp in de gaten houden. Er zijn dus zeker mensen met een baan in de gevarenzone die zich snel moeten gaan aanpassen. Maar veruit het grootste deel van de bevolking zal gaan samenwerken met kunstmatig intelligente systemen. En vergeet niet: er zullen ook weer heel veel nieuwe banen bijkomen, al zijn deze lastiger te bedenken dan de banen die verdwijnen. De maatschappelijke ongelijkheid zal de komende jaren toenemen door de kloof tussen haves en have-nots. Wij moeten als samenleving zorgen voor de have-nots. De mensen die enkel als capaciteit hebben om routinematig hand- of denkwerk te verrichten. En het wordt steeds belangrijker als professional om je aan te passen aan de snel veranderende omgeving.

9. Autonome wapens. Elon Musk van Tesla waarschuwde deze zomer nog de Verenigde Naties over autonome wapens, aangestuurd door kunstmatige intelligentie. Samen met 115 andere experts wees hij op de mogelijke dreiging van autonoom oorlogstuig. Logisch: het zijn krachtige middelen die veel schade kunnen aanbrengen.

10. Fake news en Filter bubbles: Slimme systemen gaan steeds meer in staat zijn om content te maken: teksten samen te stellen, tweets te produceren en te retweeten en slim te adverteren. Hier ligt het risico van manipulatie en beïnvloeding door bedrijven en overheden op de loer. Content kan dan met zo’n snelheid en schaal geproduceerd worden, dat meningen beïnvloed kunnen worden en nepnieuws met grote kracht de wereld in geslingerd kan worden; specifiek getarget richting mensen die daar gevoelig voor zijn. Manipulatie, framing, sturing en beïnvloeding. Bedrijven en overheden met slechte bedoelingen hebben met kunstmatige intelligentie een krachtige tool in handen.
Hoe vergewissen we er ons van dat Rusland of Amerika niet in Nederland nepnieuws gaan verspreiden? En hoe voorkomen we dat de algoritmes van sociale media ons steeds meer “op maat” bedienen en daarmee onze eigen mening versterken in onze steeds sterker wordende echo-put? Zo kunnen op grote schaal steeds meer individuele filterbubbels gecreëerd worden met alle maatschappelijke onrust tot gevolg.

11. Hacking algoritmes. Kunstmatige intelligente systemen worden steeds slimmer en kunnen binnen afzienbare tijd met grote snelheid en op grote schaal malware en ransomware verspreiden. Ook worden ze steeds beter in het binnendringen van systemen en het kraken van encryptie en beveiligingen, zoals recent nog met de Captcha sleutel. Met name wanneer de kracht van kunstmatige intelligentie nog meer gaat toenemen, zullen we kritisch moeten kijken naar onze huidige versleutelingsmethodes.

Wat dat betreft is KI als technologische ontwikkeling een tweesnijdend zwaard: vlijmscherp in zowel de mogelijke positieve als de negatieve uitkomst.

Ben ik iets vergeten of zoek je een lezing over de voor- en/of nadelen van kunstmatige intelligentie? Neem dan contact met me op.

Contact