Dit zijn artikelen die weerspiegelen waar ik zoal over spreek. Deze items zijn vaak gedeeld in mijn nieuwsbrief. Hier zie je het archief en hier kun je je abonneren.
===============

DeepFakes, FaceSwap Blackmailing, Foodporn.
Als aanvulling op mijn vorige nieuwsbrief, nog even over de kwalitatieve sprong van “Generative adversarial networks”. Oftewel; kunstmatig intelligente systemen die op basis van voorbeelden zelf beelden kunnen creëren. Deze bovenstaande video is een zeer recent voorbeeld van een Deepfake video van actrice Jennifer Lawrence, je kent haar wel uit The Hunger Games, met het gezicht van acteur Steve Buscemi (Reservoir Dogs). Je hebt slechts een video (bron) en een dikke stapel foto’s nodig en vervolgens kun je met een stevige computer op je zolderkamer al dit soort Faceswap video’s maken. #PostTruth

Iedereen is een potentieel doelwit van DeepFake-video Porn.
De donkere kant van deze Deepfake ontwikkeling wordt goed beschreven in dit artikel van de Washington Post. De Faceswap technologie wordt inmiddels gebruikt om pornovideo’s te maken van willekeurige vrouwen ter wereld. Om ze te beschadigen in hun werk, carrière of ze te chanteren. Er zijn zelfs al criminelen die voor $20 een video voor je willen creëren zolang je de foto’s aanlevert. In dit artikel lees je hoe beschadigend dit is voor vrouwen en hoe extreem groot de negatieve impact is op vrouwen die geconfronteerd worden met deze uitwassen. #NobodyIsSafe

AI maakt van tekst een gerecht.
Een luchtiger voorbeeld nog van “Generative adversarial networks” is dit nieuwe systeem uit Tel Aviv dat afbeeldingen creëert van maaltijden op basis van de beschreven bereidingswijze en de ingrediënten. Inderdaad: dit systeem kan door de lijst van ingrediënten en de bereidingswijze te bestuderen fotorealistische nepfoto’s maken van de daadwerkelijke gerechten.
Het interessante aan dit onderzoek is dat het van het computersysteem een bepaalde mate van abstractie vraagt. Vanaf nu kun je je op Instagram dus afvragen of je nou naar een echte foto van een gerecht zit te kijken of naar een nepfoto.

Therapeutische ervaringen beleven met je eigen avatar in virtual reality.
Een interessant artikel van de New Yorker. Over de therapeutische waarde van een avatar in VR.
In een experiment kregen mensen niet alleen een VR-bril en een hoofdtelefoon op om een virtuele wereld om zich heen te creëren, maar ook sensoren in hun kleding. De onderzoekers probeerden zo de scheidslijn tussen de fysieke en digitale wereld zeer dun te maken. De beleving van het menselijk lichaam en geest over te laten lopen in een virtuele digitale versie. (lees: Body transfer illusion)
Wat zo interessant is aan dit experiment is dat het helder beschrijft hoe je mensen therapeutisch zou kunnen behandelen met psychische of emotionele problemen via VR. Vrouwen met veel zelfkritiek konden bijvoorbeeld in een experiment (in de virtuele wereld) tussen moeder en baby zichzelf vriendelijk toespreken en zichzelf geruststellen en zo plaatsvervangende, therapeutische ervaringen creëren. Interessant: hoe het opdoen van ervaringen in een virtuele wereld therapeutisch werkt in het verdere dagelijkse leven.
Ik ken dit soort voorbeelden wanneer het gaat over behandeling van angsten of bijvoorbeeld posttraumatische stress. Wie kent nog meer voorbeelden?

Autonome drones bij een rattenplaag. Goed idee?
Drone technologie wordt steeds geavanceerder. Op de Galapagos eilanden worden autonome drones ingezet omdat ze daar last hebben van een rattenplaag. Autonome drones droppen er gif met maar liefst een precisie van een halve meter. Zo proberen ze de ratten te verdelgen.
Goede zaak zou je zeggen, maar ik denk dan gelijk: wat als kwaadwilligen deze technologie gaan gebruiken om bijvoorbeeld op Koningsdag iets van gif, zuur of chemicaliën te lozen op een concertpubliek. Even los van de nadelen van deze stoffen kun je je ook een behoorlijke paniek voorstellen met mogelijk gewonden of erger.. Autonome drones worden steeds meer een concrete dreiging volgens politie- en inlichtingendiensten.

Naast de nuttige toepassingen is gezichtsherkenning ook een surveillance-technologie.
Gezichtherkenningstechnologie wordt steeds slimmer. Met deze slimme software kan steeds beter identiteit, etniciteit, gemoedstoestand, geslacht en leeftijd worden vastgesteld. Alles wat je nodig hebt is een camera en wat (open source) software en je bent “ready-to-go”.
De technologie kan kan ook gebruikt worden om mensen op te sporen die verward, verdwaald of ontvoerd zijn. Ook is er een database in China waar ouders de foto’s van hun kinderen naar kunnen uploaden dat wanneer zij kwijt zijn de kinderen opgespoord kunnen worden. Allemaal positieve use-cases. Maar er zijn ook gevaren natuurlijk.
Microsoft (!) roept nu op tot regulering. Het onderkent 3 problemen: Privacy, Discriminatie en Mass Surveillance.
“Wij vinden het belangrijk dat overheden in 2019 wetten gaan vaststellen om deze technologie te reguleren. De gezichtsherkennings “geest” komt als het ware net uit de fles. Als we niet in actie komen, lopen we het risico dat we over vijf jaar tot de ontdekking komen dat gezichtsherkennings producten zich hebben ontwikkeld op een manier die de maatschappelijke problemen verergert. Tegen die tijd zal het veel moeilijker zijn om deze bedreigingen weer op te lossen.“
Mijn Take-aways:
-Het is van cruciaal belang dat gekwalificeerde mensen de resultaten van gezichtsherkenning beoordelen en belangrijke beslissingen zélf nemen in plaats van ze simpelweg over te dragen aan computers.
-De grootste bedreigingen die door deze technologie ontstaan zijn grootschalige surveillance door overheden en het verlies van onze privacy.
-Deze software is nog in ontwikkeling. Er zitten bijvoorbeeld nog veel fouten in betreffende geslacht en etniciteit.
-We moeten ervoor zorgen dat het gebruik van gezichtsherkenningstechnologie door de overheid onderheven blijft aan de regels van de rechtsstaat.

Amerika werkt aan een ‘voice surveillance’ systeem
En…. Van “face-recognition surveillance” naar “voice print surveillance”.
Amerika is namelijk bezig om via de telefoon de stemmen van Amerikaanse gevangenen te verzamelen in een voice-print database. Hiermee kan in de toekomst de identiteit van deze mensen worden vastgesteld op basis van hun stem. In sommige projecten worden zelfs de stemmen van gespreksontvangers van buiten de gevangenis geregistreeerd om zo bij te houden welke van deze ontvangers regelmatig met verschillende gedetineerden spreken.
Een geïnterviewde gevangenisdirecteur zegt dat het systeem moet voorkomen dat bepaalde gevangenen contact opnemen met hun slachtoffers of getuigen met behulp van de persoonlijke telefoon-pincode van andere gevangenen. De stem-analyse maakt dit onmogelijk en ontmaskert de daadwerkelijke beller.
Niet gek gedacht natuurlijk. Maar de vraag is volgens mij niet óf deze database misbruikt gaat worden voor surveillance, maar vooral wanneer en door wie. Of ben ik wat paranoïde?

“GAN-tastic” Fake Digital Humans.
Indrukwekkend! En nieuw hoofdstuk in het digitaal creëren van foto’s van mensen door middel van GAN technologie.
Een GAN is een AI systeem met 2 netwerken. Het eerste netwerk, bekend als de generator, moet kunstmatige output produceren, zoals in dit geval gezichten, door naar trainingsvoorbeelden te kijken en te proberen deze na te bootsen. Het tweede netwerk, bekend als de discriminator, bepaalt vervolgens of de resultaten realistisch zijn door ze te vergelijken met dezelfde trainingsvoorbeelden.
“Als een wedstrijd tussen een kunstvervalser en een kunstdetective die elkaar herhaaldelijk proberen te slim af te zijn”.
Onderzoekers van NVIDIA hebben nu software gemaakt die foto’s kan creëren van niet bestaande mensen op basis van voorbeelden. Dat deden ze al eerder, maar nu is het gedetailleerder en geloofwaardiger dan ooit.
Een nieuwe stap in details, maar ook in variaties zoals haardracht, huidskleur, sproeten, bril et cetera. De software stelt de onderzoekers daarnaast ook in staat om ter plekke variaties aan te brengen in deze gezichtskenmerken. Zien is geloven.
Schuif met de knoppen en persoon A verandert in persoon B en daarna in persoon C. Het werk van acteurs, game-designers en reclamemakers zal veranderen door deze software. Maar het creëren van FakeNews wordt ook veel makkelijker.
Fakes will never be the same again.

Computers bepalen bewustzijnstoestand patiënt
‘Bewustzijn’ is een lastig te definiëren begrip. Het zetelt in de hersenen en we weten allemaal ongeveer wat het is. Toch blijft het moeilijk precies zeggen wanneer het er wel of niet is, ook voor de neurowetenschap. Maar bijvoorbeeld voor artsen in een ziekenhuis is het van groot belang de diagnose te kunnen stellen of een patiënt met hersenbeschadiging ‘bij bewustzijn’ is of niet. Dat is onder meer het geval bij mensen die niet meer helder kunnen nadenken, maar ook in een coma zijn beland.
Met behulp van EEG (elektro-encefalografie) kunnen hersengolven gemeten worden, wanneer elektrische sensoren op de schedel van de patiënt worden geplaatst. In een gezonde persoon zie je golfbewegingen met een voorspelbare frequentie. Na een hersenbeschadiging is het patroon minder voorspelbaar.
Een onderzoeksgroep van het Pitié-Salpêtrière Hospital in Parijs heeft EEG-gegevens verzameld van 268 patiënten die slechts minimaal bewustzijn vertoonden of helemaal niet. Tientallen kenmerken van deze data warden ingevoerd in DOC-Forest, een machine learning-algoritme. Voor 75 procent van de gevallen kon het programma de juiste diagnose over het bewustzijn stellen. Daarmee zou DOC-Forest een zeer bruikbaar instrument kunnen zijn om te zien of een patiënt al of niet bij bewustzijn is.

DNA-test screent baby’s op 900 ziekterisico’s tegelijk
Het Amerikaanse BabySeq-project maakt het mogelijk een totaal DNA-onderzoek bij baby’s uit te voeren. Daardoor konden de onderzoekers naar meer dan 900 ziektegenen tegelijk kijken. Ter vergelijking: de hielprik die alle pasgeborenen in Nederland krijgen spoort slechts twintig erfelijke ziekten op. BabySeq kan dus in ieder geval meer afwijkingen aantreffen dan de hielprik, maar vervolgonderzoek moet uitwijzen hoe die kennis uitwerkt op ouders en kind. De uitslag van de DNA-test kan ertoe leiden dat de levensstijl van het kind wordt aangepast aan het risicoprofiel, maar een neveneffect kan zijn dan het kind en zijn ouders zich vervolgens continu zorgen maken over de mogelijkheid van een ernstige ziekte.

Dutch Artificial Intelligence Manifesto
Nederland en de Europese Unie raken achterop in de ratrace omtrent kunstmatige intelligentie. Amerika en China maken flink tempo. Met name het vasthouden van talent en het kunnen blijven produceren van ons kwalitatief hoogwaardig onderzoek is een aandachtspunt. Er zijn al vele gebieden waar in Nederland kwalitatief goed onderzoek doet, onderwijs levert en producten levert Autonome computersystemen, computer vision, decision making, machine learning en natural language processing. In dit rapport de aanbevelingen, vanzelfsprekend ook de oproep tot socially-aware AI, explainable AI en responsible AI. In Europa speelt ook nog de spagaat tussen aan de ene kant de wens om veel hoogwaardige data te mogen verzamelen en het respecteren van onze privacy volgens de wetgeving van de AVG. China en Amerika doen daar “niet moeilijk over” en knallen dus vooruit.

Kepler analyseert lichaamstaal van senioren
Een goed voorbeeld van hoe AI computer-vision systemen lichaamstaal kunnen detecteren, analyseren en herkennen. Vervolgens kan deze analyse toegepast worden in de zorg voor ouderen. Deze software houdt onder andere in de gaten wanneer senioren op de vloer vallen, of ze fatsoenlijk aangekleed zijn, genoeg eten en drinken en of er sprake is van verbaal geweld. Los van de ethische vragen of je dit wenselijk is vanuit privacy oogpunt, toont deze demo feilloos de capaciteit van kunstmatig intelligente vision-systemen. Technologie heeft ogen om te zien.

Vivienne Ming: unleashing human potential with AI
Vivienne Ming is een Amerikaanse theoretisch neurowetenschapper en expert op het gebied van kunstmatige intelligentie. Ze studeerde neurowetenschappen aan de Carnegie Mellon University en werkte bij Stanford University in het Mind, Brain & Computation Center. Ik sprak haar vorig jaar bij Singularity University, waar ze ook een (geweldige) lezing gaf over kunstmatige intelligentie, hersenen, gedrag en neurowetenschappen. Ik heb de laatste weken een paar keer een podcast geluisterd met haar als gast. Hier zijn mijn belangrijkste take-aways:

–Een waarschijnlijk maar ongewenst scenario is dat kunstmatige intelligentie vooral wordt ingezet om menselijke arbeid te reduceren. Als kostenbesparing; dat de winst ervan niet naar een grote groep mensen gaat, maar naar een kleine groep mensen bij grote bedrijven. Gevolg: dat veel mensen thuis komen te zitten zonder een dieperliggend doel (purpose) in hun leven. Dat is een rampscenario want deze jonge mensen gaan dan misschien een diepere purpose zoeken bij extreem religieuze organisaties of zich negatief keren jegens de maatschappij waar zij geen plek kunnen vinden.
–Kunstmatige intelligentie is zo krachtig omdat het een general purpose technology is dat je kunt toepassen op heel veel vlakken. En laten we niet naïef zijn. Het is niet zo dat met de implementatie van deze technologie iedereen “beter af” is. Dat is zeker niet zo. De kwalitatieve opkomst van kunstmatige intelligentie brengt niet “als bij toverslag” welvaart en welzijn voor ons allen. Mensen gaan niet alleen hun baan verliezen, maar velen gaan in de toekomst ook slechter betaald krijgen dan de baan waar ze eerst in zaten, maar waar ze door kunstmatige intelligentie gedwongen werden uit te stappen.
–Het is echt niet zo dat door de technologische vooruitgang iedereen van de een op andere dag artiest, wetenschapper of kunstenaar wordt. Meest waarschijnlijk: mensen die dat graag willen worden, zijn dat nu al. Zij nemen het lage salaris op de koop toe.
–De kwalitatieve opkomst van kunstmatige intelligentie zorgt wel voor veel “sociale stress”. Mensen moeten zich continu aanpassen en zijn onzeker over hun baan en over hun werk.
–In de wereld is een verschil tussen twee groepen mensen: zij die de wereld zien als een continu dynamisch gebied en zij die zien dat de wereld statisch is en zo moet blijven. Deze laatste groep overtuig je moeilijk van de voordelen van technologische vooruitgang.
–Als antwoord op het vraagstuk van “technologische werkloosheid” anno 2019 wordt altijd verwezen naar de oplossingen rondom de “industriële revolutie”. Maar vergeet niet: een ander tijdperk, andere technologie, andere snelheid, andere beroepsbevolking, ander opleidingsniveau, minder technologie en veel minder “schaalbaarheid”. Er was toen gemiddeld 1 generatie de tijd om bij te leren. Nu is die tijd veel korter.
–Wat de makers van digitale technologie vaak vergeten is dat hun producten of diensten vaak heel anders gebruikt worden dan verondersteld. Mensen zijn grillige gebruikers. Dat maakt de uitkomst van technologie (positief/ negatief) vaak veel oncontroleerbaarder dan gedacht.
–Een mythe over kunstmatig intelligente systemen is dat ze zelfbewustzijn kunnen creëren. Waar we ons veel meer zorgen over moeten maken is dat de doelstellingen die wij in dit soort systemen programmeren een eigen leven gaan leiden, zoals de filterbubbel van Facebook. Ook een misverstand over kunstmatige intelligentie dat super intelligentie slechts een aantal jaren van ons verwijderd is. Dat duurt nog decennia, mocht het al mogelijk zijn..
–Vergeet niet: wat 20 jaar geleden nog als onrealistisch leek, is tegenwoordig de realiteit. Wat 100 jaar geleden sciencefiction leek, is nu de realiteit. Absolute trend: we gaan onze menselijke vaardigheden versterken met technologie en kunstmatige intelligentie. Volgende station: Onze zintuigen!

Blockchain: nu begint het pas echt interessant te worden
Interessant verhaal van blogger en Blockchainrealist Ronald Mulder. In dit artikel, schetst hij helder en in het kort het verloop van de ontwikkeling van blockchain in de afgelopen jaren. Van de hooggespannen verwachtingen, de tijd van wensdenken, het ontwikkelen van een ecosysteem en “blockchain als organisatievorm”.
De mooiste quote:
“Veel pilots gingen de mist in doordat organisaties wel zo’n spannende blockchain wilden, maar dan graag zonder de regie en controle uit handen te geven — wat dan onherroepelijk leidde tot oplossingen die beter zonder blockchain gebouwd konden worden.” So true.

Het gevaar van hacking en cyberspionage uit China.
Interessant artikel over de toenemende kracht van China als cyberspionage aanvaller. De invloed van de Chinese overheid reikt inmiddels veel verder dan enkel het land zelf. Doelwitten in Amerika die zich bezighouden met Tibet, internet-vrijheid of de Dalai Lama worden aangevallen. Het echte (geopolitieke) strijdtoneel verplaatst zich steeds meer naar de achterkant van het internet.
Documenten stelen, verkeer bijhouden,. lezen van e-mails, aanzetten van webcam en microfoon en het bijhouden van toetsaanslagen: het speelkwartier is over; de Chinese overheid laat haar spierballen zien. Onderdrukkingssoftware: woord van het jaar 2019?

Digitale Bert kan menselijke zinnen aanvullen.
Wat voor mensen meestal eenvoudig is, is voor KI-systemen ingewikkeld: een zin aanvullen en zodoende voortborduren op de gedachte en de bedoeling erachter.
Een onderzoeksteam van Google heeft echter het systeem ‘Bert’ ontwikkeld. Met deze technologie kan het op logische wijze een afgebroken zin afmaken. Bert slaagde erin een Engelse test voor computers met succes af te leggen, die onderzoekers van het Allen Institute for Artificial Intelligence in Seattle hadden opgesteld.
Met deze nieuwe ontwikkeling kunnen digitale assistenten als Alexa and Google Home verbeterd worden, maar ook software die automatisch documenten analyseert in bijvoorbeeld juristenkantoren, ziekenhuizen en banken. Uiteindelijk kan het leiden tot een technologie die in staat is een normale conversatie met een mens te voeren. Een nadeel daarentegen is dat bots op sociale media als Twitter (fake) berichten kunnen plaatsen die niet meer te herleiden zijn tot machines.

Assistent van Alibaba lijkt slimmer dan Google’s Duplex
Vorig jaar onthulde Google de digitale assistent Duplex, met een stem die angstaanjagend veel leek op die van een echte persoon. Je kunt er bijvoorbeeld een tafel in een restaurant mee reserveren of een afspraak bij de kapper maken. Het werd beschouwd als een nieuwe mijlpaal in spreekvaardigheid van robots en herkenning door computers van natuurlijke taal. Het gaf een inkijkje in de toekomst van interactie tussen mens en kunstmatige intelligentie.
Maar in december 2018 presenteerde Alibaba zijn eigen digitale assistent, die het bedrijf al in gebruik heeft voor contacten met klanten van het internetbedrijf Cainiao. Deze digitale assistent handelt nu al miljoenen klantverzoeken per dag af, bijvoorbeeld over het afleveradres van bestelde pakketjes. Het interessante is dat de assistent de conversatie tot een succesvol einde kan voeren ook als er interrupties zijn, impliciete bedoelingen of niet-rechtlijnige informatie-uitwisseling. Als de klant bijvoorbeeld zegt: ‘Ik ben ’s ochtends niet thuis’, pikt de assistent die impliciete boodschap op: namelijk dat de bezorging naar een ander moment moet.

Alibaba is ook bezig andere digitale assistenten te ontwikkelen, zoals virtueel personeel dat bestellingen kan opnemen in rumoerige restaurants of warenhuizen, een mensachtige avatar die vragen over producten van Alibaba beantwoordt en een chatbot die in staat is te onderhandelen en af te dingen. Al deze assistenten worden aangedreven door AliMe, een machine die spraak kan herkennen en natuurlijke taal kan produceren. De ontwikkeling wordt geholpen door de overweldigende hoeveelheid data die Alibaba zelf geneert, als gevolg van de vele klantcontacten (met 1 miljard bestellingen per dag!).

AI zet hersenactiviteit om in spraak
Bij mensen die als gevolg van verlamming niet in staat zijn te spreken, blijven signalen van wat ze willen zeggen verborgen in hun hersenen. Tot dusver is niet gelukt die signalen direct te ontcijferen, maar onderzoekers aan verschillende universiteiten zijn ermee bezig. Ze proberen data afkomstig van elektroden op het brein van een patiënt om te zetten in computergegeneerde spraak. Door computermodellen die bekend zijn als neurale netwerken te gebruiken konden ze woorden reconstrueren en zinnen te bouwen die, in sommige gevallen, begrijpelijk waren voor menselijke oren.
Mensen die hun spraakvermogen verloren hebben als gevolg van een ziekte of herseninfarct gebruiken nu nog soms hun ogen of maken kleine bewegingen om een cursor te bedienen of letters op een scherm te selecteren (zoals Stephen Hawking).

Mobiele App voor detectie van bloedarmoede
Interessant! Wetenschappers hebben recent een mobiele app ontwikkeld die bloedarmoede vaststelt aan de hand van de kleur van je vingernagels. Bloedarmoede kan nl. vastgesteld worden op basis van hoeveelheid hemoglobine in de bloedcellen. En dat is zichtbaar in de bleke delen van de huid onder de nagels. Het AI model dat in de app verwerkt zit kan bloedarmoede detecteren door te kijken naar een smartphonefoto van je nagels.
Een volledig bloedonderzoek (=bloed prikken) is nog wel nauwkeuriger, maar deze app geeft inmiddels wél een beter resultaat dan een onderzoek van je handen door artsen. En uiteindelijk heeft een niet-invasieve manier van onderzoek de voorkeur natuurlijk, wanneer de resultaten van deze app en bloedprikken vergelijkbaar zijn.

Internet: The End of the Beginning
Benedict Evans is een gerenommeerd expert in het veld van internet en digitalisering. Hij werkt bij Andreessen Horowitz, een venture capital-bedrijf in Silicon Valley. Jaarlijks geeft hij een lezing over de toekomst van internet en tech.
Mijn Take-aways:
-We gaan van Search naar Social naar Machine Learning en Cryptocurrencies.
-Internet = het grootste podium wereldwijd in advertising
-Een groot deel van de wereldeconomie moet nog worden getransformeerd door software en internet.
-Er zijn meer smartphones in China dan Europa en VS samen
-Er zit nog veel groeipotentieel in E-commerce.
-20 jaar geleden: “Mensen gaan nooit fashion online kopen; ze kunnen niet zonder paskamer”. “Make-up online kopen zonder te proberen? Dat gaat nooit werken”. “Een bril kopen zonder ’m op je neus gezet te hebben? Dat is ondenkbaar”. Die denkfout zit mensen nu ook vaak dwars over de toekomstige 20 jaar.
-Het (online of fysiek) kijken naar E-sports is een enorme groeimarkt.

Volgende hoofdstuk: Full-Body Deepfakes.
Een AI systeem van de universiteit van Heidelberg kan Full-Body Deepfakes maken. Indrukwekkend aan dit systeem is dat het geen visuele input vanuit elke hoek nodig heeft om een nep-video te maken. Dit nieuwe systeem kan “raden” hoe je er vanuit een bepaalde hoek uitziet, gebaseerd op het begrip van het systeem van hoe een menselijk lichaam eruit ziet.

Generative adversarial networks: beautiful art and terrifying deepfakes.
Het zijn zogenaamde Generative adversarial networks, of GANs, waarmee je de gezichten van beroemdheden op de lichamen van pornosterren kunt plakken, Barack Obama vanalles kunt laten zeggen wat je wilt, of iemands vingerafdruk en andere biometrische gegevens kunt vervalsen.
Hoe werkt dat? Het is een systeem met 2 netwerken. Het eerste netwerk, bekend als de generator, moet kunstmatige output produceren, zoals handschrift, video’s of stemmen, door naar trainingsvoorbeelden te kijken en te proberen deze na te bootsen. Het tweede netwerk, bekend als de discriminator, bepaalt vervolgens of de resultaten realistisch zijn door ze te vergelijken met dezelfde trainingsvoorbeelden.
“Als een wedstrijd tussen een kunstvervalser en een kunstdetective die elkaar herhaaldelijk proberen te slim af te zijn”.

Hoe the Wall Street Journal journalisten leert om deepfakes te detecteren.

Artificial intelligence is fueling the next phase of misinformation.
De Wall Street Journal leidt inmiddels haar journalisten op om gemanipuleerde deepfake video’s te kunnen detecteren. Journalisten leren bijvoorbeeld om frame voor frame een video te bekijken in een videobewerkingsprogramma om onnatuurlijke vormen en toegevoegde elementen te vinden. In een professioneel programma kunnen journalisten de opname vertragen, het beeld inzoomen en frame voor frame bekijken.
Wall Street Journal heeft drie tips om deepfakes te detecteren:
-Benader direct de bron en gebruik je redactioneel oordeel.
-Bekijk aandachtig de metadata van de video of afbeelding
-Controleer of er oudere versies van de beelden online staan.
Dit artikel noemt daarnaast een MIT-onderzoek naar de verspreiding van nepnieuws op Twitter. Daarin ontdekten onderzoekers dat “leugens aanzienlijk verder, sneller, dieper en breder werden verspreid dan de waarheid”. Nepverhalen hadden 70 procent meer kans om te worden geretweet dan de waarheid. Nieuws => emotie => gedrag.

Deepfakes: ‘The next generation of disinformation’
Deepfakes zijn door AI gecreëerde nepvideo’s.
Deepfake technologie zal gebruikers wereldwijd in staat stellen om video’s te maken van vrijwel iedereen en deze hoofdpersonen vanalles te laten doen (en zeggen). Dit kan enorme schade berokkenen aan individuele personen, maar ook aan de samenleving. Op grote schaal kunnen video’s worden gefabriceerd waarin politici, bestuurders, publieke figuren, klokkenluiders dingen doen die nooit hebben plaatsgevonden
Dit zijn de risico’s:
-In (politiek) ontvlambare situaties (politici in overleg met buitenlandse tegenstanders of zelfs militairen die misdaden begaan tegen burgers).
-Identiteitsfraude wordt geavanceerder.
-Mensen worden chantabel omdat je met gemak een nep-video kunt produceren met hen in de hoofdrol.
-Het publiceren van een niet geverifieerde nepvideo kan daarnaast de reputatie van een betrouwbaar nieuwsprogramma bezoedelen en er uiteindelijk toe leiden dat burgers het vertrouwen in media-instellingen verder verliezen.
-Een ander gevaar is dat journalisten in filmpjes verschijnen in compromitterende situaties om ze zo in diskrediet te brengen.
-Maar het risico voor de samenleving is vooral dat mensen apathisch worden voor wat ze zien en horen. Je kunt immers als burger niet meer geloven wat je ziet of hoort. Alles kan nep zijn. Reality-apathy. Kwaadwillenden krijgen dan meer speelruimte. Ze kunnen bewijsmateriaal afdoen als Deepfake manipulaties.

ps: Op dit moment is de technologie nog imperfect en heb je wel wat kennis van zaken nodig. Evolutie in het internettijdperk leert ons echter dat deze technologie gebruiksvriendelijker gaat worden.

Wat zijn tegenmaatregelen:
-Slimme computers moeten op zoek naar imperfecties in gemanipuleerde video’s die onzichtbaar zijn voor het menselijk oog.
-Overheden en technologiebedrijven moeten samenwerken om deze detectietechnologie verder te ontwikkelen en op grote schaal beschikbaar te stellen.
-Burgers moeten getraind worden om nepnieuws te herkennen (taak van de overheid), ook wanneer deze door technologie vrijwel perfect gemanipuleerd is.
-Sociale media en digitale platformen moeten hun eigen detectiesoftware creëren en veel scherper reageren op nepnieuws.

Een oogscannende leugendetector creëert mogelijk een dystopische toekomst.
In Amerika wordt er bij sollicitatiegesprekken soms een ouderwetse fysieke leugendetector gebruikt. Deskundigen waarschuwen al langere tijd voor het gebrek aan precisie.
Het bedrijf EyeDetect biedt software aan dat volgens hen als leugendetector gebruikt kan worden. Door het vastleggen van onwaarneembare veranderingen in de ogen van een deelnemer – bijvoorbeeld pupilverwijding – claimt het bedrijf leugens te kunnen . detecteren.
Van deze software wordt gezegd dat het “de toekomst” is. Het programma heeft maar 30 minuten nodig (i.p.v. een paart uur) en is veel goedkoper. De zorg van experts is dan ook dat dit soort software breed gebruikt gaat worden En dat het systeem wordt gezien als onfeilbaar en objectief.

Detecteren van leugens met behulp van AI systemen.

AI systemen zouden theoretisch gezien dienst kunnen doen als leugendetector.
Kunstmatig intelligente systemen kunnen immers bepalen:
-wat iemand zegt (inhoud)
-hoe hij / zij dit zegt
-hoe snel/langzaam/diep iemand ademhaalt (audio)
-hoe wij non-verbaal communiceren (gebaren, oogbewegingen, vlekken in de nek)
-en ze kunnen middels een camera gezichtsexpressies (emotie-detectie) analyseren op microniveau.
Maar er zijn voldoende bedenkingen.

Hoe herken je nep-portretfoto’s die door AI zijn gemaakt?

Kunstmatige intelligente systemen zijn steeds beter in staat om zelf foto’s te genereren. Specialisatie zit nu vooral op het gebied van portretfoto’s. Maar hoe onderscheid je een nepfoto van een echte? Hier een aantal tips.
-Steil haar ziet eruit als een soort verf
-Achtergrond is surrealistisch
-Asymmetrie
-Vreemde tanden
-Opvallende gender-kenmerken
..Opvallend hoeveel moeite het mij kost om onderscheid te maken tussen foto’s van echte mensen en nepfoto’s, gecreëerd door kunstmatig intelligente systemen. Post-truth world.

10 aanbevelingen voor implementatie van AI na een jaar van schandalen.

Het jaarlijkse Artificial Intelligence NOW rapport benoemt de belangrijkste problemen rondom AI en doet aanbevelingen voor het reguleren en verantwoorden van kunstmatige intelligentie. Ik selecteerde er een paar.
1. Regeringen moeten kunstmatige intelligentie reguleren door sector-specifieke instanties bevoegdheden te geven om deze technologie per domein te kunnen controleren en monitoren. Denk daarbij aan gezondheidszorg, onderwijs juridisch en welzijn.
2. Steeds meer bedrijven claimen met kunstmatig intelligente systemen gevoelsleven, geestelijke gezondheid, medewerkers-betrokkenheid en persoonlijkheid te kunnen detecteren op basis van videobeelden of opname van stemmen. Hier dient strenge regelgeving te worden geïmplementeerd om het algemeen belang te beschermen.
3. Technologiebedrijven moeten niet alleen ethische richtlijnen hebben maar ook serieuze interne verantwoordingsstructuren. Ze moeten het excuus van “bedrijfsgeheim” loslaten: het staat de controle en begrip van hun software in de weg.
4. Medewerkers van technologiebedrijven hebben het recht om te weten waar ze mee bezig zijn en moeten zich van dergelijk werk kunnen onthouden zonder vergelding. Werknemers die ethische kwesties aan de orde stellen moeten worden beschermd.
5. Voor een zinvolle verantwoording moeten we alle onderdelen van een kunstmatig intelligent systeem en de volledige toeleveringsketen waarop het systeem is gebaseerd beter begrijpen en kunnen volgen. Van oorsprong tot eindoordeel. Trainingsdata, test gegevens, API’s, modellen en alle andere infrastructurele componenten.

Kunstmatige intelligentie en het ontbreken van gezond verstand.
Een interessant artikel over het gebrek aan “gezond verstand” in kunstmatig intelligente systemen. Dit soort systemen zijn goed in het herkennen van patronen uit grote hoeveelheden data, maar raken snel in de war wanneer de input ook maar íets verandert.
Menselijke intelligentie is veel krachtiger omdat we goed getraind zijn in het herkennen van verbanden in de fysieke wereld. We hebben maar slechts een paar voorbeelden nodig om een patroon te kunnen herkennen. Wij snappen veel meer van de logica van de grillige wereld.
-Wanneer kinderen een tractor voor het eerst zien, snappen ze dat het een soort auto is.
-Wanneer je een bal in de lucht gooit, dat deze weer op de grond valt.
-Wanneer je je sokken in een la stopt, deze er waarschijnlijk een paar seconden later nog gewoon liggen.
-Wanneer je op iemands tenen staat, deze persoon waarschijnlijk boos wordt.
Wij als mensen hebben een onzichtbare, vreemde impliciete manier om de wereld te begrijpen. Om dit aan machines bij te brengen is ongelooflijk moeilijk.
En waarom zou het trouwens zinnig zijn om het denkvermogen van mensen na te bootsen. “We hebben immers al heel veel mensen die kunnen denken als mensen: misschien zit de waarde van slimme machines er wel in dat ze juist heel anders denken dan wij. Sterker nog: ze zijn waarschijnlijk waardevoller met de capaciteiten die wij niet hebben.”

AI systeem genereert volledig virtuele 3D wereld op basis van voorbeelden.
Een nieuwe stap in het genereren van volledig 3D virtuele werelden door kunstmatig intelligente systemen. Dit systeem van NVIDIA werd getraind op basis van beelden uit de echte wereld. Video zien = geloven.
Met deze technologie kunnen er nieuwe interactieve 3D virtuele werelden gegenereerd worden voor bijv. trainingsdoeleinden. Deze nieuwe manier verlaagt sterk de kosten van het creëren van een virtuele digitale wereld, zoals nu soms in Hollywood of de gaming industrie al gebeurt. Ook kan een gedeelte van een omgeving makkelijk verwijderd of aangepast worden. Dit soort software creëert bijvoorbeeld een veilige trainingsomgeving voor andere intelligente systemen, zoals zelfrijdende auto’s.

Software leert een depressie te herkennen.
Ik schreef er al eerder over in mijn nieuwsbrief: slimme algoritmen die emotionele ziektebeelden kunnen detecteren. Een nieuwe stap is nu gezet. Een onderzoeksteam van Stanford ontdekte zeer recent dat een AI systeem de signalen van depressie met redelijke nauwkeurigheid kan detecteren.
De onderzoekers voerden videobeelden van depressieve en niet-depressieve mensen in in een systeem dat werd getraind op een aantal verschillende signalen: gelaatsuitdrukkingen, intonatie en gesproken woorden. Het systeem was voor 80% in staat om vast te stellen of iemand depressief was.
Dit kan handig zijn omdat mensen op deze wijze thuis al makkelijker gediagnosticeerd zouden kunnen worden. Zo omzeil je de drempel van schaamte, sociale stigmatisering en grote financiële kosten. Wordt vervolgd….

Alexa verandert ons “Mens zijn”.
Dit artikel is absoluut lezenswaardig omdat het licht schijnt op de manier waarop Alexa en aanverwante assistenten ons mogelijk gaan veranderen.
Omgang met Alexa beïnvloedt ons mens-zijn. Here-we-go.
Ik heb het al vaker gezegd: wanneer slimme digitale assistenten nog intelligenter worden, gaan mensen vriendschappelijke gevoelens beleven in relatie met dit soort software. Zonder schaamte kunnen wij namelijk onze gevoelens en gedachten delen. De digitale assistent heeft altijd aandacht, een luisterend oor en zal nooit bot reageren. En hoewel we met ons hoofd wel weten dat het digitale technologie is, vertelt ons brein dat we praten met iemand anders. We zijn evolutionair nog niet gewend aan het idee dat een pratende stem geen mens is.
En omdat de grote softwarebedrijven steeds beter worden in het distilleren van onze gemoedstoestand uit onze spraak, zal het onderlinge gesprek binnenkort dus ook soepeler lopen. De software weet hoe je je voelt en speelt daarop in. Onze relatie wordt dus steeds intiemer met Alexa. Voor veel mensen is deze surrogaat vriendschap denk ik voldoende, ben ik bang.

NB.1.: De volgende technologische stap is dat uit onze spraak eventuele emotionele problemen gedistilleerd kunnen worden zoals depressie, angststoornissen of posttraumatische stress
NB.2.: Amazon zegt dat in 2017 maar liefst 1 miljoen mensen een huwelijksaanzoek deden richting Alexa. Velen deden dit natuurlijk voor de grap, maar het getal is opvallend.
Niet alleen wanneer het gaat om vriendschap, maar vooral de handelingen zonder wrijving (micro-convenience oftewel frictionlessness) zorgt ervoor dat we niet kritisch meer kijken naar onze eigen consumptie. Het gaat vanzelf. We hoeven letterlijk niet meer na te denken. Niet meer reflecteren op onze verlangens en wensen die we bevredigen met consumeren. Want: Frictionlessness voorkomt ongemak en daarin ligt juist onze menselijke reflectie.

En wanneer Alexa ons continu en snel voorziet in onze behoeften, wat doet dit met onze frustratietolerantie? Heeft dit device een vergelijkbare werking als de smartphone op onze verveling? Dat we ons niet meer kunnen vervelen omdat we altijd onze smartphone in onze zak hebben? Dat we minder frustatie kunnen verdragen omdat we gewend zijn aan mee-denkende software die snel onze behoeftes bevredigd? De praktische jeuk wegneemt in ons dagelijks leven?
Tevens zet de auteur vraagtekens bij de rol van een virtuele vriend die altijd dienstbaar met je mee buigt en nooit, (zoals in het echte leven) je spiegelt op jouw gedrag of manier van doen. Als een ouder of vriend die conflicten no matter what wil voorkomen; ook wanneer je het er zelf naar gemaakt hebt. Volgens mij is dat geen goeie vriend.

Alexa = hands free: routine decisions made frictionless
Al langere tijd ben ik geïnteresseerd in de opkomst van de digitale virtuele spraakassistenten. Ik zie dit als een duidelijke technologische trend.
Maar vergis je niet: ik ben niet enkel enthousiast. Deze assistenten bieden hun diensten aan in ruil voor ‘micro convenience’ zoals dat zo mooi wordt genoemd in dit artikel. Kleine handelingen van gemak. Even de praktische jeuk wegnemen binnen je dagelijkse routine. Handig en comfortabel, maar tegelijkertijd verzamelen dit soort apparaten ongekende hoeveelheden data. Corporate surveillance is een realistisch scenario.
Mijn zorg zit niet alleen in het mogelijke ‘meeluisteren’ van dit soort apparaten, maar ook in de andere (met Alexa gekoppelde) producten die data genereren en op deze wijze iets vertellen over je dagelijkse leven.
Steeds meer fysieke apparaten krijgen namelijk Alexa-achtige software omdat Amazon deze gratis beschikbaar stelt. Zo weet Amazon wat je hebt klaargemaakt in je Alexa magnetron, kan het meekijken met je Amazon Ring deurbel-camera en dankzij ‘Echo Auto’ kan het bedrijf zien wanneer je vertrekt en thuiskomt.
Niet alleen op individueel niveau, maar ook op macroniveau maakt Amazon een ongekend sterk en fijnmazig profiel van menselijk gedrag. En vergeet niet: het is en blijft een commercieel bedrijf.

People analytics met “Fact based HRM”: Groeiend probleem of grote kans?
Artikel van de Groene over HR-analytics: het meten, analyseren en registreren van personeel. En hoewel het artikel vooringenomen is (zo vinden de auteurs bijvoorbeeld dat er zeer sceptisch naar deze methoden moet worden gekeken en dat “analyse” vooral een breekijzer lijkt te zijn om ontslagen makkelijker te maken) is het artikel toch de moeite waard te lezen.
Take-aways:
-Werkgevers krijgen, vaak zonder dat werknemers het weten, steeds meer gereedschap in handen om de medewerker te volgen en te analyseren.
-Techneuten zitten aan de knoppen en creëren vaak modellen met normatieve aannames. Ook juristen en psychologen zouden mee moeten denken en beslissen.
-Vaak wordt data verzameld zonder dat werknemers daarvoor expliciet toestemming hebben gegeven en/of erop kunnen vertrouwen dat er zorgvuldig met deze data wordt omgegaan.
-De werkdruk bij medewerkers die “de menselijke maat” leveren, wordt opgevoerd en de intrinsieke waardering om je werk goed te doen of het sociale aspect van je werk worden naar de zijlijn gedrukt.
-HR Analytics software staat bol van de hooggespannen verwachtingen.

The Dark Side: AI & Surveillance
-Lip reading software can help the surveillance state: Een nieuwe mijlpaal van Google Deepmind in de analyse van liplezen. Camerabeelden van gesproken woorden, zonder geluid kunnen met een foutpercentage van slechts 41% worden geïdentificeerd. Voor de context: het vorige resultaat had een foutpercentage van 77%. Professionele liplezers zaten op 93%. In de toekomst wordt het makkelijk om te analyseren wat iemand zegt, al kun je hem/haar niet goed horen.
-Facial recognition surveillance technology: Amazon heeft ambtenaren van de dienst Immigratie / Douane van de V.S. een demonstratie gegeven van software die vluchtelingen kan identificeren in video’s.
Dat je voorzichtig moet zijn met dit soort software bleek uit een eerder onderzoek met deze software waarin van de 435 congresleden in Amerika er 28 onterecht werden geïdentificeerd in een “mugshot” gegevensbestand. De software bleek tevens een onevenredig foutenpercentage te hebben voor getinte mensen.
-Is China bezig om een biometrische spraakdatabase samen te stellen van Chinese burgers? Waarschijnlijk wel. Het Chinese voice technology bedrijf iFlytek werkt samen met de overheid aan zo’n database. Human Rights Watch maakt zich zorgen. (Hier nog een interessante Twitter thread met een gesprek over Chinese versus westerse surveillance tools).
-Chinese surveillance software can recognise people from how they walk. Chinese steden zijn bezig met nieuwe software die mensen identificeert op basis van hun silhouet en hoe ze lopen. Zo moeten mensen geïdentificeerd kunnen worden, zelfs als hun gezichten onscherp zijn.

Digitale virtuele nieuwslezer in China
De Chinese staatstelevisie heeft gister en digitale virtuele nieuwslezer geïntroduceerd. Het bestaande uiterlijk is gekopieerd van een nieuwslezer van vlees en bloed. Bekijk je ze naast elkaar, dan zie je de verschillen, maar die worden steeds kleiner. De kunstmatig intelligente versie is nog bijvoorbeeld statisch en zijn stem is duidelijk nog wat robotachtig.
De voordelen zijn helder: de snelheid waarmee deze nieuwslezer geactiveerd kan worden bij breaking news is razendsnel. Ook kan deze digitale variant 24 uur per dag, 7 dagen per week zijn werk doen. En je kunt meerdere nieuwslezers tegelijkertijd (TV, online) laten presenteren en dat alles samen maakt het uiteindelijk goedkoper.
Kritisch op het resultaat zijn is makkelijk: het onderscheid met de menselijke nieuwslezer van vlees en bloed is nog wel duidelijk. Maar de stip op de horizon is gezet: steeds meer taken worden overgenomen door digitale avatars.

Je digitale persoonlijke assistent wordt een mens
We zijn weer een stap verder: de slimme luidspreker verandert in een levensecht mens in augmented reality. Ze heet MICA en is afkomstig van het bedrijf Magic Leap. Je kunt nu al de interactie aangaan met deze menselijke avatar (ook wel een Human Centered Artificial Intelligence genoemd) en vragen stellen. Ze reageert op wat je doet en kan je gemoedstoestand uit je ogen aflezen. Een praatje maken wordt in de toekomst mogelijk.
Deze digitale assistente MICA ziet er niet houterig of ongeloofwaardig uit, maar levensecht.
Je kunt je voorstellen hoe de toekomst eruit gaat zien. Bij thuiskomst je augmented reality bril op en vervolgens een gesprek aangaan met deze assistent.
Belangrijkste om te onthouden: we zijn op het punt aangekomen dat we levensechte virtuele personages kunnen creëren, zonder dat daar een grote Hollywoodstudio aan te pas komt. En avatars zijn niet statisch, maar in staat tot interactie.

Bitcoin Blockchain 10 jaar

Opgeschreven in 2008 door de nog steeds anonieme auteur Satoshi Nakamoto is de negen pagina’s tellende Bitcoin whitepaper de basis voor een golf van financiële innovatie die ongekend is in omvang. Bitcoin is bijvoorbeeld het bewijs dat geld kan ontstaan via een gedecentraliseerd systeem.
Wat is de waarde van Bitcoin na 10 jaar?
-Betalen met een digitale munt, 24-7-365
-Het Bitcoin systeem maakt het creëren van digitale schaarste mogelijk (digitaal kopiëren wordt tegengegaan) /Oplossen probleem van double spending (2x uitgeven dezelfde munt)
-Censuur bestendigheid (Kan niet worden geblockt of veranderd)
-Waardeoverdracht (transacties) zonder toestemming (/regie) van derde partij.
-Digitale waarde-opslag wat niet door derden in beslag kan worden genomen.
-Fysieke objecten krijgen met cryptocurrencies de mogelijkheid financiële transacties te doen.

AI systeem detecteert valse politie-verklaringen
Interessant! AI systemen worden steeds beter om waarheid en leugen van elkaar te onderscheiden. De politie zet bijv. kunstmatige intelligentie in om valse verklaringen te ontmaskeren. Een gegeven verklaring wordt (als geschreven tekst) door een AI systeem geanalyseerd en wat blijkt: een valse aangifte van een overval gaat bijv. veel vaker over de spullen die gestolen zijn dan het daadwerkelijke incident en slachtoffers kunnen in dat geval dan vaak ook minder details reproduceren. Interessante inzet van kunstmatige intelligentie. Volgens de wetenschappers is VeriPol in staat om met meer dan 80% nauwkeurigheid valse overvalrapporten te identificeren.

Alexa in je magnetron. What’s next?
Smart Software hulpje Alexa is het het middelpunt van Amazon’s wens om heer en meester te worden in het slimme huis van de toekomst. En de nieuwe Alexa Gadgets Toolkit is een manier voor programmeurs om hun apparaten aanstuurbaar te maken door Alexa. TREND: Voice-enabled devices.
Wat in deze trend wat zorgelijk is, is de vraag of we in de nabije toekomst nog apparaten kunnen kopen die niet lusiteren en de informatie naar een commercieel bedrijf sturen.
Vergeet niet: dit soort grote bedrijven hebben extreem veel marketingbudget om nieuwe technologie aan de man te brengen. Kritisch kijken blijft belangrijk.

Kunstmatig intelligente software is in staat om een depressie te detecteren.
Kunstmatig intelligente software is in staat om een depressie te detecteren op basis van gesproken en geschreven tekst. Met 77% nauwkeurigheid.
Voorspelling: …. Ik denk dat de diagnostisering van de meest bekende psychische klachten over een paar jaar wordt overgelaten aan kunstmatig intelligente systemen. Alle technologische kaarten liggen op tafel. Kunstmatig intelligente systemen kunnen bepalen:
-wat iemand zegt (inhoud)
-hoe hij / zij dit zegt (emotie-detectie)
-hoe snel/langzaam/diep iemand ademhaalt (audio)
-hoe wij non-verbaal communiceren (gebaren)
en ze kunnen middels een camera gezichtsexpressies (emotie-detectie) analyseren op microniveau.

Ik denk dat de gebruiksvriendelijke technologische mogelijkheden er binnen een paar jaar zijn, dan is het afwachten wat privacy- of vakgerelateerde wetgeving zegt. Blijft de vraag: moeten we dit willen of niet? Dat weet ik niet.
Wat als deze software wordt gebruikt bij een sollicitatie, politieverhoor of in interactie met een advocaat? Of is het handig en verlaagt het de drempel voor mensen die klachten hebben om van achter hun bureaustoel zich te laten testen zodat ze met die diagnose professionele hulp kunnen zoeken? En helpt het psychologen in hun spreekkamer?

Hoe privacyvriendelijk is én blijft Amazon’s Echo Look?
Amazon ziet de Echo Look als een manier voor klanten om modeadvies te krijgen. Met het camera-device maak je foto’s van jezelf met verschillende kleding-outfits aan en machine learning algoritmes geven je mode advies. Gaandeweg doet Amazon ook aanbevelingen van kleding die je misschien wilt kopen.
Handig, maar Amazon beschrijft niet heel duidelijk hoe ze in de toekomst met de verzamelde data omgaan.
Het device kan t.z.t. misschien een inschatting maken van:
–welke outfits je koopt (of niet) op basis van zijn aanbevelingen. (bijvoorbeeld: voorkeur voor sportieve kleding)
–welke objecten er in je (slaap-) kamer aanwezig zijn. (bijvoorbeeld: voorkeur voor blauw bedlinnen, veel make-up op je gootsteentafel)
–wat je gemoedstoestand is (gezichtsherkennings-technologie)
–Ook kan het aan je lichaam zien of je bijvoorbeeld beginnend zwanger bent.

‘Auto onderzoekt binnenkort uw gezondheid’
Onze auto wordt binnenkort een soort dokter. Sensoren in de autostoel meten de hartactiviteit door de kleding van de chauffeur heen. Radartechnologie in het dashboard monitort het hartritme en de ademhaling. En hyperspectrale camera’s meten naast het hartritme en de ademhalingssnelheid ook het zuurstofgehalte in het bloed. En met oogtracking kan parkinson of alzheimer worden gedetecteerd. Een mooi staaltje toekomstvoorspellen in de gezondheidszorg. Van achter het stuur.

Het voorspellen van natuurrampen met kunstmatige intelligentie
CASE 1: Om de waakzaamheid rondom dreigende overstromingen te vergroten, gebruikt Google AI kunstmatige intelligentie en een aanzienlijke hoeveelheid rekenkracht om betere prognosemodellen te maken die voorspellen wanneer en waar overstromingen zullen optreden. Die informatie verwerken ze in in Google Public Alerts. LINK
CASE 2: (AI en IoT om mogelijke brandhaarden te voorspellen.) Met een IoT sensor-device wordt windsnelheid, windrichting, luchtvochtigheid, temperatuur gemeten. Foto’s worden gemaakt van biomassa en daarbij word de potentiële brandbaarheid (droogte) gemeten. Het systeem voorkomt dat controleurs vele kilometers moeten afleggen voor inspectie van mogelijk brandgevaar en faciliteert dat er veel sneller brand wordt gedetecteerd.

Software stelt diagnose zonder tussenkomst specialist
Stel je eens voor dat je een foto kan uploaden in een systeem dat zonder tussenkomst van een specialist vaststelt of je ergens aan lijdt. De Amerikaanse toezichthouder FDA heeft onlangs voor het eerst een systeem goedgekeurd dat geheel autonoom vaststelt of iemand lijdt aan diabetische retinopathie. Deze aandoening aan het netvlies komt veel voor onder suikerpatiënten.

Het programma ‘IDx-DR’ analyseert met een speciaal algoritme foto’s van het netvlies van een patiënt die door een arts of verpleegkundige met een speciale camera zijn gemaakt. In een studie met ruim 900 afbeeldingen stelde IDx-DR in 87 procent van de gevallen de aandoening correct vast.
Doordat het systeem de diagnose zonder tussenkomst van een specialist stelt, kan het ook door medisch personeel gebruikt worden dat niet in oogaandoeningen is geschoold. Mogelijk zelfs nauwkeuriger dan een gespecialiseerde arts. Maar wie is uiteindelijk verantwoordelijk: mens of machine?
We gaan naar een toekomst waarin je een onrustige moedervlek thuis kunt controleren met een computervision app, net zo makkelijk als dat we nu onze temperatuur meten.

Slim Google-systeem filtert één stem uit een groep
Je kent vast wel die groepsgesprekken op Skype waar iedereen door elkaar praat en waarbij je al snel denkt: wie is nou wie?
Google heeft een slim systeem gemaakt dat met gezichtsuitdrukkingen (mondbewegingen) bepaalt welk geluid bij welke persoon hoort, vergelijkbaar met de manier waarop het menselijk brein dat ook doet.
Concrete producten zijn er nog niet, maar het zou kunnen helpen bij het dempen van bepaalde personen in een conference call om de verstaanbaarheid ten goede te laten komen. Of het automatisch notuleren van een vergadering.
Of het ook in mensenmassa’s werkt is niet duidelijk, maar dan zou het potentieel interessant zijn voor politie om stemmen uit de massa te filteren.

Algoritme maakt levensechte foto’s van niet-bestaande mensen
Chipfabrikant NVIDIA heeft een systeem ontwikkeld dat uit bestaande foto’s van bekende personen nieuwe realistische en levensechte afbeeldingen van mensen maakt – indrukwekkend en eng tegelijkertijd.
Hiervoor maakt het gebruik van nieuw type algoritme, een generative adversarial network (GAN). Dit algoritme zet twee neurale netwerken tegelijkertijd aan het werk. Het ene genereert de afbeeldingen op basis van een database met foto’s van bekende mensen, terwijl de ander kijkt of de ontstane afbeelding nog verder kan worden verbeterd. Check vooral de video in het gelinkte artikel.
Al met al razend interessante ontwikkelingen die de scheidslijnen tussen mens en machine verder vervagen. Maar je zou ze ook eenvoudig voor negatieve doelen zou kunnen gebruiken. Zo ogen in de toekomst bots die desinformatie verspreiden nog realistischer dankzij een unieke foto? En hoe zit het met identiteitsfraude? Zijn we nu definitief beland in een tijdperk waarin we onze ogen niet meer kunnen vertrouwen?

Waarom chatbots niet ‘the next big thing’ werden
Chatbots zouden in 2016 ‘the next big thing’ worden en het zou de manier waarop we met bedrijven communiceren ingrijpend veranderen. Aan enthousiasme geen gebrek. Ook bij Dave Feldman die er zijn baan bij Google voor verruilde; hij werd verantwoordelijk voor het ontwerp van Facebook’s Messenger bot-platform. De voorspelde veranderingen werden nooit realiteit. Nu blikt hij terug (en vooruit).
Dat de chatbot-revolutie uitbleef, wijt hij onder meer aan de onvolwassenheid van de platformen en dat het super-ingewikkeld is om echte gesprekken te voeren. De focus op enkel het uitwisselen van berichten zorgde tegelijkertijd voor verschraling van alle mogelijkheden die platformen konden bieden. Less = soms ook less.
Hoewel eerdere voorspellingen niet uitkwamen, durft Feldman het toch aan om zelf enkele voorspellingen te doen. Zo denkt hij dat bedrijven meer met messaging gaan doen, bijvoorbeeld voor betalingen, CRM en locatie-gebaseerde diensten. Zolang mensen met elkaar blijven converseren zal messaging blijven bestaan, besluit Feldman zijn interessante analyse.

Sciencefiction wordt werkelijkheid: de donkere kant van digitaal.
Ik werd geïnterviewd door de NOS voor een artikel. Insteek: “Sciencefiction wordt werkelijkheid.” Over de donkere kant van kunstmatige intelligentie. Dit naar aanleiding van de documentaire ‘Do you trust this computer’ (tijdelijk gratis beschikbaar gesteld door Elon Musk).

AI maakt superrealistisch fakenews met het grootste gemak.
Daarover gesproken: Ik heb het al eerder laten zien in deze nieuwsbrief: digitale content kan steeds beter worden gemanipuleerd. Foto’s en video’s worden accuraat en niet te onderscheiden van de realiteit voor het menselijk oog en oor. Gezichtsuitdrukkingen, stemmen, lipbewegingen kunnen steeds beter gemanipuleerd worden. Over een paar jaar weet je niet meer wat echt is en de realiteit. Wat we nu verstaan onder fake nieuws is nog maar het begin.
Stel je eens voor dat er een nep-video opduikt van Israëlische militairen die gruweldaden toegeven tegen de Palestijnen? Vonk in een kruidvat?
Met realistisch fake news kan onrust worden gezaaid. Of mensen worden juist onverschillig omdat ze niet meer weten wie of wat ze kunnen vertrouwen. Ook het afpersen van anderen met gemanipuleerd materiaal wordt kinderspel. Faceswap Blackmailing Videoporn is een makkelijk verdienmodel voor cybercriminelen.

Big brother is watching you: ook in de winkel. Is dat wel okee?
Future of retail! Het bedrijf Aipoly maakt niet alleen kassa’s overbodig, maar kwantificeert ook alles.
De software registreert onder andere (let op!) hoeveel klanten er binnenkomen, wat ze pakken en in hun mandje stoppen, of ze een zakje open maken of een flesje. Hoe lang ze treuzelen bij een product, of ze er lang naar staan te kijken, of ze het terugleggen etcetera.
En natuurlijk herkent het systeem ook geslacht, leeftijd, etniciteit en na verloop van tijd vast en zeker ook gemoedstoestand… Technologie krijgt ogen om te zien en toont de resultaten in excelsheets en dashboards. Superhandig voor de winkelier, maar hoe zit dat met onze privacy?

AI als ‘emotioneel zesde zintuig’ voor callcenter-medewerkers. Is dat wel okee?
De Amerikaanse verzekeraar MetLife gebruikt speciale software, Cogit, die de stem van klantenservice-medewerkers analyseert. Zo laat het een afbeelding van een koffiekopje op het computerscherm zien wanneer het bij de medewerker vermoeidheid detecteert.
Cogito detecteert niet alleen toon en emotie bij callcenter-medewerkers, maar ook bij de klant. Het systeem is een “empathy adviser” voor de klantenservice medewerker. Als een gesprek onplezierig dreigt te worden, toont de software aanwijzingen voor de medewerker om het weer positief te laten verlopen. Ook detecteert de software langere stiltes (twijfel) of wanneer beller en medewerker door elkaar heen spreken.
Siri, Alexa en andere mogelijkheden van voice recognition technology zijn nog beperkt, vandaar deze aanvullende technologie. Volgens Cogito worden medewerkers empathischer en zelfs efficiënter. Op zich niks mis mee, maar wat als het systeem na een update gaat detecteren wanneer een medewerker vrijwel niks met de “empathische suggesties” doet. Is het dan ‘exit medewerker’ op een geautomatiseerde manier?

Amazon: Het hoogst haalbare in conversational technology: smalltalk met Alexa.

.And toothpaste is just mouth soap. Amazon heeft haar pijlen gericht op het hoogst haalbare in conversationeel interfaces: De virtuele assistent Alexa die in staat is tot small talk; kletspraat, chitchat. De Amazon Prize competitie loofde 1 miljoen dollar uit aan een team dat het Alexa systeem 20 minuten kan laten kletsen met een mens.
Twintig minuten praten met een computer is extreem lastig. Dat doel is niet eens meer een “moonshot” te noemen, het is meer een “vakantie naar Mars” als we in de planeten-vergelijking willen blijven. Wat voor ons als mensen makkelijk is, is voor computers supermoeilijk.
Interessant: Een deelnemend team van de Alexa Prize competitie gebruikte bijvoorbeeld een database met filmondertitelingen en duizenden berichtenthreads van Twitter en Reddit om een algoritme te trainen. En dan blijkt het dus een uitdaging om de bot niet te vaak “OK”, “sure” of juist ongepaste opmerkingen te laten maken.
Met een gemiddelde gespreksduur van 10 minuten en 22 seconden (!) won trouwens de Universiteit van Washington.
Inmiddels werken er meer dan 5.000 mensen bij Amazon aan het Alexa systeem. De trend is glashelder. De toekomst zal worden gedomineerd door gesprekken met conversational interfaces. En Alexa heeft hele goeie kaarten om de markt te leiden

AI verslaat wederom medisch specialisten
Binnen nu en 5 jaar neemt AI veel van de diagnosticering over die plaatsvindt binnen de medische sector. AI systemen kunnen vaak beter, sneller en accurater visuele input omzetten in relevante diagnoses. Kunstmatige intelligentie presteert in bovengenoemde onderzoek beter dan 42 dermatologisch experts in de analyse van nagelschimmel.

De Apple Watch kan door AI systeem diabetes voorspellen met een nauwkeurigheid van 85%.
In deze specifieke studie werden gegevens gebruikt van 14.000 Apple Watch-gebruikers. Onderzoekers konden met een algoritme vaststellen dat 462 van hen diabetes hadden door de gegevens van de hartslagsensor van het horloge te analyseren. 85% daarvan bleek juist te zijn voorspeld.
Eerder konden deze onderzoekers al gegevens van de Apple watch gebruiken om een abnormaal hartritme te detecteren (nauwkeurigheid 97 procent), slaapapneu (90 procent) en hypertensie (82 procent).
Zou mooi zijn wanneer deze analyse uiteindelijik zou plaatsvinden in het horloge en op basis van de data adviezen en notificaties kan geven.
AI gaat ziektes en ziekteverloop voorspellen.

Google kan de toekomst van een patiënt in een ziekenhuis voorspellen.
Google claimt dat het met algoritmes goede voorspellingen kan doen over het verloop van de opname van een patiënt in een ziekenhuis. Bijvoorbeeld wanneer een patiënt wordt ontslagen, opnieuw wordt aangemeld en wat hun definitieve diagnose zal zijn. Er werden gegevens gebruikt van 216 duizend volwassenen; goed voor meer dan 46 miljard data-punten.
Google’s grootste claim is de mogelijkheid om patiëntensterfte 24-48 uur eerder te voorspellen dan huidige methodes. Artsen zouden met deze data nog levensreddende procedures kunnen starten.

Google-algoritme kan hartproblemen voorspellen
Met behulp van een scan van de achterkant van iemands oog kan Google voorspellen hoe groot de kans op hartproblemen is.

De Google Assistant gaat Nederlands praten.
Ein-de-lijk: de Google Assistant gaat binnenkort zeven nieuwe talen spreken, waaronder Nederlands. Het zal dan niet lang meer duren denk ik voordat de Google Home smart speaker eindelijk ook in Nederland te koop zal zijn.

Japanse onderzoekers gebruiken AI om gedachten te visualiseren.
Er wordt steeds meer resultaat geboekt in AI gerelateerd onderzoek om gedachten te decoderen.
In dit onderzoek werden eerst de hersenactiviteit van mensen geanalyseerd die naar een plaatje keken óf met terugwerkende kracht aan een plaatje dachten. Deze informatie werd vervolgens gebruikt om visualisaties van de gedachten van een mens te maken. Bij het “denken aan een plaatje met terugwerkende kracht” werd het overigens voor het AI systeem moeilijker om iets te visualiseren.
Check de afbeeldingen in het artikel om een beeld te krijgen van de kwaliteit ervan. Soms al best goed!
Wanneer deze technologie zich verder ontwikkeld kunnen je dromen door een computer worden gevisualiseerd en kunnen mensen die volledig beperkt zijn in hun communicatie toch aan anderen laten zien wat er in hen omgaat.

AI ontdekt 17 keer meer aardbevingen
Een nieuw AI-systeem genaamd ConvNetQuake is het eerste neurale netwerk ontworpen om aardbevingen te kunnen lokaliseren.
Het gespecialiseerde algoritme kan seismische activiteit analyseren en bepaalt dan of het al dan niet gewoon “ruis” of een aardbeving is. Historisch gezien was het erg moeilijk om zeer kleine aardbevingen te detecteren als gevolg van diezelfde “ruis” maar ConvNetQuake kan dus het onderscheid maken. Volgende stap: aarbevingen voorspellen met grote precisie.

Soul Machines: de digitale (klantenservice) medewerker van de toekomst.
Ik volg al een tijdje het NieuwZeelandse bedrijf Soul Machines. Vorig jaar lieten ze een demo zien van Baby X, een baby-avatar softwareprogramma dat kon kijken en met spraak reageren op wat je deed.
Inmiddels werkt Soul Machines aan een (zo levensecht mogelijke) emotionally responsive avatar. De digitale schaalbare medewerker van de toekomst. Nog niet perfect en nog niet 100% natuurgetrouw, maar de trend is glashelder; de digitale (service) medewerker van de toekomst. 24 uur per dag, 7 dagen pre week, 365 dagen per jaar beschikbaar. Lerend van interactie.
In de toekomst: Steeds meer in staat om een gesprek te voeren. Steeds meer in staat om met onverwachte situaties om te gaan. Steeds beter in staat om emoties te herkennen en daar op in te spelen. Check de video!

Face-Swap Porno is in opkomst. En juridisch staan slachtoffers zwak.
We gaan nog even door: Face-Swap Porno. Je leest het goed. Met een foto (van een celebrity) én een kunstmatig intelligent software programma (Deepfakes) kun je relatief makkelijk het gezicht van iemand anders op die van een porno actrice plakken. Wederom: fakevideo’s maken in een handomdraai. Gedupeerden hebben vrijwel geen juridische mogelijkheden om aanspraak op te doen.
Voeg daar de human-like speech generation software van Google aan toe en je vraagt je af: wat is nog echt en wat is fake?

Mijn klanten