Dit zijn artikelen die ik via mijn nieuwsbrief heb gedeeld. Hier zie je het archief en hier kun je je abonneren.
===============

Een oogscannende leugendetector creëert mogelijk een dystopische toekomst.
In Amerika wordt er bij sollicitatiegesprekken soms een ouderwetse fysieke leugendetector gebruikt. Deskundigen waarschuwen al langere tijd voor het gebrek aan precisie.
Het bedrijf EyeDetect biedt software aan dat volgens hen als leugendetector gebruikt kan worden. Door het vastleggen van onwaarneembare veranderingen in de ogen van een deelnemer – bijvoorbeeld pupilverwijding – claimt het bedrijf leugens te kunnen . detecteren.
Van deze software wordt gezegd dat het “de toekomst” is. Het programma heeft maar 30 minuten nodig (i.p.v. een paart uur) en is veel goedkoper. De zorg van experts is dan ook dat dit soort software breed gebruikt gaat worden En dat het systeem wordt gezien als onfeilbaar en objectief.

Detecteren van leugens met behulp van AI systemen.

AI systemen zouden theoretisch gezien dienst kunnen doen als leugendetector.
Kunstmatig intelligente systemen kunnen immers bepalen:
-wat iemand zegt (inhoud)
-hoe hij / zij dit zegt
-hoe snel/langzaam/diep iemand ademhaalt (audio)
-hoe wij non-verbaal communiceren (gebaren, oogbewegingen, vlekken in de nek)
-en ze kunnen middels een camera gezichtsexpressies (emotie-detectie) analyseren op microniveau.
Maar er zijn voldoende bedenkingen.

Hoe herken je nep-portretfoto’s die door AI zijn gemaakt?

Kunstmatige intelligente systemen zijn steeds beter in staat om zelf foto’s te genereren. Specialisatie zit nu vooral op het gebied van portretfoto’s. Maar hoe onderscheid je een nepfoto van een echte? Hier een aantal tips.
Steil haar ziet eruit als een soort verf
Achtergrond is surrealistisch
Asymmetrie
Vreemde tanden
Opvallende gender-kenmerken
..Opvallend hoeveel moeite het mij kost om onderscheid te maken tussen foto’s van echte mensen en nepfoto’s, gecreëerd door kunstmatig intelligente systemen. Post-truth world.

10 aanbevelingen voor implementatie van AI na een jaar van schandalen.

Het jaarlijkse Artificial Intelligence NOW rapport benoemt de belangrijkste problemen rondom AI en doet aanbevelingen voor het reguleren en verantwoorden van kunstmatige intelligentie. Ik selecteerde er een paar.
1. Regeringen moeten kunstmatige intelligentie reguleren door sector-specifieke instanties bevoegdheden te geven om deze technologie per domein te kunnen controleren en monitoren. Denk daarbij aan gezondheidszorg, onderwijs juridisch en welzijn.
2. Steeds meer bedrijven claimen met kunstmatig intelligente systemen gevoelsleven, geestelijke gezondheid, medewerkers-betrokkenheid en persoonlijkheid te kunnen detecteren op basis van videobeelden of opname van stemmen. Hier dient strenge regelgeving te worden geïmplementeerd om het algemeen belang te beschermen.
3. Technologiebedrijven moeten niet alleen ethische richtlijnen hebben maar ook serieuze interne verantwoordingsstructuren. Ze moeten het excuus van “bedrijfsgeheim” loslaten: het staat de controle en begrip van hun software in de weg.
4. Medewerkers van technologiebedrijven hebben het recht om te weten waar ze mee bezig zijn en moeten zich van dergelijk werk kunnen onthouden zonder vergelding. Werknemers die ethische kwesties aan de orde stellen moeten worden beschermd.
5. Voor een zinvolle verantwoording moeten we alle onderdelen van een kunstmatig intelligent systeem en de volledige toeleveringsketen waarop het systeem is gebaseerd beter begrijpen en kunnen volgen. Van oorsprong tot eindoordeel. Trainingsdata, test gegevens, API’s, modellen en alle andere infrastructurele componenten.

Kunstmatige intelligentie en het ontbreken van gezond verstand.
Een interessant artikel over het gebrek aan “gezond verstand” in kunstmatig intelligente systemen. Dit soort systemen zijn goed in het herkennen van patronen uit grote hoeveelheden data, maar raken snel in de war wanneer de input ook maar íets verandert.
Menselijke intelligentie is veel krachtiger omdat we goed getraind zijn in het herkennen van verbanden in de fysieke wereld. We hebben maar slechts een paar voorbeelden nodig om een patroon te kunnen herkennen. Wij snappen veel meer van de logica van de grillige wereld.
-Wanneer kinderen een tractor voor het eerst zien, snappen ze dat het een soort auto is.
-Wanneer je een bal in de lucht gooit, dat deze weer op de grond valt.
-Wanneer je je sokken in een la stopt, deze er waarschijnlijk een paar seconden later nog gewoon liggen.
-Wanneer je op iemands tenen staat, deze persoon waarschijnlijk boos wordt.
Wij als mensen hebben een onzichtbare, vreemde impliciete manier om de wereld te begrijpen. Om dit aan machines bij te brengen is ongelooflijk moeilijk.
En waarom zou het trouwens zinnig zijn om het denkvermogen van mensen na te bootsen. “We hebben immers al heel veel mensen die kunnen denken als mensen: misschien zit de waarde van slimme machines er wel in dat ze juist heel anders denken dan wij. Sterker nog: ze zijn waarschijnlijk waardevoller met de capaciteiten die wij niet hebben.”

AI systeem genereert volledig virtuele 3D wereld op basis van voorbeelden.
Een nieuwe stap in het genereren van volledig 3D virtuele werelden door kunstmatig intelligente systemen. Dit systeem van NVIDIA werd getraind op basis van beelden uit de echte wereld. Video zien = geloven.
Met deze technologie kunnen er nieuwe interactieve 3D virtuele werelden gegenereerd worden voor bijv. trainingsdoeleinden. Deze nieuwe manier verlaagt sterk de kosten van het creëren van een virtuele digitale wereld, zoals nu soms in Hollywood of de gaming industrie al gebeurt. Ook kan een gedeelte van een omgeving makkelijk verwijderd of aangepast worden. Dit soort software creëert bijvoorbeeld een veilige trainingsomgeving voor andere intelligente systemen, zoals zelfrijdende auto’s.

Software leert een depressie te herkennen.
Ik schreef er al eerder over in mijn nieuwsbrief: slimme algoritmen die emotionele ziektebeelden kunnen detecteren. Een nieuwe stap is nu gezet. Een onderzoeksteam van Stanford ontdekte zeer recent dat een AI systeem de signalen van depressie met redelijke nauwkeurigheid kan detecteren.
De onderzoekers voerden videobeelden van depressieve en niet-depressieve mensen in in een systeem dat werd getraind op een aantal verschillende signalen: gelaatsuitdrukkingen, intonatie en gesproken woorden. Het systeem was voor 80% in staat om vast te stellen of iemand depressief was.
Dit kan handig zijn omdat mensen op deze wijze thuis al makkelijker gediagnosticeerd zouden kunnen worden. Zo omzeil je de drempel van schaamte, sociale stigmatisering en grote financiële kosten. Wordt vervolgd….

Alexa verandert ons “Mens zijn”.
Dit artikel is absoluut lezenswaardig omdat het licht schijnt op de manier waarop Alexa en aanverwante assistenten ons mogelijk gaan veranderen.
Omgang met Alexa beïnvloedt ons mens-zijn. Here-we-go.
Ik heb het al vaker gezegd: wanneer slimme digitale assistenten nog intelligenter worden, gaan mensen vriendschappelijke gevoelens beleven in relatie met dit soort software. Zonder schaamte kunnen wij namelijk onze gevoelens en gedachten delen. De digitale assistent heeft altijd aandacht, een luisterend oor en zal nooit bot reageren. En hoewel we met ons hoofd wel weten dat het digitale technologie is, vertelt ons brein dat we praten met iemand anders. We zijn evolutionair nog niet gewend aan het idee dat een pratende stem geen mens is.
En omdat de grote softwarebedrijven steeds beter worden in het distilleren van onze gemoedstoestand uit onze spraak, zal het onderlinge gesprek binnenkort dus ook soepeler lopen. De software weet hoe je je voelt en speelt daarop in. Onze relatie wordt dus steeds intiemer met Alexa. Voor veel mensen is deze surrogaat vriendschap denk ik voldoende, ben ik bang.

NB.1.: De volgende technologische stap is dat uit onze spraak eventuele emotionele problemen gedistilleerd kunnen worden zoals depressie, angststoornissen of posttraumatische stress
NB.2.: Amazon zegt dat in 2017 maar liefst 1 miljoen mensen een huwelijksaanzoek deden richting Alexa. Velen deden dit natuurlijk voor de grap, maar het getal is opvallend.
Niet alleen wanneer het gaat om vriendschap, maar vooral de handelingen zonder wrijving (micro-convenience oftewel frictionlessness) zorgt ervoor dat we niet kritisch meer kijken naar onze eigen consumptie. Het gaat vanzelf. We hoeven letterlijk niet meer na te denken. Niet meer reflecteren op onze verlangens en wensen die we bevredigen met consumeren. Want: Frictionlessness voorkomt ongemak en daarin ligt juist onze menselijke reflectie.

En wanneer Alexa ons continu en snel voorziet in onze behoeften, wat doet dit met onze frustratietolerantie? Heeft dit device een vergelijkbare werking als de smartphone op onze verveling? Dat we ons niet meer kunnen vervelen omdat we altijd onze smartphone in onze zak hebben? Dat we minder frustatie kunnen verdragen omdat we gewend zijn aan mee-denkende software die snel onze behoeftes bevredigd? De praktische jeuk wegneemt in ons dagelijks leven?
Tevens zet de auteur vraagtekens bij de rol van een virtuele vriend die altijd dienstbaar met je mee buigt en nooit, (zoals in het echte leven) je spiegelt op jouw gedrag of manier van doen. Als een ouder of vriend die conflicten no matter what wil voorkomen; ook wanneer je het er zelf naar gemaakt hebt. Volgens mij is dat geen goeie vriend.

Alexa = hands free: routine decisions made frictionless
Al langere tijd ben ik geïnteresseerd in de opkomst van de digitale virtuele spraakassistenten. Ik zie dit als een duidelijke technologische trend.
Maar vergis je niet: ik ben niet enkel enthousiast. Deze assistenten bieden hun diensten aan in ruil voor ‘micro convenience’ zoals dat zo mooi wordt genoemd in dit artikel. Kleine handelingen van gemak. Even de praktische jeuk wegnemen binnen je dagelijkse routine. Handig en comfortabel, maar tegelijkertijd verzamelen dit soort apparaten ongekende hoeveelheden data. Corporate surveillance is een realistisch scenario.
Mijn zorg zit niet alleen in het mogelijke ‘meeluisteren’ van dit soort apparaten, maar ook in de andere (met Alexa gekoppelde) producten die data genereren en op deze wijze iets vertellen over je dagelijkse leven.
Steeds meer fysieke apparaten krijgen namelijk Alexa-achtige software omdat Amazon deze gratis beschikbaar stelt. Zo weet Amazon wat je hebt klaargemaakt in je Alexa magnetron, kan het meekijken met je Amazon Ring deurbel-camera en dankzij ‘Echo Auto’ kan het bedrijf zien wanneer je vertrekt en thuiskomt.
Niet alleen op individueel niveau, maar ook op macroniveau maakt Amazon een ongekend sterk en fijnmazig profiel van menselijk gedrag. En vergeet niet: het is en blijft een commercieel bedrijf.

People analytics met “Fact based HRM”: Groeiend probleem of grote kans?
Artikel van de Groene over HR-analytics: het meten, analyseren en registreren van personeel. En hoewel het artikel vooringenomen is (zo vinden de auteurs bijvoorbeeld dat er zeer sceptisch naar deze methoden moet worden gekeken en dat “analyse” vooral een breekijzer lijkt te zijn om ontslagen makkelijker te maken) is het artikel toch de moeite waard te lezen.
Take-aways:
-Werkgevers krijgen, vaak zonder dat werknemers het weten, steeds meer gereedschap in handen om de medewerker te volgen en te analyseren.
-Techneuten zitten aan de knoppen en creëren vaak modellen met normatieve aannames. Ook juristen en psychologen zouden mee moeten denken en beslissen.
-Vaak wordt data verzameld zonder dat werknemers daarvoor expliciet toestemming hebben gegeven en/of erop kunnen vertrouwen dat er zorgvuldig met deze data wordt omgegaan.
-De werkdruk bij medewerkers die “de menselijke maat” leveren, wordt opgevoerd en de intrinsieke waardering om je werk goed te doen of het sociale aspect van je werk worden naar de zijlijn gedrukt.
-HR Analytics software staat bol van de hooggespannen verwachtingen.

The Dark Side: AI & Surveillance
-Lip reading software can help the surveillance state: Een nieuwe mijlpaal van Google Deepmind in de analyse van liplezen. Camerabeelden van gesproken woorden, zonder geluid kunnen met een foutpercentage van slechts 41% worden geïdentificeerd. Voor de context: het vorige resultaat had een foutpercentage van 77%. Professionele liplezers zaten op 93%. In de toekomst wordt het makkelijk om te analyseren wat iemand zegt, al kun je hem/haar niet goed horen.
-Facial recognition surveillance technology: Amazon heeft ambtenaren van de dienst Immigratie / Douane van de V.S. een demonstratie gegeven van software die vluchtelingen kan identificeren in video’s.
Dat je voorzichtig moet zijn met dit soort software bleek uit een eerder onderzoek met deze software waarin van de 435 congresleden in Amerika er 28 onterecht werden geïdentificeerd in een “mugshot” gegevensbestand. De software bleek tevens een onevenredig foutenpercentage te hebben voor getinte mensen.
-Is China bezig om een biometrische spraakdatabase samen te stellen van Chinese burgers? Waarschijnlijk wel. Het Chinese voice technology bedrijf iFlytek werkt samen met de overheid aan zo’n database. Human Rights Watch maakt zich zorgen. (Hier nog een interessante Twitter thread met een gesprek over Chinese versus westerse surveillance tools).
-Chinese surveillance software can recognise people from how they walk. Chinese steden zijn bezig met nieuwe software die mensen identificeert op basis van hun silhouet en hoe ze lopen. Zo moeten mensen geïdentificeerd kunnen worden, zelfs als hun gezichten onscherp zijn.

Digitale virtuele nieuwslezer in China
De Chinese staatstelevisie heeft gister en digitale virtuele nieuwslezer geïntroduceerd. Het bestaande uiterlijk is gekopieerd van een nieuwslezer van vlees en bloed. Bekijk je ze naast elkaar, dan zie je de verschillen, maar die worden steeds kleiner. De kunstmatig intelligente versie is nog bijvoorbeeld statisch en zijn stem is duidelijk nog wat robotachtig.
De voordelen zijn helder: de snelheid waarmee deze nieuwslezer geactiveerd kan worden bij breaking news is razendsnel. Ook kan deze digitale variant 24 uur per dag, 7 dagen per week zijn werk doen. En je kunt meerdere nieuwslezers tegelijkertijd (TV, online) laten presenteren en dat alles samen maakt het uiteindelijk goedkoper.
Kritisch op het resultaat zijn is makkelijk: het onderscheid met de menselijke nieuwslezer van vlees en bloed is nog wel duidelijk. Maar de stip op de horizon is gezet: steeds meer taken worden overgenomen door digitale avatars.

Je digitale persoonlijke assistent wordt een mens
We zijn weer een stap verder: de slimme luidspreker verandert in een levensecht mens in augmented reality. Ze heet MICA en is afkomstig van het bedrijf Magic Leap. Je kunt nu al de interactie aangaan met deze menselijke avatar (ook wel een Human Centered Artificial Intelligence genoemd) en vragen stellen. Ze reageert op wat je doet en kan je gemoedstoestand uit je ogen aflezen. Een praatje maken wordt in de toekomst mogelijk.
Deze digitale assistente MICA ziet er niet houterig of ongeloofwaardig uit, maar levensecht.
Je kunt je voorstellen hoe de toekomst eruit gaat zien. Bij thuiskomst je augmented reality bril op en vervolgens een gesprek aangaan met deze assistent.
Belangrijkste om te onthouden: we zijn op het punt aangekomen dat we levensechte virtuele personages kunnen creëren, zonder dat daar een grote Hollywoodstudio aan te pas komt. En avatars zijn niet statisch, maar in staat tot interactie.

Bitcoin Blockchain 10 jaar

Opgeschreven in 2008 door de nog steeds anonieme auteur Satoshi Nakamoto is de negen pagina’s tellende Bitcoin whitepaper de basis voor een golf van financiële innovatie die ongekend is in omvang. Bitcoin is bijvoorbeeld het bewijs dat geld kan ontstaan via een gedecentraliseerd systeem.
Wat is de waarde van Bitcoin na 10 jaar?
-Betalen met een digitale munt, 24-7-365
-Het Bitcoin systeem maakt het creëren van digitale schaarste mogelijk (digitaal kopiëren wordt tegengegaan) /Oplossen probleem van double spending (2x uitgeven dezelfde munt)
-Censuur bestendigheid (Kan niet worden geblockt of veranderd)
-Waardeoverdracht (transacties) zonder toestemming (/regie) van derde partij.
-Digitale waarde-opslag wat niet door derden in beslag kan worden genomen.
-Fysieke objecten krijgen met cryptocurrencies de mogelijkheid financiële transacties te doen.

AI systeem detecteert valse politie-verklaringen
Interessant! AI systemen worden steeds beter om waarheid en leugen van elkaar te onderscheiden. De politie zet bijv. kunstmatige intelligentie in om valse verklaringen te ontmaskeren. Een gegeven verklaring wordt (als geschreven tekst) door een AI systeem geanalyseerd en wat blijkt: een valse aangifte van een overval gaat bijv. veel vaker over de spullen die gestolen zijn dan het daadwerkelijke incident en slachtoffers kunnen in dat geval dan vaak ook minder details reproduceren. Interessante inzet van kunstmatige intelligentie. Volgens de wetenschappers is VeriPol in staat om met meer dan 80% nauwkeurigheid valse overvalrapporten te identificeren.

Alexa in je magnetron. What’s next?
Smart Software hulpje Alexa is het het middelpunt van Amazon’s wens om heer en meester te worden in het slimme huis van de toekomst. En de nieuwe Alexa Gadgets Toolkit is een manier voor programmeurs om hun apparaten aanstuurbaar te maken door Alexa. TREND: Voice-enabled devices.
Wat in deze trend wat zorgelijk is, is de vraag of we in de nabije toekomst nog apparaten kunnen kopen die niet lusiteren en de informatie naar een commercieel bedrijf sturen.
Vergeet niet: dit soort grote bedrijven hebben extreem veel marketingbudget om nieuwe technologie aan de man te brengen. Kritisch kijken blijft belangrijk.

Kunstmatig intelligente software is in staat om een depressie te detecteren.
Kunstmatig intelligente software is in staat om een depressie te detecteren op basis van gesproken en geschreven tekst. Met 77% nauwkeurigheid.
Voorspelling: …. Ik denk dat de diagnostisering van de meest bekende psychische klachten over een paar jaar wordt overgelaten aan kunstmatig intelligente systemen. Alle technologische kaarten liggen op tafel. Kunstmatig intelligente systemen kunnen bepalen:
-wat iemand zegt (inhoud)
-hoe hij / zij dit zegt (emotie-detectie)
-hoe snel/langzaam/diep iemand ademhaalt (audio)
-hoe wij non-verbaal communiceren (gebaren)
en ze kunnen middels een camera gezichtsexpressies (emotie-detectie) analyseren op microniveau.

Ik denk dat de gebruiksvriendelijke technologische mogelijkheden er binnen een paar jaar zijn, dan is het afwachten wat privacy- of vakgerelateerde wetgeving zegt. Blijft de vraag: moeten we dit willen of niet? Dat weet ik niet.
Wat als deze software wordt gebruikt bij een sollicitatie, politieverhoor of in interactie met een advocaat? Of is het handig en verlaagt het de drempel voor mensen die klachten hebben om van achter hun bureaustoel zich te laten testen zodat ze met die diagnose professionele hulp kunnen zoeken? En helpt het psychologen in hun spreekkamer?

Hoe privacyvriendelijk is én blijft Amazon’s Echo Look?
Amazon ziet de Echo Look als een manier voor klanten om modeadvies te krijgen. Met het camera-device maak je foto’s van jezelf met verschillende kleding-outfits aan en machine learning algoritmes geven je mode advies. Gaandeweg doet Amazon ook aanbevelingen van kleding die je misschien wilt kopen.
Handig, maar Amazon beschrijft niet heel duidelijk hoe ze in de toekomst met de verzamelde data omgaan.
Het device kan t.z.t. misschien een inschatting maken van:
–welke outfits je koopt (of niet) op basis van zijn aanbevelingen. (bijvoorbeeld: voorkeur voor sportieve kleding)
–welke objecten er in je (slaap-) kamer aanwezig zijn. (bijvoorbeeld: voorkeur voor blauw bedlinnen, veel make-up op je gootsteentafel)
–wat je gemoedstoestand is (gezichtsherkennings-technologie)
–Ook kan het aan je lichaam zien of je bijvoorbeeld beginnend zwanger bent.

‘Auto onderzoekt binnenkort uw gezondheid’
Onze auto wordt binnenkort een soort dokter. Sensoren in de autostoel meten de hartactiviteit door de kleding van de chauffeur heen. Radartechnologie in het dashboard monitort het hartritme en de ademhaling. En hyperspectrale camera’s meten naast het hartritme en de ademhalingssnelheid ook het zuurstofgehalte in het bloed. En met oogtracking kan parkinson of alzheimer worden gedetecteerd. Een mooi staaltje toekomstvoorspellen in de gezondheidszorg. Van achter het stuur.

Het voorspellen van natuurrampen met kunstmatige intelligentie
CASE 1: Om de waakzaamheid rondom dreigende overstromingen te vergroten, gebruikt Google AI kunstmatige intelligentie en een aanzienlijke hoeveelheid rekenkracht om betere prognosemodellen te maken die voorspellen wanneer en waar overstromingen zullen optreden. Die informatie verwerken ze in in Google Public Alerts. LINK
CASE 2: (AI en IoT om mogelijke brandhaarden te voorspellen.) Met een IoT sensor-device wordt windsnelheid, windrichting, luchtvochtigheid, temperatuur gemeten. Foto’s worden gemaakt van biomassa en daarbij word de potentiële brandbaarheid (droogte) gemeten. Het systeem voorkomt dat controleurs vele kilometers moeten afleggen voor inspectie van mogelijk brandgevaar en faciliteert dat er veel sneller brand wordt gedetecteerd.

Software stelt diagnose zonder tussenkomst specialist
Stel je eens voor dat je een foto kan uploaden in een systeem dat zonder tussenkomst van een specialist vaststelt of je ergens aan lijdt. De Amerikaanse toezichthouder FDA heeft onlangs voor het eerst een systeem goedgekeurd dat geheel autonoom vaststelt of iemand lijdt aan diabetische retinopathie. Deze aandoening aan het netvlies komt veel voor onder suikerpatiënten.

Het programma ‘IDx-DR’ analyseert met een speciaal algoritme foto’s van het netvlies van een patiënt die door een arts of verpleegkundige met een speciale camera zijn gemaakt. In een studie met ruim 900 afbeeldingen stelde IDx-DR in 87 procent van de gevallen de aandoening correct vast.
Doordat het systeem de diagnose zonder tussenkomst van een specialist stelt, kan het ook door medisch personeel gebruikt worden dat niet in oogaandoeningen is geschoold. Mogelijk zelfs nauwkeuriger dan een gespecialiseerde arts. Maar wie is uiteindelijk verantwoordelijk: mens of machine?
We gaan naar een toekomst waarin je een onrustige moedervlek thuis kunt controleren met een computervision app, net zo makkelijk als dat we nu onze temperatuur meten.

Slim Google-systeem filtert één stem uit een groep
Je kent vast wel die groepsgesprekken op Skype waar iedereen door elkaar praat en waarbij je al snel denkt: wie is nou wie?
Google heeft een slim systeem gemaakt dat met gezichtsuitdrukkingen (mondbewegingen) bepaalt welk geluid bij welke persoon hoort, vergelijkbaar met de manier waarop het menselijk brein dat ook doet.
Concrete producten zijn er nog niet, maar het zou kunnen helpen bij het dempen van bepaalde personen in een conference call om de verstaanbaarheid ten goede te laten komen. Of het automatisch notuleren van een vergadering.
Of het ook in mensenmassa’s werkt is niet duidelijk, maar dan zou het potentieel interessant zijn voor politie om stemmen uit de massa te filteren.

Algoritme maakt levensechte foto’s van niet-bestaande mensen
Chipfabrikant NVIDIA heeft een systeem ontwikkeld dat uit bestaande foto’s van bekende personen nieuwe realistische en levensechte afbeeldingen van mensen maakt – indrukwekkend en eng tegelijkertijd.
Hiervoor maakt het gebruik van nieuw type algoritme, een generative adversarial network (GAN). Dit algoritme zet twee neurale netwerken tegelijkertijd aan het werk. Het ene genereert de afbeeldingen op basis van een database met foto’s van bekende mensen, terwijl de ander kijkt of de ontstane afbeelding nog verder kan worden verbeterd. Check vooral de video in het gelinkte artikel.
Al met al razend interessante ontwikkelingen die de scheidslijnen tussen mens en machine verder vervagen. Maar je zou ze ook eenvoudig voor negatieve doelen zou kunnen gebruiken. Zo ogen in de toekomst bots die desinformatie verspreiden nog realistischer dankzij een unieke foto? En hoe zit het met identiteitsfraude? Zijn we nu definitief beland in een tijdperk waarin we onze ogen niet meer kunnen vertrouwen?

Waarom chatbots niet ‘the next big thing’ werden
Chatbots zouden in 2016 ‘the next big thing’ worden en het zou de manier waarop we met bedrijven communiceren ingrijpend veranderen. Aan enthousiasme geen gebrek. Ook bij Dave Feldman die er zijn baan bij Google voor verruilde; hij werd verantwoordelijk voor het ontwerp van Facebook’s Messenger bot-platform. De voorspelde veranderingen werden nooit realiteit. Nu blikt hij terug (en vooruit).
Dat de chatbot-revolutie uitbleef, wijt hij onder meer aan de onvolwassenheid van de platformen en dat het super-ingewikkeld is om echte gesprekken te voeren. De focus op enkel het uitwisselen van berichten zorgde tegelijkertijd voor verschraling van alle mogelijkheden die platformen konden bieden. Less = soms ook less.
Hoewel eerdere voorspellingen niet uitkwamen, durft Feldman het toch aan om zelf enkele voorspellingen te doen. Zo denkt hij dat bedrijven meer met messaging gaan doen, bijvoorbeeld voor betalingen, CRM en locatie-gebaseerde diensten. Zolang mensen met elkaar blijven converseren zal messaging blijven bestaan, besluit Feldman zijn interessante analyse.

Sciencefiction wordt werkelijkheid: de donkere kant van digitaal.
Ik werd geïnterviewd door de NOS voor een artikel. Insteek: “Sciencefiction wordt werkelijkheid.” Over de donkere kant van kunstmatige intelligentie. Dit naar aanleiding van de documentaire ‘Do you trust this computer’ (tijdelijk gratis beschikbaar gesteld door Elon Musk).

AI maakt superrealistisch fakenews met het grootste gemak.
Daarover gesproken: Ik heb het al eerder laten zien in deze nieuwsbrief: digitale content kan steeds beter worden gemanipuleerd. Foto’s en video’s worden accuraat en niet te onderscheiden van de realiteit voor het menselijk oog en oor. Gezichtsuitdrukkingen, stemmen, lipbewegingen kunnen steeds beter gemanipuleerd worden. Over een paar jaar weet je niet meer wat echt is en de realiteit. Wat we nu verstaan onder fake nieuws is nog maar het begin.
Stel je eens voor dat er een nep-video opduikt van Israëlische militairen die gruweldaden toegeven tegen de Palestijnen? Vonk in een kruidvat?
Met realistisch fake news kan onrust worden gezaaid. Of mensen worden juist onverschillig omdat ze niet meer weten wie of wat ze kunnen vertrouwen. Ook het afpersen van anderen met gemanipuleerd materiaal wordt kinderspel. Faceswap Blackmailing Videoporn is een makkelijk verdienmodel voor cybercriminelen.

Big brother is watching you: ook in de winkel. Is dat wel okee?
Future of retail! Het bedrijf Aipoly maakt niet alleen kassa’s overbodig, maar kwantificeert ook alles.
De software registreert onder andere (let op!) hoeveel klanten er binnenkomen, wat ze pakken en in hun mandje stoppen, of ze een zakje open maken of een flesje. Hoe lang ze treuzelen bij een product, of ze er lang naar staan te kijken, of ze het terugleggen etcetera.
En natuurlijk herkent het systeem ook geslacht, leeftijd, etniciteit en na verloop van tijd vast en zeker ook gemoedstoestand… Technologie krijgt ogen om te zien en toont de resultaten in excelsheets en dashboards. Superhandig voor de winkelier, maar hoe zit dat met onze privacy?

AI als ‘emotioneel zesde zintuig’ voor callcenter-medewerkers. Is dat wel okee?
De Amerikaanse verzekeraar MetLife gebruikt speciale software, Cogit, die de stem van klantenservice-medewerkers analyseert. Zo laat het een afbeelding van een koffiekopje op het computerscherm zien wanneer het bij de medewerker vermoeidheid detecteert.
Cogito detecteert niet alleen toon en emotie bij callcenter-medewerkers, maar ook bij de klant. Het systeem is een “empathy adviser” voor de klantenservice medewerker. Als een gesprek onplezierig dreigt te worden, toont de software aanwijzingen voor de medewerker om het weer positief te laten verlopen. Ook detecteert de software langere stiltes (twijfel) of wanneer beller en medewerker door elkaar heen spreken.
Siri, Alexa en andere mogelijkheden van voice recognition technology zijn nog beperkt, vandaar deze aanvullende technologie. Volgens Cogito worden medewerkers empathischer en zelfs efficiënter. Op zich niks mis mee, maar wat als het systeem na een update gaat detecteren wanneer een medewerker vrijwel niks met de “empathische suggesties” doet. Is het dan ‘exit medewerker’ op een geautomatiseerde manier?

Amazon: Het hoogst haalbare in conversational technology: smalltalk met Alexa.

.And toothpaste is just mouth soap. Amazon heeft haar pijlen gericht op het hoogst haalbare in conversationeel interfaces: De virtuele assistent Alexa die in staat is tot small talk; kletspraat, chitchat. De Amazon Prize competitie loofde 1 miljoen dollar uit aan een team dat het Alexa systeem 20 minuten kan laten kletsen met een mens.
Twintig minuten praten met een computer is extreem lastig. Dat doel is niet eens meer een “moonshot” te noemen, het is meer een “vakantie naar Mars” als we in de planeten-vergelijking willen blijven. Wat voor ons als mensen makkelijk is, is voor computers supermoeilijk.
Interessant: Een deelnemend team van de Alexa Prize competitie gebruikte bijvoorbeeld een database met filmondertitelingen en duizenden berichtenthreads van Twitter en Reddit om een algoritme te trainen. En dan blijkt het dus een uitdaging om de bot niet te vaak “OK”, “sure” of juist ongepaste opmerkingen te laten maken.
Met een gemiddelde gespreksduur van 10 minuten en 22 seconden (!) won trouwens de Universiteit van Washington.
Inmiddels werken er meer dan 5.000 mensen bij Amazon aan het Alexa systeem. De trend is glashelder. De toekomst zal worden gedomineerd door gesprekken met conversational interfaces. En Alexa heeft hele goeie kaarten om de markt te leiden

AI verslaat wederom medisch specialisten
Binnen nu en 5 jaar neemt AI veel van de diagnosticering over die plaatsvindt binnen de medische sector. AI systemen kunnen vaak beter, sneller en accurater visuele input omzetten in relevante diagnoses. Kunstmatige intelligentie presteert in bovengenoemde onderzoek beter dan 42 dermatologisch experts in de analyse van nagelschimmel.

De Apple Watch kan door AI systeem diabetes voorspellen met een nauwkeurigheid van 85%.
In deze specifieke studie werden gegevens gebruikt van 14.000 Apple Watch-gebruikers. Onderzoekers konden met een algoritme vaststellen dat 462 van hen diabetes hadden door de gegevens van de hartslagsensor van het horloge te analyseren. 85% daarvan bleek juist te zijn voorspeld.
Eerder konden deze onderzoekers al gegevens van de Apple watch gebruiken om een abnormaal hartritme te detecteren (nauwkeurigheid 97 procent), slaapapneu (90 procent) en hypertensie (82 procent).
Zou mooi zijn wanneer deze analyse uiteindelijik zou plaatsvinden in het horloge en op basis van de data adviezen en notificaties kan geven.
AI gaat ziektes en ziekteverloop voorspellen.

Google kan de toekomst van een patiënt in een ziekenhuis voorspellen.
Google claimt dat het met algoritmes goede voorspellingen kan doen over het verloop van de opname van een patiënt in een ziekenhuis. Bijvoorbeeld wanneer een patiënt wordt ontslagen, opnieuw wordt aangemeld en wat hun definitieve diagnose zal zijn. Er werden gegevens gebruikt van 216 duizend volwassenen; goed voor meer dan 46 miljard data-punten.
Google’s grootste claim is de mogelijkheid om patiëntensterfte 24-48 uur eerder te voorspellen dan huidige methodes. Artsen zouden met deze data nog levensreddende procedures kunnen starten.

Google-algoritme kan hartproblemen voorspellen
Met behulp van een scan van de achterkant van iemands oog kan Google voorspellen hoe groot de kans op hartproblemen is.

De Google Assistant gaat Nederlands praten.
Ein-de-lijk: de Google Assistant gaat binnenkort zeven nieuwe talen spreken, waaronder Nederlands. Het zal dan niet lang meer duren denk ik voordat de Google Home smart speaker eindelijk ook in Nederland te koop zal zijn.

Japanse onderzoekers gebruiken AI om gedachten te visualiseren.
Er wordt steeds meer resultaat geboekt in AI gerelateerd onderzoek om gedachten te decoderen.
In dit onderzoek werden eerst de hersenactiviteit van mensen geanalyseerd die naar een plaatje keken óf met terugwerkende kracht aan een plaatje dachten. Deze informatie werd vervolgens gebruikt om visualisaties van de gedachten van een mens te maken. Bij het “denken aan een plaatje met terugwerkende kracht” werd het overigens voor het AI systeem moeilijker om iets te visualiseren.
Check de afbeeldingen in het artikel om een beeld te krijgen van de kwaliteit ervan. Soms al best goed!
Wanneer deze technologie zich verder ontwikkeld kunnen je dromen door een computer worden gevisualiseerd en kunnen mensen die volledig beperkt zijn in hun communicatie toch aan anderen laten zien wat er in hen omgaat.

AI ontdekt 17 keer meer aardbevingen
Een nieuw AI-systeem genaamd ConvNetQuake is het eerste neurale netwerk ontworpen om aardbevingen te kunnen lokaliseren.
Het gespecialiseerde algoritme kan seismische activiteit analyseren en bepaalt dan of het al dan niet gewoon “ruis” of een aardbeving is. Historisch gezien was het erg moeilijk om zeer kleine aardbevingen te detecteren als gevolg van diezelfde “ruis” maar ConvNetQuake kan dus het onderscheid maken. Volgende stap: aarbevingen voorspellen met grote precisie.

Soul Machines: de digitale (klantenservice) medewerker van de toekomst.
Ik volg al een tijdje het NieuwZeelandse bedrijf Soul Machines. Vorig jaar lieten ze een demo zien van Baby X, een baby-avatar softwareprogramma dat kon kijken en met spraak reageren op wat je deed.
Inmiddels werkt Soul Machines aan een (zo levensecht mogelijke) emotionally responsive avatar. De digitale schaalbare medewerker van de toekomst. Nog niet perfect en nog niet 100% natuurgetrouw, maar de trend is glashelder; de digitale (service) medewerker van de toekomst. 24 uur per dag, 7 dagen pre week, 365 dagen per jaar beschikbaar. Lerend van interactie.
In de toekomst: Steeds meer in staat om een gesprek te voeren. Steeds meer in staat om met onverwachte situaties om te gaan. Steeds beter in staat om emoties te herkennen en daar op in te spelen. Check de video!

Face-Swap Porno is in opkomst. En juridisch staan slachtoffers zwak.
We gaan nog even door: Face-Swap Porno. Je leest het goed. Met een foto (van een celebrity) én een kunstmatig intelligent software programma (Deepfakes) kun je relatief makkelijk het gezicht van iemand anders op die van een porno actrice plakken. Wederom: fakevideo’s maken in een handomdraai. Gedupeerden hebben vrijwel geen juridische mogelijkheden om aanspraak op te doen.
Voeg daar de human-like speech generation software van Google aan toe en je vraagt je af: wat is nog echt en wat is fake?

Mijn klanten