Software stelt diagnose zonder tussenkomst specialist
Stel je eens voor dat je een foto kan uploaden in een systeem dat zonder tussenkomst van een specialist vaststelt of je ergens aan lijdt. De Amerikaanse toezichthouder FDA heeft onlangs voor het eerst een systeem goedgekeurd dat geheel autonoom vaststelt of iemand lijdt aan diabetische retinopathie. Deze aandoening aan het netvlies komt veel voor onder suikerpatiënten.

Het programma ‘IDx-DR’ analyseert met een speciaal algoritme foto’s van het netvlies van een patiënt die door een arts of verpleegkundige met een speciale camera zijn gemaakt. In een studie met ruim 900 afbeeldingen stelde IDx-DR in 87 procent van de gevallen de aandoening correct vast.
Doordat het systeem de diagnose zonder tussenkomst van een specialist stelt, kan het ook door medisch personeel gebruikt worden dat niet in oogaandoeningen is geschoold. Mogelijk zelfs nauwkeuriger dan een gespecialiseerde arts. Maar wie is uiteindelijk verantwoordelijk: mens of machine?
We gaan naar een toekomst waarin je een onrustige moedervlek thuis kunt controleren met een computervision app, net zo makkelijk als dat we nu onze temperatuur meten.

Slim Google-systeem filtert één stem uit een groep
Je kent vast wel die groepsgesprekken op Skype waar iedereen door elkaar praat en waarbij je al snel denkt: wie is nou wie?
Google heeft een slim systeem gemaakt dat met gezichtsuitdrukkingen (mondbewegingen) bepaalt welk geluid bij welke persoon hoort, vergelijkbaar met de manier waarop het menselijk brein dat ook doet.
Concrete producten zijn er nog niet, maar het zou kunnen helpen bij het dempen van bepaalde personen in een conference call om de verstaanbaarheid ten goede te laten komen. Of het automatisch notuleren van een vergadering.
Of het ook in mensenmassa’s werkt is niet duidelijk, maar dan zou het potentieel interessant zijn voor politie om stemmen uit de massa te filteren.

Algoritme maakt levensechte foto’s van niet-bestaande mensen
Chipfabrikant NVIDIA heeft een systeem ontwikkeld dat uit bestaande foto’s van bekende personen nieuwe realistische en levensechte afbeeldingen van mensen maakt – indrukwekkend en eng tegelijkertijd.
Hiervoor maakt het gebruik van nieuw type algoritme, een generative adversarial network (GAN). Dit algoritme zet twee neurale netwerken tegelijkertijd aan het werk. Het ene genereert de afbeeldingen op basis van een database met foto’s van bekende mensen, terwijl de ander kijkt of de ontstane afbeelding nog verder kan worden verbeterd. Check vooral de video in het gelinkte artikel.
Al met al razend interessante ontwikkelingen die de scheidslijnen tussen mens en machine verder vervagen. Maar je zou ze ook eenvoudig voor negatieve doelen zou kunnen gebruiken. Zo ogen in de toekomst bots die desinformatie verspreiden nog realistischer dankzij een unieke foto? En hoe zit het met identiteitsfraude? Zijn we nu definitief beland in een tijdperk waarin we onze ogen niet meer kunnen vertrouwen?

Waarom chatbots niet ‘the next big thing’ werden
Chatbots zouden in 2016 ‘the next big thing’ worden en het zou de manier waarop we met bedrijven communiceren ingrijpend veranderen. Aan enthousiasme geen gebrek. Ook bij Dave Feldman die er zijn baan bij Google voor verruilde; hij werd verantwoordelijk voor het ontwerp van Facebook’s Messenger bot-platform. De voorspelde veranderingen werden nooit realiteit. Nu blikt hij terug (en vooruit).
Dat de chatbot-revolutie uitbleef, wijt hij onder meer aan de onvolwassenheid van de platformen en dat het super-ingewikkeld is om echte gesprekken te voeren. De focus op enkel het uitwisselen van berichten zorgde tegelijkertijd voor verschraling van alle mogelijkheden die platformen konden bieden. Less = soms ook less.
Hoewel eerdere voorspellingen niet uitkwamen, durft Feldman het toch aan om zelf enkele voorspellingen te doen. Zo denkt hij dat bedrijven meer met messaging gaan doen, bijvoorbeeld voor betalingen, CRM en locatie-gebaseerde diensten. Zolang mensen met elkaar blijven converseren zal messaging blijven bestaan, besluit Feldman zijn interessante analyse.

Sciencefiction wordt werkelijkheid: de donkere kant van digitaal.
Ik werd geïnterviewd door de NOS voor een artikel. Insteek: “Sciencefiction wordt werkelijkheid.” Over de donkere kant van kunstmatige intelligentie. Dit naar aanleiding van de documentaire ‘Do you trust this computer’ (tijdelijk gratis beschikbaar gesteld door Elon Musk).

AI maakt superrealistisch fakenews met het grootste gemak.
Daarover gesproken: Ik heb het al eerder laten zien in deze nieuwsbrief: digitale content kan steeds beter worden gemanipuleerd. Foto’s en video’s worden accuraat en niet te onderscheiden van de realiteit voor het menselijk oog en oor. Gezichtsuitdrukkingen, stemmen, lipbewegingen kunnen steeds beter gemanipuleerd worden. Over een paar jaar weet je niet meer wat echt is en de realiteit. Wat we nu verstaan onder fake nieuws is nog maar het begin.
Stel je eens voor dat er een nep-video opduikt van Israëlische militairen die gruweldaden toegeven tegen de Palestijnen? Vonk in een kruidvat?
Met realistisch fake news kan onrust worden gezaaid. Of mensen worden juist onverschillig omdat ze niet meer weten wie of wat ze kunnen vertrouwen. Ook het afpersen van anderen met gemanipuleerd materiaal wordt kinderspel. Faceswap Blackmailing Videoporn is een makkelijk verdienmodel voor cybercriminelen.

Big brother is watching you: ook in de winkel. Is dat wel okee?
Future of retail! Het bedrijf Aipoly maakt niet alleen kassa’s overbodig, maar kwantificeert ook alles.
De software registreert onder andere (let op!) hoeveel klanten er binnenkomen, wat ze pakken en in hun mandje stoppen, of ze een zakje open maken of een flesje. Hoe lang ze treuzelen bij een product, of ze er lang naar staan te kijken, of ze het terugleggen etcetera.
En natuurlijk herkent het systeem ook geslacht, leeftijd, etniciteit en na verloop van tijd vast en zeker ook gemoedstoestand… Technologie krijgt ogen om te zien en toont de resultaten in excelsheets en dashboards. Superhandig voor de winkelier, maar hoe zit dat met onze privacy?

AI als ‘emotioneel zesde zintuig’ voor callcenter-medewerkers. Is dat wel okee?
De Amerikaanse verzekeraar MetLife gebruikt speciale software, Cogit, die de stem van klantenservice-medewerkers analyseert. Zo laat het een afbeelding van een koffiekopje op het computerscherm zien wanneer het bij de medewerker vermoeidheid detecteert.
Cogito detecteert niet alleen toon en emotie bij callcenter-medewerkers, maar ook bij de klant. Het systeem is een “empathy adviser” voor de klantenservice medewerker. Als een gesprek onplezierig dreigt te worden, toont de software aanwijzingen voor de medewerker om het weer positief te laten verlopen. Ook detecteert de software langere stiltes (twijfel) of wanneer beller en medewerker door elkaar heen spreken.
Siri, Alexa en andere mogelijkheden van voice recognition technology zijn nog beperkt, vandaar deze aanvullende technologie. Volgens Cogito worden medewerkers empathischer en zelfs efficiënter. Op zich niks mis mee, maar wat als het systeem na een update gaat detecteren wanneer een medewerker vrijwel niks met de “empathische suggesties” doet. Is het dan ‘exit medewerker’ op een geautomatiseerde manier?

Amazon: Het hoogst haalbare in conversational technology: smalltalk met Alexa.

.And toothpaste is just mouth soap. Amazon heeft haar pijlen gericht op het hoogst haalbare in conversationeel interfaces: De virtuele assistent Alexa die in staat is tot small talk; kletspraat, chitchat. De Amazon Prize competitie loofde 1 miljoen dollar uit aan een team dat het Alexa systeem 20 minuten kan laten kletsen met een mens.
Twintig minuten praten met een computer is extreem lastig. Dat doel is niet eens meer een “moonshot” te noemen, het is meer een “vakantie naar Mars” als we in de planeten-vergelijking willen blijven. Wat voor ons als mensen makkelijk is, is voor computers supermoeilijk.
Interessant: Een deelnemend team van de Alexa Prize competitie gebruikte bijvoorbeeld een database met filmondertitelingen en duizenden berichtenthreads van Twitter en Reddit om een algoritme te trainen. En dan blijkt het dus een uitdaging om de bot niet te vaak “OK”, “sure” of juist ongepaste opmerkingen te laten maken.
Met een gemiddelde gespreksduur van 10 minuten en 22 seconden (!) won trouwens de Universiteit van Washington.
Inmiddels werken er meer dan 5.000 mensen bij Amazon aan het Alexa systeem. De trend is glashelder. De toekomst zal worden gedomineerd door gesprekken met conversational interfaces. En Alexa heeft hele goeie kaarten om de markt te leiden

AI verslaat wederom medisch specialisten
Binnen nu en 5 jaar neemt AI veel van de diagnosticering over die plaatsvindt binnen de medische sector. AI systemen kunnen vaak beter, sneller en accurater visuele input omzetten in relevante diagnoses. Kunstmatige intelligentie presteert in bovengenoemde onderzoek beter dan 42 dermatologisch experts in de analyse van nagelschimmel.

De Apple Watch kan door AI systeem diabetes voorspellen met een nauwkeurigheid van 85%.
In deze specifieke studie werden gegevens gebruikt van 14.000 Apple Watch-gebruikers. Onderzoekers konden met een algoritme vaststellen dat 462 van hen diabetes hadden door de gegevens van de hartslagsensor van het horloge te analyseren. 85% daarvan bleek juist te zijn voorspeld.
Eerder konden deze onderzoekers al gegevens van de Apple watch gebruiken om een abnormaal hartritme te detecteren (nauwkeurigheid 97 procent), slaapapneu (90 procent) en hypertensie (82 procent).
Zou mooi zijn wanneer deze analyse uiteindelijik zou plaatsvinden in het horloge en op basis van de data adviezen en notificaties kan geven.
AI gaat ziektes en ziekteverloop voorspellen.

Google kan de toekomst van een patiënt in een ziekenhuis voorspellen.
Google claimt dat het met algoritmes goede voorspellingen kan doen over het verloop van de opname van een patiënt in een ziekenhuis. Bijvoorbeeld wanneer een patiënt wordt ontslagen, opnieuw wordt aangemeld en wat hun definitieve diagnose zal zijn. Er werden gegevens gebruikt van 216 duizend volwassenen; goed voor meer dan 46 miljard data-punten.
Google’s grootste claim is de mogelijkheid om patiëntensterfte 24-48 uur eerder te voorspellen dan huidige methodes. Artsen zouden met deze data nog levensreddende procedures kunnen starten.

Google-algoritme kan hartproblemen voorspellen
Met behulp van een scan van de achterkant van iemands oog kan Google voorspellen hoe groot de kans op hartproblemen is.

De Google Assistant gaat Nederlands praten.
Ein-de-lijk: de Google Assistant gaat binnenkort zeven nieuwe talen spreken, waaronder Nederlands. Het zal dan niet lang meer duren denk ik voordat de Google Home smart speaker eindelijk ook in Nederland te koop zal zijn.

Japanse onderzoekers gebruiken AI om gedachten te visualiseren.
Er wordt steeds meer resultaat geboekt in AI gerelateerd onderzoek om gedachten te decoderen.
In dit onderzoek werden eerst de hersenactiviteit van mensen geanalyseerd die naar een plaatje keken óf met terugwerkende kracht aan een plaatje dachten. Deze informatie werd vervolgens gebruikt om visualisaties van de gedachten van een mens te maken. Bij het “denken aan een plaatje met terugwerkende kracht” werd het overigens voor het AI systeem moeilijker om iets te visualiseren.
Check de afbeeldingen in het artikel om een beeld te krijgen van de kwaliteit ervan. Soms al best goed!
Wanneer deze technologie zich verder ontwikkeld kunnen je dromen door een computer worden gevisualiseerd en kunnen mensen die volledig beperkt zijn in hun communicatie toch aan anderen laten zien wat er in hen omgaat.

AI ontdekt 17 keer meer aardbevingen
Een nieuw AI-systeem genaamd ConvNetQuake is het eerste neurale netwerk ontworpen om aardbevingen te kunnen lokaliseren.
Het gespecialiseerde algoritme kan seismische activiteit analyseren en bepaalt dan of het al dan niet gewoon “ruis” of een aardbeving is. Historisch gezien was het erg moeilijk om zeer kleine aardbevingen te detecteren als gevolg van diezelfde “ruis” maar ConvNetQuake kan dus het onderscheid maken. Volgende stap: aarbevingen voorspellen met grote precisie.

Soul Machines: de digitale (klantenservice) medewerker van de toekomst.
Ik volg al een tijdje het NieuwZeelandse bedrijf Soul Machines. Vorig jaar lieten ze een demo zien van Baby X, een baby-avatar softwareprogramma dat kon kijken en met spraak reageren op wat je deed.
Inmiddels werkt Soul Machines aan een (zo levensecht mogelijke) emotionally responsive avatar. De digitale schaalbare medewerker van de toekomst. Nog niet perfect en nog niet 100% natuurgetrouw, maar de trend is glashelder; de digitale (service) medewerker van de toekomst. 24 uur per dag, 7 dagen pre week, 365 dagen per jaar beschikbaar. Lerend van interactie.
In de toekomst: Steeds meer in staat om een gesprek te voeren. Steeds meer in staat om met onverwachte situaties om te gaan. Steeds beter in staat om emoties te herkennen en daar op in te spelen. Check de video!

Face-Swap Porno is in opkomst. En juridisch staan slachtoffers zwak.
We gaan nog even door: Face-Swap Porno. Je leest het goed. Met een foto (van een celebrity) én een kunstmatig intelligent software programma (Deepfakes) kun je relatief makkelijk het gezicht van iemand anders op die van een porno actrice plakken. Wederom: fakevideo’s maken in een handomdraai. Gedupeerden hebben vrijwel geen juridische mogelijkheden om aanspraak op te doen.
Voeg daar de human-like speech generation software van Google aan toe en je vraagt je af: wat is nog echt en wat is fake?

Mijn klanten