De 30-jarige Shawn Kinnear, inwoner van Californië, ontving in 2016 een slimme Amazon Echo-luidspreker als cadeau voor Kerstmis. De eigenaar van het apparaat beweert dat hij het zelden heeft gebruikt.
Onlangs heeft Amazon's persoonlijke assistent Alexa die in de Amazon Echo is ingebouwd, de eigenaar verrast en bang gemaakt. Op 18 juni van dit jaar liep Sean Kinnear van keuken naar kamer toen hij een zin hoorde die door Amazon Alexa werd uitgesproken met de gebruikelijke intonatie:
In een staat van extreme verrassing vroeg Sean Amazon Alexa om te herhalen wat hij zei, waarop het AI-systeem antwoordde dat het het commando niet begreep. De eigenaar van de spreker verklaarde dat hij vóór deze zin geen opdrachten aan de spreker had gegeven, bovendien werkte de tv of een ander apparaat dat Alexa tot een dergelijke verklaring zou kunnen provoceren, niet in de kamer.
Waarom gedraagt Amazon Alexa zich anders dan de ontwikkelaars hadden bedoeld? Veelvoorkomende softwareproblemen of echte SkyNet-implementatie? Of misschien is alles veel eenvoudiger en heeft Sean Kinnear besloten om op deze manier een grap uit te halen?
Amazon heeft daar tot nu toe uitspraken over gedaan.