„OK Google”, „Alexa”, „Hey Siri” – tymi komendami aktywujemy nasze inteligentne głośniki i zmuszamy do posłuchu. Tak zostały one zaprojektowane przez twórców. Ale okazuje się, że te – coraz popularniejsze – elementy wyposażenia naszych domów rozbudzają się też po zarejestrowaniu całej masy innych wyrazów, które „usłyszą” w otoczeniu. Badacze naliczyli ich ponad 1000.
Naukowcy z Ruhr-Universität Bochum i Bochum Max Planck Institute wykazali ponad tysiąc innych słów i fraz, które mogą w niezamierzony sposób uruchomić Asystenta Google, Amazon Alexa, Apple Siri i innych asystentów głosowych. Opracowali listę angielskich, niemieckich i chińskich terminów, które były wielokrotnie błędnie interpretowane przez różne inteligentne głośniki jako podpowiedzi. Za każdym razem, gdy systemy się budzą, rejestrują krótką sekwencję tego, co zostało powiedziane, i przekazują dane do producenta. Fragmenty dźwiękowe są następnie transkrybowane i sprawdzane przez pracowników odpowiedniej korporacji. W ten sposób fragmenty prywatnych rozmów mogą znaleźć się w systemach firm.
Badacze wzięli pod lupę najpopularniejsze modele inteligentnych asystentów, takich jak Alexa, Siri i Asystent Google oraz trzy systemy dostępne wyłącznie na chińskich rynkach. Następnie włączyli głośniki i po kolei umieścili je w pokoju z telewizorem. Odtwarzano na nim popularne seriale telewizyjne, takie jak Game of Thrones, House of Cards i Modern Family. Gdy odcinki były odtwarzane , badacze czekali na aktywację wirtualnych asystentów i obserwowali, kiedy urządzenia są aktywowane. Wykorzystali LED-y, które włączały się za każdym razem, gdy urządzenie zaczynało reagować i rejestrować określone słowa. Na podstawie tych danych zespół stworzył listę ponad 1000 sekwencji, które nieprawidłowo uruchamiają asystentów mowy. W zależności od wymowy Alexa reaguje na słowa “a letter” “unacceptable” i “election”. Google reaguje na “OK, cool”, “OK, who is reading” i “cocaine noodles”. Siri aktywuje się gdy usłyszy “a city” lub “Hey Jerry”, a Amazon przez frazę “and the zone”.
Przypadkowe słowa, które wyłapią inteligentni asystenci, mogą zagrozić prywatności. Przecież Amazon automatycznie rejestruje nagrania głosowe Alexa, Google przechowuje transkrypcję zapytań Asystenta (za zgodą użytkownika), a Siri zachowuje dźwięk (po wyrażeniu zgody). W rezultacie asystenci głosowi mogą rejestrować prywatne chwile, jeśli usłyszą coś, co mieści się w dopuszczalnym marginesie błędu dla frazy aktywacji.
Kiedy Polak kupuje sobie pierwszą kamerkę samochodową? Zazwyczaj rozsądnie: po pierwszej stłuczce. Zazwyczaj zdaje nam…
Urządzenia elektroniczne bywają kompletnie do niczego, bywają nudne i poprawne, ale bywa czasem i tak,…
Gdy po raz pierwszy zobaczyłem projektor Samsung The Freestyle przecierałem oczy ze zdumienia. "Kolejna zabawka"…
Mój kolejny artykuł będzie poświęcony korzystnym dla Klienta smartfonom w cenie do 1000 zł w…
Jabra Elite 5 to najnowsze dzieło duńskiej firmy, które miało swą premierę podczas tegorocznych targów…
Głowy nie urywa? Sony XG300 sprawił, że biję się z myślami i martwię czy przypadkiem…