Porady

Inteligentne głośniki reagują na więcej słów niż się spodziewaliśmy – „obudzą” je nie tylko standardowe zwroty

„OK Google”, „Alexa”, „Hey Siri” – tymi komendami aktywujemy nasze inteligentne głośniki i zmuszamy do posłuchu. Tak zostały one zaprojektowane przez twórców. Ale okazuje się, że te – coraz popularniejsze – elementy wyposażenia naszych domów rozbudzają się też po zarejestrowaniu całej masy innych wyrazów, które „usłyszą” w otoczeniu. Badacze naliczyli ich ponad 1000.

Naukowcy z Ruhr-Universität Bochum i Bochum Max Planck Institute wykazali ponad tysiąc innych słów i fraz, które mogą w niezamierzony sposób uruchomić Asystenta Google, Amazon Alexa, Apple Siri i innych asystentów głosowych. Opracowali listę angielskich, niemieckich i chińskich terminów, które były wielokrotnie błędnie interpretowane przez różne inteligentne głośniki jako podpowiedzi. Za każdym razem, gdy systemy się budzą, rejestrują krótką sekwencję tego, co zostało powiedziane, i przekazują dane do producenta. Fragmenty dźwiękowe są następnie transkrybowane i sprawdzane przez pracowników odpowiedniej korporacji. W ten sposób fragmenty prywatnych rozmów mogą znaleźć się w systemach firm.

Jak wyglądało badanie?

Badacze wzięli pod lupę najpopularniejsze modele inteligentnych asystentów, takich jak Alexa, Siri i Asystent Google oraz trzy systemy dostępne wyłącznie na chińskich rynkach. Następnie włączyli głośniki i po kolei umieścili je w pokoju z telewizorem. Odtwarzano na nim popularne seriale telewizyjne, takie jak Game of Thrones, House of Cards i Modern Family. Gdy odcinki były odtwarzane , badacze czekali na aktywację wirtualnych asystentów i obserwowali, kiedy urządzenia są aktywowane. Wykorzystali LED-y, które włączały się za każdym razem, gdy urządzenie zaczynało reagować i rejestrować określone słowa. Na podstawie tych danych zespół stworzył listę ponad 1000 sekwencji, które nieprawidłowo uruchamiają asystentów mowy. W zależności od wymowy Alexa reaguje na słowa “a letter” “unacceptable” i “election”. Google reaguje na “OK, cool”, “OK, who is reading” i “cocaine noodles”. Siri aktywuje się gdy usłyszy “a city” lub “Hey Jerry”, a Amazon przez frazę “and the zone”.

© RUB, Marquard
© RUB, Marquard
© RUB, Marquard

Przypadkowe słowa, które wyłapią inteligentni asystenci, mogą zagrozić prywatności. Przecież Amazon automatycznie rejestruje nagrania głosowe Alexa, Google przechowuje transkrypcję zapytań Asystenta (za zgodą użytkownika), a Siri zachowuje dźwięk (po wyrażeniu zgody). W rezultacie asystenci głosowi mogą rejestrować prywatne chwile, jeśli usłyszą coś, co mieści się w dopuszczalnym marginesie błędu dla frazy aktywacji.

Jolanta Szczepaniak

Dziennikarka - w zawodzie od 10 lat. Absolwentka UŁ. Dawniej związana z miesięcznikiem "Mobile Internet", obecnie publikuje testy w serwisie mGSM.pl. Sporadycznie blogerka i wikipedystka. Na co dzień fanka mobilnych technologii i internetu, gadżeciara, serialomaniaczka i nałogowa czytelniczka książek oraz prasy popularyzującej naukę.

Recent Posts

Navitel R500 GPS – działa i ma GPS

Kiedy Polak kupuje sobie pierwszą kamerkę samochodową? Zazwyczaj rozsądnie: po pierwszej stłuczce. Zazwyczaj zdaje nam…

2 lata ago

Huawei FreeBuds 5 – gustowna biżuteria audio

Urządzenia elektroniczne bywają kompletnie do niczego, bywają nudne i poprawne, ale bywa czasem i tak,…

2 lata ago

Samsung The Freestyle – recenzja projektora innego niż wszystkie

Gdy po raz pierwszy zobaczyłem projektor Samsung The Freestyle przecierałem oczy ze zdumienia. "Kolejna zabawka"…

3 lata ago

Jaki telefon kupić do 1000 zł?

Mój kolejny artykuł będzie poświęcony korzystnym dla Klienta smartfonom w cenie do 1000 zł w…

3 lata ago

Jabra Elite 5 – recenzja słuchawek TWS

Jabra Elite 5 to najnowsze dzieło duńskiej firmy, które miało swą premierę podczas tegorocznych targów…

3 lata ago

Sony XG300 – głośnik bluetooth z wyższej półki

Głowy nie urywa? Sony XG300 sprawił, że biję się z myślami i martwię czy przypadkiem…

3 lata ago