Перейти к публикации
heroverin

Скрытые в музыке или YouTube команды могут обмануть голосовые помощники

Рекомендованные сообщения

Опубликованное на днях новое исследование доказывает, что популярные голосовые помощники, установленные в смартфонах, уязвимы для скрытых аудио-атак, которые могут быть спрятаны в музыке или видео на YouTube.

В своем исследовании специалисты утверждают, что им удалось обмануть движок с открытым исходным кодом от Mozilla DeepSpeech, эксперты скрыли команду в совершенно других звуках. Исследователи также уточнили, что подобная атака срабатывает, если скрыть команду в коротких музыкальных фрагментах.

«Я думаю, что многие злоумышленники уже взяли на вооружение данный метод обмана голосовых помощников», — говорит один из обнаруживших проблему безопасности экспертов. — «В принципе, наша команда уже давно знала, что нам удастся совершить успешную атаку на любую современную систему ассистирования голосом».

Таким образом, киебрпреступники могут заставить атакуемый девайс открыть браузер и перейти на любую веб-страницу, в том числе вредоносную.

В основе метода, предложенного исследователями, лежат различия между тем, как звуки распознает человек, и как это делает машина. Следовательно, хозяин атакуемого устройства вообще не услышит ничего необычного или подозрительного, когда его смартфон воспримет сообщение иначе, выполнив скрытую в нем команду.

Исследователи опубликовали видео, демонстрирующее наличие данной проблемы безопасности.

Многие крупные корпорации вроде Google и Apple напомнили пользователям, что их устройства защищены от подобного рода атак.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Создайте аккаунт или войдите в него для комментирования

Вы должны быть пользователем, чтобы оставить комментарий

Создать аккаунт

Зарегистрируйтесь для получения аккаунта. Это просто!

Зарегистрировать аккаунт

Войти

Уже зарегистрированы? Войдите здесь.

Войти сейчас

×