У голосовых помощников Siri, Alexa и Google Assistant выявлена опасная уязвимость, которая может привести к катастрофе



Рекомендую прочесть:

Как известно, каждый из представленных в настоящее время «умных» помощников Siri, а также Alexa и Google Assistant, управляются при помощи голосовых команд. Но неожиданно поступила информация, что они также способны воспринимать те скрытые команды, которые не улавливаются ухом человека.

Ученым из США и Китая удалось установить, что управление оборудованием можно выполнить при задействовании команд из радио, YouTube роликов и белого шума, что, несомненно, является огромной угрозой существующей безопасности. Проще говоря, злоумышленники могут заставить помощника открыть им заблокированную дверь дома, кроме того, выполнить перевод денежных средств, набрать указанный номер телефона и т.д. Владелец не сможет уловить в звучащей устной речи или музыке существующую для себя опасность. При открытом окне ИИ, встроенный в помощника, может улавливать выданную ему команду на расстоянии, равном 7, 6 м.

Исследователи провели эксперименты, после которых выяснили, что небольшие изменения, вносимые в аудиофайлы, могут убирать необходимые команды и заменять их тем звуком, который машина по-разному идентифицирует. В это же время человек не сможет уловить никакой разницы. При приглушении работы устройства ответы и вовсе не будут слышны пользователю.

Подобного рода проблема является совершенно новой из-за того, что она не доступна человеческому уху. Ранее в рекламных роликах помещали открытые фразы, активировавшие помощников, но сейчас можно говорить о подсознательном воздействии, таящем в себе реальную угрозу, против которой пока нет никаких законных методов воздействия.

С выявленной проблемой необходимо разобраться как можно скорее, иначе может случиться катастрофа. По предварительным данным, количество голосовых помощников во всем мире через два года может превысить число всех людей, проживающих на земном шаре. Что касается США, то здесь «умных» помощников в каждом жилом помещении может быть сразу несколько штук.

Все производители осведомлены о наличии опасной уязвимости, но что они собираются предпринять, пока не сообщается. Компания Apple утверждает, что ее продукт имеет ограничения на выполнения команд, Amazon говорит о том, что она уже приняла меры обеспечению безопасности своих колонок Echo, а Google информирует обеспокоенных пользователей о том, что Assistant имеет функции пресечения скрытых команд.

  Японская Japan Display представила новые решения видеогарнитур

Сайт: tvoykomputer.ru


Был ли материал для Вас полезным? Оставьте Ваш отзыв или поделитесь в соц. сетях:

Очень плохоПлохоСреднеХорошоОтлично (1 оценок, среднее: 5,00 из 5)
Загрузка...


Загрузка...
Рекомендую прочесть: