Случай произошол с Alexa.
Голосовые помощники всё прочнее укрепляются в нашей жизни, что иногда приводит к довольно смешным и опасным ситуациям.
Но, как показал недавний вариант, иногда голосовой помощник может быть и небезопасным.
Причём смертельно.
История произошла в США.
10-летняя девченка попросила голосовой ассистент Alexa придумать ей челлендж.
На что Alexa выдала последующее:
Вставьте зарядное устройство для телефона розетку приблизительно наполовину, а потом дотроньтесь до открытых контактов монеткой
Непонятно, чем бы завершилась данная история, если бы рядом в этот момент не находилась мама девченки.
Конкретно она и поведала эту историю.
В тот день мама с дочерью делали разные физические упражнения, и после выполнения еще одного девченка попросила Alexa придумать для неё некий челлендж.
Видимо, девченка по умолчанию пошевелила мозгами, что ИИ предложит выполнить ей какое-либо новое упражнение.
Но вышло совершенно по другому.
Расследование показало, что голосовой помощник брал челлендж из некоего общества Our Community Now, вначале оговорив, что предлагаемый вызов ИИ нашёл в Сети.
В целом же данный челлендж стал популярен в соц. сетях, включая TikTok, ещё около года назад.
К примеру, один из таких случаев в прошедшем году завершился пожаром.
Драматичность в том, что Alexa взяла текст вызова из статьи, которая как раз предупреждала родителей об угрозе схожих челленджей.
Amazon сходу отреагировала на историю, заявив, что поправила ошибку, как только выяснила о ней, правда, не ясно, что конкретно в данном случае является ошибкой и как её поправили.
В конце концов Alexa просто не способна осознать опасность того либо другого челленджа, который она наобум берёт в Сети.