Случай произошол с Alexa.

Голосовые помощники всё прочнее укрепляются в нашей жизни, что иногда приводит к довольно смешным и опасным ситуациям.
Но, как показал недавний вариант, иногда голосовой помощник может быть и  небезопасным.
Причём смертельно.

История произошла в США.
10-летняя девченка попросила голосовой ассистент Alexa придумать ей челлендж.
На что Alexa выдала последующее:

Вставьте зарядное устройство для телефона розетку приблизительно наполовину, а потом дотроньтесь до открытых контактов монеткой

Голосовой ассистент предложил ребёнку выполнить смертельный челлендж
Непонятно, чем бы завершилась данная история, если бы рядом в этот момент не находилась мама девченки.
Конкретно она и поведала эту историю.
В тот день мама с дочерью делали разные физические упражнения, и после выполнения еще одного девченка попросила Alexa придумать для неё некий челлендж.
Видимо, девченка по умолчанию пошевелила мозгами, что ИИ предложит выполнить ей какое-либо новое упражнение.
Но вышло совершенно по другому.
Голосовой ассистент предложил ребёнку выполнить смертельный челлендж
Расследование показало, что голосовой помощник брал челлендж из некоего общества Our Community Now, вначале оговорив, что предлагаемый вызов ИИ нашёл в Сети.
В целом же данный челлендж стал популярен в соц. сетях, включая TikTok, ещё около года назад.
К примеру, один из таких случаев в прошедшем году завершился пожаром.
Драматичность в том, что Alexa взяла текст вызова из статьи, которая как раз предупреждала родителей об угрозе схожих челленджей.

Amazon сходу отреагировала на историю, заявив, что поправила ошибку, как только выяснила о ней, правда, не ясно, что конкретно в данном случае является ошибкой и как её поправили.
В конце концов Alexa просто не способна осознать опасность того либо другого челленджа, который она наобум берёт в Сети.