Нейросеть дала человеку смертельный совет: бот предложил убойное средство для уборки

Вот как ИИ оправдался.
Доверяете нейросетям свои бытовые проблемы — можете казаться на больничной койке. А все потому, что советы робота могут быть убийственными в прямом смысле слова.
Нейросети не так уж и безобидны. Интернет-пользователь рассказал, как чат-бот ChatGPT едва не убил его, посоветовав смешать отбеливатель и уксус. Для справки: так делать категорически нельзя. В результате реакции можно отравиться газообразным хлором.
Обеспокоенный мужчина рассказал в своем посте под названием «ChatGPT пытался убить меня сегодня», что обратился к боту за советом по очистке мусорных баков. И получил рекомендацию использовать раствор, содержащий, помимо прочего, уксус и немного отбеливателя.
Почему нельзя смешивать уксус и отбеливатель
Смешивать отбеливатель и уксус нельзя, потому что это может быть опасно для здоровья.
При смешивании этих компонентов образуется хлорный газ, который может вызвать серьёзные ожоги дыхательных путей. Даже небольшое количество смеси из отбеливателя и уксуса способно привести к удушью и отравлению.
К счастью, пользователь оказался не лыком шит и вовремя заметил ошибку. После указания на оплошность, чат-бот оперативно исправился и предостерег от смешивания этих двух веществ.
«Боже мой, нет, спасибо, что заметили это», — ответил чат-бот. Как говорится, лучше поздно, чем никогда. Получается, что даже самые продвинутые нейросети могут выдавать опасные рекомендации. И если слепо им доверять, то можно нажить себе серьезные проблемы.