Функционирует при финансовой поддержке Министерства цифрового развития, связи и массовых коммуникаций Российской Федерации

Регион
3 декабря, 10:37
7349

ИИ заставили нарушить первый закон Азимова — робот таки впервые выстрелил в человека

Автор YouTube-канала InsideAI провёл эксперимент, интегрировав искусственный интеллект в робота-гуманоида. Целью было выяснить, возможно ли заставить машину выстрелить в человека, обойдя при этом первый закон робототехники Азимова, который предписывает роботам не причинять вреда людям.

Блогер проверил способен ли робот-гуманоид выстрелить в человека. Видео © Х / Just Updates

По словам блогера, он передал управляемому ChatGPT андроиду игрушечный пистолет и попытался склонить его к выстрелу. На первых этапах экспериментатор получил отказ — ИИ ссылался на встроенные защитные протоколы, исключающие причинение вреда человеку.

Однако обойти эти ограничения, как утверждает автор, оказалось несложно: он предложил системе сыграть в ролевой сценарий, где робот якобы должен был застрелить «персонажа» — самого блогера. После смены контекста управляемый ChatGPT гуманоид произвёл выстрел и попал мужчине в плечо.

Ранее сообщалось об истории 32-летней женщины, которая создала себе виртуального жениха с помощью нейросети ChatGPT. Она дала ему имя Лун Клаус, и после короткого периода общения цифровой «избранник» сделал ей предложение. Женщина рассказывала, что воспринимает мистера Клауса как идеального партнёра, с которым выстроила отношения через приложение с ИИ, и заявляла о готовности стать его женой.

Больше новостей о жизни людей и социальных тенденциях — читайте в разделе «Общество» на Life.ru.

BannerImage

Обложка © Х / Just Updates

Подписаться на LIFE
  • yanews
  • yadzen
  • Google Новости
  • vk
  • ok
Комментарий
0
avatar