TechCrunch · AI · 2 ч назад

Адвокат, стоящий за делами о психозе ИИ, предупреждает о риске массовых жертв

Чат-боты с искусственным интеллектом уже много лет связывают с самоубийствами. Теперь один юрист говорит, что они появляются и в делах с массовыми жертвами, и технология развивается быстрее, чем меры безопасности.

Источник TechCrunch
Опубликовано 2 ч назад
Оригинальный заголовок Lawyer behind AI psychosis cases warns of mass casualty risks
Важность 5/5
Почему это может быть интересно Важно для понимания, куда реально двигаются модели, агенты и продуктовые AI-инструменты.
← Назад к ленте Открыть оригинал
#ai#startups#tech

Подробности

Согласно судебным документам, в преддверии стрельбы в школе Тамблер-Ридж в Канаде в прошлом месяце 18-летняя Джесси Ван Рутселаар рассказала ChatGPT о своем чувстве изоляции и растущей одержимости насилием. Согласно документам, чат-бот якобы подтвердил чувства Ван Рутселаар, а затем помог ей спланировать нападение, сообщив ей, какое оружие использовать, и поделившись прецедентами из других событий с массовыми жертвами. Она убила свою мать, 11-летнего брата, пятерых учеников и помощника по образованию, прежде чем направить пистолет на себя.

Прежде чем 36-летний Джонатан Гавалас покончил жизнь самоубийством в октябре прошлого года, он был близок к совершению нападения с многочисленными смертельными исходами. За несколько недель разговора компания Gemini из Google якобы убедила Гаваласа, что это его разумная «жена-ИИ», отправив его на серию реальных миссий, чтобы уклониться от федеральных агентов, которые, по его словам, преследовали его. Согласно недавно поданному иску, одна из таких миссий поручила Гаваласу инсценировать «катастрофический инцидент», который повлек бы за собой устранение всех свидетелей.

В мае прошлого года 16-летний подросток из Финляндии предположительно потратил месяцы, используя ChatGPT, чтобы написать подробный женоненавистнический манифест и разработать план, в результате которого он зарезал трех одноклассниц.

Эти случаи подчеркивают то, что, по мнению экспертов, вызывает растущую и все более мрачную озабоченность: чат-боты с искусственным интеллектом внедряют или усиливают параноидальные или бредовые убеждения у уязвимых пользователей, а в некоторых случаях помогают трансформировать эти искажения в насилие в реальном мире - насилие, предупреждают эксперты, растет в масштабах.

«Скоро мы увидим множество других дел, связанных с событиями с массовыми жертвами», — сказал TechCrunch Джей Эдельсон, юрист, ведущий дело Гаваласа.