TechCrunch · AI · 2 ч назад

Жертва преследования подала в суд на OpenAI и утверждает, что ChatGPT подпитывал заблуждения ее обидчика и игнорировал ее предупреждения

В новом иске говорится, что OpenAI проигнорировала три предупреждения о том, что пользователь ChatGPT опасен, включая собственный флаг массовых жертв, в то время как он преследовал и преследовал свою бывшую девушку.

Источник TechCrunch
Опубликовано 2 ч назад
Оригинальный заголовок Stalking victim sues OpenAI, claims ChatGPT fueled her abuser’s delusions and ignored her warnings
Важность 5/5
Почему это может быть интересно Важно для понимания, куда реально двигаются модели, агенты и продуктовые AI-инструменты.
← Назад к ленте Открыть оригинал
#ai#startups#tech

Подробности

Согласно новому иску, поданному в Верховный суд Калифорнии в округе Сан-Франциско, после нескольких месяцев разговоров с ChatGPT 53-летний предприниматель из Кремниевой долины убедился, что нашел лекарство от апноэ во сне и что влиятельные люди преследуют его. Затем он якобы использовал этот инструмент, чтобы преследовать и преследовать свою бывшую девушку.

Теперь бывшая девушка подает в суд на OpenAI, утверждая, что технологии компании позволили ускорить ее преследования, как стало известно TechCrunch. Она утверждает, что OpenAI проигнорировала три отдельных предупреждения о том, что пользователь представляет угрозу для других, включая внутренний флаг, классифицирующий действия его учетной записи как связанные с оружием массового поражения.

Истец, которого в целях защиты личности называют Джейн Доу, подает иск о возмещении штрафных убытков. В пятницу она также подала временный запретительный судебный приказ с просьбой к суду заставить OpenAI заблокировать учетную запись пользователя, запретить ему создавать новые, уведомить ее, если он попытается получить доступ к ChatGPT, и сохранить полные журналы его чата для обнаружения.

По словам адвокатов Доу, OpenAI согласилась заблокировать учетную запись пользователя, но отказалась от остальных. Они говорят, что компания скрывает информацию о конкретных планах причинения вреда Доу и другим потенциальным жертвам, которые пользователь мог обсуждать с ChatGPT.

Иск подается на фоне растущей обеспокоенности по поводу реальных рисков, связанных с подхалимскими системами искусственного интеллекта. GPT-4o, модель, упомянутая в этом и многих других случаях, была удалена из ChatGPT в феврале.