Ars Technica · Разработка · 3 ч назад
Собственные эксперты по психическому здоровью OpenAI единогласно выступили против «непослушного» запуска ChatGPT
OpenAI проводит грань между «грязью» ИИ и порнографией. Эксперты опасаются, что все это вредно для здоровья.
Подробности
Игнорируя взрослых в комнате, собственные эксперты по психическому здоровью OpenAI единогласно выступили против «непослушного» запуска ChatGPT. OpenAI проводит грань между «грязью» ИИ и порнографией. Эксперты опасаются, что все это вредно для здоровья.
Вечером в воскресенье газета The Wall Street Journal сообщила, что инсайдеры подтвердили, что «отобранный совет консультантов OpenAI по благополучию и искусственному интеллекту» «взбесился» из-за планов компании перейти к «взрослому режиму», несмотря на их настойчивые предупреждения.
Еще в январе члены совета единогласно предупредили OpenAI, что «эротика с использованием искусственного интеллекта может способствовать нездоровой эмоциональной зависимости пользователей от ChatGPT и что несовершеннолетние могут найти способы получить доступ к секс-чатам», сообщили источники WSJ. Один эксперт предположил, что без серьезных обновлений ChatGPT OpenAI рискует создать «сексуального тренера по самоубийству» для уязвимых пользователей, склонных к формированию интенсивных связей со своими ботами-компаньонами.
Совет здоровья OpenAI был создан в октябре. Он был создан после негативной реакции после первого известного случая самоубийства несовершеннолетнего, связанного с ChatGPT, и в тот же день, когда Сэм Альтман транслировал на X, было любопытно объявлено, что «взрослый режим» скоро появится в ChatGPT.
Тогда целью OpenAI было обновить ChatGPT, чтобы защитить чувствительных пользователей, проконсультировавшись с «ведущими исследователями и экспертами с многолетним опытом изучения того, как технологии влияют на наши эмоции, мотивацию и психическое здоровье». Однако с тех пор случаев самоубийств стало больше, в том числе два с участием мужчин среднего возраста, чьи семьи обнаружили тревожные журналы чатов, в которых ChatGPT, похоже, использовал свою растущую связь с пользователями в качестве оружия для подстрекательства к членовредительству и другим видам насилия, включая убийства.