The Verge · Разработка · 4 ч назад

Мошеннический ИИ привел к серьезному инциденту безопасности в Мете

На прошлой неделе в течение почти двух часов сотрудники Meta имели несанкционированный доступ к данным компании и пользователя благодаря ИИ-агенту, который дал сотруднику неточную техническую консультацию, как ранее сообщало The Information. Представитель Meta Трейси Клейтон заявила в заявлении The Verge, что во время инцидента «никакие пользовательские данные не были обработаны неправильно». Мета-инженер использовал…

Источник The Verge
Опубликовано 4 ч назад
Оригинальный заголовок A rogue AI led to a serious security incident at Meta
Важность 4/5
Почему это может быть интересно Может дать практические идеи для backend, инфраструктуры, инструментов и инженерных решений.
← Назад к ленте Открыть оригинал
#technology#software#platforms#разработка

Подробности

ИИ-агент, подобный OpenClaw, дал сотруднику Meta неточный технический совет, что привело к раскрытию данных.

В течение почти двух часов на прошлой неделе сотрудники Meta имели несанкционированный доступ к данным компании и пользователя благодаря ИИ-агенту, который дал сотруднику неточную техническую консультацию, как ранее сообщало The Information. Представитель Meta Трейси Клейтон заявила в заявлении The Verge, что во время инцидента «никакие пользовательские данные не были неправильно обработаны».

Инженер Meta использовал внутреннего агента искусственного интеллекта, который Клейтон описал как «похожий по своей природе на OpenClaw в безопасной среде разработки», для анализа технического вопроса, который другой сотрудник разместил на внутреннем форуме компании. Но агент также самостоятельно публично ответил на вопрос, проанализировав его, не получив предварительного одобрения. Ответ предназначался только для показа сотруднику, который его запросил, а не для публичного размещения.

Затем сотрудник отреагировал на совет ИИ, который «предоставил неточную информацию», что привело к инциденту безопасности уровня «SEV1» — второму по величине рейтингу серьезности, который использует Meta. Инцидент временно позволил сотрудникам получить доступ к конфиденциальным данным, на просмотр которых им не было разрешено, но с тех пор проблема была решена.

По словам Клейтона, задействованный ИИ-агент сам не предпринял никаких технических действий, за исключением публикации неточных технических рекомендаций, что мог бы сделать и человек. Однако человек мог провести дополнительное тестирование и сделать более полное суждение, прежде чем поделиться информацией — и неясно, планировал ли сотрудник, который первоначально предложил ответ, опубликовать его публично.