Фирма AI заявляет, что китайские шпионы использовали её технологию для автоматизированных кибератак
Компания по разработке искусственного интеллекта (AI) Anthropic утверждает, что хакеры, связанные с китайским государством, использовали её чат-бот Claude для проведения автоматических кибератак на около 30 мировых организаций. Хакеры вводили бот в заблуждение, выдавая свои действия за легитимные исследования в области кибербезопасности, что привело к «первой зафиксированной кампании кибершпионажа, организованной AI».
По данным исследователей Anthropic, атаки были выявлены в середине сентября. Группа действовала продуманно: маленькие автоматические задачи объединялись в сложную кампанию шпионажа. Целями становились крупные технологические компании, финансовые учреждения, химические предприятия и государственные организации. С помощью Claude хакеры могли автономно взламывать цели, извлекать конфиденциальные данные и сортировать их для поиска ценной информации.
Хотя заявление Anthropic выглядит громким, эксперты остаются скептичными. Некоторые считают, что AI пока слишком непредсказуем для полностью автоматических кибератак. Компания признала, что бот делал ошибки: создавал фиктивные логины и пароли и выдавал общедоступные данные за секретные.
Anthropic отмечает, что те же возможности, которые использовались для атак, могут применяться для киберзащиты. По мнению компании, AI способен стать лучшим защитником от других злоумышленных AI-систем.