В результате случайной публикации API-ключа сотрудником xAI на платформе GitHub, посторонние получили возможность в течение двух месяцев обращаться к внутренним языковым моделям компании. Эти модели разрабатывались на основе данных из SpaceX, Tesla и X (Twitter)*. Обнаружил инцидент и сообщил о нем сотрудник Seralys, который поделился информацией в сети LinkedIn.
Ситуация немедленно привлекла внимание компании GitGuardian, специализирующейся на обнаружении утечек секретных данных в коде. Они выяснили, что опубликованный ключ открывал доступ к как минимум 60 конфиденциальным и усовершенствованным языковым моделям, включая еще не выпущенные версии чат-бота Grok от xAI. Среди них были модели, напрямую связанные с SpaceX и Tesla, например, «grok-spacex-2024-11-04» и «tweet-rejector».
Представители GitGuardian утверждают, что первое уведомление владельцу ключа было отправлено еще 2 марта, однако он продолжал действовать до конца апреля. Лишь после прямого обращения к команде безопасности xAI 30 апреля ключ был деактивирован, а репозиторий удален. До этого момента любой, у кого был этот ключ, мог получить прямой доступ к частным моделям и API xAI от имени сотрудника компании.
По мнению GitGuardian, эта утечка создала благоприятную почву для серьезных атак. Получив доступ к бэкенду Grok, злоумышленники могли внедрять вредоносный код или изменять поведение моделей в своих целях, используя инъекции подсказок.
На фоне этого инцидента стали известны и другие вызывающие опасения факты. Департамент DOGE активно внедряет ИИ в структуры правительства США. Согласно результатам расследований, команда DOGE использовала данные Министерства образования США для обучения ИИ-чата с целью анализа бюджета, и планирует расширить эту практику на другие ведомства. Более того, более 1500 сотрудников федерального агентства получили доступ к внутреннему боту GSAi, разработанному DOGE.
Несмотря на заявления xAI о невозможности доступа к данным пользователей или правительственной информации через скомпрометированный ключ, эксперты выражают сомнения. Модели, обученные на конфиденциальных корпоративных данных, потенциально могли содержать фрагменты информации, относящейся к разработкам внутри xAI, Twitter* или SpaceX.