В отчете говорится, что «теневой ИИ» увеличивает стоимость утечек данных

0
GettyImages-1976099664

Согласно новым данным IBM, компании не в состоянии защитить свои инструменты ИИ от компрометации, что часто приводит к более масштабным утечкам данных.

  • Согласно новому отчету IBM , неконтролируемые инструменты искусственного интеллекта приводят к увеличению расходов на утечки данных.
  • По данным ежегодного отчета IBM Cost of Data Breach, каждая пятая опрошенная организация заявила, что столкнулась с кибератакой из-за проблем безопасности с «теневым ИИ». Такие атаки обходятся в среднем на 670 000 долларов дороже, чем нарушения безопасности в компаниях, где теневой ИИ практически отсутствует .
  • Согласно отчету, хотя только 13% организаций сообщили о нарушениях, связанных с инструментами ИИ, в 97% этих организаций «не было надлежащего контроля доступа ИИ».

Пока руководители служб безопасности пытаются понять, как контролировать новые платформы искусственного интеллекта в своих компаниях, отчет IBM иллюстрирует потенциальные последствия недостаточно серьезного отношения к безопасности искусственного интеллекта.

Один из наиболее важных выводов исследования касается повсеместного использования слабых средств аутентификации как фактора взлома бизнес-платформ ИИ. По данным IBM, наиболее распространенной точкой этих атак было проникновение в цепочку поставок, когда хакеры получали доступ к инструментам ИИ через «скомпрометированные приложения, API или плагины». Результаты исследования подчёркивают важность базовых мер безопасности для инструментов ИИ и других бизнес-платформ, включая принципы нулевого доверия, такие как сегментация сети.

После того как хакеры проникли на платформу искусственного интеллекта компании, они часто ставили под угрозу другие хранилища данных (что произошло в 60% случаев) и иногда вызывали сбои в работе важной инфраструктуры (31% случаев).

Несмотря на явные доказательства того, что пристальное внимание к безопасности инструментов ИИ может предотвратить дорогостоящие нарушения, компании не спешат внедрять программы управления. 63% компаний, столкнувшихся с нарушением безопасности, заявили об отсутствии политики управления ИИ, хотя некоторые из них разрабатывают её. Даже компании, у которых были политики, часто оказывались несовершенными — IBM обнаружила, что менее половины таких организаций «имеют процесс утверждения для внедрения ИИ», а 62% из них не смогли внедрить строгий контроль доступа к своим инструментам ИИ.

Согласно отчету, только 34% организаций, использующих политику управления ИИ, регулярно проверяют свои сети на наличие санкционированных инструментов. Этот вывод помогает объяснить распространенность «теневого ИИ», часто связанную с повышенными затратами на устранение нарушений.

Тем временем хакеры продолжают использовать генеративный ИИ для проведения атак. «В среднем 16% утечек данных были связаны с использованием ИИ, чаще всего для фишинга с использованием ИИ (37%) и атак с использованием фейков (35%)», — сообщает IBM. Ранее компания сообщала , что генеративный ИИ сократил время, необходимое для написания убедительного фишингового письма, с 16 часов до пяти минут.

IBM заявила, что ее отчет основан на 470 интервью с «лицами из 600 организаций, пострадавших от утечки данных в период с марта 2024 года по февраль 2025 года».

About The Author

Добавить комментарий