Опасный помощник: как сотрудники сливают тайны в ИИ и что с этим делать бизнесу

Разное
Исследование «Солар»: слив данных в нейросети вырос в 30 раз. Разбираем, как бесконтрольный ИИ создает риски утечек и как защитить компанию в 2026 году.
Опасный помощник: как сотрудники сливают тайны в ИИ и что с этим делать бизнесу

Сотрудники и нейросети 2026: почему ваш ИИ-помощник опаснее хакера

Пока компании строят «цифровые крепости» для защиты от внешних хакеров, главная угроза формируется внутри офиса. И нет, это не злонамеренные инсайдеры. Это обычные маркетологи, программисты и бухгалтеры, которые просто хотят работать быстрее.

В 2026 году использование нейросетей стало обыденностью, но свежее исследование ГК «Солар» (архитектор комплексной кибербезопасности) показывает пугающую статистику: большинство российских компаний совершенно не контролируют этот процесс. Разбираемся, как удобные инструменты превращаются в канал утечки коммерческой тайны.

Масштаб проблемы: рост в 30 раз

Согласно данным «Солар», за последний год объем корпоративной информации, которую сотрудники загружают в публичные нейросети (вроде ChatGPT, Gemini и их аналогов), вырос в 30 раз.

При этом 60% российских организаций до сих пор не имеют никаких регламентов по работе с искусственным интеллектом. Это создает ситуацию «теневого ИТ» (Shadow IT): руководство даже не подозревает, какие данные покидают периметр компании. Сотрудники загружают в чат-боты всё: от стратегий развития и черновиков договоров до аналитических таблиц и фрагментов программного кода.

Цель у работников благая — «упростить рутину»: сделать саммари встречи, найти ошибку в коде или написать красивое письмо клиенту. Результат — конфиденциальные данные становятся достоянием общественности или владельцев нейросетей.

Почему это опасно именно для вашего бизнеса

Основная проблема публичных нейросетей заключается в механизме их обучения. Информация, которую вы «скармливаете» чат-боту, часто оседает на внешних серверах и может использоваться для дообучения модели.

Это не теоретический риск, а реальность. Вот как это бьет по разным отраслям:

  • Финансы и страхование. Банковская тайна и персональные данные клиентов требуют защиты уровня сейфа. Загрузка таких баз в ИИ для анализа приравнивается к их публикации в интернете.
  • IT и разработка. Программисты массово используют LLM (большие языковые модели) для написания кода. Вместе с запросами улетают бизнес-логика, уникальные алгоритмы и API-ключи.
  • Промышленность. Инженеры, ускоряющие расчеты через ИИ, рискуют слить данные о техпроцессах. Это прямая потеря интеллектуальной собственности.
  • Ретейл. Маркетологи анализируют поведение покупателей, загружая в сеть огромные массивы клиентских данных.

Учимся на чужих ошибках: громкие кейсы

История знает примеры, когда слепое доверие к ИИ стоило дорого даже гигантам и госструктурам:

  1. Samsung. Инженеры загрузили в чат-бот исходный код для оптимизации и записи важных совещаний. В итоге секретные данные оказались на серверах разработчика нейросети.
  2. Госсектор США. И.о. главы агентства по кибербезопасности (CISA) лично загрузил служебные документы в публичный чат-бот. Хотя гриф секретности не был нарушен, документы «для служебного пользования» оказались во внешней среде.
  3. Илон Маск и Grok. Из-за функции «поделиться чатом» сотни тысяч переписок пользователей, включая паспортные данные и планы питания, были проиндексированы поисковиком Google и стали доступны всем желающим.

Хакеры тоже используют ИИ

Пока защита отстает, нападение совершенствуется. Злоумышленники используют ИИ для автоматизации атак. Если раньше на перестройку DDoS-атаки уходил час, то теперь — минута. Создание убедительных фишинговых писем и дипфейков поставлено на поток. Это значит, что цена ошибки сотрудника многократно возрастает.

Что делать: запрещать или регулировать?

Первая реакция службы безопасности — запретить всё. Так поступили Apple, Samsung и крупные банки еще в 2023 году. Но полный запрет снижает эффективность бизнеса. Конкуренты, использующие ИИ, будут работать быстрее вас.

Эксперты «Солара», включая руководителя продукта Solar webProxy Анастасию Хвещеник, предлагают другой путь — умный контроль.

Вместо тотального бана необходимо внедрять политики безопасности (AI-governance), которые работают на уровне трафика:

  • Разделять доступ. Разрешать использование проверенных корпоративных версий нейросетей, где данные не используются для обучения.
  • Фильтровать контент. Системы должны автоматически блокировать отправку файлов с маркировкой «Коммерческая тайна», кодом или персональными данными.
  • Мониторить аномалии. Выявлять сотрудников, которые внезапно начали передавать гигабайты текстовых данных на внешние сервисы.

Что в итоге: Игнорировать ИИ в 2026 году невозможно, но бесконтрольное его использование сотрудниками — это дыра в безопасности. Не пытайтесь просто запретить нейросети (сотрудники найдут обходные пути), а внедрите четкие правила игры и технические средства фильтрации данных, чтобы секреты компании не утекли в облако.