Теневое внедрение ИИ: сотрудники сами покупают ChatGPT — угроза или благо для компании
0

Привет, друзья! На связи Алексей Прохоров — директор по развитию технологий искусственного интеллекта, и вы в подкасте «Теневое внедрение ИИ: сотрудники сами покупают ChatGPT — угроза или благо для компании». Это когда ваши сотрудники — юристы, маркетологи, разработчики — сами покупают подписки на ChatGPT, Claude, Midjourney и тайком используют их для работы. Без ведома IT-отдела. Без согласования со службой безопасности. И знаете что? Это происходит в каждой компании. Прямо сейчас. Пока вы слушаете этот подкаст, кто-то из ваших коллег копирует внутренний финансовый отчёт и вставляет его в чат-бот. Давайте разберёмся, что вообще такое. Определение простое: это использование сотрудниками публичных ИИ-сервисов для обработки корпоративных данных без официального одобрения компании. Но за этим сухим определением — настоящая революция рабочего процесса, которую компании прозевали. Почему это происходит? Сотрудники хотят работать быстрее. Юристу нужно проанализировать контракт на 50 страниц — ChatGPT делает это за минуту вместо трёх часов. Маркетологу нужны 10 вариантов текста — нейросеть выдаёт их мгновенно. Разработчику нужна помощь с кодом — он идёт в Claude. Люди просто берут и используют то, что делает их продуктивнее. Но самое интересное — это масштаб. Мировые данные говорят, что в 90% компаний сотрудники используют внешние ИИ-сервисы для рабочих задач — и чаще всего без формального одобрения. А самое забавное: 88% руководителей служб безопасности — тех самых людей, которые должны это предотвращать — сами признались, что используют неодобренные ИИ-инструменты. То есть даже те, кто должен охранять периметр, уже внутри. Теперь держитесь крепче, сейчас пойдут цифры, от которых реально страшно. 45% сотрудников крупных компаний активно используют генеративный ИИ в работе. Но настоящая проблема в том, как они это делают. 77% корпоративных взаимодействий с ИИ происходит через личные аккаунты сотрудников. И самое опасное — 77% пользователей просто копируют и вставляют данные прямо в запросы к чат-ботам. Причём в 82% случаев это происходит из личных, неуправляемых аккаунтов, полностью невидимых для систем безопасности компании. В среднем сотрудник совершает 14 таких операций в день, и минимум три из них содержат конфиденциальные данные. Представьте: каждый день, трижды, ваша коммерческая тайна улетает в облако без вашего ведома. Реальные кейсы? Пожалуйста. В 2023 году Samsung временно запретила сотрудникам пользоваться ChatGPT после того, как инженеры неоднократно загружали в чат фрагменты исходного кода и конфиденциальные данные. А в России ситуация ещё острее: за 2025 год в нейросети попало в 30 раз больше конфиденциальной информации из российских компаний, чем годом ранее. В 30 раз, Карл! Теперь давайте честно: теневой ИИ — это реально угроза. И вот почему. Первое: потеря контроля.  Когда сотрудник копирует договор в ChatGPT с личного телефона, компания теряет всякую видимость. Где эти данные? Как они хранятся? Кто может получить к ним доступ? Никто не знает. Запрет не помогает — он только делает утечки невидимыми. Люди заходят через мобильные, через личные точки доступа и продолжают работать. Второе: данные утекают напрямую.  Многие внешние ИИ-платформы сохраняют введённые данные для обучения моделей. Информация может оказаться в открытом доступе или быть использована третьими лицами. Летом 2025 года поисковая система начала индексировать публичные чаты пользователей ChatGPT — в выдаче оказались API-ключи, пароли, логины, корпоративные сведения. Третье: цена вопроса колоссальная.  Исследования показывают, что около 20% организаций уже столкнулись с инцидентами безопасности, связанными с теневым ИИ, и каждый такой инцидент добавляет в среднем 670 тысяч долларов к стоимости ущерба от взлома.
Плейлист
Искусственный интеллект | Технологии | Тренды (МАХ: @alproailife)
Всем привет! Это подкаст «Инновации снизу: как услышать идеи рядовых сотрудников и не убить в них инициативу» и с Вами Алексей Прохоров — директор по развитию технологий искусственного интеллекта. С...
26 апреля 2026
Привет, это подкаст «Поколение Z в IT: мифы о ленивых зумерах и реальные мотиваторы» и с вами Алексей Прохоров — директор по развитию технологий искусственного интеллекта. Сегодня мы будем разбираться...
20 апреля 2026
Привет, друзья! На связи Алексей Прохоров — директор по развитию технологий искусственного интеллекта, и вы в подкасте «Теневое внедрение ИИ: сотрудники сами покупают ChatGPT — угроза или благо для ко...
13 апреля 2026
Привет, интернет. На связи Алексей Прохоров — директор по развитию технологий искусственного интеллекта, и вы в подкасте «Токсичный код и токсичные люди: как чистить команду от «звезд», которые валят...
06 апреля 2026
Знаете, что общего между электрическим автомобилем в 2008 году, криптовалютой в 2010-м и искусственным интеллектом, который пишет сценарии, прямо сейчас? В момент появления каждой из этих идей рынок н...
16 марта 2026
Привет, это Алексей Прохоров — директор по развитию технологий искусственного интеллекта, и вы в подкасте «Лидер в эпоху неопределенности: где брать опору, когда рушатся все прогнозы?». Знаете, посл...
16 марта 2026
Привет, это Алексей Прохоров — директор по развитию технологий искусственного интеллекта, и вы в подкасте «Agile — это не «быстро: заблуждения заказчиков о гибких методологиях».Знаете, есть фраза, от...
16 марта 2026
Привет, это Алексей Прохоров — директор по развитию технологий искусственного интеллекта, и вы в подкасте «Почему гибридный формат — это навсегда и как им управлять?». Вы слышали это слово миллион ра...
08 марта 2026
Привет, это Алексей Прохоров — директор по развитию технологий искусственного интеллекта, и вы в подкасте «Как разговаривать с машиной, чтобы получить шедевр (а не просто текст)». Знаешь этот страх? Т...
26 февраля 2026

Чтобы пользоваться нашим сервисом, вам нужно принять пользовательское соглашение.

Мы используем файлы cookies для улучшения работы сайта. Оставаясь на нашем сайте, вы соглашаетесь с условиями использования файлов cookies. Чтобы ознакомиться с нашей Политикой использования файлов cookie, нажмите здесь.