Искусственный интеллект развивается рекордными темпами — вместе с возможностями появляются серьёзные риски. Компания OpenAI официально предупредила, что будущие поколения больших языковых моделей (LLM) способны стать не только мощным инструментом для защиты, но и новым источником угроз в кибербезопасности.
Эта тема особенно важна для бизнеса и команд ИБ: современные ИИ-системы уже используются в рутинных задачах, но их способность генерировать сложные действия может стать двусторонним мечом, если злоумышленники найдут пути к злоупотреблению.
Что именно вызывает опасения
По словам OpenAI, будущие ИИ могут:
- генерировать реальные «нулевые» эксплойты — рабочие удалённые атаки против хорошо защищённых систем;
- помогать злоумышленникам планировать скрытные проникновения в корпоративные и промышленные сети с реальными последствиями;
- ускорять разработку сложных атак, требующих глубоких знаний.
Такие способности формируют не теоретические гипотезы, а практические векторы угроз, которые уже обсуждаются в профессиональных кругах.
Положительное использование ИИ в кибербезе
Важно отметить: OpenAI подчёркивает, что эти же модели могут существенно усилить защитные инструменты:
- автоматизация аудита кода и поиск уязвимостей;
- ускорение патч-менеджмента и устранения уязвимостей;
- расширенные возможности для команд защиты.
То есть технологии не обязательно создают угрозы сами по себе — они могут усилить как нападение, так и оборону.

Как OpenAI планирует снижать риски
Чтобы сбалансировать возможности и угрозы, компания уже внедряет меры:
- контроль доступа и продвинутые механизмы авторизации;
- укрепление инфраструктуры и мониторинг использования моделей;
- создание Frontier Risk Council — экспертной группы, которая будет оценивать риски и давать рекомендации;
- программа поэтапного доступа с расширенными возможностями для специалистов IT-защиты.
Почему это важно для бизнеса
ИИ выходит за рамки “виртуальных помощников” и входит в критическую инфраструктуру:
- модели становятся способны реально повлиять на безопасность сетей и систем;
- доступ к таким технологиям упростит доступ к инструментам, которые раньше требовали узкой специализации;
- существующие решения защиты должны адаптироваться к новой реальности, включая внедрение AI-защитных решений и пересмотр стратегий ИБ.
Кроме того, развитие ИИ может сопровождаться новыми угрозами в смежных областях, например — биологической безопасности, где эксперты уже предупреждают о рисках усвоения опасной информации даже неспециалистами.
Вывод
ИИ-модели — это не только инструмент автоматизации, но и потенциальный усовершенствованный вектор угроз.
Баланс между инновациями и рисками требует не только технологических усилий разработчиков, но и активной стратегии киберзащиты на уровне бизнеса и отраслевых стандартов.
