- 13 декабря, 2025
Ключ к эффективности
Страхование занимает особое место в наборе инструментов для управления рисками, связанными с применением ИИ. По мнению первого заместителя председателя Комитета Совета Федерации по конституционному законодательству и государственному строительству Артема Шейкина, ключ к эффективности — согласованные стандарты, понятное распределение ответственности и доступ к статистике инцидентов для корректной тарификации.
ССТ: В современном мире появляется все больше новых высокотехнологичных вещей, механизмов, сервисов и др. Если раньше роботы встречались только на производственных площадках, то сейчас они активно входят в нашу жизнь, иногда помимо нашей воли. Например, в сервисных службах уже чаще можно столкнуться с ИИ, чем с живым человеком. Какие риски, связанные с новыми технологиями, вы назвали бы самыми существенными и почему?
Артем Шейкин: Наиболее существенные риски я бы выделил в три взаимосвязанные группы.
Во-первых, это безопасность и киберустойчивость: уязвимости в программном обеспечении, целевые атаки, саботаж, утечки и подмена данных, которые способны парализовать сервисы и нарушить непрерывность бизнеса. Во-вторых, ответственность и подотчетность: в условиях автономности систем часто неочевидно, кто отвечает за ущерб — разработчик модели, поставщик данных, интегратор, оператор или пользователь, — что усложняет взыскание убытков и превентивный контроль. В-третьих, дискриминация и некорректные данные: ошибки разметки, не прошедшие проверку качества наборы данных приводят к несправедливым и неточным решениям.
Почему это критично: ущерб от ИИ способен одновременно охватывать большие группы пострадавших и оставаться сложно доказуемым из-за «черного ящика» моделей и распределенности ролей в цепочке поставок. Фрагментация ответственности между участниками и отсутствие единых стандартов прослеживаемости решений затрудняют оценку рисков и страховое тарифицирование.
Дополнительно риски усиливаются тем, что аналитические и генеративные системы напрямую воздействуют на принятие решений в финансах, медицине и транспорте, где цена ошибки высока: от финансовой дестабилизации и дискриминации клиентов до угрозы жизни и безопасности, а также цепных отказов критической инфраструктуры.
ССТ: Насколько существенными вы считаете риски, связанные с применением ИИ?
А. Ш.: Риски, связанные с применением ИИ, я считаю существенными, но их уровень сильно зависит от контекста использования. В высокорисковых сферах — медицина, транспорт, финансовые услуги, критическая инфраструктура — цена ошибки высока, а влияние ИИ на принятие решений прямое, поэтому вероятность тяжелых последствий и масштабы воздействия значительно выше. В массовых потребительских сервисах риски чаще проявляются через некорректные рекомендации, дискриминацию, утечки данных и сбои доступности, что может быть менее опасно для жизни, но ощутимо для финансов и репутации.
Ключевой фактор — степень автономности и непрозрачность алгоритмов. Чем больше система принимает решения без человека и использует закрытые модели или данные, тем сложнее доказать причинно-следственную связь, распределить ответственность и оценить страхуемость. Поэтому необходим риск-ориентированный подход: строгие требования и контроль для высокорисковых применений, сертификация и аудит качества данных, прослеживаемость решений, а также страховые механизмы, увязанные с уровнем управляемости и зрелостью процессов безопасности.
ССТ: Как можно управлять этими рисками: есть ли здесь место страхованию, и если да, то как оно должно применяться?
А. Ш.: Управлять рисками ИИ разумно через совокупность организационных, технических и правовых инструментов. На практике это включает риск-ориентированную классификацию применений, минимальные требования к безопасности и качеству данных, независимую оценку и тестирование до запуска, мониторинг и журналирование решений, управление поставщиками и контрагентами, планы реагирования на инциденты и регулярные учения. Важна прослеживаемость по всей цепочке: от источников данных и версий моделей до изменений настроек и контекстов применения.
Управлять рисками ИИ разумно через совокупность организационных, технических и правовых инструментов
Страхование занимает в этом наборе инструментов отдельное место как механизм финансовой защиты и дисциплины. Полезны покрытия киберрисков, ответственности за продукт и профессиональной ответственности при использовании ИИ, а также решения для перерывов в деятельности и системных событий. Страховые условия могут привязываться к соблюдению сертифицированных практик безопасности, качеству процессов и уровню прозрачности, чтобы стимулировать снижение риска и улучшать доступность покрытия.
Выбор формы страхования — обязательной, вмененной или добровольной — целесообразно соотносить с уровнем риска и общественной значимостью. В высокочувствительных сферах логичен более жесткий режим с минимальными лимитами и требованиями к управлению рисками; в широком коммерческом применении — гибкие добровольные продукты с тарифными стимулами за зрелые практики. В любом случае ключ к эффективности — согласованные стандарты, понятное распределение ответственности и доступ к статистике инцидентов для корректной тарификации.
ССТ: Какие стороны должны быть привлечены для выработки гармоничных и эффективных решений?
А. Ш.: Выработка грамотных и сбалансированных невозможна усилиями одного участника — слишком сложная и комплексная эта область. Здесь должны быть задействованы и государство, и технологические компании, и научные центры, и страховой сектор, и общественные организации.
Государственные структуры определяют рамки безопасности, устанавливают допустимый уровень риска и фиксируют ответственность сторон. Однако сами по себе регуляторные меры не обеспечат качество: без участия бизнеса невозможно понять, какие требования реально применимы, где возникают технологические ограничения и как устроены цепочки создания и внедрения ИИ-систем.
Не менее значима экспертиза научных и исследовательских центров. Именно они способны проводить независимую оценку алгоритмов, тестировать модели, анализировать ошибки данных и выявлять скрытые риски — то, что требует методологической строгости и академической компетенции. Их участие позволяет избежать как избыточных запретов, так и чрезмерно мягких подходов.
Существенную роль играет и страховой сектор. Страховые механизмы помогают переводить технологические риски в измеримую плоскость: устанавливать финансовые лимиты, стимулировать компании повышать качество данных и процессов, требовать прозрачности моделей. Это один из немногих инструментов, который одновременно повышает безопасность и дисциплинирует рынок.
Наконец, важно участие общественных организаций и самих пользователей. Они формируют обратную связь о том, как технологии воспринимаются в обществе, где возникают страхи, а где — реальные проблемы: от приватности и дискриминации до отсутствия прозрачности решений. Без этого невозможно выстроить доверие к ИИ-системам.
По сути, эффективное управление рисками в сфере искусственного интеллекта строится на совместной работе всех участников — государства, науки, бизнеса, страхового рынка и общества. Только такая модель позволяет сочетать безопасность, технологическое развитие и общественное доверие.
ССТ: Какие этапы должна пройти дискуссия?
А. Ш.: Дискуссия о рисках искусственного интеллекта, действительно, должна идти поэтапно, не как формальный обмен мнениями, а как последовательный процесс выработки зрелой позиции государства, рынка и общества.
Первым шагом должно стать согласование терминов и подходов. Пока участники обсуждают ИИ в разных смыслах — от бытовых ассистентов до высокорисковых автономных систем — невозможно прийти к консенсусу и вырабатывать единые правила. Необходимо договориться о классификации рисков, уровнях автономности, критериях критичности данных и сферах, где требуется повышенное внимание.
Следующий этап — открытая оценка рисков и сценариев. Здесь важна не риторика и не эмоциональная оценка технологий, а анализ конкретных ситуаций: где уже произошли инциденты, какие уязвимости повторяются, какие злоупотребления возможны при нынешних технологиях, и где цена ошибки особенно высока. Это работа, требующая участия инженеров, юристов, экспертов по информационной безопасности, специалистов по этике и представителей других профильных отраслей.
Далее необходимо обсуждение моделей ответственности. В условиях, когда над одной ИИ-системой работает десяток участников — разработчики моделей, интеграторы, поставщики данных, конечные пользователи, — вопрос «кто отвечает?» становится краеугольным. Без ясных правил невозможно ни страхование рисков, ни правоприменение, ни защита пострадавших.
Отдельного акцента заслуживает определение минимальных стандартов безопасности и прозрачности. Речь о требованиях к качеству данных, аудитам моделей, управлению версиями и поставщиками. На этом этапе важна позиция государства и регуляторов — именно они определяют, какие требования станут обязательными, а какие останутся добровольными.
Выработка грамотных и сбалансированных решений невозможна усилиями одного участника. Здесь должны быть задействованы и государство, и технологические компании, и научные центры, и страховой сектор, и общественные организации.
Завершать дискуссию должны механизмы внедрения: какие меры вводить сразу, какие — в переходный период, а какие — в пилотном режиме. Здесь требуется найти баланс между безопасностью и развитием: слишком жесткие нормы могут заморозить технологии, слишком мягкие — создать почву для злоупотреблений. Поэтому итоговая модель должна быть поэтапной и адаптируемой по мере накопления практики.
Таким образом, качественная дискуссия о рисках ИИ должна представлять из себя выстроенную последовательность действий: согласование мнений и точек зрения, оценка рисков, распределение ответственности, формирование стандартов и, разумеется, переход к управляемому внедрению, основанного на риск-ориентированном подходе. Только в этом случае результат будет не декларативным, а по-настоящему эффективным.
Этапы дискуссии о рисках использования ИИ
- Согласование терминов и подходов
- Открытая оценка рисков и сценариев
- Обсуждение моделей ответственности
- Определение минимальных стандартов безопасности и прозрачности
- Механизмы внедрения поэтапной адаптивной модели