• 13 декабря, 2025

Ключ к эффективности

Шейкин Артем

Первый заместитель председателя Комитета Совета Федерации по конституционному законодательству и государственному строительству

Ключ к эффективности

Страхование занимает особое место в наборе инструментов для управления рисками, связанными с применением ИИ. По мнению первого заместителя председателя Комитета Совета Федерации по конституционному законодательству и государственному строительству Артема Шейкина, ключ к эффективности — согласованные стандарты, понятное распределение ответственности и доступ к статистике инцидентов для корректной тарификации.

ССТ: В современном мире появляется все больше новых высокотехнологичных вещей, механизмов, сервисов и др. Если раньше роботы встречались только на производственных площадках, то сейчас они активно входят в нашу жизнь, иногда помимо нашей воли. Например, в сервисных службах уже чаще можно столкнуться с ИИ, чем с живым человеком. Какие риски, связанные с новыми технологиями, вы назвали бы самыми существенными и почему?

Артем Шейкин: Наиболее существенные риски я бы выделил в три взаимосвязанные группы.

Во-первых, это безопасность и ки­берустойчивость: уязвимости в про­граммном обеспечении, целевые атаки, саботаж, утечки и подмена данных, которые способны парализовать серви­сы и нарушить непрерывность бизнеса. Во-вторых, ответственность и подот­четность: в условиях автономности систем часто неочевидно, кто отвечает за ущерб — разработчик модели, по­ставщик данных, интегратор, оператор или пользователь, — что усложняет взыскание убытков и превентивный контроль. В-третьих, дискриминация и некорректные данные: ошибки раз­метки, не прошедшие проверку качества наборы данных приводят к несправед­ливым и неточным решениям.

Почему это критично: ущерб от ИИ способен одновременно охваты­вать большие группы пострадавших и оставаться сложно доказуемым из-за «черного ящика» моделей и распределенности ролей в цепочке поставок. Фрагментация ответствен­ности между участниками и отсутствие единых стандартов прослеживаемости решений затрудняют оценку рисков и страховое тарифицирование.

Дополнительно риски усиливаются тем, что аналитические и генератив­ные системы напрямую воздействуют на принятие решений в финансах, меди­цине и транспорте, где цена ошибки высока: от финансовой дестабилизации и дискриминации клиентов до угрозы жизни и безопасности, а также цепных отказов критической инфраструктуры.

ССТ: Насколько существенными вы считаете риски, связанные с приме­нением ИИ?

А. Ш.: Риски, связанные с применени­ем ИИ, я считаю существенными, но их уровень сильно зависит от контекста использования. В высокорисковых сферах — медицина, транспорт, фи­нансовые услуги, критическая ин­фраструктура — цена ошибки высока, а влияние ИИ на принятие решений прямое, поэтому вероятность тяже­лых последствий и масштабы воздей­ствия значительно выше. В массовых потребительских сервисах риски чаще проявляются через некорректные ре­комендации, дискриминацию, утечки данных и сбои доступности, что может быть менее опасно для жизни, но ощу­тимо для финансов и репутации.

Ключевой фактор — степень авто­номности и непрозрачность алгорит­мов. Чем больше система принимает решения без человека и использует закрытые модели или данные, тем сложнее доказать причинно-следствен­ную связь, распределить ответствен­ность и оценить страхуемость. Поэто­му необходим риск-ориентированный подход: строгие требования и контроль для высокорисковых применений, сер­тификация и аудит качества данных, прослеживаемость решений, а также страховые механизмы, увязанные с уровнем управляемости и зрелостью процессов безопасности.

ССТ: Как можно управлять этими рисками: есть ли здесь место страхо­ванию, и если да, то как оно должно применяться?

А. Ш.: Управлять рисками ИИ разумно через совокупность органи­зационных, технических и правовых инструментов. На практике это вклю­чает риск-ориентированную класси­фикацию применений, минимальные требования к безопасности и качеству данных, независимую оценку и те­стирование до запуска, мониторинг и журналирование решений, управле­ние поставщиками и контрагентами, планы реагирования на инциденты и регулярные учения. Важна просле­живаемость по всей цепочке: от источ­ников данных и версий моделей до изменений настроек и контекстов применения.

Управлять рисками ИИ разумно через совокупность организационных, технических и правовых инструментов

Страхование занимает в этом наборе инструментов отдельное место как механизм финансовой защиты и дис­циплины. Полезны покрытия кибер­рисков, ответственности за продукт и профессиональной ответственности при использовании ИИ, а также ре­шения для перерывов в деятельности и системных событий. Страховые ус­ловия могут привязываться к соблю­дению сертифицированных практик безопасности, качеству процессов и уровню прозрачности, чтобы стиму­лировать снижение риска и улучшать доступность покрытия.

Выбор формы страхования — обя­зательной, вмененной или добро­вольной — целесообразно соотносить с уровнем риска и общественной зна­чимостью. В высокочувствительных сферах логичен более жесткий режим с минимальными лимитами и тре­бованиями к управлению рисками; в широком коммерческом примене­нии — гибкие добровольные продукты с тарифными стимулами за зрелые практики. В любом случае ключ к эф­фективности — согласованные стандар­ты, понятное распределение ответствен­ности и доступ к статистике инцидентов для корректной тарификации.

ССТ: Какие стороны должны быть при­влечены для выработки гармоничных и эффективных решений?

А. Ш.: Выработка грамотных и сба­лансированных невозможна усилиями одного участника — слишком слож­ная и комплексная эта область. Здесь должны быть задействованы и государство, и технологические компании, и научные центры, и страховой сектор, и общественные организации.

Государственные структуры определяют рамки без­опасности, устанавливают допустимый уровень риска и фиксируют ответственность сторон. Однако сами по себе регуляторные меры не обеспечат качество: без участия бизнеса невозможно понять, какие требова­ния реально применимы, где возникают технологиче­ские ограничения и как устроены цепочки создания и внедрения ИИ-систем.

Не менее значима экспертиза научных и исследо­вательских центров. Именно они способны прово­дить независимую оценку алгоритмов, тестировать модели, анализировать ошибки данных и выявлять скрытые риски — то, что требует методологической строгости и академической компетенции. Их участие позволяет избежать как избыточных запретов, так и чрезмерно мягких подходов.

Существенную роль играет и страховой сек­тор. Страховые механизмы помогают переводить технологические риски в измеримую плоскость: устанавливать финансовые лимиты, стимулировать компании повышать качество данных и процес­сов, требовать прозрачности моделей. Это один из немногих инструментов, который одновременно повышает безопасность и дисциплинирует рынок.

Наконец, важно участие общественных организа­ций и самих пользователей. Они формируют обрат­ную связь о том, как технологии воспринимаются в обществе, где возникают страхи, а где — реальные проблемы: от приватности и дискриминации до от­сутствия прозрачности решений. Без этого невоз­можно выстроить доверие к ИИ-системам.

По сути, эффективное управление рисками в сфере искусственного интеллекта строится на совмест­ной работе всех участников — государства, науки, бизнеса, страхового рынка и общества. Только такая модель позволяет сочетать безопасность, технологи­ческое развитие и общественное доверие.

ССТ: Какие этапы должна пройти дискуссия?

А. Ш.: Дискуссия о рисках искусственного интел­лекта, действительно, должна идти поэтапно, не как формальный обмен мнениями, а как последователь­ный процесс выработки зрелой позиции государства, рынка и общества.

Первым шагом должно стать согла­сование терминов и подходов. Пока участники обсуждают ИИ в разных смыслах — от бытовых ассистентов до высокорисковых автономных си­стем — невозможно прийти к консен­сусу и вырабатывать единые правила. Необходимо договориться о класси­фикации рисков, уровнях автономно­сти, критериях критичности данных и сферах, где требуется повышенное внимание.

Следующий этап — открытая оценка рисков и сценариев. Здесь важна не ри­торика и не эмоциональная оценка технологий, а анализ конкретных ситуаций: где уже произошли инци­денты, какие уязвимости повторяются, какие злоупотребления возможны при нынешних технологиях, и где цена ошибки особенно высока. Это работа, требующая участия инженеров, юри­стов, экспертов по информационной безопасности, специалистов по этике и представителей других профильных отраслей.

Далее необходимо обсуждение моде­лей ответственности. В условиях, когда над одной ИИ-системой работает деся­ток участников — разработчики моде­лей, интеграторы, поставщики данных, конечные пользователи, — вопрос «кто отвечает?» становится краеугольным. Без ясных правил невозможно ни стра­хование рисков, ни правоприменение, ни защита пострадавших.

Отдельного акцента заслуживает определение минимальных стандартов безопасности и прозрачности. Речь о требованиях к качеству данных, аудитам моделей, управлению версиями и поставщиками. На этом этапе важна позиция государства и регуляторов — именно они определяют, какие требо­вания станут обязательными, а какие останутся добровольными.

Выработка грамотных и сбалансированных ре­шений невозможна уси­лиями одного участника. Здесь должны быть за­действованы и государ­ство, и технологические компании, и научные центры, и страховой сектор, и общественные организации.

Завершать дискуссию должны механизмы внедрения: какие меры вводить сразу, какие — в переходный период, а какие — в пилотном режиме. Здесь требует­ся найти баланс между безопасностью и разви­тием: слишком жесткие нормы могут заморозить технологии, слишком мягкие — создать почву для злоупотреблений. Поэтому итоговая модель должна быть поэтапной и адаптируемой по мере накопления практики.

Таким образом, качественная дискус­сия о рисках ИИ должна представлять из себя выстроенную последователь­ность действий: согласование мнений и точек зрения, оценка рисков, распре­деление ответственности, формирова­ние стандартов и, разумеется, переход к управляемому внедрению, основан­ного на риск-ориентированном под­ходе. Только в этом случае результат будет не декларативным, а по-настоя­щему эффективным.


Этапы дискуссии о рисках использования ИИ

  1. Согласование терминов и подходов
  2. Открытая оценка рисков и сценариев
  3. Обсуждение моделей ответственности
  4. Определение минималь­ных стандартов безопас­ности и прозрачности
  5. Механизмы внедрения поэтапной адаптивной модели

 

Похожие статьи

НСИС наращивает компетенции

НСИС наращивает компетенции

Бесперебойная работа АИС страхования будет способствовать удовлетворенности рынка системой, надеется генеральный директор АО «Национальная страховая информационная система» (НСИС) Николай Галушин. По…
Эволюция страхования в цифровую эпоху: цена, ценность, суперценность

Эволюция страхования в цифровую эпоху: цена, ценность, суперценность

Цифровая трансформация перекраивает страховую отрасль, выводя ее за рамки простой компенсации убытков. На наших глазах происходит фундаментальная переоценка страхового продукта: он…
Киберкаско для бизнеса

Киберкаско для бизнеса

Система информационной безопасности снижает вероятность киберинцидента, а страховка — его финансовые последствия. Если проводить аналогию с автомобилем, то первое — это…