• 13 декабря, 2025

Ключ к эффективности

Шейкин Артем

Первый заместитель председателя Комитета Совета Федерации по конституционному законодательству и государственному строительству

Ключ к эффективности

Страхование занимает особое место в наборе инструментов для управления рисками, связанными с применением ИИ. По мнению первого заместителя председателя Комитета Совета Федерации по конституционному законодательству и государственному строительству Артема Шейкина, ключ к эффективности — согласованные стандарты, понятное распределение ответственности и доступ к статистике инцидентов для корректной тарификации.

ССТ: В современном мире появляется все больше новых высокотехнологичных вещей, механизмов, сервисов и др. Если раньше роботы встречались только на производственных площадках, то сейчас они активно входят в нашу жизнь, иногда помимо нашей воли. Например, в сервисных службах уже чаще можно столкнуться с ИИ, чем с живым человеком. Какие риски, связанные с новыми технологиями, вы назвали бы самыми существенными и почему?

Артем Шейкин: Наиболее существенные риски я бы выделил в три взаимосвязанные группы.

Во-первых, это безопасность и ки­берустойчивость: уязвимости в про­граммном обеспечении, целевые атаки, саботаж, утечки и подмена данных, которые способны парализовать серви­сы и нарушить непрерывность бизнеса. Во-вторых, ответственность и подот­четность: в условиях автономности систем часто неочевидно, кто отвечает за ущерб — разработчик модели, по­ставщик данных, интегратор, оператор или пользователь, — что усложняет взыскание убытков и превентивный контроль. В-третьих, дискриминация и некорректные данные: ошибки раз­метки, не прошедшие проверку качества наборы данных приводят к несправед­ливым и неточным решениям.

Почему это критично: ущерб от ИИ способен одновременно охваты­вать большие группы пострадавших и оставаться сложно доказуемым из-за «черного ящика» моделей и распределенности ролей в цепочке поставок. Фрагментация ответствен­ности между участниками и отсутствие единых стандартов прослеживаемости решений затрудняют оценку рисков и страховое тарифицирование.

Дополнительно риски усиливаются тем, что аналитические и генератив­ные системы напрямую воздействуют на принятие решений в финансах, меди­цине и транспорте, где цена ошибки высока: от финансовой дестабилизации и дискриминации клиентов до угрозы жизни и безопасности, а также цепных отказов критической инфраструктуры.

ССТ: Насколько существенными вы считаете риски, связанные с приме­нением ИИ?

А. Ш.: Риски, связанные с применени­ем ИИ, я считаю существенными, но их уровень сильно зависит от контекста использования. В высокорисковых сферах — медицина, транспорт, фи­нансовые услуги, критическая ин­фраструктура — цена ошибки высока, а влияние ИИ на принятие решений прямое, поэтому вероятность тяже­лых последствий и масштабы воздей­ствия значительно выше. В массовых потребительских сервисах риски чаще проявляются через некорректные ре­комендации, дискриминацию, утечки данных и сбои доступности, что может быть менее опасно для жизни, но ощу­тимо для финансов и репутации.

Ключевой фактор — степень авто­номности и непрозрачность алгорит­мов. Чем больше система принимает решения без человека и использует закрытые модели или данные, тем сложнее доказать причинно-следствен­ную связь, распределить ответствен­ность и оценить страхуемость. Поэто­му необходим риск-ориентированный подход: строгие требования и контроль для высокорисковых применений, сер­тификация и аудит качества данных, прослеживаемость решений, а также страховые механизмы, увязанные с уровнем управляемости и зрелостью процессов безопасности.

ССТ: Как можно управлять этими рисками: есть ли здесь место страхо­ванию, и если да, то как оно должно применяться?

А. Ш.: Управлять рисками ИИ разумно через совокупность органи­зационных, технических и правовых инструментов. На практике это вклю­чает риск-ориентированную класси­фикацию применений, минимальные требования к безопасности и качеству данных, независимую оценку и те­стирование до запуска, мониторинг и журналирование решений, управле­ние поставщиками и контрагентами, планы реагирования на инциденты и регулярные учения. Важна просле­живаемость по всей цепочке: от источ­ников данных и версий моделей до изменений настроек и контекстов применения.

Управлять рисками ИИ разумно через совокупность организационных, технических и правовых инструментов

Страхование занимает в этом наборе инструментов отдельное место как механизм финансовой защиты и дис­циплины. Полезны покрытия кибер­рисков, ответственности за продукт и профессиональной ответственности при использовании ИИ, а также ре­шения для перерывов в деятельности и системных событий. Страховые ус­ловия могут привязываться к соблю­дению сертифицированных практик безопасности, качеству процессов и уровню прозрачности, чтобы стиму­лировать снижение риска и улучшать доступность покрытия.

Выбор формы страхования — обя­зательной, вмененной или добро­вольной — целесообразно соотносить с уровнем риска и общественной зна­чимостью. В высокочувствительных сферах логичен более жесткий режим с минимальными лимитами и тре­бованиями к управлению рисками; в широком коммерческом примене­нии — гибкие добровольные продукты с тарифными стимулами за зрелые практики. В любом случае ключ к эф­фективности — согласованные стандар­ты, понятное распределение ответствен­ности и доступ к статистике инцидентов для корректной тарификации.

ССТ: Какие стороны должны быть при­влечены для выработки гармоничных и эффективных решений?

А. Ш.: Выработка грамотных и сба­лансированных невозможна усилиями одного участника — слишком слож­ная и комплексная эта область. Здесь должны быть задействованы и государство, и технологические компании, и научные центры, и страховой сектор, и общественные организации.

Государственные структуры определяют рамки без­опасности, устанавливают допустимый уровень риска и фиксируют ответственность сторон. Однако сами по себе регуляторные меры не обеспечат качество: без участия бизнеса невозможно понять, какие требова­ния реально применимы, где возникают технологиче­ские ограничения и как устроены цепочки создания и внедрения ИИ-систем.

Не менее значима экспертиза научных и исследо­вательских центров. Именно они способны прово­дить независимую оценку алгоритмов, тестировать модели, анализировать ошибки данных и выявлять скрытые риски — то, что требует методологической строгости и академической компетенции. Их участие позволяет избежать как избыточных запретов, так и чрезмерно мягких подходов.

Существенную роль играет и страховой сек­тор. Страховые механизмы помогают переводить технологические риски в измеримую плоскость: устанавливать финансовые лимиты, стимулировать компании повышать качество данных и процес­сов, требовать прозрачности моделей. Это один из немногих инструментов, который одновременно повышает безопасность и дисциплинирует рынок.

Наконец, важно участие общественных организа­ций и самих пользователей. Они формируют обрат­ную связь о том, как технологии воспринимаются в обществе, где возникают страхи, а где — реальные проблемы: от приватности и дискриминации до от­сутствия прозрачности решений. Без этого невоз­можно выстроить доверие к ИИ-системам.

По сути, эффективное управление рисками в сфере искусственного интеллекта строится на совмест­ной работе всех участников — государства, науки, бизнеса, страхового рынка и общества. Только такая модель позволяет сочетать безопасность, технологи­ческое развитие и общественное доверие.

ССТ: Какие этапы должна пройти дискуссия?

А. Ш.: Дискуссия о рисках искусственного интел­лекта, действительно, должна идти поэтапно, не как формальный обмен мнениями, а как последователь­ный процесс выработки зрелой позиции государства, рынка и общества.

Первым шагом должно стать согла­сование терминов и подходов. Пока участники обсуждают ИИ в разных смыслах — от бытовых ассистентов до высокорисковых автономных си­стем — невозможно прийти к консен­сусу и вырабатывать единые правила. Необходимо договориться о класси­фикации рисков, уровнях автономно­сти, критериях критичности данных и сферах, где требуется повышенное внимание.

Следующий этап — открытая оценка рисков и сценариев. Здесь важна не ри­торика и не эмоциональная оценка технологий, а анализ конкретных ситуаций: где уже произошли инци­денты, какие уязвимости повторяются, какие злоупотребления возможны при нынешних технологиях, и где цена ошибки особенно высока. Это работа, требующая участия инженеров, юри­стов, экспертов по информационной безопасности, специалистов по этике и представителей других профильных отраслей.

Далее необходимо обсуждение моде­лей ответственности. В условиях, когда над одной ИИ-системой работает деся­ток участников — разработчики моде­лей, интеграторы, поставщики данных, конечные пользователи, — вопрос «кто отвечает?» становится краеугольным. Без ясных правил невозможно ни стра­хование рисков, ни правоприменение, ни защита пострадавших.

Отдельного акцента заслуживает определение минимальных стандартов безопасности и прозрачности. Речь о требованиях к качеству данных, аудитам моделей, управлению версиями и поставщиками. На этом этапе важна позиция государства и регуляторов — именно они определяют, какие требо­вания станут обязательными, а какие останутся добровольными.

Выработка грамотных и сбалансированных ре­шений невозможна уси­лиями одного участника. Здесь должны быть за­действованы и государ­ство, и технологические компании, и научные центры, и страховой сектор, и общественные организации.

Завершать дискуссию должны механизмы внедрения: какие меры вводить сразу, какие — в переходный период, а какие — в пилотном режиме. Здесь требует­ся найти баланс между безопасностью и разви­тием: слишком жесткие нормы могут заморозить технологии, слишком мягкие — создать почву для злоупотреблений. Поэтому итоговая модель должна быть поэтапной и адаптируемой по мере накопления практики.

Таким образом, качественная дискус­сия о рисках ИИ должна представлять из себя выстроенную последователь­ность действий: согласование мнений и точек зрения, оценка рисков, распре­деление ответственности, формирова­ние стандартов и, разумеется, переход к управляемому внедрению, основан­ного на риск-ориентированном под­ходе. Только в этом случае результат будет не декларативным, а по-настоя­щему эффективным.


Этапы дискуссии о рисках использования ИИ

  1. Согласование терминов и подходов
  2. Открытая оценка рисков и сценариев
  3. Обсуждение моделей ответственности
  4. Определение минималь­ных стандартов безопас­ности и прозрачности
  5. Механизмы внедрения поэтапной адаптивной модели

 

Похожие статьи

КАПИТАЛ LIFE стала лауреатом премии «Время инноваций-2025» за внедрение…

Компания КАПИТАЛ LIFE (ООО «Капитал Лайф Страхование Жизни») стала лауреатом премии «Время инноваций-2025» за внедрение искусственного интеллекта для развития человекоцентричности страхования…

Сбер в 2025 году инвестировал миллиард рублей в подготовку…

Подготовка специалистов по искусственному интеллекту стала ключевым направлением работы Сбера с молодежью в 2025 году.

Застрахованные в СберСтраховании получают выплату за 5 минут

Люди, которые обратились в СберСтрахование в связи с травмами и бытовыми заливами жилья, получают выплату за 5 минут.