Поиск по публикациям и новостям

Какие правовые вызовы ставит перед государством и бизнесом стремительное развитие нейросетей и технологий искусственного интеллекта — разбираем с генеральным директором digital-агентства «Интериум» и руководителем рабочей группы по выработке подхода к регулированию дипфейков Общественного совета при Минцифры России Валерием Сидоренко.

В одном из прошлых материалов мы рассмотрели пять ключевых цифровых трендов, меняющих отрасль коммуникаций. Одним из них стала правовая эволюция — тема, к которой логично вернуться уже в прикладном контексте.

Сегодня технологии искусственного интеллекта проникли во все ключевые сферы жизни: от медицины, транспорта до госуслуг и креативных индустрий. Но несмотря на скорость внедрения, система регулирования за этим развитием пока не поспевает. Правовая база остаётся фрагментарной, подходы — разнородными, а ответственность — размытой.

Нужно ли регулировать ИИ? Ответ очевиден: нужно. Вопрос в другом — как выстроить регулирование так, чтобы оно не тормозило развитие технологий, но при этом задавало понятные и устойчивые рамки?

Почему регулирование необходимо

Государственное регулирование нейросетей сегодня должно решать как минимум две ключевые задачи.

Первая — минимизация рисков и злоупотреблений. Одним из наиболее наглядных примеров является распространение дипфейков. Эти технологии используются не только в развлекательных целях, но и в мошенничестве и манипуляциях. В России известны случаи, когда с помощью дипфейков подделывались образы известных персон и чиновников. Один из таких кейсов: неоднократные попытки телефонного обмана от имени мэра Москвы с использованием синтезированного голоса.

В то же время дипфейк — это не синоним преступления. Технология активно применяется в киноиндустрии, маркетинге, рекламе и т.п. Это полноценный инструмент с широким спектром легитимных применений. Регулирование не должно превращаться в запрет — его задача в том, чтобы задать рамки допустимого, различить вредоносные и нейтральные сценарии, не блокируя потенциал.

Вторая ключевая задача — создание рамки для тех сфер, где ИИ используется массово и без явных рисков, но при этом практически не охвачен действующим законодательством. Здесь нейросети выполняют задачи анализа, принятия решений, персонализации сервисов, но ни статус таких решений, ни распределение ответственности, ни защита прав участников этих процессов не зафиксированы в правовом поле. Это создаёт правовую неопределённость, которая в случае конфликта будет разрешаться постфактум, в условиях отсутствия норм.

Модели регулирования

Подходы к регулированию нейросетей в мире уже успели сформировать несколько условных моделей, различающихся степенью вмешательства государства, структурой требований и логикой правового контроля. Эти различия важно учитывать и в национальной дискуссии — не для механического копирования, а для понимания спектра возможных решений.

Существуют модели, построенные на жёстком нормативном контроле. В них технологии ИИ рассматриваются как источники потенциального вреда, а значит, подлежат предварительному лицензированию и ограничению по видам применения. Такой подход нацелен на снижение системных рисков и защиту общественных интересов, но нередко сопровождается снижением гибкости и барьерами для технологического бизнеса. В КНР регулирование ИИ включает обязательное лицензирование алгоритмов, контроль за контентом, генерируемым ИИ, и строгие требования к защите данных. Например, компании обязаны получать одобрение регуляторов перед запуском генеративных моделей, чтобы минимизировать риски дезинформации и утечек.

На другом полюсе — модели с минимальным уровнем формализованного регулирования, где основное бремя ответственности ложится на отрасли, платформы и самих разработчиков. Здесь государство отходит от директивной роли и стимулирует саморегуляцию, устанавливая лишь базовые принципы (например, недопустимость дискриминации или обязанность раскрытия информации). Такие системы быстрее адаптируются к изменениям, но хуже справляются с ситуациями, где необходимо прямое вмешательство — например, при нарушениях прав граждан или злоупотреблениях в публичной сфере. В США отсутствует единый федеральный закон об ИИ, регулирование фрагментарно и опирается на отраслевые стандарты (например, NIST AI Risk Management Framework) и добровольные обязательства компаний. Основной акцент — на саморегуляции и рыночной конкуренции, хотя отдельные штаты вводят локальные нормы, например, по использованию ИИ в найме.

Между этими крайностями формируется промежуточный класс гибридных моделей. Их суть в сочетании обязательных требований (по прозрачности алгоритмов или защите персональных данных) с возможностями для экспериментирования, развития и отраслевой адаптации. Такие подходы опираются не только на законы, но и на технические стандарты, этические кодексы, «регуляторные песочницы» и иные формы гибкого правового инструментария. ЕС разрабатывает AI Act — комплексный закон, классифицирующий ИИ-системы по уровням риска. Высокорисковые системы (например, в медицине или правоохранительной деятельности) подлежат строгому регулированию, включая сертификацию и аудит. Низкорисковые системы допускают большую свободу, а регуляторы поддерживают там инновации. Южная Корея сочетает мягкие законодательные рамки с поддержкой инноваций. Закон об ИИ (AI Basic Act) устанавливает базовые требования к прозрачности и безопасности, но акцентирует внимание на развитии ИИ через государственные инвестиции и партнёрства с частным сектором, включая пилотные проекты в здравоохранении и образовании.

Выбор модели зависит от многих факторов — зрелости технологического сектора, уровня правовой культуры, состояния судебной системы, приоритетов государственной политики. Если говорить про Россию — задача не в том, чтобы выбрать «готовый шаблон», а в том, чтобы определить собственную траекторию: где необходима строгость, а где пространство для роста. ИИ требует не универсального закона, а архитектуры, в которой будут сосуществовать контроль, стимулирование и ответственность.

Ключевые направления регулирования

Современное регулирование ИИ должно охватывать несколько ключевых направлений, в которых уже сегодня возникают реальные конфликты интересов, правовые неопределённости и системные пробелы. Наиболее остро стоят вопросы ответственности и обращения с результатами работы ИИ — как на уровне продуктов, так и на уровне данных.

Первый блок — это ответственность за действия ИИ. С распространением автономных систем всё чаще возникает вопрос: кто отвечает, если нейросеть ошиблась, и это повлекло ущерб? Возможные фигуранты: разработчик, оператор, пользователь — все связаны с системой, но ни для одного из них законодательство пока не устанавливает чёткой зоны ответственности. Чтобы избежать правового вакуума, необходимы механизмы распределения ответственности.

Второе направление связано с авторскими правами и данными. Оно охватывает три самостоятельных правовых проблемы.

Во-первых, это статус произведений, созданных с помощью ИИ. Является ли продукт интеллектуальной собственностью? И если да, то кому он принадлежит — пользователю, разработчику модели, платформе?

Во-вторых, это правомерность использования данных для обучения. Большинство нейросетей обучается на чужом контенте: текстах, изображениях, видео — часть из которых защищена авторским правом. Использование таких данных без согласия или лицензирования вызывает претензии как со стороны индивидуальных авторов, так и от индустрий.

И, в-третьих, это проблема доступности самих данных. Даже если правовая основа есть, многие ценные массивы просто не оцифрованы, юридически ограничены или технически не подходят.

Без решения этих вопросов регулирование ИИ будет постоянно сталкиваться с конфликтами на входе и на выходе — от разработки до использования.

Регулирование ИИ в России

Россия находится в числе стран с высоким уровнем цифрового развития: нейросети уже активно внедряются в сервисы, бизнес-практики и публичные коммуникации. При этом формирование устойчивой правовой рамки только начинается. Ключевую роль в формировании регулирования играют экспертные группы, созданные при участии Государственной Думы РФ, Роскомнадзора (РКН), Федеральной антимонопольной службы (ФАС) и Министерства цифрового развития, связи и массовых коммуникаций (Минцифры). Эти ведомства совместно прорабатывают вопросы ответственности, прозрачности алгоритмов и распределения прав между участниками экосистемы ИИ.

Одним из шагов в направлении регулирования стал законопроект, представленный весной 2025 года. Документ предлагает зафиксировать в законодательстве понятия «искусственный интеллект», «технологии ИИ», «системы ИИ», а также определить роли участников — разработчиков, операторов и пользователей. Это важный шаг к формированию единой терминологической и правовой базы.

Законопроект также предполагает классификацию ИИ-систем по уровню риска — от минимального до неприемлемого. Системы с высоким риском (например, используемые в медицине, транспорте, правоприменении) предлагается подвергать обязательной регистрации, сертификации и страхованию ответственности. Для наиболее опасных сценариев — тех, что угрожают основам безопасности или правам человека, — предусматривается прямой запрет на разработку и использование. Параллельно силовые ведомства, включая МВД и ФСБ, сосредоточены на ужесточении законодательства для борьбы с преступлениями, связанными с использованием ИИ. Это включает разработку поправок в Уголовный кодекс РФ, усиливающих ответственность за создание и распространение вредоносного контента, включая дипфейки, используемые в мошеннических схемах. Работа над регулированием ИИ продолжается в формате межведомственного взаимодействия и консультаций с отраслевыми игроками. Следующий этап — согласование подходов. Страна движется в этом направлении: без резких шагов, но с нарастающей системностью. Это не быстрый процесс, но в нём прослеживается движение: от реакции к стратегии, от разрозненных инициатив к архитектуре.

 

 

 

Сейчас на главной