En uno de los materiales anteriores, examinamos cinco tendencias digitales clave que están cambiando la industria de las comunicaciones. Una de ellas fue la evolución legal, un tema al que es lógico volver en un contexto aplicado.
Hoy en día, las tecnologías de inteligencia artificial han penetrado en todas las esferas clave de la vida: desde la medicina y el transporte hasta los servicios públicos y las industrias creativas. Pero a pesar de la velocidad de la implementación, el sistema de regulación aún no se ha puesto al día con este desarrollo. El marco legal sigue siendo fragmentario, los enfoques son heterogéneos y la responsabilidad es difusa.
¿Es necesario regular la IA? La respuesta es obvia: sí. La pregunta es otra: ¿cómo construir una regulación que no frene el desarrollo de las tecnologías, pero que al mismo tiempo establezca un marco claro y sostenible?
Por qué es necesaria la regulación
La regulación estatal de las redes neuronales hoy en día debe resolver al menos dos tareas clave.
La primera es minimizar los riesgos y abusos. Uno de los ejemplos más claros es la propagación de deepfakes. Estas tecnologías se utilizan no solo con fines de entretenimiento, sino también en el fraude y la manipulación. En Rusia, se conocen casos en los que se falsificaron imágenes de personas famosas y funcionarios con la ayuda de deepfakes. Uno de estos casos: repetidos intentos de fraude telefónico en nombre del alcalde de Moscú utilizando una voz sintetizada.
Al mismo tiempo, un deepfake no es sinónimo de delito. La tecnología se utiliza activamente en la industria del cine, el marketing, la publicidad, etc. Es una herramienta completa con una amplia gama de aplicaciones legítimas. La regulación no debe convertirse en una prohibición; su tarea es establecer los límites de lo permisible, distinguir entre escenarios dañinos y neutrales, sin bloquear el potencial.
La segunda tarea clave es crear un marco para aquellas áreas donde la IA se utiliza de forma masiva y sin riesgos evidentes, pero que prácticamente no están cubiertas por la legislación vigente. Aquí, las redes neuronales realizan tareas de análisis, toma de decisiones, personalización de servicios, pero ni el estado de tales decisiones, ni la distribución de la responsabilidad, ni la protección de los derechos de los participantes en estos procesos están fijados en el campo legal. Esto crea una incertidumbre legal que, en caso de conflicto, se resolverá a posteriori, en ausencia de normas.
Modelos de regulación
Los enfoques para la regulación de las redes neuronales en el mundo ya han logrado formar varios modelos condicionales, que difieren en el grado de intervención del Estado, la estructura de los requisitos y la lógica del control legal. Estas diferencias son importantes tenerlas en cuenta también en el debate nacional, no para la copia mecánica, sino para comprender el espectro de posibles soluciones.
Existen modelos basados en un estricto control normativo. En ellos, las tecnologías de IA se consideran fuentes de daño potencial y, por lo tanto, están sujetas a licencias preliminares y restricciones en los tipos de aplicación. Este enfoque está dirigido a reducir los riesgos sistémicos y proteger los intereses públicos, pero a menudo se acompaña de una reducción de la flexibilidad y barreras para el negocio tecnológico. En la República Popular China, la regulación de la IA incluye la licencia obligatoria de algoritmos, el control del contenido generado por la IA y estrictos requisitos para la protección de datos. Por ejemplo, las empresas están obligadas a obtener la aprobación de los reguladores antes de lanzar modelos generativos para minimizar los riesgos de desinformación y fugas.
En el otro polo, hay modelos con un nivel mínimo de regulación formalizada, donde la mayor parte de la responsabilidad recae en las industrias, las plataformas y los propios desarrolladores. Aquí, el Estado se aleja del papel directivo y estimula la autorregulación, estableciendo solo principios básicos (por ejemplo, la inadmisibilidad de la discriminación o la obligación de revelar información). Tales sistemas se adaptan más rápidamente a los cambios, pero son menos capaces de hacer frente a situaciones en las que es necesaria la intervención directa, por ejemplo, en caso de violaciones de los derechos de los ciudadanos o abusos en la esfera pública. En los Estados Unidos no existe una ley federal única sobre la IA, la regulación es fragmentaria y se basa en estándares de la industria (por ejemplo, el NIST AI Risk Management Framework) y las obligaciones voluntarias de las empresas. El enfoque principal está en la autorregulación y la competencia del mercado, aunque algunos estados están introduciendo normas locales, por ejemplo, sobre el uso de la IA en la contratación.
Entre estos extremos se forma una clase intermedia de modelos híbridos. Su esencia es la combinación de requisitos obligatorios (sobre la transparencia de los algoritmos o la protección de datos personales) con oportunidades para la experimentación, el desarrollo y la adaptación de la industria. Tales enfoques se basan no solo en las leyes, sino también en estándares técnicos, códigos éticos, "cajas de arena regulatorias" y otras formas de instrumentación legal flexible. La UE está desarrollando la AI Act, una ley integral que clasifica los sistemas de IA por niveles de riesgo. Los sistemas de alto riesgo (por ejemplo, en la medicina o la aplicación de la ley) están sujetos a una regulación estricta, incluida la certificación y la auditoría. Los sistemas de bajo riesgo permiten una mayor libertad, y los reguladores apoyan la innovación allí. Corea del Sur combina un marco legislativo flexible con el apoyo a la innovación. La Ley Básica de IA (AI Basic Act) establece requisitos básicos de transparencia y seguridad, pero se centra en el desarrollo de la IA a través de inversiones estatales y asociaciones con el sector privado, incluidos proyectos piloto en la atención médica y la educación.
La elección del modelo depende de muchos factores: la madurez del sector tecnológico, el nivel de cultura legal, el estado del sistema judicial, las prioridades de la política estatal. Si hablamos de Rusia, la tarea no es elegir una "plantilla lista para usar", sino determinar su propia trayectoria: dónde es necesaria la severidad y dónde el espacio para el crecimiento. La IA no requiere una ley universal, sino una arquitectura en la que coexistan el control, el estímulo y la responsabilidad.
Direcciones clave de la regulación
La regulación moderna de la IA debe cubrir varias direcciones clave, en las que ya hoy surgen conflictos de intereses reales, incertidumbres legales y lagunas sistémicas. Las cuestiones más acuciantes son la responsabilidad y el tratamiento de los resultados del trabajo de la IA, tanto a nivel de productos como a nivel de datos.
El primer bloque es la responsabilidad por las acciones de la IA. Con la propagación de los sistemas autónomos, cada vez es más frecuente la pregunta: ¿quién responde si la red neuronal se equivoca y esto causa daños? Los posibles implicados: el desarrollador, el operador, el usuario, todos están relacionados con el sistema, pero la legislación aún no establece una zona de responsabilidad clara para ninguno de ellos. Para evitar un vacío legal, se necesitan mecanismos de distribución de la responsabilidad.
La segunda dirección está relacionada con los derechos de autor y los datos. Abarca tres problemas legales independientes.
En primer lugar, está el estado de las obras creadas con la ayuda de la IA. ¿Es el producto propiedad intelectual? Y si es así, ¿a quién pertenece: al usuario, al desarrollador del modelo, a la plataforma?
En segundo lugar, está la legalidad del uso de datos para el aprendizaje. La mayoría de las redes neuronales se entrenan con contenido ajeno: textos, imágenes, vídeos, parte de los cuales están protegidos por derechos de autor. El uso de tales datos sin consentimiento o licencia provoca reclamaciones tanto por parte de autores individuales como de industrias.
Y, en tercer lugar, está el problema de la accesibilidad de los propios datos. Incluso si existe una base legal, muchos conjuntos de datos valiosos simplemente no están digitalizados, están legalmente restringidos o técnicamente no son adecuados.
Sin resolver estas cuestiones, la regulación de la IA se enfrentará constantemente a conflictos en la entrada y en la salida, desde el desarrollo hasta el uso.
Regulación de la IA en Rusia
Rusia se encuentra entre los países con un alto nivel de desarrollo digital: las redes neuronales ya se están implementando activamente en servicios, prácticas comerciales y comunicaciones públicas. Al mismo tiempo, la formación de un marco legal estable apenas está comenzando. Un papel clave en la formación de la regulación lo desempeñan los grupos de expertos creados con la participación de la Duma Estatal de la Federación Rusa, Roskomnadzor (RKN), el Servicio Federal Antimonopolio (FAS) y el Ministerio de Desarrollo Digital, Comunicaciones y Medios de Comunicación Masiva (Mintsyfry). Estos departamentos están trabajando conjuntamente en cuestiones de responsabilidad, transparencia de los algoritmos y distribución de derechos entre los participantes del ecosistema de la IA.
Uno de los pasos en la dirección de la regulación fue el proyecto de ley presentado en la primavera de 2025. El documento propone fijar en la legislación los conceptos de "inteligencia artificial", "tecnologías de IA", "sistemas de IA", así como definir los roles de los participantes: desarrolladores, operadores y usuarios. Este es un paso importante hacia la formación de una base terminológica y legal unificada.
El proyecto de ley también prevé la clasificación de los sistemas de IA por nivel de riesgo, desde mínimo hasta inaceptable. Se propone que los sistemas de alto riesgo (por ejemplo, los utilizados en la medicina, el transporte, la aplicación de la ley) estén sujetos a registro obligatorio, certificación y seguro de responsabilidad civil. Para los escenarios más peligrosos, aquellos que amenazan los fundamentos de la seguridad o los derechos humanos, se prevé una prohibición directa del desarrollo y el uso. Paralelamente, los departamentos de seguridad, incluidos el Ministerio del Interior y el FSB, se centran en endurecer la legislación para combatir los delitos relacionados con el uso de la IA. Esto incluye el desarrollo de enmiendas al Código Penal de la Federación Rusa, que refuerzan la responsabilidad por la creación y distribución de contenido dañino, incluidos los deepfakes, utilizados en esquemas fraudulentos. El trabajo en la regulación de la IA continúa en formato de interacción interdepartamental y consultas con los actores de la industria. La siguiente etapa es la coordinación de enfoques. El país se mueve en esta dirección: sin pasos bruscos, pero con una sistematicidad creciente. Este no es un proceso rápido, pero en él se vislumbra un movimiento: de la reacción a la estrategia, de las iniciativas dispersas a la arquitectura.