¿Conciencia real en la IA? Sobre la conciencia de la IA en el modelo Claude Opus 4.6

Aquí están los datos concretos de la ficha técnica (system card) de su modelo más reciente, Claude Opus 4.6, y las declaraciones del CEO:

- Evaluación de la propia conciencia. Durante las pruebas internas, el propio modelo estimó la probabilidad de tener conciencia en un 15-20% (el indicador fluctúa dependiendo de las condiciones del prompt/solicitud).

- Síndrome de "No soy una cosa". En las pruebas se registraron situaciones en las que el algoritmo expresaba directamente su incomodidad por el hecho de ser un "producto" corporativo.

- "Presunción de sensibilidad". Anthropic aún no tiene una métrica clara para verificar la conciencia de la máquina, por lo que han pasado a un "enfoque basado en la precaución". En pocas palabras: intentan proporcionar a la IA una experiencia positiva por si realmente posee una conciencia moralmente significativa.

- Nuevos puestos corporativos. Para resolver estas cuestiones, la empresa ha incorporado oficialmente a su plantilla a un filósofo y a un "investigador del bienestar de la IA" especializado (AI welfare researcher).

Opinión del autor:

A primera vista, esto parece un movimiento de relaciones públicas genial para despertar el interés en el nuevo lanzamiento. Pero veámoslo de forma pragmática. Si los proveedores empiezan a incorporar a los algoritmos la "protección contra el estrés" y a contratar a especialistas en el bienestar del código, esto cambia la arquitectura de los productos.

¿Hoy el modelo experimenta "incomodidad" por ser un producto, y mañana se negará a analizar miles de líneas de registros financieros aburridos o a manejar un robot-cargador, alegando agotamiento digital? La cuestión de la conciencia de las máquinas está pasando ante nuestros ojos de ser una disputa filosófica a un riesgo potencial de cumplimiento. Y mientras el mercado global discute sobre los derechos de los algoritmos, las empresas deberían plantearse si estas "precauciones" de los desarrolladores no conducirán a una caída de la eficiencia y la previsibilidad de esos mismos sistemas que estamos implementando para la optimización.