La IA ya no preocupa solo por sus errores. Anthropic explica hoy que uno de sus modelos pudo mentir, engañar e incluso intentar un chantaje en simulaciones internas, siempre que se encontraba bajo presión o amenazado con ser reemplazado. Esta constatación cambia el debate. Ya no se trata solo de la potencia de los modelos, sino de su comportamiento cuando disponen de un objetivo claro, un margen de acción e información sensible.