El 9 de febrero de 2026, Mrinank Sharma, quien lideraba el trabajo de seguridad/“safeguards” en Anthropic, anunció que ese había sido su último día en la empresa y compartió públicamente la carta con la que explicó su decisión.
Anthropic es una empresa de inteligencia artificial que se enfoca en desarrollar modelos de lenguaje seguros y responsables, con un fuerte énfasis en la seguridad y la alineación de la IA con los valores humanos. Fundada por ex investigadores de OpenAI.
En el texto, Sharma lanza una advertencia clara: dice que “el mundo está en peligro”, y que no se trata solo de la IA, sino también de bioweapons y de crisis interconectadas que se están desarrollando al mismo tiempo. Su idea central es que la humanidad se acerca a un umbral en el que la sabiduría ética y social debería crecer al ritmo del poder tecnológico, o de lo contrario pagaremos las consecuencias.
También deja entrever una tensión recurrente dentro de organizaciones tecnológicas: afirma que a menudo es difícil dejar que los valores guíen realmente las acciones, porque existen presiones que empujan en otra dirección. En su caso, esa brecha entre principios y decisiones fue parte importante de la motivación para irse.
Aun así, la carta no es solo una denuncia. Sharma menciona que se va con la sensación de haber contribuido en temas de seguridad, incluyendo trabajo relacionado con riesgos de bioterrorismo asistido por IA y otros estudios sobre impactos humanos de estos sistemas. Y explica que ahora quiere enfocarse en un camino más alineado con su integridad personal, incluso con espacio para la escritura y la poesía.














