Opinión

Cuando los valores se ponen a prueba: lecciones del caso Anthropic

A

En las empresas, las definiciones, los principios y los valores suelen verse impecables en el papel, en la página web, en las presentaciones. Parecen firmes, claros, incuestionables.

Hasta que se enfrentan a presión real.

La pandemia lo evidenció con claridad. Lo que antes era incuestionable empezó a ceder frente a la urgencia de sostener la operación, adaptarse o, simplemente, sobrevivir.

Mientras no hay presión, urgencia o intereses relevantes en juego, los principios suelen ser claros. El problema aparece cuando sostenerlos implica renunciar a algo, como un negocio o una oportunidad. Es en ese momento cuando para algunas organizaciones cruzar ese límite se vuelve una opción, y es ahí donde queda en evidencia que sus valores no eran tan firmes como creían o hacían creer.

El caso de Anthropic es un ejemplo concreto de coherencia entre lo que una organización declara y lo que está dispuesta a sostener, incluso cuando hacerlo tiene consecuencias reales.

Anthropic es una empresa de inteligencia artificial enfocada en desarrollar sistemas seguros y alineados con principios éticos. Es la creadora de Claude, su modelo de IA, y desde su origen ha buscado no solo avanzar en capacidades, sino también definir bajo qué criterios esas capacidades deben usarse.

En ese contexto, ha trabajado con el Departamento de Defensa de Estados Unidos, aplicando sus modelos en áreas como ciberseguridad, análisis y apoyo a operaciones.

Sin embargo, esa relación empezó a tensionarse cuando para mantener los contratos, se le exigió aceptar un uso más amplio de su tecnología y eliminar ciertas restricciones previamente definidas por la empresa. Específicamente, Anthropic se negó a permitir dos usos: la vigilancia masiva interna y el desarrollo de armas totalmente autónomas sin supervisión humana.

Negarse no fue una decisión trivial o visceral. Implicaba asumir costos económicos relevantes y exponerse a quedar fuera de contratos estratégicos. Aun así, la empresa decidió no ceder. Y ahí está lo relevante. Aun cuando el objetivo puede parecer justificable o legal, no todo vale.

En ese sentido, el CEO y fundador de Anthropic, Dario Amodei, ha insistido en la importancia de la independencia ética en el desarrollo de la IA y ha advertido sobre los riesgos de la injerencia política y militar, especialmente considerando que, aunque estos usos representan una fracción mínima de las aplicaciones posibles, concentran riesgos incompatibles con los principios de la empresa.

Y aquí es donde el caso deja de ser una anécdota y se vuelve una lección de gobernanza. Porque esta decisión no surgió en este momento puntual ni es improvisada. Se basa en los principios que la misma organización declaró desde sus inicios, y que hoy ha demostrado que no son una simple declaración o un papel que nadie leyó. Son criterios que delimitan su actuar. Esos principios están formalizados en lo que Anthropic denomina su “Constitución”, un marco explícito que orienta el comportamiento de sus modelos y, en la práctica, también sus decisiones estratégicas.

La pregunta, entonces, no es sobre Anthropic. Es sobre el resto.

¿Cuántas empresas pueden decir hoy, con ese nivel de claridad, qué están dispuestas a hacer -y qué no- cuando enfrentan presión real? ¿Cuántas han definido ex ante los límites de sus acciones?

Porque los dilemas complejos no se resuelven en el momento en que aparecen. Se resuelven antes. En cómo se diseñan los incentivos, en lo que se mide, en lo que se premia y en lo que se sanciona. En definitiva, en aquello que realmente mueve a la organización y en el lugar que ocupa la integridad dentro de ella.

Definir qué guía a una empresa no es secundario, es su esencia. Es lo que la define, especialmente en momentos críticos. Y esto no aplica solo para grandes compañías, también aplica -con la misma fuerza- para las más pequeñas, porque les asegurará coherencia y, por lo tanto, sostenibilidad, especialmente en un entorno tan competitivo.

Porque al final, seguir los valores sí se paga en el largo plazo. No es casual que las suscripciones pagas de Claude se hayan más que duplicado en lo que va de 2026.

Esa es la verdadera prueba de la gobernanza. No cuando todo funciona, sino cuando hay algo que perder. Anthropic lo tuvo claro. Pero, si nos viéramos en un caso similar, ¿los principios siguen siendo un límite real o se vuelven negociables?

Más sobre:EmpresasPrincipiosGobernanza

Casi nadie tiene claro qué es un modelo generativo. El resto lo leyó en La Tercera

Plan Digital + LT Beneficios$6.990 al mes SUSCRÍBETE