Anthropic dijo no a usar su IA para vigilar a ciudadanos y desató un choque con la Casa Blanca de Trump. Más que contratos, está en juego el equilibrio entre seguridad y libertades. ¿Hasta dónde debe llegar la IA del gobierno?
Anthropic rechazó solicitudes para usar sus modelos de IA en tareas de vigilancia doméstica. La decisión, basada en su política de uso, provocó críticas desde la Casa Blanca y tensó aún más la relación entre Silicon Valley y el gobierno.
Más allá de tecnicismos, el debate toca tu día a día: ¿queremos herramientas que prometen seguridad, aunque impliquen seguimiento de ciudadanos, o límites claros que protejan la privacidad y eviten abusos?
Mientras dice no a usos de vigilancia dentro del país, Anthropic ofrece modelos “Claude Gov” para entornos clasificados de seguridad nacional. Para la administración, esa línea es difusa; para la empresa, marca diferencias entre inteligencia y monitoreo a la población.
Las grandes compañías de IA difieren en sus reglas: algunas permiten cooperar con la ley bajo orden judicial; otras optan por prohibiciones más tajantes sobre vigilancia, seguimiento o reconocimiento facial en espacios públicos.
La disputa se cruza con nombramientos, cabildeo y discursos sobre el impacto laboral de la IA. En un clima polarizado, cada gesto empresarial se lee como una toma de posición sobre cómo debe regularse la tecnología.
El pulso no terminará pronto. A medida que el gobierno busca desplegar IA a gran escala, las empresas tendrán que elegir entre acceso amplio a contratos o mantener límites éticos estrictos. Para el público, la pregunta es clara: ¿qué salvaguardas queremos antes de encender estas máquinas?