Supongamos que tuviera que morir en un terrible cataclismo relacionado con la inteligencia artificial.
¿Se sentiría peor sabiendo que el camino a la destrucción fue allanado por la arrogancia de los magnates tecnológicos de Silicon Valley que perseguían sueños de utopía e inmortalidad, o por la insensatez de los funcionarios del Pentágono que otorgan a la IA una dosis fatal de autonomía y poder con la esperanza de superar a los rusos o a los chinos?
Pasamos la Guerra Fría preocupándonos principalmente por la locura militar, y la IA entró en nuestras ansiedades incluso entonces: la Máquina del Juicio Final soviética en “Dr. Strangelove”, la computadora de juegos en “WarGames” y, por supuesto, la fatídica decisión de “Terminator” de hacer operativa Skynet.
Pero durante los últimos años, a medida que los avances en inteligencia artificial han concentrado un poder potencialmente extraordinario en manos de unas cuantas empresas y directores ejecutivos (ellos mismos inmersos en una cultura del Área de la Bahía de San Francisco de sueños de ciencia ficción y temores apocalípticos), se ha vuelto más natural preocuparse más por el poder y la ambición privados, por los posibles reyes-dioses de la inteligencia artificial en lugar de presidentes y generales.
Hasta que llegó la actual colisión entre el Departamento de Defensa y Anthropic, el pionero de la inteligencia artificial, sobre si los modelos de IA de Anthropic deberían estar sujetos a las restricciones éticas de la empresa o estar disponibles para todos los usos que el Pentágono pueda tener en mente.
Dado que los dos usos que el contrato actual de Anthropic excluye explícitamente son el empleo de IA para la vigilancia masiva y su uso en armas totalmente autónomas (es decir, sin humanos en el ciclo de decisiones sobre si matar o no matar), es fácil percibir las exigencias del Pentágono como si fueran Skynet.
Como señaló Matt Yglesias, todos los escenarios extraños y complejos que plantean los catastrofistas de la IA se simplifican mucho si nuestro gobierno decide empezar a construir robots asesinos autónomos.
Intenciones
Eso no es lo que el Pentágono afirma tener intención de hacer.
Su preocupación declarada es que no puede integrar una tecnología crucial en la arquitectura de seguridad nacional y luego otorgar a una empresa privada un veto ético general sobre su uso, incluso si dicha ética parece razonable en teoría.
Hacerlo externaliza decisiones que se supone deben tomar un presidente electo y sus designados, y se arriesga a un desastre si los acontecimientos no coordinan con los ideales corporativos.
(El ejemplo que la agencia ha ofrecido es un ataque con misiles hipersónicos contra Estados Unidos, donde una empresa de inteligencia artificial se niega a ayudar en una respuesta crucial porque infringe la regla de no autonomía de las máquinas).
Sin embargo, en la medida en que esto sea una preocupación legítima, no justifica el plan de la administración (al menos al momento de escribir este artículo) de hacer una guerra efectiva contra Anthropic, no solo poniendo fin a la relación militar con la empresa, sino también designándola como un «riesgo de la cadena de suministro», lo que cortaría sus relaciones con cualquier empresa que haga negocios con el gobierno de Estados Unidos.
Hasta ahora, la administración Trump ha estado exagerando los beneficios de un enfoque descentralizado y de libre mercado para la inteligencia artificial.
El intento de romper Anthropic implica el fin de esa libertad y un cambio hacia un enfoque más centralizado y militarizado.
De hecho, citando a Dean Ball, uno de los arquitectos originales de la política de IA de la administración, podría decirse que convierte al gobierno estadounidense en «el regulador de inteligencia artificial más agresivo del mundo».
Lo cual es una excelente razón para que toda la industria de la IA se una a Anthropic y resista.
Y si temes un escenario como el de Skynet, donde el control militar impulse una aceleración imprudente de la IA, sin duda también deberías estar del lado de Anthropic.
¿Pero es ese el escenario que más deberíamos temer?
El director ejecutivo y cofundador de Anthropic, Dario Amodei, habla en el escenario durante la cumbre Times Dealbook Summit 2025 en el Jazz Lincoln Center el día 3 en la ciudad. El columnista del NYT Sorkin organizó el evento anual que reúne a líderes empresariales y gubernamentales para debatir sobre los temas más importantes de la política y la cultura. Michael M. Santiago/AFP Ahora mismo, si escuchan al director de Anthropic, Dario Amodei —por ejemplo, en la entrevista que le realicé hace dos semanas—, parece mucho más consciente que Pete Hegseth de los peligros de la IA militarizada o descontrolada.
(Hegseth puede demostrarme que estoy equivocado apareciendo en mi podcast).
Panorama
A largo plazo, sin embargo, cabe imaginar que los funcionarios del Pentágono ofrezcan ciertas ventajas sobre el típico magnate de la IA en cuanto a seguridad y control.
En primer lugar, tienden a centrarse más en objetivos estratégicos concretos que en los dioses de las máquinas y la Singularidad.
En segundo lugar, la cautela burocrática y la cadena de mando les impiden ciertas apuestas.
En tercer lugar, responden ante el público, a través de elecciones y control civil, de una manera que los directores ejecutivos no lo hacen.
Ciertamente, en la medida en que la IA se convierta en el poder que muchos magnates creen que será —un poder que altere la civilización, más complejo que las armas nucleares, pero con el mismo potencial destructivo—, parece inimaginable que pueda quedar cómodamente en manos de la industria privada mientras la República estadounidense sigue con sus asuntos.
La posibilidad del control militar y la nacionalización seguirá sobre la mesa mientras averigüemos qué podría hacer esta tecnología.
Así que lo que están haciendo Hegseth y la administración Trump, en cierto sentido, es iniciar este inevitable conflicto de manera temprana y traer la pregunta política esencial:
¿quién controla realmente la IA? a la superficie del debate.
Pero un impulso hacia el dominio no es un plan para ejercerlo.
Y más allá de su negativa a aceptar las barreras corporativas, no veo evidencia de que la administración haya reflexionado sobre cómo debería gobernarse la IA, ni sobre cómo la guerra que ha lanzado contra Anthropic generará mayor poder o mayor seguridad al final.
c.2026 The New York Times Company



