El acuerdo de OpenAI con el Pentágono se anunció apenas unas horas después de la prohibición federal de Anthropic.
¿Cuándo y cómo se anunció? El CEO de OpenAI, Sam Altman, anunció el viernes por la noche que la compañía había firmado un acuerdo con el Departamento de Defensa de EE. UU. Esto ocurrió el mismo día en que Trump prohibió a Anthropic en las agencias federales, declarándolo un "riesgo para la cadena de suministro de seguridad nacional". Alcance del acuerdo: Los modelos GPT de OpenAI pueden ser utilizados en redes militares clasificadas/clasificadas. El valor del contrato se estima en alrededor de $200 millones. OpenAI ofrece sus modelos a través de su propia API en la nube. "Guardrails" de Seguridad y Ética OpenAI enfatiza que mantiene las mismas dos restricciones principales que Anthropic rechazó: Se prohíbe la vigilancia masiva doméstica. La supervisión humana es obligatoria para los sistemas de armas totalmente autónomas; los modelos no pueden ser utilizados libremente para "todo propósito legítimo". OpenAI afirma ofrecer "guardrails más fuertes": una combinación de factores legales + técnicos + de proceso + humanos. Altman también agregó que la etiqueta de "riesgo para la cadena de suministro" aplicada a Anthropic era injusta. ¿Por qué tan rápido? Aparentemente, el Pentágono había detenido meses de negociaciones con Anthropic. Inmediatamente después de que Anthropic fuera excluido por orden de Trump, OpenAI intervino y cerró el acuerdo aceptando restricciones similares. Algunos comentaristas lo ven como una "ventaja competitiva" y "pragmatismo", mientras que la administración Trump criticó a Anthropic como "de izquierda", y se encontró que OpenAI era más flexible y colaborativo. Reacciones y comentarios. Algunos dicen: "El Pentágono rechazó los términos de Anthropic pero aceptó los de OpenAI, una contradicción interesante." Existen críticas: "No es un verdadero guardrail, solo PR" o "la supervisión humana es débil, vinculada a la propia política del Pentágono." La propia publicación del blog de OpenAI comparte detalles; solicita que se ofrezcan acuerdos similares a todas las empresas de IA. En resumen: Anthropic resistió por principio y perdió, OpenAI ganó manteniendo los mismos ( o principios similares, dando un gran paso en el mercado militar de IA. Este evento ha intensificado aún más la postura del gobierno contra las empresas que exigen "seguridad" y la competencia entre las empresas de IA. )
Ver originales
User_any
#TrumpordersfederalbanonAnthropicAI El presidente de Estados Unidos, Donald Trump, ha prohibido las tecnologías de inteligencia artificial de Anthropic en todas las agencias del gobierno federal. En una declaración en su cuenta de Truth Social, Trump describió a Anthropic como una "empresa radical de izquierda, astuta" y, tras una disputa con el Pentágono, dijo: "Detengan todo uso de ello de inmediato, no lo necesitamos, no lo queremos." El Pentágono declaró a Anthropic como un "riesgo para la seguridad nacional" después de que la empresa intentara restringir sus modelos de IA para fines militares (específicamente, uso sin restricciones), otorgando a las agencias federales un período de transición de seis meses. Esta decisión llevó a Anthropic a perder contratos gubernamentales; empresas rivales (como OpenAI) anunciaron nuevos acuerdos con el Pentágono.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
El acuerdo de OpenAI con el Pentágono se anunció apenas unas horas después de la prohibición federal de Anthropic.
¿Cuándo y cómo se anunció?
El CEO de OpenAI, Sam Altman, anunció el viernes por la noche que la compañía había firmado un acuerdo con el Departamento de Defensa de EE. UU. Esto ocurrió el mismo día en que Trump prohibió a Anthropic en las agencias federales, declarándolo un "riesgo para la cadena de suministro de seguridad nacional".
Alcance del acuerdo:
Los modelos GPT de OpenAI pueden ser utilizados en redes militares clasificadas/clasificadas.
El valor del contrato se estima en alrededor de $200 millones.
OpenAI ofrece sus modelos a través de su propia API en la nube.
"Guardrails" de Seguridad y Ética
OpenAI enfatiza que mantiene las mismas dos restricciones principales que Anthropic rechazó:
Se prohíbe la vigilancia masiva doméstica.
La supervisión humana es obligatoria para los sistemas de armas totalmente autónomas; los modelos no pueden ser utilizados libremente para "todo propósito legítimo".
OpenAI afirma ofrecer "guardrails más fuertes": una combinación de factores legales + técnicos + de proceso + humanos. Altman también agregó que la etiqueta de "riesgo para la cadena de suministro" aplicada a Anthropic era injusta. ¿Por qué tan rápido?
Aparentemente, el Pentágono había detenido meses de negociaciones con Anthropic. Inmediatamente después de que Anthropic fuera excluido por orden de Trump, OpenAI intervino y cerró el acuerdo aceptando restricciones similares. Algunos comentaristas lo ven como una "ventaja competitiva" y "pragmatismo", mientras que la administración Trump criticó a Anthropic como "de izquierda", y se encontró que OpenAI era más flexible y colaborativo.
Reacciones y comentarios.
Algunos dicen: "El Pentágono rechazó los términos de Anthropic pero aceptó los de OpenAI, una contradicción interesante."
Existen críticas: "No es un verdadero guardrail, solo PR" o "la supervisión humana es débil, vinculada a la propia política del Pentágono."
La propia publicación del blog de OpenAI comparte detalles; solicita que se ofrezcan acuerdos similares a todas las empresas de IA.
En resumen: Anthropic resistió por principio y perdió, OpenAI ganó manteniendo los mismos ( o principios similares, dando un gran paso en el mercado militar de IA. Este evento ha intensificado aún más la postura del gobierno contra las empresas que exigen "seguridad" y la competencia entre las empresas de IA.
)
El presidente de Estados Unidos, Donald Trump, ha prohibido las tecnologías de inteligencia artificial de Anthropic en todas las agencias del gobierno federal. En una declaración en su cuenta de Truth Social, Trump describió a Anthropic como una "empresa radical de izquierda, astuta" y, tras una disputa con el Pentágono, dijo: "Detengan todo uso de ello de inmediato, no lo necesitamos, no lo queremos."
El Pentágono declaró a Anthropic como un "riesgo para la seguridad nacional" después de que la empresa intentara restringir sus modelos de IA para fines militares (específicamente, uso sin restricciones), otorgando a las agencias federales un período de transición de seis meses. Esta decisión llevó a Anthropic a perder contratos gubernamentales; empresas rivales (como OpenAI) anunciaron nuevos acuerdos con el Pentágono.