Num contexto de crescentes tensões sobre o uso de IA militar, a parceria da OpenAI com o Pentágono desencadeou um intenso debate sobre ética, timing e pressão governamental.
Altman admite que o lançamento foi apressado e mal elaborado
Sam Altman reconheceu que a OpenAI geriu mal a apresentação pública da sua nova colaboração com o Pentágono. Numa mensagem de estilo interno publicada na X, escreveu que a empresa “não deveria ter apressado” o anúncio do acordo com o Departamento de Defesa.
Altman afirmou que a liderança tentou acalmar uma confrontação crescente com o governo dos EUA. No entanto, reconheceu que o resultado “parecia oportunista e desleixado” e não conseguiu transmitir a intenção da empresa de limitar usos prejudiciais da sua tecnologia.
O acordo foi revelado na sexta-feira, poucas horas após o presidente Donald Trump ordenar às agências federais que interrompessem o uso dos sistemas de IA da Anthropic. Além disso, o anúncio ocorreu pouco antes de operações militares dos EUA contra o Irã, aumentando as críticas públicas ao timing.
A reação negativa espalhou-se rapidamente nas redes sociais, onde muitos usuários acusaram a OpenAI de explorar uma repressão política a um rival. Vários comentadores afirmaram estar a excluir contas do ChatGPT e a mudar para o modelo Claude da Anthropic em protesto.
Alterações contratuais focam na vigilância doméstica e limites de inteligência
Em resposta, a OpenAI está a trabalhar com oficiais do Departamento de Defesa para rever o acordo. O objetivo, segundo Altman, é incorporar as diretrizes éticas da OpenAI diretamente na linguagem legal vinculativa, em vez de depender de compromissos políticos informais.
Uma cláusula nova importante afirma que “o sistema de IA não deverá ser utilizado intencionalmente para vigilância doméstica de pessoas e nacionais dos EUA.” Esta proibição explícita de vigilância doméstica visa abordar preocupações de liberdades civis levantadas por críticos das implantações militares de IA.
Oficiais de defesa também confirmaram que o sistema coberto pelo contrato do departamento de defesa não será utilizado por serviços de inteligência dos EUA, como a NSA. No entanto, Altman esclareceu que qualquer uso futuro por agências de inteligência exigirá um contrato separado e negociações adicionais.
Dito isto, Altman insistiu que a parceria da OpenAI com o Pentágono visa restringir usos de alto risco, permitindo aplicações restritas relacionadas com defesa que estejam em conformidade com a lei dos EUA e as próprias regras de segurança da empresa.
Disputa com a Anthropic define o pano de fundo político mais amplo
O acordo da OpenAI surgiu diretamente de negociações falhadas entre a Anthropic e o Departamento de Defesa. A Anthropic tinha pressionado por garantias escritas de que os seus modelos de IA não apoiariam espionagem doméstica nem operariam armas autônomas sem supervisão humana significativa.
Na sexta-feira, o Secretário de Defesa, Pete Hegseth, anunciou que a Anthropic receberia uma designação de ameaça na cadeia de abastecimento após o colapso das negociações. Além disso, fontes oficiais relataram que o governo passou meses a criticar a forte ênfase da Anthropic na segurança da IA, argumentando que isso limitava a flexibilidade no campo de batalha.
A ruptura tornou-se pública quando surgiram relatos de que o sistema Claude da Anthropic tinha sido utilizado numa operação militar em janeiro, visando o presidente venezuelano Nicolás Maduro. A Anthropic não contestou abertamente essa utilização na altura, o que posteriormente alimentou dúvidas sobre a coerência das suas políticas internas.
Apesar do colapso subsequente, a Anthropic foi a primeira empresa de IA a implantar modelos na infraestrutura segura e classificada do Pentágono, sob um acordo finalizado no ano passado. Essa história, argumentam os críticos, tornou a mudança repentina para uma classificação de ameaça na cadeia de abastecimento particularmente evidente.
Altman reage à designação de risco da Anthropic
Altman usou a sua última declaração na X para defender a Anthropic, mesmo enquanto a sua própria empresa formalizava o papel com o Pentágono. Disse que passou o fim de semana em conversas com altos responsáveis, pressionando-os a reconsiderar a nova classificação.
“Reiterei que a Anthropic não deve ser classificada como risco na cadeia de abastecimento, e que esperamos que o Departamento de Defesa lhes ofereça os mesmos termos que acordámos,” escreveu. No entanto, os líderes do Pentágono ainda não sinalizaram disposição para reverter a designação.
A Anthropic foi fundada em 2021 por ex-investigadores da OpenAI que saíram após disputas internas sobre a direção estratégica e casos de uso militar aceitáveis. A startup construiu a sua reputação com base no desenvolvimento responsável de IA e em controlos de alinhamento mais rigorosos.
Apesar disso, as autoridades dos EUA ainda não abordaram publicamente o apelo de Altman por condições iguais, nem explicaram detalhadamente como a nova classificação de cadeia de abastecimento da Anthropic afetará futuras aquisições governamentais de IA.
Implicações para futuros contratos militares de IA
Este conflito evidencia o aumento do peso político em torno das concessões de contratos do departamento de defesa na área de inteligência artificial. As empresas enfrentam agora a pressão de equilibrar oportunidades de negócio com riscos reputacionais e preocupações sobre sistemas autônomos letais.
Além disso, o episódio destaca como a redação dos contratos, especialmente no que diz respeito à vigilância, alvos e exclusão de agências de inteligência, se tornou central nas negociações. A intervenção de Altman sugere que os principais laboratórios de IA podem estar a fazer lobby não só pelos seus próprios acordos, mas também por um tratamento semelhante para os rivais.
À medida que os debates sobre padrões de segurança e segurança nacional se intensificam, a resolução destas disputas provavelmente moldará a forma como o Pentágono estrutura oportunidades de contratos de defesa para IA avançada, e quais modelos de governação corporativa ganharão influência a longo prazo em Washington.
Resumindo, o lançamento apressado da OpenAI, o status de risco contestado da Anthropic e as restrições em evolução sobre vigilância e uso de inteligência sinalizam uma nova fase na forma como o exército dos EUA aborda parcerias de IA e responsabilidade.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
Altman defende a Anthropic enquanto o timing e os termos da parceria com o pentágono da OpenAI suscitam escrutínio
Num contexto de crescentes tensões sobre o uso de IA militar, a parceria da OpenAI com o Pentágono desencadeou um intenso debate sobre ética, timing e pressão governamental.
Altman admite que o lançamento foi apressado e mal elaborado
Sam Altman reconheceu que a OpenAI geriu mal a apresentação pública da sua nova colaboração com o Pentágono. Numa mensagem de estilo interno publicada na X, escreveu que a empresa “não deveria ter apressado” o anúncio do acordo com o Departamento de Defesa.
Altman afirmou que a liderança tentou acalmar uma confrontação crescente com o governo dos EUA. No entanto, reconheceu que o resultado “parecia oportunista e desleixado” e não conseguiu transmitir a intenção da empresa de limitar usos prejudiciais da sua tecnologia.
O acordo foi revelado na sexta-feira, poucas horas após o presidente Donald Trump ordenar às agências federais que interrompessem o uso dos sistemas de IA da Anthropic. Além disso, o anúncio ocorreu pouco antes de operações militares dos EUA contra o Irã, aumentando as críticas públicas ao timing.
A reação negativa espalhou-se rapidamente nas redes sociais, onde muitos usuários acusaram a OpenAI de explorar uma repressão política a um rival. Vários comentadores afirmaram estar a excluir contas do ChatGPT e a mudar para o modelo Claude da Anthropic em protesto.
Alterações contratuais focam na vigilância doméstica e limites de inteligência
Em resposta, a OpenAI está a trabalhar com oficiais do Departamento de Defesa para rever o acordo. O objetivo, segundo Altman, é incorporar as diretrizes éticas da OpenAI diretamente na linguagem legal vinculativa, em vez de depender de compromissos políticos informais.
Uma cláusula nova importante afirma que “o sistema de IA não deverá ser utilizado intencionalmente para vigilância doméstica de pessoas e nacionais dos EUA.” Esta proibição explícita de vigilância doméstica visa abordar preocupações de liberdades civis levantadas por críticos das implantações militares de IA.
Oficiais de defesa também confirmaram que o sistema coberto pelo contrato do departamento de defesa não será utilizado por serviços de inteligência dos EUA, como a NSA. No entanto, Altman esclareceu que qualquer uso futuro por agências de inteligência exigirá um contrato separado e negociações adicionais.
Dito isto, Altman insistiu que a parceria da OpenAI com o Pentágono visa restringir usos de alto risco, permitindo aplicações restritas relacionadas com defesa que estejam em conformidade com a lei dos EUA e as próprias regras de segurança da empresa.
Disputa com a Anthropic define o pano de fundo político mais amplo
O acordo da OpenAI surgiu diretamente de negociações falhadas entre a Anthropic e o Departamento de Defesa. A Anthropic tinha pressionado por garantias escritas de que os seus modelos de IA não apoiariam espionagem doméstica nem operariam armas autônomas sem supervisão humana significativa.
Na sexta-feira, o Secretário de Defesa, Pete Hegseth, anunciou que a Anthropic receberia uma designação de ameaça na cadeia de abastecimento após o colapso das negociações. Além disso, fontes oficiais relataram que o governo passou meses a criticar a forte ênfase da Anthropic na segurança da IA, argumentando que isso limitava a flexibilidade no campo de batalha.
A ruptura tornou-se pública quando surgiram relatos de que o sistema Claude da Anthropic tinha sido utilizado numa operação militar em janeiro, visando o presidente venezuelano Nicolás Maduro. A Anthropic não contestou abertamente essa utilização na altura, o que posteriormente alimentou dúvidas sobre a coerência das suas políticas internas.
Apesar do colapso subsequente, a Anthropic foi a primeira empresa de IA a implantar modelos na infraestrutura segura e classificada do Pentágono, sob um acordo finalizado no ano passado. Essa história, argumentam os críticos, tornou a mudança repentina para uma classificação de ameaça na cadeia de abastecimento particularmente evidente.
Altman reage à designação de risco da Anthropic
Altman usou a sua última declaração na X para defender a Anthropic, mesmo enquanto a sua própria empresa formalizava o papel com o Pentágono. Disse que passou o fim de semana em conversas com altos responsáveis, pressionando-os a reconsiderar a nova classificação.
“Reiterei que a Anthropic não deve ser classificada como risco na cadeia de abastecimento, e que esperamos que o Departamento de Defesa lhes ofereça os mesmos termos que acordámos,” escreveu. No entanto, os líderes do Pentágono ainda não sinalizaram disposição para reverter a designação.
A Anthropic foi fundada em 2021 por ex-investigadores da OpenAI que saíram após disputas internas sobre a direção estratégica e casos de uso militar aceitáveis. A startup construiu a sua reputação com base no desenvolvimento responsável de IA e em controlos de alinhamento mais rigorosos.
Apesar disso, as autoridades dos EUA ainda não abordaram publicamente o apelo de Altman por condições iguais, nem explicaram detalhadamente como a nova classificação de cadeia de abastecimento da Anthropic afetará futuras aquisições governamentais de IA.
Implicações para futuros contratos militares de IA
Este conflito evidencia o aumento do peso político em torno das concessões de contratos do departamento de defesa na área de inteligência artificial. As empresas enfrentam agora a pressão de equilibrar oportunidades de negócio com riscos reputacionais e preocupações sobre sistemas autônomos letais.
Além disso, o episódio destaca como a redação dos contratos, especialmente no que diz respeito à vigilância, alvos e exclusão de agências de inteligência, se tornou central nas negociações. A intervenção de Altman sugere que os principais laboratórios de IA podem estar a fazer lobby não só pelos seus próprios acordos, mas também por um tratamento semelhante para os rivais.
À medida que os debates sobre padrões de segurança e segurança nacional se intensificam, a resolução destas disputas provavelmente moldará a forma como o Pentágono estrutura oportunidades de contratos de defesa para IA avançada, e quais modelos de governação corporativa ganharão influência a longo prazo em Washington.
Resumindo, o lançamento apressado da OpenAI, o status de risco contestado da Anthropic e as restrições em evolução sobre vigilância e uso de inteligência sinalizam uma nova fase na forma como o exército dos EUA aborda parcerias de IA e responsabilidade.