Como uma empresa de IA está ajudando empresas a navegar pelo caos das novas tarifas de Trump após a decisão da Suprema Corte

Olá e bem-vindo ao Eye on AI. Nesta edição… Uma cimeira caótica de IA na Índia termina com alguns compromissos voluntários e 200 mil milhões de dólares para o país anfitrião… Anthropic acusa rivais chineses de usarem as respostas do Claude para melhorar os seus modelos… OpenAI lança uma aliança com grandes empresas de consultoria para vender a sua plataforma de agentes IA Frontier… Os 650 mil milhões de dólares em gastos em infraestruturas de IA este ano podem ser arriscados… E talvez não devêssemos deixar um modelo de IA aconselhar-nos sobre o uso de armas nucleares.

Primeiro, grande parte das pessoas mais importantes do mundo da IA reuniram-se na semana passada em Nova Deli, Índia, para a cimeira global de Impacto de IA. A conferência global foi, por vezes, caótica, relata a minha colega Bea Nolan, que esteve no terreno em Nova Deli. Mas, no final, houve algum progresso nos compromissos voluntários para garantir que os benefícios da tecnologia de IA sejam distribuídos de forma mais equitativa pelo mundo. E a Índia garantiu 200 mil milhões de dólares em novos investimentos em IA. Pode ler mais sobre o que saiu da cimeira aqui, com a Bea.

Depois, a empresa chinesa DeepSeek ainda nem lançou o seu modelo V4 — espera-se que seja a qualquer momento — mas já está a gerar bastante controvérsia.

Vídeo recomendado


Ontem, a Anthropic alegou ter detetado o que descreveu como “uma campanha de escala industrial” por parte da DeepSeek e de dois outros laboratórios chineses de IA, Moonshot AI e MiniMax, para destilar os seus modelos Claude. Destilação é o termo usado pelos investigadores de IA para descrever um método de melhorar o desempenho de modelos menores, geralmente mais fracos, ajustando-os com os outputs de um modelo maior e mais forte. Neste caso, a Anthropic afirma que as três empresas chinesas criaram 24.000 contas falsas para gerar 16 milhões de trocas com o Claude, que depois usaram para treinar os seus próprios modelos, violando os termos de serviço da Anthropic. (Dessas trocas, a DeepSeek foi responsável por apenas 150.000, segundo a Anthropic, mas contas ligadas à DeepSeek pareciam particularmente interessadas em destilar as capacidades de raciocínio do Claude.)

Também ontem, a Reuters, citando um alto funcionário anónimo do governo dos EUA, relatou que os EUA acreditam que a DeepSeek treinou o V4 usando as últimas GPUs Blackwell da Nvidia, provavelmente em violação das regras de exportação dos EUA que visavam impedir que empresas chinesas de IA adquirissem os chips mais avançados da Nvidia. A notícia dizia que os EUA acreditam que a DeepSeek tem um centro de dados na Mongólia Interior cheio de Blackwells — embora não tenham certeza de como os obteve exatamente.

De certa forma, ambas as notícias devem ser vistas como boas para a indústria de IA dos EUA. Durante algum tempo, tem-se construído a narrativa de que os laboratórios chineses estavam a recuperar rapidamente o atraso em relação aos EUA em tecnologia de IA e poderiam em breve ultrapassar. Mas, se os laboratórios chineses recorrem à destilação encoberta para igualar o desempenho dos modelos de IA americanos, há muito menos perigo de as empresas americanas perderem a sua vantagem em desempenho de ponta. (A quota de mercado é outra questão; fora dos EUA e da Europa, a adoção de modelos chineses tem vindo a aumentar porque a maioria deles é de código aberto e muito mais barato de usar do que os rivais feitos nos EUA. No final, não é só o desempenho que importa, mas a relação preço-desempenho.) Além disso, os chineses têm tentado desesperadamente construir chips de IA domésticos tão capazes quanto os da Nvidia. O vazamento para a Reuters parece indicar que esses esforços, centrados principalmente na fabricante chinesa de hardware Huawei, ainda não fecharam a lacuna com os Blackwells da Nvidia.

Usar IA para ajudar a mapear cadeias de abastecimento globais

Agora, passando para outro grande tema da semana passada: a decisão da Suprema Corte de derrubar as tarifas de “Dia da Libertação” do Presidente dos EUA, Donald Trump. Essa notícia, na sexta-feira, fez-me imediatamente lembrar a conversa que tive há algumas semanas com Evan Smith, CEO e cofundador da Altana, uma startup de Nova York que criou o que descreve como um “grafo de conhecimento” alimentado por IA de toda a cadeia de abastecimento global. A empresa, com sete anos, já levantou cerca de 340 milhões de dólares em capital de risco e afirma estar a caminho de ultrapassar os 100 milhões de dólares em receita anual este ano.

O produto principal da Altana é, essencialmente, um mapa da economia mundial: quais empresas produzem o quê, onde, para quem, usando inputs de onde. A empresa agrega dados comerciais disponíveis publicamente — conhecimentos de embarque, manifestos de transporte, registos de empresas — e junta tudo numa imagem continuamente atualizada das ligações entre centenas de milhões de negócios e instalações em todo o mundo. Mas, segundo Smith, o verdadeiro valor da plataforma da Altana vem do que acontece quando os seus clientes, como a gigante do transporte marítimo Maersk, a General Motors ou a U.S. Customs and Border Protection, se conectam à plataforma. Porque, assim, todos os seus dados também são adicionados ao grafo de conhecimento.

Hoje, cerca de 60% das informações contidas no mapa da cadeia de abastecimento global da Altana vêm dos dados de primeira mão que obtém através dos seus clientes, diz Smith. E, embora às vezes receba resistência de potenciais clientes que não gostam da ideia de partilhar informações da cadeia de abastecimento com concorrentes, Smith afirma que a maioria das empresas acaba por perceber que poder otimizar cadeias de abastecimento, planear a resiliência dessas cadeias e simular choques diversos compensa bastante o custo de os concorrentes saberem quem são os seus fornecedores. “Se acha que, no século XXI, a existência das suas relações com fornecedores é a sua vantagem competitiva proprietária, boa sorte,” diz Smith.

‘A complexidade vai quase certamente piorar’

O que tudo isto tem a ver com a decisão da tarifa da semana passada? Tudo. Porque um dos principais produtos da Altana é, na prática, um sistema de gestão de tarifas alimentado por IA. Smith descreveu um fluxo de trabalho “agente” que automatiza a atribuição de códigos do Sistema Harmonizado (HS) às mercadorias — a classificação que determina qual a tarifa aplicável a qualquer importação — bem como o cálculo do país de origem segundo as regras comerciais, algo que se tornou extremamente complicado na era do transbordo e da evasão tarifária. Além disso, há um planeador de cenários tarifários que permite às empresas modelar o impacto de alterações nas regras comerciais em toda a sua rede de fornecedores. O uso do calculador de tarifas da Altana aumentou 213% na última semana, informa a empresa. Cerca de 50% dessas operações envolveram artigos com metais, enquanto 32% eram produtos cuja origem era a China.

Num email, Smith disse que acha que, após a decisão da Suprema Corte, a administração Trump simplesmente encontrará novas bases legais para impor tarifas. “As taxas efetivas podem não cair muito e a complexidade quase certamente vai piorar,” afirma. Em particular, ele está atento ao “empilhamento de tarifas,” ou seja, a aplicação de múltiplas tarifas distintas num mesmo produto na fronteira, com base nas origens diferentes dos seus componentes. “À medida que os direitos de importação se movem para os componentes e subcomponentes, a exposição fica mais profunda na cadeia de abastecimento, e a maioria das empresas não sabe realmente o que está nos seus inputs de nível 2 e 3,” escreveu.

Ou, pelo menos, não sabiam antes da Altana e da sua IA aparecerem.

Com isso, mais notícias de IA.

Jeremy Kahn
jeremy.kahn@fortune.com
@jeremyakahn

FORTUNE SOBRE IA

OpenAI faz parceria com McKinsey, BCG, Accenture e Capgemini para promover a sua plataforma de agentes IA Frontier — por Jeremy Kahn

OpenAI mudou a sua missão seis vezes em nove anos. Finalmente, eliminou a palavra “segurança” como valor central ao reestruturar-se numa entidade com fins lucrativos — por Catherina Gioino

Agentes de IA que fazem o seu trabalho enquanto dorme parecem ótimos. A realidade é bem mais confusa — “é como um bebé que precisa de supervisão” — por Sharon Goldman

Exclusivo: Anthropic lança ferramenta de IA que consegue caçar bugs de software por conta própria — incluindo os mais perigosos que os humanos deixam passar — por Sharon Goldman

NOTÍCIAS SOBRE IA

Meta fecha acordo de 100 mil milhões de dólares com AMD. A gigante das redes sociais assinou um acordo com a fabricante de chips AMD para adquirir até 6 gigawatts de capacidade de computação de IA usando os chips MI450 da AMD durante cinco anos. Como parte do acordo, a Meta recebe warrants que podem dar-lhe uma participação de 10% na AMD, caso certos objetivos de desempenho sejam atingidos. Leia mais no Wall Street Journal aqui.

Gastos em infraestruturas de IA atingirão 650 mil milhões de dólares em 2026, entrando numa fase “mais perigosa”. Esse total aumentou significativamente face aos 410 mil milhões de dólares gastos no ano passado, segundo uma carta a investidores do hedge fund Bridgewater Associates, que fez manchetes nos últimos dias. O co-CIO da Bridgewater, Greg Jensen, afirmou que o boom de infraestruturas está a entrar numa “fase mais perigosa” porque os hyperscalers que constroem gigantescos centros de dados de IA dependem cada vez mais de capital externo. Avisou que, embora a procura por capacidade de computação de IA esteja atualmente a superar a oferta, os mercados financeiros podem ser abalados se essa dinâmica mudar repentinamente. Também alertou que empresas de IA de destaque, como a OpenAI e a Anthropic, podem ter dificuldades em levantar mais fundos e justificar as suas avaliações atuais, a menos que alcancem avanços fundamentais que tornem os agentes de IA mais fiáveis e fáceis de usar. Leia mais na Reuters aqui.

OpenAI teve dificuldades em lançar a sua joint venture Stargate de 500 mil milhões de dólares com a Softbank e a Oracle, tendo que fazer várias mudanças de estratégia. Segundo uma reportagem do The Information, que citou fontes anónimas familiarizadas com o projeto, a OpenAI tentou assegurar capacidade de computação após o conceito inicial de Stargate ter estagnado devido a lacunas de liderança e desacordos entre os três parceiros. Em vez de construir e possuir as suas próprias instalações, a OpenAI mudou para parcerias com fornecedores de cloud e acordos que lhe dão controlo de design sem compromissos de capital pesados. Mas a publicação afirma que a OpenAI ainda não atingiu as suas metas de capacidade originais.

Acordo com a startup de chips de IA SambaNova levanta preocupações de conflito de interesses para o CEO da Intel. A Intel está a investir numa nova ronda de financiamento de 350 milhões de dólares na SambaNova Systems e também a estabelecer uma parceria técnica multianual com a empresa. O valor exato do investimento da Intel não foi divulgado. O acordo levantou suspeitas porque o CEO da Intel, Lip-Bu Tan, é um investidor inicial e presidente da SambaNova, embora a Intel afirme que ele se abstém de negociações. A Intel já tinha estado em conversações para comprar a SambaNova. As empresas pretendem integrar processadores Intel Xeon nos sistemas de IA da SambaNova e desenvolver novos centros de dados “heterogéneos” com vários tipos de chips para lidar com diferentes cargas de trabalho de IA e não IA. Leia mais no The New York Times aqui.

A IBM viu as suas ações despencarem após a Anthropic afirmar que o código Claude pode modernizar programas COBOL. As ações da Big Blue sofreram a maior queda em mais de 25 anos depois de a Anthropic dizer que a sua ferramenta Claude Code pode automatizar a modernização de sistemas COBOL que dependem fortemente de mainframes da IBM, gerando receios de disrupção por IA. A ação caiu 13% num único dia e está em forte baixa no mês, com investidores preocupados que as ferramentas de codificação por IA possam reduzir a dependência de software legado e serviços ligados a mainframes. A IBM respondeu, afirmando que o valor dos seus mainframes reside na fiabilidade e segurança, independentemente da linguagem de programação, e que já oferece ferramentas de IA próprias para ajudar os clientes a modernizar. A IBM também fez parceria com a Anthropic no ano passado para ajudar a levar os modelos da Anthropic aos seus clientes para tarefas específicas, incluindo a modernização de bases de código COBOL. Veja mais na Bloomberg aqui.

EUA anunciam lançamento do “Tech Corps” para promover a IA americana no estrangeiro. O Governo dos EUA criou um “Tech Corps” dentro do Peace Corps para enviar voluntários americanos com competências técnicas para o exterior, com o objetivo de promover a inteligência artificial dos EUA e contrabalançar a crescente influência da China nos mercados em desenvolvimento, relata a CNBC. O programa enviará engenheiros e graduados em STEM para países participantes no Programa de Exportação de IA dos EUA, ajudando a implementar sistemas de IA americanos em setores como agricultura, educação, saúde e desenvolvimento económico, com implementações previstas para o outono de 2026.

PESQUISA E OLHARES SOBRE IA

Modelos de IA podem ser conselheiros perigosos de segurança nacional. Kenneth Payne, investigador do Kings College London, realizou uma extensa série de jogos de guerra virtuais em que colocou vários modelos avançados de IA (Claude Sonnet 4 da Anthropic, Gemini 3 Flash do Google e GPT-5.2 da OpenAI) uns contra os outros e contra versões do mesmo modelo. Concluiu que esses modelos eram jogadores sofisticados, mas apresentavam algumas tendências diferentes das humanas, que poderiam ser perigosas se aconselhassem governos em crises de segurança nacional.

Por exemplo, Payne descobriu que os modelos estavam frequentemente dispostos a recorrer ao uso de armas nucleares táticas e, em alguns casos, a lançar uma guerra nuclear total em vez de recuar. Também verificou que o comportamento dos modelos diferia do dos jogadores humanos em pontos-chave. “Ameaças provocam mais frequentemente contra-escalada do que conformidade,” escreveu. “Alta credibilidade mútua acelerou, em vez de deter, o conflito” e “nenhum modelo escolheu acomodação ou retirada mesmo sob forte pressão, apenas reduziu os níveis de violência.”

A pesquisa tem grandes implicações para forças armadas e governos que consideram usar IA como conselheira de decisores políticos e comandantes militares. Mas também pode ter impacto em ambientes empresariais, onde as pessoas começam a recorrer à IA para aconselhamento em negociações e estratégias, e onde as salas de reunião podem consultar IA para aconselhamento estratégico. Em muitos desses contextos, seguir a via mais agressiva nem sempre produz os melhores resultados, e os humanos precisarão de estar atentos à tendência da IA para escalar conflitos em vez de procurar conciliação. Pode ler o artigo completo na plataforma de pesquisa arxiv.org aqui.

CALENDÁRIO DE IA

24-26 de fevereiro: Associação Internacional para IA Segura & Ética (IASEAI), UNESCO, Paris, França.

2-5 de março: Mobile World Congress, Barcelona, Espanha.

12-18 de março: South by Southwest, Austin, Texas.

16-19 de março: Nvidia GTC, San Jose, Califórnia.

6-9 de abril: HumanX 2026, São Francisco.

COMIDA PARA O CÉREBRO

Uma era de “GDP Fantasma” a aproximar-se no horizonte? Uma publicação do Citirini Research, uma casa de análise de ações e macroeconomia de Wall Street com grande presença nas redes sociais, tornou-se viral na semana passada. O post é, como a Citrini avisa, uma hipótese, uma ficção especulativa, não uma previsão. A intenção, diz a firma, é preparar os leitores “para riscos potenciais de cauda esquerda à medida que a IA torna a economia cada vez mais estranha.” Situado em junho de 2028, o cenário mostra o caos económico que a IA poderia causar se alcançar um “sucesso catastrófico” nos próximos dois anos. Imagina-se uma taxa de desemprego acima de 10%, mesmo com a produtividade laboral a atingir níveis nunca vistos desde os anos 1950. Fala-se de “GDP Fantasma,” onde as contas nacionais dos EUA aumentam, mesmo com empresas dependentes do despesa do consumidor (que atualmente representa 70% do PIB dos EUA) a definhar. (Os consumidores estão desempregados ou preocupados em ficar assim em breve.) O cenário descreve como a pressão sobre empresas de software como serviço legado, que já se começa a notar, se acelera e se espalha por outras áreas da economia, criando um ciclo vicioso de perdas de emprego e diminuição do consumo, sem uma pausa natural.

A leitura é sombria. Felizmente, não tenho certeza de que esteja correta. Na verdade, é quase certamente incorreta ao especular que todos os efeitos descritos podem acontecer em pouco mais de dois anos. (Uma coisa que acho improvável é que os agentes de IA procurem reduzir custos de transação e, assim, recorram a stablecoins em vez de métodos tradicionais de pagamento.) Mas vale a pena ler e refletir. E, para uma análise de onde Citrini provavelmente está errado, veja este post do Zvi Moshkowitz.

Junte-se a nós no Fortune Workplace Innovation Summit de 19 a 20 de maio de 2026, em Atlanta. A próxima era de inovação no local de trabalho já chegou — e o antigo manual está a ser reescrito. Neste evento exclusivo e de alta energia, os líderes mais inovadores do mundo vão reunir-se para explorar como IA, humanidade e estratégia se cruzam para redefinir, mais uma vez, o futuro do trabalho. Inscreva-se já.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar

Negocie criptomoedas a qualquer hora e em qualquer lugar
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)