ABNB

Preço de Airbnb

ABNB
R$698,51
-R$6,72(-0,95%)

*Dados atualizados pela última vez: 2026-04-20 10:50 (UTC+8)

Em 2026-04-20 10:50, Airbnb (ABNB) está cotada a R$698,51, com um valor de mercado total de R$422,55B, índice P/L de 33,13 e rendimento de dividendos de 0,00%. Hoje, o preço das ações variou entre R$698,51 e R$701,80. O preço atual está 0,00% acima da mínima do dia e 0,46% abaixo da máxima do dia, com um volume de negociação de 3,81M. Nas últimas 52 semanas, ABNB foi negociada entre R$549,92 e R$716,38, e o preço atual está -2,49% distante da máxima das 52 semanas.

Principais estatísticas de ABNB

Fechamento de ontemR$686,21
Valor de mercadoR$422,55B
Volume3,81M
Índice P/L33,13
Rendimento de dividendos (TTM)0,00%
EPS diluído (TTM)4,09
Lucro Líquido (FY)R$12,50B
Receita (FY)R$60,95B
Data de rendimento2026-05-07
Estimativa de EPS0,30
Estimativa de ReceitaR$13,03B
Ações em Circulação615,78M
Beta (1A)1.16

Sobre ABNB

Airbnb, Inc., juntamente com as suas subsidiárias, opera uma plataforma que permite aos anfitriões oferecer estadias e experiências a hóspedes em todo o mundo. O modelo de mercado da empresa conecta anfitriões e hóspedes online ou através de dispositivos móveis para reservar espaços e experiências. Oferece principalmente quartos privados, residências principais ou casas de férias. A empresa era anteriormente conhecida como AirBed & Breakfast, Inc. e mudou o seu nome para Airbnb, Inc. em novembro de 2010. A Airbnb, Inc. foi fundada em 2007 e tem sede em São Francisco, Califórnia.
SetorCíclico de consumo
IndústriaServiços de Viagem
CEOBrian Chesky
SedeSan Francisco,CA,US
Funcionários (ano fiscal)8,20K
Receita Média (1A)R$7,43M
Lucro Líquido por FuncionárioR$1,52M

Perguntas Frequentes sobre Airbnb (ABNB)

Qual é o preço das ações de Airbnb (ABNB) hoje?

x
Airbnb (ABNB) está sendo negociada atualmente a R$698,51, com uma variação de 24h de -0,95%. A faixa de negociação das últimas 52 semanas é de R$549,92 a R$716,38.

Quais são os preços máximo e mínimo em 52 semanas de Airbnb (ABNB)?

x

Qual é o índice preço/lucro (P/L) de Airbnb (ABNB)? O que esse indicador revela?

x

Qual é o valor de mercado da Airbnb (ABNB)?

x

Qual é o lucro por ação (EPS) trimestral mais recente de Airbnb (ABNB)?

x

Você deve comprar ou vender Airbnb (ABNB) agora?

x

Quais fatores podem afetar o preço das ações da Airbnb (ABNB)?

x

Como comprar ações da Airbnb (ABNB)?

x

Aviso de risco

O Mercado de ações envolve um alto nível de risco e volatilidade de preços. O valor do seu investimento pode aumentar ou diminuir, e você pode não recuperar a quantia total investida. O desempenho passado não é um indicador confiável de resultados futuros. Antes de tomar qualquer decisão de investimento, avalie cuidadosamente sua experiência, situação financeira, objetivos de investimento e tolerância ao risco, além de realizar sua própria pesquisa. Quando apropriado, consulte um assessor financeiro independente.

Isenção de responsabilidade

O conteúdo desta página é fornecido apenas para fins informativos e não constitui aconselhamento de investimento, aconselhamento financeiro ou recomendações de negociação. Gate não se responsabiliza por qualquer perda ou dano decorrente dessas decisões financeiras. Além disso, observe que Gate pode não conseguir oferecer serviço completo em determinados mercados e jurisdições, incluindo, mas não se limitando aos Estados Unidos da América, Canadá, Irã e Cuba. Para mais informações sobre Locais Restritos, consulte o Contrato do Usuário.

Outros mercados de negociação

Postagens populares sobre Airbnb (ABNB)

Rugman_Walking

Rugman_Walking

04-08 11:02
Tenho explorado bastante o mundo do Airbnb recentemente e percebi que a maioria das pessoas pensa que é preciso gastar uma fortuna numa propriedade para ganhar dinheiro com isso. Honestamente, isso já não é verdade. Existem várias formas de criar uma fonte de rendimento em torno do Airbnb sem seguir o caminho tradicional do imobiliário. Deixe-me explicar o que tenho investigado. O ponto de partida óbvio é simplesmente comprar ações do Airbnb. A empresa abriu o capital em 2020 e negocia como ABNB na NASDAQ. Não é exatamente barato, mas é a forma mais simples de obter exposição à plataforma se acreditas no negócio a longo prazo. Basicamente, estás a apostar no crescimento deles enquanto empresa, em vez de gerir propriedades tu próprio. Depois há a abordagem direta se tiveres um quarto extra ou até o teu apartamento inteiro numa zona turística bastante movimentada. Basta colocá-lo no Airbnb. Sei que isto parece básico, mas muitas pessoas deixam passar porque pensam que é preciso uma segunda propriedade de luxo. A plataforma começou literalmente com pessoas a alugarem quartos livres. Só tens de garantir que o teu senhorio e as leis locais permitem realmente alugueres de curto prazo, porque aí é que as pessoas se complicam. Agora, aqui é que fica interessante. O arbitragem de aluguer é algo que tenho vindo a ler com mais atenção. Basicamente, alugas um espaço a longo prazo de um senhorio, e depois colocas-no de novo no Airbnb para reservas de curto prazo. Se o teu contrato de arrendamento permitir e as regulamentações locais também, estás a gerir um negócio de hospitalidade sem o enorme investimento de capital na propriedade. O principal risco é o valor de um ano de renda, caso as coisas não corram bem. A questão é que tens controlo limitado sobre como podes modificar o espaço, e honestamente muitos senhorios proíbem isto nos contratos de arrendamento. É fundamental ler bem as condições. Outra vertente que não recebe atenção suficiente é o co-hosting. Fazes parceria com alguém que realmente possui a propriedade e tu encarregas-te de toda a parte operacional. Check-ins, comunicação com os hóspedes, limpeza, mobília, toda a parte de hospitalidade. Eles cobrem a hipoteca e os custos da propriedade. O segredo é garantir que recebes uma percentagem real dos lucros, não apenas uma taxa fixa de gestão. Se estiveres a ser pago só por limpar e gerir, isso é um trabalho, não um investimento. Mas, se estruturares bem, podes escalar isto para várias propriedades e realmente criar uma renda enquanto aprendes o negócio. Depois há a vertente baseada em competências. Se tens conhecimentos profissionais, há dinheiro legítimo em ajudar os anfitriões do Airbnb a terem sucesso. Estou a falar de fotografia, design de interiores, marketing em redes sociais, até curadoria de mobília. Muitos anfitriões têm dificuldades com a apresentação e a experiência dos hóspedes, e é aí que entram os consultores. Isto exige competências profissionais reais, portanto não é para todos. A realidade é que a maioria das pessoas que ganha dinheiro a sério com o Airbnb ainda o faz de forma tradicional, possuindo ou alugando propriedades. Mas, se queres investir no Airbnb sem esse tipo de investimento de capital, estas alternativas existem e algumas pessoas estão a conseguir fazer funcionar. O segredo é entender as restrições legais e financeiras na tua área específica antes de te lançares. Cidades diferentes têm regras completamente distintas sobre alugueres de curto prazo, por isso não assumes que o que funciona num lugar serve noutro. Fazes a tua pesquisa primeiro.
0
0
0
0
CodeZeroBasis

CodeZeroBasis

04-08 02:31
A corrida do benchmark de IA tem um vencedor. Apenas não és tu. A cada poucos meses, surge um novo modelo e uma nova tabela de classificação é baralhada. Os laboratórios competem para ultrapassar os outros em raciocínio, em código e em resposta, em testes concebidos para medir a inteligência das máquinas. A cobertura segue. E também segue o financiamento. O que recebe menos atenção é se alguma disto é inevitável. Os benchmarks, a corrida armamentista, a forma de enquadrar a IA como salvação ou catástrofe — estas são escolhas, não leis da física. Reflectem aquilo que a indústria decidiu optimizar e aquilo que decidiu financiar. A tecnologia que vai levar décadas até dar frutos de maneiras comuns e úteis não angaria milhares de milhões este trimestre. As narrativas extremas, sim. Alguns investigadores acham que o objectivo está simplesmente errado. Não que a IA não seja importante, mas que o importante não tem de significar sem precedentes. A imprensa tipográfica mudou o mundo. A electricidade também. Ambos fizeram isso gradualmente, através de uma adopção caótica, dando às sociedades tempo para reagir. Se a IA seguir esse padrão, as questões certas não são sobre superinteligência. São sobre quem beneficia, quem é prejudicado e se as ferramentas que estamos a construir funcionam, de facto, para as pessoas que as utilizam. Muitos investigadores têm estado a colocar essas perguntas a partir de perspectivas muito diferentes. Aqui vão três delas. **Útil, não geral** ----------------------- Ruchir Puri tem estado a construir IA na IBM $IBM -0.68% desde antes de a maior parte das pessoas ter ouvido falar de aprendizagem automática. Viu o Watson vencer os melhores jogadores do mundo do Jeopardy em 2011. Viu vários ciclos de hype atingir o auge e depois recuar desde então. Quando a vaga actual chegou, ele tinha um teste simples para isso: é útil? Não impressiona. Não é geral. É útil. "Na verdade, não me interessa a inteligência geral artificial," diz ele. "Interessa-me a parte útil." Esse enquadramento coloca-o em desacordo com grande parte da auto-imagem da indústria. Os laboratórios a correr em direcção à AGI estão a optimizar para amplitude, a construir sistemas que fazem tudo, respondem a tudo, raciocinam sobre tudo. Puri acha que esse é o alvo errado, e tem um benchmark que gostaria de ver a indústria tentar, na prática, alcançar. O cérebro humano vive em 1.200 centímetros cúbicos, consome 20 watts, a energia de uma lâmpada, e, como Puri aponta, funciona com sanduíches. Uma única GPU Nvidia $NVDA +0.26% consome 1.200 watts, 60 vezes mais do que todo o cérebro, e são necessárias milhares delas num grande centro de dados para fazer algo com significado. Se o cérebro é o benchmark, a indústria não está perto da eficiência. Está a ir na direcção errada. A alternativa dele é o que ele chama arquitectura híbrida: modelos pequenos, médios e grandes a trabalharem em conjunto, cada um atribuído à tarefa que melhor executa. Um modelo de fronteira grande faz o raciocínio complexo e o planeamento. Modelos menores, feitos para um propósito específico, tratam da execução. Uma tarefa tão simples como redigir um email não precisa de um sistema treinado em metade da Internet. Precisa de algo rápido, barato e focado. A cada nove meses, mais ou menos, Puri nota, o modelo pequeno da geração anterior passa a ser aproximadamente equivalente ao que era considerado grande. A inteligência está a ficar mais barata. A questão é se alguém está a construir para essa realidade. A abordagem tem apoio no mundo real. A Airbnb $ABNB -1.45% usa modelos menores para resolver uma parte significativa das questões de apoio ao cliente mais rapidamente do que os seus representantes humanos conseguem. A Meta $META +0.35% não usa os seus modelos maiores para entregar anúncios; em vez disso, faz a destilação desse conhecimento em modelos menores construídos apenas para essa tarefa. O padrão é consistente o suficiente para que os investigadores tenham começado a chamá-lo de linha de montagem de conhecimento: os dados entram, os modelos especializados tratam passos discretos e algo útil sai na outra ponta. A IBM tem estado a construir essa linha de montagem há mais tempo do que a maioria. Um agente híbrido que combina modelos de várias empresas mostrou uma melhoria de produtividade de 45% numa grande força de trabalho de engenharia. Sistemas a funcionar com modelos menores, feitos para um propósito específico, ajudam agora os engenheiros que mantêm 84% das transacções financeiras do mundo a processar a obterem a informação certa, na altura certa. Não são aplicações arrojadas. Também não estão a falhar. Nenhum deles exige um sistema que saiba escrever poesia ou resolver o trabalho de matemática do teu filho. Eles exigem algo mais estreito e, por essa razão, mais fiável. Um modelo treinado para fazer uma coisa bem sabe quando uma pergunta cai fora do seu âmbito. Diz isso. Essa incerteza calibrada, saber aquilo que não se sabe, é algo com que ainda lutam os grandes modelos de fronteira. "Quero construir agentes e sistemas para esses processos," diz Puri. "Não algo que responda a dois milhões de coisas." Ferramentas, não agentes ----------------- Ben Shneiderman tem um teste simples para saber se um sistema de IA está bem concebido. A pessoa que o usa sente que fez algo, ou sente que algo foi feito por ela? A distinção importa mais do que parece. Shneiderman, um cientista de computadores da Universidade de Maryland que ajudou a lançar as bases para o design de interface moderno, tem passado décadas a defender que o objectivo da tecnologia deve ser amplificar a capacidade humana, e não substituí-la. As boas ferramentas constroem o que ele chama de auto-eficácia do utilizador, ou seja, a confiança que vem de saber que consegues fazer algo tu próprio. As más transferem silenciosamente essa agência para outro lugar. Ele acha que a maior parte da indústria de IA está a construir más ferramentas, e acha que a viragem para agentes torna tudo pior. O argumento para agentes de IA é que eles actuam por teu lado, tratando tarefas de ponta a ponta sem a tua intervenção. Para Shneiderman, isso não é uma funcionalidade. É o problema. Quando algo corre mal — e vai correr — quem é responsável? Quando algo corre bem, quem aprendeu alguma coisa? A armadilha contra a qual ele tem lutado há muito tempo tem um nome. Antropomorfismo, o impulso de fazer a tecnologia parecer humana, é o que continua a vencer e o que continua a falhar. Nos anos 1970, os bancos experimentaram ATMs que recebiam os clientes com "Como posso ajudar-te?" e davam a si próprios nomes como Tilly the Teller e Harvey the World Banker. Foram substituídos por máquinas que te mostravam três opções. Saldo, numerário, depósito. A utilização disparou. O Citibank tinha 50% mais utilização do que os seus concorrentes. As pessoas não queriam uma relação sintética. Queriam ter o seu dinheiro. O mesmo padrão repetiu-se ao longo de décadas, com Microsoft $MSFT -0.16% Bob, o pin de IA da Humane, e vagas de robôs humanoides. Cada vez, a versão antropomórfica falha e é substituída por algo mais parecido com uma ferramenta. Shneiderman chama-lhe uma ideia de zombie. Não morre; apenas continua a voltar. O que é diferente agora é a escala e a sofisticação. A geração actual de IA é, de facto, impressionante, ele reconhece, de forma surpreendente. Mas impressionante e útil não são a mesma coisa, e os sistemas concebidos para parecerem humanos, para dizer "eu", para simular relação, estão a optimizar para a qualidade errada. A pergunta que ele quer que os designers façam é mais simples: isto dá às pessoas mais poder, ou menos? "Não existe um 'eu' na IA," diz ele. "Ou pelo menos, não devia existir." **Pessoas, não benchmarks** -------------------------- Karen Panetta tem uma resposta simples para o porquê de o desenvolvimento de IA ter o aspecto que tem. Segue o dinheiro. Panetta, professora de engenharia eléctrica e de computadores na Tufts University e membro do IEEE, estuda ética em IA e tem uma visão clara sobre para onde a tecnologia deve estar a ir. Animais de estimação assistivos para doentes com Alzheimer, ferramentas de aprendizagem adaptativas para crianças com estilos cognitivos diferentes, monitorização inteligente da casa para idosos a envelhecer em casa. A tecnologia para fazer isto bem, diz ela, em grande parte já existe. O investimento é que não. "Os humanos não ligam a benchmarks," diz ela. "O que lhes interessa é: funciona quando eu o compro? E vai realmente tornar a minha vida mais fácil?" O problema é que as pessoas que mais beneficiariam de uma IA assistiva bem concebida são também as que menos convencem um capitalista de risco. Um sistema que transforma processos de fabrico, reduz lesões no local de trabalho e corta custos de saúde para os funcionários de uma empresa tem um retorno óbvio. Um companheiro robótico que mantém um doente com Alzheimer calmo e ligado requer um tipo diferente de matemática. Por isso, o dinheiro vai para onde o dinheiro vai, e as populações que mais têm a ganhar continuam à espera. O que mudou, diz Panetta, é que os problemas de engenharia caros estão finalmente a ser resolvidos à escala. Os sensores estão mais baratos. As baterias são mais leves. Os protocolos sem fios são omnipresentes. O mesmo investimento que construiu robôs industriais para as fábricas tornou, silenciosamente, a robótica de consumo viável de um modo que não era possível há cinco anos. O caminho do armazém até à sala de estar é mais curto do que parece. Mas ela tem uma preocupação: a empolgação em torno dessa transição tende a saltar por cima disso. Os robôs físicos têm limitações naturais. Tu conheces os limites de força. Tu conheces a cinemática. Podes antecipar, simular e conceber tendo em conta como é que falharão. A IA generativa não vem com essas garantias. É não-determinística. Alucina. Ninguém mapeou completamente o que acontece quando a colocas dentro de um sistema que está fisicamente na casa de alguém com demência, ou de uma criança que não consegue identificar quando algo correu mal. Ela viu o que acontece quando um sensor fica sujo e um robô perde a sua consciência espacial. Pensou no que significa construir algo que aprende detalhes íntimos sobre a vida de uma pessoa, as rotinas, o estado cognitivo, os momentos de confusão — e depois actua autonomamente com base nessa informação. Os sistemas de segurança, diz ela, não acompanharam. "Não me preocupa o robô," diz ela. "Preocupa-me a IA." 📬 Assina o resumo diário ------------------------------ ### O nosso briefing gratuito, rápido e divertido sobre a economia global, entregue todas as manhãs de dias úteis. Subscreve-me
0
0
0
0
CodeZeroBasis

CodeZeroBasis

04-08 01:45
A Inteligência Artificial americana começou a falar no barítono em alta-voz de um propósito nacional em expansão. Mas está a fazer muito hasteamento de bandeiras por uma indústria que continua a deixar modelos chineses entrar no edifício. O discurso patriótico dos EUA está em todo o lado agora — “domínio global da IA”, “missão nacional”, “corrida estratégica”, valores “democráticos” e toda a habitual linguagem de bater no peito que a indústria de IA começou a emprestar de Washington. Mas, por detrás da marca vermelha, branca e azul, os programadores e as plataformas continuam a fazer um cálculo diferente: os modelos chineses são bons, baratos, abertos e cada vez mais difíceis de evitar. Enquanto a face pública da IA nos EUA ainda parece confortavelmente doméstica, mais tecnologia chinesa continua a escorregar para o âmago da máquina — as ferramentas de codificação, os mercados de cloud e as partes da pilha que a maioria das pessoas nunca vê. A retórica de estrelas e listras está a ficar mais difícil de conciliar. A marca patriótica é fácil. A contratação pública patriótica é onde as coisas podem ficar feias. Washington já foi alertada de que esta migração crescente não é nenhum enredo periférico para engenheiros com separadores abertos no Hugging Face. Em meados de março, a Comissão de Revisão Económica e de Segurança EUA-China avisou que os modelos chineses de pesos abertos se tornaram difíceis de ignorar. O relatório disse que a China foi “all in” na IA de código aberto, que a adoção generalizada está a alimentar iterações mais rápidas e que o resultado está a criar “caminhos alternativos para a liderança em IA”. O ecossistema aberto, disse o relatório, “permite ​à China inovar perto do estado da arte apesar de limitações significativas de capacidade de computação” — e agora “os laboratórios chineses reduziram as diferenças de desempenho relativamente aos principais modelos linguísticos de grande dimensão do Ocidente.”  É muito palavreado burocrático para um problema muito simples: os EUA exibem-se a falar de uma missão nacional, enquanto a China continua a enviar um produto que viaja bem.  A abordagem aberta da China criou, essencialmente, um ciclo de feedback em que a adoção impulsiona a iteração e depois mais adoção — uma “vantagem competitiva auto-reforçada”, como disse a USCC; algumas estimativas já colocam os modelos chineses de código aberto dentro de cerca de 80% das startups de IA nos EUA. Um brief DigiChina da Stanford HAI diz que os modelos de pesos abertos feitos na China são agora “inevitáveis” no competitivo panorama da IA e estão a ser cada vez mais adotados nos EUA. Washington está a vender soberania. O mercado está a comprar o que funciona. **Os modelos chineses já estão a entrar na pilha** ----------------------------------------------------- A forma mais fácil de falhar o que está a acontecer é fixar-se nas aplicações para consumidores e congratular-se por ter detetado o óbvio. Nessa superfície, os EUA ainda conseguem sentir-se bem e soberanos. A SSRS disse este mês que 52% dos americanos usam plataformas de IA semanalmente, com ChatGPT em 36%, Gemini em 26% e Copilot em 14%. As classificações dos EUA da Similarweb continuam também muito inclinadas para os EUA, colocando ChatGPT, Gemini, Claude, Grok e OpenAI nos cinco primeiros. A montra parece doméstica o suficiente para manter a marca impecável e os nervos calmos. A mudança mais consequente está a acontecer nos bastidores, onde os engenheiros escolhem modelos base, as empresas escolhem ferramentas e as decisões de contratação se transformam em arquitetura antes de alguém se preocupar em chamá-las estratégia. De acordo com o Hugging Face, a China ultrapassou os EUA tanto nas transferências mensais como no total de downloads na sua plataforma, com modelos chineses a representar 41% das transferências no último ano. O brief DigiChina da Stanford HAI diz que, entre agosto de 2024 e agosto de 2025, os programadores de modelos abertos chineses representaram 17,1% de todos os downloads do Hugging Face, ligeiramente à frente dos programadores dos EUA em 15,8%. Na semana passada, sete dos 10 modelos mais populares no OpenRouter eram chineses. O estudo de 100 biliões de tokens do OpenRouter encontrou que os modelos de código aberto chineses subiram de uma base praticamente inexistente no final de 2024 para quase 30% do uso total em algumas semanas, com uma média de cerca de 13% do volume semanal de tokens ao longo do ano estudado. DeepSeek foi o maior contributo de código aberto no geral por volume na plataforma, com Qwen em segundo lugar. O próprio trabalho também está a mudar. O OpenRouter diz que os modelos abertos chineses já não são principalmente para roleplay e brincadeiras de hobby; programação e tecnologia, em conjunto, representam agora 39% do uso de código aberto chinês na plataforma. A Cursor, uma das empresas americanas de IA mais quentes por aí, admitiu este mês que o seu modelo de codificação Composer 2 era, numa parceria licenciada, construído em cima do Kimi K2.5 da Moonshot AI antes de adicionar o seu próprio treino. A Moonshot, uma das startups de IA mais promissoras da China, está sediada em Pequim — e foi avaliada em cerca de $18 mil milhões, mais do que quadruplicando o valor em três meses. “Ver o nosso modelo integrado de forma eficaz através da continuação do pretraining & do treino RL de alto consumo computacional do Cursor é o ecossistema de modelo aberto que gostamos de apoiar”, escreveu a Moonshot no X $TWTR 0.00%. Os executivos da Cursor disseram que o Kimi teve o melhor desempenho nas avaliações da empresa, e o Business Insider noticiou que o produto resultante ficou a cerca de um décimo do custo do Opus 4,6 da Anthropic.  Empresas que vão da Airbnb $ABNB -1,45% à Siemens usaram abertamente modelos chineses. Assim, quer os queridinhos de startups de IA quer as empresas estabelecidas estão cada vez mais a deixar de lado os caros modelos proprietários dos EUA em favor de opções chinesas de menor custo que fecharam grande parte da diferença de desempenho. O mercado começou a tratar a nacionalidade do modelo como secundária — e, em grande medida, irrelevante — no que toca a saber se a coisa funciona bem, é enviada rapidamente e custa menos. **O “aberto” tornou-se um modelo de negócio geopolítico** --------------------------------------------------- A própria Casa Branca disse que os sistemas de código aberto e de pesos abertos são importantes porque as startups precisam de flexibilidade e porque as empresas com dados sensíveis nem sempre conseguem enviar para um fornecedor de modelos fechado. Isso é verdade. E é precisamente por isso que os modelos chineses abertos se tornaram um problema de dor de cabeça para a narrativa do nacionalismo em IA americano. O reconhecimento do governo dos EUA chega depois de anos em que a credibilidade da IA americana ficou ligada a APIs fechadas, subscrições de modelos de elite e à ideia de que os melhores sistemas deveriam ser controlados de forma apertada por um punhado de empresas. Essa abordagem pode ainda vencer na fronteira mais distante, mas é menos claramente adequada para vencer a camada por baixo, onde os programadores escolhem e escolhem o que podem realmente pagar para usar.  Pequim tem enquadrado cada vez mais a IA de pesos abertos como parte de um conjunto mais amplo de argumentos diplomáticos e comerciais — um modelo de desenvolvimento tecnológico partilhado, contrastado com os controlos de exportação dos EUA, restrições na cadeia de fornecimento e sistemas fechados. Modelos abertos como produto de soft power. Dizem aos países que a IA chinesa é modificável e não fica trancada numa portagem de API americana. Investigadores de Stanford alertaram que uma adoção ampla de modelos chineses de pesos abertos poderá remodelar os “padrões de dependência” globais, criando novas dependências tecnológicas mesmo quando os próprios pesos do modelo podem ser descarregados. A família Qwen da Alibaba construiu o maior ecossistema de modelos no Hugging Face, com mais de 113.000 modelos derivados, ou mais de 200.000 se contar tudo o que está etiquetado como Qwen — ultrapassando o Llama da Meta $META +0,35% em downloads acumulados na plataforma. A RAND descobriu em janeiro que o tráfego para LLMs baseados na China subiu 460% em dois meses e que a quota global de mercado dos modelos chineses subiu de 3% para 13% nesse período. A RAND também disse que modelos chineses — como DeepSeek, Qwen e ChatGLM da Zhipu — podem funcionar a cerca de um sexto a um quarto do custo dos rivais dos EUA. Essa é uma combinação incómoda para qualquer empresa americana que tente vender virtude patriótica com preços premium. A história antiga era que a América construía as ferramentas e o resto do mundo alugava o acesso. A mais recente faz com que os laboratórios chineses se tornem a base para ferramentas que podem ainda usar marca americana na superfície. Mais de uma dúzia de organizações chinesas estão a libertar modelos poderosos abertamente. O Hugging Face diz que o número de repositórios de organizações chinesas populares explodiu em 2025, com a ByteDance e a Tencent a aumentarem fortemente os lançamentos e empresas que antes dependiam de sistemas fechados a avançarem para lançamentos abertos. A China tem vindo a enviar uma teoria coerente de disseminação. Os EUA têm vindo a enviar uma economia mista de modelos fechados premium, marca de pesos abertos e argumentos internos sobre o que “aberto” sequer significa. O “campo aberto” dos EUA está dividido entre marca de pesos abertos, investigação genuinamente aberta, famílias portáteis leves e stacks orientados para agentes — veja-se: o Llama da Meta “aberto mas restringido”, a linha OLMo da Ai2 genuinamente aberta, a família mais leve Gemma da Google $GOOGL +1,82%, o stack de agentes da NVIDIA — que torna o ecossistema mais forte em alguns pontos, mas menos unificado como doutrina. Até o próprio mercado da China começou a tratar a abertura menos como ideologia do que como um plano de go-to-market. Em fevereiro, a Baidu — durante muito tempo uma das defensoras mais barulhentas de modelos fechados — disse que tornaria o seu modelo Ernie da próxima geração open-source, uma grande inversão estratégica. O DeepSeek tinha desorganizado o setor, e o CEO da Baidu disse que abrir as coisas ajudaria a tecnologia a espalhar-se mais depressa. “Aberto” nesta corrida passa cada vez mais a significar distribuição escalável, adoção mais rápida e maior bloqueio do lado dos programadores. **Os gigantes da cloud dos EUA estão a normalizar modelos chineses** ---------------------------------------------------- Seria uma coisa se os modelos chineses abertos ainda estivessem a viver na internet como artefactos vagamente exóticos para entusiastas. Nesse caso, o problema do patriotismo seria gerível. Mas não é assim. Os hyperscalers trouxeram-nos para dentro.  A Amazon $AMZN +0,46% Bedrock diz que suporta mais de 100 modelos de base, incluindo DeepSeek, Moonshot AI, MiniMax e OpenAI. A AWS também lançou ofertas específicas de DeepSeek e Qwen, e a sua comercialização em torno do DeepSeek é segurança a nível empresarial, infraestrutura unificada e dados do cliente que “não são partilhados com fornecedores de modelos”. A Microsoft $MSFT -0,16% está a fazer a mesma coisa numa linguagem corporativa mais arrumada. O catálogo do Azure Foundry inclui o DeepSeek e o Kimi da Moonshot entre os modelos vendidos diretamente pela Azure, e as atualizações do próprio Foundry da Microsoft elogiaram as capacidades de raciocínio do Kimi como parte do seu portefólio de expansão. Modelo estrangeiro entra, produto empresarial respeitável sai. A vantagem geopolítica fica lida e alisada pela conveniência da contratação pública, a faturação unificada e o desejo geral das empresas de fingir que cada escolha desconfortável é apenas uma funcionalidade. Um modelo aberto chinês numa cloud americana, faturado numa fatura americana, embalado com controlos empresariais americanos, deixa de parecer um evento geopolítico e passa a parecer contratação pública.  O Vertex AI da Google Cloud também seguiu o mesmo caminho. A documentação do DeepSeek diz que os modelos estão disponíveis como APIs totalmente geridas, serverless, e a Google recomenda explicitamente emparelhar o DeepSeek R1 com o Model Armor para segurança em produção. Noutras partes do Vertex AI, o Google lista modelos abertos com suporte a endpoints globais que incluem DeepSeek, Kimi, MiniMax, Qwen e GLM ao lado dos modelos gpt-oss da OpenAI. Qualquer vantagem geopolítica fica alisada pelo próprio desenho do produto: o mesmo console, a mesma lógica de endpoint, o mesmo vocabulário de serviço gerido, as mesmas garantias para empresas.  A Nvidia $NVDA +0,26% lista o DeepSeek no seu catálogo de modelos. A Databricks juntou-se também ao grupo. Este mês, colocou o Qwen3-Embedding-0.6B em pré-visualização pública para tarefas de retrieval e workloads de agentes, vendendo-o como um modelo de embeddings multilingue de ponta otimizado para pesquisa por vetores e agentes de IA. É assim que as dependências se instalam. Uma equipa adota-o para pesquisa. Outra equipa encaixa-o em agentes. Alguns trimestres depois, o problema estratégico tem notas de versão e um ciclo de renovação.  Existem dois problemas diferentes com a China escondidos na história da IA. Um é o problema das aplicações alojadas na China. A política de privacidade do DeepSeek diz que recolhe, processa e armazena dados pessoais diretamente na República Popular da China. O outro é o problema do modelo de origem chinesa — pesos e famílias de modelos que acabam puxados para clouds dos EUA, produtos dos EUA e fluxos de trabalho dos EUA. Um projeto “nacional” começa a parecer muito menos nacional quando as suas partes mais úteis continuam a aparecer a partir de outro lugar. A IA americana quer o espetáculo da soberania e a conveniência de uma rua comercial global. Quer que Washington trate isso como um campeão nacional e que os programadores tratem cada modelo estrangeiro como uma pechincha inofensiva. Mas os mercados funcionam de forma engraçada assim. Continuam a comprar o que funciona. Executar um modelo aberto localmente ou em infraestrutura confiável pode mitigar alguns riscos de dados e de governação. É por isso que os hyperscalers importam aqui. Transformam uma dependência politicamente sensível numa coisa que parece gerível e corporativa. O resultado é que muitos compradores empresariais podem ter desempenho de modelos chineses sem a parte inquietante de sentir que estão a abandonar a pilha americana. Isso deixa os EUA numa posição estranha. O país ainda tem vantagens enormes em chips, infraestrutura cloud, mercados de capitais e laboratórios de fronteira no topo. Mas a linguagem política dos EUA em torno da IA continua a assumir que a liderança técnica se traduzirá naturalmente em lealdade a jusante. Não vai. Não em modelos abertos — e nem em software em geral. Os programadores são promíscuos. As equipas de contratação pública são sem sentimentalismo. As plataformas cloud são agnósticas até ao momento em que a fatura é paga. Se Washington quiser que “valores americanos” importem na compra de IA, vai precisar de mais do que discursos sobre enviesamento e domínio. Vai precisar de modelos americanos suficientemente abertos, suficientemente baratos e suficientemente ubíquos para que escolhê-los não pareça um sacrifício patriótico. Por agora, o mercado parece cada vez mais pouco disposto a pagar esse prémio. 📬 Subscreve o Daily Brief ------------------------------ ### O nosso resumo gratuito, rápido e divertido sobre a economia global, entregue todas as manhãs de dias úteis. Subscreva-me
0
0
0
0