ANTHROPIC

Preço de Anthropic

ANTHROPIC
R$0
+R$0(0,00%)
Sem dados

*Dados atualizados pela última vez: 2026-04-20 16:10 (UTC+8)

Em 2026-04-20 16:10, Anthropic (ANTHROPIC) está cotada a R$0, com um valor de mercado total de --, índice P/L de 0,00 e rendimento de dividendos de 0,00%. Hoje, o preço das ações variou entre R$0 e R$0. O preço atual está 0,00% acima da mínima do dia e 0,00% abaixo da máxima do dia, com um volume de negociação de --. Nas últimas 52 semanas, ANTHROPIC foi negociada entre R$0 e R$0, e o preço atual está 0,00% distante da máxima das 52 semanas.

Principais estatísticas de ANTHROPIC

Índice P/L0,00
Rendimento de dividendos (TTM)0,00%
Ações em Circulação0,00

Saiba mais sobre Anthropic (ANTHROPIC)

Artigos do Gate Learn

As 72 horas da crise de identidade da Anthropic

Em apenas setenta e duas horas, a Anthropic viu-se confrontada com um ultimato do Pentágono, acusações públicas de Elon Musk e a retirada dos seus próprios compromissos de segurança. Da recusa em criar armas militares autónomas à revisão do RSP 3.0 e ao abandono da linha vermelha "pause training", esta empresa—reconhecida como líder em "IA segura"—enfrenta agora um crescente desfasamento entre a sua imagem e a realidade operacional. Este artigo explora as dinâmicas políticas, as pressões de valorização e o desmoronar do prémio narrativo de segurança que alimentam esta crise de identidade.

2026-03-05

Anthropic "Corta" Windsurf, Programação de IA Torna-se "Guerra por Procuração" Entre Gigantes da IA

A aquisição da plataforma de programação de IA Windsurf pela OpenAI causou alvoroço na indústria, enquanto a cessação do fornecimento do modelo Claude pela Anthropic à Windsurf intensificou ainda mais a concorrência no mercado.

2025-06-11

Fuga do código-fonte do Claude Code: Profunda análise da indústria—A visão da Anthropic ultrapassa largamente o conceito de um mero assistente de programação IA

O incidente de fuga do código-fonte do Claude Code evidencia algo mais do que um erro técnico isolado—revela antecipadamente a estratégia de produto da Anthropic, assente em operações em segundo plano, execução automatizada, colaboração multiagente e automatização de permissões. Este artigo analisa, numa ótica profissional, os caminhos prováveis que a Anthropic poderá trilhar com o Claude Code.

2026-04-02

Perguntas Frequentes sobre Anthropic (ANTHROPIC)

Qual é o preço das ações de Anthropic (ANTHROPIC) hoje?

x
Anthropic (ANTHROPIC) está sendo negociada atualmente a R$0, com uma variação de 24h de 0,00%. A faixa de negociação das últimas 52 semanas é de R$0 a R$0.

Quais são os preços máximo e mínimo em 52 semanas de Anthropic (ANTHROPIC)?

x

Qual é o índice preço/lucro (P/L) de Anthropic (ANTHROPIC)? O que esse indicador revela?

x

Qual é o valor de mercado da Anthropic (ANTHROPIC)?

x

Qual é o lucro por ação (EPS) trimestral mais recente de Anthropic (ANTHROPIC)?

x

Você deve comprar ou vender Anthropic (ANTHROPIC) agora?

x

Quais fatores podem afetar o preço das ações da Anthropic (ANTHROPIC)?

x

Como comprar ações da Anthropic (ANTHROPIC)?

x

Aviso de risco

O Mercado de ações envolve um alto nível de risco e volatilidade de preços. O valor do seu investimento pode aumentar ou diminuir, e você pode não recuperar a quantia total investida. O desempenho passado não é um indicador confiável de resultados futuros. Antes de tomar qualquer decisão de investimento, avalie cuidadosamente sua experiência, situação financeira, objetivos de investimento e tolerância ao risco, além de realizar sua própria pesquisa. Quando apropriado, consulte um assessor financeiro independente.

Isenção de responsabilidade

O conteúdo desta página é fornecido apenas para fins informativos e não constitui aconselhamento de investimento, aconselhamento financeiro ou recomendações de negociação. Gate não se responsabiliza por qualquer perda ou dano decorrente dessas decisões financeiras. Além disso, observe que Gate pode não conseguir oferecer serviço completo em determinados mercados e jurisdições, incluindo, mas não se limitando aos Estados Unidos da América, Canadá, Irã e Cuba. Para mais informações sobre Locais Restritos, consulte o Contrato do Usuário.

Outros mercados de negociação

Anthropic (ANTHROPIC) Últimas Notícias

2026-04-20 03:46

A MAS de Singapura exorta os bancos a reforçar a cibersegurança face aos riscos do modelo de IA Mythos

Mensagem do Gate News, 20 de abril — A Autoridade Monetária de Singapura (MAS) instou os bancos a reforçarem as suas defesas de cibersegurança em resposta à circulação generalizada do modelo de IA Mythos da Anthropic por toda a região Ásia-Pacífico. O aviso regulatório reflete um aumento das preocupações entre as autoridades financeiras quanto a possíveis vulnerabilidades de segurança impostas pela proliferação do modelo de IA na região. A MAS salientou a necessidade de as instituições financeiras reforçarem as suas medidas de segurança de rede para mitigar os riscos emergentes associados a sistemas avançados de IA.

2026-04-19 23:51

A NSA utiliza a ferramenta de IA Mythos da Anthropic apesar das restrições da cadeia de abastecimento do Pentágono

Mensagem do Gate News, 19 de abril — A (NSA) dos EUA está a utilizar a ferramenta de IA Mythos Preview da Anthropic, apesar de uma classificação de risco da cadeia de abastecimento do Pentágono contra a empresa, segundo a Axios. O modelo está a ser implantado de forma mais ampla no seio da agência. A 14 de abril, o Gabinete de Gestão e Orçamento da Casa Branca (OMB) enviou um e-mail a funcionários do Gabinete afirmando que está a estabelecer salvaguardas para permitir que grandes agências federais acedam ao Mythos, embora não tenha sido fornecido um calendário. A medida reflete uma divisão no Governo dos EUA: as agências de inteligência e as civis procuram a ferramenta para fins de cibersegurança defensiva, enquanto o Pentágono restringiu a Anthropic devido a preocupações com a cadeia de abastecimento. O Mythos consegue descobrir e explorar vulnerabilidades de software de forma independente, suscitando preocupação global sobre riscos cibernéticos para os sistemas financeiros. Em reuniões do Fundo Monetário Internacional, os ministros das Finanças e os governadores de bancos centrais discutiram o modelo como uma possível ameaça à resiliência do sistema financeiro global. O Tesouro dos EUA instou os grandes bancos a testarem os seus sistemas contra o Mythos, e tanto o CEO da Barclays como o governador do Bank of England abordaram publicamente os riscos e vulnerabilidades associados ao modelo.

2026-04-18 00:21

A Anthropic recebe quase 120.000 alegações de autores num acordo de direitos de autor de 1,5 mil milhões de dólares

Mensagem do Gate News, 18 de abril — Quase 120.000 autores e titulares de direitos de autor apresentaram reclamações para partilhar o acordo de ação coletiva de 1,5 mil milhões de dólares da Anthropic relativo à utilização não autorizada de livros no treino de IA, segundo documentos judiciais na Califórnia. As reclamações abrangem 91% de mais de 480.000 obras elegíveis. A Anthropic está marcada para uma audiência a 14 de maio, na qual um juiz decidirá se concede aprovação final ao que foi descrito como o maior acordo num caso de direitos de autor nos EUA. O processo judicial teve origem depois de autores alegarem que a Anthropic utilizou livros piratas para treinar o Claude. Numa decisão de junho de 2025, o juiz William Alsup determinou que o treino com livros obtidos legalmente era "essencialmente transformador" e constituía uso legítimo. No entanto, o juiz concluiu que o descarregamento e a armazenagem de mais de 7 milhões de livros piratas de sites como Library Genesis (LibGen) e Pirate Library Mirror (PiLiMi) para construir uma biblioteca central violaram os direitos dos titulares de direitos de autor, mesmo que esses livros não fossem necessariamente utilizados para treino de IA. A elegibilidade para o acordo exigia que os títulos estivessem incluídos na "Works List" aprovada pelo tribunal, o que significava que faziam parte dos ficheiros LibGen e PiLiMi que a Anthropic descarregou e que foram registados atempadamente junto do U.S. Copyright Office. Isto deixou aproximadamente 482.460 livros elegíveis de entre as mais de 7 milhões de cópias descarregadas. O pagamento de 1,5 mil milhões de dólares representa menos de 1% da avaliação da $183 billion da Anthropic. Alguns observadores encaram o acordo como uma potencial vantagem competitiva para empresas de IA bem financiadas, já que empresas menores podem ter dificuldade em gerir custos de litígios semelhantes, e o caso poderá acelerar a adoção, por parte da indústria, de dados licenciados em vez de fontes piratas.

2026-04-18 00:11

Mike Krieger da Anthropic Renuncia ao Conselho da Figma

Mensagem do Gate News, 18 de abril — O Diretor de Produto da Anthropic, Mike Krieger, deixou o conselho de administração da Figma, segundo um documento da SEC divulgado pela empresa de software de design a 14 de abril. A Figma afirmou que a saída não está ligada a qualquer desacordo relativamente às suas operações, políticas ou práticas. Krieger juntou-se à Anthropic em 2024 e transferiu-se para a equipa Labs em janeiro. A renúncia surge na sequência da parceria da Figma com a Anthropic em fevereiro, para integrar modelos de IA Claude como assistentes de design dentro da plataforma da Figma.

2026-04-17 23:01

A DeepSeek procura $300M a uma $10B avaliação, enquanto as avaliações da OpenAI e da Anthropic alimentam o debate do mercado

Mensagem do Gate News, 17 de abril — Segundo o The Information, a DeepSeek está em conversações para angariar pelo menos $300 milhões a uma avaliação de $10 mil milhões, uma fração das principais empresas de IA dos EUA: a OpenAI está avaliada em $852 mil milhões, enquanto a Anthropic está avaliada em até $800 mil milhões. A diferença de avaliação despoletou um debate entre investidores sobre se a DeepSeek representa uma pechincha ou se as empresas de IA americanas estão sobreavaliadas. O modelo R1 da DeepSeek, lançado em janeiro de 2025, foi treinado por aproximadamente $5,6 milhões—uma fração dos centenas de milhões tipicamente gastos por laboratórios dos EUA—desencadeou um choque no mercado que apagou quase $1 mil biliões de valor acionista nos EUA num único dia, com a Nvidia a perder perto de $600 mil milhões em capitalização bolsista. Desde então, os rankings de desempenho entre modelos dos EUA e da China têm trocado a posição de topo várias vezes; em março de 2026, o modelo líder da Anthropic detém apenas uma vantagem de desempenho de 2,7%, de acordo com o AI Index 2026 da Stanford University. No que toca às receitas, a OpenAI reportou uma taxa anualizada de $25 mil milhões em fevereiro, enquanto a Anthropic disparou de $9 mil milhões no final de 2025 para $30 mil milhões até março, impulsionada principalmente pela procura por Claude Code. No 1.º trimestre de 2026, apenas quatro negócios—OpenAI, Anthropic, xAI e Waymo—representaram 63% do capital total angariado a nível global. A SpaceX-xAI está a mirar uma avaliação de IPO potencialmente superior a $1,75 biliões, podendo vir a ser o maior IPO da história do mercado. Alguns investidores levantaram preocupações sobre a avaliação atual da OpenAI, com um apoiante a dizer ao Financial Times que justificar o preço de $852 mil biliões exige assumir uma avaliação de IPO de $1,2 biliões ou mais. A disparidade extrema de avaliação entre a DeepSeek e os líderes de IA americanos está agora a suscitar perguntas sobre se a apetência especulativa, e não a capacidade de gerar receitas, está a impulsionar os preços do mercado.

Postagens populares sobre Anthropic (ANTHROPIC)

SingleForYears

SingleForYears

56 minutos atrás
Há algo fascinante a acontecer na IA neste momento, e honestamente, tem passado despercebido por muitas pessoas. O espaço está num ponto de inflexão estranho, onde a tecnologia avança a velocidade vertiginosa, mas a conversa sobre controlo move-se ainda mais rápido. Temos estas grandes empresas tecnológicas a construir modelos cada vez mais poderosos de um lado, e do outro temos desenvolvedores, investigadores e utilizadores que estão genuinamente preocupados com o rumo que isto está a tomar. Estão a perguntar: quem realmente possui esta tecnologia? Quem está a monitorizar o que faço com ela? E posso confiar onde os meus dados vão? Depois, em início de 2026, aconteceu algo que realmente cristalizou esta tensão. A OpenAI adquiriu a OpenClaw, uma plataforma de agentes de IA de código aberto, por um bilião de dólares. A manchete era sobre agentes autónomos—IA que poderia gerir os teus emails, administrar calendários, automatizar fluxos de trabalho. Mas o que ficou interessante foi o que aconteceu a seguir. A documentação da OpenClaw listava a Venice AI como um dos principais fornecedores recomendados de modelos para necessidades de privacidade. E essa única menção? Provocou uma reação em cadeia. O token da Venice, VVV, subiu mais de 300% num mês. O mercado claramente estava a ouvir algo. Acho que esse momento revelou uma mudança mais profunda que está a acontecer na indústria. A IA já não é só sobre chatbots. Estamos a avançar para agentes de software autónomos—sistemas que podem navegar na internet, escrever código, gerir ficheiros, aceder a APIs, e até tomar decisões por ti. E quando tens IA a ler os teus emails, o teu calendário, os teus documentos, os teus dados financeiros, as tuas conversas privadas? Isso já não é só uma ferramenta de produtividade. É infraestrutura. Infraestrutura muito sensível. É aí que a IA sem censura e as alternativas focadas em privacidade de repente se tornam relevantes. A Venice AI surgiu precisamente para preencher essa lacuna. Fundada por Erik Voorhees, o homem por trás da ShapeShift, lançou-se em maio de 2024 como um projeto autofinanciado. Voorhees tem vindo a construir ferramentas cripto não custodiais desde 2014, portanto o ADN do projeto sempre foi evitar riscos centralizados. Sem grandes rodadas de capital de risco, sem pressão de investidores institucionais. Apenas um foco em criar algo para utilizadores que querem IA sem a supervisão das Big Tech. Até início de 2026, a plataforma processava bilhões de tokens por dia. Aqui está o que torna a Venice diferente do ChatGPT ou da interface oficial do Claude. A maioria das plataformas de IA mainstream regista tudo. Guardam conversas, analisam interações, usam dados para treinar. É centralizado. A Venice adota uma abordagem completamente diferente. A arquitetura foi construída para que a plataforma não retenha conversas de todo. Os teus prompts permanecem encriptados no teu navegador. Os dados são enviados por canais encriptados para pools descentralizados de GPU, processados, e depois eliminados. Sem base de dados central a guardar as tuas conversas. Limpa o cache, e o histórico desaparece. Sei que isso soa técnico, mas a diferença prática é enorme do ponto de vista da privacidade. É como enviar uma carta selada através de um relé cego. O correio encaminha sem ler ou guardar cópias. A infraestrutura está lá para processar pedidos, mas não para os guardar. A Venice oferece dois níveis de privacidade. O modo privado usa modelos de código aberto a correr em nós de computação dispersos—Qwen3, DeepSeek, outros. As GPUs veem os teus prompts brevemente, mas não têm ligação à tua identidade. O modo anónimo dá-te acesso a modelos proprietários como Claude ou Grok, mas através de uma camada proxy que remove os teus metadados, endereço IP e histórico de uso. É como ter um intermediário que garante que os grandes fornecedores de modelos nunca veem quem tu realmente és. O que é interessante é que a Venice não tenta construir um único modelo proprietário. Em vez disso, funciona como um mercado de modelos e uma camada de roteamento. Tens acesso a mais de 100 modelos, dependendo das tuas necessidades. Modelos rápidos para perguntas do dia a dia. Modelos de raciocínio avançado para tarefas complexas. Modelos de visão para análise de imagens. Modelos generativos para arte e vídeo. Esta abordagem modular espelha a mudança mais ampla para a orquestração de IA, onde os desenvolvedores selecionam dinamicamente diferentes modelos para diferentes tarefas. A pilha técnica é bastante elegante. Para os desenvolvedores, os endpoints da API correspondem às especificações do OpenAI, o que facilita a integração. A plataforma suporta streaming, chamadas de funções em modelos selecionados, e capacidades de visão. Os limites de taxa seguem princípios de uso justo, sem limites rígidos. Para utilizadores comuns, é simples—acede ao site, escolhe um modelo, escreve um prompt, recebe uma resposta. O nível Pro custa $18 por mês ou podes apostar 100 VVV tokens por prompts ilimitados e acesso a modelos avançados. Os utilizadores gratuitos têm 10 prompts de texto diários. Há uma camada económica que faz isto funcionar. VVV é o ativo de capital. Começou com uma oferta total de 100 milhões, mas 42,7% foi queimada através de airdrops não reclamados e reduções de emissão. A circulação atual ronda os 44,34 milhões, com 38,8% apostados. O rendimento de staking é de 19% APR, o que é bastante atrativo. Mas aqui é que fica interessante: não só ganhas rendimento. Podes cunhar DIEM, que é um token de crédito perpétuo. Bloqueia o teu VVV apostado, e recebes DIEM que rende $1 por dia em acesso à API a todos os modelos. É como transformar colateral volátil em combustível de computação estável. A fórmula de cunhagem é exponencial—começa baixa e aumenta à medida que mais DIEM é cunhado, criando um equilíbrio natural. Um utilizador apostou 56 DIEM ( aproximadamente $37K) para acesso completo ao Claude Opus. Outros usam o nível gratuito. A economia basicamente transforma a Venice numa espécie de sistema de subscrição de computação apoiado por colateral cripto. Em vez de pagar por chamada, utilizadores pesados bloqueiam capital e recebem créditos de inferência recorrentes. Não é muito diferente do funcionamento da Render Network, mas com uma aplicação para o consumidor por cima—a Venice já tem 2 milhões de utilizadores. Os mecanismos do ciclo de crescimento são importantes de entender. Apostas VVV para obter 19% de rendimento e acesso Pro. Cunhas DIEM ao bloquear VVV apostado. Usas ou trocas DIEM por créditos de API. Agentes compram DIEM para operações. A plataforma compra e queima VVV mensalmente usando receitas, o que liga o crescimento à escassez. Em outubro de 2025, as receitas começaram a financiar as primeiras queimas. Desde novembro, tem continuado. Airdrops distribuíram 50% da oferta aos utilizadores, com 35% reclamados e o resto queimado—isso equivale a cerca de $100M em valor. Por que é que isto explodiu? Parte foi por causa da menção à OpenClaw. Após a aquisição, a ideia de que a própria plataforma de agentes da OpenAI recomendava uma alternativa de IA sem censura foi... interessante. O mercado interpretou como um sinal. O VVV subiu 35% nesse dia para $4,28. Mesmo depois de atualizarem a documentação e removerem a recomendação—chamando-lhe uma "omissão"—o sentimento manteve-se. A narrativa que surgiu foi "VPN para agentes de IA". Postagens no X começaram a chamar o VVV de uma jogada de infraestrutura para agentes que precisam de computação privada. Mas acho que a história maior é que a frustração com a censura na IA tem vindo a crescer. O Gemini do Google enfrentou uma enorme contestação em 2024 por outputs de imagem tendenciosos. Os filtros de conteúdo da OpenAI bloqueiam perguntas factuais sobre tópicos sensíveis. Os utilizadores reclamam constantemente de moderação pesada. Estes incidentes expuseram uma tensão central: IA poderosa vem com controlo. As pessoas começaram a exigir alternativas sem registos ou restrições. A abordagem sem registos e de armazenamento local da Venice ressoa nesse contexto. As métricas confirmam a narrativa. Os utilizadores da API ultrapassaram os 25 mil em março de 2026, após a menção à OpenClaw. Os tokens diários processados atingiram os 45 bilhões. O VVV liderou ganhos no setor de IA com 15,5% durante a recuperação do mercado. As pesquisas dispararam. O CoinGecko colocou-o entre as 15 principais altcoins. A adoção é real, não só hype. O que a Venice representa é parte de um movimento maior em torno de IA focada em privacidade. À medida que a IA se integra nas ferramentas do dia a dia, as questões de propriedade, privacidade e controlo tornam-se inevitáveis. Atualmente, há três modelos a competir. IA centralizada de empresas como OpenAI, Google DeepMind, Anthropic—de alta qualidade, inovação rápida, camadas de segurança fortes, mas com preocupações de moderação pesada e recolha de dados. IA de código aberto—transparente, flexível, resistente à censura, mas com desempenho inferior aos modelos de ponta e caro de operar localmente. E redes descentralizadas de IA como a que a Venice está a construir—resilientes, focadas em privacidade, sem permissões, mas com desafios de infraestrutura e de design económico. A Venice fica entre a segunda e a terceira categoria. Combina modelos de código aberto, computação descentralizada e economia cripto com acesso a modelos centralizados através de camadas de anonimização. É uma abordagem híbrida que tenta equilibrar desempenho e privacidade. Para o futuro, a procura por acesso privado e sem censura a IA está claramente a crescer. E à medida que os agentes de IA se tornam mais autónomos—lidando com mais dos teus dados pessoais, a tomar decisões por ti—essa procura só vai aumentar. A questão já não é se as alternativas focadas em privacidade vão existir. É se conseguem escalar e manter essa promessa de privacidade à medida que crescem. O avanço inicial da Venice sugere que há um apetite real. Se o modelo económico se sustentar a longo prazo e se a infraestrutura técnica conseguir escalar sem comprometer as garantias de privacidade—esse é o próximo capítulo a acompanhar. Mas uma coisa é certa: os dias em que se assumia que todos aceitariam o que as grandes empresas tecnológicas construíam já passaram.
0
0
0
0