Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Introdução à negociação de futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Pre-IPOs
Desbloqueie o acesso completo a IPO de ações globais
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
Promoções
Centro de atividade
Participe de atividades e ganhe recompensas
Indicação
20 USDT
Convide amigos para recompensas de ind.
Programa de afiliados
Ganhe recomp. de comissão exclusivas
Gate Booster
Aumente a influência e ganhe airdrops
Anúncio
Atualizações na plataforma em tempo real
Blog da Gate
Artigos do setor de criptomoedas
AI
Gate AI
Seu parceiro de IA conversacional para todas as horas
Gate AI Bot
Use o Gate AI diretamente no seu aplicativo social
GateClaw
Gate Blue Lobster, pronto para usar
Gate for AI Agent
Infraestrutura de IA, Gate MCP, Skills e CLI
Gate Skills Hub
10K+ habilidades
Do escritório à negociação: um hub completo de habilidades para turbinar o uso da IA
GateRouter
Escolha inteligentemente entre mais de 30 modelos de IA, com 0% de taxas extras
Ontem saiu uma reportagem no The New Yorker que não consigo parar de pensar. Basicamente, investigadores de lá entrevistaram mais de 100 pessoas envolvidas na OpenAI e conseguiram acessar documentos internos que nunca tinham vindo a público. O que saiu disso? Uma história bem mais complicada do que aquele drama de 2023.
Tudo começou com um documento de 70 páginas que Ilya Sutskever, o cientista-chefe da OpenAI, compilou em 2023. Ele juntou mensagens do Slack, comunicações com RH, atas de reuniões internas... tudo para responder a uma pergunta: Sam Altman, a pessoa controlando possivelmente a tecnologia mais perigosa da história, pode ser confiável? A conclusão dele na primeira página? "Sam demonstra um padrão de comportamento consistente de mentiras."
O que me chamou atenção foi um exemplo bem específico. Em dezembro de 2022, durante uma reunião do conselho, Altman garantiu que várias funcionalidades do GPT-4 já tinham passado por revisão de segurança. Quando pediram para ver os documentos, descobriram que duas das funcionalidades mais controversas nunca passaram pelo painel de segurança. Simples assim.
Mas tem mais. Dario Amodei, que fundou a Anthropic depois, deixou mais de 200 páginas de anotações pessoais enquanto estava na OpenAI. Ele registrou como a empresa recuou passo a passo sob pressão comercial. Uma coisa que o deixou particularmente preocupado: quando a Microsoft investiu em 2019, havia uma cláusula que dizia que se outro concorrente encontrasse um caminho mais seguro para AGI, a OpenAI teria que parar de competir e ajudar. Só que a Microsoft conseguiu direito de veto sobre isso. Basicamente, aquela garantia de segurança virou papel em branco.
Tem um detalhe que é meio assustador. Em meados de 2023, Altman anunciou publicamente que a OpenAI alocaria 20% da sua capacidade de computação para uma "equipe de superalinhamento" - potencial de mais de 1 bilhão de dólares. Mas quatro pessoas que trabalharam lá dizem que a potência realmente alocada foi de 1% a 2%, ainda com hardware mais velho. A equipe foi desmantelada depois. Quando os jornalistas pediram para entrevistar os responsáveis pela pesquisa em segurança existencial, a resposta da assessoria da OpenAI foi: "Isso não é uma coisa que realmente existe."
O mais recente: Sarah Friar, CFO da OpenAI, teve sérias divergências com Altman sobre um IPO. Ela acha que a empresa não está pronta, considerando o risco financeiro da promessa de Altman de gastar 600 bilhões em capacidade computacional. Mas aqui está a parte estranha - ela não relata mais diretamente a Altman. Relata agora a Fidji Simo, que tirou licença médica semana passada. Uma empresa em processo de IPO, CEO e CFO em divergência fundamental, CFO não reporta ao CEO, e o superior do CFO de licença. Até executivos da Microsoft não aguentam mais, dizendo que Altman "distorceu fatos, quebrou promessas."
Um ex-membro do conselho descreveu Altman de forma bem interessante: ele tem um desejo extremamente forte de agradar em cada interação cara a cara, mas ao mesmo tempo demonstra uma indiferença quase sociopática em relação às consequências de enganar os outros. É uma combinação rara - e perfeita para um vendedor.
Aqui está o problema: se Altman fosse CEO de qualquer empresa de tecnologia comum, seria só um bom boato corporativo. Mas a OpenAI está desenvolvendo tecnologia que pode reestruturar economias globais, ser usada para criar armas bioquímicas ou lançar ataques cibernéticos. O ex-cientista-chefe e o ex-responsável por segurança o consideram inconfiável. Parceiros o comparam com SBF. E mesmo assim, ele quer levar essa empresa a um IPO com avaliação acima de 850 bilhões.
Gary Marcus, professor de IA em Nova York, fez uma pergunta bem direta depois de ler tudo: você realmente se sente seguro deixando que Altman decida sozinho se deve ou não liberar um modelo que pode alterar o destino da humanidade?
A resposta da OpenAI foi basicamente questionar os motivos das fontes, sem negar nada especificamente. Altman não respondeu às acusações diretas.
É uma história sobre como um grupo de idealistas preocupados com riscos de IA criou uma organização sem fins lucrativos com uma missão clara. Depois a tecnologia avançou, capital massivo chegou, capital exigiu retorno, e a missão começou a ceder. A equipe de segurança foi desmantelada, pessoas que questionavam foram expulsas, a estrutura sem fins lucrativos virou entidade com fins lucrativos, e o conselho que poderia encerrar a empresa agora está cheio de aliados do CEO. Mais de cem testemunhas usaram a mesma descrição: "não restrito pela verdade."