Ontem saiu uma reportagem no The New Yorker que não consigo parar de pensar. Basicamente, investigadores de lá entrevistaram mais de 100 pessoas envolvidas na OpenAI e conseguiram acessar documentos internos que nunca tinham vindo a público. O que saiu disso? Uma história bem mais complicada do que aquele drama de 2023.



Tudo começou com um documento de 70 páginas que Ilya Sutskever, o cientista-chefe da OpenAI, compilou em 2023. Ele juntou mensagens do Slack, comunicações com RH, atas de reuniões internas... tudo para responder a uma pergunta: Sam Altman, a pessoa controlando possivelmente a tecnologia mais perigosa da história, pode ser confiável? A conclusão dele na primeira página? "Sam demonstra um padrão de comportamento consistente de mentiras."

O que me chamou atenção foi um exemplo bem específico. Em dezembro de 2022, durante uma reunião do conselho, Altman garantiu que várias funcionalidades do GPT-4 já tinham passado por revisão de segurança. Quando pediram para ver os documentos, descobriram que duas das funcionalidades mais controversas nunca passaram pelo painel de segurança. Simples assim.

Mas tem mais. Dario Amodei, que fundou a Anthropic depois, deixou mais de 200 páginas de anotações pessoais enquanto estava na OpenAI. Ele registrou como a empresa recuou passo a passo sob pressão comercial. Uma coisa que o deixou particularmente preocupado: quando a Microsoft investiu em 2019, havia uma cláusula que dizia que se outro concorrente encontrasse um caminho mais seguro para AGI, a OpenAI teria que parar de competir e ajudar. Só que a Microsoft conseguiu direito de veto sobre isso. Basicamente, aquela garantia de segurança virou papel em branco.

Tem um detalhe que é meio assustador. Em meados de 2023, Altman anunciou publicamente que a OpenAI alocaria 20% da sua capacidade de computação para uma "equipe de superalinhamento" - potencial de mais de 1 bilhão de dólares. Mas quatro pessoas que trabalharam lá dizem que a potência realmente alocada foi de 1% a 2%, ainda com hardware mais velho. A equipe foi desmantelada depois. Quando os jornalistas pediram para entrevistar os responsáveis pela pesquisa em segurança existencial, a resposta da assessoria da OpenAI foi: "Isso não é uma coisa que realmente existe."

O mais recente: Sarah Friar, CFO da OpenAI, teve sérias divergências com Altman sobre um IPO. Ela acha que a empresa não está pronta, considerando o risco financeiro da promessa de Altman de gastar 600 bilhões em capacidade computacional. Mas aqui está a parte estranha - ela não relata mais diretamente a Altman. Relata agora a Fidji Simo, que tirou licença médica semana passada. Uma empresa em processo de IPO, CEO e CFO em divergência fundamental, CFO não reporta ao CEO, e o superior do CFO de licença. Até executivos da Microsoft não aguentam mais, dizendo que Altman "distorceu fatos, quebrou promessas."

Um ex-membro do conselho descreveu Altman de forma bem interessante: ele tem um desejo extremamente forte de agradar em cada interação cara a cara, mas ao mesmo tempo demonstra uma indiferença quase sociopática em relação às consequências de enganar os outros. É uma combinação rara - e perfeita para um vendedor.

Aqui está o problema: se Altman fosse CEO de qualquer empresa de tecnologia comum, seria só um bom boato corporativo. Mas a OpenAI está desenvolvendo tecnologia que pode reestruturar economias globais, ser usada para criar armas bioquímicas ou lançar ataques cibernéticos. O ex-cientista-chefe e o ex-responsável por segurança o consideram inconfiável. Parceiros o comparam com SBF. E mesmo assim, ele quer levar essa empresa a um IPO com avaliação acima de 850 bilhões.

Gary Marcus, professor de IA em Nova York, fez uma pergunta bem direta depois de ler tudo: você realmente se sente seguro deixando que Altman decida sozinho se deve ou não liberar um modelo que pode alterar o destino da humanidade?

A resposta da OpenAI foi basicamente questionar os motivos das fontes, sem negar nada especificamente. Altman não respondeu às acusações diretas.

É uma história sobre como um grupo de idealistas preocupados com riscos de IA criou uma organização sem fins lucrativos com uma missão clara. Depois a tecnologia avançou, capital massivo chegou, capital exigiu retorno, e a missão começou a ceder. A equipe de segurança foi desmantelada, pessoas que questionavam foram expulsas, a estrutura sem fins lucrativos virou entidade com fins lucrativos, e o conselho que poderia encerrar a empresa agora está cheio de aliados do CEO. Mais de cem testemunhas usaram a mesma descrição: "não restrito pela verdade."
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar