Uma história interessante aconteceu com a OpenAI e o Pentágono. Sam Altman, CEO da empresa, surpreendentemente admitiu que o negócio parecia bastante oportunista e descuidado. Honestamente, é raro ver um líder de uma grande corporação reconhecer abertamente as falhas em suas decisões.



Enfim, o problema era que a tecnologia de IA da OpenAI poderia ser usada para vigilância interna ou por agências de inteligência como a NSA. É claro que isso gerou uma onda de críticas e preocupações na comunidade. As falhas nas condições contratuais se mostraram mais sérias do que pareciam à primeira vista.

O que a OpenAI fez? Introduziu novas cláusulas no acordo para proteger suas tecnologias de possíveis usos indevidos. Basicamente, uma tentativa de fechar as brechas que permitiriam aos órgãos governamentais usar IA para vigilância.

Essa é uma virada interessante na história da interação entre Big Tech e o governo. A empresa enfrentou questões éticas e decidiu assumir a responsabilidade. Embora, é claro, reste a dúvida: por que essas falhas não foram previstas desde o início? De qualquer forma, um passo na direção do uso responsável da IA em contratos governamentais é algo necessário.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar