Descoberta surpreendente acaba de ser revelada: afinal, os grandes modelos de linguagem já conseguem ultrapassar com sucesso aqueles testes de "prove que é humano" em inquéritos. Sim, os mesmos CAPTCHAs e verificações criados para filtrar bots.



Então, o que isto significa para os responsáveis por sondagens e estudos de mercado? Se a IA consegue imitar respostas humanas de forma convincente, como é que podemos confiar nos dados dos inquéritos? Toda a base das sondagens assenta na recolha de opiniões genuinamente humanas, não em respostas geradas por máquinas que apenas soam plausíveis.

Isto não é apenas uma questão técnica. É um verdadeiro desafio para quem depende de inquéritos online—desde sondagens políticas a pesquisas de consumo. Quando a IA consegue passar o teste de humanidade, a fronteira entre feedback autêntico e ruído sintético torna-se bastante difusa.

Faz pensar: estaremos a entrar numa era em que verificar a "humanidade" online se torna quase impossível? E se os inquéritos já não conseguem garantir participantes humanos, que ferramentas nos restam para medir a opinião pública com precisão?
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar
Negocie criptomoedas a qualquer hora e em qualquer lugar
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)