Descoberta surpreendente acaba de ser revelada: afinal, os grandes modelos de linguagem já conseguem ultrapassar com sucesso aqueles testes de "prove que é humano" em inquéritos. Sim, os mesmos CAPTCHAs e verificações criados para filtrar bots.



Então, o que isto significa para os responsáveis por sondagens e estudos de mercado? Se a IA consegue imitar respostas humanas de forma convincente, como é que podemos confiar nos dados dos inquéritos? Toda a base das sondagens assenta na recolha de opiniões genuinamente humanas, não em respostas geradas por máquinas que apenas soam plausíveis.

Isto não é apenas uma questão técnica. É um verdadeiro desafio para quem depende de inquéritos online—desde sondagens políticas a pesquisas de consumo. Quando a IA consegue passar o teste de humanidade, a fronteira entre feedback autêntico e ruído sintético torna-se bastante difusa.

Faz pensar: estaremos a entrar numa era em que verificar a "humanidade" online se torna quase impossível? E se os inquéritos já não conseguem garantir participantes humanos, que ferramentas nos restam para medir a opinião pública com precisão?
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)