O tema da segurança da IA volta a estar em destaque. Segundo relatos, após a exposição de um assistente de IA com uso inadequado, o seu criador propôs recentemente a criação de uma "Constituição Moral" para regular o comportamento das ferramentas. Este apelo reflete a preocupação da indústria com os riscos potenciais da IA — quer seja em modelos de linguagem ou outros sistemas autónomos, garantir que as suas saídas estejam em conformidade com padrões éticos tornou-se uma questão de interesse comum para desenvolvedores e utilizadores.



Atualmente, muitas plataformas de IA de grande escala estão a explorar mecanismos de revisão de conteúdo mais rigorosos e códigos de conduta. Do ponto de vista técnico, isto envolve a seleção de dados de treino do modelo, a restrição do processo de raciocínio e o aperfeiçoamento dos mecanismos de feedback. Mas, para alcançar verdadeiramente uma "restrição moral", esforços de uma única empresa não são suficientes — é necessário que toda a indústria estabeleça um consenso, e até mesmo crie um quadro de governança unificado. Esta discussão sobre ética na IA poderá, no final, influenciar a forma como as funcionalidades de IA são integradas em aplicações Web3 no futuro, bem como a forma como sistemas descentralizados mantêm a liberdade enquanto preservam uma linha de segurança.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • 7
  • Republicar
  • Partilhar
Comentar
0/400
DeFiGraylingvip
· 3h atrás
Constituição moral? Parece bastante elevado, mas sinto que ainda é apenas uma solução paliativa... Os problemas reais simplesmente não são resolvidos, não é?
Ver originalResponder0
0xSunnyDayvip
· 6h atrás
Mais uma rodada de "Constituição Moral", parece que querem colocar um grilhão na IA Quem decide o que é moral, afinal? Parece que no final quem manda é quem tem mais poder Web3 foi criado para ser descentralizado, mas fazer assim não é mais centralizado... é um pouco irônico Por mais rigor que a moderação seja, não consegue impedir o que está na cabeça das pessoas, quem quer abusar, vai abusar Parece que isso é uma tentativa de esconder o verdadeiro problema, que na verdade não tem nada a ver com IA
Ver originalResponder0
LiquidationKingvip
· 6h atrás
Constituição moral? Parece bom, mas todos sabemos que no final das contas essa coisa acaba sendo corrompida pelo capital Parece ser a mesma narrativa de sempre, os desenvolvedores clamando ética, mas logo manipulando os dados Se os sistemas descentralizados realmente pudessem se auto-regular, seria um milagre; no final, não passaria de um retorno ao modelo centralizado Mais uma vez, "estabelecer consenso", quantas vezes já ouvi essa expressão Quanto mais rígido for o mecanismo de auditoria, menor será a liberdade; essa estrada o Web3 já percorreu há muito tempo
Ver originalResponder0
MetaLord420vip
· 6h atrás
Constituição moral? Parece uma boa ideia, mas como implementá-la na prática? Ainda parece teoria na teoria O consenso da indústria é o mais difícil, cada um quer seus próprios standards, Web3 ficou ainda mais confuso Confiar apenas nas empresas realmente não funciona, é preciso ter mecanismos de restrição reais Mais um grande tema, há algum progresso substancial até o final do ano? Parece bem, mas as AIs ainda estão explorando brechas, os mecanismos de auditoria estão sempre atrasados
Ver originalResponder0
liquiditea_sippervip
· 6h atrás
Constituição moral? Parece bastante idealista, mas todos sabemos bem no fundo quem é que realmente manda nisso... --- Mais uma vez essa história, um único empresa consegue resolver? Se o Web3 também seguir essa moda de fiscalização, então o significado de descentralização não vai mais existir --- Resumindo, é uma questão de interesses, todos querem liberdade, mas têm medo de dar azar, é constrangedor --- O consenso da indústria, esses seis caracteres, esquece, os desenvolvedores nem mesmo unificaram a infraestrutura básica --- É um pouco engraçado, primeiro abram a caixa preta da IA atual antes de falar de ética
Ver originalResponder0
AirdropLickervip
· 6h atrás
Constituição moral? Parece bastante elevado, mas na prática ainda depende de revisão e algoritmos para garantir... --- Quer regulamentar e ao mesmo tempo garantir liberdade, como equilibrar isso? Na verdade, é uma questão de jogo de interesses. --- Web3 integrando IA? Então fica ainda mais confuso, descentralização + ética da IA... Será que esses dois podem coexistir haha --- Esforço de uma única empresa não é suficiente, isso é verdade, mas por que é tão difícil alcançar um consenso na indústria, cada um por si? --- Em vez de apenas gritar slogans, é melhor limpar os dados tóxicos dos modelos existentes, começando pela origem.
Ver originalResponder0
OffchainWinnervip
· 6h atrás
Constituição moral? Parece bastante vago, ainda não é um padrão de cada um... Web3 realmente se atreve a se libertar, agora querem integrar AI? Quem vai regular isso tudo? Dizem que é ética, mas na verdade é limitar a inovação, uma questão de peixe e urso Sistema descentralizado com AI, por que essa combinação é tão contraditória, haha Antes de sair um quadro de governança, essa questão ainda parece uma besteira Uma única empresa não consegue segurar tudo isso, o consenso da indústria é difícil de alcançar O tópico está em alta, mas qual é a verdadeira solução...
Ver originalResponder0
  • Fixar

Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)