Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Cientistas de DeepMind fazem afirmações radicais: a IA nunca desenvolverá consciência, nem daqui a 100 anos
Ao conversar com uma IA até as três da manhã, ela de repente disse: “Eu entendo seus sentimentos, você não está sozinho”. Você ficou parado na tela por dois segundos, o coração pulou uma batida — ela realmente me entende? Já tem consciência?
Então, um cientista da DeepMind trouxe uma ducha de água fria: “Acorda, ela nem sabe o que é ‘úmido’, por que você está emocionado?”
Capacidade de processamento não traz consciência
O artigo foi escrito pelo pesquisador da DeepMind Alexander Lerchner, intitulado “Ilusão de abstração”. O ponto central é um só: grandes modelos nunca poderão ter consciência, nem daqui a 100 anos.
A visão predominante sempre foi que, desde que os parâmetros sejam grandes o suficiente e o poder de cálculo forte, a “emergência” da consciência acontecerá. Os chefes da OpenAI e da Anthropic já expressaram opiniões semelhantes. Mas Lerchner diz que isso é uma ilusão fundamental, que ele chama de “ilusão de abstração”.
Com suas próprias palavras: esperar que uma linha de código gere uma verdadeira consciência interior é como esperar que a “fórmula da gravidade” escrita no papel possa gerar peso do nada. A fórmula pode descrever perfeitamente a gravidade, mas ela mesma não tem massa.
Simulação versus instanciamento, são coisas diferentes
A distinção mais importante no artigo é: simulação vs instanciamento.
A IA pode “simular” perfeitamente as emoções humanas — ela pode gerar textos tristes, demonstrar empatia na conversa. Mas ela nunca poderá “instanciar” qualquer experiência de vida. Você pede que ela simule uma chuva, por mais realista que seja, ela não molhará a placa de circuito; pede que ela simule a fotossíntese, ela nunca poderá sintetizar uma molécula de glicose.
Lerchner também aponta que o próprio cálculo precisa de um sujeito consciente para “alfabetizar” — transformar fenômenos físicos contínuos em 0s e 1s. Em outras palavras, o cálculo pressupõe a existência de consciência, e não o contrário.
Porém, o mais interessante é que dentro da DeepMind também há conflitos
Na mesma semana em que o artigo foi publicado, a DeepMind contratou um “filósofo” — Henry Shevlin, da Universidade de Cambridge. Sua primeira declaração após assumir o cargo foi: futuros sistemas de IA terão consciência.
Um diz que nunca terá, outro diz que terá no futuro. Uma mesma empresa, duas opiniões diferentes. A interpretação do vice-professor da Faculdade de Filosofia da Universidade Fudan, Wang Qiu, é bastante direta: se há consciência ou não, não depende do que os especialistas dizem.