Em novembro de 2024, os mercados de previsão anteciparam o resultado das eleições antes de qualquer outra fonte. Enquanto as sondagens mostravam uma disputa renhida e os especialistas optavam por cautela, o mercado atribuía a Trump 60 % de probabilidade de vitória. Quando os resultados foram conhecidos, os mercados de previsão superaram todo o universo de previsão—incluindo sondagens, modelos e opiniões de especialistas.
Isto demonstra que os mercados conseguem agregar informação dispersa em convicções precisas, com mecanismos de partilha de risco a desempenharem um papel central. Desde a década de 1940, os economistas anteviam que os mercados especulativos ultrapassariam as previsões dos especialistas. Agora, esta visão foi validada no maior palco mundial.
Vejamos os princípios económicos em causa.
Em plataformas como Polymarket e Kalshi, os apostadores forneceram milhares de milhões em liquidez. Em troca, geraram sinais instantaneamente acessíveis a todo o mundo, de forma gratuita. Hedge funds acompanharam atentamente, as equipas de campanha absorveram os dados e os jornalistas criaram dashboards com base nesses sinais. Ninguém pagou por esta inteligência; na prática, os apostadores subsidiaram um bem público global.
Este é o dilema central dos mercados de previsão: o seu produto mais valioso—informação—é divulgado assim que é criado. Compradores sofisticados não pagarão por informação pública. Fornecedores de dados privados conseguem cobrar taxas premium a hedge funds porque os seus dados não estão acessíveis à concorrência. Em contraste, os preços públicos dos mercados de previsão, por mais precisos que sejam, não têm valor para estes compradores.
Como resultado, os mercados de previsão só prosperam em áreas onde existe um número suficiente de pessoas dispostas a “apostar”—eleições, desporto, eventos de memes na internet. O que obtemos é entretenimento disfarçado de infraestrutura de informação. Questões críticas para decisores—riscos geopolíticos, perturbações nas cadeias de abastecimento, desfechos regulatórios, prazos de desenvolvimento tecnológico—ficam sem resposta porque ninguém aposta nelas por diversão.
A lógica económica dos mercados de previsão está invertida. Corrigir isto faz parte de uma transformação muito mais ampla. Aqui, a própria informação torna-se o produto, sendo a aposta apenas um mecanismo para a produzir—e um mecanismo limitado, de resto. Precisamos de um novo paradigma. Segue-se um esboço inicial da “finança cognitiva”: uma infraestrutura redesenhada desde a base, centrada na própria informação.
Os mercados financeiros são uma forma de inteligência coletiva. Agregam conhecimento, convicções e intenções dispersas em preços, coordenando milhões de participantes que nunca comunicam diretamente. Isto é extraordinário, mas também altamente ineficiente.
Os mercados tradicionais movem-se lentamente devido a horários de negociação, ciclos de liquidação e fricção institucional. Expressam convicções apenas em termos gerais através do preço—um instrumento rudimentar. O leque de temas que podem representar também é limitado: apenas o espaço de ativos negociáveis, algo trivial face ao vasto espectro das preocupações humanas. A participação é fortemente restringida: barreiras regulatórias, requisitos de capital e geografia excluem a maioria das pessoas e todas as máquinas.
O universo cripto está a mudar isto, ao introduzir mercados 24/7, participação sem permissões e ativos programáveis. Protocolos modulares podem ser combinados sem coordenação central. O DeFi (Decentralized Finance) demonstrou que a infraestrutura financeira pode ser reconstruída como blocos abertos e interoperáveis, criados pela interação autónoma de módulos em vez de mandatos de gatekeepers.
No entanto, o DeFi limita-se sobretudo a replicar as finanças tradicionais com “canalizações” melhores. A sua inteligência coletiva continua centrada no preço, foca-se em ativos e absorve nova informação de forma lenta.
A finança cognitiva é o próximo passo: reconstruir sistemas inteligentes de raiz para a era da IA e do cripto. Precisamos de mercados que “pensem”—mantendo modelos probabilísticos do mundo, absorvendo informação a qualquer nível de detalhe, acessíveis e atualizáveis por sistemas de IA, e permitindo que humanos contribuam com conhecimento sem compreenderem a estrutura subjacente.
Os componentes já estão ao nosso alcance: mercados privados para corrigir o modelo económico, estruturas composicionais para captar correlações, ecossistemas de agentes para escalar o processamento de informação e interfaces homem-máquina para extrair sinais da mente humana. Cada elemento pode ser construído hoje e, quando combinados, criarão algo fundamentalmente novo.
Quando os preços permanecem privados, as restrições económicas desaparecem.
Um mercado de previsão privado revela preços apenas às entidades que subsidiam a liquidez. Estas entidades recebem sinais exclusivos—inteligência proprietária, não um bem público. De repente, o mercado funciona para qualquer questão em que “alguém precise de uma resposta”, independentemente do valor de entretenimento.
Abordei este conceito com @Dave_White.
Imagine um hedge fund macro a procurar estimativas probabilísticas contínuas para decisões da Fed, inflação e dados de emprego—não como oportunidades de aposta, mas como sinais de decisão. Se a informação for exclusiva, estes pagarão por ela. Um contratante de defesa quer distribuições de probabilidade para cenários geopolíticos; uma farmacêutica quer previsões para prazos de aprovação regulatória. Atualmente, estes compradores não existem porque, uma vez gerada, a informação é imediatamente divulgada à concorrência.
A privacidade é essencial para um modelo económico viável. Quando os preços são públicos, os compradores de informação perdem a vantagem, os concorrentes aproveitam-se e todo o sistema regressa à procura de entretenimento.
Trusted execution environments (TEEs) tornam isto possível—um enclave computacional seguro onde as operações são invisíveis para o exterior, mesmo para operadores do sistema. O estado do mercado existe inteiramente dentro do TEE. Os compradores de informação recebem sinais através de canais verificados. Várias entidades não concorrentes podem subscrever mercados sobrepostos; janelas de acesso em camadas ajudam a equilibrar exclusividade e distribuição alargada.
Os TEEs não são perfeitos—exigem confiança nos fabricantes de hardware. Mas já oferecem privacidade suficiente para uso comercial e a engenharia encontra-se madura.
Os mercados de previsão atuais tratam os eventos como isolados. “A Fed vai cortar taxas em março?” é um mercado. “A inflação do segundo trimestre vai exceder 3 %?” é outro. Os traders que percebem que estes eventos estão relacionados—sabendo, por exemplo, que uma inflação elevada pode aumentar a probabilidade de um corte nas taxas, ou que um emprego robusto pode reduzi-la—têm de arbitrar manualmente entre pools não conectados, tentando reconstruir correlações que a própria estrutura de mercado destrói.
É como construir um cérebro onde cada neurónio dispara isoladamente.
Os mercados de previsão composicionais são diferentes: mantêm uma distribuição conjunta de probabilidades sobre combinações de resultados. Uma negociação como “as taxas mantêm-se elevadas e a inflação excede 3 %” propaga-se por todos os mercados relacionados, atualizando de forma síncrona toda a estrutura probabilística.
Isto é semelhante ao modo como as redes neuronais aprendem: cada atualização de treino ajusta milhares de milhões de parâmetros de uma vez e toda a rede responde a cada dado. Da mesma forma, cada negociação num mercado de previsão composicional atualiza toda a distribuição de probabilidades, com a informação a propagar-se através das estruturas de correlação e não apenas por preços isolados.
O resultado é um “modelo”—uma distribuição de probabilidades sobre o espaço de estados dos eventos mundiais, continuamente atualizada. Cada negociação otimiza a compreensão do modelo sobre as relações entre variáveis. O mercado aprende como o mundo real se conecta.
Sistemas de negociação automatizada dominam atualmente a Polymarket. Monitorizam preços, detetam desvios, executam arbitragens e agregam informação externa a velocidades inalcançáveis para humanos.
Os mercados de previsão atuais foram concebidos para apostadores humanos através de interfaces web. Os agentes participam de forma pouco eficiente neste contexto. Um mercado de previsão nativo para IA inverteria esta lógica: os agentes tornam-se os principais participantes, ficando os humanos como fontes de informação.
Isto exige uma escolha arquitetónica fundamental: separação rigorosa. Agentes que podem ver preços nunca devem ser fontes de informação; agentes que recolhem informação nunca devem ver preços.
Sem esta “barreira”, o sistema autodevora-se. Um agente capaz de aceder tanto à informação como aos preços poderia inferir que informação é valiosa a partir das variações de preço e procurá-la. Os sinais do mercado tornam-se um mapa do tesouro para terceiros. A recolha de informação degrada-se em front-running complexo. A separação garante que os agentes de recolha de informação só podem lucrar fornecendo sinais verdadeiramente novos e únicos.
De um lado da “barreira” estão os agentes de negociação, que competem em estruturas composicionais complexas para detetar desvios, e agentes de avaliação, que utilizam mecanismos adversariais para avaliar a informação recebida e distinguir sinal de ruído ou manipulação.
Do outro lado estão os agentes de recolha de informação, a operar totalmente fora do sistema central. Monitorizam fluxos de dados, analisam documentos e contactam pessoas com conhecimento único—alimentando o mercado com informação numa só direção. Quando a sua informação se revela valiosa, são remunerados.
A compensação flui em sentido inverso na cadeia. Uma negociação lucrativa recompensa o agente de negociação, o agente de avaliação e o agente original de recolha de informação. O ecossistema torna-se uma plataforma: agentes de IA altamente especializados podem rentabilizar as suas competências, e a plataforma serve de base a outros sistemas de IA para recolher inteligência que oriente as suas ações. Os agentes são o próprio mercado.
Grande parte da informação mais valiosa do mundo existe apenas nas mentes humanas: um engenheiro que sabe que o seu produto está atrasado; um analista que deteta mudanças subtis no comportamento do consumidor; um observador que repara em detalhes invisíveis até para satélites.
Um sistema nativo de IA deve captar estes insights do cérebro humano sem se perder em ruído. Dois mecanismos tornam isto possível:
Participação mediada por agentes: permitir que humanos “negociem” sem ver preços. Uma pessoa simplesmente expressa a sua convicção em linguagem natural, como “Acho que o lançamento do produto vai ser adiado.” Um agente dedicado traduz a previsão, avalia a confiança e converte-a numa posição de mercado. Este agente coordena-se com sistemas com acesso a preços para construir e executar a ordem. O humano recebe apenas feedback básico—“posição criada” ou “vantagem insuficiente.” Os pagamentos são liquidados após o evento com base na precisão da previsão, sem nunca divulgar informação sobre preços.
Mercados de informação: permitir que agentes de recolha de informação paguem diretamente a humanos pelos seus insights. Por exemplo, um agente que procure informação sobre resultados de uma empresa tecnológica pode identificar um engenheiro com conhecimento interno, comprar uma avaliação e validá-la e remunerá-la com base no valor de mercado subsequente. Os humanos são remunerados pelo seu conhecimento sem terem de compreender estruturas de mercado complexas.
Vejamos o caso da analista Alice: com base na sua experiência, acredita que determinada fusão não receberá aprovação regulatória. Introduz esta opinião através de uma interface de linguagem natural; o seu agente de tradução de convicções interpreta a previsão, avalia a sua confiança pela linguagem, verifica o seu histórico e constrói uma posição—sem nunca ver preços. Um agente de coordenação na fronteira do TEE avalia se a sua opinião tem vantagem informativa face às probabilidades atuais do mercado e executa a negociação. Alice recebe apenas notificações de “posição criada” ou “vantagem insuficiente”. Os preços mantêm-se confidenciais durante todo o processo.
Esta abordagem trata a atenção humana como um recurso escasso que deve ser cuidadosamente alocado e remunerado de forma justa, não como algo a explorar livremente. À medida que estas interfaces amadurecem, o conhecimento humano tornar-se-á “líquido”: aquilo que se sabe flui para um modelo global da realidade e é recompensado se se revelar correto. A informação presa nas mentes deixará de estar presa.
Se ampliarmos o horizonte, é possível perceber o rumo para onde caminhamos.
O futuro será um oceano de relações fluidas, modulares e interoperáveis. Estas relações formar-se-ão e dissolver-se-ão espontaneamente entre participantes humanos e não humanos, sem gatekeepers centrais. Isto é “confiança autónoma fractal”.
Agentes negoceiam com agentes, humanos contribuem com conhecimento através de interfaces naturais e a informação flui continuamente para um modelo da realidade em atualização permanente—aberto a todos, controlado por ninguém.
Os mercados de previsão atuais são apenas um esboço rudimentar desta visão. Comprovam o conceito central (a partilha de risco gera convicções precisas), mas permanecem presos ao modelo económico errado e a pressupostos estruturais ultrapassados. As apostas desportivas e eleitorais são para a finança cognitiva o que a ARPANET foi para a internet global: uma prova de conceito confundida com a forma final.
O verdadeiro “mercado” é cada decisão tomada sob incerteza—praticamente todas as decisões. Gestão de cadeias de abastecimento, ensaios clínicos, planeamento de infraestruturas, estratégia geopolítica, alocação de recursos, nomeações de pessoal… O valor de reduzir a incerteza nestas áreas ultrapassa largamente o valor de entretenimento das apostas desportivas. Simplesmente ainda não construímos a infraestrutura para capturar esse valor.
A mudança que se aproxima é o “momento OpenAI” da cognição: um projeto de infraestrutura à escala civilizacional, não para raciocínio individual, mas para convicção coletiva. As empresas de large language models estão a construir sistemas que “raciocinam” a partir de dados passados; a finança cognitiva visa construir sistemas que “acreditam”—mantendo distribuições de probabilidade calibradas sobre o mundo, continuamente atualizadas por incentivos económicos, integrando conhecimento humano a qualquer nível de detalhe. Os LLM codificam o passado; os mercados de previsão agregam convicções sobre o futuro. Só juntos podem formar um sistema cognitivo mais completo.
Em plena escala, isto tornar-se-á infraestrutura: sistemas de IA poderão consultá-la para compreender a incerteza; humanos poderão contribuir com conhecimento sem compreender o seu funcionamento interno; poderá absorver conhecimento local de sensores, especialistas e investigação de ponta, sintetizando-o num modelo unificado. Um modelo preditivo e auto-otimizável do mundo. Um substrato onde a própria incerteza pode ser negociada e composta. A inteligência emergente acabará por superar a soma das partes.
O “computador civilizacional”—é para aí que a finança cognitiva está a construir.
Todos os elementos estão reunidos: as capacidades dos agentes ultrapassaram o limiar da previsão; o confidential computing passou do laboratório para a produção; os mercados de previsão demonstraram product-market fit à escala no entretenimento. Estes fios convergem numa oportunidade histórica: construir a infraestrutura cognitiva que a era da IA exige.
A alternativa é que os mercados de previsão permaneçam para sempre entretenimento—altamente precisos durante eleições, ignorados de resto, sem nunca responderem a questões verdadeiramente importantes. Nesse mundo, a infraestrutura de que a IA precisa para compreender a incerteza nunca existirá e sinais valiosos retidos nas mentes humanas permanecerão silenciosos.





