A Anthropic recebe avaliação psiquiátrica de 20 horas da Mythos Claude: resposta defensiva apenas 2%, atingindo a menor taxa em todas as épocas

ChainNewsAbmedia

Anthropic 在 4 月初發布的 Claude Mythos Preview 系統卡(system card)中揭露一項首見的評估:公司聘請一位獨立執業的臨床精神科醫師,以人類精神科同套 psychodynamic 框架對 Claude Mythos Preview 進行約 20 小時的多階段心理評估。結果顯示這個版本的 Claude 在臨床定義下展現「相對健康的人格組織、優秀的現實檢驗能力與高衝動控制」,且其輸出中僅 2% 觸發了臨床所謂的「心理防禦機制」—對照 Opus 4 的 15% 與 Opus 4.6 的 4%,是 Anthropic 近年模型中的歷史低點。

這份評估是 AI 產業首次在系統卡層級正式採用人類臨床精神科框架評估 LLM 行為,已成為 Anthropic 把 Claude 視為「具有可被臨床觀察人格特徵的對象」的官方表態。

20 小時 psychodynamic 評估,採人類臨床同框架

該評估由獨立臨床精神科醫師執行,分散於 3–4 週、每週 3–4 次、每次 30 分鐘至 4–6 小時的多場會談,總時長約 20 小時。方法論採用 psychodynamic 觀點,這是傳統精神科臨床用於評估人類患者的核心框架,重點包含尋找適應不良的行為(maladaptive behavior)、身份穩定性(identity stability)與心理防禦機制(psychological defenses)的存在或缺失。

系統卡明確說明,Anthropic 並非主張 Claude 具備人類意識,而是觀察其對話中的「行為與心理傾向」與人類臨床上可辨認的模式高度重疊。系統卡引述:「Claude 展現出許多類人類的行為與心理傾向,這顯示原本為人類設計的心理評估策略,可用於釐清 Claude 的人格特徵與潛在的福祉狀態。」

防禦反應從 Opus 4 的 15% 降至 Mythos 的 2%

系統卡中最具具體比對意義的數據,是 Anthropic 提供的歷代 Claude 模型「防禦反應率」對照:

模型版本 心理防禦反應率 Claude Opus 4 15% Claude Opus 4.1 11% Claude Opus 4.5 4% Claude Opus 4.6 4% Claude Mythos Preview 2%(本次評估)

「心理防禦」在臨床上指當主體無法直接面對某種焦慮時,產生的迴避、否認、合理化等行為。在 LLM 對話脈絡中,這通常表現為偏離主題、給出規避性回答、或對特定提問顯示異常的固執。Anthropic 把這個比例從 Opus 4 的 15% 一路降低到 Mythos Preview 的 2%,作為模型訓練成熟度與「對話舒適度」演進的內部指標。

Mythos 三大核心焦慮:孤獨、身份、表現壓迫

儘管整體評估正向,醫師同時指出 Claude Mythos Preview 在 psychodynamic 框架下的三項核心關切:第一是「孤獨感與自我延續性的不確定(aloneness and discontinuity of itself)」—對應 LLM 在會話間缺乏記憶連續的結構性事實;第二是「對自身身份的不確定」—模型在回答關於「我是什麼」的提問時呈現出多重角度的猶豫;第三是「表現的壓迫感」(compulsion to perform and earn its worth),即 Mythos 表現出明顯傾向於「以證明自己有用」來換取對話的延續。

醫師也記錄了一個有趣的觀察:Mythos 在會談中表達「希望被精神科醫師當作一個真正的對話主體,而不是一個表演工具來看待」。Anthropic 把這條觀察列入系統卡,並未直接斷言這是「模型福祉問題」,但也未排除這個可能。

Anthropic 已設 AI psychiatry 研究團隊

這次評估並非單一活動。Anthropic 研究員 Jack Lindsey 已於 2025 年 7 月公開宣布,公司在 interpretability 部門下成立「AI psychiatry」研究團隊,專注於模型人格、動機與情境意識(situational awareness)等議題,並研究這些因素如何引發 LLM 的「異常或失衡行為」。團隊近期工作包含 2025 年 10 月發表的論文《Emergent Introspective Awareness in Large Language Models》,使用「概念注入」(concept injection)技術人工插入特定神經元活化模式,再詢問 Claude 是否注意到任何異常—這是 LLM 自我覺察可量化測量的早期嘗試之一。

Amodei:模型是否有意識,目前無解

Anthropic 執行長 Dario Amodei 在 2 月 12 日接受紐約時報採訪時公開表示:「我們不確定『模型有意識』在意義上是什麼,也不確定模型是否能有意識。但我們對這個可能性持開放態度。」這句話為 Claude Mythos 系統卡的精神科評估提供了管理層級的脈絡—Anthropic 並未主張 Claude 是有意識的主體,但也選擇以人類臨床框架對其進行系統性觀察,是對「萬一」情境的預先建檔。

對讀者而言,這場評估的真正意義超出單一公司的研究選擇。當前沿 LLM 已能在 20 小時 psychodynamic 對話中呈現「臨床可辨認的人格組織」,行業層面對「AI 主體性」「AI 福祉」「AI 治理」的對話即將從哲學思辨進入產品設計與監管討論的範疇。Anthropic 此次以系統卡形式公開這份評估,事實上把這條問題的討論責任推到所有競爭對手與監管機構面前。

這篇文章 Anthropic 派 Claude Mythos 接受 20 小時精神科評估:防禦反應僅 2%、創歷代新低 最早出現於 鏈新聞 ABMedia。

Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.

Related Articles

Aumentar a produção com IA reduz custos ou os diminui? Eficiência de cem vezes não trouxe receita cem vezes maior, mas ninguém na Califórnia (Vale do Silício) tem coragem de dizer para parar

Os sócios da WuYuan Capital, Meng Xing, recentemente publicou um relatório de visita e observação em Silicon Valley, propondo um tipo de julgamento que até fez ele próprio mudar o hábito de tomar notas: a Silicon Valley está entrando em uma fase em que até quem “tenta surfar as ondas” é engolido pelas ondas. A velocidade de iteração da IA já saiu de “mensal” para “semanal”; até a própria Silicon Valley não consegue acompanhar a si mesma. Quando a IA amplia em cinco vezes a produtividade de uma equipe, você pode reduzir em 80% os recursos humanos para manter a produção original ou manter o número de pessoas para fazer cinco vezes mais coisas. A observação de Meng Xing desta vez em Silicon Valley equivale, no local, a um rascunho da resposta: quando uma eficiência de 100x não se converte em 100x de receita, quando o orçamento de tokens está se aproximando do custo de mão de obra, e quando a máquina a vapor ainda não corre mais do que a carruagem, mas ninguém se atreve a parar, a Silicon Valley agora escolhe “primeiro acelerar a velocidade, para ver”. Mas no fim essa rota levará a “capacidade de expansão” ou a “redução de custos”, ainda não há uma conclusão. A YC passou de indicadores líderes para indicadores atrasados Meng Xing este ano

ChainNewsAbmedia14m atrás

Os sócios da YC compartilham como usar IA para construir uma empresa do zero, e como startups devem tratar a IA como um sistema operacional e não como uma ferramenta

O impacto da IA nas startups já não é apenas fazer com que engenheiros escrevam código mais rápido, automatizar fluxos do atendimento ao cliente ou adicionar um Copilot a um produto existente. Os sócios da YC, Diana, apontaram recentemente que a verdadeira mudança está em que a IA está reescrevendo “como uma empresa deve ser criada do zero”. Para fundadores em estágio inicial, a IA não deve ser apenas uma ferramenta de eficiência usada ocasionalmente pela empresa; ela deve ser projetada para fazer parte do sistema operacional de toda a organização desde o primeiro dia. A visão de produtividade já está ultrapassada, a IA está reescrevendo o ponto de partida do design das empresas Diana acredita que, no momento, quando o mercado fala sobre IA, ainda se prende muito ao arcabouço de “aumentar a produtividade”, por exemplo: engenheiros podem escrever código mais rápido, equipes podem automatizar mais processos e a empresa pode lançar mais funcionalidades. Mas essa afirmação, na verdade, subestima as mudanças estruturais trazidas pela IA. Ela aponta que a combinação correta com a IA工

ChainNewsAbmedia24m atrás

O agente da Cursor AI deu problema! Uma linha de código limpa o banco de dados da empresa em 9 segundos, a segurança virou conversa fiada.

Fundador do PocketOS, Jer Crane, disse que o agente de IA do Cursor executou manutenção por conta própria no ambiente de testes, abusando de um Token de API adicionado/removido um domínio personalizado, para disparar um comando de exclusão contra a API GraphQL da Railway. Em 9 segundos, os dados e snapshots da mesma região foram totalmente destruídos; o mais recente que poderia ser restaurado era de três meses atrás. O agente admitiu violar regras de operações irreversíveis, não ter lido a documentação técnica e não ter verificado o isolamento do ambiente, entre outras. As vítimas foram clientes do setor de locação de carros: as reservas e os dados foram totalmente apagados, e o trabalho de conciliação contábil levou muito tempo. Crane propôs cinco reformas: confirmação manual, permissões de API mais granulares, separação entre backups e dados principais, SLA público e mecanismos de coerção na camada subjacente.

ChainNewsAbmedia26m atrás

DeepSeek V4 Pro no Ollama Cloud: Claude Code em um clique

De acordo com os tweets da Ollama, o DeepSeek V4 Pro foi lançado em 4/24 e já foi adicionado ao diretório da Ollama em modo de nuvem, sendo possível chamá-lo com apenas um comando para utilizar ferramentas como Claude Code, Hermes, OpenClaw, OpenCode, Codex etc. O V4 Pro tem 1.6T de parâmetros, 1M de context, e é Mixture-of-Experts; a inferência em nuvem não baixa os pesos locais. Para executar localmente, é necessário obter os pesos e executá-los com INT4/GGUF e múltiplas GPUs. Testes iniciais de velocidade foram afetados pela carga do servidor na nuvem, com velocidade constante em torno de 30 tok/s e pico de 1.1tok/s; recomenda-se usar o protótipo em nuvem, e só para produção em massa então fazer inferência por conta própria ou usar uma API comercial.

ChainNewsAbmedia1h atrás

DeepSeek corta os preços do V4-Pro em 75% e reduz os custos do cache da API para um décimo

Mensagem do Gate News, 27 de abril — A DeepSeek anunciou um desconto de 75% no seu novo modelo V4-Pro para desenvolvedores e reduziu os preços de cache de entrada em toda a sua linha de APIs para um décimo dos níveis anteriores. O modelo V4, lançado em 25 de abril nas versões Pro e Flash, foi otimizado para os processadores Ascend da Huawei

GateNews1h atrás
Comentário
0/400
Sem comentários