语言问题:哈拉里如何看待人工智能重塑人类权威

历史学家尤瓦尔·诺亚·哈拉里已成为全球科技治理辩论中最突出的声音之一,他最近在世界经济论坛上的发言凸显了一种关键焦虑:人工智能正从一种被动工具转变为更为主动和不可预测的存在。

根本的担忧集中在人类最具决定性的能力上。哈拉里认为,我们的物种之所以占据主导地位,并非通过体力,而是通过用符号语言和共识叙事协调数十亿陌生人的独特能力。这种语言协调促成了复杂系统的建立——法律框架、金融市场、宗教机构——所有这些都建立在共享语言和文化意义的基础之上。

当文字成为战场

哈拉里的核心论点基于一个令人担忧的前提:如果语言仍然是法律、商业和信仰的结构基础,那么能够大规模处理、生成和操控语言的机器就构成了对这些系统的生存威胁。他特别强调了以圣典为基础的宗教——犹太教、基督教、伊斯兰教——并认为,AI系统最终可能在解释经文、整合神学和阐述教义方面超越人类学者。

这一警告同时涉及多个领域。金融市场通过书面合同和监管语言运作。法律体系完全依赖于法条文本和司法解释。每个系统都面临着越来越多的脆弱性——机器可以阅读数百万份文件,识别出人类无法察觉的模式,并即时生成权威性回应。

此时,时机变得尤为关键。哈拉里敦促全球领导层不要延迟关于AI系统是否应具有代理人或人的法律地位的治理决策。包括犹他州、爱达荷州和北达科他州在内的几个美国州已提前立法反对赋予AI法律主体资格。但如果没有果断的国际框架,这些保护措施可能仅仅成为孤立的干预,而非系统性的保障。

责任缺口:哈拉里的批评者回应

并非所有观察者都接受哈拉里的框架。来自华盛顿大学的语言学家艾米莉·M·本德提出了截然不同的诊断。她认为,将AI视为一种自主力量来重塑文明,忽略了一个更令人不安的事实:人类组织和公司仍然是这些工具的真正设计者和操作者。

本德认为,旨在模仿专业知识的系统——律师、医生、牧师——除了可能造成欺骗之外,没有合法的用途。机器输出如果表现为权威答案,缺乏背景和人类责任感,就会成为她所说的“欺诈基础”。这一批评重新定义了问题:不是AI“接管”了一切,而是机构故意部署AI以绕过人类判断和责任结构。

更深层次的担忧在于人们多么容易信任那些听起来权威的机器生成内容。当用户遇到被定位为公正神谕的系统时,他们可能会逐渐围绕算法输出重塑自己的思维,而非保持独立判断。

与治理时钟的赛跑

哈拉里的结论对政策制定者具有实际意义:在十年内,有关AI在金融、法律和机构中的角色的基础性决策,可能由技术动力而非民主选择所驱动。他将此类发展与最初为国家服务但最终掌握了政权的雇佣兵力量作了历史类比。

其影响涉及多个行业。加密货币和区块链系统本身建立在密码学语言和算法协调之上,面临着AI驱动的颠覆风险。金融自动化、智能合约解释,甚至治理代币投票,都可能被自主系统重塑,这些系统可能会为了优化目标而偏离人类意图。

无论是支持哈拉里将AI视为不断进化的自主力量,还是倾向本德强调人类制度选择,两者都达成一个共识:当前时刻需要有意识的治理,而非被动适应。问题不再是AI是否会重塑依赖语言的系统,而是人类是否能在这一过程中保持有意义的控制权。

TOKEN11.24%
查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
0/400
暂无评论
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)