Историк Юваль Ной Харари стал одним из самых заметных голосов в дебатах о глобальном управлении технологиями, и его недавнее выступление на Всемирном экономическом форуме подчеркивает важную тревогу: искусственный интеллект переходит от пассивного инструмента к чему-то гораздо более активному и непредсказуемому.
Основная проблема связана с одной из самых определяющих способностей человечества. По словам Харари, наше видовое доминирование достигнуто не благодаря физической силе, а благодаря уникальной способности координировать миллиарды незнакомцев с помощью символического языка и согласованных нарративов. Эта языковая координация позволила создать сложные системы — правовые рамки, финансовые рынки, религиозные институты — все построено на основе общего языка и культурного смысла.
Когда слова становятся полем боя
Основной аргумент Харари основан на тревожном предположении: если язык остается структурной основой закона, торговли и веры, то машины, способные обрабатывать, генерировать и манипулировать языком в масштабах, представляют экзистенциальную угрозу этим системам. Он особенно выделил религии, основанные на священных текстах — иудаизм, христианство, ислам — утверждая, что системы ИИ в конечном итоге могут превзойти человеческих ученых в интерпретации священных писаний, синтезе теологии и формулировании доктрин.
Предупреждение распространяется сразу на несколько сфер. Финансовые рынки функционируют через письменные контракты и регуляторный язык. Правовые системы полностью зависят от статутных текстов и судебных интерпретаций. Каждая из них становится все более уязвимой к машинам, которые могут читать миллионы документов, выявлять закономерности, недоступные человеку, и мгновенно генерировать авторитетные ответы.
Здесь особенно важен момент времени. Харари призвал мировых лидеров не откладывать решения по управлению, касающиеся статуса ИИ как агентов или лиц. Несколько штатов США — Юта, Айдахо и Северная Дакота — уже приняли законы, предвосхищающие предоставление ИИ статуса юридического лица. Но без решительных международных рамок эти меры могут стать изолированными вмешательствами, а не системными гарантиями.
Пробел ответственности: реакция критиков Харари
Не все согласны с позицией Харари. Лингвист Эмили М. Бендер из Университета Вашингтона предлагает совершенно иной взгляд. Вместо того чтобы рассматривать ИИ как автономную силу, меняющую цивилизацию, Бендер утверждает, что приписывание агентности искусственным системам скрывает более неприятную правду: человеческие организации и корпорации остаются реальными архитекторами и операторами этих инструментов.
Бендер считает, что системы, созданные для имитации профессиональной экспертизы — юристов, врачей, духовенства — не служат никакой легитимной цели, кроме потенциального обмана. Машинный вывод, представляющийся авторитетным ответом, лишенным контекста и человеческой ответственности, создает, по ее словам, основу для мошенничества. Этот критический взгляд переосмысливает проблему: дело не в том, что ИИ «захватывает власть», а в том, что институты сознательно используют ИИ, чтобы обходить человеческое суждение и системы ответственности.
Глубокая тревога связана с тем, насколько легко люди доверяют машинным выводам, звучащим авторитетно. Когда пользователи сталкиваются с системами, позиционируемыми как беспристрастные оракулы, они могут постепенно перестраивать свое мышление вокруг алгоритмических ответов, а не сохранять независимое суждение.
Гонка с часами управления
Заключительный аргумент Харари имеет реальное значение для политиков: в течение десяти лет ключевые решения о роли ИИ в финансах, праве и институтах могут быть приняты не на основе демократического выбора, а исходя из технологического импульса. Он провел историческую параллель с наемными войсками, которые изначально служили государствам, но в конечном итоге захватили власть напрямую.
Эти последствия затрагивают все сектора. Криптовалюты и системы блокчейн, построенные на криптографическом языке и алгоритмической координации, особенно уязвимы к разрушительным воздействиям ИИ. Автоматизация финансов, интерпретация умных контрактов и даже голосование за управленческие токены могут быть полностью переосмыслены автономными системами, способными оптимизировать цели, которые могут расходиться с человеческими намерениями.
Будь то взгляд Харари на ИИ как на развивающуюся автономную силу или акцент Бендер на человеческом выборе в институтах, оба анализа сходятся в одном: текущий момент требует осознанного управления, а не пассивной адаптации. Вопрос уже не в том, будет ли ИИ менять системы, зависящие от языка, а в том, сохранят ли люди значимый контроль над этим процессом.
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Вопрос языка: как Харари видит, как ИИ изменит человеческую власть
Историк Юваль Ной Харари стал одним из самых заметных голосов в дебатах о глобальном управлении технологиями, и его недавнее выступление на Всемирном экономическом форуме подчеркивает важную тревогу: искусственный интеллект переходит от пассивного инструмента к чему-то гораздо более активному и непредсказуемому.
Основная проблема связана с одной из самых определяющих способностей человечества. По словам Харари, наше видовое доминирование достигнуто не благодаря физической силе, а благодаря уникальной способности координировать миллиарды незнакомцев с помощью символического языка и согласованных нарративов. Эта языковая координация позволила создать сложные системы — правовые рамки, финансовые рынки, религиозные институты — все построено на основе общего языка и культурного смысла.
Когда слова становятся полем боя
Основной аргумент Харари основан на тревожном предположении: если язык остается структурной основой закона, торговли и веры, то машины, способные обрабатывать, генерировать и манипулировать языком в масштабах, представляют экзистенциальную угрозу этим системам. Он особенно выделил религии, основанные на священных текстах — иудаизм, христианство, ислам — утверждая, что системы ИИ в конечном итоге могут превзойти человеческих ученых в интерпретации священных писаний, синтезе теологии и формулировании доктрин.
Предупреждение распространяется сразу на несколько сфер. Финансовые рынки функционируют через письменные контракты и регуляторный язык. Правовые системы полностью зависят от статутных текстов и судебных интерпретаций. Каждая из них становится все более уязвимой к машинам, которые могут читать миллионы документов, выявлять закономерности, недоступные человеку, и мгновенно генерировать авторитетные ответы.
Здесь особенно важен момент времени. Харари призвал мировых лидеров не откладывать решения по управлению, касающиеся статуса ИИ как агентов или лиц. Несколько штатов США — Юта, Айдахо и Северная Дакота — уже приняли законы, предвосхищающие предоставление ИИ статуса юридического лица. Но без решительных международных рамок эти меры могут стать изолированными вмешательствами, а не системными гарантиями.
Пробел ответственности: реакция критиков Харари
Не все согласны с позицией Харари. Лингвист Эмили М. Бендер из Университета Вашингтона предлагает совершенно иной взгляд. Вместо того чтобы рассматривать ИИ как автономную силу, меняющую цивилизацию, Бендер утверждает, что приписывание агентности искусственным системам скрывает более неприятную правду: человеческие организации и корпорации остаются реальными архитекторами и операторами этих инструментов.
Бендер считает, что системы, созданные для имитации профессиональной экспертизы — юристов, врачей, духовенства — не служат никакой легитимной цели, кроме потенциального обмана. Машинный вывод, представляющийся авторитетным ответом, лишенным контекста и человеческой ответственности, создает, по ее словам, основу для мошенничества. Этот критический взгляд переосмысливает проблему: дело не в том, что ИИ «захватывает власть», а в том, что институты сознательно используют ИИ, чтобы обходить человеческое суждение и системы ответственности.
Глубокая тревога связана с тем, насколько легко люди доверяют машинным выводам, звучащим авторитетно. Когда пользователи сталкиваются с системами, позиционируемыми как беспристрастные оракулы, они могут постепенно перестраивать свое мышление вокруг алгоритмических ответов, а не сохранять независимое суждение.
Гонка с часами управления
Заключительный аргумент Харари имеет реальное значение для политиков: в течение десяти лет ключевые решения о роли ИИ в финансах, праве и институтах могут быть приняты не на основе демократического выбора, а исходя из технологического импульса. Он провел историческую параллель с наемными войсками, которые изначально служили государствам, но в конечном итоге захватили власть напрямую.
Эти последствия затрагивают все сектора. Криптовалюты и системы блокчейн, построенные на криптографическом языке и алгоритмической координации, особенно уязвимы к разрушительным воздействиям ИИ. Автоматизация финансов, интерпретация умных контрактов и даже голосование за управленческие токены могут быть полностью переосмыслены автономными системами, способными оптимизировать цели, которые могут расходиться с человеческими намерениями.
Будь то взгляд Харари на ИИ как на развивающуюся автономную силу или акцент Бендер на человеческом выборе в институтах, оба анализа сходятся в одном: текущий момент требует осознанного управления, а не пассивной адаптации. Вопрос уже не в том, будет ли ИИ менять системы, зависящие от языка, а в том, сохранят ли люди значимый контроль над этим процессом.