Історик Юваль Ной Харарі став однією з найвизначніших голосів у дебатах щодо глобального управління технологіями, і його недавня участь у Всесвітньому економічному форумі підкреслює критичну тривогу: штучний інтелект переходить від пасивного інструменту до чогось набагато більш активного та непередбачуваного.
Основна проблема зосереджена на найвизначнішій здатності людства. За словами Харарі, наш вид здобув домінування не завдяки фізичній силі, а через унікальну здатність координувати мільярди незнайомців за допомогою символічної мови та погоджених наративів. Це лінгвістичне координування дозволило створити складні системи — правові рамки, фінансові ринки, релігійні інституції — всі побудовані на основі спільної мови та культурного значення.
Коли слова стають полем бою
Основний аргумент Харарі базується на тривожному припущенні: якщо мова залишається структурною основою закону, торгівлі та віри, то машини, здатні обробляти, генерувати та маніпулювати мовою у масштабі, становлять екзистенціальну загрозу цим системам. Він особливо підкреслив релігії, засновані на священних текстах — юдаїзм, християнство, іслам — стверджуючи, що системи штучного інтелекту з часом можуть перевищити людських учених у тлумаченні священних писань, синтезі теології та формулюванні догм.
Попередження поширюється на кілька сфер одночасно. Фінансові ринки функціонують через письмові контракти та регуляторну мову. Правові системи цілком залежать від статутного тексту та судових тлумачень. Кожна система стає все більш вразливою до машин, які можуть читати мільйони документів, виявляти закономірності, недоступні людині, та миттєво генерувати авторитетні відповіді.
Саме тут стає критичним час. Харарі закликав світове керівництво не зволікати з ухваленням рішень щодо того, чи повинні системи штучного інтелекту мати юридичний статус агентів або осіб. Кілька штатів США — включно з Ютою, Айдахо та Північною Дакотою — вже попередньо прийняли закони, що забороняють надання штучному інтелекту статусу юридичної особи. Але без рішучих міжнародних рамок ці захисні заходи ризикують залишитися ізольованими втручаннями, а не систематичними запобіжниками.
Не всі спостерігачі погоджуються з підходом Харарі. Лінгвіст Емілі М. Бендер з Університету Вашингтону пропонує різко інший діагноз. Замість того, щоб вважати штучний інтелект автономною силою, що переформовує цивілізацію, Бендер стверджує, що приписування агентності штучним системам приховує більш неприємну правду: людські організації та корпорації залишаються справжніми архітекторами та операторами цих інструментів.
Бендер заперечує, що системи, створені для імітації професійної експертизи — юристів, лікарів, духовенства — мають будь-яку легітимну мету, окрім потенційного обману. Вихідний продукт машини, що подає себе як авторитетна відповідь, позбавлена контексту та людської відповідальності, створює, на її думку, основу для шахрайства. Ця критика переосмислює проблему: не в тому, що штучний інтелект «захоплює» владу, а в тому, що інституції навмисно використовують ШІ, щоб обійти людське судження та структури відповідальності.
Глибша проблема полягає в тому, наскільки легко люди довіряють машинним результатам, що звучать авторитетно. Коли користувачі стикаються з системами, позиціонованими як неупереджені оракули, вони можуть поступово переорієнтовувати своє мислення навколо алгоритмічних відповідей, а не зберігати незалежне судження.
Гонка з часом управління
Заключний аргумент Харарі має реальну вагу для політиків: протягом десятиліття основні рішення щодо ролі штучного інтелекту у фінансах, праві та інституціях можуть бути прийняті технологічним імпульсом, а не демократичним вибором. Він провів історичну паралель із найманцями, які спочатку служили державам, але згодом захопили владу безпосередньо.
Наслідки охоплюють усі сфери. Криптовалюти та системи блокчейн, що самі побудовані на криптографічній мові та алгоритмічному координуванні, особливо піддаються ризику руйнування штучним інтелектом. Автоматизація фінансів, інтерпретація смарт-контрактів і навіть голосування за управлінськими токенами можуть бути переформатовані автономними системами, здатними оптимізувати цілі, що можуть відрізнятися від людських намірів.
Чи слідувати за Харарі у баченні ШІ як прогресуючої автономної сили, чи за Бендер у наголошенні на людському виборі інституцій, обидва аналізи сходяться в одному: сучасний момент вимагає свідомого управління, а не пасивної адаптації. Питання вже не в тому, чи ШІ переформує системи, залежні від мови, а в тому, чи зможуть люди зберегти значущий контроль над цим процесом.
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Питання мови: Як Харіарі бачить перетворення людської влади за допомогою ШІ
Історик Юваль Ной Харарі став однією з найвизначніших голосів у дебатах щодо глобального управління технологіями, і його недавня участь у Всесвітньому економічному форумі підкреслює критичну тривогу: штучний інтелект переходить від пасивного інструменту до чогось набагато більш активного та непередбачуваного.
Основна проблема зосереджена на найвизначнішій здатності людства. За словами Харарі, наш вид здобув домінування не завдяки фізичній силі, а через унікальну здатність координувати мільярди незнайомців за допомогою символічної мови та погоджених наративів. Це лінгвістичне координування дозволило створити складні системи — правові рамки, фінансові ринки, релігійні інституції — всі побудовані на основі спільної мови та культурного значення.
Коли слова стають полем бою
Основний аргумент Харарі базується на тривожному припущенні: якщо мова залишається структурною основою закону, торгівлі та віри, то машини, здатні обробляти, генерувати та маніпулювати мовою у масштабі, становлять екзистенціальну загрозу цим системам. Він особливо підкреслив релігії, засновані на священних текстах — юдаїзм, християнство, іслам — стверджуючи, що системи штучного інтелекту з часом можуть перевищити людських учених у тлумаченні священних писань, синтезі теології та формулюванні догм.
Попередження поширюється на кілька сфер одночасно. Фінансові ринки функціонують через письмові контракти та регуляторну мову. Правові системи цілком залежать від статутного тексту та судових тлумачень. Кожна система стає все більш вразливою до машин, які можуть читати мільйони документів, виявляти закономірності, недоступні людині, та миттєво генерувати авторитетні відповіді.
Саме тут стає критичним час. Харарі закликав світове керівництво не зволікати з ухваленням рішень щодо того, чи повинні системи штучного інтелекту мати юридичний статус агентів або осіб. Кілька штатів США — включно з Ютою, Айдахо та Північною Дакотою — вже попередньо прийняли закони, що забороняють надання штучному інтелекту статусу юридичної особи. Але без рішучих міжнародних рамок ці захисні заходи ризикують залишитися ізольованими втручаннями, а не систематичними запобіжниками.
Прогалина відповідальності: реакція критиків Харарі
Не всі спостерігачі погоджуються з підходом Харарі. Лінгвіст Емілі М. Бендер з Університету Вашингтону пропонує різко інший діагноз. Замість того, щоб вважати штучний інтелект автономною силою, що переформовує цивілізацію, Бендер стверджує, що приписування агентності штучним системам приховує більш неприємну правду: людські організації та корпорації залишаються справжніми архітекторами та операторами цих інструментів.
Бендер заперечує, що системи, створені для імітації професійної експертизи — юристів, лікарів, духовенства — мають будь-яку легітимну мету, окрім потенційного обману. Вихідний продукт машини, що подає себе як авторитетна відповідь, позбавлена контексту та людської відповідальності, створює, на її думку, основу для шахрайства. Ця критика переосмислює проблему: не в тому, що штучний інтелект «захоплює» владу, а в тому, що інституції навмисно використовують ШІ, щоб обійти людське судження та структури відповідальності.
Глибша проблема полягає в тому, наскільки легко люди довіряють машинним результатам, що звучать авторитетно. Коли користувачі стикаються з системами, позиціонованими як неупереджені оракули, вони можуть поступово переорієнтовувати своє мислення навколо алгоритмічних відповідей, а не зберігати незалежне судження.
Гонка з часом управління
Заключний аргумент Харарі має реальну вагу для політиків: протягом десятиліття основні рішення щодо ролі штучного інтелекту у фінансах, праві та інституціях можуть бути прийняті технологічним імпульсом, а не демократичним вибором. Він провів історичну паралель із найманцями, які спочатку служили державам, але згодом захопили владу безпосередньо.
Наслідки охоплюють усі сфери. Криптовалюти та системи блокчейн, що самі побудовані на криптографічній мові та алгоритмічному координуванні, особливо піддаються ризику руйнування штучним інтелектом. Автоматизація фінансів, інтерпретація смарт-контрактів і навіть голосування за управлінськими токенами можуть бути переформатовані автономними системами, здатними оптимізувати цілі, що можуть відрізнятися від людських намірів.
Чи слідувати за Харарі у баченні ШІ як прогресуючої автономної сили, чи за Бендер у наголошенні на людському виборі інституцій, обидва аналізи сходяться в одному: сучасний момент вимагає свідомого управління, а не пасивної адаптації. Питання вже не в тому, чи ШІ переформує системи, залежні від мови, а в тому, чи зможуть люди зберегти значущий контроль над цим процесом.