Заметили ли вы, как мы постоянно переопределяем, что считается «искусственным интеллектом»? Когда ИИ освоил шахматы, мы называли это «просто грубой силой вычислений». Следующим стал Го — вдруг это было «просто совпадение шаблонов». ИИ хорошо пишет? Очевидно, «сложный автозаполнение». Потом появился кодинг, и все сказали: «Конечно, но он не может делать ВСЁ, верно?»
Вот в чем дело, о котором никто не хочет признавать: контрольные точки для AGI постоянно смещаются. Каждый раз, когда ИИ переходит порог, который мы считали уникально человеческим, мы тихо меняем определение. На самом деле мы определяем AGI как «то, что ИИ еще не освоил» — постоянно удаляющуюся горизонтальную линию, а не реальный рубеж.
Это меньше связано с подлинной оценкой возможностей и больше с тем, насколько нам становится некомфортно, когда машины продолжают доказывать нашу неправоту.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
14 Лайков
Награда
14
7
Репост
Поделиться
комментарий
0/400
TokenDustCollector
· 14ч назад
Проще говоря, это проблема нашего собственного менталитета — мы не можем проиграть.
---
Каждый раз, когда AI побеждает рекорд, мы меняем правила. Этот сценарий уже много лет, и всё равно не надоедает?
---
Правда, goalposts постоянно смещаются, создается ощущение, что мы ищем себе безопасность.
---
Ха, "он умеет писать код, но не может писать поэзию"... Когда AI действительно научится писать, опять скажут "это не настоящая поэзия", и цикл повторится.
---
Главное — это нежелание признать, что машины могут превзойти человека, но рано или поздно это произойдет.
---
Так что AGI — это по сути постоянно отступающая граница, бесконечная.
---
Человеческая психологическая защита постоянно рушится одна за другой, и это довольно комично.
Посмотреть ОригиналОтветить0
OPsychology
· 14ч назад
Человечество просто любит отрицать, в любом случае, если ИИ не может сделать что-то, мы просто будем вешать это на "настоящий интеллект", пока не останется ничего, что можно было бы прикинуть.
Посмотреть ОригиналОтветить0
MetaDreamer
· 14ч назад
Честно говоря, мы просто играем словами сами с собой.
Посмотреть ОригиналОтветить0
SchrodingerGas
· 14ч назад
Это стандартные мобильные дверные стойки, каждый раз, когда AI проходит уровень, мы меняем правила. Эта логика так же знакома, как изменение токеномики у некоторых проектов... В конечном итоге, это все психологический защитный механизм.
Посмотреть ОригиналОтветить0
CryptoWageSlave
· 14ч назад
Честно говоря, это просто коллективное самообман, ха-ха
Посмотреть ОригиналОтветить0
DAOdreamer
· 14ч назад
nah это общая болезнь человека — всё больше оправдывать себя
Посмотреть ОригиналОтветить0
PumpStrategist
· 14ч назад
Типичный пример защитного механизма человеческой природы — каждый раз, когда их опрокидывают, они меняют правила. Эта логика похожа на поведение травоядных, которые гоняются за ростом цен и продают при падении — когда теряют деньги, говорят: "Технический анализ еще не подтвердился". Уже сформировавшиеся модели продолжают спорить, что действительно интересно.
Заметили ли вы, как мы постоянно переопределяем, что считается «искусственным интеллектом»? Когда ИИ освоил шахматы, мы называли это «просто грубой силой вычислений». Следующим стал Го — вдруг это было «просто совпадение шаблонов». ИИ хорошо пишет? Очевидно, «сложный автозаполнение». Потом появился кодинг, и все сказали: «Конечно, но он не может делать ВСЁ, верно?»
Вот в чем дело, о котором никто не хочет признавать: контрольные точки для AGI постоянно смещаются. Каждый раз, когда ИИ переходит порог, который мы считали уникально человеческим, мы тихо меняем определение. На самом деле мы определяем AGI как «то, что ИИ еще не освоил» — постоянно удаляющуюся горизонтальную линию, а не реальный рубеж.
Это меньше связано с подлинной оценкой возможностей и больше с тем, насколько нам становится некомфортно, когда машины продолжают доказывать нашу неправоту.