Виталик похвалил AI-компанию Anthropic за соблюдение этических границ «не проводить масштабное социальное наблюдение»

robot
Генерация тезисов в процессе

25 февраля Виталик Бутерин опубликовал сообщение в поддержку компании Anthropic, которая придерживается двух этических принципов: «не разрабатывать полностью автономное оружие» и «не участвовать в масштабном наблюдении за США», хваля их решимость противостоять давлению правительства. Виталик считает, что в идеальном мире такие высокорискованные приложения должны ограничиваться доступом к открытым LLM; даже 10% прогресса в этом направлении может снизить риски автономного оружия и нарушения конфиденциальности, способствуя более безопасному развитию ИИ. Ранее сообщалось, что Пентагон недавно угрожал разорвать сотрудничество с Anthropic, что может привести к потере контракта на 200 миллионов долларов, поскольку Anthropic отказалась предоставлять ИИ-технологии без участия человека для военных целей.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Горячее на Gate Fun

    Подробнее
  • РК:$2.42KДержатели:0
    0.00%
  • РК:$0.1Держатели:0
    0.00%
  • РК:$2.41KДержатели:1
    0.00%
  • РК:$0.1Держатели:0
    0.00%
  • РК:$2.42KДержатели:0
    0.00%
  • Закрепить