Сообщается на сайте Цайби, 25 февраля Виталик Бутерин опубликовал пост, в котором поддержал компанию AI Anthropic в их принципиальной позиции не разрабатывать полностью автономное оружие и не участвовать в масштабном наблюдении за гражданами США, похвалив их решимость противостоять давлению правительства. Виталик считает, что в идеальном мире такие высокорискованные приложения должны ограничиваться уровнем доступа к открытым LLM (то есть доступным для всех на равных условиях); даже достижение всего лишь 10% прогресса поможет снизить риски автономного оружия и нарушения приватности, способствуя более безопасному развитию ИИ. Ранее сообщалось, что Министерство обороны США недавно угрожало разорвать сотрудничество с Anthropic, что может привести к потере контракта на сумму 200 миллионов долларов, поскольку Anthropic отказалась предоставлять технологии ИИ без вмешательства человека для военных целей.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить