25 лютого Віталік Бутерін висловив підтримку компанії AI Anthropic у дотриманні двох етичних принципів: «не розробляти повністю автономну зброю» та «не здійснювати масштабний нагляд за США», хвалячи їхню рішучість протистояти тиску уряду. Віталік вважає, що в ідеальному світі такі високоризикові застосунки обмежуються рівнем відкритого доступу до великих мовних моделей (LLM); навіть 10% прогресу у цьому напрямку може зменшити ризики автономної зброї та порушення приватності, сприяючи більш безпечному розвитку AI. Раніше повідомлялося, що Міноборони США нещодавно погрожувало припинити співпрацю з Anthropic, що може призвести до втрати контракту на 200 мільйонів доларів, оскільки Anthropic відмовляється надавати військові AI-технології без людського втручання.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Віталік похвалив компанію AI Anthropic за дотримання етичної межі «не здійснювати масштабний соціальний нагляд»
25 лютого Віталік Бутерін висловив підтримку компанії AI Anthropic у дотриманні двох етичних принципів: «не розробляти повністю автономну зброю» та «не здійснювати масштабний нагляд за США», хвалячи їхню рішучість протистояти тиску уряду. Віталік вважає, що в ідеальному світі такі високоризикові застосунки обмежуються рівнем відкритого доступу до великих мовних моделей (LLM); навіть 10% прогресу у цьому напрямку може зменшити ризики автономної зброї та порушення приватності, сприяючи більш безпечному розвитку AI. Раніше повідомлялося, що Міноборони США нещодавно погрожувало припинити співпрацю з Anthropic, що може призвести до втрати контракту на 200 мільйонів доларів, оскільки Anthropic відмовляється надавати військові AI-технології без людського втручання.