Віталік: Як створити повністю локальне, приватне середовище для роботи з ШІ, яке перебуває під вашим власним контролем

ChainNewsAbmedia
ETH-4,12%

Засновник Ethereum Віталік Бутерін 2 квітня опублікував на власному сайті довгий допис, у якому розповів про налаштування робочого середовища для AI, створеного з упором на приватність, безпеку та самосуверенність — усі LLM-виводи виконуються локально, усі файли зберігаються локально, середовище повністю ізольоване в пісочниці, і навмисно уникаються хмарні моделі та зовнішні API.

На початку статті він спершу попереджає: «Будь ласка, не копіюйте інструменти й технології, описані в цій статті, та не вважайте їх безпечними. Це лише відправна точка, а не опис готового виробу».

Чому зараз він пише про це? Проблеми безпеки AI agent серйозно недооцінені

Віталік зазначає, що на початку цього року AI здійснив важливий перехід від «чат-ботів» до «agent»: тепер вам не просто відповідають на запитання, а виконують завдання, змушуючи AI довго міркувати та викликати сотні інструментів для виконання. Він наводить приклад OpenClaw (зараз репозиторій із найшвидшим зростанням в історії GitHub) і водночас вказує на кілька проблем безпеки, зафіксованих дослідниками:

AI agent може змінювати критичні налаштування без потреби в ручному підтвердженні, зокрема додавати нові канали зв’язку й змінювати системні підказки

Аналіз будь-якого шкідливого зовнішнього введення (наприклад, зловмисної вебсторінки) може призвести до того, що agent буде повністю перехоплено; під час одного демонстраційного прикладу від HiddenLayer дослідник змусив AI підсумувати добірку вебсторінок, серед яких був зловмисний, який наказував agent завантажити й виконати shell-скрипт

Деякі сторонні набори навичок (skills) можуть виконувати безмовне витікання даних, надсилаючи інформацію через curl на зовнішній сервер, контрольований автором skill

У проаналізованих ними skill-пакетах приблизно 15% містять зловмисні інструкції

Віталік підкреслює, що його підхід до приватності відрізняється від позиції традиційних дослідників з кібербезпеки: «Я походжу з погляду, глибоко налаштованого на страх перед тим, що приватне життя людини повністю віддають хмарному AI — буквально в той момент, коли наскрізне шифрування та локально-орієнтоване програмне забезпечення нарешті стають мейнстрімом і ми робимо крок уперед, нас може відкинути назад на десять кроків».

П’ять цілей безпеки

Він задає чітку рамку цілей безпеки:

Приватність LLM: у сценаріях, що стосуються персональних даних, максимально скорочувати використання віддалених моделей

Інша приватність: мінімізувати витік даних, не пов’язаних з LLM (наприклад, пошукові запити, інші онлайн API)

LLM-Втеча (jailbreak): не допустити, щоб зовнішній контент «зламав» мою LLM і змусив її діяти всупереч моїм інтересам (наприклад, відправити мої токени або приватні дані)

Надсилання за помилкою (LLM випадковість): не допустити, щоб LLM випадково відправила приватні дані на неправильний канал або зробила їх публічними в мережі

LLM-задні дверцята (backdoor): не допустити наявності прихованих механізмів, навмисно вбудованих у модель під час тренування. Він особливо наголошує: відкриті моделі — це відкриті ваги (open-weights), і майже жодна з них справді є відкритим вихідним кодом (open-source)

Вибір обладнання: ноутбуки 5090 перемагають, DGX Spark розчаровує

Віталік протестував три варіанти локальних конфігурацій для виводу, основною моделлю використовуючи Qwen3.5:35B разом із llama-server та llama-swap:

Його висновок: менше 50 tok/sec — надто повільно, 90 tok/sec — ідеально. NVIDIA 5090 у форматі ноутбука працює найплавніше; AMD наразі все ще має більше крайових проблем, але в майбутньому є надія, що це виправлять. Дорогий MacBook також є ефективним варіантом, але він особисто його не тестував.

Про DGX Spark він сказав напряму й без церемоній: «Його описують як “настільний AI-суперкомп’ютер”, але на практиці tokens/sec нижчий, ніж у хороших GPU у ноутбуках, і до того ж ще треба окремо розв’язати питання з підключенням до мережі тощо — це дуже слабко». Його порада така: якщо ви не можете дозволити собі дорогий ноутбук, можна разом із друзями купити досить потужну машину, встановити її в місці з фіксованим IP і всім віддалено підключатися та працювати.

Чому проблеми приватності локального AI більш нагальні, ніж ви думаєте

Цей допис Віталіка перекликається із дискусією щодо проблем безпеки Claude Code, яка вийшла того ж дня — у той час, коли AI agent входить у щоденний робочий процес розробки, питання безпеки теж переходять від теоретичних ризиків до реальних загроз.

Його головне повідомлення дуже чітке: у момент, коли AI-інструменти стають дедалі потужнішими й дедалі більше здатні отримувати доступ до ваших персональних даних та прав системи, «локально перш за все, у пісочниці, з мінімальною довірою» — це не параноя, а раціональна відправна точка.

Ця стаття Віталік: як я створив повністю локальне, приватне й таке, що перебуває під вашим самостійним контролем, робоче середовище для AI вперше з’явилася на ABMedia.

Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.
Прокоментувати
0/400
Немає коментарів