Сьогоднішня промисловість штучного інтелекту стикається зі значними викликами через централізацію, коли значні досягнення часто контролюються кількома великими корпораціями. Це призводить до стурбованості щодо конфіденційності даних, монополістичних практик та обмеженого доступу до передових технологій. Крім того, перенасиченість Великих Мовних Моделей (ВММ), таких як GPT-3, незважаючи на їх можливості, викликає проблеми, такі як високі обчислювальні витрати, навколишній вплив та потенційні упередженості в даних, на яких вони навчаються. Ці моделі потребують великих обсягів даних та ресурсів, що робить їх доступними лише для добре фінансованих організацій.
Assisterr змагається з цими викликами, впроваджуючи Малі мовні моделі (СММ) та сприяючи спільнотно-власницькому підходу до розробки ШІ. СММ призначені бути більш ефективними, вимагаючи менше обчислювальної потужності та даних, при цьому забезпечуючи високу продуктивність, що робить технології ШІ більш доступними та стійкими. Більше того, спільнотно-власницькі моделі та ШІ-агенти Assisterr надають користувачам можливість внести свій внесок у розвиток ШІ та отримати вигоду від досягнень в цій галузі, сприяючи інноваціям та інклюзивності та забезпечуючи більш широке поширення переваг ШІ по всьому суспільству.
Джерело: веб-сайт Assisterr
Assisterr AI - це децентралізована платформа штучного інтелекту, розроблена для демократизації доступу до штучного інтелекту за допомогою Малих Мовних Моделей (SLM) та AI-агентів, що належать спільноті. Її основна мета - надати більш ефективну, доступну та стійку альтернативу традиційним моделям штучного інтелекту, вирішуючи обмеження Великих Мовних Моделей (LLM) та сприяючи спільнотному екосистемі штучного інтелекту.
Великі мовні моделі (LLM) такі як GPT-3 та BERT - це моделі штучного інтелекту, навчені на величезних обсягах текстових даних для розуміння та генерації мови, схожої на людську. Вони здатні виконувати широкий спектр завдань, від завершення тексту до перекладу та узагальнення. Однак у LLM є кілька помітних недоліків:
Малі мовні моделі (SLM), хоча і схожі за концепцією на LLM, розроблені таким чином, щоб бути більш точними, спеціалізованими та ефективними. Зосереджуючись на конкретних завданнях і наборах даних, SLM забезпечують чудову продуктивність для нішевих додатків, що робить їх кращими для спеціалізованих випадків використання. Використовуючи індивідуальні набори даних і зосереджуючись на конкретних бізнес-потребах, SLM можуть забезпечити чудову продуктивність і ситуаційну адаптивність за невелику частину вартості. Це також є обнадійливим для створення SLM з відкритим вихідним кодом, де дешевші проєкти раніше розробляли SLM з конкурентоспроможною точністю, ніж досвідчені LLM за набагато нижчими цінами.
Невелика мовні моделі (SLM) є основою технології Assisterr. На відміну від великих мовних моделей (LLM), SLM призначені для більш ефективної та спеціалізованої роботи. Вони фокусуються на конкретних завданнях та наборах даних, що дозволяє їм забезпечувати відмінну продуктивність для нішевих застосувань. Ця спеціалізація робить SLM більш доступними та стабільними, оскільки вони потребують менше обчислювальної потужності та даних.
Для розв’язання обмежень агентів на основі LLM з’явилися високорозвинуті підходи, що включають кілька невеликих мовних моделей (SLM), які працюють в колаборативних агентичних фреймворках. При розробці штучних інтелектуальних агентів з ансамблями SLM використовуються дві основні підходи: суміші експертів (MoE) та суміші агентів (MoA).
Змішані експерти (MoE)
Джерело: Assisterr Litepaper
При об'єднанні в ансамблі МНС сучасне міркування СЛМ може досягти підвищеної гнучкості навчання, не втрачаючи при цьому своєї здатності до функціонального вирішення проблем. Ансамблеве навчання може поєднувати навички міркування кількох менших моделей, кожна з яких спеціалізується на різних пов'язаних контекстах, для вирішення складних проблем. Це породжує гібридне розуміння, яке продовжує дозволяти штучному інтелекту глибоко занурюватися. Шари експертів самі можуть складатися з МОН, створюючи ієрархічні структури для подальшого буферизації контекстуальної складності та майстерності вирішення проблем. MoE зазвичай використовує розріджений шар, який динамічно вибирає між кількома паралельними мережами, щоб дати найбільш відповідну відповідь на запит. Щоб досягти більш гнучких відповідей, окремі експерти можуть бути налаштовані на генерацію коду, переклад або аналіз настроїв. Більш складні архітектури MoE можуть містити кілька таких рівнів MoE у поєднанні з іншими компонентами. Як і будь-яка типова архітектура мовної моделі, рівень МОН оперує семантичними токенами і вимагає навчання.
Змішані речовини (MoA)
При об'єднанні в архітектуру MoA SLM підвищують вибірковість різноманітних ансамблів міркувань, дозволяючи штучному інтелекту виконувати завдання з необхідною методологією. Агентні моделі збираються в консорціумі, який нашаровує протоколи виконання для підвищення ефективності та вирішення проблем складних завдань. Таким чином, штучний інтелект працює в мультидоменних сценаріях. Команди агентів можуть працювати послідовно, ітеративно покращуючи попередні результати. Раніше MoA значно перевершував більші моделі, включаючи показник точності GPT-4 Omni 57,5% на AlpacaEval 2.0, навіть у моделях з відкритим вихідним кодом. Суміш агентів (MoA) працює на рівні виходів моделі, а не семантичних токенів. Він не має літникового шару, але пересилає текстовий запит усім агентам у паралельний спосіб. Виходи МОА також не агрегуються шляхом додавання і нормалізації. Замість цього вони об'єднуються і об'єднуються з підказкою синтезу і агрегації, перш ніж бути переданими в окрему модель для отримання кінцевого результату. Таким чином, моделі поділяються на «пропонанти», які обчислюють різноманітні вихідні дані, і «агрегатори», які інтегрують результати. Так само, як і для МОН, кілька таких шарів можна комбінувати. Відсутність літникових шарів робить цей підхід більш гнучким і пристосованим до складних завдань.
Економіка DeAI (Decentralized AI) є фундаментальним аспектом платформи Assisterr. Вона використовує технологію блокчейну для створення децентралізованого ринку для моделей та даних AI. Ця економіка стимулює спільний доступ до даних та співпрацю, забезпечуючи справедливу винагороду для учасників. Ключовими компонентами економіки DeAI є:
AssisterrAI надає єдину інфраструктурну трубопровід для створення, токенізації та розподілу невеликих мовних моделей (SLM) таким чином, що стимулює всі спільнотні внески. AI Lab дозволяє користувачам вносити внески у моделі у своїй області знань, стаючи як співтворцями, так і співвласниками AI. Цей підхід забезпечує, що робітники на годинних заробіток не лише заробляють одноразово, на транзакційній основі, але й захоплюють широкий ринковий потенціал, забезпечуючи краще майбутнє та роблячи людей бенефіціарів AI, а не жертвами прогресу та автоматизації.
Щоб отримати доступ до платформи, користувачі підключають браузерний гаманець Solana, а також свій профіль X і обліковий запис Discord. Потім вони можуть створювати моделі за допомогою вкладки AI Lab інтерфейсу користувача Assisterr, яка пропонує просту форму для вказівки ключових параметрів, шаблонів підказок і метаданих моделі. Користувачі можуть безпосередньо завантажувати дані, які будуть вбудовані в модель за допомогою пошукової розширеної генерації (RAG), а пізніше за допомогою тонкого налаштування. Після створення модель можна оприлюднити через магазин SLM. У майбутньому AI Lab прийме модульну, багатомодельну парадигму з архітектурою Mix of Agents і розширеними стратегіями пошуку.
Учасники Assisterr отримують винагороду за всі етапи створення моделі штучного інтелекту, від внеску даних і створення моделі до перевірки та перегляду. Цей механізм розподілу доходів реалізований за допомогою модуля токенізації SLM. AI Lab ефективно пов'язує бізнес-кейси використання з необхідними даними та досвідом. Як тільки модель з'являється на вкладці SLM Store інтерфейсу Assisterr, будь-який користувач може запитати її через інтерфейс чат-бота. Наразі боти допомагають у різних нішах в екосистемах Web3, охороні здоров'я, розробці програмного забезпечення та фінансах.
Кожна модель у магазині SLM поставляється з казначейством, виміряним у власній токені Assisterr, яке поповнюється з балансу відповідного користувача при кожному запиті. Запити можна розмістити з веб-інтерфейсу користувача з підключеним гаманцем Solana або через API, що дозволяє зробити моделі з магазину SLM доступними через інші додатки. Учасники можуть створювати SLM, складати їх у агентів та розгортати через інтерфейс без кодування, що забезпечує швидкий період виходу на ринок та швидкий цикл інновацій. Це вирішує проблеми розподілу та монетизації, з якими стикаються незалежні творці моделей та розробники.
Через вкладку Внести и Заробити користувачі можуть брати участь у ітеративних вдосконаленнях існуючих моделей з магазину SLM, виконуючи запити на дані та підтверджуючи показники продуктивності в обмін на токени управління (MTs) або місцевий токен Assisterr. Цей процес взаємної перевірки забезпечує постійну еволюцію та збільшену пропускну здатність у створенні моделей з часом. В поєднанні з функціями, такими як Мікс Агентів (MoA), це дозволяє накопичувати прогрес та безперервно вдосконалювати процес знизу вгору. Модульний та спеціалізований характер SLM дозволяє швидко інтегруватися в існуючі робочі конвеєри. У майбутньому підприємства або фізичні особи зможуть описати свої проблеми, і послуги Assisterr будуть включати відповідний пул SLMs/Агентів для знаходження рішення.
Native Assisterr токен - це засіб, за допомогою якого відбуваються операції в екосистемі AssisterrAI. Він трансакціонується відповідно до підтвердження дій, здійснених в рамках протоколів розумних контрактів на кожному етапі процесу розробки SLM. За допомогою цього токена учасники можуть користуватися можливостями екосистеми Assisterr, такими як доступ до продуктів, оплата комісій та сприяння у створенні, управлінні та монетизації SLM.
Децентралізовані фінанси (DeFi) ШІ-агенти є значною інновацією в просторі Web3. Перейшовши за межі загального призначення рекомендаційних систем, спеціалізовані ШІ, що працюють в межах безпечних, дозволених обмежень, можуть краще оптимізувати та автоматизувати фінансові портфелі. Агентичні SLM, створені для медіа з високою швидкістю транзакцій, таких як протоколи Solana DeFi, можуть покращити позику/позику, постійну торгівлю та стейкінг. Ці агенти забезпечують краще формування даних, багатомодальне мислення та глибкий функціональний аналіз через ансамблі SLM та сучасні консорціуми Mixture of Agents (MoA).
Торгові агенти, спеціально розроблені для складних торгівельних сценаріїв, можуть аналізувати кластери гаманців та тенденції цін, що є дуже корисними як на волатильному ринку DeFi, так і в традиційній фінансовій сфері (TradFi). MoA на основі SLM може бути особливо ефективним у стратегіях торгівлі, що базуються на даних, де виконавче середовище та метод є вирішальними. Ці агенти підвищують ефективність торгівлі та прибутковість, використовуючи передові алгоритми та дані в реальному часі.
Автономні агенти чату з високорозвинутими навчальними та аналітичними можливостями є цінними у науковій, соціальній і професійній сферах. Вони можуть служити як проксі-сервери підтримки для різних сервісів, підключаючись до соціальних мереж та IT-додатків. За допомогою включення функціоналу агентів, ці моделі підтримки в розмовах можуть діяти як посередники, реалізуючи функції на основі відгуків користувачів та надаючи практичну підтримку.
SLM можуть створювати текстові, аудіо- або відео-пов'язані проксі, створюючи аватари для глибокого, публічного виконання завдань. Ці аватари можуть керувати складними утилітами, такими як 3D аватари, автономне перетворення тексту на відео та інтеграції прямого ефіру на соціальних платформах. SLM-базований MoA може покращити мультимодальні взаємодії наступного покоління, зробивши публічні аватари більш інтерактивними та ефективними.
Запуск спеціалізованого концепції розробників веб3 (DevRel) на платформі AssisterrAI продемонстрував високу ринкову придатність. Робуста система DevRel є важливою для залучення розробників та надання всебічної підтримки при використанні технологічного стеку. Однак це пов'язано зі значними витратами, оскільки заробітні плати для ролей DevRel коливаються від 90 тис. до 200 тис. доларів на рік. Багато запитів на підтримку розробників передбачувані та можуть бути автоматизовані, що збільшує ефективність DevRel за допомогою цільового використання SLM. Цей підхід зменшує витрати, зберігаючи при цьому високоякісну підтримку для розробників.
1.Відвідайте веб-сайт Assisterr: Перейдіть до Веб-сайт Assisterrі натисніть на «Відкрити програму»
2. Підключіть свій гаманець: Натисніть кнопку «Вибрати гаманець» та підключіть свій браузерний гаманець Solana. Цей гаманець буде використовуватися для здійснення транзакцій та доступу до різних функцій на платформі.
3. Посилання на соціальні облікові записи: Підключіть свій профіль X та обліковий запис Discord. Ці зв'язки допомагають перевірити вашу особу та інтегрувати вашу соціальну присутність з екосистемою Assisterr.
4. Завершіть реєстрацію: Дотримуйтеся інструкцій на екрані, щоб завершити процес реєстрації. Після реєстрації ви можете почати досліджувати платформу та її функціонал.
1.Перейдіть в магазин SLM: Після входу перейдіть до Вкладка магазину SLM в інтерфейсі Assisterr.
2. Переглянути доступні моделі: Дослідіть різні малі мовні моделі (SLMs), доступні в магазині. Кожна модель призначена для конкретних завдань та галузей, таких як екосистеми Web3, охорона здоров'я, розробка програмного забезпечення та фінанси.
3. Моделі запитів: Ви можете запитувати будь-яку модель через інтерфейс чат-боту. Просто виберіть цікаву вас модель та почніть взаємодіяти з нею. Запити можна робити з веб-інтерфейсу з підключеним гаманцем Solana або через API для інтеграції з іншими додатками.
1.Отримайте доступ до AI Lab: перейдіть до Вкладка Лабораторія ШІна інтерфейсі Assisterr.
2. Вкажіть параметри моделі: Заповніть форму конфігурації для вказівки ключових параметрів, шаблонів підказок та метаданих для вашої моделі. Це включає визначення назви моделі, її ідентифікатора, опису мети, категорії, обкладинки, початкових розмовних реплік та набору даних. Ви також можете прискорити цей процес, використовуючи інтелектуального помічника AI.
3. Завантаження даних: безпосередньо завантажуйте дані, які будуть вбудовуватися у модель через покращення пошуком (RAG) та доведення до досконалості. Ці дані допомагають навчати модель виконувати заплановані завдання.
4.Опублікуйте свій SLM: налаштувавши модель, натисніть кнопку кнопки. Ваша модель буде згенерована, і ви зможете зробити її загальнодоступною в магазині SLM або зберегти її приватною. Якщо зробити її загальнодоступною, інші користувачі зможуть отримати доступ до вашої моделі та запитати її.
Assisterr, стартап з інфраструктури штучного інтелекту зі штаб-квартирою в Кембриджі, успішно завершив раунд попереднього навколофінансування на суму 1,7 мільйона доларів. У цьому раунді інвестицій брали участь провідні фонди венчурного капіталу Web3, включаючи Web3.com Ventures, Moonhill Capital, Contango, Outlier Ventures, Decasonic, Zephyrus Capital, Wise3 Ventures, Saxon, GFI Ventures, X Ventures, Koyamaki, Lucid Drakes Ventures, а також відомі ангели, такі як Майкл Гайнріх, Марк Райдон, Надер Дабіт, Ентоні Лесуазм'є-Женіо та Ітан Френсіс. Ці кошти були інструментальними у створенні фундаментальної інфраструктури Assisterr та запуску його платформи.
З моменту запуску Assisterr досяг значних досягнень, зокрема, привернувши 150 000 зареєстрованих користувачів та запустивши понад 60 малих мовних моделей (SLM) для провідних протоколів Web3, таких як Solana, Optimism, 0g.ai та NEAR. Крім того, Assisterr отримав визнання, перемігши в кількох глобальних хакатонах і взявши участь у програмі AI Startups від Google, забезпечивши 350 000 доларів фінансування для підтримки своїх потреб у GPU, CPU та хмарній інфраструктурі.
Assisterr має чітку дорожню карту для майбутнього зростання та розвитку. Ключові віхи включають:
AI Lab (Q4 2024)
Зростання мережі (перше півріччя 2025 року)
Суміш SLM-агентів (H2 2025)
Assisterr очолює нову децентралізовану, спільнотою володіють еру штучного інтелекту, використовуючи моделі малих мов (SLM) та інноваційні економічні моделі. Адресуючи обмеження великих мовних моделей (LLM) та пропагуючи співпрацю, Assisterr робить технологію штучного інтелекту більш доступною, ефективною та стійкою. Всеосяжна екосистема платформи, включаючи AI Labs, SLM Store та співпрацюючі елементи, дозволяє користувачам створювати, ділитися та монетизувати моделі штучного інтелекту.
Сьогоднішня промисловість штучного інтелекту стикається зі значними викликами через централізацію, коли значні досягнення часто контролюються кількома великими корпораціями. Це призводить до стурбованості щодо конфіденційності даних, монополістичних практик та обмеженого доступу до передових технологій. Крім того, перенасиченість Великих Мовних Моделей (ВММ), таких як GPT-3, незважаючи на їх можливості, викликає проблеми, такі як високі обчислювальні витрати, навколишній вплив та потенційні упередженості в даних, на яких вони навчаються. Ці моделі потребують великих обсягів даних та ресурсів, що робить їх доступними лише для добре фінансованих організацій.
Assisterr змагається з цими викликами, впроваджуючи Малі мовні моделі (СММ) та сприяючи спільнотно-власницькому підходу до розробки ШІ. СММ призначені бути більш ефективними, вимагаючи менше обчислювальної потужності та даних, при цьому забезпечуючи високу продуктивність, що робить технології ШІ більш доступними та стійкими. Більше того, спільнотно-власницькі моделі та ШІ-агенти Assisterr надають користувачам можливість внести свій внесок у розвиток ШІ та отримати вигоду від досягнень в цій галузі, сприяючи інноваціям та інклюзивності та забезпечуючи більш широке поширення переваг ШІ по всьому суспільству.
Джерело: веб-сайт Assisterr
Assisterr AI - це децентралізована платформа штучного інтелекту, розроблена для демократизації доступу до штучного інтелекту за допомогою Малих Мовних Моделей (SLM) та AI-агентів, що належать спільноті. Її основна мета - надати більш ефективну, доступну та стійку альтернативу традиційним моделям штучного інтелекту, вирішуючи обмеження Великих Мовних Моделей (LLM) та сприяючи спільнотному екосистемі штучного інтелекту.
Великі мовні моделі (LLM) такі як GPT-3 та BERT - це моделі штучного інтелекту, навчені на величезних обсягах текстових даних для розуміння та генерації мови, схожої на людську. Вони здатні виконувати широкий спектр завдань, від завершення тексту до перекладу та узагальнення. Однак у LLM є кілька помітних недоліків:
Малі мовні моделі (SLM), хоча і схожі за концепцією на LLM, розроблені таким чином, щоб бути більш точними, спеціалізованими та ефективними. Зосереджуючись на конкретних завданнях і наборах даних, SLM забезпечують чудову продуктивність для нішевих додатків, що робить їх кращими для спеціалізованих випадків використання. Використовуючи індивідуальні набори даних і зосереджуючись на конкретних бізнес-потребах, SLM можуть забезпечити чудову продуктивність і ситуаційну адаптивність за невелику частину вартості. Це також є обнадійливим для створення SLM з відкритим вихідним кодом, де дешевші проєкти раніше розробляли SLM з конкурентоспроможною точністю, ніж досвідчені LLM за набагато нижчими цінами.
Невелика мовні моделі (SLM) є основою технології Assisterr. На відміну від великих мовних моделей (LLM), SLM призначені для більш ефективної та спеціалізованої роботи. Вони фокусуються на конкретних завданнях та наборах даних, що дозволяє їм забезпечувати відмінну продуктивність для нішевих застосувань. Ця спеціалізація робить SLM більш доступними та стабільними, оскільки вони потребують менше обчислювальної потужності та даних.
Для розв’язання обмежень агентів на основі LLM з’явилися високорозвинуті підходи, що включають кілька невеликих мовних моделей (SLM), які працюють в колаборативних агентичних фреймворках. При розробці штучних інтелектуальних агентів з ансамблями SLM використовуються дві основні підходи: суміші експертів (MoE) та суміші агентів (MoA).
Змішані експерти (MoE)
Джерело: Assisterr Litepaper
При об'єднанні в ансамблі МНС сучасне міркування СЛМ може досягти підвищеної гнучкості навчання, не втрачаючи при цьому своєї здатності до функціонального вирішення проблем. Ансамблеве навчання може поєднувати навички міркування кількох менших моделей, кожна з яких спеціалізується на різних пов'язаних контекстах, для вирішення складних проблем. Це породжує гібридне розуміння, яке продовжує дозволяти штучному інтелекту глибоко занурюватися. Шари експертів самі можуть складатися з МОН, створюючи ієрархічні структури для подальшого буферизації контекстуальної складності та майстерності вирішення проблем. MoE зазвичай використовує розріджений шар, який динамічно вибирає між кількома паралельними мережами, щоб дати найбільш відповідну відповідь на запит. Щоб досягти більш гнучких відповідей, окремі експерти можуть бути налаштовані на генерацію коду, переклад або аналіз настроїв. Більш складні архітектури MoE можуть містити кілька таких рівнів MoE у поєднанні з іншими компонентами. Як і будь-яка типова архітектура мовної моделі, рівень МОН оперує семантичними токенами і вимагає навчання.
Змішані речовини (MoA)
При об'єднанні в архітектуру MoA SLM підвищують вибірковість різноманітних ансамблів міркувань, дозволяючи штучному інтелекту виконувати завдання з необхідною методологією. Агентні моделі збираються в консорціумі, який нашаровує протоколи виконання для підвищення ефективності та вирішення проблем складних завдань. Таким чином, штучний інтелект працює в мультидоменних сценаріях. Команди агентів можуть працювати послідовно, ітеративно покращуючи попередні результати. Раніше MoA значно перевершував більші моделі, включаючи показник точності GPT-4 Omni 57,5% на AlpacaEval 2.0, навіть у моделях з відкритим вихідним кодом. Суміш агентів (MoA) працює на рівні виходів моделі, а не семантичних токенів. Він не має літникового шару, але пересилає текстовий запит усім агентам у паралельний спосіб. Виходи МОА також не агрегуються шляхом додавання і нормалізації. Замість цього вони об'єднуються і об'єднуються з підказкою синтезу і агрегації, перш ніж бути переданими в окрему модель для отримання кінцевого результату. Таким чином, моделі поділяються на «пропонанти», які обчислюють різноманітні вихідні дані, і «агрегатори», які інтегрують результати. Так само, як і для МОН, кілька таких шарів можна комбінувати. Відсутність літникових шарів робить цей підхід більш гнучким і пристосованим до складних завдань.
Економіка DeAI (Decentralized AI) є фундаментальним аспектом платформи Assisterr. Вона використовує технологію блокчейну для створення децентралізованого ринку для моделей та даних AI. Ця економіка стимулює спільний доступ до даних та співпрацю, забезпечуючи справедливу винагороду для учасників. Ключовими компонентами економіки DeAI є:
AssisterrAI надає єдину інфраструктурну трубопровід для створення, токенізації та розподілу невеликих мовних моделей (SLM) таким чином, що стимулює всі спільнотні внески. AI Lab дозволяє користувачам вносити внески у моделі у своїй області знань, стаючи як співтворцями, так і співвласниками AI. Цей підхід забезпечує, що робітники на годинних заробіток не лише заробляють одноразово, на транзакційній основі, але й захоплюють широкий ринковий потенціал, забезпечуючи краще майбутнє та роблячи людей бенефіціарів AI, а не жертвами прогресу та автоматизації.
Щоб отримати доступ до платформи, користувачі підключають браузерний гаманець Solana, а також свій профіль X і обліковий запис Discord. Потім вони можуть створювати моделі за допомогою вкладки AI Lab інтерфейсу користувача Assisterr, яка пропонує просту форму для вказівки ключових параметрів, шаблонів підказок і метаданих моделі. Користувачі можуть безпосередньо завантажувати дані, які будуть вбудовані в модель за допомогою пошукової розширеної генерації (RAG), а пізніше за допомогою тонкого налаштування. Після створення модель можна оприлюднити через магазин SLM. У майбутньому AI Lab прийме модульну, багатомодельну парадигму з архітектурою Mix of Agents і розширеними стратегіями пошуку.
Учасники Assisterr отримують винагороду за всі етапи створення моделі штучного інтелекту, від внеску даних і створення моделі до перевірки та перегляду. Цей механізм розподілу доходів реалізований за допомогою модуля токенізації SLM. AI Lab ефективно пов'язує бізнес-кейси використання з необхідними даними та досвідом. Як тільки модель з'являється на вкладці SLM Store інтерфейсу Assisterr, будь-який користувач може запитати її через інтерфейс чат-бота. Наразі боти допомагають у різних нішах в екосистемах Web3, охороні здоров'я, розробці програмного забезпечення та фінансах.
Кожна модель у магазині SLM поставляється з казначейством, виміряним у власній токені Assisterr, яке поповнюється з балансу відповідного користувача при кожному запиті. Запити можна розмістити з веб-інтерфейсу користувача з підключеним гаманцем Solana або через API, що дозволяє зробити моделі з магазину SLM доступними через інші додатки. Учасники можуть створювати SLM, складати їх у агентів та розгортати через інтерфейс без кодування, що забезпечує швидкий період виходу на ринок та швидкий цикл інновацій. Це вирішує проблеми розподілу та монетизації, з якими стикаються незалежні творці моделей та розробники.
Через вкладку Внести и Заробити користувачі можуть брати участь у ітеративних вдосконаленнях існуючих моделей з магазину SLM, виконуючи запити на дані та підтверджуючи показники продуктивності в обмін на токени управління (MTs) або місцевий токен Assisterr. Цей процес взаємної перевірки забезпечує постійну еволюцію та збільшену пропускну здатність у створенні моделей з часом. В поєднанні з функціями, такими як Мікс Агентів (MoA), це дозволяє накопичувати прогрес та безперервно вдосконалювати процес знизу вгору. Модульний та спеціалізований характер SLM дозволяє швидко інтегруватися в існуючі робочі конвеєри. У майбутньому підприємства або фізичні особи зможуть описати свої проблеми, і послуги Assisterr будуть включати відповідний пул SLMs/Агентів для знаходження рішення.
Native Assisterr токен - це засіб, за допомогою якого відбуваються операції в екосистемі AssisterrAI. Він трансакціонується відповідно до підтвердження дій, здійснених в рамках протоколів розумних контрактів на кожному етапі процесу розробки SLM. За допомогою цього токена учасники можуть користуватися можливостями екосистеми Assisterr, такими як доступ до продуктів, оплата комісій та сприяння у створенні, управлінні та монетизації SLM.
Децентралізовані фінанси (DeFi) ШІ-агенти є значною інновацією в просторі Web3. Перейшовши за межі загального призначення рекомендаційних систем, спеціалізовані ШІ, що працюють в межах безпечних, дозволених обмежень, можуть краще оптимізувати та автоматизувати фінансові портфелі. Агентичні SLM, створені для медіа з високою швидкістю транзакцій, таких як протоколи Solana DeFi, можуть покращити позику/позику, постійну торгівлю та стейкінг. Ці агенти забезпечують краще формування даних, багатомодальне мислення та глибкий функціональний аналіз через ансамблі SLM та сучасні консорціуми Mixture of Agents (MoA).
Торгові агенти, спеціально розроблені для складних торгівельних сценаріїв, можуть аналізувати кластери гаманців та тенденції цін, що є дуже корисними як на волатильному ринку DeFi, так і в традиційній фінансовій сфері (TradFi). MoA на основі SLM може бути особливо ефективним у стратегіях торгівлі, що базуються на даних, де виконавче середовище та метод є вирішальними. Ці агенти підвищують ефективність торгівлі та прибутковість, використовуючи передові алгоритми та дані в реальному часі.
Автономні агенти чату з високорозвинутими навчальними та аналітичними можливостями є цінними у науковій, соціальній і професійній сферах. Вони можуть служити як проксі-сервери підтримки для різних сервісів, підключаючись до соціальних мереж та IT-додатків. За допомогою включення функціоналу агентів, ці моделі підтримки в розмовах можуть діяти як посередники, реалізуючи функції на основі відгуків користувачів та надаючи практичну підтримку.
SLM можуть створювати текстові, аудіо- або відео-пов'язані проксі, створюючи аватари для глибокого, публічного виконання завдань. Ці аватари можуть керувати складними утилітами, такими як 3D аватари, автономне перетворення тексту на відео та інтеграції прямого ефіру на соціальних платформах. SLM-базований MoA може покращити мультимодальні взаємодії наступного покоління, зробивши публічні аватари більш інтерактивними та ефективними.
Запуск спеціалізованого концепції розробників веб3 (DevRel) на платформі AssisterrAI продемонстрував високу ринкову придатність. Робуста система DevRel є важливою для залучення розробників та надання всебічної підтримки при використанні технологічного стеку. Однак це пов'язано зі значними витратами, оскільки заробітні плати для ролей DevRel коливаються від 90 тис. до 200 тис. доларів на рік. Багато запитів на підтримку розробників передбачувані та можуть бути автоматизовані, що збільшує ефективність DevRel за допомогою цільового використання SLM. Цей підхід зменшує витрати, зберігаючи при цьому високоякісну підтримку для розробників.
1.Відвідайте веб-сайт Assisterr: Перейдіть до Веб-сайт Assisterrі натисніть на «Відкрити програму»
2. Підключіть свій гаманець: Натисніть кнопку «Вибрати гаманець» та підключіть свій браузерний гаманець Solana. Цей гаманець буде використовуватися для здійснення транзакцій та доступу до різних функцій на платформі.
3. Посилання на соціальні облікові записи: Підключіть свій профіль X та обліковий запис Discord. Ці зв'язки допомагають перевірити вашу особу та інтегрувати вашу соціальну присутність з екосистемою Assisterr.
4. Завершіть реєстрацію: Дотримуйтеся інструкцій на екрані, щоб завершити процес реєстрації. Після реєстрації ви можете почати досліджувати платформу та її функціонал.
1.Перейдіть в магазин SLM: Після входу перейдіть до Вкладка магазину SLM в інтерфейсі Assisterr.
2. Переглянути доступні моделі: Дослідіть різні малі мовні моделі (SLMs), доступні в магазині. Кожна модель призначена для конкретних завдань та галузей, таких як екосистеми Web3, охорона здоров'я, розробка програмного забезпечення та фінанси.
3. Моделі запитів: Ви можете запитувати будь-яку модель через інтерфейс чат-боту. Просто виберіть цікаву вас модель та почніть взаємодіяти з нею. Запити можна робити з веб-інтерфейсу з підключеним гаманцем Solana або через API для інтеграції з іншими додатками.
1.Отримайте доступ до AI Lab: перейдіть до Вкладка Лабораторія ШІна інтерфейсі Assisterr.
2. Вкажіть параметри моделі: Заповніть форму конфігурації для вказівки ключових параметрів, шаблонів підказок та метаданих для вашої моделі. Це включає визначення назви моделі, її ідентифікатора, опису мети, категорії, обкладинки, початкових розмовних реплік та набору даних. Ви також можете прискорити цей процес, використовуючи інтелектуального помічника AI.
3. Завантаження даних: безпосередньо завантажуйте дані, які будуть вбудовуватися у модель через покращення пошуком (RAG) та доведення до досконалості. Ці дані допомагають навчати модель виконувати заплановані завдання.
4.Опублікуйте свій SLM: налаштувавши модель, натисніть кнопку кнопки. Ваша модель буде згенерована, і ви зможете зробити її загальнодоступною в магазині SLM або зберегти її приватною. Якщо зробити її загальнодоступною, інші користувачі зможуть отримати доступ до вашої моделі та запитати її.
Assisterr, стартап з інфраструктури штучного інтелекту зі штаб-квартирою в Кембриджі, успішно завершив раунд попереднього навколофінансування на суму 1,7 мільйона доларів. У цьому раунді інвестицій брали участь провідні фонди венчурного капіталу Web3, включаючи Web3.com Ventures, Moonhill Capital, Contango, Outlier Ventures, Decasonic, Zephyrus Capital, Wise3 Ventures, Saxon, GFI Ventures, X Ventures, Koyamaki, Lucid Drakes Ventures, а також відомі ангели, такі як Майкл Гайнріх, Марк Райдон, Надер Дабіт, Ентоні Лесуазм'є-Женіо та Ітан Френсіс. Ці кошти були інструментальними у створенні фундаментальної інфраструктури Assisterr та запуску його платформи.
З моменту запуску Assisterr досяг значних досягнень, зокрема, привернувши 150 000 зареєстрованих користувачів та запустивши понад 60 малих мовних моделей (SLM) для провідних протоколів Web3, таких як Solana, Optimism, 0g.ai та NEAR. Крім того, Assisterr отримав визнання, перемігши в кількох глобальних хакатонах і взявши участь у програмі AI Startups від Google, забезпечивши 350 000 доларів фінансування для підтримки своїх потреб у GPU, CPU та хмарній інфраструктурі.
Assisterr має чітку дорожню карту для майбутнього зростання та розвитку. Ключові віхи включають:
AI Lab (Q4 2024)
Зростання мережі (перше півріччя 2025 року)
Суміш SLM-агентів (H2 2025)
Assisterr очолює нову децентралізовану, спільнотою володіють еру штучного інтелекту, використовуючи моделі малих мов (SLM) та інноваційні економічні моделі. Адресуючи обмеження великих мовних моделей (LLM) та пропагуючи співпрацю, Assisterr робить технологію штучного інтелекту більш доступною, ефективною та стійкою. Всеосяжна екосистема платформи, включаючи AI Labs, SLM Store та співпрацюючі елементи, дозволяє користувачам створювати, ділитися та монетизувати моделі штучного інтелекту.