Звіт про дослідження AI Layer1: пошук родючих ґрунтів для DeAI у блокчейні
Огляд
Фон
У останні роки провідні технологічні компанії, такі як OpenAI, Anthropic, Google, Meta, постійно сприяють стрімкому розвитку великих мовних моделей. Великі мовні моделі демонструють безпрецедентні можливості в різних галузях, значно розширюючи людський уявний простір і навіть в деяких випадках показуючи потенціал заміни людської праці. Однак основні технології міцно контролюються лише кількома централізованими технологічними гігантами. Завдяки потужному капіталу та контролю за дорогими обчислювальними ресурсами ці компанії створили непереборні бар'єри, що ускладнює більшості розробників і інноваційних команд змагатися з ними.
Водночас, на початку швидкого розвитку ШІ суспільна думка часто зосереджена на прориві та зручностях, які приносить технологія, тоді як увага до таких ключових питань, як захист приватності, прозорість та безпека, є відносно недостатньою. У довгостроковій перспективі ці питання глибоко вплинуть на здоровий розвиток індустрії ШІ та соціальну прийнятність. Якщо ці проблеми не будуть належним чином вирішені, суперечки про те, чи «направлено» ШІ на добро, чи на зло, будуть все більш актуальними, а централізовані гіганти, керуючись інстинктом прибутковості, часто не мають достатньої мотивації, щоб активно реагувати на ці виклики.
Технологія блокчейн, завдяки своїм децентралізованим, прозорим та стійким до цензури характеристикам, відкриває нові можливості для сталого розвитку індустрії штучного інтелекту. Наразі на ряді провідних блокчейнів вже з'явилися численні "Web3 AI" додатки. Проте при глибшому аналізі можна виявити, що ці проекти все ще мають багато проблем: з одного боку, ступінь децентралізації обмежений, ключові етапи та інфраструктура все ще залежать від централізованих хмарних сервісів, що ускладнює підтримку дійсно відкритої екосистеми; з іншого боку, у порівнянні з AI-продуктами світу Web2, у блокчейн AI є обмеження в можливостях моделей, використанні даних та сценаріях застосування, глибина та ширина інновацій потребують покращення.
Щоб справді реалізувати бачення децентралізованого ШІ, необхідно, щоб у блокчейні безпечно, ефективно та демократично розміщувалися масові AI-застосунки, а також щоб його продуктивність конкурувала з централізованими рішеннями. Нам потрібно спроектувати Layer1 блокчейн, спеціально створений для AI. Це забезпечить міцну основу для відкритих інновацій у сфері AI, демократичного управління та безпеки даних, сприяючи процвітанню децентралізованої екосистеми AI.
Основні характеристики AI Layer 1
AI Layer 1 як блокчейн, спеціально розроблений для AI-додатків, має архітектуру та дизайн продуктивності, які тісно пов'язані з вимогами AI-завдань, і має на меті ефективно підтримувати сталий розвиток та процвітання екосистеми AI у блокчейні. Конкретно кажучи, AI Layer 1 повинен мати такі ключові можливості:
Ефективні стимули та механізм децентралізованого консенсусу. Ядро AI Layer 1 полягає у створенні відкритої мережі спільних ресурсів, таких як обчислювальна потужність та зберігання. На відміну від традиційних вузлів блокчейну, які головним чином зосереджені на веденні обліку, вузли AI Layer 1 повинні виконувати більш складні завдання, не лише надаючи обчислювальну потужність, завершуючи навчання і розуміння AI моделей, але й вносячи різноманітні ресурси, такі як зберігання, дані та пропускна здатність, щоб зламати монополію централізованих гігантів у інфраструктурі AI. Це ставить вищі вимоги до базового консенсусу та механізмів стимулювання: AI Layer 1 повинен бути здатний точно оцінювати, стимулювати та перевіряти фактичний внесок вузлів у завдання, пов'язані з AI-інференцією та навчанням, щоб забезпечити безпеку мережі та ефективний розподіл ресурсів. Лише так можна гарантувати стабільність і процвітання мережі, а також ефективно зменшити загальні витрати на обчислювальну потужність.
Висока продуктивність і підтримка гетерогенних завдань Завдання AI, особливо навчання та інференс великих мовних моделей, вимагають дуже високих обчислювальних потужностей і можливостей паралельної обробки. Далі, екосистема AI у блокчейні часто повинна підтримувати різноманітні, гетерогенні типи завдань, включаючи різні структури моделей, обробку даних, інференс, зберігання та інші різноманітні сценарії. AI Layer 1 повинен бути глибоко оптимізований на базовій архітектурі для потреб високої пропускної спроможності, низької затримки та еластичної паралельності, а також мати вбудовану підтримку гетерогенних обчислювальних ресурсів, щоб забезпечити ефективну роботу різних завдань AI, реалізуючи плавне розширення від "однорідних завдань" до "складних різноманітних екосистем".
Верифікація та гарантія надійного виходу AI Layer 1 повинні не лише запобігати зловживанням моделлю, змінам даних та іншим загрозам безпеці, але й забезпечувати верифікацію та узгодженість виходу AI з самого нижнього рівня механізму. Завдяки інтеграції надійного середовища виконання, доказів з нульовими знаннями, багатосторонніх безпечних обчислень та інших передових технологій, платформа дозволяє незалежно перевіряти кожен процес інфервування моделі, навчання та обробки даних, забезпечуючи справедливість та прозорість системи AI. Водночас така верифікація може допомогти користувачам чітко зрозуміти логіку та підстави виходу AI, реалізуючи "отримане - це бажане", підвищуючи довіру та задоволеність користувачів продуктами AI.
Захист конфіденційності даних Додатки штучного інтелекту часто пов'язані з чутливими даними користувачів, особливо у фінансовій, медичній, соціальній сферах, захист конфіденційності даних є надзвичайно важливим. AI Layer 1 повинен забезпечити верифікацію, одночасно застосовуючи технології обробки даних на основі шифрування, протоколи конфіденційних обчислень та управління правами доступу до даних, щоб забезпечити безпеку даних у всьому процесі, включаючи інференцію, навчання та зберігання, ефективно запобігаючи витоку та зловживанню даними, усуваючи побоювання користувачів щодо безпеки даних.
Потужна екосистема та підтримка розробки Як AI-оригінальна Layer 1 інфраструктура, платформа повинна не лише мати технологічну перевагу, але й забезпечувати розробників, операторів вузлів, постачальників AI послуг та інших учасників екосистеми повноцінними інструментами для розробки, інтегрованими SDK, підтримкою експлуатації та механізмами заохочення. Через постійне вдосконалення доступності платформи та досвіду розробників, сприяти впровадженню різноманітних додатків AI-оригіналу, забезпечуючи сталий розвиток децентралізованої AI екосистеми.
Виходячи з вищезазначеного контексту та очікувань, у цій статті буде детально представлено шість представницьких проектів AI Layer1, включаючи Sentient, Sahara AI, Ritual, Gensyn, Bittensor та 0G, систематизовано останні досягнення в галузі, проаналізовано сучасний стан розвитку проектів та обговорено майбутні тенденції.
Sentient: побудова вірних відкритих децентралізованих AI моделей
Огляд проекту
Sentient є відкритою платформою протоколів, яка створює AI Layer1 у блокчейні ( на початковій стадії як Layer 2, а згодом буде перенесена на Layer 1). Поєднуючи AI Pipeline та технології блокчейну, вона будує децентралізовану економіку штучного інтелекту. Її основна мета полягає в тому, щоб за допомогою структури "OML" (відкритої, прибуткової, лояльної) вирішити проблеми власності моделей, відстеження викликів та розподілу вартості на централізованому ринку великих мовних моделей, щоб AI моделі реалізували структуру власності у блокчейні, прозорість викликів та розподіл вартості. Візія Sentient полягає в тому, щоб дати можливість кожному створювати, співпрацювати, володіти та монетизувати AI продукти, тим самим сприяючи справедливій та відкритій екосистемі мережі AI Agent.
Команда Sentient Foundation об'єднала провідних академічних експертів, підприємців у сфері блокчейн та інженерів з усього світу, яка прагне створити спільноту, що керується, з відкритим кодом та перевірювану платформу AGI. До складу основних учасників входять професор Принстонського університету Прамод Вісванат та професор Індійського інституту науки Хіманшу Тягі, які відповідають за безпеку та захист конфіденційності AI, в той час як співзасновник Polygon Сандіп Найлвал очолює стратегію блокчейн та екологічне планування. Члени команди мають досвід роботи в таких відомих компаніях, як Meta, Coinbase, Polygon, а також в провідних університетах, таких як Принстонський університет та Індійський технологічний інститут, охоплюючи сфери AI/ML, NLP, комп'ютерного зору та спільно працюють над реалізацією проекту.
Як повторний проєкт засновника Polygon Sandeep Nailwal, Sentient з самого початку мав ауру успіху, володіючи багатими ресурсами, зв'язками та ринковою впізнаваністю, що забезпечило потужну підтримку для розвитку проєкту. У середині 2024 року Sentient завершив фінансування на стадії сімена в розмірі 85 мільйонів доларів, яке очолили Founders Fund, Pantera та Framework Ventures, а також інші інвестиційні установи, включаючи Delphi, Hashkey та десятки інших відомих VC.
Проектування архітектури та прикладного рівня
Інфраструктурний рівень
Ядро архітектури
Основна архітектура Sentient складається з двох частин: AI Pipeline та у блокчейні.
AI трубопровід є основою для розробки та навчання "вірного AI" артефактів, що включає два основних процеси:
Планування даних (Data Curation): процес вибору даних, що здійснюється спільнотою, для вирівнювання моделі.
Тренування лояльності (Loyalty Training): забезпечення того, щоб модель підтримувала процес навчання, який відповідає намірам спільноти.
Блокчейн-система забезпечує прозорість і децентралізований контроль для протоколу, гарантуючи право власності на AI артефакти, відстеження використання, розподіл доходів та справедливе управління. Конкретна архітектура поділяється на чотири шари:
Шар зберігання: зберігання ваг моделей та інформації про реєстрацію відбитків.
Розподільчий рівень: вхід для виклику моделі контролю контрактів авторизації;
Доступний рівень: перевірка правомочності для підтвердження авторизації користувача;
Мотиваційний рівень: контракт маршрутизації доходів буде кожного разу при виклику виплачувати винагороду тренерам, розробникам та валідаціям.
OML модельна структура
OML фреймворк (Відкритий Open, Монетизований Monetizable, Лояльний Loyal) є основною концепцією, запропонованою Sentient, метою якої є забезпечення чіткої правової захищеності власності та економічних стимулів для відкритих AI моделей. Поєднуючи технології у блокчейні та рідну криптографію AI, має такі характеристики:
Відкритість: Модель повинна бути з відкритим вихідним кодом, код і структура даних повинні бути прозорими, щоб спростити відтворення, аудит і вдосконалення з боку спільноти.
Монетизація: кожен виклик моделі буде ініціювати потік доходів, у блокчейні контракт буде розподіляти доходи між тренерами, розробниками та валідарами.
Вірність: Модель належить спільноті контрибуторів, напрямок оновлення та управління визначається DAO, використання та модифікація контролюються криптомеханізмами.
AI нативна криптографія (AI-native Cryptography)
AI-оригінальне шифрування використовує безперервність AI-моделей, структуру низьковимірних многовидів та диференційовані властивості моделей для розробки "перевірних, але невидимих" легковагових механізмів безпеки. Його основна технологія це:
Вбудовування відбитків: під час навчання вставляється набір прихованих пар запит-відповідь для формування унікального підпису моделі;
Протокол верифікації прав власності: перевірка наявності відбитка пальця через сторонній детектор (Prover) у формі запиту query;
Механізм дозволу на виклик: перед викликом потрібно отримати "сертифікат дозволу", виданий власником моделі, на основі якого система надає дозвіл моделі декодувати цей вхід та повернути точну відповідь.
Цей спосіб дозволяє реалізувати "авторизацію на основі поведінки + верифікацію належності" без витрат на повторне шифрування.
Модель підтвердження прав і безпечного виконання
Sentient наразі використовує Melange змішану безпеку: поєднання підтвердження особи за допомогою відбитків пальців, виконання TEE та розподіл прибутку за контрактами у блокчейні. Серед методів підтвердження особи основним є OML 1.0, що акцентує увагу на ідеї "оптимістичної безпеки (Optimistic Security)", тобто за замовчуванням вважається, що все відповідає вимогам, а порушення можуть бути виявлені та покарані.
Механізм відбитків пальців є ключовою реалізацією OML, який шляхом вбудовування специфічних "питань-відповідей" дозволяє моделі генерувати унікальний підпис на етапі навчання. Завдяки цим підписам, власники моделей можуть перевіряти приналежність, запобігаючи несанкціонованому копіюванню та комерціалізації. Цей механізм не лише захищає права розробників моделей, але й забезпечує можливість відстеження поведінки використання моделей у блокчейні.
Крім того, Sentient запустила обчислювальну платформу Enclave TEE, яка використовує довірене середовище виконання для забезпечення того, щоб моделі реагували лише на авторизовані запити, запобігаючи несанкціонованому доступу та використанню. Хоча TEE залежить від апаратного забезпечення і має певні ризики безпеки, його висока продуктивність і переваги в реальному часі роблять його основною технологією для розгортання моделей.
У майбутньому Sentient планує впровадити нульове знання
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Дослідження траси AI Layer1: Ключова інфраструктура для побудови децентралізованої екосистеми AI
Звіт про дослідження AI Layer1: пошук родючих ґрунтів для DeAI у блокчейні
Огляд
Фон
У останні роки провідні технологічні компанії, такі як OpenAI, Anthropic, Google, Meta, постійно сприяють стрімкому розвитку великих мовних моделей. Великі мовні моделі демонструють безпрецедентні можливості в різних галузях, значно розширюючи людський уявний простір і навіть в деяких випадках показуючи потенціал заміни людської праці. Однак основні технології міцно контролюються лише кількома централізованими технологічними гігантами. Завдяки потужному капіталу та контролю за дорогими обчислювальними ресурсами ці компанії створили непереборні бар'єри, що ускладнює більшості розробників і інноваційних команд змагатися з ними.
Водночас, на початку швидкого розвитку ШІ суспільна думка часто зосереджена на прориві та зручностях, які приносить технологія, тоді як увага до таких ключових питань, як захист приватності, прозорість та безпека, є відносно недостатньою. У довгостроковій перспективі ці питання глибоко вплинуть на здоровий розвиток індустрії ШІ та соціальну прийнятність. Якщо ці проблеми не будуть належним чином вирішені, суперечки про те, чи «направлено» ШІ на добро, чи на зло, будуть все більш актуальними, а централізовані гіганти, керуючись інстинктом прибутковості, часто не мають достатньої мотивації, щоб активно реагувати на ці виклики.
Технологія блокчейн, завдяки своїм децентралізованим, прозорим та стійким до цензури характеристикам, відкриває нові можливості для сталого розвитку індустрії штучного інтелекту. Наразі на ряді провідних блокчейнів вже з'явилися численні "Web3 AI" додатки. Проте при глибшому аналізі можна виявити, що ці проекти все ще мають багато проблем: з одного боку, ступінь децентралізації обмежений, ключові етапи та інфраструктура все ще залежать від централізованих хмарних сервісів, що ускладнює підтримку дійсно відкритої екосистеми; з іншого боку, у порівнянні з AI-продуктами світу Web2, у блокчейн AI є обмеження в можливостях моделей, використанні даних та сценаріях застосування, глибина та ширина інновацій потребують покращення.
Щоб справді реалізувати бачення децентралізованого ШІ, необхідно, щоб у блокчейні безпечно, ефективно та демократично розміщувалися масові AI-застосунки, а також щоб його продуктивність конкурувала з централізованими рішеннями. Нам потрібно спроектувати Layer1 блокчейн, спеціально створений для AI. Це забезпечить міцну основу для відкритих інновацій у сфері AI, демократичного управління та безпеки даних, сприяючи процвітанню децентралізованої екосистеми AI.
Основні характеристики AI Layer 1
AI Layer 1 як блокчейн, спеціально розроблений для AI-додатків, має архітектуру та дизайн продуктивності, які тісно пов'язані з вимогами AI-завдань, і має на меті ефективно підтримувати сталий розвиток та процвітання екосистеми AI у блокчейні. Конкретно кажучи, AI Layer 1 повинен мати такі ключові можливості:
Ефективні стимули та механізм децентралізованого консенсусу. Ядро AI Layer 1 полягає у створенні відкритої мережі спільних ресурсів, таких як обчислювальна потужність та зберігання. На відміну від традиційних вузлів блокчейну, які головним чином зосереджені на веденні обліку, вузли AI Layer 1 повинні виконувати більш складні завдання, не лише надаючи обчислювальну потужність, завершуючи навчання і розуміння AI моделей, але й вносячи різноманітні ресурси, такі як зберігання, дані та пропускна здатність, щоб зламати монополію централізованих гігантів у інфраструктурі AI. Це ставить вищі вимоги до базового консенсусу та механізмів стимулювання: AI Layer 1 повинен бути здатний точно оцінювати, стимулювати та перевіряти фактичний внесок вузлів у завдання, пов'язані з AI-інференцією та навчанням, щоб забезпечити безпеку мережі та ефективний розподіл ресурсів. Лише так можна гарантувати стабільність і процвітання мережі, а також ефективно зменшити загальні витрати на обчислювальну потужність.
Висока продуктивність і підтримка гетерогенних завдань Завдання AI, особливо навчання та інференс великих мовних моделей, вимагають дуже високих обчислювальних потужностей і можливостей паралельної обробки. Далі, екосистема AI у блокчейні часто повинна підтримувати різноманітні, гетерогенні типи завдань, включаючи різні структури моделей, обробку даних, інференс, зберігання та інші різноманітні сценарії. AI Layer 1 повинен бути глибоко оптимізований на базовій архітектурі для потреб високої пропускної спроможності, низької затримки та еластичної паралельності, а також мати вбудовану підтримку гетерогенних обчислювальних ресурсів, щоб забезпечити ефективну роботу різних завдань AI, реалізуючи плавне розширення від "однорідних завдань" до "складних різноманітних екосистем".
Верифікація та гарантія надійного виходу AI Layer 1 повинні не лише запобігати зловживанням моделлю, змінам даних та іншим загрозам безпеці, але й забезпечувати верифікацію та узгодженість виходу AI з самого нижнього рівня механізму. Завдяки інтеграції надійного середовища виконання, доказів з нульовими знаннями, багатосторонніх безпечних обчислень та інших передових технологій, платформа дозволяє незалежно перевіряти кожен процес інфервування моделі, навчання та обробки даних, забезпечуючи справедливість та прозорість системи AI. Водночас така верифікація може допомогти користувачам чітко зрозуміти логіку та підстави виходу AI, реалізуючи "отримане - це бажане", підвищуючи довіру та задоволеність користувачів продуктами AI.
Захист конфіденційності даних Додатки штучного інтелекту часто пов'язані з чутливими даними користувачів, особливо у фінансовій, медичній, соціальній сферах, захист конфіденційності даних є надзвичайно важливим. AI Layer 1 повинен забезпечити верифікацію, одночасно застосовуючи технології обробки даних на основі шифрування, протоколи конфіденційних обчислень та управління правами доступу до даних, щоб забезпечити безпеку даних у всьому процесі, включаючи інференцію, навчання та зберігання, ефективно запобігаючи витоку та зловживанню даними, усуваючи побоювання користувачів щодо безпеки даних.
Потужна екосистема та підтримка розробки Як AI-оригінальна Layer 1 інфраструктура, платформа повинна не лише мати технологічну перевагу, але й забезпечувати розробників, операторів вузлів, постачальників AI послуг та інших учасників екосистеми повноцінними інструментами для розробки, інтегрованими SDK, підтримкою експлуатації та механізмами заохочення. Через постійне вдосконалення доступності платформи та досвіду розробників, сприяти впровадженню різноманітних додатків AI-оригіналу, забезпечуючи сталий розвиток децентралізованої AI екосистеми.
Виходячи з вищезазначеного контексту та очікувань, у цій статті буде детально представлено шість представницьких проектів AI Layer1, включаючи Sentient, Sahara AI, Ritual, Gensyn, Bittensor та 0G, систематизовано останні досягнення в галузі, проаналізовано сучасний стан розвитку проектів та обговорено майбутні тенденції.
Sentient: побудова вірних відкритих децентралізованих AI моделей
Огляд проекту
Sentient є відкритою платформою протоколів, яка створює AI Layer1 у блокчейні ( на початковій стадії як Layer 2, а згодом буде перенесена на Layer 1). Поєднуючи AI Pipeline та технології блокчейну, вона будує децентралізовану економіку штучного інтелекту. Її основна мета полягає в тому, щоб за допомогою структури "OML" (відкритої, прибуткової, лояльної) вирішити проблеми власності моделей, відстеження викликів та розподілу вартості на централізованому ринку великих мовних моделей, щоб AI моделі реалізували структуру власності у блокчейні, прозорість викликів та розподіл вартості. Візія Sentient полягає в тому, щоб дати можливість кожному створювати, співпрацювати, володіти та монетизувати AI продукти, тим самим сприяючи справедливій та відкритій екосистемі мережі AI Agent.
Команда Sentient Foundation об'єднала провідних академічних експертів, підприємців у сфері блокчейн та інженерів з усього світу, яка прагне створити спільноту, що керується, з відкритим кодом та перевірювану платформу AGI. До складу основних учасників входять професор Принстонського університету Прамод Вісванат та професор Індійського інституту науки Хіманшу Тягі, які відповідають за безпеку та захист конфіденційності AI, в той час як співзасновник Polygon Сандіп Найлвал очолює стратегію блокчейн та екологічне планування. Члени команди мають досвід роботи в таких відомих компаніях, як Meta, Coinbase, Polygon, а також в провідних університетах, таких як Принстонський університет та Індійський технологічний інститут, охоплюючи сфери AI/ML, NLP, комп'ютерного зору та спільно працюють над реалізацією проекту.
Як повторний проєкт засновника Polygon Sandeep Nailwal, Sentient з самого початку мав ауру успіху, володіючи багатими ресурсами, зв'язками та ринковою впізнаваністю, що забезпечило потужну підтримку для розвитку проєкту. У середині 2024 року Sentient завершив фінансування на стадії сімена в розмірі 85 мільйонів доларів, яке очолили Founders Fund, Pantera та Framework Ventures, а також інші інвестиційні установи, включаючи Delphi, Hashkey та десятки інших відомих VC.
Проектування архітектури та прикладного рівня
Інфраструктурний рівень
Ядро архітектури
Основна архітектура Sentient складається з двох частин: AI Pipeline та у блокчейні.
AI трубопровід є основою для розробки та навчання "вірного AI" артефактів, що включає два основних процеси:
Блокчейн-система забезпечує прозорість і децентралізований контроль для протоколу, гарантуючи право власності на AI артефакти, відстеження використання, розподіл доходів та справедливе управління. Конкретна архітектура поділяється на чотири шари:
OML модельна структура
OML фреймворк (Відкритий Open, Монетизований Monetizable, Лояльний Loyal) є основною концепцією, запропонованою Sentient, метою якої є забезпечення чіткої правової захищеності власності та економічних стимулів для відкритих AI моделей. Поєднуючи технології у блокчейні та рідну криптографію AI, має такі характеристики:
AI нативна криптографія (AI-native Cryptography)
AI-оригінальне шифрування використовує безперервність AI-моделей, структуру низьковимірних многовидів та диференційовані властивості моделей для розробки "перевірних, але невидимих" легковагових механізмів безпеки. Його основна технологія це:
Цей спосіб дозволяє реалізувати "авторизацію на основі поведінки + верифікацію належності" без витрат на повторне шифрування.
Модель підтвердження прав і безпечного виконання
Sentient наразі використовує Melange змішану безпеку: поєднання підтвердження особи за допомогою відбитків пальців, виконання TEE та розподіл прибутку за контрактами у блокчейні. Серед методів підтвердження особи основним є OML 1.0, що акцентує увагу на ідеї "оптимістичної безпеки (Optimistic Security)", тобто за замовчуванням вважається, що все відповідає вимогам, а порушення можуть бути виявлені та покарані.
Механізм відбитків пальців є ключовою реалізацією OML, який шляхом вбудовування специфічних "питань-відповідей" дозволяє моделі генерувати унікальний підпис на етапі навчання. Завдяки цим підписам, власники моделей можуть перевіряти приналежність, запобігаючи несанкціонованому копіюванню та комерціалізації. Цей механізм не лише захищає права розробників моделей, але й забезпечує можливість відстеження поведінки використання моделей у блокчейні.
Крім того, Sentient запустила обчислювальну платформу Enclave TEE, яка використовує довірене середовище виконання для забезпечення того, щоб моделі реагували лише на авторизовані запити, запобігаючи несанкціонованому доступу та використанню. Хоча TEE залежить від апаратного забезпечення і має певні ризики безпеки, його висока продуктивність і переваги в реальному часі роблять його основною технологією для розгортання моделей.
У майбутньому Sentient планує впровадити нульове знання