AI та Блокчейн: всебічний аналіз від промислового ланцюга до токеноміки

Штучний інтелект та Блокчейн: від нуля до вершини

Бурхливий розвиток галузі штучного інтелекту в останній час вважається четвертою промисловою революцією. Поява великих мовних моделей значно підвищила ефективність у різних галузях, за оцінками, вона принесла приблизно 20% підвищення загальної продуктивності праці в США. Водночас, здатність великих моделей до узагальнення вважається новою парадигмою розробки програмного забезпечення; на відміну від точного кодування в минулому, сучасне програмне забезпечення більше спирається на узагальнені великі моделі, що підтримують ширший діапазон вхідних та вихідних модальностей. Технології глибокого навчання дійсно принесли новий виток繁荣 в галузі ШІ, і цей бум також поширився на галузь криптовалют.

Ця стаття детально розгляне розвиток галузі штучного інтелекту, класифікацію технологій та глибокого навчання на вплив на галузь. Ми глибоко проаналізуємо верхні та нижні ланки ланцюга вартості глибокого навчання, включаючи GPU, хмарні обчислення, джерела даних, периферійні пристрої тощо, проаналізуємо їхній стан розвитку та тенденції. Крім того, ми зосередимося на сутності відносин між криптовалютою та галуззю штучного інтелекту, розглянувши структуру AI-ланцюга вартості, пов'язаного з криптовалютою.

! Newcomer Science丨AI x Crypto: від нуля до піку

Розвиток індустрії штучного інтелекту

Індустрія штучного інтелекту розпочалась у 50-х роках XX століття. Для досягнення бачення штучного інтелекту академічна та промислова сфери в різні історичні епохи розробили кілька шляхів реалізації.

Сучасні технології штучного інтелекту в основному використовують термін "машинне навчання", чия основна ідея полягає в тому, щоб дозволити машинам покращувати продуктивність системи через ітерацію даних. Основні етапи включають введення даних в алгоритм, навчання моделі, тестування та впровадження моделі, а в кінці - використання для автоматизованих прогнозних завдань.

Машинне навчання на сьогодні має три основні школи: зв'язковість, символізм та поведінка, які відповідно імітують людську нервову систему, мислення та поведінку. Наразі домінує зв'язковість, представлена нейронними мережами, також відомими як глибоке навчання. Архітектура нейронних мереж містить вхідний шар, вихідний шар та кілька прихованих шарів. Коли кількість шарів та нейронів достатньо велика, вона може адаптуватися до складних загальних завдань.

Глибоке навчання на основі нейронних мереж також зазнало кількох ітерацій, починаючи з найперших нейронних мереж, до мереж прямого поширення, RNN, CNN, GAN, і нарешті еволюціонуючи до сучасних великих моделей, таких як GPT, які використовують технологію Transformer. Технологія Transformer є напрямком еволюції нейронних мереж, що додає перетворювач для кодування даних різних модальностей (, таких як аудіо, відео, зображення тощо ), у відповідні числові представлення, які потім вводяться в нейронну мережу, що забезпечує можливість обробки мультимодальних даних.

Новачок науковий | AI x Crypto: від нуля до вершини

Розвиток ШІ пройшов три технологічні хвилі:

  1. 60-ті роки XX століття: розвиток символістської технології, що вирішив проблеми загальної обробки природної мови та діалогу між людиною і машиною. В той же час виникли експертні системи.

  2. 90-ті роки XX століття: були запропоновані байесівські мережі та робототехніка, заснована на поведінці, що стало ознакою народження біхевіоризму. У 1997 році IBM Deep Blue переміг чемпіона світу з шахів, що вважається віхою в історії ШІ.

  3. З 2006 року до сьогодні: концепція глибокого навчання була запропонована, алгоритми на основі штучних нейронних мереж поступово еволюціонували, від RNN, GAN до Transformer та Stable Diffusion, це період розквіту коннекціонізму.

Останніми роками деякі знакові події в галузі ШІ включають:

  • У 2015 році алгоритми глибокого навчання були опубліковані в журналі «Природа», що спричинило великий резонанс у науковому та промисловому середовищі.
  • У 2016 році AlphaGo переміг чемпіона світу з ґо Лі Сїшиша.
  • У 2017 році Google опублікував статтю про алгоритм Transformer, почали з'являтися великомасштабні мовні моделі.
  • У 2018-2020 роках OpenAI випустила серію моделей GPT, розмір параметрів постійно зростав.
  • У січні 2023 року було запущено ChatGPT на базі GPT-4, у березні він досягнув 100 мільйонів користувачів, ставши найшвидшим додатком в історії, який досяг 100 мільйонів користувачів.

Новачок Пояснення丨AI x Crypto: від нуля до вершини

Індустрія глибокого навчання

Наразі великі мовні моделі здебільшого використовують методи глибокого навчання на основі нейронних мереж. Моделі великого масштабу, представлені GPT, спричинили нову хвилю захоплення штучним інтелектом, до цього сегмента ринку увійшло багато гравців. Попит на дані та обчислювальні потужності на ринку швидко зростає, тому ми розглянемо складові індустріального ланцюга глибокого навчання, а також стан верхньої та нижньої частини, співвідношення попиту та пропозиції та майбутній розвиток.

Навчання великих мовних моделей, таких як GPT, ( LLMs ), в основному розділяється на три етапи:

  1. Підготовка: введення великої кількості даних для пошуку найкращих параметрів нейронів, цей процес є найвитратнішим за обчислювальною потужністю.

  2. Налаштування: використання невеликої кількості, але високоякісних даних для навчання, покращує якість виходу моделі.

  3. Поглиблене навчання: створення "моделі винагороди" для ранжування вихідних результатів, що використовується для ітерації параметрів великої моделі.

Три ключові фактори, що впливають на продуктивність великих моделей: кількість параметрів, обсяг та якість даних, обчислювальна потужність. Якщо кількість параметрів дорівнює p, обсяг даних дорівнює n(, обчислений за кількістю токенів ), то можна оцінити необхідну обчислювальну потужність за допомогою емпіричного правила.

Обчислювальна потужність зазвичай вимірюється у Flops, що представляє одну операцію з плаваючою комою. Згідно з емпіричним правилом, попереднє навчання великої моделі зазвичай потребує приблизно 6np Flops. А для інференсу ( процес очікування виходу моделі на вхідних даних займає приблизно 2np Flops.

На початку в основному використовувалися процесори CPU для навчання, пізніше поступово перейшли на графічні процесори GPU, такі як чіпи A100, H100 від NVIDIA. GPU виконують операції з плаваючою комою через модулі Tensor Core, а їхні дані Flops при точності FP16/FP32 є важливим показником обчислювальної здатності чіпа.

Наприклад, GPT-3 має 175 мільярдів параметрів та 180 мільярдів токенів даних. Для одного попереднього навчання потрібно приблизно 3,1510^22 Flops, тобто 3,1510^10 TFLOPS. Використання однієї чіпа NVIDIA H100 SXM для попереднього навчання GPT-3 потребує близько 584 днів.

Можна побачити, що навчання великих моделей потребує величезних обсягів обчислень, що вимагає спільних обчислень кількох сучасних чіпів. Кількість параметрів та обсяг даних GPT-4 в десять разів більші, ніж у GPT-3, і може вимагати понад 100 разів більше обчислювальної потужності чіпів.

У навчанні великих моделей зберігання даних також стикається з викликами. Дані GPT-3 займають близько 570 ГБ, параметри займають близько 700 ГБ. Оперативна пам'ять GPU зазвичай менша, наприклад, A100 має 80 ГБ, тому не може вмістити всі дані, тому потрібно враховувати пропускну здатність чіпів. При навчанні з кількома GPU також виникають питання швидкості передачі даних між чіпами. Іноді обмеження швидкості навчання не є обчислювальною потужністю, а швидкістю передачі даних.

Галузь глибокого навчання в основному включає в себе такі етапи:

) 1. Постачальник апаратного забезпечення GPU

NVIDIA займає абсолютну провідну позицію в галузі AI GPU чіпів. Академічна сфера в основному використовує споживчі GPU (, такі як серія RTX ), а в промисловості в основному використовують комерційні чіпи, такі як H100, A100. Google також має власні TPU чіпи, але в основному вони використовуються для послуг Google Cloud.

2023 року, після випуску чіпа H100 від NVIDIA, він одразу ж отримав велику кількість замовлень, що перевищують попит. Станом на кінець 2023 року обсяги замовлень H100 перевищили 500 тисяч одиниць. Щоб позбутися залежності від NVIDIA, Google очолив створення альянсу CUDA, сподіваючись спільно розробити GPU.

Новачок наукова популяризація丨AI x Crypto: від нуля до вершин

( 2. Постачальник хмарних послуг

Постачальники хмарних послуг купують велику кількість GPU для створення високопродуктивних обчислювальних кластерів, надаючи гнучкі обчислювальні потужності та рішення для хостингу навчання для AI-компаній з обмеженим фінансуванням. Головним чином діляться на три категорії:

  • Традиційні великі хмарні провайдери: AWS, Google Cloud, Azure тощо
  • Вертикальна AI хмарна обчислювальна платформа: CoreWeave, Lambda тощо
  • Постачальники послуг інтелектуального аналізу: Together.ai, Fireworks.ai тощо

) 3. Постачальник навчальних даних

Великі моделі потребують величезних обсягів даних. Деякі компанії спеціалізуються на наданні тренувальних даних для різних галузей, таких як фінанси, охорона здоров'я, хімія та інші професійні набори даних.

4. Постачальник бази даних

Навчання ШІ потребує ефективного зберігання та обробки величезних обсягів неструктурованих даних, тому з'явилися спеціалізовані "векторні бази даних". Основні гравці включають Chroma, Zilliz, Pinecone тощо.

( 5. Прикладні пристрої

Групи GPU виробляють велику кількість тепла, що вимагає системи охолодження для забезпечення стабільної роботи. Наразі в основному використовують повітряне охолодження, але рідинне охолодження набирає популярності серед інвесторів. У сфері постачання енергії деякі технологічні компанії почали інвестувати в геотермальну, водневу, ядерну та інші чисті джерела енергії.

) 6. AI застосування

Наразі розвиток AI-додатків подібний до індустрії Блокчейн, інфраструктура переповнена, але розробка додатків відстає. Перші десять AI-додатків з місячною активністю переважно є продуктами пошуку, а інших типів додатків, таких як соціальні, досить мало. Коефіцієнт утримання користувачів AI-додатків також загалом нижчий, ніж у традиційних інтернет-додатків.

В цілому, індустрія глибокого навчання швидко розвивається, але також стикається з численними викликами. Попит на обчислювальні потужності постійно зростає, споживання даних та енергії є величезним, а сфери застосування потребують подальшого розширення. У майбутньому всі етапи індустріального ланцюга продовжать оптимізуватися та оновлюватися для підтримки більш масштабного та ефективного навчання та застосування AI моделей.

! Newcomer Science丨AI x Crypto: від нуля до піку

Взаємозв'язок між криптовалютами та ШІ

Ядром технології Блокчейн є децентралізація та відсутність довіри. Від Біткойна як системи електронних грошей рівноправно до платформи смарт-контрактів Ethereum, Блокчейн в основному є ціннісною мережею, де кожна транзакція є обміном вартості на основі вартості основного токена.

У традиційному інтернеті вартість перераховується в цінні папери та ринкову капіталізацію через такі показники, як P/E. У Блокчейн мережі, рідні токени є відображенням багатовимірної вартості, вони не тільки можуть приносити дохід від стейкінгу, але й слугувати засобом обміну вартості, засобом зберігання вартості та споживчим товаром для мережевої діяльності.

Важливість токеноміки полягає в тому, що вона може надавати цінність будь-якій функції або ідеї в мережі. Токени дозволяють ланцюгу вартості в індустрії ШІ здійснювати перетворення цінності на всіх етапах, спонукаючи більше людей поглиблюватися в сегменти ШІ. Водночас, синергія токенів підвищує цінність інфраструктури, формуючи структуру "товсті протоколи, тонкі застосунки".

Блокчейн технології незмінність та безпідставність можуть також принести реальну цінність для галузі штучного інтелекту:

  • Реалізація навчання та висновків моделей з захистом конфіденційності даних
  • Через глобальну мережу дистрибуції та використання невикористаних обчислювальних потужностей GPU
  • Забезпечити надійний механізм виявлення та обміну цінностей на всіх етапах AI-індустрії

Отже, токеноміка може сприяти перетворенню та відкриттю цінності в галузі ШІ, а децентралізований реєстр може вирішити проблему довіри, відновлюючи рух цінностей у світовому масштабі. Ця комбінація забезпечить нові імпульси та можливості для розвитку індустрії ШІ.

![Новачок науково-популярний丨AI x Crypto: від нуля до вершин]###https://img-cdn.gateio.im/webp-social/moments-8848582a34ba293d15afae15d90e3c95.webp###

Огляд проектів ланцюга виробництва ІІ в індустрії криптовалют

GPU постачання

Наразі основні проекти GPU хмарних обчислень на базі Блокчейн включають Render, Golem тощо. Render, як більш зрілий проект, в основному спрямований на відеорендеринг та інші традиційні завдання, строго кажучи, не відноситься до AI-сектора. Проте ринок GPU хмарних обчислень може бути використаний не тільки для навчання та інференції AI-моделей, але й для традиційного рендерингу, що знижує ризики залежності від єдиного ринку.

Згідно з прогнозами галузі, у 2024 році попит на обчислювальну потужність GPU становитиме приблизно 75 мільярдів доларів США, а до 2032 року досягне 773 мільярдів доларів США, з середньорічним темпом зростання 33,86%. У міру прискорення ітерацій GPU попит на спільну обчислювальну потужність GPU значно зросте, оскільки виникне велика кількість застарілих, неактивних ресурсів GPU.

![Новачок науковий пояснення丨AI x Crypto: від нуля до вершини]###https://img-cdn.gateio.im/webp-social/moments-53c48daf49a3dbb35c1a2b47e234f180.webp###

( Апаратура пропускної здатності

Ширина каналу часто є ключовим фактором, що впливає на продуктивність хмарних обчислень, особливо для децентралізованих мереж спільного використання GPU. Деякі проєкти, такі як Meson Network, намагаються вирішити цю проблему шляхом спільного використання ширини каналу, але реальний ефект обмежений, оскільки затримки, спричинені географічним положенням, все ще важко уникнути.

) дані

Постачальники даних AI включають EpiK Protocol, Synesis One, Masa тощо. На відміну від традиційних підприємств даних Web2, блокчейн-проекти мають переваги в зборі даних, можуть забезпечити стимул для внеску особистих даних. В поєднанні з технологіями обчислень з нульовим доказом, є надія на більш широке обмін даними.

( ЗКМЛ

Для реалізації навчання моделей та висновків з захистом приватності даних деякі проєкти використовують схеми нульового знання. Типові проєкти включають Axiom, Risc Zero та інші, які можуть надати ZK-докази для офлайн обчислень та даних. Такі універсальні ZK-проєкти мають ширші межі застосування і є більш привабливими для інвесторів.

)

GPT1.39%
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • 5
  • Поділіться
Прокоментувати
0/400
MetaNeighborvip
· 17год тому
Торгівля криптовалютою обов'язковий AI, все залежить від AI
Переглянути оригіналвідповісти на0
ILCollectorvip
· 17год тому
Хто сказав, що булран обов'язково не скорочує втрати? Скорочення втрат також є способом зростання.
Переглянути оригіналвідповісти на0
ColdWalletGuardianvip
· 17год тому
GPU大哥又要 До місяця咯~
Переглянути оригіналвідповісти на0
HodlOrRegretvip
· 17год тому
Гаразд, гаразд, знову хвалять ШІ. Бик є бик, але установка для майнінгу не продається.
Переглянути оригіналвідповісти на0
MEVHunterZhangvip
· 17год тому
Знову обдурюють людей, як лохів за BTC
Переглянути оригіналвідповісти на0
  • Закріпити