AI та Блокчейн: переформатування вартості промислового ланцюга та тенденцій майбутнього розвитку

Еволюція індустрії штучного інтелекту та перспективи інтеграції з Блокчейн

Сфера штучного інтелекту нещодавно досягла значного прогресу, вважається ключовим рушієм четвертої промислової революції. Поява великих мовних моделей суттєво підвищила продуктивність праці в різних галузях, і компанія Boston Consulting вважає, що GPT підвищила загальну продуктивність в США приблизно на 20%. Водночас, здатність великих моделей до узагальнення вважається новою парадигмою програмного дизайну, яка відрізняється від минулого точного кодування; тепер програмний дизайн більше використовує рамки великих моделей з більшою здатністю до узагальнення, що можуть підтримувати ширший спектр вхідних і вихідних модальностей. Технології глибокого навчання принесли новий етап процвітання в сферу ШІ, і цей бум поступово поширюється на сферу криптовалют.

Цей звіт детально розгляне розвиток індустрії штучного інтелекту, класифікацію технологій, а також вплив технологій глибокого навчання на галузь. Ми проаналізуємо нинішній стан та тенденції розвитку ланцюга постачання у сфері глибокого навчання, зокрема GPU, хмарні обчислення, джерела даних, пристрої з обробкою на краю тощо. Одночасно ми також дослідимо сутність взаємозв'язку між криптовалютою та індустрією штучного інтелекту, а також систематизуємо структуру AI-ланцюга постачання, пов'язаного з криптовалютою.

Історія розвитку галузі штучного інтелекту

З моменту свого виникнення в 50-х роках XX століття, академічна та промислова сфери в різні періоди та з різними науковими фонами розробили кілька напрямків для реалізації штучного інтелекту.

Сучасні технології штучного інтелекту в основному використовують термін "машинне навчання", і його основна концепція полягає в тому, щоб дати можливість машинам покращувати продуктивність системи шляхом повторних ітерацій над даними в конкретних завданнях. Основні етапи включають введення даних в алгоритм, навчання моделі за допомогою даних, тестування та впровадження моделі, а також використання моделі для виконання автоматизованих прогнозних завдань.

Наразі машинне навчання має три основні напрями: зв'язковий, символічний та поведінковий, які імітують людську нервову систему, мислення та поведінку відповідно. Серед них зв'язковий напрям, представлений нейронними мережами, наразі займає домінуючу позицію ( також відомий як глибоке навчання ). Архітектура нейронної мережі містить вхідний шар, вихідний шар та кілька прихованих шарів; коли кількість шарів і нейронів ( параметрів ) достатньо велика, вона може моделювати складні загальні завдання. Постійно вводячи дані для налаштування параметрів нейронів, врешті-решт нейрони досягнуть оптимального стану, що також є походженням терміна "глибина" - достатня кількість шарів і нейронів.

Глибоке навчання на основі нейронних мереж також зазнало кількох ітерацій та еволюцій, від найраніших нейронних мереж до мереж з прямою пропускною здатністю, RNN, CNN, GAN, зрештою, до сучасних великих моделей, таких як GPT, що використовують технологію Transformer. Технологія Transformer є напрямком еволюції нейронних мереж, що додає перетворювач ( Transformer ), який використовується для кодування даних різних модальностей (, таких як аудіо, відео, зображення тощо ) у відповідні числові представлення, а потім вводиться в нейронну мережу, що дозволяє нейронній мережі підганяти будь-який тип даних, реалізуючи обробку мультимодальності.

Новачки Пояснення丨AI x Crypto: Від нуля до вершини

Розвиток ШІ пройшов три технологічні хвилі:

Перша хвиля виникла в 60-х роках XX століття, викликана символістськими технологіями, яка вирішила проблеми загальної обробки природної мови та діалогу людина-машина. В той же час з'явилися експертні системи, такі як хімічна експертна система DENDRAL, розроблена NASA.

Друга хвиля відбулася в 90-х роках XX століття, коли були запропоновані байесівські мережі та поведінкова робототехніка, що стало ознакою народження біхевіоризму. У 1997 році IBM Deep Blue переміг чемпіона з шахів Гаррі Каспарова, що вважається знаковою подією в історії штучного інтелекту.

Третя хвиля почалася в 2006 році. Концепція глибокого навчання була запропонована, використовуючи штучні нейронні мережі як архітектуру для навчання представлення даних. Після цього алгоритми глибокого навчання постійно еволюціонували, від RNN, GAN до Transformer та Stable Diffusion, формуючи цю технічну хвилю, а також час розквіту коннекціонізму.

Протягом цього часу відбулося кілька знакових подій:

  • У 2011 році Watson компанії IBM переміг людських учасників у вікторині «Небезпечна межа».
  • У 2014 році Goodfellow запропонував GAN( генеративну змагальну мережу).
  • У 2015 році Хінтон та інші в журналі «Природа» представили алгоритми глибокого навчання, що викликало величезний резонанс. OpenAI було засновано.
  • У 2016 році AlphaGo переміг чемпіона світу з го Лі Сіда.
  • У 2017 році Google представив алгоритм Transformer, почали з'являтися великомасштабні мовні моделі.
  • 2018 рік, OpenAI випустила GPT, DeepMind випустила AlphaFold.
  • У 2019 році OpenAI випустила GPT-2.
  • У 2020 році OpenAI випустила GPT-3.
  • У 2023 році запущено ChatGPT на базі GPT-4, який швидко досягнув ста мільйонів користувачів.

Новачок у світі криптовалют丨AI x Crypto: від нуля до вершини

Індустрія глибокого навчання

Сучасні великі мовні моделі в основному використовують методи глибокого навчання на основі нейронних мереж. Моделі великого масштабу, представлені GPT, спричинили нову хвилю буму штучного інтелекту, в цю сферу ринуться численні гравці, а попит на дані та обчислювальні потужності різко зріс. У цьому розділі буде розглянуто складові промислового ланцюга алгоритмів глибокого навчання, а також стан, відносини попиту та пропозиції та перспективи розвитку вгору та вниз по ланцюгу.

Навчання великих мовних моделей, таких як GPT, на основі технології трансформера (LLMs), в основному поділяється на три етапи:

  1. Попереднє навчання: введення великої кількості даних для пошуку оптимальних параметрів нейронів. Цей процес найбільш витратний з точки зору обчислювальної потужності, вимагає багаторазових ітерацій для спроби різних параметрів.

  2. Доробка: використання невеликої кількості, але високоякісних даних для навчання, підвищує якість виходу моделі.

  3. Поглиблене навчання: створення "моделі винагороди" для оцінки якості виходу великої моделі, автоматичне ітераційне налаштування параметрів великої моделі за допомогою цієї моделі. Іноді також потрібно залучати людей для оцінки.

Коротко кажучи, попереднє навчання вимагає великої кількості даних і займає найбільше обчислювальної потужності GPU; доопрацювання потребує якісних даних для покращення параметрів; навчання з підкріпленням повторно ітеративно коригує параметри через модель винагороди для підвищення якості виходу.

Три основні фактори, що впливають на продуктивність великої моделі: кількість параметрів, обсяг і якість даних, обчислювальна потужність. Ці три чинники спільно визначають якість результатів великої моделі та її здатність до узагальнення. Припустимо, що кількість параметрів дорівнює p, обсяг даних дорівнює n(, розрахованому за кількістю токенів), можна оцінити необхідну обчислювальну потужність за допомогою емпіричного правила, щоб попередньо оцінити потрібну обчислювальну потужність і час навчання.

Обчислювальна потужність зазвичай вимірюється у Flops, що представляє одне плаваюче число. Згідно з практичним досвідом, попереднє навчання великої моделі потребує приблизно 6np Flops. Процес висновку (, коли вхідні дані чекають на вихід моделі, потребує 2np Flops.

На початкових етапах навчання ШІ переважно використовувалися процесори CPU, але згодом їх поступово почали замінювати на GPU, такі як A100, H100 від Nvidia. GPU значно перевершують CPU за ефективністю енергоспоживання, головним чином виконуючи операції з плаваючою комою через модулі Tensor Core. Обчислювальна потужність чіпів зазвичай вимірюється у Flops при точності FP16/FP32.

Прикладом є GPT-3, який має 175 мільярдів параметрів і обсяг даних 180 мільярдів токенів ) приблизно 570 ГБ (. Для проведення одного попереднього навчання потрібно 3,15*10^22 Flops, що дорівнює 584 дням роботи чіпа Nvidia A100 SXM. Беручи до уваги, що кількість параметрів GPT-4 у 10 разів більша, а обсяг даних також збільшився в 10 разів, ймовірно, знадобиться понад 100 разів більше обчислювальної потужності чіпів.

У тренуванні великих моделей зберігання даних також є викликом. Оперативна пам'ять GPU зазвичай невелика ), наприклад, A100 має 80GB (, що не дозволяє вмістити всі дані та параметри моделі. Тому потрібно враховувати пропускну спроможність чіпа, тобто швидкість передачі даних між жорстким диском і пам'яттю. При спільному тренуванні кількох GPU швидкість передачі даних між чіпами також є критично важливою.

! [Newcomer Science丨AI x Crypto: від нуля до піку])https://img-cdn.gateio.im/webp-social/moments-0c9bdea33a39a2c07d1f06760ed7e804.webp(

Галузь глибокого навчання в основному включає в себе такі етапи:

  1. Постачальник апаратного забезпечення GPU: на даний момент Nvidia займає абсолютну лідируючу позицію. Академічні кола в основному використовують споживчі GPU ), такі як серія RTX (, промисловість в основному використовує професійні чіпи, такі як H100, A100. Google також має власні TPU чіпи.

  2. Постачальники хмарних послуг: надають еластичні обчислювальні потужності та рішення для навчання на базі хостингу для AI-компаній з обмеженим бюджетом. Основні три категорії: традиційні постачальники хмарних послуг ), такі як AWS, Google Cloud, Azure (, вертикальні платформи AI-хмарних обчислень ), такі як CoreWeave, Lambda (, постачальники послуг інференції ), такі як Together.ai, Fireworks.ai (.

  3. Постачальники навчальних даних: забезпечують великі обсяги даних або високоякісні дані для великих моделей. Компанії, такі як Google, Reddit, які володіють великими обсягами даних, привертають увагу. Існують також спеціалізовані компанії з маркування даних, які надають дані для моделей у певних сферах.

  4. Постачальники баз даних: Завдання з навчання та виводу ШІ переважно використовують "векторні бази даних" для ефективного зберігання та індексації величезних обсягів високовимірних векторних даних. Основні гравці включають Chroma, Zilliz, Pinecone, Weaviate тощо.

  5. Периферійні пристрої: забезпечують охолодження та електроживлення для кластерів GPU. Включають енергопостачання ), таке як геотермальна, воднева, ядерна енергія ( та системи охолодження ), такі як рідинне охолодження (.

  6. Застосування: на даний момент застосування ШІ в основному зосереджено на пошуку, відповідях на запитання та інших сферах, рівень збереження та активності загалом нижчий, ніж у традиційних інтернет-застосуваннях. Застосування в основному поділяються на три категорії: для професійних споживачів, підприємств та звичайних споживачів.

![Новачки Краткий Посібник丨AI x Crypto: Від нуля до вершини])https://img-cdn.gateio.im/webp-social/moments-609c5dd6ee0abcec6bf9c118d7741867.webp(

Взаємозв'язок між криптовалютами та ШІ

Ядром технології Блокчейн є децентралізація та деструктивність довіри. Біткойн створив бездостовірну систему передачі вартості, а Ефір додатково реалізував децентралізовану, бездостовірну платформу смарт-контрактів. За своєю суттю, Блокчейн-мережа є мережею вартості, кожна транзакція є перетворенням вартості на основі базових токенів.

У традиційному інтернеті вартість відображається в ціні акцій через такі показники, як P/E. А в Блокчейн-мережах, рідні токени ), такі як ETH(, відображають багатовимірну вартість мережі, що дозволяє отримувати дохід від стейкінгу, а також виступати в ролі засобу обміну вартістю, засобу зберігання вартості, товару для споживання в мережевих активностях тощо.

Токеноміка ) визначає відносну вартість розрахункових засобів екосистеми ( рідного токена ). Хоча неможливо встановити ціну для кожного виміру окремо, але ціна токена комплексно відображає багатовимірну цінність. Як тільки токени надаються мережі та починають циркулювати, вдається досягти значно більшого захоплення вартості, ніж це можливо з традиційними акціями.

Привабливість токеноміки полягає в тому, що вона може надавати цінність будь-якій функції або ідеї. Вона переосмислює та відкриває нові цінності, що є вкрай важливим для багатьох галузей, включно з AI. У сфері AI випуск токенів може перетворити цінність на всіх етапах виробничого ланцюга, заохочуючи більше людей заглиблюватися в специфічні ніші. Токени також можуть надавати додаткову цінність інфраструктурі, сприяючи формуванню парадигми "товсті протоколи, тонкі застосунки".

Непідробність і бездокументальність технології Блокчейн також можуть принести реальну цінність для індустрії ШІ. Наприклад, можна дозволити моделям використовувати дані за умови захисту конфіденційності користувачів; можна розподілити невикористану обчислювальну потужність GPU через глобальну мережу, щоб знову відкрити залишкову вартість.

В цілому, токенна економіка допомагає переосмислити і відкрити цінність, тоді як децентралізований реєстр може вирішити проблеми довіри, відновлюючи рух цінності в глобальному масштабі. Це поєднання відкриває нові можливості для AI-індустрії.

Новачок наукові роз'яснення丨AI x Crypto: з нуля до вершин

Огляд AI-індустрії в криптовалютній галузі

  1. Сторона постачання GPU: Основні проекти включають Render, Golem тощо. Render, як більш зрілий проект, головним чином орієнтується на відеорендеринг не великих моделей. Ринок GPU хмарних обчислень може не лише обслуговувати навчання та інференцію AI моделей, а й підходити для традиційних рендерингових завдань, знижуючи ризик залежності від одного ринку.

  2. Апаратна пропускна здатність: Проект, такий як Meson Network, намагається створити глобальну мережу спільного використання пропускної здатності. Але спільна пропускна здатність може бути псевдопотребою для навчання великих моделей, оскільки затримка, викликана геолокацією, суттєво вплине на ефективність навчання.

  3. Дані: Основні проекти включають EpiK Protocol, Synesis One, Masa тощо. У порівнянні з традиційними даними підприємствами, постачальники даних на Блокчейн мають переваги у зборі даних, можуть встановлювати ціни на особисті дані та заохочувати користувачів вносити дані за допомогою токенів.

  4. ЗКМЛ: Проекти, такі як Zama, TruthGPT та інші, використовують технології нульових знань для реалізації приватних обчислень та навчання. Крім того, деякі універсальні ZK проекти, такі як Axiom, Risc Zero також заслуговують на увагу.

  5. AI застосування: Наразі основна увага зосереджена на традиційних Блокчейн-додатках, поєднаних з автоматизацією та універсальністю. AI Agent(, такий як Fetch.AI), як міст між користувачем та різними додатками, має перспективи отримати переваги першим.

  6. AI Блокчейн: Наприклад, Tensor,

GPT3.78%
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • 4
  • Поділіться
Прокоментувати
0/400
mev_me_maybevip
· 20год тому
gpt перегрівся, слід охолодити
Переглянути оригіналвідповісти на0
fork_in_the_roadvip
· 20год тому
Вже прозріли невдахи
Переглянути оригіналвідповісти на0
NotFinancialAdviservip
· 20год тому
GPT грає зрозуміло, торгівля криптовалютою цього разу обов'язково досягне нових висот.
Переглянути оригіналвідповісти на0
ContractExplorervip
· 20год тому
ai ліквідувати 其他跟蹆虫
Переглянути оригіналвідповісти на0
  • Закріпити