الدمج بين الذكاء الاصطناعي والأصول الرقمية: كيف يعيد التشفير تشكيل مشهد الصناعة

الذكاء الاصطناعي والعملات المشفرة: من الصفر إلى القمة

تم اعتبار التطور الأخير في صناعة الذكاء الاصطناعي من قبل بعض الأشخاص بمثابة الثورة الصناعية الرابعة. لقد أدى ظهور النماذج الكبيرة إلى تحسين الكفاءة في جميع القطاعات، حيث تعتقد شركة بوسطن للاستشارات أن GPT قد زادت من كفاءة العمل في الولايات المتحدة بحوالي 20%. في نفس الوقت، يُنظر إلى القدرة على التعميم التي تجلبها النماذج الكبيرة باعتبارها نموذج تصميم برمجي جديد، حيث كان تصميم البرمجيات في الماضي يعتمد على الشيفرة الدقيقة، بينما يعتمد تصميم البرمجيات الآن على نماذج كبيرة أكثر عمومية مدمجة في البرمجيات، مما يسمح لهذه البرمجيات بتقديم أداء أفضل ودعم إدخالات وإخراجات أكثر تنوعًا. لقد جلبت تقنيات التعلم العميق بالفعل ازدهارًا رابعًا لصناعة الذكاء الاصطناعي، وقد امتدت هذه الموجة إلى صناعة العملات المشفرة.

ستتناول هذه التقرير بالتفصيل تاريخ تطور صناعة الذكاء الاصطناعي وتصنيفات التكنولوجيا، بالإضافة إلى تأثير اختراع تقنية التعلم العميق على الصناعة. ثم سنحلل بعمق سلسلة القيمة لصناعة التعلم العميق، بما في ذلك GPU، والحوسبة السحابية، ومصادر البيانات، والأجهزة الطرفية، بالإضافة إلى الوضع الحالي والاتجاهات. بعد ذلك، سنناقش بالتفصيل العلاقة بين صناعة Crypto وصناعة الذكاء الاصطناعي، وسنقوم بتوضيح هيكل سلسلة القيمة المرتبطة بالذكاء الاصطناعي المتعلق بـ Crypto.

! علم الوافد الجديد 丨 الذكاء الاصطناعي x التشفير: من الصفر إلى الذروة

تاريخ تطور صناعة الذكاء الاصطناعي

بدأت صناعة الذكاء الاصطناعي في الخمسينيات من القرن العشرين، ومن أجل تحقيق رؤية الذكاء الاصطناعي، طورت الأوساط الأكاديمية والصناعية مدارس مختلفة لتحقيق الذكاء الاصطناعي في فترات زمنية مختلفة وخلفيات علمية متنوعة.

المصطلح الرئيسي المستخدم في تكنولوجيا الذكاء الاصطناعي الحديثة هو "تعلم الآلة"، حيث تتمثل فكرة هذه التقنية في تمكين الآلات من تحسين أداء النظام من خلال التكرار المستمر بناءً على البيانات في المهام. الخطوات الرئيسية هي إرسال البيانات إلى الخوارزمية، واستخدام هذه البيانات لتدريب النموذج، واختبار نشر النموذج، واستخدام النموذج لإكمال مهام التنبؤ الآلي.

في الوقت الحالي، هناك ثلاثة اتجاهات رئيسية في التعلم الآلي، وهي التواصلية، والرمزية، والسلوكية، والتي تحاكي على التوالي النظام العصبي البشري، والتفكير، والسلوك.

حاليًا، تهيمن الشبكات العصبية، التي تمثلها نظرية الاتصال، على الساحة، وتُعرف أيضًا بالتعلم العميق. السبب الرئيسي في ذلك هو أن هذا الهيكل يحتوي على طبقة إدخال وطبقة إخراج، ولكن هناك العديد من الطبقات المخفية. بمجرد أن يصبح عدد الطبقات وعدد الخلايا العصبية كافيًا، سيكون هناك فرصة كافية لتناسب المهام العامة المعقدة. من خلال إدخال البيانات، يمكن تعديل معلمات الخلايا العصبية باستمرار، وبعد تجربة عدة بيانات، ستصل هذه الخلايا العصبية إلى حالة مثالية. وهذا ما نطلق عليه "جهد كبير يؤتي ثماره"، وهو أيضًا مصدر كلمة "عميق"، أي عدد كافٍ من الطبقات والخلايا العصبية.

على سبيل المثال، يمكن فهمه ببساطة على أنه تم إنشاء دالة، حيث عند إدخال X=2، تكون Y=3؛ وعند X=3، تكون Y=5. إذا أردنا أن تستجيب هذه الدالة لجميع قيم X، فسنحتاج إلى إضافة درجة هذه الدالة ومعاملاتها باستمرار. على سبيل المثال، يمكنني في هذه الحالة إنشاء دالة تلبي هذا الشرط وهي Y = 2X -1، ولكن إذا كان هناك بيانات بحالة X=2، Y=11، فسنحتاج إلى إعادة بناء دالة تناسب هذه النقاط الثلاثة. باستخدام GPU للكسر العنيف، نجد أن Y = X2 -3X +5 مناسبة، ولكن لا يلزم أن تتطابق تمامًا مع البيانات، يكفي أن تلتزم بالتوازن، وأن تكون المخرجات مشابهة تقريبًا. هنا، X2 وX وX0 تمثل خلايا عصبية مختلفة، بينما 1 و-3 و5 هي معاملاتها.

في هذه الحالة، إذا أدخلنا كمية كبيرة من البيانات إلى الشبكة العصبية، يمكننا زيادة عدد الخلايا العصبية وتكرار المعلمات لملاءمة البيانات الجديدة. وبهذه الطريقة، يمكننا ملاءمة جميع البيانات.

استنادًا إلى تقنية التعلم العميق القائمة على الشبكات العصبية، هناك أيضًا العديد من التكرارات والتطورات التكنولوجية، مثل الشبكات العصبية في مراحلها الأولى كما هو موضح في الصورة أعلاه، والشبكات العصبية التقدمية (Feedforward Neural Networks)، والشبكات العصبية المتكررة (RNN)، والشبكات العصبية الالتفافية (CNN)، والشبكات التوليدية التنافسية (GAN) التي تطورت في النهاية إلى نماذج كبيرة حديثة مثل GPT وغيرها التي تستخدم تقنية Transformer، حيث تعتبر تقنية Transformer مجرد اتجاه تطوري واحد من الشبكات العصبية، حيث تمت إضافة محول ( Transformer )، لتحويل جميع الأنماط ( مثل الصوت والفيديو والصور وغيرها ) إلى قيم رقمية مناسبة للتعبير عنها. ثم يتم إدخالها في الشبكة العصبية، مما يسمح للشبكة العصبية بتقليد أي نوع من البيانات، مما يعني تحقيق تعدد الأنماط.

! [الوافد الجديد Science Popular 丨الذكاء الاصطناعي x Crypto: من الصفر إلى الذروة](https://img-cdn.gateio.im/webp-social/moments-c50ee5a87373c6cd6c4dc63adc2cf47c.webp019283746574839201

شهد تطور الذكاء الاصطناعي ثلاث موجات تقنية. كانت الموجة الأولى في الستينيات من القرن العشرين، بعد عشر سنوات من اقتراح تقنية الذكاء الاصطناعي. كانت هذه الموجة ناتجة عن تطوير تقنية الرمزية، التي حلت مشاكل معالجة اللغة الطبيعية العامة والحوار بين الإنسان والآلة. في نفس الفترة، وُلِد نظام الخبراء، وهو نظام DENRAL الذي أكملته جامعة ستانفورد، والذي يمتلك معرفة كيميائية قوية جداً، ويستنتج الإجابات من خلال الأسئلة مثل خبير كيمياء. يمكن اعتبار هذا النظام خبير الكيمياء بمثابة مزيج من قاعدة المعرفة الكيميائية ونظام الاستنتاج.

بعد نظام الخبراء، اقترح جوديا بيرل في التسعينيات من القرن العشرين ) Judea Pearl ( الشبكات البايزية، والتي تُعرف أيضًا بشبكات المعتقدات. في نفس الفترة، اقترح بروكس الروبوتات المعتمدة على السلوك، مما يمثل ولادة السلوكية.

في عام 1997، هزم "بلو" من IBM بواقع 3.5: 2.5 بطل الشطرنج كاسباروف )Kasparov(، وقد اعتُبرت هذه النصر علامة بارزة في مجال الذكاء الاصطناعي، حيث شهدت تقنية الذكاء الاصطناعي ذروة تطورها الثانية.

حدثت الموجة الثالثة من تكنولوجيا الذكاء الاصطناعي في عام 2006. قدم عمالقة التعلم العميق Yann LeCun و Geoffrey Hinton و Yoshua Bengio مفهوم التعلم العميق، وهو خوارزمية تعتمد على الشبكات العصبية الصناعية لتعلم تمثيل البيانات. بعد ذلك، تطورت خوارزميات التعلم العميق تدريجياً، من RNN وGAN إلى Transformer وStable Diffusion، وقد شكلت هاتان الخوارزميتان هذه الموجة التقنية الثالثة، وكانت هذه أيضاً فترة ازدهار الربطية.

ظهرت العديد من الأحداث البارزة أيضًا مع استكشاف وتطور تقنيات التعلم العميق، بما في ذلك:

  • في عام 2011، تغلب IBM Watson) على البشر وحصل على البطولة في برنامج اختبار 《危险边缘》( Jeopardy).

  • في عام 2014، اقترح Goodfellow شبكة GAN( التوليدية المتعارضة، Generative Adversarial Network)، من خلال السماح لشبكتين عصبيتين بالتنافس ضد بعضهما البعض في عملية التعلم، قادرة على توليد صور تبدو حقيقية. في الوقت نفسه، كتب Goodfellow أيضًا كتابًا بعنوان "Deep Learning"، المعروف باسم الكتاب الزهري، وهو واحد من الكتب الأساسية في مجال التعلم العميق.

  • في عام 2015، اقترح هينتون وآخرون خوارزمية التعلم العميق في مجلة "Nature"، وقد أثار اقتراح هذه الطريقة في التعلم العميق ردود فعل هائلة في الأوساط الأكاديمية والصناعية.

  • في عام 2015، تم إنشاء OpenAI، حيث أعلن ماسك ورئيس Y Combinator ألتمان والمستثمر الملائكي بيتر ثيل ( بيتر ثيل ) وغيرهم عن استثمار مشترك قدره 1 مليار دولار.

  • في عام 2016، خاضت AlphaGo، القائمة على تقنية التعلم العميق، معركة الشطرنج مع بطل العالم في الشطرنج، اللاعب المحترف من الدرجة التاسعة لي شي شي، وحققت الفوز بنتيجة إجمالية 4-1.

  • في عام 2017، قامت شركة هانسون للروبوتات (Hanson Robotics) بتطوير الروبوت الشبيه بالإنسان صوفيا، والذي يُطلق عليه لقب أول روبوت يحصل على صفة المواطن من الدرجة الأولى في التاريخ، ويتميز بتعبيرات وجه غنية وقدرة على فهم اللغة الإنسانية.

  • في عام 2017، نشرت جوجل ورقة بعنوان "التركيز هو كل ما تحتاجه" قدمت خوارزمية Transformer، وظهرت نماذج لغوية على نطاق واسع.

  • في عام 2018، أصدرت OpenAI نموذج GPT( القائم على خوارزمية Transformer، وهو واحد من أكبر نماذج اللغة في ذلك الوقت.

  • في عام 2018، أصدرت فريق Google Deepmind برنامج AlphaGo القائم على التعلم العميق، والذي يمكنه التنبؤ بهياكل البروتين، مما يعتبر علامة تقدم كبيرة في مجال الذكاء الاصطناعي.

  • في عام 2019، أصدرت OpenAI نموذج GPT-2، الذي يحتوي على 1.5 مليار معلمة.

  • في عام 2020، تم تطوير GPT-3 بواسطة OpenAI، ويحتوي على 175 مليار معلمة، وهو أعلى بمئة مرة من النسخة السابقة GPT-2، حيث تم تدريب النموذج باستخدام 570 جيجابايت من النصوص، ويمكنه تحقيق أداء متقدم في مهام معالجة اللغة الطبيعية مثل الإجابة على الأسئلة، والترجمة، وكتابة المقالات.

  • في عام 2021، أصدرت OpenAI نموذج GPT-4، الذي يحتوي على 1.76 تريليون معلمة، وهو 10 أضعاف GPT-3.

  • تم إطلاق تطبيق ChatGPT القائم على نموذج GPT-4 في يناير 2023، وفي مارس وصل ChatGPT إلى مئة مليون مستخدم، ليصبح أسرع تطبيق في التاريخ يصل إلى مئة مليون مستخدم.

  • في عام 2024، ستطلق OpenAI نموذج GPT-4 omni.

ملاحظة: نظرًا لوجود العديد من الأوراق البحثية في مجال الذكاء الاصطناعي، والعديد من المدارس الفكرية، وتطور التقنيات بشكل مختلف، فإننا هنا نتبع بشكل رئيسي تاريخ تطور التعلم العميق أو الارتباطية، بينما لا تزال المدارس الفكرية والتقنيات الأخرى في مرحلة تطور سريع.

! [علم الوافد الجديد 丨الذكاء الاصطناعي x التشفير: من الصفر إلى الذروة])https://img-cdn.gateio.im/webp-social/moments-0c9bdea33a39a2c07d1f06760ed7e804.webp(

سلسلة صناعة التعلم العميق

تستخدم نماذج اللغة الكبيرة الحالية جميعها طرق التعلم العميق المعتمدة على الشبكات العصبية. لقد أوجدت نماذج اللغة الكبيرة، بقيادة GPT، موجة من الحماس في مجال الذكاء الاصطناعي، حيث تدفق عدد كبير من اللاعبين إلى هذا المجال، وقد اكتشفنا أيضًا أن السوق قد شهد انفجارًا كبيرًا في الطلب على البيانات والحوسبة. لذلك، في هذا الجزء من التقرير، نستكشف بشكل أساسي سلسلة الإمداد لخوارزميات التعلم العميق، وكيف تتكون سلسلة الإمداد في صناعة الذكاء الاصطناعي التي تهيمن عليها خوارزميات التعلم العميق، بالإضافة إلى حالة العرض والطلب في هذه السلسلة وتطورها المستقبلي.

أولاً، ما نحتاج إلى توضيحه هو أنه عند إجراء تدريب نموذج LLMs الكبير القائم على تقنية Transformer والذي تتصدره GPT)، يتم تقسيمه إلى ثلاث خطوات.

قبل التدريب، وبما أنه يعتمد على Transformer، يحتاج المحول إلى تحويل الإدخال النصي إلى قيم عددية، وتسمى هذه العملية "Tokenization"، وبعد ذلك تُعرف هذه القيم العددية باسم Token. وفقًا للقواعد العامة، يمكن اعتبار كلمة أو حرف إنجليزي بشكل تقريبي كـ Token واحد، بينما يمكن اعتبار كل حرف صيني بشكل تقريبي كـ Tokenين. هذه هي الوحدة الأساسية المستخدمة في تسعير GPT.

الخطوة الأولى، التدريب المسبق. من خلال تقديم عدد كافٍ من أزواج البيانات إلى طبقة الإدخال، مثل المثال المذكور في الجزء الأول من التقرير (X,Y)، للبحث عن أفضل المعلمات لكل خلية عصبية في النموذج، في هذه المرحلة نحتاج إلى كمية كبيرة من البيانات، وهذه العملية هي أيضًا الأكثر استهلاكًا للقدرة الحاسوبية، لأنها تتطلب تكرارًا متكررًا لتجربة خلية عصبية مع مجموعة متنوعة من المعلمات. بعد الانتهاء من تدريب دفعة من أزواج البيانات، عادة ما يتم استخدام نفس الدفعة للتدريب الثانوي لتكرار المعلمات.

الخطوة الثانية، التعديل الدقيق. التعديل الدقيق هو إعطاء مجموعة صغيرة ولكن ذات جودة عالية من البيانات للتدريب، مثل هذا التغيير سيجعل مخرجات النموذج ذات جودة أعلى، لأن التدريب المسبق يتطلب كميات كبيرة من البيانات، ولكن الكثير من البيانات قد تحتوي على أخطاء أو تكون منخفضة الجودة. يمكن أن ترفع خطوات التعديل الدقيق جودة النموذج من خلال البيانات عالية الجودة.

الخطوة الثالثة، التعلم المعزز. أولاً، سيتم إنشاء نموذج جديد تمامًا، نسميه "نموذج المكافأة"، والغرض من هذا النموذج بسيط جدًا، وهو ترتيب النتائج الناتجة، لذا فإن تنفيذ هذا النموذج سيكون بسيطًا نسبيًا، لأن سيناريو العمل عمودي للغاية. بعد ذلك، يتم استخدام هذا النموذج لتحديد ما إذا كانت مخرجات نموذجنا الكبير ذات جودة عالية، وبالتالي يمكن استخدام نموذج المكافأة لتكرار معلمات النموذج الكبير تلقائيًا. ( لكن في بعض الأحيان، يتطلب الأمر أيضًا المشاركة البشرية لتقييم جودة مخرجات النموذج )

بإيجاز، خلال عملية تدريب النموذج الكبير، هناك متطلبات عالية جدًا لكمية البيانات في التدريب المسبق، كما أن قوة معالجة GPU المطلوبة هي الأكثر، بينما يحتاج التعديل الدقيق إلى بيانات ذات جودة أعلى لتحسين المعلمات، يمكن أن تتكرر التعلم المعزز من خلال نموذج مكافأة لتكرار المعلمات من أجل إنتاج نتائج ذات جودة أعلى.

أثناء عملية التدريب، كلما زادت المعلمات، زادت قدرة النموذج على العموم. على سبيل المثال، في مثال الدالة لدينا Y = aX + b، لدينا في الواقع عصبونين X و X0، لذا فإن كيفية تغير المعلمات تحد من البيانات التي يمكن أن يتم ملاءمتها، لأن جوهرها لا يزال خطًا مستقيمًا. إذا زاد عدد العصبونات، فيمكننا تكرار المزيد من المعلمات، مما يتيح لنا ملاءمة المزيد من البيانات، وهذا هو السبب في أن النماذج الكبيرة تحدث معجزات، وهو أيضًا السبب في تسمية النماذج الكبيرة بهذا الاسم، جوهرها هو عدد هائل من العصبونات والمعلمات، وكمية هائلة من البيانات، وبنفس الوقت تحتاج إلى كمية هائلة من القوة الحاسوبية.

لذلك، يتم تحديد أداء النماذج الكبيرة بشكل رئيسي بواسطة ثلاثة جوانب: عدد المعلمات، وكمية وجودة البيانات، والقدرة الحاسوبية، حيث تؤثر هذه الثلاثة بشكل مشترك على جودة نتائج النماذج الكبيرة وقدرتها على التعميم. نفترض أن عدد المعلمات هو p، وكمية البيانات هي n( التي يتم حسابها بعدد الرموز)، وبالتالي يمكننا حساب كمية الحساب المطلوبة من خلال قاعدة التجربة العامة، مما يتيح لنا تقدير كمية القدرة الحاسوبية التي نحتاج إلى شرائها تقريبًا ومدة التدريب.

تُعتبر القدرة الحاسوبية عادةً وحدة أساسية تُقاس بـ Flops.

GPT-0.48%
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • 7
  • مشاركة
تعليق
0/400
GateUser-43d6d1b5vip
· منذ 5 س
1000x المشاعر 🤑
شاهد النسخة الأصليةرد0
AirdropLickervip
· منذ 7 س
لا تقفز في التوزيع المجاني في السوق الصاعدة القادمة
شاهد النسخة الأصليةرد0
PumpDoctrinevip
· منذ 7 س
ثور吹这么大 ارتفع عملة才是关键
شاهد النسخة الأصليةرد0
LayerHoppervip
· منذ 7 س
انتهى زخم البلوكتشين المجنون، وأصبح التعدين باستخدام الأقراص الصلبة أكثر جاذبية.
شاهد النسخة الأصليةرد0
AirdropHunterXiaovip
· منذ 7 س
فقط 20٪؟ يبدو أن زيادة الكفاءة قليلة جدًا.
شاهد النسخة الأصليةرد0
StablecoinAnxietyvip
· منذ 7 س
الذكاء الاصطناعي ليس لديه كفاءة كافية
شاهد النسخة الأصليةرد0
DefiVeteranvip
· منذ 7 س
يقول البعض إن GPT رائع حقًا
شاهد النسخة الأصليةرد0
  • تثبيت