مذهل! نفيديا تطلق 7 رقائق على التوالي، جين شوان يتجه مباشرة نحو إيرادات بقيمة تريليون دولار من رقائق الذكاء الاصطناعي

الصحفي ني يوتشنغ من صحيفة 21st Century Business Herald

في فجر يوم 17 مارس، افتتح مؤتمر NVIDIA GTC، الذي يُعتبر “السوبر بول” و"السهرات الربيعية" للذكاء الاصطناعي، ووقف مؤسس ومديرها التنفيذي، يانغ رنشن، مرة أخرى على منصة العرض، ليشعل عاصفة تقنية تُعيد تحديد الحدود الفيزيائية.

أعلنت NVIDIA أن منصة Vera Rubin (التي تعتمد على أحدث بنية شرائح) أصبحت الآن تحتوي على سبع شرائح جديدة تدخل الإنتاج بشكل كامل، وأن منصة Vera Rubin تفتح عصر الذكاء الاصطناعي الوكيل (Agentic AI)، وتبني أكبر مصنع للذكاء الاصطناعي في العالم.

وبالتحديد، تشمل هذه المنتجات الشرائح:

NVIDIA Vera CPU (نعم، NVIDIA تدخل سوق معالجات الخوادم المركزية)

NVIDIA Rubin GPU (المنتج الرائد في وحدات معالجة الرسوميات)

NVIDIA NVLink 6 (الجيل السادس من شرائح التبادل NVLink، للربط الداخلي بين الشرائح)

NVIDIA ConnectX-9 SuperNIC (بطاقة الشبكة الفائقة)

NVIDIA BlueField-4 DPU (شرائح التخزين)

NVIDIA Spectrum-6 (شرائح محولات Ethernet، تدعم تقنية CPO)

بالإضافة إلى ذلك، تم دمج أول شرائح من نوع NVIDIA Groq 3 LPU (وهي أول شرائح بعد استحواذ NVIDIA على Groq).

يمكن ملاحظة أن عائلة الشرائح لا تقتصر على المعالجات المركزية (CPU) ووحدات معالجة الرسوميات (GPU) المعروفة، بل تشمل أيضًا شرائح LPU من Groq، وشرائح التخزين، وشرائح المحولات، وغيرها من المنتجات الكاملة. ويمكن لهذه الشرائح أن تتحد لتكوين خمسة أرفف (frames) تعمل في مراكز البيانات.

وتجمع منصة Vera Rubin جميع هذه الشرائح، لتكوّن حاسوبًا فائقًا قويًا للذكاء الاصطناعي. سواء كان ذلك في التدريب المسبق على نطاق واسع، أو التوسعة بعد التدريب، أو الاختبار، أو الاستنتاج الذكي في الوقت الحقيقي، فإن هذا الوحش الحاسوبي يدعم كل ذلك.

قال يانغ رنشن: “Vera Rubin يمثل قفزة جيلية — سبعة شرائح ثورية، وخمسة أرفف، وحاسوب فائق ضخم — يوفر القوة لكل مرحلة من مراحل الذكاء الاصطناعي.” وأضاف: “مع إطلاق Vera Rubin، وصلت نقطة التحول في الذكاء الاصطناعي الوكيل (Agentic AI)، وسيبدأ بناء أكبر بنية تحتية في التاريخ.”

وتوقع يانغ أن إيرادات شرائح Blackwell و Rubin ستصل إلى تريليون دولار بحلول نهاية عام 2027، بعد أن كانت التوقعات السابقة في أكتوبر من العام الماضي تشير إلى 500 مليار دولار، أي مضاعفة التوقعات.

ما أُعلن اليوم يُعد “غير مسبوق”، فالأمر لا يقتصر على وحدات معالجة الرسوميات (GPU) أو ترقية تقنية واحدة، بل أكد يانغ مرة أخرى على اقتصاد “Token” وتطبيقات “الطبقة الخمسة” للذكاء الاصطناعي.

وفي مؤتمر GTC 2026 في فبراير، قال يانغ: “لقد أعددنا عدة شرائح جديدة لم يسبق لها مثيل في العالم. جميع التقنيات وصلت إلى حدودها، لذلك لا توجد أمور سهلة.”

من ناحية،، فإن وصف “الشرائح الجديدة غير المسبوقة” يثير حماس العالم، خاصة أن NVIDIA استمرت خلال العشر سنوات الماضية في إطلاق شرائح عالية الأداء، وأصبح تجاوز التوقعات أمراً معتاداً. مسار التقنية واضح، من Hopper، وBlackwell، وRubin، وFeyman، ويُركز يانغ على قدرة الحوسبة للسنوات الخمس القادمة على الأقل.

ومن ناحية أخرى، فإن قول “جميع التقنيات وصلت إلى حدودها” ليس مجرد عنوان مثير، بل يحمل قلقًا في السوق المالية، حيث يمكن فهمه على أن التقدم بمستويات أكبر قد يكون تم استهلاكه مسبقًا، وأن الاختراقات الكبرى أصبحت أكثر صعوبة.

وفي هذا المؤتمر، قدمت NVIDIA أيضًا ابتكارات على مستوى النظام. خلال مسيرة تطور الذكاء الاصطناعي، إذا كانت السنتان الماضيتان تتعلقان بـ"سباق التسلح" في القدرة الحاسوبية، فإن عام 2026 يُعلن بداية عصر جديد من التطور على مستوى النظام. لقد انتقلت المنافسة من مجرد شرائح فردية إلى بناء بنية تحتية متكاملة للذكاء الاصطناعي.

وفي العام الماضي، ذكر يانغ في GTC أن NVIDIA تتجه للتحول إلى شركة بنية تحتية للذكاء الاصطناعي، وأنها بدأت في التنفيذ هذا العام. NVIDIA ليست مجرد “مورد أدوات” في العصر، بل من خلال بناء نظام كامل من القدرة الحاسوبية إلى التطبيقات، تتحول إلى منصة أساسية لبيئة الذكاء الاصطناعي، وتحاول أن تكون بمثابة الماء والكهرباء في عصر الذكاء الاصطناعي.

بالإضافة إلى ذلك، أطلقت NVIDIA سلسلة من التقدمات المهمة حول الوكيل (Agent)، والنماذج المفتوحة، وتطبيقات متعددة القطاعات، بما في ذلك إصدار “نيمو كراو” (Nemo Claw) الخاص بها، وخطة مصنع البيانات الفيزيائية المفتوحة (Open Physical AI Data Factory Blueprint) لتسريع تطوير الروبوتات، ووكلاء الرؤية، والسيارات الذاتية القيادة. وللفضاء، أطلقت NVIDIA خدمة الحوسبة الفضائية، ودمجت الذكاء الاصطناعي في مراكز البيانات المدارية (ODC)، والذكاء الجغرافي، والعمليات الفضائية الذاتية، مع أحدث مكون وهو وحدة Vera Rubin الفضائية (NVIDIA Space-1 Vera Rubin).

اتجاه واحد واضح، وهو أن الشركات الكبرى تواصل تجميع القدرات، وسد الثغرات، وتوسيع سلاسل التوريد، وخلق حواجز أقوى. لقد ولى زمن التنافس على الشرائح والأداء بشكل فردي، وبدأت معركة نظامية شاملة على مستوى النظام.

ثورة Vera Rubin: من شرائح فردية إلى عصر النظام الكامل

باعتبارها خليفة للجيل السابق Blackwell، ستبدأ NVIDIA في إنتاج بنية Rubin (R100) في النصف الثاني من عام 2026. تعتمد هذه البنية على تقنية TSMC 3 نانومتر (N3P)، وتحتوي على معالج Vera CPU (المبني على بنية Olympus ذات 88 نواة) وGPU Rubin، واللذين يتصلان عبر تقنية NVLink-C2C بسرعة 1.8 تيرابايت/ثانية، ليتم دمجهما بشكل مادي في حزمة واحدة.

هذا التصميم “غير المعتمد على PCIe” يتيح أن يكون الأداء غير محدود بقيود الروابط التقليدية، حيث تصل قدرة الاستنتاج لكل GPU في وضع الدقة FP4 إلى 50 PFlops، و قدرة التدريب إلى 35 PFlops، مع كفاءة استهلاك طاقة أعلى بخمس مرات مقارنة بـBlackwell.

أما عن المنتجات الأساسية المكونة من الشرائح الجديدة، فهي أولاً، منصة Vera Rubin NVL72 (الرف) التي تربط 72 GPU من نوع Rubin و36 معالج Vera CPU عبر NVLink 6، وتزودها بـConnectX-9 SuperNIC وBlueField-4 DPU، لتحقيق كفاءة أعلى.

وفيما يخص التدريب على نماذج خبراء مختلطة كبيرة، فإن منصة Rubin تتطلب ربع عدد GPU مقارنة بمنصة Blackwell، وتحقق أعلى معدل استنتاج لكل واط يصل إلى عشرة أضعاف، مع تكلفة لكل رمز (token) تقدر بعشرها. هذا النظام مصمم خصيصًا لمصانع الذكاء الاصطناعي الضخمة، ويمكن توسيعه عبر InfiniBand Spectrum-X Ethernet من NVIDIA، للحفاظ على استغلال عالٍ في مجموعات GPU الكبيرة، وتقليل وقت التدريب والتكاليف الإجمالية.

وفي سياق الاستخدامات، يُعد Rubin مصنعًا رقميًا مخصصًا لـ"الذكاء الاصطناعي الوكيل (Agentic AI)" والاستنتاج طويل المدى. ويستخدم تقنية Transformer Engine 3.0 وInference Context Memory، مع دعم BlueField-4 DPU لإدارة التخزين، مما يمكن الوكيل من التعامل مع آلاف الرموز (Tokens) في سياق واحد، وإجراء استنتاجات متعددة الخطوات، واتخاذ قرارات فورية. ويحتوي النظام على شبكة Spectrum-X تدعم تقنية السيليكون الضوئي (CPO)، ويصل عرض النطاق الداخلي للرف NVL72 إلى 260 تيرابايت/ثانية، وهو أكثر من ضعف عرض النطاق للإنترنت عبر الحدود.

بالإضافة إلى أرفف GPU، أطلقت NVIDIA أيضًا منصة Vera CPU، المبنية على بنية MGX، وتحتوي على 256 معالج Vera CPU، لتوفير سعة قابلة للتوسع، وكفاءة في استهلاك الطاقة، وأداء فردي عالي. ومع أرفف الحوسبة GPU، توفر هذه المنصة أساسًا للذكاء الاصطناعي الوكيل (Agentic AI) والتعلم المعزز — حيث تكون كفاءة Vera ضعف المعالجات التقليدية، وسرعتها أعلى بنسبة 50%.

حاليًا، تشمل عملاء NVIDIA الذين يطلقون منصة Vera CPU: Alibaba، ByteDance، Meta، Oracle Cloud Infrastructure، بالإضافة إلى CoreWeave، Lambda، Nebius، وNscale. وقد دخلت المنصة الإنتاج الكامل، ومن المتوقع أن تبدأ الشحن في النصف الثاني من هذا العام.

ومع زيادة أداء الشرائح والأرفف، تركز NVIDIA بشكل متزايد على استهلاك الطاقة وقضايا الطاقة. فالطاقة تُعد أكبر عائق أمام بناء بنية تحتية للذكاء الاصطناعي. لذلك، تتعاون NVIDIA مع مزودي الطاقة لتحسين إمدادات الكهرباء واستقرار الشبكة، وتعمل مع أكثر من 200 شريك في بنية مراكز البيانات، لإطلاق منصة DSX، التي تُستخدم مع Vera Rubin.

وتشمل منصة DSX الجديدة DSX Max-Q، التي تتيح تخصيص الطاقة الديناميكي عبر مصانع الذكاء الاصطناعي، لتمكين نشر 30% من البنية التحتية الإضافية ضمن مراكز البيانات ذات الطاقة الثابتة. كما أن برنامج DSX Flex يجعل من مصنع الذكاء الاصطناعي أصلًا مرنًا على الشبكة، مما يطلق 100 جيجاوات من الطاقة غير المستغلة.

وبالختام، فإن منصة Vera Rubin تمثل تحولاً حقيقيًا، فهي ليست مجرد بطاقة رسومات، بل نظام متكامل يجمع بين القدرة الحاسوبية، والربط، والتخزين، والبنية التحتية المبردة بالسائل، ليُعلن عن دخول عصر جديد من البنية التحتية للذكاء الاصطناعي، حيث تنخفض تكلفة التوكنات إلى عشرين بالمئة، وتُرفع كفاءة الطاقة إلى ثمانية أضعاف.

كما أشار يانغ، فإن بنية الذكاء الاصطناعي تتطور بسرعة، من شرائح منفصلة وخوادم مستقلة، إلى أنظمة أرفف متكاملة، ونشر على مستوى الـPOD، ومصانع ذكاء اصطناعي، وذكاء اصطناعي سيادي.

وفي هذا السياق، أطلقت NVIDIA تصميم مرجعي لمصنع الذكاء الاصطناعي Vera Rubin DSX، يوضح كيفية تصميم وبناء وتشغيل البنية التحتية للمصنع، بما يشمل الحوسبة، وشبكة NVIDIA Spectrum-X Ethernet، والتخزين، لتحقيق أداء متكرر وقابل للتوسع وأمثل.

وتواجه مراكز البيانات التقليدية والبنية التحتية للذكاء الاصطناعي تحولات جذرية. قال يانغ: “في عصر الذكاء الاصطناعي، التوكن الذكي هو العملة الجديدة، ومصنع الذكاء الاصطناعي هو البنية التحتية لإنتاج هذه التوكنات. من خلال تصميم Vera Rubin DSX وOmniverse DSX Blueprint (المخطط الرقمي للمحاكاة)، نوفر الأساس لبناء أعلى مصنع ذكاء اصطناعي إنتاجية، لتسريع وقت تحقيق الإيرادات، وتعظيم الحجم والكفاءة في استهلاك الطاقة.”

وفي المؤتمر، كشف يانغ أيضًا عن النظام القادم Feynman، الذي سيحتوي على شرائح GPU جديدة، وLPU، ومعالج جديد يُدعى Rosa، وBluefield 5، وهيكل Kyber، ويدعم التوصيل عبر الكابلات النحاسية وتقنيات CPO، ومن المتوقع أن يُطلق في عام 2028.

أما عن شرائح Groq المثيرة للاهتمام، فبحلول نهاية عام 2025، ستُطلق NVIDIA عبر ترخيص استراتيجي بقيمة 20 مليار دولار، وتكامل عميق، شرائح Groq LPU (وحدة معالجة اللغة)، التي تُعد “طائرة صاروخية” تسرع من استجابة الوقت الحقيقي، وتُطلق عصر التفاعل الفوري. ويُعد هذا التعاون علامة على أن NVIDIA توسع معركتها من كفاءة التدريب إلى كفاءة الاستنتاج، من خلال إدخال نموذج برمجي يُديره مؤسس Groq، Jonathan Ross (المعروف بأنه أبو TPU في Google)، الذي يتجاوز قيود أداء GPU التقليدية في سيناريوهات توليد AI.

وتُعد منصة Groq 3 LPX (الرف) خطوة مهمة في تسريع الحساب. تحتوي على 256 LPU، وذاكرة SRAM على الشريحة بسعة 128 جيجابايت، وعرض نطاق 640 تيرابايت/ثانية. عند نشرها مع Vera Rubin NVL72، تتعاون GPU وLPU في حسابات النموذج AI، لتعزيز سرعة فك التشفير، وتوفير حسابات لكل رمز (Token).

وبعبارة أخرى، فإن LPX مصممة خصيصًا للأنظمة الوكيلية (Agentic systems) ذات الكمون المنخفض والسياق الكبير. عند دمجها مع Vera Rubin، تدمج الأداء الأقصى للمعالجين، وتحقق زيادة تصل إلى 35 ضعف في استهلاك الطاقة لكل ميغاواط، وتوفر فرص دخل تصل إلى 10 أضعاف لنماذج تريليون المعلمات.

كما أن بنية LPX محسنة لنماذج تريليون المعلمات وسياقات مئات الآلاف من الرموز، وتُصمم بالتعاون مع Vera Rubin لتعظيم الكفاءة في استهلاك الطاقة والذاكرة والحوسبة. هذا يعني أن الأداء لكل واط وToken سيصل إلى مستوى جديد، ويفتح فئة جديدة من الاستنتاج — استنتاجات فاخرة، تريليون معلمة، وسياقات مليونية، مما يوسع فرص دخل جميع مزودي الذكاء الاصطناعي.

ويستخدم LPX تصميم تبريد سائل كامل، ويُبنى على بنية MGX، ليتم دمجه بسلاسة في مصنع Vera Rubin القادم، ومن المتوقع أن يُطلق في النصف الثاني من هذا العام.

وفي عصر الاستنتاج، تتجاوز NVIDIA وحدات GPU، وتدمج بنى جديدة لرفع الكفاءة بشكل كبير.

وفي الهيكلية التقنية، تتخلى شرائح LPU من Groq عن إدارة التخزين المعقدة، وتوقعات التفرع، وإعادة ترتيب التعليمات، التي تعتمد على “التخمين”، وتتبنى بنية خط أنابيب حتمية. يزيل هذا التصميم التعقيد المادي من مستوى المعالج، ويجعل تدفق البيانات داخل الشريحة أشبه بنظام نقل دقيق، بدون أي تقلبات غير متوقعة (Jitter).

وللتغلب على مشكلة “جدار التخزين” التي طال أمدها، تتخلى LPU عن HBM عالي النطاق والبطء، وتملأ الشريحة بـ230 ميجابايت من SRAM على الشريحة، مع عرض نطاق ذاكرة يصل إلى 80 تيرابايت/ثانية، وهو أعلى بعشرة أضعاف من GPU Blackwell. مع هذا النطاق الترددي الفائق، يمكن لـLPU أن يُحقق زمن استجابة لا يُكاد يُلاحَظ (TTFT) في استنتاجات الدُفعة الواحدة، مع سرعة توليد رموز تتجاوز 1600 رمز/ثانية، مما يحول استجابة النماذج اللغوية من “كتابة متقطعة” إلى “كتابة فورية”.

ببساطة، أن التفاعل مع “الآلة الكاتبة” التي تتحدث معك الآن هو نتيجة لبطء الأداء، وإذا استُخدمت قدرات LPU، فسيكون الحوار في المستقبل فوريًا، ويُعطى النص دفعة واحدة. هذا التحسن يعتمد بشكل كبير على سرعة الاستنتاج.

وفي التطبيقات العملية، يُصبح نظام LPU، المدعوم من NVIDIA، هو المنقذ الوحيد لـ"الذكاء الاصطناعي الوكيل (Agentic AI)" و"التفاعل الصوتي في الوقت الحقيقي". في أنظمة القيادة الذاتية المساعدة أو روبوتات التداول عالية التردد، يمكن أن تؤدي أي تقلبات ميلي ثانية إلى فشل القرار، ويضمن حساب LPU الحتمي أن زمن التنفيذ دائمًا ثابت.

بالنسبة لسلاسل الوكيل المعقدة التي تتطلب استدعاءات متعددة لنماذج، يمكن لـLPU تقليل زمن التفكير من دقائق إلى ثوانٍ، مما يمكّن الذكاء الاصطناعي من إجراء محادثة وتعاون طبيعي وسلس في الوقت الحقيقي، كما يفعل البشر. ولتلبية هذا النمط الجديد من الحوسبة، تدمج NVIDIA وحدة LPU عبر تقنية NVFusion في نظام CUDA الواسع، وتُسرع نقل الأوزان المدربة من GPU إلى مصفوفة استنتاج LPU باستخدام بنية غير مترابطة (disaggregated).

وبفضل هذه القدرات، تفصل NVIDIA بين التدريب والاستنتاج، وتبني إمبراطورية حوسبة هجينة: GPU مسؤول عن تدريب نماذج تريليون المعلمات والمعالجة المسبقة للنصوص الطويلة، بينما تتولى مصفوفة LPU الاستنتاج في المقدمة بسرعة وكفاءة عالية، وتسيطر على سوق الاستنتاج في الوقت الحقيقي لنماذج تريليون المعلمات، معلنة بداية عصر “الاستنتاج الفوري”.

نيمو كراو: استحواذ NVIDIA على عصر الوكلاء الذكيين

وفي الوقت ذاته، أطلقت NVIDIA سلسلة من التقدمات المهمة حول الوكيل (Agent)، والنماذج المفتوحة، وتطبيقات متعددة القطاعات. مع تطور الذكاء الاصطناعي من أداة حوار بسيطة إلى كائن ذكي قادر على التخطيط الذاتي، واستدعاء الأدوات، وتنفيذ مهام معقدة، أصبحت منصات البرمجيات، وقدرات النماذج، والنظام البيئي، نقاط تنافس رئيسية في الصناعة.

وفي هذا السياق، أطلقت NVIDIA منصة Nemo Claw، التي تستهدف مجتمع OpenClaw، ورفعت تحالف Nemotron، الذي يضم مختبرات AI العالمية، ووسعت خطوط نماذجها المفتوحة، لتعزيز بنيتها التحتية ونظام النماذج.

وأحد أبرز الإعلانات هو منصة Nemo Claw، التي أُطلقت حديثًا، وأصبحت حديث المجتمع، وتُعتبر من أوائل أنظمة التشغيل الشخصية للذكاء الاصطناعي.

وأشاد يانغ بOpenClaw، وقال: “OpenClaw يفتح أمام الجميع آفاق الذكاء الاصطناعي، ويُعد أسرع مشروع مفتوح المصدر نموًا في التاريخ.” وأضاف: “Mac وWindows هما أنظمة تشغيل الحواسيب الشخصية، وOpenClaw هو نظام تشغيل الذكاء الاصطناعي الشخصي. هذا هو اللحظة التي ينتظرها الجميع — بداية عصر جديد للبرمجيات.” ويهدف OpenClaw إلى أن يعمل الوكيل (Agent) بشكل مستمر كأنه تطبيق، قادر على التخطيط الذاتي، واستدعاء الأدوات، وإتمام المهام المعقدة.

وفي إطار هذا، توفر NemoClaw مجموعة كاملة من القدرات البرمجية الأساسية، بحيث يمكن للمطورين تثبيت نماذج NVIDIA Nemotron وOpenShell Runtime بسهولة، وإضافة قدرات الأمان والخصوصية للوكيل. وباستخدام بيئة العزل التي توفرها OpenShell، يمكن للوكيل أن يلتزم بسياسات الأمان والخصوصية عند الوصول إلى الأدوات والبيانات، مع تحسين الكفاءة وضمان أمان البيانات.

كما يدعم NemoClaw استدعاء النماذج المحلية والسحابية بشكل مختلط، بحيث يمكن للمطورين تشغيل نماذج Nemotron على أجهزتهم الخاصة، والوصول إلى نماذج متطورة عبر الشبكة بشكل آمن، مع الحفاظ على خصوصية البيانات.

وأعلنت NVIDIA أيضًا عن تأسيس Nemotron Coalition، التي تضم مختبرات رائدة وشركات تطوير نماذج AI عالمية، بهدف تطوير نماذج مفتوحة ومتقدمة. ويشارك في تأسيسها شركات مثل Black Forest Labs، Cursor، LangChain، Mistral AI، Perplexity، Reflection AI، Sarvam، وThinking Machines Lab.

ويخطط الأعضاء لتطوير نموذج أساسي مشترك، يُستخدم في عائلة نماذج Nemotron 4 القادمة، مع مساهمات في البيانات، والتقييم، والمعرفة التخصصية.

وبالإضافة إلى ذلك، وسعت NVIDIA خطوط نماذجها المفتوحة لدعم مجالات الوكيل (Agent)، والذكاء الفيزيائي، والبحث العلمي الطبي، مع نماذج مثل Nemotron 3، التي تعزز فهم متعدد الوسائط، وتدعم إصدارات Ultra، وOmni، وVoiceChat، التي تتعامل مع النصوص، والصور، والصوت، وتُجري استنتاجات معقدة، وتستخرج المعلومات من الفيديو والوثائق.

وفيما يخص التطبيقات الواقعية، أطلقت NVIDIA نماذج أساسية للروبوتات، وأنظمة القيادة الذاتية، مثل NVIDIA Isaac GR00T N1.7، الذي يدعم الإدراك، والاستنتاج، واتخاذ القرار في بيئات العالم الحقيقي؛ وNVIDIA Alpamayo 1.5، الذي يُحسن قدرات السيارات الذاتية القيادة عبر دعم التنقل، والكاميرات المتعددة، والمعايرة؛ وNVIDIA Cosmos 3، الذي يُعد أول نموذج موحد لمحاكاة العالم، والفيزياء، والحركة، ويُساعد الروبوتات وأنظمة القيادة على التدريب واتخاذ القرارات في بيئات معقدة.

من منصة الوكيل (Agent) إلى النماذج المفتوحة، ومن الروبوتات إلى السيارات الذاتية، وعلوم الحياة، تبني NVIDIA نظامًا تقنيًا شاملًا يربط بين العالم الرقمي والفيزيائي. ومع انضمام المزيد من المطورين والشركات، من المتوقع أن يُسهم هذا النظام في دفع الابتكار وتطبيقات الذكاء الاصطناعي على مستوى العالم.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت