وفقا لتقرير IT House في 20 أكتوبر ، أصدرت جامعة ستانفورد مؤخرا النموذج الأساسي الذكاء الاصطناعي "مؤشر الشفافية" ، والذي يعد أعلى مؤشر منه هو Meta's Lama 2 ، لكن "الشفافية" ذات الصلة هي 54٪ فقط ، لذلك يعتقد الباحثون أن جميع نماذج الذكاء الاصطناعي تقريبا في السوق "تفتقر إلى الشفافية". يذكر أن البحث قاده ريشي بوماساني ، رئيس مركز أبحاث النموذج الأساسي HAI (CRFM) ، وحقق في أكثر 10 نماذج أساسية شعبية في الخارج. يعتقد ريشي بوماساني أن "الافتقار إلى الشفافية" كان دائما مشكلة تواجهها صناعة الذكاء الاصطناعي ، وفيما يتعلق بنموذج محدد "مؤشرات الشفافية" ، وجدت IT House أن محتوى التقييم ذي الصلة يدور بشكل أساسي حول "حقوق الطبع والنشر لمجموعة بيانات التدريب النموذجية" ، "موارد الحوسبة المستخدمة لتدريب النموذج" ، "مصداقية المحتوى الذي تم إنشاؤه بواسطة النموذج" ، "قدرة النموذج نفسه" ، "خطر حث النموذج على إنشاء محتوى ضار" ، "خصوصية المستخدمين الذين يستخدمون النموذج" ، وما إلى ذلك ، ما مجموعه 100 عنصر. أظهر الاستطلاع النهائي أن Lama 2 من Meta تصدرت الشفافية بنسبة 54٪ ، في حين أن شفافية GPT-4 من OpenAI كانت 48٪ فقط ، واحتلت PaLM 2 من Google المرتبة الخامسة بنسبة 40٪.