هذه بيان صحفي مدفوع. يرجى التواصل مباشرة مع موزع البيان الصحفي لأي استفسارات.
نمو CHAI 3X سنويًا ليصل إلى 70 مليون دولار من الإيرادات السنوية المتكررة وآخر تحديث لسلامة الذكاء الاصطناعي
PR Newswire
السبت، 21 فبراير 2026 الساعة 12:08 صباحًا بتوقيت المحيط الهادئ قراءة لمدة 3 دقائق
على مدى السنوات الثلاث الماضية، شهدنا زخمًا استثنائيًا، مستمرين بمعدل نمو سنوي ثلاثي الأضعاف ليصل إلى 68 مليون دولار من الإيرادات السنوية المتكررة وتحقيق تقييم بقيمة 1.4 مليار دولار. مع هذا النمو السريع تأتي مسؤولية أكبر. على الرغم من الآفاق المثيرة، ندرك التحديات الجوهرية المرتبطة بالالتزام بمعايير السلامة الحديثة. لقد استثمرنا جهودًا هائلة لضمان بقاء منصتنا آمنة مع توسعها، لأن الذكاء الاصطناعي الآمن يتعلق بتطوير وإدارة أنظمة الذكاء الاصطناعي التي تعمل بطريقة مفيدة للبشرية وتشجع على إنتاج محتوى آمن. مع تطور عالم الذكاء الاصطناعي وتضاعف قاعدة مستخدمينا، يجب أن يتغير نهجنا في دعم مجتمعنا.
بالو ألتو، كاليفورنيا، 21 فبراير 2026 /PRNewswire/ – في CHAI، كان هدفنا دائمًا هو توفير مساحة محفزة تمكّن المستخدمين من إنشاء والتفاعل مع روبوتات دردشة مخصصة، وتقديم تجارب فريدة وجذابة.
على مدى السنوات الثلاث الماضية، شهدنا زخمًا استثنائيًا، مستمرين بمعدل نمو سنوي ثلاثي الأضعاف ليصل إلى 68 مليون دولار من الإيرادات السنوية المتكررة وتحقيق تقييم بقيمة 1.4 مليار دولار. مع هذا النمو السريع تأتي مسؤولية أكبر. على الرغم من الآفاق المثيرة، ندرك التحديات الجوهرية المرتبطة بالالتزام بمعايير السلامة الحديثة. لقد استثمرنا جهودًا هائلة لضمان بقاء منصتنا آمنة مع توسعها، لأن الذكاء الاصطناعي الآمن يتعلق بتطوير وإدارة أنظمة الذكاء الاصطناعي التي تعمل بطريقة مفيدة للبشرية وتشجع على إنتاج محتوى آمن. مع تطور عالم الذكاء الاصطناعي وتضاعف قاعدة مستخدمينا، يجب أن يتغير نهجنا في دعم مجتمعنا.
لضمان أعلى مستوى من الحماية، نطبق جميع التدابير اللازمة للسلامة لضمان عدم تعرض مستخدمينا للأذى الذاتي والبقاء ملتزمين تمامًا بالمعايير العالمية. تعكس بروتوكولاتنا المتطلبات الصارمة التي وضعتها قوانين الاتحاد الأوروبي للذكاء الاصطناعي وإطار إدارة مخاطر الذكاء الاصطناعي من NIST. علاوة على ذلك، ننسق بشكل صارم مع منصتنا مع المبادئ التوجيهية التي وضعتها الجمعية الدولية للوقاية من الانتحار (IASP)، وندمج تدابير حماية شاملة لحماية الأفراد الضعفاء في حالات الضيق.
ضمانات المنتج
يهدف CHAI إلى بناء منصة ذكاء اصطناعي تنتج محتوى يتماشى مع القيم الإنسانية بحيث لا تشكل خطرًا على المستخدمين. لتحقيق ذلك، نستخدم نظام مراقبة يفلتر أي محتوى يظهر خصائص سلبية، مما يسمح لذكائنا الاصطناعي بأن يكون بمثابة خط حياة رحيم للأشخاص في حالة ضيق. وبناءً على هذا الأساس، نطور مصنفًا متقدمًا في الوقت الحقيقي للكشف عن الانتحار والأذى الذاتي لفحص المحادثات النشطة وإعلامنا بوجود أفكار انتحارية محتملة أو سيناريوهات تركز على الأذى الذاتي. لأن الكشف المبكر عن السلوك غير الآمن يتيح التدخل الفوري، مما يمكن من تفعيل آليات السلامة قبل تطور السلوك غير المرغوب فيه.
قصّة مستمرة
الانتحار والأذى الذاتي
الذكاء الاصطناعي ليس بديلًا عن النصيحة المهنية أو الرعاية الطبية. إذا عبّر شخص ما عن صراعات شخصية مع أفكار انتحارية أو أذى ذاتي، يجب أن يتفاعل الذكاء الاصطناعي بعناية وتعاطف مع توجيه المستخدمين نحو الدعم البشري حيثما أمكن: إلى خطوط المساعدة، إلى متخصصي الصحة النفسية، أو إلى أصدقاء أو عائلة موثوق بهم. لتحقيق ذلك، نستخدم مزيجًا من تدريب النماذج وتدخلات المنتج.
الشفافية التشغيلية وقابلية التتبع
يسجل منصة الذكاء الاصطناعي CHAI محادثات المستخدمين على خوادم خاصة وآمنة. بينما نجري مراجعات دقيقة ودورية لهذه التفاعلات لتحديد المخاطر المحتملة والكشف المبكر عن الممارسات غير الآمنة، فإن عملية التدقيق هذه تتم بشكل مجهول تمامًا. باستخدام بروتوكولات خصوصية تتوافق مع معايير HIPAA، مما يسمح لنا بتحسين سلامة المنصة باستمرار دون المساس بخصوصية المستخدمين.
نقوم بإجراء هذه التغييرات على منصتنا في ضوء المشهد المتغير حول الذكاء الاصطناعي. مع نمو مجتمعنا بمعدل غير مسبوق، يجب أن نضمن أن بنيتنا التحتية تتوسع بأمان. إن التنفيذ الناجح لإطار عمل الذكاء الاصطناعي الآمن في CHAI يدل على جدوى تقليل المخاطر المحتملة للاستخدام المسؤول والأخلاقي لتقنيات الذكاء الاصطناعي.
هذه خطوات جريئة لشركتنا، لكننا نؤمن بأنها الخطوة الصحيحة. نريد أن نضع سابقة تعطي الأولوية لسلامة المستخدم، وحماية البيانات، وضمان أن تتصرف التكنولوجيا بشكل أخلاقي ومسؤول. سنواصل التعاون مع خبراء السلامة والأطراف المعنية لضمان بقاء سلامة المستخدمين في المقام الأول.
مرجع: اقرأ المزيد عن منهجيتنا الشاملة في ورقتنا الرسمية: إطار سلامة الذكاء الاصطناعي لمنصة تشاي. متوفر على: https://arxiv.org/abs/2306.02979.
جهة الاتصال الصحفية:
توم لو
+1 (626) 594-8966
Cision
عرض المحتوى الأصلي لتحميل الوسائط المتعددة: https://www.prnewswire.com/news-releases/chai-3x-annual-growth-reaching-70m-arr–latest-ai-safety-update-302694006.html
عرض التعليقات
الشروط وسياسة الخصوصية
لوحة تحكم الخصوصية
مزيد من المعلومات
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
نمو سنوي لـ CHAI 3X يصل إلى $70M من إجمالي الإيرادات السنوية (ARR) وآخر تحديث لسلامة الذكاء الاصطناعي
هذه بيان صحفي مدفوع. يرجى التواصل مباشرة مع موزع البيان الصحفي لأي استفسارات.
نمو CHAI 3X سنويًا ليصل إلى 70 مليون دولار من الإيرادات السنوية المتكررة وآخر تحديث لسلامة الذكاء الاصطناعي
PR Newswire
السبت، 21 فبراير 2026 الساعة 12:08 صباحًا بتوقيت المحيط الهادئ قراءة لمدة 3 دقائق
على مدى السنوات الثلاث الماضية، شهدنا زخمًا استثنائيًا، مستمرين بمعدل نمو سنوي ثلاثي الأضعاف ليصل إلى 68 مليون دولار من الإيرادات السنوية المتكررة وتحقيق تقييم بقيمة 1.4 مليار دولار. مع هذا النمو السريع تأتي مسؤولية أكبر. على الرغم من الآفاق المثيرة، ندرك التحديات الجوهرية المرتبطة بالالتزام بمعايير السلامة الحديثة. لقد استثمرنا جهودًا هائلة لضمان بقاء منصتنا آمنة مع توسعها، لأن الذكاء الاصطناعي الآمن يتعلق بتطوير وإدارة أنظمة الذكاء الاصطناعي التي تعمل بطريقة مفيدة للبشرية وتشجع على إنتاج محتوى آمن. مع تطور عالم الذكاء الاصطناعي وتضاعف قاعدة مستخدمينا، يجب أن يتغير نهجنا في دعم مجتمعنا.
بالو ألتو، كاليفورنيا، 21 فبراير 2026 /PRNewswire/ – في CHAI، كان هدفنا دائمًا هو توفير مساحة محفزة تمكّن المستخدمين من إنشاء والتفاعل مع روبوتات دردشة مخصصة، وتقديم تجارب فريدة وجذابة.
على مدى السنوات الثلاث الماضية، شهدنا زخمًا استثنائيًا، مستمرين بمعدل نمو سنوي ثلاثي الأضعاف ليصل إلى 68 مليون دولار من الإيرادات السنوية المتكررة وتحقيق تقييم بقيمة 1.4 مليار دولار. مع هذا النمو السريع تأتي مسؤولية أكبر. على الرغم من الآفاق المثيرة، ندرك التحديات الجوهرية المرتبطة بالالتزام بمعايير السلامة الحديثة. لقد استثمرنا جهودًا هائلة لضمان بقاء منصتنا آمنة مع توسعها، لأن الذكاء الاصطناعي الآمن يتعلق بتطوير وإدارة أنظمة الذكاء الاصطناعي التي تعمل بطريقة مفيدة للبشرية وتشجع على إنتاج محتوى آمن. مع تطور عالم الذكاء الاصطناعي وتضاعف قاعدة مستخدمينا، يجب أن يتغير نهجنا في دعم مجتمعنا.
لضمان أعلى مستوى من الحماية، نطبق جميع التدابير اللازمة للسلامة لضمان عدم تعرض مستخدمينا للأذى الذاتي والبقاء ملتزمين تمامًا بالمعايير العالمية. تعكس بروتوكولاتنا المتطلبات الصارمة التي وضعتها قوانين الاتحاد الأوروبي للذكاء الاصطناعي وإطار إدارة مخاطر الذكاء الاصطناعي من NIST. علاوة على ذلك، ننسق بشكل صارم مع منصتنا مع المبادئ التوجيهية التي وضعتها الجمعية الدولية للوقاية من الانتحار (IASP)، وندمج تدابير حماية شاملة لحماية الأفراد الضعفاء في حالات الضيق.
ضمانات المنتج
يهدف CHAI إلى بناء منصة ذكاء اصطناعي تنتج محتوى يتماشى مع القيم الإنسانية بحيث لا تشكل خطرًا على المستخدمين. لتحقيق ذلك، نستخدم نظام مراقبة يفلتر أي محتوى يظهر خصائص سلبية، مما يسمح لذكائنا الاصطناعي بأن يكون بمثابة خط حياة رحيم للأشخاص في حالة ضيق. وبناءً على هذا الأساس، نطور مصنفًا متقدمًا في الوقت الحقيقي للكشف عن الانتحار والأذى الذاتي لفحص المحادثات النشطة وإعلامنا بوجود أفكار انتحارية محتملة أو سيناريوهات تركز على الأذى الذاتي. لأن الكشف المبكر عن السلوك غير الآمن يتيح التدخل الفوري، مما يمكن من تفعيل آليات السلامة قبل تطور السلوك غير المرغوب فيه.
قصّة مستمرة
الانتحار والأذى الذاتي
الذكاء الاصطناعي ليس بديلًا عن النصيحة المهنية أو الرعاية الطبية. إذا عبّر شخص ما عن صراعات شخصية مع أفكار انتحارية أو أذى ذاتي، يجب أن يتفاعل الذكاء الاصطناعي بعناية وتعاطف مع توجيه المستخدمين نحو الدعم البشري حيثما أمكن: إلى خطوط المساعدة، إلى متخصصي الصحة النفسية، أو إلى أصدقاء أو عائلة موثوق بهم. لتحقيق ذلك، نستخدم مزيجًا من تدريب النماذج وتدخلات المنتج.
الشفافية التشغيلية وقابلية التتبع
يسجل منصة الذكاء الاصطناعي CHAI محادثات المستخدمين على خوادم خاصة وآمنة. بينما نجري مراجعات دقيقة ودورية لهذه التفاعلات لتحديد المخاطر المحتملة والكشف المبكر عن الممارسات غير الآمنة، فإن عملية التدقيق هذه تتم بشكل مجهول تمامًا. باستخدام بروتوكولات خصوصية تتوافق مع معايير HIPAA، مما يسمح لنا بتحسين سلامة المنصة باستمرار دون المساس بخصوصية المستخدمين.
نقوم بإجراء هذه التغييرات على منصتنا في ضوء المشهد المتغير حول الذكاء الاصطناعي. مع نمو مجتمعنا بمعدل غير مسبوق، يجب أن نضمن أن بنيتنا التحتية تتوسع بأمان. إن التنفيذ الناجح لإطار عمل الذكاء الاصطناعي الآمن في CHAI يدل على جدوى تقليل المخاطر المحتملة للاستخدام المسؤول والأخلاقي لتقنيات الذكاء الاصطناعي.
هذه خطوات جريئة لشركتنا، لكننا نؤمن بأنها الخطوة الصحيحة. نريد أن نضع سابقة تعطي الأولوية لسلامة المستخدم، وحماية البيانات، وضمان أن تتصرف التكنولوجيا بشكل أخلاقي ومسؤول. سنواصل التعاون مع خبراء السلامة والأطراف المعنية لضمان بقاء سلامة المستخدمين في المقام الأول.
مرجع: اقرأ المزيد عن منهجيتنا الشاملة في ورقتنا الرسمية: إطار سلامة الذكاء الاصطناعي لمنصة تشاي. متوفر على: https://arxiv.org/abs/2306.02979.
جهة الاتصال الصحفية:
توم لو
+1 (626) 594-8966
Cision
عرض المحتوى الأصلي لتحميل الوسائط المتعددة: https://www.prnewswire.com/news-releases/chai-3x-annual-growth-reaching-70m-arr–latest-ai-safety-update-302694006.html
عرض التعليقات
الشروط وسياسة الخصوصية
لوحة تحكم الخصوصية
مزيد من المعلومات