العقود الآجلة
وصول إلى مئات العقود الدائمة
TradFi
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
مقدمة حول تداول العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
منصة الإطلاق
كن من الأوائل في الانضمام إلى مشروع التوكن الكبير القادم
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
شركة الذكاء الاصطناعي Anthropic تبحث عن خبير أسلحة لوقف المستخدمين من "الاستخدام الخاطئ"
شركة الذكاء الاصطناعي أنثروبيك تسعى لتوظيف خبير أسلحة كيماوية ومتفجرات عالية الإنتاجية لوقف الاستخدام السيئ
منذ يوم واحد
مشاركة حفظ
زويا كلاينمان، محررة التكنولوجيا
مشاركة حفظ
شركة الذكاء الاصطناعي الأمريكية أنثروبيك تبحث عن توظيف خبير في الأسلحة الكيميائية والمتفجرات عالية الإنتاجية لمحاولة منع “الاستخدام الكارثي السيئ” لبرمجياتها.
بمعنى آخر، تخشى أن أدواتها الذكية قد تُعطى لشخص ما كيفية صنع أسلحة كيماوية أو نووية، وتريد خبيرًا لضمان أن تكون حواجزها قوية بما يكفي.
في منشور التوظيف على لينكدإن، تقول الشركة إن على المتقدمين أن يكون لديهم خبرة لا تقل عن خمس سنوات في “الدفاع عن الأسلحة الكيميائية و/أو المتفجرات” بالإضافة إلى معرفة بـ"أجهزة التشتت الإشعاعي" — والمعروفة أيضًا بالقنابل القذرة.
قالت الشركة لـ BBC إن الدور مشابه للوظائف في مجالات حساسة أخرى أنشأتها بالفعل.
أنثروبيك ليست الشركة الوحيدة التي تتبع هذا النهج في الذكاء الاصطناعي.
وقد أعلنت شركة OpenAI، مطورة ChatGPT، عن وظيفة مماثلة. على موقعها الإلكتروني للوظائف، تدرج وظيفة باحث في “المخاطر البيولوجية والكيميائية”، براتب يصل إلى 455,000 دولار (335,000 جنيه إسترليني)، وهو تقريبًا ضعف ما تعرضه أنثروبيك.
لكن بعض الخبراء يحذرون من مخاطر هذا النهج، محذرين من أن ذلك يمنح أدوات الذكاء الاصطناعي معلومات عن الأسلحة — حتى لو تم توجيهها بعدم استخدامها.
قالت الدكتورة ستيفاني هير، باحثة تكنولوجيا ومقدمة مشاركة لبرنامج BBC “الذكاء الاصطناعي المشفر”: “هل من الآمن أبدًا استخدام أنظمة الذكاء الاصطناعي لمعالجة معلومات حساسة عن المواد الكيميائية والمتفجرات، بما في ذلك القنابل القذرة والأسلحة الإشعاعية الأخرى؟”
“لا توجد معاهدة دولية أو تنظيمات أخرى لهذا النوع من العمل، واستخدام الذكاء الاصطناعي مع هذه الأنواع من الأسلحة. كل هذا يحدث بعيدًا عن الأنظار.”
حذرت صناعة الذكاء الاصطناعي باستمرار من التهديدات الوجودية المحتملة التي تفرضها تقنياتها، لكن لم يتم محاولة إبطاء تقدمها.
أصبح الأمر أكثر إلحاحًا مع دعوة الحكومة الأمريكية لشركات الذكاء الاصطناعي، وإطلاقها للحرب في إيران وعمليات عسكرية في فنزويلا.
إعلان وظيفة شركة أنثروبيك الأمريكية للذكاء الاصطناعي يطلب خبيرًا في الأسلحة الكيميائية والمتفجرات عالية الإنتاجية للانضمام إلى فريق السياسات الخاص بها
تتخذ أنثروبيك إجراءات قانونية ضد وزارة الدفاع الأمريكية، التي صنفتها كمخاطر في سلسلة التوريد عندما أصرت الشركة على عدم استخدام أنظمتها في الأسلحة الذاتية بالكامل أو المراقبة الجماعية للأمريكيين.
كتب المؤسس المشارك لأنثروبيك، داريو أموداي، في فبراير أنه لا يعتقد أن التكنولوجيا جيدة بما يكفي بعد، ويجب عدم استخدامها لهذه الأغراض.
قالت البيت الأبيض إن الجيش الأمريكي لن يُحكم بواسطة شركات التكنولوجيا.
تصنيف المخاطر يضع الشركة الأمريكية في نفس فئة شركة الاتصالات الصينية هواوي، التي تم إدراجها أيضًا على القائمة السوداء لأسباب أمنية وطنية مختلفة.
قالت شركة OpenAI إنها تتفق مع موقف أنثروبيك، لكنها تفاوضت على عقد خاص مع الحكومة الأمريكية، والتي تقول إنها لم تبدأ بعد.
لم يتم إلغاء مساعد أنثروبيك الذكي، المسمى كلود، بعد، وهو لا يزال مدمجًا في أنظمة تقدمها شركة بالانتير ويُستخدم حاليًا من قبل الولايات المتحدة في الحرب بين الولايات المتحدة وإسرائيل وإيران.
الشركات الكبرى تدعم أنثروبيك في معركتها ضد إدارة ترامب
رفعت أنثروبيك دعوى قضائية ضد الحكومة الأمريكية بسبب تصنيفها كمخاطر
قائد سلامة الذكاء الاصطناعي يقول إن “العالم في خطر” ويترك العمل لدراسة الشعر
اشترك في نشرتنا الإخبارية “الذكاء التقني” لمتابعة أهم أخبار وتوجهات التكنولوجيا في العالم. خارج المملكة المتحدة؟ اشترك هنا.
الذكاء الاصطناعي
العسكرية