شركة الذكاء الاصطناعي Anthropic تبحث عن خبير أسلحة لوقف المستخدمين من "الاستخدام الخاطئ"

شركة الذكاء الاصطناعي أنثروبيك تسعى لتوظيف خبير أسلحة كيماوية ومتفجرات عالية الإنتاجية لوقف الاستخدام السيئ

منذ يوم واحد

مشاركة حفظ

زويا كلاينمان، محررة التكنولوجيا

مشاركة حفظ

Getty Images

شركة الذكاء الاصطناعي الأمريكية أنثروبيك تبحث عن توظيف خبير في الأسلحة الكيميائية والمتفجرات عالية الإنتاجية لمحاولة منع “الاستخدام الكارثي السيئ” لبرمجياتها.

بمعنى آخر، تخشى أن أدواتها الذكية قد تُعطى لشخص ما كيفية صنع أسلحة كيماوية أو نووية، وتريد خبيرًا لضمان أن تكون حواجزها قوية بما يكفي.

في منشور التوظيف على لينكدإن، تقول الشركة إن على المتقدمين أن يكون لديهم خبرة لا تقل عن خمس سنوات في “الدفاع عن الأسلحة الكيميائية و/أو المتفجرات” بالإضافة إلى معرفة بـ"أجهزة التشتت الإشعاعي" — والمعروفة أيضًا بالقنابل القذرة.

قالت الشركة لـ BBC إن الدور مشابه للوظائف في مجالات حساسة أخرى أنشأتها بالفعل.

أنثروبيك ليست الشركة الوحيدة التي تتبع هذا النهج في الذكاء الاصطناعي.

وقد أعلنت شركة OpenAI، مطورة ChatGPT، عن وظيفة مماثلة. على موقعها الإلكتروني للوظائف، تدرج وظيفة باحث في “المخاطر البيولوجية والكيميائية”، براتب يصل إلى 455,000 دولار (335,000 جنيه إسترليني)، وهو تقريبًا ضعف ما تعرضه أنثروبيك.

لكن بعض الخبراء يحذرون من مخاطر هذا النهج، محذرين من أن ذلك يمنح أدوات الذكاء الاصطناعي معلومات عن الأسلحة — حتى لو تم توجيهها بعدم استخدامها.

قالت الدكتورة ستيفاني هير، باحثة تكنولوجيا ومقدمة مشاركة لبرنامج BBC “الذكاء الاصطناعي المشفر”: “هل من الآمن أبدًا استخدام أنظمة الذكاء الاصطناعي لمعالجة معلومات حساسة عن المواد الكيميائية والمتفجرات، بما في ذلك القنابل القذرة والأسلحة الإشعاعية الأخرى؟”

“لا توجد معاهدة دولية أو تنظيمات أخرى لهذا النوع من العمل، واستخدام الذكاء الاصطناعي مع هذه الأنواع من الأسلحة. كل هذا يحدث بعيدًا عن الأنظار.”

حذرت صناعة الذكاء الاصطناعي باستمرار من التهديدات الوجودية المحتملة التي تفرضها تقنياتها، لكن لم يتم محاولة إبطاء تقدمها.

أصبح الأمر أكثر إلحاحًا مع دعوة الحكومة الأمريكية لشركات الذكاء الاصطناعي، وإطلاقها للحرب في إيران وعمليات عسكرية في فنزويلا.

LinkedIn

إعلان وظيفة شركة أنثروبيك الأمريكية للذكاء الاصطناعي يطلب خبيرًا في الأسلحة الكيميائية والمتفجرات عالية الإنتاجية للانضمام إلى فريق السياسات الخاص بها

تتخذ أنثروبيك إجراءات قانونية ضد وزارة الدفاع الأمريكية، التي صنفتها كمخاطر في سلسلة التوريد عندما أصرت الشركة على عدم استخدام أنظمتها في الأسلحة الذاتية بالكامل أو المراقبة الجماعية للأمريكيين.

كتب المؤسس المشارك لأنثروبيك، داريو أموداي، في فبراير أنه لا يعتقد أن التكنولوجيا جيدة بما يكفي بعد، ويجب عدم استخدامها لهذه الأغراض.

قالت البيت الأبيض إن الجيش الأمريكي لن يُحكم بواسطة شركات التكنولوجيا.

تصنيف المخاطر يضع الشركة الأمريكية في نفس فئة شركة الاتصالات الصينية هواوي، التي تم إدراجها أيضًا على القائمة السوداء لأسباب أمنية وطنية مختلفة.

قالت شركة OpenAI إنها تتفق مع موقف أنثروبيك، لكنها تفاوضت على عقد خاص مع الحكومة الأمريكية، والتي تقول إنها لم تبدأ بعد.

لم يتم إلغاء مساعد أنثروبيك الذكي، المسمى كلود، بعد، وهو لا يزال مدمجًا في أنظمة تقدمها شركة بالانتير ويُستخدم حاليًا من قبل الولايات المتحدة في الحرب بين الولايات المتحدة وإسرائيل وإيران.

الشركات الكبرى تدعم أنثروبيك في معركتها ضد إدارة ترامب

رفعت أنثروبيك دعوى قضائية ضد الحكومة الأمريكية بسبب تصنيفها كمخاطر

قائد سلامة الذكاء الاصطناعي يقول إن “العالم في خطر” ويترك العمل لدراسة الشعر

اشترك في نشرتنا الإخبارية “الذكاء التقني” لمتابعة أهم أخبار وتوجهات التكنولوجيا في العالم. خارج المملكة المتحدة؟ اشترك هنا.

الذكاء الاصطناعي

العسكرية

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$0.1عدد الحائزين:1
    0.00%
  • القيمة السوقية:$0.1عدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.46Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.45Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$0.1عدد الحائزين:1
    0.00%
  • تثبيت