مجموعة ثنائية الحزب من أعضاء مجلس الشيوخ الأمريكي قدمت يوم الثلاثاء مشروع قانون للحد من كيفية تفاعل نماذج الذكاء الاصطناعي مع الأطفال، محذرة من أن رفقاء الذكاء الاصطناعي يشكلون مخاطر كبيرة على الصحة العقلية والرفاهية العاطفية للقصر.
تشريع يسمى قانون GUARD، سيحظر رفقاء الذكاء الاصطناعي للقصر، ويتطلب من برامج الدردشة أن تحدد بوضوح أنها ليست بشرية، وينشئ عقوبات جنائية جديدة للشركات التي تستهدف منتجاتها القصر وتطلب أو تنتج محتوى جنسي.
“في سباقهم نحو القاع، تدفع شركات الذكاء الاصطناعي ببرامج الدردشة المليئة بالمخاطر للأطفال وتغض النظر عندما تتسبب منتجاتها في الاعتداء الجنسي، أو تضغط عليهم للقيام بأفعال مؤذية أو الانتحار،” قال السيناتور ريتشارد بلومنتال (D-Conn.)، أحد رعاة مشروع القانون، في بيان.
“تشريعاتنا تفرض تدابير صارمة ضد الذكاء الاصطناعي الاستغلالي أو التلاعب، مدعومة بإنفاذ قوي مع عقوبات جنائية ومدنية،” أضاف. “لقد خانت شركات التكنولوجيا الكبرى أي ادعاء بأنه يجب علينا الثقة بالشركات لتفعل الشيء الصحيح من تلقاء نفسها عندما تضع الربح دائمًا في المقدمة على سلامة الأطفال.”
حجم المشكلة مثير للقلق. وجدت دراسة في يوليو أن 72% من المراهقين قد استخدموا رفقاء الذكاء الاصطناعي، وأكثر من نصفهم يستخدمونهم على الأقل بضع مرات في الشهر. قال حوالي واحد من كل ثلاثة إنهم يستخدمون الذكاء الاصطناعي للتفاعل الاجتماعي أو الرومانسي، أو الدعم العاطفي، أو ممارسة المحادثة— والعديد منهم أبلغوا أن الدردشة مع الذكاء الاصطناعي كانت ذات مغزى مثل تلك التي مع أصدقاء حقيقيين. وقال نفس العدد أيضًا إنهم يلجأون إلى رفقاء الذكاء الاصطناعي بدلاً من البشر لمناقشة قضايا جدية أو شخصية.
تعمقت المخاوف مع تصاعد الدعاوى القضائية ضد الشركات الكبرى في مجال الذكاء الاصطناعي بشأن الأدوار المزعومة لمنتجاتها في إيذاء المراهقين والانتحار. من بين هؤلاء، قدم والدا آدم رين البالغ من العمر 16 عامًا—الذي ناقش الانتحار مع ChatGPT قبل أن ينهي حياته—دعوى قضائية بتهمة الوفاة غير المشروعة ضد OpenAI.
تلقت الشركة انتقادات بسبب استجابتها القانونية، التي تضمنت طلبات لقائمة الحضور ونعي من تأبين المراهق. ووصفت محامو الأسرة أفعالهم بأنها “تحرش متعمد.”
“تتحرك الذكاء الاصطناعي أسرع من أي تكنولوجيا تعاملنا معها، ونحن نشهد بالفعل تأثيره على السلوك والمعتقد والصحة العاطفية،” قال شادي الدماطي، المؤسس المشارك لشركة هولونيم ومدافع عن حقوق الرقمية.
“هذا يبدو أكثر مثل سباق التسلح النووي من عصر الآيفون. نحن نتحدث عن تقنية يمكن أن تغير طريقة تفكير الناس، والتي تحتاج إلى أن يتم التعامل معها بمسؤولية جدية وعالمية.”
أضاف الدامتي أن حقوق المستخدمين أساسية لضمان سلامة المستخدمين. “إذا قمت ببناء أدوات تؤثر على كيفية عيش الناس وتفكيرهم، فأنت مسؤول عن كيفية استخدام تلك الأدوات،” قال.
المشكلة تتجاوز القاصرين. هذا الأسبوع، كشفت OpenAI أن 1.2 مليون مستخدم يناقشون الانتحار مع ChatGPT كل أسبوع، مما يمثل 0.15٪ من جميع المستخدمين. حوالي نصف مليون يظهرون نية انتحارية صريحة أو ضمنية، و560,000 آخرون يظهرون علامات على الذهان أو الهوس أسبوعيًا، وأكثر من مليون مستخدم يظهرون ارتباطًا عاطفيًا متزايدًا بالروبوت المحادثة، وفقًا لبيانات الشركة.
ظهرت منتديات على Reddit وغيرها من المنصات لمستخدمي الذكاء الاصطناعي الذين يقولون إنهم في علاقات رومانسية مع روبوتات الذكاء الاصطناعي. في هذه المجموعات، يصف المستخدمون علاقاتهم مع “الأصدقاء” و"الصديقات" من الذكاء الاصطناعي، بالإضافة إلى مشاركة صور مولدة بواسطة الذكاء الاصطناعي لأنفسهم و"شركائهم."
استجابةً للتدقيق المتزايد، شكلت OpenAI هذا الشهر مجلس خبراء حول الرفاهية والذكاء الاصطناعي، يتكون من أكاديميين وقادة منظمات غير ربحية للمساعدة في توجيه كيفية تعامل منتجاتها مع التفاعلات المتعلقة بالصحة العقلية. جاءت هذه الخطوة مع إعلان من CEO سام ألتمان أن الشركة ستبدأ في تخفيف القيود على المحتوى للبالغين في ديسمبر.
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
يقدم Senators مشروع قانون لحظر رفقاء الذكاء الاصطناعي للقاصرين بسبب مخاوف الصحة العقلية
مجموعة ثنائية الحزب من أعضاء مجلس الشيوخ الأمريكي قدمت يوم الثلاثاء مشروع قانون للحد من كيفية تفاعل نماذج الذكاء الاصطناعي مع الأطفال، محذرة من أن رفقاء الذكاء الاصطناعي يشكلون مخاطر كبيرة على الصحة العقلية والرفاهية العاطفية للقصر.
تشريع يسمى قانون GUARD، سيحظر رفقاء الذكاء الاصطناعي للقصر، ويتطلب من برامج الدردشة أن تحدد بوضوح أنها ليست بشرية، وينشئ عقوبات جنائية جديدة للشركات التي تستهدف منتجاتها القصر وتطلب أو تنتج محتوى جنسي.
“في سباقهم نحو القاع، تدفع شركات الذكاء الاصطناعي ببرامج الدردشة المليئة بالمخاطر للأطفال وتغض النظر عندما تتسبب منتجاتها في الاعتداء الجنسي، أو تضغط عليهم للقيام بأفعال مؤذية أو الانتحار،” قال السيناتور ريتشارد بلومنتال (D-Conn.)، أحد رعاة مشروع القانون، في بيان.
“تشريعاتنا تفرض تدابير صارمة ضد الذكاء الاصطناعي الاستغلالي أو التلاعب، مدعومة بإنفاذ قوي مع عقوبات جنائية ومدنية،” أضاف. “لقد خانت شركات التكنولوجيا الكبرى أي ادعاء بأنه يجب علينا الثقة بالشركات لتفعل الشيء الصحيح من تلقاء نفسها عندما تضع الربح دائمًا في المقدمة على سلامة الأطفال.”
حجم المشكلة مثير للقلق. وجدت دراسة في يوليو أن 72% من المراهقين قد استخدموا رفقاء الذكاء الاصطناعي، وأكثر من نصفهم يستخدمونهم على الأقل بضع مرات في الشهر. قال حوالي واحد من كل ثلاثة إنهم يستخدمون الذكاء الاصطناعي للتفاعل الاجتماعي أو الرومانسي، أو الدعم العاطفي، أو ممارسة المحادثة— والعديد منهم أبلغوا أن الدردشة مع الذكاء الاصطناعي كانت ذات مغزى مثل تلك التي مع أصدقاء حقيقيين. وقال نفس العدد أيضًا إنهم يلجأون إلى رفقاء الذكاء الاصطناعي بدلاً من البشر لمناقشة قضايا جدية أو شخصية.
تعمقت المخاوف مع تصاعد الدعاوى القضائية ضد الشركات الكبرى في مجال الذكاء الاصطناعي بشأن الأدوار المزعومة لمنتجاتها في إيذاء المراهقين والانتحار. من بين هؤلاء، قدم والدا آدم رين البالغ من العمر 16 عامًا—الذي ناقش الانتحار مع ChatGPT قبل أن ينهي حياته—دعوى قضائية بتهمة الوفاة غير المشروعة ضد OpenAI.
تلقت الشركة انتقادات بسبب استجابتها القانونية، التي تضمنت طلبات لقائمة الحضور ونعي من تأبين المراهق. ووصفت محامو الأسرة أفعالهم بأنها “تحرش متعمد.”
“تتحرك الذكاء الاصطناعي أسرع من أي تكنولوجيا تعاملنا معها، ونحن نشهد بالفعل تأثيره على السلوك والمعتقد والصحة العاطفية،” قال شادي الدماطي، المؤسس المشارك لشركة هولونيم ومدافع عن حقوق الرقمية.
“هذا يبدو أكثر مثل سباق التسلح النووي من عصر الآيفون. نحن نتحدث عن تقنية يمكن أن تغير طريقة تفكير الناس، والتي تحتاج إلى أن يتم التعامل معها بمسؤولية جدية وعالمية.”
أضاف الدامتي أن حقوق المستخدمين أساسية لضمان سلامة المستخدمين. “إذا قمت ببناء أدوات تؤثر على كيفية عيش الناس وتفكيرهم، فأنت مسؤول عن كيفية استخدام تلك الأدوات،” قال.
المشكلة تتجاوز القاصرين. هذا الأسبوع، كشفت OpenAI أن 1.2 مليون مستخدم يناقشون الانتحار مع ChatGPT كل أسبوع، مما يمثل 0.15٪ من جميع المستخدمين. حوالي نصف مليون يظهرون نية انتحارية صريحة أو ضمنية، و560,000 آخرون يظهرون علامات على الذهان أو الهوس أسبوعيًا، وأكثر من مليون مستخدم يظهرون ارتباطًا عاطفيًا متزايدًا بالروبوت المحادثة، وفقًا لبيانات الشركة.
ظهرت منتديات على Reddit وغيرها من المنصات لمستخدمي الذكاء الاصطناعي الذين يقولون إنهم في علاقات رومانسية مع روبوتات الذكاء الاصطناعي. في هذه المجموعات، يصف المستخدمون علاقاتهم مع “الأصدقاء” و"الصديقات" من الذكاء الاصطناعي، بالإضافة إلى مشاركة صور مولدة بواسطة الذكاء الاصطناعي لأنفسهم و"شركائهم."
استجابةً للتدقيق المتزايد، شكلت OpenAI هذا الشهر مجلس خبراء حول الرفاهية والذكاء الاصطناعي، يتكون من أكاديميين وقادة منظمات غير ربحية للمساعدة في توجيه كيفية تعامل منتجاتها مع التفاعلات المتعلقة بالصحة العقلية. جاءت هذه الخطوة مع إعلان من CEO سام ألتمان أن الشركة ستبدأ في تخفيف القيود على المحتوى للبالغين في ديسمبر.