أصبحت الصور المزيفة، التي كانت في السابق من novelties، تهديدًا منهجيًا سريع التطور للأعمال والمجتمع والديمقراطية - مما يتطلب تنظيمًا عاجلًا، وأدوات كشف قوية، وزيادة الوعي الإعلامي لحماية الثقة في العالم الرقمي.
لم تعد الصور المزيفة (Deepfakes) مجرد حيلة جديدة. فهي أصبحت بسرعة تهديدًا منهجيًا للأعمال والمجتمع والديمقراطية. وفقًا للبرلمان الأوروبي، من المتوقع أن يتم مشاركة حوالي 8 ملايين صورة مزيفة في عام 2025، ارتفاعًا من 0.5 مليون فقط في عام 2023. في المملكة المتحدة، يدعي اثنان من كل خمسة أشخاص أنهم صادفوا على الأقل صورة مزيفة واحدة في الأشهر الستة الماضية. ولكن حيث كانت الصور المزيفة في السابق قد تكون سهلة الاكتشاف نسبيًا، فإن زيادة تعقيد نماذج الذكاء الاصطناعي المتاحة للجمهور جعلت من الصعب اكتشافها أكثر من أي وقت مضى.
لقد كانت التقدمات في الشبكات التنافسية التوليدية (GANs) ونماذج الانتشار عوامل محفزة لنمو التزييف العميق المتقدم والواقعي بشكل مفرط. لقد كانت كلتا التقنيتين أساسيتين في تمكين تبديل الوجوه بسلاسة وتعديل الصوت في مكالمات الفيديو المباشرة أو البث المباشر. وقد حسنت هذه بشكل كبير تجربة المستخدم، مع قدرات مثل الصور الرمزية الافتراضية التي تجعل الألعاب والاجتماعات أكثر تخصيصًا وغمرًا. لكن هذا أيضًا فتح الباب لعمليات الاحتيال بالتقليد في الوقت الحقيقي.
قد تعتقد أن الأشخاص غير المدربين هم فقط من يفشلون في التعرف على تقليد لشخص يعرفونه جيدًا ويثقون به. ولكن في مايو من العام الماضي، قامت مجموعة من المحتالين بتقمص شخصية مدير رفيع في شركة الهندسة Arup، مما أقنع بنجاح موظفًا في قسم المالية بتحويل 200 مليون دولار هونغ كونغ إلى خمسة حسابات مصرفية محلية. وقد تم إطلاق هجمات مماثلة تتقمص شخصيات موظفين كبار ومديرين تنفيذيين ضد شركات مثل Ferrari وWPP وWiz خلال الأشهر الـ 12 الماضية، مما يقوض الثقة في الاتصالات الرقمية.
لقد زاد استنساخ الصوت أيضًا جنبًا إلى جنب مع المحتوى العميق. أصبح تركيب الصوت المدعوم بالذكاء الاصطناعي قادرًا الآن على تقليد الصوت البشري بدقة مذهلة. ومن المدهش أن بضع ثوانٍ فقط من الصوت تكفي لإنشاء نسخة شبه مثالية. قد يكون ذلك رائعًا لمجموعة متنوعة من الاستخدامات الإبداعية، مثل الكتب الصوتية المخصصة أو الدبلجة، لكنه يحمل إمكانية التسبب في أضرار هائلة.
في يوليو من هذا العام، تم خداع امرأة في فلوريدا لتسليم 15 ألف دولار كفالة بعد أن سمعت ما اعتقدت أنه ابنتها تستغيث بعد حادث سيارة. المتصل، وهو نسخة ذكاء اصطناعي تتصرف كابنتها، قام في النهاية بنقل المكالمة إلى ما يُفترض أنه محامٍ، الذي قدم تعليمات للتحويل. إن حقيقة أن هذه النسخ تم تجميعها باستخدام مقتطفات بسيطة من أصوات الأشخاص، والتي يمكن العثور عليها بسهولة من خلال قنوات وسائل التواصل الاجتماعي، تسلط الضوء على إمكانية إساءة الاستخدام.
على وسائل التواصل الاجتماعي، يتلاشى الخط الفاصل بين الواقع والخيال. تهيمن المؤثرات الافتراضية التي تم إنشاؤها بواسطة الذكاء الاصطناعي على مشهد التسويق عبر الإنترنت، حيث تقدم للعلامات التجارية شخصيات قابلة للتحكم بالكامل. يتعين على الجماهير الآن التنقل في عالم حيث الشخصيات الشرعية والاصطناعية تكاد تكون غير قابلة للتمييز، مما يثير تساؤلات حول الأصالة في وسائل الإعلام. في هوليوود، تُستخدم تقنية التزييف العميق لتقليل عمر الممثلين أو إعادة إنشاء شخصيات تاريخية. بينما يمنح ذلك شركات الإنتاج القدرة على تحسين جودة محتواها بتكلفة منخفضة نسبيًا، فإنه يمنح أيضًا المحتالين الوسائل لتكرار صورة مقنعة لمشاهير معروفين واستخدامها لإثارة الجدل.
لكن المخاطر تتجاوز بكثير تمثيل المشاهير بشكل مضلل. يمكن استخدام التزييف العميق لزرع الانقسام السياسي من خلال نشر روايات كاذبة أو تصنيع مقاطع فيديو لشخصيات سياسية تلقي خطبًا مزيفة. يمكن أن تكون العواقب عميقة، حيث تؤثر على الرأي العام، وتغير مسار الانتخابات الوطنية، وقد تسمم الخطاب السياسي العالمي.
في مواجهة العديد من التهديدات، تستجيب الحكومات في جميع أنحاء العالم. في أوروبا، يحتوي قانون الذكاء الاصطناعي على بند يتطلب وضع علامات إلزامية على المحتوى الذي تم إنشاؤه أو تعديله بمساعدة الذكاء الاصطناعي، والذي يجب أن يتم وضع علامة عليه على هذا النحو لجعل المستخدمين على علم بأصله. بينما يتوقف القانون عن حظر التزييف العميق، فإنه يحظر استخدام أنظمة الذكاء الاصطناعي التي تتلاعب بالناس سرًا في سياقات معينة. بعض الحكومات إما تستخدم أو تستثمر بنشاط في تقنيات الكشف التي يمكن أن تحدد التغيرات الدقيقة في الأصوات أو الوجوه أو الصور.
لكن التنظيم لا يزال متأخراً عن التكنولوجيا. تعتبر العلامات الإلزامية، وخوارزميات كشف المواد الاصطناعية بالذكاء الاصطناعي، والطب الشرعي الصوتي جزءاً مهماً من الحل، لكن قمع تهديد الديب فيك يتطلب استراتيجية أوسع وأكثر شمولاً. يلعب التنظيم القوي والإرشادات الأخلاقية، جنباً إلى جنب مع الاستثمار في الثقافة الإعلامية، دوراً متساوياً، إن لم يكن أكبر، في مكافحة الاحتيال المعلوماتي والديب فيك.
يجب أن تصبح اللوائح والإرشادات الأخلاقية أكثر استباقية، مع تحول علامة المياه ومعايير الإفصاح الإلزامي إلى ميزات اعتيادية في أي استراتيجية للتزييف العميق. في الوقت نفسه، يجب أن تُعتبر الثقافة الإعلامية أولوية. يجب أن يتم تزويد المواطنين بمهارات التفكير النقدي للتشكيك فيما يرونه ويسمعونه. فقط من خلال العمل معًا، بين المنظمين والقطاع الخاص والمجتمع المدني، يمكننا حماية الحياة الرقمية وضمان أن تصبح تهديدات التزييف العميق شيئًا من الماضي.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
حالة تنظيم الديب فايك
باختصار
أصبحت الصور المزيفة، التي كانت في السابق من novelties، تهديدًا منهجيًا سريع التطور للأعمال والمجتمع والديمقراطية - مما يتطلب تنظيمًا عاجلًا، وأدوات كشف قوية، وزيادة الوعي الإعلامي لحماية الثقة في العالم الرقمي.
! قضية تنظيم التزييف العميق
لم تعد الصور المزيفة (Deepfakes) مجرد حيلة جديدة. فهي أصبحت بسرعة تهديدًا منهجيًا للأعمال والمجتمع والديمقراطية. وفقًا للبرلمان الأوروبي، من المتوقع أن يتم مشاركة حوالي 8 ملايين صورة مزيفة في عام 2025، ارتفاعًا من 0.5 مليون فقط في عام 2023. في المملكة المتحدة، يدعي اثنان من كل خمسة أشخاص أنهم صادفوا على الأقل صورة مزيفة واحدة في الأشهر الستة الماضية. ولكن حيث كانت الصور المزيفة في السابق قد تكون سهلة الاكتشاف نسبيًا، فإن زيادة تعقيد نماذج الذكاء الاصطناعي المتاحة للجمهور جعلت من الصعب اكتشافها أكثر من أي وقت مضى.
لقد كانت التقدمات في الشبكات التنافسية التوليدية (GANs) ونماذج الانتشار عوامل محفزة لنمو التزييف العميق المتقدم والواقعي بشكل مفرط. لقد كانت كلتا التقنيتين أساسيتين في تمكين تبديل الوجوه بسلاسة وتعديل الصوت في مكالمات الفيديو المباشرة أو البث المباشر. وقد حسنت هذه بشكل كبير تجربة المستخدم، مع قدرات مثل الصور الرمزية الافتراضية التي تجعل الألعاب والاجتماعات أكثر تخصيصًا وغمرًا. لكن هذا أيضًا فتح الباب لعمليات الاحتيال بالتقليد في الوقت الحقيقي.
قد تعتقد أن الأشخاص غير المدربين هم فقط من يفشلون في التعرف على تقليد لشخص يعرفونه جيدًا ويثقون به. ولكن في مايو من العام الماضي، قامت مجموعة من المحتالين بتقمص شخصية مدير رفيع في شركة الهندسة Arup، مما أقنع بنجاح موظفًا في قسم المالية بتحويل 200 مليون دولار هونغ كونغ إلى خمسة حسابات مصرفية محلية. وقد تم إطلاق هجمات مماثلة تتقمص شخصيات موظفين كبار ومديرين تنفيذيين ضد شركات مثل Ferrari وWPP وWiz خلال الأشهر الـ 12 الماضية، مما يقوض الثقة في الاتصالات الرقمية.
لقد زاد استنساخ الصوت أيضًا جنبًا إلى جنب مع المحتوى العميق. أصبح تركيب الصوت المدعوم بالذكاء الاصطناعي قادرًا الآن على تقليد الصوت البشري بدقة مذهلة. ومن المدهش أن بضع ثوانٍ فقط من الصوت تكفي لإنشاء نسخة شبه مثالية. قد يكون ذلك رائعًا لمجموعة متنوعة من الاستخدامات الإبداعية، مثل الكتب الصوتية المخصصة أو الدبلجة، لكنه يحمل إمكانية التسبب في أضرار هائلة.
في يوليو من هذا العام، تم خداع امرأة في فلوريدا لتسليم 15 ألف دولار كفالة بعد أن سمعت ما اعتقدت أنه ابنتها تستغيث بعد حادث سيارة. المتصل، وهو نسخة ذكاء اصطناعي تتصرف كابنتها، قام في النهاية بنقل المكالمة إلى ما يُفترض أنه محامٍ، الذي قدم تعليمات للتحويل. إن حقيقة أن هذه النسخ تم تجميعها باستخدام مقتطفات بسيطة من أصوات الأشخاص، والتي يمكن العثور عليها بسهولة من خلال قنوات وسائل التواصل الاجتماعي، تسلط الضوء على إمكانية إساءة الاستخدام.
على وسائل التواصل الاجتماعي، يتلاشى الخط الفاصل بين الواقع والخيال. تهيمن المؤثرات الافتراضية التي تم إنشاؤها بواسطة الذكاء الاصطناعي على مشهد التسويق عبر الإنترنت، حيث تقدم للعلامات التجارية شخصيات قابلة للتحكم بالكامل. يتعين على الجماهير الآن التنقل في عالم حيث الشخصيات الشرعية والاصطناعية تكاد تكون غير قابلة للتمييز، مما يثير تساؤلات حول الأصالة في وسائل الإعلام. في هوليوود، تُستخدم تقنية التزييف العميق لتقليل عمر الممثلين أو إعادة إنشاء شخصيات تاريخية. بينما يمنح ذلك شركات الإنتاج القدرة على تحسين جودة محتواها بتكلفة منخفضة نسبيًا، فإنه يمنح أيضًا المحتالين الوسائل لتكرار صورة مقنعة لمشاهير معروفين واستخدامها لإثارة الجدل.
لكن المخاطر تتجاوز بكثير تمثيل المشاهير بشكل مضلل. يمكن استخدام التزييف العميق لزرع الانقسام السياسي من خلال نشر روايات كاذبة أو تصنيع مقاطع فيديو لشخصيات سياسية تلقي خطبًا مزيفة. يمكن أن تكون العواقب عميقة، حيث تؤثر على الرأي العام، وتغير مسار الانتخابات الوطنية، وقد تسمم الخطاب السياسي العالمي.
في مواجهة العديد من التهديدات، تستجيب الحكومات في جميع أنحاء العالم. في أوروبا، يحتوي قانون الذكاء الاصطناعي على بند يتطلب وضع علامات إلزامية على المحتوى الذي تم إنشاؤه أو تعديله بمساعدة الذكاء الاصطناعي، والذي يجب أن يتم وضع علامة عليه على هذا النحو لجعل المستخدمين على علم بأصله. بينما يتوقف القانون عن حظر التزييف العميق، فإنه يحظر استخدام أنظمة الذكاء الاصطناعي التي تتلاعب بالناس سرًا في سياقات معينة. بعض الحكومات إما تستخدم أو تستثمر بنشاط في تقنيات الكشف التي يمكن أن تحدد التغيرات الدقيقة في الأصوات أو الوجوه أو الصور.
لكن التنظيم لا يزال متأخراً عن التكنولوجيا. تعتبر العلامات الإلزامية، وخوارزميات كشف المواد الاصطناعية بالذكاء الاصطناعي، والطب الشرعي الصوتي جزءاً مهماً من الحل، لكن قمع تهديد الديب فيك يتطلب استراتيجية أوسع وأكثر شمولاً. يلعب التنظيم القوي والإرشادات الأخلاقية، جنباً إلى جنب مع الاستثمار في الثقافة الإعلامية، دوراً متساوياً، إن لم يكن أكبر، في مكافحة الاحتيال المعلوماتي والديب فيك.
يجب أن تصبح اللوائح والإرشادات الأخلاقية أكثر استباقية، مع تحول علامة المياه ومعايير الإفصاح الإلزامي إلى ميزات اعتيادية في أي استراتيجية للتزييف العميق. في الوقت نفسه، يجب أن تُعتبر الثقافة الإعلامية أولوية. يجب أن يتم تزويد المواطنين بمهارات التفكير النقدي للتشكيك فيما يرونه ويسمعونه. فقط من خلال العمل معًا، بين المنظمين والقطاع الخاص والمجتمع المدني، يمكننا حماية الحياة الرقمية وضمان أن تصبح تهديدات التزييف العميق شيئًا من الماضي.