أحد صفحات التقدم العلمي للنشر
أمن المعلوماتذكاء اصطناعي

كيفية التزييف في العالم الحقيقي

بقلم: كريس بارانيوك Chris Baraniuk

ترجمة: آية علي

تكون جودة الشيء المزيف بقدر جودة مظهره فقط، وفي حين يستغرق تزوير ساعة أو حقيبة يد وقتا وجهدا، فقد صار صنع مقاطع الفيديو المزيّفة أمرا سهلا للغاية على نحوٍ مدهش.

يمكن لنظام جديد تحويل بعض الرسومات المتحركة البسيطة إلى مقاطع مزيّفة واقعية وعالية الدقة High definition. وهذا البرنامج مفتوح المصدر Open source؛ ممّا يعني أنّه متاح لأيّ شخص، وأعاد إذكاء القلق من إمكانية استخدام هذه الأدوات لتشويه تصوّرنا للواقع.

وكانت المقاطع المزيّفة لدونالد ترامب وتيريزا ماي قد أُنشِئت باستخدام تقنيات مشابهة.

أنشأ هذا النظام فريقٌ من شركة إنفيديا Nvidia لأجهزة الغرافيك مع معهد ماساتشوستس للتقنية Massachusetts Institute of Technology، والذي يستخدم “شبكات مخاصمة توليدية” Generative adversarial network، وهي نوع من الذكاء الاصطناعي.

ولإنشاء مقطع فيديو مزيّف، يعمل الذكاء الاصطناعي أوّلا على تجزئة الفيديو الحقيقي إلى طبقات من المكوّنات مثل المقدّمة والخلفية، والعناصر الرئيسية مثل المباني والأشجار. ويوفر بدوره بنية أساسية قابلة للتحرير يمكن إضافة عناصر مزيفة إليها.

بعدها يولّد جزءٌ من الذكاء الاصطناعي إطارات Frames لسلسلة مقطع فيديو جديد يستند إلى المشاهد الأساسية، في حين يحاول آخر التمييز بين الإطارات التي جرى إنشاؤها وإطارات الفيديو الحقيقي. ويحكم على هذه الإطارات أنّها جيّدة بما فيه الكفاية إذا لم يستطع التمييز بينهما، ومن ثمّ تُدرج في الفيديو.

ويمكن إنتاج اللقطات بدقة 2K، وتبدو حقيقيّة على نحوٍ مذهل. وتشمل الأمثلة التي أنتجها الفريق مشاهد من الشوارع وأشخاصاً يتحدّثون أو يؤدّون حركات راقصة (arxiv.org/abs/1808.06601).

ويقول هاني فريد Hany Farid خبير العلوم الجنائية الرقمية Digital forensics expert من كلية دارتموث Dartmouth College في نيوهامبشاير: “إنّ التقدم الذي حققناه مذهل للغاية.”

 وصار هذا النوع من المقاطع معروفا بالزيف العميق Deepfake، وقد أُنشِئت مقاطع الفيديو المزيفة لقادة العالم، مثل دونالد ترامب وتيريزا ماي، باستخدام تقنيات مشابهة. كما نشأ أيضًا مجتمع مخصص لإنشاء مقاطع فيديو إباحية مزيفة تشمل ممثّلين مشهورين.

كانت التقنية المستخدمة لإنشاء مقاطع الزيف العميق إلى حد كبير تقنية متاحة مقابل رسوم مالية، أو كانت تنتج نتائج تشبه الرسوم الكرتونية ، وذلك على حسب تعبير الفنان والمبرمج جين كوغان Gene Kogan، مقره في برلين. ولكن هذا قد تغيّر الآن.

هل سيُستخدم هذا النظام الأخير لإقناعنا مثلا بأنّ أحد السياسيين قال شيئا لم يقله في الحقيقة؟ يقول فريد إنّ التمييز بين المقاطع الحقيقيّة وتلك المزيّفة يمثّل الآن “مشكلة كبيرة”، ولكنّه يعتقد أنّه لا يزال الآن بإمكان مدقّقي الحقائق المطّلعين كشْف المقاطع المزيّفة وحتى بعض الوقت في المستقبل. ومع ذلك، لا يزال من الممكن وقوع مثل هذا الضرر حتى مع إجراء عملية التدقيق هذه (انظر: ضرر حقيقي).

كما تظهر المقاطع المزيّفة بعض الإشارات الدالّة، فيمكن الكشف عن المقاطع السياسيّة المزيّفة من خلال فحص ما إذا كان الشخص مثلا يرمش كثيرا ليبدو شخصا حقيقيا.

كما أنّ معرفة أن مثل هذه المقاطع موجودة قد يجعل الناس أكثر ارتياحا لعدم تصديق الأشياء التي هي في الواقع حقيقة، ويعلّق فريد على هذا قائلا: “وهذا الأمر هو ما يشكّل -بطريقة ما- التهديد الحقيقي، وهو أنّنا لم نعد نصدّق شيئا بعد الآن.”

ويتجلّى أحد الأمثلة على هذا الأمر في الولايات المتحدة، إذ ادّعى أشخاص قُبض عليهم بسبب وجود صور يعتدون فيها جنسيا على الأطفال أنّها مُوَلّدة عن طريق الحاسوب، وهو ما يسمّى الدّفاع الافتراضي Virtual defense. ولا يزال امتلاك مثل هذه الصور المولّدة جريمة في نظر القانون، ولكن مدّة الأحكام المعطاة بناء عليها تكون أقصر.

ومع ذلك، فإنّ هنالك العديد من الاستخدامات المشروعة لهذه التقنية، إذ يمكن مثلا استخدام المبادئ نفسها لتوليف تصاميم معمارية بعد تزويد النظام بمخطط أساسي للمبنى، الأمر الذي قد يمدّ المهندسين بقدر كبير من العون. وكما يمكن للمشاهير “ترخيص وجوههم” لاستخدامها في المقاطع الإعلانيّة، دون الحاجة إلى حضورهم من أجل التصوير.


ضرر حقيقي

بقلم: Yvaine Ye

ترجمة: آية علي

تورطت مقاطع الفيديو المزيفة في مقتل أكثر من عشرين شخصًا في الهند. وقد بدأ هذا بعد أن انتشر مقطع فيديو على تطبيق واتساب WhatsApp يُظهر رجلين على دراجة نارية يختطفان الأطفال في الشوارع.

كان المقطع في الأصل عبارة عن إعلان خدمة عامة لزيادة الوعي بقضية الاتجار بالبشر، ولكنه خضع للتحرير بغرض إزالة الرسالة الموجودة في النهاية. اعتقد الناس أن المقطع حقيقي؛ مما أدى إلى انتشاره على نطاق واسع في رسائل الواتساب، موجّها أصابع الاتهام إلى لصوص سرقة أعضاء متنكرين على هيئة متسولين، الأمر الذي أدّى إلى انتشار عمليات قتل غوغائية.

وعلى الرغم من أن إنتاج مقاطع الفيديو المزيفة عالية الوضوح قد صار أمراسهلا (انظر: القصة الرئيسية)، إلّا أنّ هذه المقاطع المزيفة كانت مشوشة ومنخفضة الجودة.

وفي الهند يستخدم ما يزيد على 200 مليون شخص تطبيق واتساب، ويعيدون إرسال الرسائل إلى العديد من المعارف بانتظام بالقدر الذي ينشر فيه الأفراد الرسائل على وسائل التواصل الاجتماعي. وقد تؤدي هذه العملية إلى نشر معلومات خاطئة، كما هي الحال في فيسبوك وتويتر.

وللتصدّي لهذه الظاهرة، نشر تطبيق واتساب إعلانات تعليمية في الجرائد الهندية، وزادت من صعوبة عملية إعادة إرسال الوسائط Media إلى العديد من المعارف في كل مرة.

New Scientist Ltd © 2018.
Distributed by Tribune Content Agency, LLC

بواسطة
Distributed by Tribune Content Agency, LLC
المصدر
New Scientist
اظهر المزيد

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

For security, use of Google's reCAPTCHA service is required which is subject to the Google Privacy Policy and Terms of Use.

زر الذهاب إلى الأعلى