التعلم العميقذكاء اصطناعي

الذكاء الاصطناعي لا يرى العالم بالطريقة التي نراه بها، وهذا ما يسهّل تعرضه للّبس والتشوّش

من السهل خداع الذكاء الاصطناعي لجعله يعتقد أن صورة قطة هي صورة كلب.

بقلم: ليندا غيديس Linda Geddes

ترجمة: آية علي

لا نعرف بالضبط ماهيّة هذه الخصائص -قد تكون صغيرة أو كبيرة- لكنّ العقل البشري لا يلتقطها.

لماذا اعتقدت الآلة أنّ السلحفاة كانت بندقية؟ كلا، هذه ليست مزحةً رديئة، لكنّها واحد من العديد من الأمثلة الحديثة على آلاتٍ وقعت في فخ خدعة تجعلها ترى أو تسمع أشياء غير موجودة.

يسهل إيقاع الذكاء الاصطناعي في اللبس من خلال ما يسمّى الأمثلة التخاصمية (الخادعة) Adversarial Examples، ومثله مثل آخرين، اعتقد ألكسندر مادري Aleksander Madry من معهد ماساتشوستس للتكنولوجيا MIT أنها عيوب ستختفي مع وجود خوارزميات أو طرق تدريب أفضل.

غير أنه وزملاءه اكتشفوا أن المشكلة أكثر جوهرية – يبدو أن الأمثلة التخاصمية تنشأ عن خصائص موجودة في الصور لا نستطيع إدراكها، وإن كانت الآلات قادرة على ذلك. تظهر الدلائل المبكرة أنه من خلال فهم هذه الخصائص يمكن في المستقبل الحيلولة دون أن تعيث هذه الأمثلة التخاصمية الخراب.

يمكن لمعظم الأمثلة التخاصمية أن تحيّر المشاهد، وذلك بوجود صورتين تبدوان متطابقتين، لكنهما تُفسَّران بطرقٍ مختلفة جدا. على سبيل المثال، مع وجود صورتي قطّ متطابقتين ظاهريا، يصرّ الذكاء الاصطناعي على أنّ إحداهما هي في الواقع صورة كلب.

كتجربةٍ بحثية، قد يكون خداع الذكاء الاصطناعي مسلّيا، لكن إذا اختلط على ذكاء اصطناعي طبي وجود ورم واضح جدا خلال فحص طبي، فقد تكون النتائج مأساوية.

يبدو أن مادري وزملاءه أكدوا أحد الشكوك القائمة منذ أمد طويل، التي تفيد بأن أجهزة الذكاء الاصطناعي لا ترى الصور بالطريقة التي يراها بها البشر. فبدلا من الاعتماد فقط على تفاصيل مثل شكل الأذن أو طول الأنف لتصنيف صور الحيوانات مثلا، فإنّها تستخدم خصائص لا يدركها الإنسان.

يقول مادري: “لا نعرف بالضبط ماهيّة هذه الخصائص -قد تكون صغيرة أو كبيرة- لكنّ العقل البشري لا يلتقطها.”

يسمّي الفريق هذه الأنماط الخصائصَ غير المتينة Non-robust features ؛ لأنّها تبدو هشّة بشكل خاص أمام الصّور التخاصمية.

العثور على الجناة

ولتحديد ما إذا كانت الخصائص غير المتينة سبب المشكلة، أخذ مادري وزملاؤه مجموعة نمطية من صور القطط والكلاب، وكوّنوا منها سلسلةً من الأمثلة التخاصمية. بعد ذلك، درّبوا ذكاءً اصطناعيا على الأمثلة التخاصمية: كل صورة صُنِّفت على نحوٍ خاطئ، أو بعبارة أخرى، صُنّفت كما لو أن ذكاء اصطناعيا تشوّش بسبب صورة.

وبدلا من أن ينتج من ذلك شيء عديم الفائدة تماما، استطاع الذكاء الاصطناعي تصنيف الأمثلة غير التخاصمية التي عُرضت عليه بشكلٍ صحيح، ممّا يعني أن الخصائص غير المتينة التي لاحظها في مجموعة التدريب ساعدته بالفعل على التعرف على القطط والكلاب بطريقةٍ صحيحة، لكن ليس في حالة الأمثلة التخاصمية.

بعدها أخضع الفريقُ الذكاءَ الاصطناعي للتدريب على مجموعة من الصور التي أُزيلت منها الخصائص غير المتينة، مما أجبره بشكل أساسي على استخدام أساليب أكثر بشريّة لتحديد اختياره. كانت النتيجة هي نشوء ذكاء اصطناعي يحوي مقاومة أفضل بقدر كبير للأمثلة التخاصمية، حتى بلغ مستوى نصل إليه فقط بصورة اعتيادية عند بذل جهود مضنية لتصحيح أخطاء الذكاء الاصطناعي.

ويقول بوشميت كوهلي Pushmeet Kohli من شركة ديب مايند DeepMind للأبحاث: “إنّ تحليل الكيفية التي يمكن بها لخصائص مجموعات بيانات التدريب أن تؤثر في متانة نظام مُتعَلّم في مواجهة الأمثلة التخاصمية يمثّل خطوة جيدة نحو تطوير نماذج لتعلم الآلة يمكن تطبيقها بأمان في العالم الحقيقي.”

لكن على الرغم من ذلك، فإنّ مجرّد حقيقة وقوع هذه الخصائص خارج حدود إدراك البشر يزيد من صعوبة معرفة الكيفية التي سيجري بها تطبيق الأمر في الممارسة العملية، وذلك على حد تعبير مارتا كوياتكووفسكا Marta Kwiatkowska من جامعة أكسفورد University of Oxford.

يتفق مادري على أنّه ما يزال هنالك عمل كثير يتعين فعله، ويقول: “إنه ليس حلاً، لكنه تفسيرٌ ومُرشدٌ نحو الحل.ّ”

المصدر العلمي:

arXivarxiv.org/abs/1905.02175

المصدر
New Scientist
اظهر المزيد

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى