هل يستطيع الغباء إنقاذنا من نهاية للعالم يسببها الذكاء الاصطناعي؟
بقلم: كريس بارانيوك Chris Baraniuk
ترجمة: آية علي.
مجلة نيوساينتست.
ذكاء اصطناعي؟ ربّما نحتاج بدلا من ذلك إلى غباء اصطناعي. يقترح البعض أن نحصر الذكاء الاصطناعي ضمن مستويات الذكاء البشري كي نتجنّب حدوث سيناريو نهاية العالم الذي تسيطر فيه الآلات على العالم.
وعلى الرغم من أنّ الذكاء العام الاصطناعي Artificial general intelligence -وهي أنظمة الذكاء الاصطناعي التي يمكنها أداء أيّ مهمّة يؤديها الدماغ البشري- غير متاحة بعد، إلّا أنّ التخطيط لكيفية الحد من قدراتها وجعلها تتصرف بطرق مألوفة لدى البشر قد يساعد على تجنّب وقوع كارثة في المستقبل.
ويقترح كل من رومان يامبولسكي Roman Yampolskiy من جامعة لويزفيل University of Louisville في ولاية كنتاكي وميخائيل ترازّي Michaël Trazzi من جامعة السوربون Sorbonne University في باريس تقييدَ الذكاء الاصطناعي من خلال تقديم “الغباء الاصطناعي” Artificial Stupidity. ويتمثّل اقتراحهما في تحجيم عدد العمليّات في الثانية الواحدة، أو تقييد قدرة الذاكرة العاملة Working Memory للذكاء الاصطناعي بمستويات مماثلة للدماغ البشري، وذلك باستخدام تقديرات تقريبية لمساحة التخزين وعرض النطاق Bandwidth وقوة المعالجة للدماغ البشري (arxiv.org/abs/1808.03644).
لنأخذ مثلا محاولة منع نظام ذكاء اصطناعي عالي الذكاء من تطوير نفسه. ما الذي سيمنع آلة من صنع نسخة من نفسها لا تحتوي على هذا القيد؟ ستيوارت آرمسترونغ
ولكن بما أن البشر قد لا يستخدمون قوة المعالجة لديهم على النحو الأمثل، يمكن للذكاء الاصطناعي أن يفوقنا في الذكاء حتى مع تقليل عدد العمليات التي يؤديها في الثانية الواحدة.
لذا يقترحان اتخاذ إجراءين إضافيين، وهما: التأكّد من عدم قدرة الذكاء الاصطناعي على تطوير نفسه ليصبح أكثر كفاءة، وتزويده بالانحياز المعرفي Cognitive biases كذلك الذي لدى البشر، من ذلك أخطاء التفكير والاستدلال العقلي التي تحدث نتيجة المعتقدات القوية الثابتة، مما يعني أننا نحيد عن اتخاذ أحكام عقلانية. إنّ وجود عقل آلي بمثل هذه العيوب يعني -من الناحية النظرية- أنّه قد يتصرف بطريقة مشابهة لنا، ممّا يسمح لنا بتوقّع تحرّكاته على نحوٍ أفضل.
“إنّ وجود عقل آلي بمثل هذه العيوب يعني -من الناحية النظرية- أنّه قد يتصرف بطريقة مشابهة لنا، ممّا يسمح لنا بتوقّع تحرّكاته”
ويقول ستيوارت أرمسترونغ Stuart Armstrong من معهد المستقبل للإنسانية التابع لجامعة أكسفورد Oxford’s Future of Humanity Institute إن بعض الاقتراحات تبدو منطقية للغاية.
ولكنه يشك في مدى فعالية هذا النهج الشامل في المحصلة، ويتساءل قائلا: لنأخذ مثلا محاولة منع نظام ذكاء اصطناعي عالي الذكاء من تطوير نفسه. ما الذي سيمنع آلة من صنع نسخة من نفسها لا تحتوي على هذا القيد؟
© 2018 New Scientist Ltd.
Distributed by Tribune Content Agency, LCC