دعا إيلون ماسك وعدد من كبار الباحثين في الذكاء الاصطناعي حول العالم إلى التوقف "مؤقتًا" عن "تجارب الذكاء الاصطناعي العملاقة"، وذلك في رسالة مفتوحة تشير إلى أن السباق الحالي بين مطوري ومختبرات الذكاء الاصطناعي بات أمراً خطيراً. ودعت العريضة للتوقف فورًا لمدة ستة أشهر على الأقل عن تدريب أنظمة الذكاء الاصطناعي الأكثر قوة من (GPT-4)، وهو النموذج المتطور المدفوع من "تشات جي بي تي"، مع وجوب أن يكون هذا التوقف علنياً ويمكن التحقق منه، وأن يشمل جميع الجهات الفاعلة الرئيسية. ودعا الموقعون الحكومات إلى التدخل وفرض تجميد فوري لكافة التجارب ذات العلاقة، إلى أن يتم إنشاء جهات تنظيمية مستقلة ووضع أطر حوكمة وضوابط لضمان نشر الأنظمة المستقبلية بأمان.
من غير المحتمل أن يكون للرسالة أي تأثير على المناخ الحالي في أبحاث الذكاء الاصطناعي
وعلى الرغم من وجاهة الأسباب المذكورة في الرسالة، واتفاقي شخصياً مع التوجه لحوكمة ومساءلة كامل مجال الذكاء الاصطناعي، إلا أنني لم أستطع إزالة الابتسامة الخبيثة عن وجهي وأنا أستعرض فحوى الرسالة وقائمة الموقعين عليها. إيلون ماسك؟! DeepMind؟! ومجموعة لا بأس بها من المختبرات المنافسة لشركة "أوبن إيه آي" (Open AI) المطورة لنموذج "تشات جي بي تي"، وبالتأكيد عدد كبير من الأكاديميين. أول ما خطر ببالي، هل يمكن أن تكون هذه إحدى مساعي ماسك غير التقليدية بالتعاون مع جوجل لإبطاء تقدم "أوبن إيه آي"؟ لست خبيراً ولكن سوء الظن من حسن الفطن ويبدو أن ستة أشهر كفيلة بإتاحة الفرص للآخرين للحاق بركب هذه الشركة وقلب ترتيب المتسابقين. فإيلون ماسك وشركات التقنية الكبرى هم آخر من لهم الحق في الحديث عن الأخلاقيات والضوابط والحوكمة، في الوقت الذي يواجه هو نفسه تهمًا بمحاولة تقويضها والالتفاف حولها.
ومع ذلك انتبهت لوجود عدد هائل من الباحثين والأكاديمين الموقعين على الرسالة من مؤسسات عالمية محترمة ومقدرة، وهو من جانب آخر قد يضفي بعض الموثوقية على الرسالة، وبعيداً عن أهداف ماسك وجوجل وعصبتهم، فإن الرسالة فعلياً قد أشارت لجوانب هامة متعلقة بحوكمة وضبط ومساءلة عملية تطوير ونشر واستخدام الذكاء الاصطناعي في حياتنا اليومية.
الموقعين على الرسالة يأملون أن يوفر هذا التوقف "المؤقت" الفرصة لتطوير وإنفاذ مجموعة من بروتوكولات السلامة والحماية لعمليات تصميم وتطوير أي ذكاء اصطناعي متقدم، لضمان أن هذه الأنظمة آمنة، وزيادة شفافيتها وتعزيز الثقة بها، بحيث يتم الإشراف على البروتوكولات وأنظمة الرقابة المنفذة لها من قبل جهات مستقلة.
وتتركز التخوفات الرئيسية لدى الموقعين على خطر منافسة الذكاء الاصطناعي البشر في تنفيذ المهام العامة، بالإضافة للمخاوف من أن يغمر الذكاء الاصطناعي قنوات المعلومات بالأخبار الكاذبة والدعايات المضللة. كما تطرح الرسالة عدد من الأسئلة التي تتمحور حول "عقدة فرانكشتاين"، وخوف البشر من تمرد الآليين ومن أن يتفوق الذكاء الاصطناعي على الإنسان وأن يحل محله.
وتشير الرسالة لأهمية عدم تفويض مثل هذه القرارات لقادة تقنيين غير منتخبين! وانا أتفق مئة بالمئة مع هذا الطرح ولكني وجدت أنه من الغريب أن تصدر مثل هذه الدعوة عن أمثال ماسك وخصوصاً بعدما رآى العالم كيف تصرف القائد التقني غير المنتخب عندما سيطر على تويتر.
على العموم، تشير الرسالة إلى تصاعد المعارضة المتزايدة لتطوير الذكاء الاصطناعي بشكل غير مسؤول وغير محوكم مدفوعاً برغبات عمالقة التكنولوجيا وحيتان المستثمرين، معارضة لا تقبل بمقاربة "لنطور ونبع اليوم ونصلح المشاكل لاحقاً" التي باتت معتمدة من قبل غالبية الفاعلين في قطاع التقنية حول العالم اليوم. هذه المعارضة تروج لأهمية تنظيم هذا القطاع من خلال تطوير أطر حوكمة قوية للذكاء الاصطناعي، تشمل على الأقل تأسيس سلطات تنظيمية قادرة على الإشراف على أنظمة الذكاء الاصطناعي عالية القدرة، وتنظيم مجالاتها ضمن نظام شامل للتدقيق والمتابعة والتراخيص وإصدار الشهادات. بالإضافة للاستثمار الجيد وتوفير الموارد اللازمة للتعامل مع الآثار الجانبية والاضطرابات الاقتصادية والسياسية التي قد يحدثها الاستخدام المفرط للذكاء الاصطناعي.
في النهاية، من غير المحتمل أن يكون للرسالة أي تأثير على المناخ الحالي في أبحاث الذكاء الاصطناعي، ومن الصعب وفق المعطيات الحالية أن تسهم في إيقاف اندفاع شركات التكنولوجيا المحموم لنشر منتجات ذكاء اصطناعي متقدمة جديدة، وغالبًا ما سيتم تهميش المخاوف بشأن الحقوق والسلامة والأخلاق. لكن على الرغم من ذلك هي علامة على بدء الحراك والاهتمام العالمي العلني بهذا المجال، مما قد يفتح الباب لمبادرات وأنشطة كثيرة أخرى أكثر تأثيراً على صانع القرار بحيث تدفع بإتجاه مزيد من الحوكمة والمساءلة في هذا المجال.