هذا الحوار مترجم عن الأصلي المنشور في موقع فيوتشريزم.
ما انقضى إلّا عام واحد منذ إطلاق شركة أوبن إيه آي OpenAI روبوتَ المحادثة الآلي تشات جي بي تي ChatGPT، حتى انتشرت أدوات الذكاء الاصطناعي التوليدي في جميع المجالات، فهي مستخدمة الآن في الصفوف الدراسية، والدعاية السياسية، وفي مجالات الصحافة والترفيه وعدد مطرد من معامل إنتاج المحتوى المدعومة بالذكاء الاصطناعي. ولم يقتصر الأمر على ما سبق، إذ دُمِج الذكاء الاصطناعي التوليدي في محركات البحث، أي الوسائط الهائلة والمنظمة لشبكة الويب المفتوح، بل بلغ الأمر مبلغًا خسر فيه بعض الأفراد وظائفهم لصالح تكنولوجيا الذكاء الاصطناعي التي حلّت محلهم، وتزامن ذلك مع زيادة مطردة في أعداد الوظائف الجديدة المتعلقة بالذكاء الاصطناعي، التي يغلب الالتباس على طبيعتها في معظم الأحيان.
ولم يتضح بعدُ إن كان الذكاء الاصطناعي التوليدي قادرًا على الاستمرار على المدى الطويل، بيد أنه ولا ريب رسخ مكانته الآن في حياتنا الحقيقية والواقعية. وتزامن هذا الانتشار الواسع المطرد للذكاء الاصطناعي التوليدي مع الانتشار المتنامي للمحتوى الاصطناعي الذي تُنتِجه أدواته، على أن من المفارقات الساخرة أن المحتوى الاصطناعي ذاته قد يُشكل تهديدًا أكبر وأعمق للذكاء الاصطناعي.
ويعزى ذلك إلى حقيقة مفادها أنّ القوة الدافعة التي يقوم عليها الذكاء الاصطناعي التوليدي هي بيانات أعدها البشر؛ فنماذج الذكاء الاصطناعي التوليدي لا تأتي بمحتوى مشابه للمحتوى البشري من العدم، وإنما تُدرَّب على هذه المهمة باستعمال مواد ومكتنزات قيّمة من إبداع البشر، استُخلصت في الغالب من شبكة الإنترنت. لكن بدا جليًا وقوع بعض الغرائب والعجائب حينما نغذي نماذج الذكاء الاصطناعي التوليدي بذلك المحتوى الاصطناعي. ولا بدّ لتقريب هذه العملية من أذهاننا أن نتأملها على أنها شبيهة بزواج الأقارب بين مجموعات البيانات، فتتمخض عنه مخرجات مشوشة تغلب عليها صفات الشمولية والخلط والتشويه (في شهر فبراير الفائت، وصف جاثان سادوسكي، الباحث الاختصاصي في مجال البيانات في جامعة موناش، الذكاء الاصطناعي بمصطلح هابسبورج، في إشارة منه إلى تلك السلالة الملكية العريقة المشهورة بزواج الأقارب بين أفرادها، فمغزى كلامه أن نظام الذكاء الاصطناعي يخضع لتدريب كثيف على مخرجات أنظمة اصطناعية توليدية أخرى، فيصبح لهذا السبب نظامًا ممسوخًا عنها يتسم على الأرجح بمزايا مشوّهة ومضخمة).
ولا ريب أنّ هذه المسألة تشكل معضلة عويصة تلوح في الأفق؛ فصانعو أنظمة الذكاء الاصطناعي يتوقون دومًا إلى تغذية نماذجهم ببيانات إضافية، وهنا موضع الإشكال لأن تلك البيانات تُستَخلَص عمومًا من شبكة الإنترنت، التي تطفح بالمحتوى الاصطناعي على نحو مطرد. ومن هذا المنطلق لو تزايد وقوع هذا التزاوج المدمر بين أنظمة البيانات، فهل تتداعى الأشياء جميعها على حين غرّة؟
بدا جليًا وقوع بعض الغرائب والعجائب حينما نغذي نماذج الذكاء الاصطناعي التوليدي بذلك المحتوى الاصطناعي. ولا بدّ لتقريب هذه العملية من أذهاننا أن نتأملها على أنها شبيهة بزواج الأقارب بين مجموعات البيانات، فتتمخض عنه مخرجات مشوشة تغلب عليها صفات الشمولية والخلط والتشويه.
ولا ريب أنّ استيعاب هذه الظاهرة يستلزم التحدث إلى باحثين اختصاصيين في هذا المجال، وهنا يحاور المقال الباحثين الاختصاصيين في التعلم الآلي، سينا علي محمد وخوسيه كاسكو-رودريجيز، وهما طالبا دكتوراه في قسم الهندسة الكهربائية والحوسبة في جامعة رايس، يشرف عليهما الأستاذ ريتشارد جي بارانيوك. وقد تعاون هذان الباحثان مع نظرائهم في جامعة ستانفورد، فنشروا ورقة بحثية مذهلة تتناول هذا الموضوع دون أن تخضع بعدُ لمراجعة الأقران، وهي إلى ذلك منشورة بالعنوان التالي: النماذج التوليدية ذاتية الاستهلاك جو ماد (Go MAD).
والمقصود بالاسم المختصر ماد (MAD) هو نموذج الالتهام الذاتي، وهو المصطلح الذي وضعه الباحثون للتعبير عن الحساسية الذاتية البارزة للذكاء الاصطناعي؛ ففي أثناء البحث العلمي، استلزم الأمر خمس دورات تدريبية على البيانات الاصطناعية حتى (تتضخم) مخرجات نموذج الذكاء الاصطناعي بحسب تعبير بارانيوك.
ويمدنا هذا الأمر بلمحة رائعة عما قد يصبح مستقبلًا موطن الضعف في نماذج الذكاء الاصطناعي التوليدي. وإن تبين أنّ الأمر يسير على هذا النحو، إذا ماذا يترتب على الأفراد العاديين وصناعة الذكاء الاصطناعي المزدهرة وشبكة الإنترنت كافة؟
نص الحوار
المحاوِر: "لقد أتيتم إذن بمصطلح ماد للتعبير عن ظاهرة الاستهلاك الذاتي للذكاء الاصطناعي، فهل يسعكم إخبارنا بمعنى هذا المصطلح المختصر؟ وماذا يترتب على هذه الظاهرة؟".
ريتشارد جي بارانيوك: "الذكاء الاصطناعي مجال واسع وكبير. والذكاء الاصطناعي التوليدي جزء مهم أصبح مألوفًا بين أوساط الجمهور في الآونة الأخيرة. فكما هو معلوم تعكف النماذج التوليدية على توليد البيانات أو توليفها؛ فعلى سبيل المثال يكتب المستخدم العادي سؤالًا أو طلبًا معينًا في موجه المحادثة ضمن روبوت شات جي بي تي، فيعمد هذا النموذج إلى توليف نص معين وإعداد الرد على طلب المستخدم، وكذلك الحال عند استخدام نماذج توليد الصور، مثل دال-إي (DALL-E) وستيبل ديفيوشن (Stable Diffusion)، فالمستخدم يكتب نصًا معينًا في خانة موجه النص، ليُنشئ نظام الذكاء الاصطناعي صورًا رقمية بناء على النص المُدخَل".
"يتولى المهندسون مسؤولية تطوير هذه النماذج التوليدية، التي هي أصلًا برنامج كومبيوتر، ولا بد من تدريب هذا البرنامج، أليس كذلك؟ فمن اللازم تدريبها باستخدام كميات ضخمة من البيانات المستقاة من شبكة الإنترنت؛ فنموذج شات جي بي تي، مثلًا، خضع لتدريب كثيف على جميع بيانات شبكة الإنترنت التي عثرت عليها شركة أوبن إي آي، أي أنه خضع للتدريب على كل الأشياء تقريبًا. أما نموذج دال-إي، التابع للشركة عينها، فخضع بدوره للتدريب على أكبر عدد ممكن من الصور الرقمية المتاحة على شبكة الإنترنت."
"وبيت القصيد أن تدريب نماذج الذكاء الاصطناعي لا يقتصر على البيانات الطبيعة أو البيانات الحقيقة المستقاة من العالم الحقيقي، وإنما تُدرّب كذلك على البيانات التي جمعتها وولفتها نماذج توليدية أخرى. وبناء على ذلك فنحن في خضم عصرٍ تستهلك فيه النماذج التوليدية باطراد مخرجات نماذج توليدية أخرى، سواء أحدث ذلك قصدًا أم عرضًا؛ فبعض الشركات تعكف طواعية على تدريب نماذجها التوليدية على البيانات الاصطناعية، خاصة حينما تنشط تلك الشركات في منطقة يتعذر فيها الحصول على بيانات حقيقة كافية. وفي المقابل يتدرب بعض الأفراد عرضًا على نماذج توليدية؛ فعلى سبيل المثال تبين أنّ كثيرًا من مجموعات البيانات التدريبية المستخدمة حاليًا لأغراض التعلم، فيها صور اصطناعية أنشأتها نماذج توليدية أخرى".
"لقد أتينا بمصطلح حلقة الالتهام الذاتي (autophageous loop) لتلخيص هذه العملية برمتها، وهو إلى ذلك مصطلح تقني يعني الاستهلاك الذاتي. ولا بد لفهم هذا المصطلح وإدراكه من تشبيه العملية بحيوان لا يكتفي بمطاردة ذيله، وإنما يعمد إلى أكله حرفيًا. ويطيب لنا أن نشبه العملية كذلك بمرض جنون البقر؛ أي إطعام الأبقار المريضة للأبقار الصغيرة في دورة متكررة، فتنجم عن ذلك مسببات الأمراض المدمرة للدماغ. ويسعنا القول إنّ أبحاثنا في أصلها تُعنى بحلقات الاستهلاك الذاتي، وتسعى لاستيعاب متى تدخل تلك النماذج في حلقة الالتهام الذاتي، إن جاز لنا التعبير، ونحاول كذلك أن نفهم متى تقع هذه المشكلات، والتدابير اللازمة للحيلولة دون حدوثها".
المحاور: "هل من حد معين يبدأ فيه المحتوى الاصطناعي بإحداث المشكلات؟ فكما سبق لكم القول فإن المحتوى الاصطناعي مندرج أصلًا في مجموعات البيانات المخصصة لتدريب الذكاء الاصطناعي، لكن لا بد من طرح السؤال التالي: ما مقدار المحتوى الاصطناعي اللازم حتى يدخل النموذج في حلقة الالتهام الذاتي ويتداعى؟".
خوسيه كاسكو-رودريجيز: "هذا الأمر يتباين من نموذج لآخر، ومن حالة لأخرى".
سينا علي محمد: "دعونا ننظر إلى المسألة من منظور حدسي؛ فإذا وُجد لدينا مثلًا مليار جزءٍ من البيانات الطبيعية، وجزء واحد فقط من البيانات الاصطناعية، إذن لن يصاب النموذج بالالتهام الذاتي. لكن إذا مر من الزمن عام واحد، وأصبح لدينا مليار جزء من البيانات الاصطناعية، فلا ريب أنّ النموذج يصاب حينها بخمس حلقات متكررة من الالتهام الذاتي. وقد توصلنا إلى هذه النسبة في النمذجة الجاوسية (نسبة لعالم الرياضيات كارل فريدريخ جاوس)".
إذا وُجد لدينا مثلًا مليار جزءٍ من البيانات الطبيعية، وجزء واحد فقط من البيانات الاصطناعية، إذن لن يصاب النموذج بالالتهام الذاتي. لكن إذا مر من الزمن عام واحد، وأصبح لدينا مليار جزء من البيانات الاصطناعية، فلا ريب أنّ النموذج يصاب حينها بخمس حلقات متكررة من الالتهام الذاتي.
بارانيوك: "هذا صحيح. ولنكون على بينة من الأمر فلكل نموذج حد معين ولا ريب. فلو قارنا بين نموذج دال-إي ونموذج ميدجورني (Midjourney)، فإن تحديد التوازن الدقيق بين البيانات الحقيقية والاصطناعية اللازم للمحافظة على سلامة النموذج والحيلولة دون وقوعه في حلقة الالتهام الذاتي، ما يزال موضوعًا قيد الدراسة والبحث. بيد أن السؤال المطروح الآن لنماذج الذكاء الاصطناعي الضخمة الموجودة حاليًا هو: ما مقدار التوازن؟"
المحاوِر: "ما هي التداعيات المتوقعة على شركات الذكاء الاصطناعي؟ ربما نتحدث بمنطلق مثالي ونقول إن مجموعات البيانات التابعة لها خالية من تلك البيانات الاصطناعية، لكن يبدو جليًا أنّ العكس هو الصحيح، ففي نهاية المطاف أصبح بعض الموظفين، مثلًا، يستخدمون الذكاء الاصطناعي لإنجاز مهام موقع ميكانيكال تورك (Mechanical Turk) التابع لأمازون.
كاسكو-رودريجيز: "عندما تستعمل البيانات الاصطناعية عرضًا- يسري هذا الأمر كذلك على الممارسين الاختصاصيين، والأفراد الذين يُنشئون الصور وينشرونها على شبكة الإنترنت- فلن تدرك في الغالب أنّ نتاجك سيندرج في التدريب المستقبلي للنماذج التوليدية. ولعل مجموعة بيانات لايون-فايف بي (Laion-5B) هي مثال حي على ذلك لأنها كُرّست لتدريب نموذج ستيبل ديفيوشين (Stable Diffusion)، وهذا معناه أن الصور التوليدية التي أنشأها المستخدمون سابقًا مستخدمةٌ الآن في تدريب نماذج توليدية جديدة. فإذا أنتج الناس بيانات اصطناعية، عندئذ لا بد أن يدركوا هذه الحقيقة. أما ما يخص الشركات بموضوع البيانات الاصطناعية، فأمثل الخيارات المتاحة أمامهم هو استعمال شيء مشابه للعلامة المائية حتى يكتشفوا تلك البيانات، ويكونون قادرين ربما على إزالتها من مجموعات بيانات التدريب".
"أما إذا كنت تستخدم البيانات الاصطناعية عمدًا عن سابق معرفة، فينبغي لك أن تدرك بأنّ النماذج التوليدية ليست مثالية قط في نتائجها، وأنها تعمد في أحيان كثيرة إلى التضحية بتنوع البيانات الاصطناعية لأجل جودتها الاصطناعية. فإن وقع أمر كهذا في نموذجك، وكنت تتدرب عليه، إذن عليك أن تدرك حقًا مجريات الأمور".
بارانيوك: "لنفترض جدلًا وجود بعض الشركات التي تعتمد على البيانات الاصطناعية في تدريب نماذجها لأسباب مختلفة، منها التكاليف الرخيصة لاستعمال البيانات الاصطناعية، أو افتقارها إلى البيانات الحقيقية الكافية. فهذه الشركات عندما تتجاسر على فعل كهذا وتتخلى عن حذرها كليًا، وتقول إنها بصدد استعمال البيانات الاصطناعية، فهي غافلة عن عواقب تكرار هذه العملية جيلًا بعد جيل، إذ يترتب عليها تضخيم هذه الصور الفنية ضمن النموذج، وبذلك تبتعد البيانات الاصطناعية للنموذج عن الواقع".
"إنّ هذه النتيجة هي الأخطر حقًا، خاصة أنّنا قد لا نتفطن إلى حدوثها أصلًا؛ فحينما تبتعد البيانات الاصطناعية عن الواقع، فإنّ النموذج يوّلد صورًا تتسم على نحو متزايد بطابع بليد ورتيب. والأمر ذاته يصيب النماذج النصية إن قمنا بتلك العملية، فتنوع الصور المنشأة سيتضاءل باطراد؛ ففي إحدى التجارب التي أجريناها اكتشفنا عدم حصول تضخيم للصور الفنية، وإنما وجدنا أن الصور جميعها تتلاقى أساسًا عند الشخص نفسه، وهذا الأمر مخيف حقًا".
المحاور: "ما العواقب الوخيمة على مستخدمي هذه الأنظمة؟"
بارانيوك: "ربما يتعذر على المستخدمين حماية أنفسهم؛ فلو استُخدمت هذه النماذج في حلقة كهذه، فقد يؤثر ذلك سلبًا على تجربة المستخدم لأنّ طابع الرتابة يغلب على المحتوى الجديد الذي تولده النماذج، وهذا الأمر مثير للإحباط، أليس كذلك؟ إنها حقيقة وواقع".
"ماذا يسع المستخدمين فعله لمواجهة هذا الوضع؟ إنهم يستطيعون فعل أمر مهم وهو اجتناب إزالة العلامة المائية الرقمية حيثما وجدت. ولا ريب أنّ هذه العلامات تنطوي أحيانًا على بعض العيوب، لكن إذا باشر أحدهم تدريب نموذج ذكاء اصطناعي جديد، فإنه يعكف على البحث عن الصور الاصطناعية ذات العلامات المائية مستبعدًا إياها، فهذه الأمر يفيد حقًا في مسألة التأثير التراكمي (تأثير العتبة) الذي سبق الحديث عنه. أما الأمر الثاني الذي يلزم أن يستوعبه المستخدمون فمتعلقٌ بمخرجاتهم، فإن نشروا تلك المخرجات على شبكة الويب، إذن ستتسرب دائمًا إلى مجموعات البيانات التدريبية للأنظمة المستقبلية، فبعض الأمور حتمية لا مناص منها".
المحاور: "ما عيوب العلامة المائية؟".
بارانيوك: "إنها تُدخل عمدًا صورة فنية، وهذه تتضاعف على مدار عدة أجيال، وقد تتضخم كما حصل في صور الذكاء الاصطناعي ضمن ورقتنا البحثية".
علي محمد: "أجل، فما تزال هذه المشكلة مجهولة، فلا ندري حقًا إن كانت العلامة المائية تستطيع التضخم، أو أنها تتضخم أصلًا. بيد أنّ الفوائد تفوق العيوب، فالعلامة المائية هي الحل اللازم للعثور على البيانات الاصطناعية".
المحاور: "نشهد في الوقت الحالي دمج الذكاء الاصطناعي في الخدمات المتنوعة المقدمة عبر الإنترنت، وعلى الأخص محركات البحث؛ فهذه المحركات هي إلى حد معين الأساس الذي تنطلق منه معظم نشاطاتنا على شبكة الإنترنت، فهي إلى ذلك ضرورية للوساطة والتنقل عبر الويب. فهل أنتم قلقون بشأن مستقبل قابلية استخدام الويب إن دمج الذكاء الاصطناعي في شبكة الويب وحياتنا اليومية، ثم سرعان ما بدأ بالتداعي لتغذيته المستمرة بالمحتوى الاصطناعي؟".
بارانيوك: "إنه سؤال يكتسب أهمية كبيرة على المدى الطويل. فلا ريب أنّ لوضع الالتهام الذاتي قدرةً على خفض جودة البيانات المتاحة على شبكة الإنترنت، إذ يؤثر على جودة البيانات فقط. ولم تتطرق أبحاثنا في هذه الورقة العلمية إلى أنظمة الذكاء الاصطناعي في محركات البحث، لهذا فإن معرفة ذلك هو أمر سابق لأوانه. لكن توجد في المقابل أبحاث أخرى تُبين أنّ تدريب نظام ذكاء اصطناعي مغاير وغير توليدي- أي نوع آخر من أنظمة الذكاء الاصطناعي، كالأنظمة المستعملة مثلًا في محركات البحث- باستخدام البيانات الاصطناعية مصحوبة ببيانات حقيقية، يؤدي إلى انخفاض الأداء فعليًا".
ربما ينتهي بنا الحال إلى نظام بيئي اصطناعي كليًا يجده المستخدمون عند استعمال محركات البحث، وهذا الأمر بحد ذاته ضرب من الجنون.
"وهذا الأمر يدعم الفرضية القائلة إنه كلما زادت البيانات الاصطناعية، تسببت ربما في انخفاض الأداء لدى مجموعة كاملة من الأدوات- منها محركات البحث- التي تخضع للتدريب على جميع البيانات المتاحة على شبكة الإنترنت، سواء الحقيقية منها أم الاصطناعية. وقد بدأ الباحثون عملية الربط بين هذه النقاط جميعها".
كاسكو-رودريجيز: "خطر على بالي مدى الطابع المخيف والغريب الذي تتخذه عملية الصد والرد بين نماذج الذكاء الاصطناعي؛ لما كان الناس يستخدمون الذكاء الاصطناعي التوليدي في أمور معينة، مثل تطوير موقع ويب بالكامل، فمن المحتمل أن ينتهي بنا المطاف بنماذج توليدية تقود المستخدمين إلى نتائج اصطناعية كذلك، وهذه بدورها تحتوي على ارتباطات تشعبية لمواقع ويب اصطناعية هي الأخرى. وربما ينتهي بنا الحال إلى نظام بيئي اصطناعي كليًا يجده المستخدمون عند استعمال محركات البحث، وهذا الأمر بحد ذاته ضرب من الجنون".
بارانيوك: "هذا صحيح، فربما نصبح محتجزين في ذلك العالم. بيد أنّ هذا الأمر مرتبط بطريقة استخدام الأفراد، مثلًا، لروبوت شات جي بي تي لإنجاز أعمال موقع ميكانيكال تورك؛ فعملية التعلم الخاضع للإشراف- من الوسائل المهمة التي يتعلم بها الناس من البيانات لتطوير أنواع كهذه من النماذج- تستلزم منا تسمية البيانات، فهذا الشرح التفصيلي للبيانات كان القاعدة الذهبية المعتمدة، لكن الباحثين اكتشفوا الآن أننا حينما نضع مهام التوسيم في خدمات مثل، موقع ميكانيكال تورك التابع لأمازون، فإن الأفراد لا يقومون بذلك بعد الآن، وإنما يطلبون من أنظمة الذكاء الاصطناعي تسمية البيانات وتمييزها نيابة عنهم. وصحيح أن هذه الأنظمة ولا ريب أكفأ من الأفراد، بيد أنها تضعنا في خضم حلقة أخرى من الحلقات التي تحدثنا عنها، أي حلقات إثر حلقات".
المحاور: "إذن فالأفعى تلتهم ذيلها، أليس كذلك؟".
بارانيوك: "لا ريب في هذا، فالفكرة مفادها حلقات أعلى من حلقات أخرى، مما يصعب عملية تتبع مشكلات نماذج الذكاء الاصطناعي ومعرفة مصدرها الدقيق".
"لا ضير من الإتيان على ذكر قصة سريعة: فشرارة الانطلاق في بحثنا العلمي كانت حينما حضر أحد أعضاء مجموعتنا مؤتمرًا يستعرض ملصقًا ترويجيًا- لا علاقة له بهذا البحث وإنما بمجال متصل- ومر بجواره باحث من الأوساط الصناعية وقال على نحو عفوي إن الصور الاصطناعية ستفوق في القريب العاجل الصور الحقيقية على شبكة الإنترنت. حدثت هذه الواقعة منذ عام ونصف تقريبًا، وقد قال حينها إنّ عدد مواقع الويب الاصطناعية سيتجاوز المواقع الحقيقية، والنصوص المزيفة ستطغى على النصوص الحقيقية".