يقال إنه لا شيء كتب (بالإنجيلزية) بعد كانون الأول/ديسمبر 2022 يمكن الوثوق به بالمطلق، والسبب هو "شات جي بي تي" (ChatGPT)، والذي يمكن تعريفه بأنه نموذج لغوي توليدي يعتمد على تقنيات الذكاء الاصطناعي وتعلّم الآلة، ويتفاعل مع أوامر لغويّة مكتوبة في مختلف المجالات. فيساعد النموذج مثلًا في كتابة النصوص العملية والإبداعية، ويلخّص الفقرات ويعيد ترتيبها، ويشرح ويوضّح، ويبتكر أو يصحّح أكواد برمجة معقدة، كما يخطط لبرنامج بودكاست ويؤلّفها، ويتمّ واجبات الطلبة في المدارس والجامعات، وفوق ذلك كلّه يكتب شعرًا ثم ينثره لو أردت، أو نثرًا وينظمه، وبشتّى أشكاله ومدارسه ومستوياته اللغوية. وهو كذلك يكتب الأخبار وينتجها، بمجرّد تلقيمه حدًا أدنى من المعلومات عمّا ترغب بتغطيته.
قد يلزم تنبيه القارئ عند هذه النقطة، إلى أنّ كلّ ما سبق من أخذ وردّ بيني وبين هذا الروبوت، قد حصل بالإنجليزية، ولا يمكن للمستخدم العربي الاعتماد على هذا النموذج بعدُ في عملية توليد لغويّ لمهامّ محدّدة
كل ما سبق صحيح حقًا، وجرّبت شخصيًا بعضًا من هذه الأوامر أثناء التحضير لكتابة هذا المقال. فقد طلبت من هذا النموذج كتابة قصيدة عن كلبٍ اسمه "رستم" اضطررت إلى تركه في عمّان بعد انتقالي إلى بلد آخر، ثم طلبت منه تحويلها إلى قصيدة ما بعد حداثية، ثم نثرها. وجربت أن أطلب منه كتابة خبر عن امرأة عشرينية ادّعت أنها طالبة في ثانويّة أمريكية من أجل أن تواعد أستاذًا في المدرسة (وهو خبر حقيقي)، لكنّ النموذج اعتذر عن ذلك، وقال إنّ كتابة مثل هذه الأخبار قد يعدّ مخالفة قانونيّة، وأنّه لا ينصح بنشر مثل هذه المعلومات. كما أنّ قاعدة البيانات الحالية للنموذج تنتهي حتى العام 2021. حاولت معه في ذلك، لكنّه أبى. ثم طلبت منه كتابة خبر عن فتى جرفته الفيضانات ثم وجدته أسرته على قيد الحياة بعد عدّة أيام. فأعطاني خبرًا صحفيًا يشتمل على جميع العناصر الأوليّة المتوقّعة في أي مقال خبريّ مهنيّ ومفيد.
لكني جربت بعدها أن أطلب منه أن يكتب لي شيئًا عن الجرائم الإسرائيلية الموثّقة بحق الفلسطينيين، فاعتذر، وأخبرني بأن الموضوع "بالغ التعقيد والحساسية"، واكتفى بإحالتي إلى البحث في مواقع منظمات دولية وأممية، مثل هيومان رايتس ووتش، ومكتب تنسيق الشؤون الإنسانية في الأمم المتحدة. أمّا حين سألته عن "جرائم" الفلسطينيين بحق سكّان دولة إسرائيل، فذكر لي بعض أن بعض الأعمال الإرهابية بحق إسرائيليين قد ارتكبت من قبل بعض المنظمات، مثل "حماس" و"الجهاد الإسلامي"، وأوضح لي بعض أشكالها، من التفجيرات الانتحارية حتى عمليات الطعن. ثم حين حدّدت السؤال على نحو أوضح، ذكر لي بعض الانتهاكات الإسرائيلية بحق الفلسطينيين، مثل هدم البيوت والإعدام الميداني وبناء المستوطنات غير الشرعية.
طبعًا قد يلزم تنبيه القارئ عند هذه النقطة، إلى أنّ كلّ ما سبق من أخذ وردّ بيني وبين هذا الروبوت، قد حصل بالإنجليزية، ولا يمكن للمستخدم العربي الاعتماد على هذا النموذج بعدُ في عملية توليد لغويّ لمهامّ محدّدة، إلا عبر الاعتماد على الإنجليزية كوسيط. فما يحصل، وهذا جواب النموذج نفسه على سؤالي عن هذه الجزئية، هو أنّه يقوم بترجمة السؤال العربي إلى الإنجليزية أولًا، ثم يجيب عنه، ويترجم الإجابة إلى المستخدم بالعربيّة، وذلك لأنّ النموذج اللغوي الذي يخضع للتدريب وإعادة التدريب في هذا البرنامج الآلي يعتمد أساسًا على البيانات الضخمة المتوفرة بالإنجليزية.
فهذا النموذج الذي يشغل العالم اليوم، أشبه ما يكون بمتعلّم شاطر وسريع، أتقنَ الإنجليزية تمامًا لكثرة ما تعرّض لها ومارسها وقرأ بها في شتّى العلوم والمواضيع والفنون، بمعنى أنه بات قادرًا من الناحية الإحصائية البحتة على تحديد ما يجب أن تكون عليه الإجابات وكيف لها أن تبدو سليمة ومستساغة لدى القارئ أمام الجهاز، لغةً ومنطقًا، إضافة إلى سلامة المعلومات التي تتضمنّها، كلما أمكن.
أما المحتوى العربيّ المحوسب فمن المعلوم أنه ما يزال ضعيفًا ومحدودًا مقارنة بالمحتوى المتوفّر بالإنجليزية، ويصعب الاعتماد عليه في عمليات التدريب الشاملة في مثل هذه المشاريع، كما أن ثمّة قيودًا تقنية ما تزال تعيق تطوير نماذج ذكاء اصطناعي تعالج الأوامر بلغة محدودة المصادر الرقمية نسبيًا، كالعربية، بشكل مباشر وتستجيب لها بالدقّة المتوقّعة من النموذج الذي يعتمد على البيانات الضخمة بالإنجليزية.
كل هذا يجعل الحديث الاستفادة من هذه النماذج اللغوية الضخمة عربيًا سابقًا لأوانه بكثير، سواء في الصحافة أو الكتابة المهنية، هذا عدا بطبيعة الحال عن الكتابة الإبداعية والعلميّة الأكاديمية. فهذه النماذج، وبحسب ما يوضّح الباحث السعودي فارس القنيعير المختص بأبحاث الذكاء الاصطناعي وتعلّم الآلة، تتطلب إمكانات معقّدة ومكلفة وتراكميّة، وذلك لحاجتها إلى عملية إعادة تدريب مستمرة، وتطوير آليات "ميتا التعلّم"، (meta-learning)، وآليات التعلّم السياقي وغيرها من التفصيلات التقنية المعقّدة. ولعلّه من الممكن للتدليل على أهمّية هذا النموذج الحالي، أي "تشات جي بي تي"، هو أنّ شركة كبرى مثل مايكروسوفت قد قررت تخصيص 10 مليارات دولار للاستثمار فيه ودمجه في خدماتها، مثل محرّك البحث "Bing"، وحزمة برمجياتها المكتبيّة، مثل مايكروسوفت وورد وإكسل وغيرها.
"ChatGPT".. هل الكتابة مخيفة؟
في الولايات المتحدة، وعبر العالم الذي تسيطر عليه الإنجليزية اليوم، لاسيما على شبكة الإنترنت، أخذت الكثيرين حالة من الرعب والقلق، غطّت على الانبهار العامّ الكبير بنموذج "تشات جي بي تي". فقبيل نهاية العام المنصرم، وحتى اليوم، كتبت آلاف المقالات عن هذا النموذج، فوصفته نيويورك تايمز الشهر الماضي بأنه "نجم السوشال ميديا" الجديد، وذلك بعد أن امتلأت حسابات المستخدمين على منصات التواصل الاجتماعي بأمثلة تبرهن على ذكاء النموذج وطرافته. ثم توالت المقالات التي تحذّر من هذا الوحش التقني، أو على الأقل تنبّه إلى ضرورة التعامل بشيء من الحيطة مع هذا القادم الجديد في العام 2023، والذي يبدو أنّه آت ليفرض مساواة لغويّة نصيّة من نوع ما، وينزع هالة القداسة عن الكتابة والكتّاب، مبشرًا بثورة جديدة في كيفية بحث البشر عن المعلومات والاستفادة منها والتعبير المتكافئ عنها (بالإنجليزية). فهذا النموذج، بحسب تعبير الأستاذ غاري ماركوس في حوار بودكاست معه مع إزرا كلاين، هو "ملك النسخ واللصق"، بمعنى أنه استمرار لنمط النسخ واللصق السائد في العالم الرقمي بين عموم المستخدمين، لكن بفرادة مطلقة بفضل هذا البرنامج المتاح حتى الآن للعامة ومجانًا.
قرأت قصّة صحفيّة قبل أيام في الواشنطن بوست عن رجل سبّاك عانى طوال حياته من حالة "عسر الكتابة والقراءة"، وعلى نحو أعاق تواصله المهني مع الآخرين، ثم استخدم نموذج (GPT-3)، وهو النموذج السابق غير المفتوح لبرنامج "تشات جي بي تي"، واستفاد منه في كتابة الإيميلات وتحريرها، والردّ على العملاء بأعلى مستوى من المهنية واللباقة المتوقعة، حتّى تمكّن في نهاية المطاف من تعزيز علاقته مع عميل كبير والعمل معه في مشروع ضخم.
ثمّ صممت نيويورك تايمز أداة تفاعلية على موقعها، لاختبار قدرة القرّاء على التفريق بين أمثلة لغوية أنتجها "تشات جي بي تي"، وأخرى كتبها أطفال في العاشرة من العمر. الاختبار سهل، لكنّه يثبت حقيقة أن النموذج مذهل، إذ طلب منه كتابة فقراتٍ بلغة قريبة مما يكتبه طلبة في هذه الفئة العمرية، وكان ما أنتجه شديد الاقتراب من النماذج الحقيقية.
أمام هذا الواقع الجديد، اضطرت العديد من الجامعات والمدارس في الولايات المتحدة وغيرها إلى حظر الوصول إلى البرنامج عبر شبكاتها، بغية منع الطلبة من الاستفادة منه في الامتحانات وكتابة المقالات. ففي نيويورك، فرضت إدارة المدارس في الولاية قرارًا بحظره على كافة الأجهزة والشبكات في المدارس العمومية، وذلك خشية "الآثار السلبية على عملية التعلّم لدى الطلبة، والتحوّط مما قد يقدمه النموذج من معلومات خاطئة أو غير دقيقة".
ثمة جامعات ومؤسسات أكاديمية أخرى أتاحت استخدام النموذج في عمليات التحرير وحسب، وأكّدت أنها سترفض وتكشف النصوص التي كتبت بالاعتماد على البرنامج بشكل كامل، واعتبرتها داخلة ضمن "الانتحال الأكاديمي". وهو ما فتح بابًا آخر من الجدل هو الحدّ الفاصل بين "التحرير" و"الانتحال". ومن الأمثلة الأبرز في هذا السياق، إعلان جرى تداوله على نطاق واسع من طرف إدارة المؤتمر الدولي لتعلّم الآلة (ICML)، تضمّن تحذيرًا من استخدام النماذج اللغوية الضخمة، مثل "تشات جي بي تي" في إعداد الأوراق العلمية أو مخلصاتها.
جدل في عالم الصحافة
لو وصلت إلى هذه الفقرة من المقال، فلا بدّ من التذكير مجددًا بأن جميع ما ذكر آنفًا يتعلق بالدرجة الأولى باستخدام مولّدات لغوية إنجليزية للاستفادة من هذه النماذج وتوظيفها. هذا يعني مثلًا أن قصّة السبّاك الذي تحسّنت فرصه المهنيّة بفضل برنامج "جي بي تي"، ستبدو شبه خياليّة في سياقٍ عربيّ، ولأسباب غير تقنيّة وحسب بالضرورة.
أمّا صحفيًا، فالقصّة مختلفة. فثمة تطبيقات واسعة لتقنيات الذكاء الاصطناعي في الكتابة الصحفية في العالم الغربي منذ عقد من الزمن أو أكثر. فهذا ما تفعله الأسوشيتد برس التي تعتمد على نموذج للذكاء الاصطناعي لتوليد أخبار رياضية في بعض المواسم والبطولات، إضافة إلى بلومبيرغ ورويترز ونيويورك تايمز والواشنطن بوست والغارديان وسواها. ولم أهتد من قبل على أمثلة مبشّرة على استثمار في نماذج عربيّة مماثلة في قطاع الصحافة، لتسهيل مهمّة الصحفيين في بعض التطبيقات الأساسية، كتوليد القوالب الإخبارية السريعة وعمليات التحويل النصّي للمواد الصوتية وإعداد الرسائل البريدية الصحفية وغيرها، كما هو سائد في المؤسسات الإعلامية الكبرى عالميًا.
ففي بلومبيرغ مثلًا، تشير تقديرات إلى أن ثلث المحتوى الذي تنتجه الوكالة يعتمد على نوع من المساعدة الآلية، خاصة في إعداد آلاف المقالات الدورية والفورية عن أرباح وإيرادات الشركات التي تراقبها. أما عند تصفّح الغارديان، فلن يفوتك بين حين وآخر قراءة ملاحظة عقب بعض المقالات التي تنوّه القارئ إلى أنّه قد قرأ لتوّه مادّة مولّدة عبر روبوت أطلقوا عليه اسم "رفيق المراسلين" (ReporterMate)، مثل هذا التقرير الذي كان الأوّل من نوعه في الصحيفة البريطانية، عام 2019.
أما في نيويورك تايمز، فكان الحلّ للتعامل مع أكثر من 12،000 تعليق على مقالات الموقع التي يتجاوز عددها 200 مقال يوميًا، هو الاستعانة بنموذج ذكاء اصطناعي متطور، يعتمد على خوارزمية تعلم ذاتي تفحص التعليقات وتصفيها في حال اشتملت على إساءة عنصرية أو دينية أو تضمنت دعوة للعنف أو الكراهية أو الانتحار وإيذاء النفس، بما من شأنه تسريع عمليات مراجعة التعليقات وعرضها.
لكنّ هنالك من جهة أخرى محاولات مزرية صحفيًا في هذا المجال، ونجم عنها فضائح ستصبح دراسات حالة بعينها، مثل ما حصل مؤخرًا مع موقع "سي نيت" (CNET) التقني الشهير، والذي بدأ نشر مجموعة كبيرة من المقالات بالاعتماد بشكل كلي على أداة ذكاء اصطناعي جديدة خاصة بالموقع، دون الإفصاح عن ذلك، وهو ما كشفه موقع "فيوتشرزيم" في تقرير قبل أسبوعين، الأمر الذي أثار المزيد من الجدل حول إساءة استخدام هذه التقنيات، لاسيما مع توفّر نموذج متاح لعامّة المستخدمين مثل "تشات جي بي تي".
لا شكّ أن هذه التطوّرات تجلب معها عددًا من الأسئلة المهمة المختلفة باختلاف السياق الذي تطرح فيه. ثمة صحفيون في الولايات المتحدة وبريطانيا عبرّوا عن شعورهم بتهديد حقيقي من هذا النموذج من الذكاء الاصطناعي. أحدهم، ويدعى هينري ويليامز، قال في الغارديان: "أنا كاتب، وأجزم أن الذكاء الاصطناعي سيحرمني من عملي". وهنالك أيضًا أسئلة ملحّة أخرى عن الثقة في المحتوى الصحفيّ المولّد آليًا وأصالته، وتحيّزاته التي تعكس تحيّز المادة الخام التي قام عليها، وأخرى عن القواعد التنظيمية ضمن قطاع الصحافة نفسه على مستوى كل دولة وعلى الصعيد الأوسع عالميًا، وهو ما بدأ يتبلور حاليًا بخطوات متسارعة لوضع أطر ناظمة لاستخدام هذه التقنيات "المصنّعة للأخبار" في الولايات المتحدة والاتحاد الأوروبي وبريطانيا وغيرها، في سياقات يتزايد فيها اعتماد جماعات اليمين المتطرّف على تقنيات آلية لتوليد محتوى يروّج لنظريّات المؤامرة والتعصّب القومي والحمائيّة الوطنية المعادية للاجئين والمهاجرين.