أصبح الوصول في زمننا إلى المعلومات أكثر سهولة من أيّ وقت مضى- بما في ذلك المعلومات الخاطئة وغير الصحيحة. هل سننجح في التعرّف على الحقيقة عندما يصبح الخيال، بمساعدة الذكاء الاصطناعيّ، أكثر واقعيّة؟

في عام 1938، عشيّة عيد القدّيسين (الهالوين)، أفادت شبكة الراديو في الولايات المتّحدة عن غزو كائن فضائيّ للأرض. تمّ قطع البرنامج الإذاعيّ، والّذي كان يُفتتح بشكل روتينيّ ببثّ الموسيقى، بسبب نبأ إخباريّ يُبلغ عن سقوط جسم من الفضاء في نيوجيرسي، وما نتج عن ذلك من هجوم فضائيّ. وفي اليوم التالي، أفادت صحف مختلفة أنّه أثناء بثّ البرنامج، ذُعِر المستمعون: وانتشرت "أخبار" الغزو شفهيًّا بين الناس، وتوجّه المستمعون إلى الراديو والصحافة والشرطة.

كان البرنامج الإذاعيّ مقتبسًا من رواية "حرب العوالم" الّتي كتبها هربرت جورج ويلز، وتمّ إنتاجها تكريمًا للعيد وتمّ بثّها في الأخبار المتدفّقة إلى الأستوديو أثناء البثّ المنتظم. شملت التقارير المسرحيّة "من الميدان" مؤثّرات صوتيّة دراميّة وممثّلين أدّوا أدوارهم بحرفيّة ساهمت في الشعور بالمصداقيّة.

وبغضّ النظر عن جودة الإنتاج، مال المستمعون إلى تصديق الراديو، كونه يُعتبَر وسيلة اتّصال موثوقة تنشر رسائل حقيقيّة. هذه هي الطريقة الّتي اجتاح بها البرنامج المستمعين- ربّما أكثر من اللازم.

اليوم، وبعد مرور عقود، نستهلك المعلومات- بما في ذلك الأخبار- بوسائل مختلفة تمامًا. لا تزال نشرات الأخبار السائدة تحظى بشعبيّة إلى حدٍّ ما، لكنّ الكثير منّا يستهلكون الأخبار العاجلة من وسائل التواصل الاجتماعيّ، ويحصلون على المعرفة العامّة من جميع أنحاء الإنترنت. تزعم بعض الاستطلاعات أنَّ الشباب اليوم يثقون بالمعلومات الموزّعة على شبكات التواصل الاجتماعيّ بقدر ثقتهم بالمعلومات الصادرة عن شركات الأخبار.

أصبح الوصول إلى المعلومات في الوقت الحاضر أكثر سهولة من أيّ وقت مضى. ليست هناك حاجة لانتظار التقرير الإخباري كلّ ساعة، ولم تعد هناك حاجة لدراسة موضوع معيّن أو زيارة المكتبة أو الاتّصال بالخبراء. الإجابات عن العديد من الأسئلة الّتي تشغلنا يوميَّا لا تبعد سوى بضع نقرات على المفاتيح، اختيار رابط أو رابطين حتّى تصل إلى المعلومات المطلوبة. تضيف محرّكات البحث أسفل نتائج البحث نوعًا من ملخّص المحتويات الرئيسة وفقًا لاستعلام البحث. هذه هي الطريقة الّتي يتمّ بها أحيانًا الإجابة عن  الأسئلة البسيطة دون الخوض في مصدر المعلومات. الإجابات عن الأسئلة قصيرة، سريعة، متاحة وموجزة.

في المقابل، أصبحت القدرة على نشر المعلومات متاحة أيضًا بشكل أكبر، حتّى لو كنت فردًا عاديًّا وليس مؤسّسة إخباريّة غنيّة بالموارد. ليست هناك حاجة للحصول على رصيد أكاديميّ أو أيّ رصيد مناسب آخر للوصول بسرعة إلى جمهور يصل إلى عشرات ومئات من المتابعين على شبكات التواصل الاجتماعيّ، وفي حالة المؤثّرين قد يصل الى الملايين.

تلعب شبكات التواصل الاجتماعيّ دورًا حاسمًا في نشر المعلومات الكاذبة، خاصّة أنّنا نميل إلى مشاركة المحتوى الذي يثير مشاعر قويّة فينا. يقوم المستخدمون الّذين يرغبون في الحصول على انكشاف واسع النطاق بنشر محتوى مثير للجدل، عاطفيّ وصادم قدر الإمكان، وسيحظى بانتشار سريع وشامل. هذا المزيج من المحتوى الّذي يتمّ توزيعه بسهولة إلى جانب مصادر ليست بالضرورة موثوقة، قد يجعل من الصعب جدًّا علينا الحكم على مدى موثوقيّة المعلومات.


أصبحت القدرة على نشر المعلومات متاحة بشكل أكبر اليوم. رسم توضيحيّ لنشر الحقائق والمعلومات المغلوطة | Shutterstock, Accogliente Design

نشر الأكاذيب ليس بالأمر الجديد. انتشرت معلومات مشوّهة منذ الأزل- على سبيل المثال، عن المنتصرين في الصراعات والحروب- وانتشرت الأساطير الكاذبة. يبدو أنَّ "الأخبار الكاذبة" تكاد تكون جزءًا من الطبيعة البشريّة. الفرق الرئيس في انتشار الأكاذيب هذه الأيام هو سرعة ومدى انتشارها. أصبح التمييز بين الحقيقة والخيال في السنوات الأخيرة في ظلّ تطوّر الذكاء الاصطناعيّ الإبداعيّ أكثر صعوبة.

من العدم، بالضغط على زرّ

الذكاء الاصطناعيّ التوليديّ (Generative Artificial Intelligence) هو مصطلح يشير إلى الذكاء الاصطناعيّ الّذي يُنتج محتوى جديدًا. ظهرت أداة ChatGPT الشهيرة في حياتنا كأداة لإنتاج النصوص، بينما تنتج DALL-E وMidjourney الصور، وهناك أيضًا أدوات لإنشاء الموسيقى، الفيديو والأكواد البرمجيّة. وبمساعدة هذه الأدوات، يمكن لكلّ مستخدم توجيه الخوارزميّات حتّى التمكّن من إنشاء محتوى عالي الجودة، وغالبًا ما يكون مشابهًا جدًّا للمحتوى الأصليّ. يمكن للصور ومقاطع الفيديو الّتي تمّ إنشاؤها بواسطة الذكاء الاصطناعيّ أن تخدع المشاهد العاديّ، خاصّة عندما يكون الهدف هو إنتاج محتوى جديد يبدو واقعيًّا وليس مصطنعًا.

تمّ تصميم نظام الذكاء الاصطناعيّ بمساعدة التدريب على المعلومات المتوفّرة. يتمّ تعريض النظام الّذي هدفه إنشاء صور خلال مرحلة التدريب لمجموعة كبيرة من الصور الحقيقيّة، لمعرفة ميزاتها، وتعلّم كيفيّة إنشاء صور جديدة ومبتكرة ذات ميزات مماثلة. لا تزال أساليب إنشاء المحتوى المرئيّ الواقعيّ والموثوق تتطوّر بسرعة، وفي الوقت نفسه، فإنَّ الأساليب الّتي كانت تعتبر حديثة قبل بضع سنوات أصبحت تعتبر قديمة.

إحدى طرق إنشاء الصور الواقعيّة، والّتي تمّ تطويرها منذ حوالي عقد من الزمان، تُسمَّى GAN- وهي اختصار لشبكة الخصوميّة التوليديّة (Generative Adversarial Network)، على الرغم من أنّها تعتبر اليوم قديمة تقريبًا مقارنة بالتقنيّات الأكثر حداثة. يتكوّن نظام هذه الطريقة من جزءَين. الجزء الأوّل، المولّد، بحيث يُنتج الصور، والجزء الآخر، يُسمَّى المُصنِّف، يُدرِّج الصورة الّتي أنشأها المولّد وفقًا لمستوى موثوقيّتها. إذا أراد مثل هذا النظام أنّ يتعلّم، على سبيل المثال، كيفيّة إنشاء صور موثوقة للوجوه، فسوف يتدرّب على قاعدة بيانات كبيرة جدًّا من صور الوجوه الحقيقيّة. سيبدأ المولّد العمليّة بإنشاء بعض الصور، وهي مجرّد مجموعة من وحدات البيكسيل ذات القيم الرقميّة الّتي تمثّل لونًَا.

سيحكم المصنّف على ما إذا كانت هذه الصورة مشابهة لنوع الصور الموجودة في مجموعة الصور الحقيقيّة. في عمليّة تدريب متكرّرة، سيتعلّم المولّد إنشاء صور تبدو وكأنّها مأخوذة من مجموعة الصور الأصليّة بمساعدة ردود المصنّف. في هذا الموقع وأيضًا عبر موقع "هذا الشخص غير موجود"، يمكنك تجربة تحديد الصورة الحقيقيّة والّتي تمّ إنشاؤها بواسطة هذه العمليّة الاصطناعيّة.


هؤلاء الأشخاص غير موجودين حقًّا- هذه صور تمّ إنشاؤها باستخدام طرق GAN | ويكيميديا، bod lnga klang, Datasciencearabic1

تقنيّة إنشاء أخرى، تُستخدم على نطاق واسع هذه الأيام، تُسمَّى نموذج الانتشار (Diffusion Model)، وتقوم أيضًا بإنشاء صور جديدة تشبه طبيعة الصور من مجمع التدريب. يتمّ تنفيذ طريقة التدريب في خطوتَين: أوّلًا، تقوم بأخذ صورة من قاعدة بيانات الصور وإضافة "التشويش" إليها، أي تغيير قيمة كلّ بيكسيل قليلًا بحيث تكون أفتح أو أغمق، باستخدام قيمة مختلفة.

تمّت إضافة  "تشويس" خفيف لبعض الصور، بحيث يبقى محتواها الأصليّ واضحًا، ولبعضها تمّت إضافة الكثير من "التشويشات" بحيث لا يمكن التعرّف على الصورة الأصليّة بالفعل وتبدو وكأنّها مجموعة عشوائيّة من وحدات البيكسيل. والآن تبدأ المرحلة الثانية، حيث يبدأ النظام في التعرّف على خصائص الصورة الحقيقيّة. الهدف هو التقاط صورة مشوّشة وإجراء العمليّة العكسيّة، والّتي ستحوّل "التشويش" إلى صورة نظيفة. تقوم عمليّة "تنظيف الضوضاء" بتعليم النظام ما الّذي يميّز الصور الحقيقيّة من قاعدة البيانات. وفي النهاية، بعد التدريب، تبدأ عمليّة إنشاء صورة جديدة مع بعض التشويشات العشوائيّة، والّتي يقوم النظام "بتنظيفها" حتّى يتمّ إنشاء صورة تشبه الصور المأخوذة من قاعدة البيانات. تعتمد النتائج المثيرة لـ DALL-E على هذه الطريقة.


يعتبر نموذج الانتشار، التكنولوجيا الأكثر استخدامًا هذه الأيام. هذه صورة لقطّتي، مع مستويات مختلفة من الضوضاء. إذا قمنا بتعليم النظام التقاط صور مشوّشة للقطط، وفهمنا كيفيّة تغيير قيم البيكسيل بحيث يتمّ الحصول على صورة نظيفة، فعندما نقوم بإدخال بعض الضوضاء العشوائيّة فيه بعد التدريب، فإنّه "سينظّفها" لإنشاء صورة | تل سوكولوف 

في العام أو العامين الماضيين، تمّت إتاحة العديد من هذه الأدوات للاستخدام العامّ، بحيث تسمح بإنشاء محتوى واقعيّ للغاية. يمكن للمستخدمين إنشاء صور بواسطة جملة أو عدّة جمل تصفها، وبالتالي "إخراج مشاهد" معقّدة ببضع نقرات بسيطة.

من نُصدّق؟

سهولة إنشاء المحتوى الوهميّ، وسرعة توزيعه ووصوله مباشرة إلى هاتفنا المحمول- كلّ ذلك يؤدّي إلى حقيقة أنّنا نتعرّض له أكثر من أيّ وقت مضى، ومن الصعب جدًّا التحقّق من المعلومات الّتي تصل إلينا ومنع توزيع المعلومات الكاذبة. تخلق شبكات التواصل الاجتماعيّ، الّتي نتواصل من خلالها مع الأصدقاء والمستخدمين مثلنا، نوعًا من "صندوق الصدى": فنحن نتعرّض لمحتوى يتوافق مسبقًا مع آرائنا ووجهات نظرنا للعالم، بحيث يكون الموقف تجاهه سلبيًّا وغير نقديّ في بعض الأحيان. وجد الباحثون الّذين جمعوا معلومات من شبكة التواصل الاجتماعيّ "تويتر" أنّ التغريدات الّتي تحتوي على معلومات كاذبة تصل إلى توزيع أوسع وتنتشر بشكل أسرع من المحتوى الّذي تمّ التحقّق منه.

وجد الباحثون أيضًا أنَّ المحتوى الزائف يثير ردود عاطفيّة مختلفة مقارنة بالمحتوى الحقيقيّ: في حين أنَّ المحتوى الحقيقيّ يثير مشاعر مثل الحزن، الفرح، الترقّب والثقة، فإنَّ المحتوى الزائف يثير مشاعر مثل المفاجأة والاشمئزاز.

مصدر المشكلة ليس في الذكاء الاصطناعيّ. كانت الصور الحقيقيّة الّتي يتمّ تفسيرها بشكل خاطئ، بما في ذلك الصور من ألعاب الكمبيوتر الّتي يتمّ تقديمها كوثائق حقيقيّة من ساحة المعركة، تمثّل تحدّيًا قبل وقت طويل من المرحلة الّتي تعلّمت فيها خوارزميّات الذكاء الاصطناعيّ إنتاج صور مقنعة. يميل عشّاق نظريّات المؤامرة إلى التشكيك حتّى في الصور ومقاطع الفيديو الّتي تمّ إنشاؤها سابقًا. عندما لم يكن أحد يحلم بمثل هذه الإمكانيّات، مثل صور الهبوط على القمر عام 1969. إلّا أنَّ الذكاء الاصطناعيّ، الّذي لا يستطيع إنشاء صور فحسب، بل مقاطع فيديو أيضًا وفقًا لتعليمات المستخدمين، يمكن أن يعمّق المشكلة وينشر مقاطع الفيديو في كلّ مكان لشخصيّات عامّة وسلطويّة تتفوّه بنصوص مُعدَّة.


مصدر المشكلة ليس في الذكاء الاصطناعيّ، لكنّه قد يعمّق المشكلة. لوحة مفاتيح تحوي مفاتيح للأخبار والحقائق المزيّفة | Shutterstock, keport

لقد أثارت وتيرة التقدّم في مجال الذكاء الاصطناعيّ بالفعل قلق صنّاع القرار لدرجة أنّه تمّ نشر العديد من الالتماسات بهدف إبطاء تطوّره. أحد الاقتراحات هو فهم كيفيّة التعامل مع احتمال قيام الذكاء الاصطناعيّ بإغراق قنوات المعلومات لدينا بالدعاية والمعلومات الكاذبة، واتّخاذ قرارات نظاميّة سليمة وفقًا لذلك. أحد خياراتنا كمستخدمين هو استخدام التقنيّات المضادّة، مثل AI or not، والّتي تدرس المحتوى الّذي تمّ إنشاؤه بمساعدة الذكاء الاصطناعيّ، على الرغم من أنّها لا تقدّم حلًّا منهجيًّا.

وإلى أن يتمّ العثور على طرق للتعامل مع المشكلة، فإنّنا- أقصِد المستخدمين- نتحمّل قدرًا كبيرًا من المسؤوليّة. من الأفضل أن نختار الجانب المسؤول والموزون: الشكّ، التعمّق في المحتوى، وقبل كلّ شيء عدم الضغط على زرّ المشاركة في حرارة اللحظة دون التحقّق من موثوقيّة المعلومات المنتشرة. وحتّى "الأخبار" حول "الأخبار المزيّفة" قد يتبيّن أنّها في حدّ ذاتها "أخبار مزيّفة". إنّ الاستهلاك المسؤول للمعلومات يتطلّب بالفعل الوقت والموارد، ولكن لا يمكننا أن نثق في كيان آخر لتنظيف المحتوى والقيام بالعمل نيابة عنّا. يجب أن نستهلك المعلومات بمسؤوليّة، ونقدّس الحقيقة في المعلومات الّتي ننقلها.

 

0 تعليقات