لا شك أنّ الإنجازات التّكنولوجيّة الجديدة ستغيّر وجه البحث العلميّ. يشير مقال جديد إلى ثلاثة إخفاقات يجب الالتفات إليها

في شهر يونيو من هذا العام، احتفل فيلم "The Matrix" بمرور نصف عام على صدوره. في بداية الفيلم، يكتشف بطلُهُ نيو أنّ العالم الذي يعيش فيه تسيطر عليه آلات ذات ذكاء اصطناعيّ، قد تمرّدت على صانعيها واستعبدت الجنس البشريّ. عندما عُرض الفيلم لأوّل مرّة، توافد المشاهدون على دور السينما بأعداد كبيرة، كما فعلوا في عدد لا يُحصى من الأفلام الأخرى حول الذكاء الاصطناعيّ التي خرجت عن نطاق السيطرة. لكن اليوم، مع تغلغل الذكاء الاصطناعيّ إلى حياتنا، يزداد فهمنا لحقيقة مفادها أنّ المخاطر التي ينطوي عليها استخدام الذكاء الاصطناعيّ قد تكون أقلّ دراماتيكيّةً وأكثر مراوغةً.

نستطيع رؤية مثال على هذه المخاطر في مجال البحث العلميّ. على غرار العديد من المجالات الأخرى في الاقتصاد والمجتمع، يتزايد استخدام أدوات الذّكاء الاصطناعيّ في البحث العلميّ. واستجابةً للتّطوّرات السّريعة في هذا المجال، نشرت عالمة النّفس مولي كروكيت (Crockett) وعالمة الأنثروبولوجيا ليزا ميسيري (Messeri) من الولايات المتّحدة مؤخّرًا مقالَ رأي مشترك في مجلة Nature، حيث رسمتا خريطة لهذه الإخفاقات.

تناولت كلاهما في مقالتهما الرؤية التي قدّمها علماء آخرون فيما يتعلّق بالعمل البحثيّ المدعوم بالذكاء الاصطناعيّ، من أجل تقييم الشكل الذي قد يبدو عليه العمل العلميّ في المستقبل القريب. لقد وصَفتا صورةً لمستقبل تنتقّل فيه الأدوار الكلاسيكيّة للعالم بالكامل إلى أيدي الذكاء الاصطناعيّ. سيقوم الذكاء الاصطناعيّ بمعالجة المؤلّفات العلميّة الواسعة، وتقديم الأسئلة البحثيّة الأكثر إثارةً للاهتمام. فبدلًا من جمع البيانات من الطبيعة أو الإنسان، يمكننا توليد بيانات اصطناعيّة باستخدام عمليّات المحاكاة التي أنشأها الذكاء الاصطناعيّ. تستند جميع الاستنتاجات التي نستخلصها من البيانات إلى تقييمات الذكاء الاصطناعيّ. 

زبدة الكلام - سوف يقوم الذكاء الاصطناعيّ بفحص وانتقاد المقالات الجديدة المقترحة للنّشر.

"كان ردّ فعلي الفوريّ على هذه التوقّعات هو "هل فقدوا عقولهم؟" اعترفت كروكيت في مقابلة مع المجلة الإلكترونيّة Ars Technica. "لكنّنا لم نختار المقالات عن عبث. هذه هي الأشياء التي يقولها كبار العلماء عن مستقبل الذكاء الاصطناعيّ."


على غرار العديد من المجالات الأخرى في الاقتصاد والمجتمع، يتزايد استخدام أدوات الذكاء الاصطناعيّ في البحث العلميّ. روبوت في المختبر | Shutterstock, Stock-Asso

منفعة مع وجود ضرر جانبيّ

إنّ المزايا الّتي يقدّمها الذكاء الاصطناعيّ للبحث العلميّ واضحة: من بينها توفير هائل في المال وساعات العمل، وفتح بوابة لأفكار جديدة لا تقتصر على طريقة تفكير الدماغ البشريّ. مع ذلك، تزعم كروكيت وميسيري أنّ هذه الفائدة لها ثمن باهظ: ألا وهو الإضرار بفهمِنا للواقع.

يعتمد المقال على دراسات تناولت درجة ثقة الباحثين بأدوات الذكاء الاصطناعيّ. وبناءً عليها، حدّد المؤلّفون ثلاثة أنواع من الأوهام التي يميل العلماء إلى اتّباعها في عملهم باستخدام مثل هذه الأدوات. النوع الأوّل هو الوهم الذي يمكِّننا من تفسير النتائج التي تمّ الحصول عليها. تعتمد أدوات الذكاء الاصطناعيّ على حسابات معقّدة، وإيجاد روابط غير مفهومة بين المعلمات. الباحثون الذين يستخدمون هذه الأدوات هم بالفعل خبراء في مجال أبحاثهم، لكن هذا لا يعني أنّهم بالضّرورة خبراء في الخوارزميّة نفسها - مجموعة قواعد اتّخاذ القرار الخاصّة بِبرامج الذكاء الاصطناعيّ. بمجرّد أن يحمل الباحث النتائج بين يديه، فإنّه يميل إلى اعتمادها كحقيقة، وقد ينسى أنّ الطريقة التي حصل بها عليها ليست واضحة بالنسبة له.


بمجرّد أن يحمل الباحث النتائج بين يديه، فإنه يميل إلى اعتمادها كحقيقة، وقد ينسى أنّ الطريقة التي حصل بها عليها ليست واضحة بالنسبة له. باحثون حول شاشة الحاسوب | Shutterstock, Gorodenkoff

الوهم الثّاني هو أنّ الذكاء الاصطناعيّ يدرس جميع الخيارات المتاحة. فِعليًّا، يتعلّم بيانات محدودة، مُستمدّة من نطاق قاعدة البيانات الّتي درّبناها عليه، بالإضافة إلى طبيعة المعلومات. لذلك، فإنّ استنتاجاتها ستكون بالضرورة محدودة أيضًا. على سبيل المثال، قد يقوم الباحثون السلوكيّون الّذين يبحثون عن رؤى حول الطبيعة البشريّة بتدريب نموذج ذكاء اصطناعيّ يعتمد على موادّ من شبكة الإنترنت؛ لذلك، فإنّ نموذجهم لن يتضمّن خصائص لا يتمّ التعبير عنها عبر الإنترنت. بالتالي لن يستنتج الذكاء الاصطناعيّ المدرّب على قاعدة بيانات طبّيّة شيئًا عن مؤشّرات لا تظهر في قاعدة البيانات هذه.

الوهم الثالث هو أنّ أدوات الذكاء الاصطناعيّ موضوعيّة، في حين أنّ البشر لديهم افتراضات متحيّزة. وبما أنّ الإنسان هو قالب مشهده الأصليّ، فإنّ الذكاء الاصطناعيّ هو قالب مشهد البيانات الذي يستخدمه في التعلّم. على سبيل المثال، لاحظت شركة أمازون أنّ خوارزميّتها الخاصّة بمسح السّيرة الذاتيّة تُعطي الأولويّة للمتقدّمين الذّكور. لقد أعطت الخوارزمية ببساطة درجة أعلى للسّير الذّاتيّة التي ظهرت فيها كلمات يستخدمها الرجال على نطاق أوسع من النّساء، وقد فعلت ذلك بناءً على قاعدة البيانات التي دُرّبت عليها - قاعدة بيانات تضمّنت الاختيارات التي قام بها البشر قبلها.

تحت تأثير هذه الأوهام، قد نجد أنفسنا أمام علم متهالك وأقلّ تنوّعًا، دون أن ندرك أنّ هناك مشكلة في بحثنا. إحدى الاستراتيجيّات التي تقترحها كروكيت وميسري هي العمل في فرق تجمع بين التّخصّصات البحثيّة المتنوّعة. بهذه الطريقة سيتمّ تقليل الخطر من خلال التّركيز على خطّ فكريّ واحد مهيمن فقط. وينبغي التأكيد على أنّهما لم تستبعدا حقًّا العمل مع الذكاء الاصطناعيّ، لأنّ فائدته للعلم واضحة للجميع. وتُلخّص كروكيت إلى أنّه "يجب أن نعلّم أنفسنا الطرقَ التي يمكن من خلالها للذّكاء الاصطناعيّ أن يعرض عمليّة خلق المعرفة العلميّة للخطر. لن يتمكّن العلماء الذين يعملون بمفردهم من مساعدتنا في تقليل هذه المخاطر".

0 تعليقات