كيف نتعامل مع الذكاء الاصطناعي على أساس منطقي
الكوكب بكامله منشغل بالحديث عن الذكاء الاصطناعي والتحذير مما يخبئه المستقبل. ولكن إذا سألنا أولئك الذين هم على دراية بالأمر (وهذا ما فعلناه) فسنرى أن مستقبلنا مع الآلات يبدو مختلفاً تماماً عن الفكرة التي يريد رؤساء الشركات التنفيذيون إيصالها إلينا. إليكم كيف يمكن أن نكف عن القلق، وربما نتعلم أن نحب الذكاء الاصطناعي...
هل الذكاء الاصطناعي خارج عن السيطرة؟
غاري أستاذ فخري في علم النفس والعلوم العصبية من جامعة نيويورك New York University وصوت رائد في مجال الذكاء الاصطناعي
يمكن للذكاء الاصطناعي أداء أمور مدهشة، لكن حتى الخبراء يقولون إنه يشكل
تهديداً حقيقياً لنا. فهل يجدر بنا أن نوقف تطويره أو أن الأوان قد فات بالفعل؟
بدأت عديد من الأصوات الرائدة في العالم في مجال الذكاء الاصطناعي في التعبير عن مخاوفها بشأن التكنولوجيا، ومن بينهم اثنان ممن يُسمَّون ”عرّابي الذكاء الاصطناعي“ Godfathers of AI، د. جيفري هينتون Geoffrey Hinton والبروفيسور يوشوا بنجيو Yoshua Bengio، وكلاهما له دورٌ مهم في تطويره.
صدم هينتون عالَمَ الذكاء الاصطناعي في مايو بتخليه عن دوره كواحد من نواب رئيس شركة غوغل Google ومهندسيها، متحدثاً عن مخاوفه بشأن المخاطر التي يمكن أن تشكلها التكنولوجيا على البشرية من خلال نشر المعلومات المُضلِّلة Misinformation، حتى إنه أعرب عن شعوره بشيء من الأسف بسبب مساهماته في هذا المجال.
وبالمثل قال عالم الحاسوب الحائز جائزة نوبل بنجيو لإذاعة بي بي سي إنه فوجئ بالسرعة التي تطور بها الذكاء الاصطناعي، وشعر بأنه ”ضائع“ عند إعادة النظر في أعماله طوال حياته.
دعا كلاهما إلى صياغة لوائح دولية لتمكيننا من التحكم في تطور الذكاء الاصطناعي. مع الأسف، نظراً إلى الوتيرة السريعة التي تتطور بها التكنولوجيا وانعدام الشفافية حول عملها، يبدو الأمر أكثر صعوبة مما نعتقد.
على الرغم من زيادة اتضاح المخاطر المحتملة للذكاء الاصطناعي التوليدي Generative AI، سواء تعلق الأمر باستخدامه من طرف جهات فاعلة شريرة لارتكاب جرائم إلكترونية، أو لإنتاج معلومات مضللة على نطاق واسع، فإنه لم يتضح اًبعد ما يجب أن نفعله حيالَها، وإن اكتسبت إحدى الأفكار زخْماً، ألا وهي موضوع حوكمة الذكاء الاصطناعي على المستوى العالمي.
في مقال نُشر في مجلة الإيكونوميست The Economist في 18 أبريل 2023، اقترحت أنكا رويل Anka Reuel، عالمة الحاسوب من جامعة ستانفورد Stanford University، إنشاء وكالة دولية للذكاء الاصطناعي. منذ ذلك الحين أعرب آخرون أيضاً عن اهتمامهم بالفكرة. عندما أعدتُ طرح الفكرة في أثناء الإفادة التي قدمتها في مجلس الشيوخ الأمريكي في مايو، بدا كل من سام التمان Sam Altman، الرئيس التنفيذي لشركة OpenAI وعديد من أعضاء مجلس الشيوخ متقبلين لها.
في وقت لاحق اجتمع قادة ثلاث من كبرى شركات الذكاء الاصطناعي مع رئيس الوزراء البريطاني ريشي سوناك Rishi Sunak للحديث عن الأمر. وأشارت التقارير الصادرة عن الاجتماع إلى أنهم أبدوا تأييدهم للحاجة إلى الحوكمة الدولية. كما ستقدِّم ورقةٌ بيضاء White Paper تعدها الأمم المتحدة التوجهاتِ نفسها. ويرى عديد من الأشخاص الآخرين الذين حدثتُهم أيضاً أن الأمر مُلح، وآمل أن نتمكن من تحويل هذا الحماس إلى عمل.
”نتفق جميعاً على الحاجة إلى الشفافية والنزاهة والمساءلة فيما يتعلق بالذكاء الاصطناعي“
في الوقت نفسه أود أن ألفت الانتباه إلى وجود تضارب في المواقف. نتفق جميعاً على الحاجة إلى الشفافية والإنصاف والمساءلة فيما يتعلق بالذكاء الاصطناعي، كما أكد ذلك البيت الأبيض، ومنظمة التعاون والتنمية في الميدان الاقتصادي (OECD)، ومركز الذكاء الاصطناعي والسياسة الرقمية (CAIDP) ومنظمة الأمم المتحدة للتربية والثقافة والعلوم (اليونسكو). في مايو ذهبتْ مايكروسوفت Microsoft إلى حد الإعلان عن التزامها بالشفافية.
لكن الحقيقة التي يبدو أن قلة من الناس يرغبون في مواجهتها هي أن نمذجات اللغة الكبيرة Large language models make – التكنولوجيا الكامنة وراء أمثال ChatGPT وGPT-4 – ليست شفافة ومن غير المرجح أن تكون عادلة.
هناك أيضاً قليل من المساءلة. عندما ترتكب النمذجات اللغوية الكبيرة أخطاءً، فمن غير الواضح سبب ذلك. كما أنه من غير الواضح ما إذا كان يمكن تحميل صانعيها المسؤولية القانونية عن أي أخطاء ترتكبها أنظمة الذكاء الاصطناعي التي طوروها، لأن النمذجات عبارة عن صناديق سوداء، لا نعرف ما يجري بداخلها.
لكن هل ستفي الشركات التي تقف وراء أنظمة الذكاء الاصطناعي هذه بالتزاماتها تجاه الشفافية؟ لقد وجدتُ أنه من المقلق أن ألتمان هدد فترةً وجيزة بإخراج شركة OpenAI من أوروبا إذا لم يتفق مع لائحة الاتحاد الأوروبي للذكاء الاصطناعي (على الرغم من أنه تراجع عن تصريحه بعد يوم أو يومين).
وما يؤكد ذلك أن مايكروسوفت تمتلك حصة كبيرة في GPT-4 الذي طورته OpenAI وتستخدم هذه الأداة في منتجاتها الخاصة (مثل Bing)، ولم تكن مايكروسوفت ولا OpenAI مستعدتين بنحو كامل للكشف عن طريقة عمل Bing أو GPT-4، أو حول طبيعة البيانات التي يجري تدريب الأدوات عليها.
كل هذا يجعل التخفيف من المخاطر أمراً بالغ الصعوبة. الشفافية هي في الوقت الحالي مجرد وعد وليست حقيقة.
وما يضيف مزيداً من التعقيد هو أن المخاطر متعددة. لذلك لن يكون هناك حل واحد شامل. تختلف المعلومات المضللة عن التحيز الذي يختلف عن الجريمة الإلكترونية التي تختلف بدورها عن المخاطر طويلة المدى المحتملة التي يطرحها الذكاء الاصطناعي المستقل حقاً.
ومع ذلك هناك خطوات يمكننا اتخاذها (يمكن قراءة ”ماذا نستطيع أن نفعل؟“، في العمود إلى اليسار) ويجب أن نتحد كعالم للإصرار على أن تحافظ شركات الذكاء الاصطناعي على الوعود التي قطعتها لتكون شفافة وخاضعة للمساءلة، ودعم الأبحاث العلمية التي نحتاج إليها للتخفيف من المخاطر التي يطرحها الذكاء الاصطناعي.
هناك خطوات يمكننا اتخاذها حالياً لجعل تطوير الذكاء الاصطناعي أكثر أماناً…
1 على الحكومات أن تنشئ هيئة على غرار إدارة الأدوية والرعاية الصحية/إدارة الغذاء والدواء للموافقة على نشر نمذجات الذكاء الاصطناعي على نطاق واسع، وبموجب ذلك يتعين على الشركات إقناع الجهات التنظيمية (هم في الحالة المثالية علماء مستقلون) بأن منتجاتها آمنة، وأن فوائدها تفوق المخاطر الناجمة عنها.
2 على الحكومات إلزام شركات الذكاء الاصطناعي بالتحلي بالشفافية بشأن بياناتها والتعاون مع محققين مستقلين.
3 على شركات الذكاء الاصطناعي توفير الموارد (على سبيل المثال وقت المعالجة) للسماح بالتدقيق الخارجي.
4 يتعين إيجاد طرق لتحفيز الشركات على التعامل مع الذكاء الاصطناعي باعتباره منفعة عامة حقيقية، من خلال الحوافز والمساءلة.
5 إنشاء وكالة عالمية للذكاء الاصطناعي، تضم عديداً من أصحاب المصلحة Stakeholders الذين يعملون معاً لضمان أن القواعد التي تنظم الذكاء الاصطناعي تخدم الجمهور وليس شركات الذكاء الاصطناعي فقط.
6 يتعين علينا أن نعمل من أجل إنشاء هيئة للذكاء الاصطناعي تشبه المنظمة الأوروبية للأبحاث النووية (سيرن) تركز على السلامة وتؤكد على:
أ) تطوير تقنيات جديدة أفضل من التقنيات الحالية تحترم القيم الإنسانية، إلخ.
ب) تطوير الأدوات والمقاييس للتدقيق في عمل الذكاء الاصطناعي، وتتبع المخاطر، والمساعدة على التخفيف من هذه المخاطر بنحو مباشر.