أحد صفحات التقدم العلمي للنشر
ذكاء اصطناعي

هل سيجعلنا الذكاء الاصطناعي أكثر غباء؟

ماذا لو كان من الخطأ أن نطرح السؤال ”هل ستشكل أنظمة الذكاء الاصطناعي تهديداً وجودياً إذا صارت واعية؟“، ماذا لو أن التهديد الذي تواجهه البشرية ليس أن أنظمة الذكاء الاصطناعي ستصبح واعية ذات يوم، بل... أنها لن تصير كذلك؟

البروفيسورة شانون فالور Shannon Vallor
شانون هي مديرة مركز تكنومورال فيوتشرز Centre for Technomoral Futures من جامعة إدنبرة University of Edinburgh

أثار إصدار شركة OpenAI برمجية ChatGPT سيلاً من التعليقات في وسائل الإعلام والدوائر العلمية، حول إمكانات الذكاء الاصطناعي ومخاطره.

يعد ChatGPT في جوهره إصداراً قوياً من نمذجة اللغة الكبيرة LLM المعروفة باسم GPT. والمصطلح المختصر GPT يعني المحول التوليدي المدرب مسبقاً Generative Pre-trained Transformer؛ وهو نوع من نمذجات تعلم الآلة Machine learning الذي يستخرج أنماطاً من مجموعة كبيرة من بيانات التدريب (كثير منها مأخوذ من الإنترنت) لتوليد تركيبات بيانات جديدة (مثل النصوص) باستخدام الأنماط نفسها.

حالياً يطلق رؤساء تنفيذيون لشركات الذكاء الاصطناعي وسياسيون وباحثون بارزون في مجال الذكاء الاصطناعي تحذيرات علنية حول إمكان أن تشكل أدوات مثل GPT تهديداً وجودياً للبشرية. يدعي البعض أن GPT قد تكون ”الشرارة“ الأولى للذكاء العام الاصطناعي أو AGI، وهو إنجاز يُتوقع أن يستلزم ظهور آلات واعية، وسنتحول إلى أشخاص عديمي الأهمية بسبب عقولها ذات القدرات العليا.

ولكن كما أشار عديد من خبراء الذكاء الاصطناعي الذين هم على دراية بالأمر، لا يوجد أساس علمي للادعاء بأن نمذجات اللغة الكبيرة تحظى حالياً، أو يمكن أن تحظى في يوم من الأيام بتجارب ذاتية، وهي أشكال ”الحياة الداخلية“ Inner life التي نتحدث عنها عندما نشير إلى البشر الواعين أو كائنات أخرى تتمتع بالذكاء Intelligence وإدراك الشعور Sentience في الوقت نفسه، مثل الكلاب والفيلة والأخطبوط.

كل ما نعرفه عن إدراك الشعور والإحساس لا يتوافق مع نمذجة اللغة الكبيرة التي تفتقر إلى أي اقتران بالعالم الحقيقي بخلاف مدخلات النص التي نُلقمها إياها. يتطلب إدراك الشعور القدرة على الإحساس والحفاظ على الاتصال بالعالم المتدفق متعدد الأبعاد والغني بإحداثيات المكان والزمن من حولك، من خلال الأعضاء الحسية والجهاز العصبي الذي يحتويها والمقترن بالبيئة المادية. من دون هذا الاقتران بالواقع لا يوجد شيء نشعر به، ولا شيء يمكن إدراكه، ولا واقع لتشكيله كموضوع مستقر ذاتياً.

هل يعني هذا أن الذكاء الاصطناعي لا يدعو إلى القلق؟ بعض قادة الذكاء الاصطناعي، مثل البروفيسور يان لوكون Yann LeCun، توصلوا إلى هذا الاستنتاج. وجهة نظرهم هي أنه من غير المرجح أن تؤدي أنظمة الذكاء الاصطناعي الحالية إلى الذكاء الاصطناعي العام AGI، لذا فهي لا تشكل تهديداً خطيراً للبشرية. مع الأسف هؤلاء المتفائلون حيال التكنولوجيا مخطئون أيضاً. التهديد موجود وهو كبير. لقد أسأنا فهم ماهيته بنحو أساسي (أو في بعض الحالات ربما عمدنا إلى تشويهها).

الذكاء الاصطناعي من دون القدرة على التفكير أخطر من الذكاء الاصطناعي المفكِّر. ما التهديد الذي يمكن أن يشكِّله ذكاء اصطناعي لا يمتلك عقلاً أو قدرة على التحكم؟ عند طرح هذا السؤال ننسى أن المحتال يمكن أن يكون أكثر خطورة من المنافس.

”الذكاء الاصطناعي لا يهدد بقاءَ الإنسان، على الأقل ليس لأسباب تتعلق بإدراك الآلة“

لا يهدد الذكاء الاصطناعي بقاءَ الإنسان، على الأقل ليس لأسباب تتعلق بإدراك الآلة. لكن الانقراض ليس الخطر الوحيد. إن فقدان القدرات الإنسانية التي تجعل نمط وجودنا يستحق أن نختاره ونحافظ عليه هو أمر مهم ينبغي ألا نغفل عنه.

تخيلْ أن تهبط علينا كائنات فضائية غداً وتعرض علينا أن نختار: الخيار (أ): أن تغزو الأرض ونختار المقاومة. الخيار (ب): أن تترك الكوكب وشأنه ولكن بعدما يُستبدَل بنا أشباهٌ لنا يؤدون جميع الأنشطة المعتادة الشبيهة بما يفعله البشر (الأكل والحديث والعمل) من دون القدرة على التفكير المستقل أو الرؤية الإبداعية، ومن دون القدرة على التخلي عن أنماط الماضي ومن دون دوافع تتجاوز التكرار الفعال للنظام الحالي.

”نحن نتخلى طوعاً عن القدرات البشرية التي تفتقر إليها روبوتات الذكاء الاصطناعي“

هل الخيار (ب) هو الأفضل؟ أو إنه أسوأ من خطر الانقراض؟ لا يقلقني أن تصير أنظمة الذكاء الاصطناعي الحالية متل تلك الأشباه التي لا تمتلك الإرادة أو التفكير. أنا قلقة من أننا سنصير نحن كذلك. نحن بالفعل نتخلى بطِيب خاطر عن القدرات الإنسانية التي يفتقر إليها ChatGPT.

مؤيدو تطبيقات الكتابة المدعومة بالذكاء الاصطناعي يُروجون لفرصة التخلي عن الجزء الأكثر أهمية من سرد القصة – وهو تخيل إلى أين ستفضي القصة – باعتباره ميزة إضافية، وترك ذلك لعناية روبوت سيقدم لنا ببساطة عدة حبكات للاختيار من بينها. ويكيل الناس المديح “للمبتكرين” الذين أوضحوا لنا كيف يُدرب ChatGPT على الكتابة مثلما نفعل، حتى نتحرر من مهمة توليد أفكارنا والتعبير عنها.

وقد حذرنا الفيلسوف هانس يوناس Hans Jonas من الخطر الوجودي المتمثل في ”الاحتكار التكنولوجي“ Technopoly في مستقبل يحتفل بـ”تثبيط العفوية المستقبلية في عالم من الآلات السلوكية المؤتمتة (أوتوماتا)“ Behavioral automata، ويضع ”المشروع البشري بكامله تحت رحمتها“. لم يوضح ما إذا كانت هذه الأوتوماتا ستكون آلات أو أشخاصاً. أظن أن الغموض كان مقصوداً.

تَستبدل الشركات حالياً بكُتّاب السيناريو والفنانين والمحامين والمدرسين – وهم أشخاص طوروا مواهبهم على مدى عقود – آلاتٍ تنتج مخرجات ”جيدة بما يكفي“ للتظاهر بأنها نتيجة جهدها أو تفكيرها الخاص. هذا الاستبدال مقلق، ولكن الأمر الأكثر إثارة للقلق هو الحجة التي تزداد شيوعاً بأن التفكير هو عمل يجدر بنا أن نسعد للتخلص منه. كما قال أحد مستخدمي تويتر Twitter: ماذا لو كان المستقبل يتعلق فقط بطرح البشر للأسئلة، وترك شيء آخر يأتي بالإجابات؟

مثل ذاك المستقبل هو فردوس سلطوي Authoritarian’s paradise. إن الحوكمة الذاتية Self-governance – ليست فقط القدرة، ولكن الرغبة والإرادة في تأليف قصصنا الخاصة – هي عدو القوة غير الخاضعة للمساءلة. إن قمع القدرة البشرية بالقوة أصعب بكثير من إقناع الناس بأن الكنز الذي يمتلكونه لا قيمة له.

في الوقت الحالي يسبب الذكاء الاصطناعي مشكلات حقيقية- من التحيز الخوارزمي Algorithmic discrimination والمعلومات المضللة- مما يؤدي إلى تزايد عدم المساواة الاقتصادية والتكلفة البيئية. وهذه تتطلب حلولاً عاجلة. ولكن فيما يتعلق بمستقبل من دون بشرية، فإن الذكاء الاصطناعي ليس التهديد. في الواقع المستقبل مع الآلات الواعية التي تفكر معنا يُمكن، من حيث المبدأ، أن يكون بمثل جودة – وإنسانية – مستقبل من دونها. السؤال هو ما نوع نظام القيم الأخلاقية والفكرية والسياسية الذي ستستخدمه القوة الاقتصادية الكامنة وراء الذكاء الاصطناعي حالياً للحفاظ على مستقبل يكون فيه التفكير مهماً؟ أو مستقبل يكون فيه التفكير غيرَ مهم؟

الحديث عن المخاطر الوجودية من الذكاء الاصطناعي العام هو إلهاء لصرف نظرنا عما يجري أمامنا مباشرة؛ إنها ليست انتفاضة ميكانيكية، بل حملة صامتة للحط من الأهمية السياسية والثقافية للفكر الإنساني. هذا هو المقصود. إنسانيتنا هي الرهان.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

شاهد أيضاً
إغلاق
زر الذهاب إلى الأعلى