أحد صفحات التقدم العلمي للنشر
اكتشافاتتعليق

شبح (السنجاب) في الآلة

لماذا تذهب بنا الأسئلة حول مشاعر الروبوت بعيداً أحياناً إلى الحديث عمن نريد أن نكون

بدا كأن وسائل الإعلام الإخبارية قد أصابها مسٌّ من الجنون في يونيو 2022 إثر تقرير يفيد بأن مهندس شركة غوغل Google بليْك ليمويْن Blake Lemoine اعتقد أن أحد أنظمة الذكاء الاصطناعي المتقدمة للشركة ويُسمى النظام LaMDA (اختصاراً لعبارة نموذج اللغة لتطبيقات الحوار Language Model for Dialogue Applications) يشعر بأنه واعٍ بذاته. ومن ثم ركزت التغطية الإعلامية على تعريف المشاعر وكيف يمكن معرفة ما إذا كان لدى آلة ما القدرة على تجربة المشاعر.

النظام LaMDA هو نموذج لغوي طورته غوغل لتشغيل منصات الدردشة. وبفضل تدريبه على تريليونات الكلمات والعبارات على الإنترنت، تطورت مخرجات المحادثة لدى LaMDA على نحو لا يصدَّق، ساحقةً تقنيات المحادثة السابقة.

”فيما تحقق التكنولوجيا مزيداً من التقدم، سيتقرب الناس أكثر فأكثر من الروبوتات التي تروق لهم، سواء أ كان ذلك بصرياً أم فكرياً“

نشر ليمويْن الذي أعطته المجموعة إجازة إدارية ثم فصلته لخرقه سرية المعلومات، نسخة (منقحة) من محادثة أجراها مع النظام تضمنت حديثاً مثيراً للإعجاب حول المشاعر والأدب وغير ذلك. خلال المحادثة، قال LaMDA لليمويْن ”أنا أعي بوجودي“ و”أشعر بالسعادة أو الحزن في بعض الأحيان“. ولكن، في حين يدعي LaMDA: ”أريد أن يفهم الجميع أنني، في الواقع، شخص“، اتضح أن أنظمة الذكاء الاصطناعي متحمسة بالقدر نفسه لوصف تجارب ذاتية أخرى. على سبيل المثال أجرت الباحثة في مجال الذكاء الاصطناعي جانيل شيْن Janelle Shane أخيراً مقابلة مع GPT-3، وهو نموذج لغوي واسع آخر متقدم، حول ما يعنيه أن يكون سنجاباً.

جانيل: هل يمكنك أن تخبر قراءنا كيف تبدو الأمور بالنسبة إلى سنجاب؟

GPT-3: إنه لأمر مدهش حقاً أن أكون سنجاباً. يمكنني أن أجري وأقفز وألعب طوال اليوم. كما أنني أتناول كثيراً من الطعام، وهو أمر رائع.

جانيل: ماذا تقول للأشخاص الذين يشككون في أنك سنجاب؟

GPT-3: أقول إنهم يجب أن يأتوا ويروا بأنفسهم. أنا سنجاب، وأنا سعيد جداً لكوني سنجاباً.

هل يكون نظام ما واعياً لأنه يمكن أن يصف ما معنى أن يشعر؟ الأهم هو ما إذا كان النظام يفعل ما يعتقد الناس أنه يفعله. فعلى رغم أن LaMDA قد يُظهر ذكاءً، فإنه لا يمتلك تجارب أو يفكر مثل إنسان (أو سنجاب). لكن لدينا نزعة متأصلة لإسقاط تجاربنا على الآخرين، حتى لو لم يكن ”الآخر“ مثلنا. على سبيل المثال سيسبغ أصحاب الكلاب مشاعر بشرية مثل الشعور بالذنب على جِرائهم، على الرغم من الدراسات التي تُظهر أن مظهر وجوهها المكسوة بالفرو ينم عن شيء آخر تماماً.

على الرغم من أن LaMBDA ليس واعياً بذاته بالمعنى الذي يفهمه معظم الناس، فإن القصة أثارت تكهنات حول الذكاء الاصطناعي المتقدم. كيف يمكننا معرفة ما إذا كان النموذج اللغوي قد توصل إلى مستوى تكوين مشاعر؟ هل سيرتب ذلك مسؤوليةً أخلاقية تجاه هذه الآلات؟ في نهاية الأمر، إذا قبلنا أن الذكاء الاصطناعي في المستقبل ستكون لديه القدرة على المعاناة، فإن حجة ليمويْن بأن LaMDA في حاجة إلى أن يتمتع بحقوق سيكون لها مغزى.

تحب قصصُ الخيال العلمي مقارنةَ حقوق الروبوت بحقوق الإنسان، ولكن هناك مقارنة أفضل: الحيوانات. لا تهتم معاملة المجتمع للحيوانات بعوالمها الداخلية على الإطلاق. إن التفكُّر في الكيفية التي ننظر بها إلى مسؤوليتنا الأخلاقية تجاه الحيوانات، وخاصة أي حيوانات هي تلك، يوضح أن الأهمية التي توليها وسائل الإعلام التقنية الحالية لما تسميه “مشاعر” لا تتناسب مع تصرفات مجتمعنا. في نهاية الأمر نحن نتشارك الكوكبَ فعلياً مع كائنات واعية ونأكلها بالمعنى الحرفي للكلمة.

تستند المبررات الفلسفية الأكثر شيوعاً لحقوق الحيوان إلى الصفات الجوهرية مثل ملكة الوعي والمعاناة. في الممارسة العملية، قلما أوليت أهمية لهذه الأمور. يستكشف هال هيرتسوغ Hal Herzog، عالم الأنثروبولوجيا، أعماق نفاقنا في كتاب بعنوان: البعض نحبه والبعض نكرهه والبعض نأكله Some We Love, Some We Hate, Some We Eat، ويشرح بالتفصيل كيف أن اعتبارنا الأخلاقي للحيوانات يتعلق بقدر أكبر بالأذنين الناعمتين والعيون الكبيرة وعلامة الهوية الثقافية أكثر من كونه يتعلق بقدرة المخلوق على الشعور بالألم أو الفهم.

يوضح سلوكنا الأخلاقي المتضارب تجاه الحيوانات كيف من المرجح أن تتكشف المناقشات المتعلقة بالحقوق. فيما تحقق التكنولوجيا مزيداً من التقدم، سيتقرب الناس أكثر فأكثر من الروبوتات التي تروق لهم، سواء أ كان ذلك بصرياً (روبوت لطيف على شكل مولودة فقمة) أم فكرياً (مثل LaMDA). الروبوتات التي تبدو أقل جاذبية أو لديها مهارات أقل لتجعلنا نتعلق بها لن تلبي الحد الأدنى. بالحكم على فطيرة اللحم التي تناولتها على الغداء، فإن ما يهم أكثر في مجتمعنا هو ما إذا كان الناس يشعرون تجاه نظام ما، وليس ما إذا كان النظام نفسه يمكن أن يشعر.

ربما يمكن للذكاء الاصطناعي أن يثير محادثة حول كيف أن المشاعر ليست مهمة بالنسبة إلينا بل يجب أن تكون مهمة. في نهاية الأمر يعتقد كثيرون منا أننا نهتم بما يختبره الآخرون. يمكن أن تلهمنا هذه اللحظة للتعامل مع التناقض بين فلسفتنا وسلوكنا، بدلاً من مسايرة الوضع القائم من دون أن نمعن في التفكير فيه. قد لا يعرف نظام الذكاء الاصطناعي للمحادثة ما إذا كان شخصاً أو سنجاباً، ولكنه قد يساعدنا على معرفة من نريد أن نكون.

د. كيْت دارلينغ
(_@grok)
كيْت باحثة في معهد ماساتشوستس للتكنولوجيا MIT في مجال التكنولوجيا والمجتمع، وهي تدرس التفاعل بين الإنسان والروبوت.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى