أحد صفحات التقدم العلمي للنشر
اكتشافاتتعليق

بوتات المحادثة ستراك الآن: هل يجدر بك أن تثق بالذكاء الاصطناعي عندما يتعلق الأمر بصحتك النفسية؟

يمكن أن تُسهل بوتات المحادثة الحصولَ على علاج نفسي، لكننا لا نعرف ما إذا كانت المخاطر تفوق الفوائد

قبل سنوات نصحتني معالِجتي بقراءة كتاب عن تدريب الكلاب، وقالت لي إن ”المبادئ نفسها تنجح مع البشر“. شكرتُها، لكنني قلت إنني شعرتُ بأنه من المهين أن أفكر في تدريب زوجي مثلما يمكن تدريب كلب أليف. ضحكتْ قائلة: “لا، الكتاب سيساعدكِ على تدريب نفسك”. إذا أحال المعالجون مرضاهم إلى أطر قابلة للتعميم (في هذه الحالة، حتى لما يمكن أن ينجح مع الكلاب)، فلماذا لا يستطيع بوت الذكاء الاصطناعي أن يعمل كمعالج نفسي بإعطاء النصيحة نفسها؟ الإجابة المختصرة هي: نعم، لكننا لا نعرف ما المخاطر التي يمكن أن ينطوي عليها ذلك.

يصعب العثور على معالج نفسي. خلال فترة الجائحة سُجلت زيادات حادة في حالات الاكتئاب والقلق، مما أدى إلى حدوث نقص عالمي في العاملين في مجال الصحة النفسية. يمكن أن يكون العلاج النفسي مكلفاً، وحتى بالنسبة إلى أولئك الذين يستطيعون تحمُّل تكاليفه، فإن التوجه إلى شخص آخر لطلب المساعدة ليس بالأمر السهل، فضلاً عن الحاجة إلى تخصيص وقت لذلك وتنظيمه كي يتواءم مع متطلبات الحياة اليومية. هنا يأتي دور بوتات العلاج التي تمثل بديلاً يُنهي جميع المشكلات المذكورة أعلاه تقريباً.

”قد يثقون ببوت المحادثة أكثر من المعالج البشري، خوفاً من أن يحكم عليهم شخص ما“

تزداد شعبية ويبوت Woebot وبرامج الدردشة العلاجية الأخرى مثل ويسا Wysa ويوبر Youper. وتعتمد برمجيات العلاج هذه المتوافرة على مدار الساعة طوال أيام الأسبوع على أساليب مثل العلاج السلوكي المعرفي الذي يتميز ببنية محددة وتمرينات راسخة. الأساس منطقي، والأبحاث على التفاعل بين الإنسان والحاسوب تُظهر أن الناس يمكن أن يطوروا مع بوت المحادثة صلةً، وأن تنشأ بينهم وبينه ثقة وعلاقة شخصية. حتى إنهم قد يثقون به أكثر من المعالج البشري، خوفاً من أن يحكم عليهم شخص ما، على سبيل المثال.

ولكن في حين تستخدم الروبوتات الحالية أطراً علاجية راسخة، قد تعتمد فعاليتها على الكيفية التي يتفاعل وفقاً لها المستخدم معها، وهو أمر يسهل على الإنسان المحترف توجيهُه. حتى الوقت الحالي هناك قليل جداً من الأبحاث التي تشير إلى ما إذا كانت بوتات العلاج تحقق النتيجة المطلوبة، وما إذا كانت جيدة أو سيئة للأشخاص، وكذلك من يمكن أن يستفيدوا منها.

في العام 2018، تعرَّض البوت Woebot لانتقادات لاذعة بسبب تأييده، عن غير قصد، للاستغلال الجنسي للأطفال. عُولجت هذه المشكلة، لكنها لن تكون الأخيرة. يمكن أن تجعل أساليب الذكاء الاصطناعي التوليدية الأحدث ردود أفعال البوت تبدو أقل قولبة، ولكن تظل هناك مشكلة تتمثل في عدم قدرة أي شخص على التنبؤ بالضبط بما قد يقوله البوت، وهو أمر محفوف بالمخاطر بنحو خاص في سياق العلاج النفسي. أنظمة النصوص القائمة على الذكاء الاصطناعي تُعرف بأنها تشكو من التحيز على أساس الجنس والعنصرية والمعلومات المغلوطة.

حتى مع وجود إجابات مكتوبة مسبقاً ومستندة إلى قواعد، من السهل إلحاق الأذى بمن يسعون إلى الحصول على المشورة في مجال الصحة النفسية، وكثير منهم ضعيف أو معرَّض للأذى. في حين أن البرمجيات البوتية مصممة، على سبيل المثال، للتعرف على الخطاب الانتحاري وطلب المساعدة البشرية، هناك عديد من المواقف الأخرى التي قد تكون فيها إجابة البوت مضلِّلة أو تُفهم على نحو خطأ.

المعالِجون الجيدون ماهرون في معرفة متى وكيف (ومدى صعوبة) دفع شخص ما في اتجاه معين. يقرؤون ما بين السطور، ويرصدون الإيماءات، ويلاحظون التغييرات في النبرة، وكل ذلك يساعد على توجيه ردودهم. إنهم يعملون على تحقيق توازن صعب بين لقاء مريضهم في النقطة التي هو فيها، وكذلك دفعه إلى الأمام. إنها مهارة صعبة إلى درجة أنه حتى المعالِجون البشر يرتكبون أخطاء.

المعالجون البشر السيئون ضارون بلا شك. شهدت المهنة كل شيء من النصائح غير الآمنة إلى المعالجين الذين يخدعون عملاءهم وينهبون ثرواتهم. لكنها كانت موجهة أيضاً نحو منع الضرر، مع قواعد أخلاقية ومتطلبات الترخيص وغيرها من الضمانات. إن ائتمان شخص ما على البيانات الحساسة التي يجري جمعها في سياق الصحة النفسية يختلف عن تكليف شركة بذلك. قد يرتكب المعالجون البشر أخطاءً، لكنهم لا يمثلون خطراً على نطاق واسع. وما تعد به بوتات العلاج هذه هو بالضبط: النطاق الواسع.

حجة الإقناع الكبيرة للاستعانة بخدماتها – وهي نقطة مقنعة – هي زيادة الوصول إلى العلاج النفسي. لا شك أن خفض الحاجز أمام خدمات الصحة النفسية أمر ذو قيمة، لكننا لا نعرف بعد ما إذا كانت الفوائد تفوق المخاطر. في غضون ذلك، هناك طرق لدعم الناس من دون محاولة إعادة إنشاء معالجين بشر.

من المفارقات أن التكنولوجيا الأبسط قد توفر حلاً أفضل. في سبعينات القرن العشرين، أنشأ جوزيف وايزنباوم Joseph Weizenbaum بوت محادثة باسم إليزا ELIZA أجاب في أكثر الأحيان عن أسئلة المستخدمين البسيطة. كتابة اليوميات، وهي تقنية يوصي بها عديد من المعالجين، صارت متاحة على نحو أفضل للناس من خلال صيغ تفاعلية مثل البوت ELIZA. هناك أيضاً تطبيقات لتتبُّع الحالة المزاجية والتأمل تدعم الأشخاص الذين يحتاجون إلى العلاج النفسي.

ينأى بعض مطوري بوتات العلاج بأنفسهم عن الرغبة في تقديم بديل، مدَّعين أنهم هم أيضاً، يوفرون أداة تكميلية. لكن أداتهم ليست مصمَّمة لتمكين المعالجين من خدمة العملاء بنحو أفضل، أو لاستخدامها للتدخل إلى جانب العلاج. فهي تُستخدم بنمط أساسي كحل بديل للأشخاص الذين لا يستطيعون الحصول على معالج أو لا يحبذون ذلك. ربما سينتهي الأمر على ما يرام، ولكن يجب على مصممي التطبيقات أن يكونوا صادقين بشأن ما يفعلونه.


د. كيْت دارلينغ
(@grok)

كيْت باحثة في معهد ماساتشوستس للتكنولوجيا MIT، حيث تُجري أبحاثاً حول التكنولوجيا والمجتمع، وتدرس التفاعل بين الإنسان والروبوت. صدر لها كتاب بعنوان السلالة الجديدة The New Breed (منشورات: Penguin)

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى