دستور نيوز

جوزيف بويل هل ChatGPT عالم نفسي جيد؟ هذا ما ألمح إليه مسؤول في شركة الذكاء الاصطناعي الأميركية “OpenAI”، التي تقف وراء روبوت الدردشة الشهير، والذي أثار الكثير من الانتقادات لأنه يقلل من صعوبة علاج الأمراض النفسية. كتبت ليليان وونغ، المسؤولة عن القضايا الأمنية المتعلقة بالذكاء الاصطناعي، في أواخر سبتمبر/أيلول. في Service X (Twitter سابقًا) “لقد أجريت للتو محادثة شخصية عاطفية للغاية مع GBT Chat عبر الصوت، حول التوتر والتوازن بين العمل والحياة.” وأضاف الإعلان: “من المثير للاهتمام أنني شعرت بالارتياح والراحة. لم أجرب العلاج من قبل، ولكن هل هذا هو الحال على الأرجح؟” وسعت وونغ من خلال رسالتها في المقام الأول إلى تسليط الضوء على وظيفة التوليف الصوتي الجديدة (المدفوعة) لروبوت الدردشة الذي تم تقديمه قبل عام تقريبًا ويسعى إلى اعتماد نموذج اقتصادي خاص به. لكن المطورة والناشطة الأميركية شير سكارليت ردت بحدة على هذا التصريح قائلة إن علم النفس “يهدف إلى تحسين الصحة العقلية، وهو عمل شاق”. وأضافت: “إرسال مشاعر إيجابية إلى النفس أمر جيد، لكن لا علاقة لذلك بالعلاج”. ولكن هل يمكن للتفاعل مع الذكاء الاصطناعي أن ينتج التجربة الإيجابية التي تصفها ليليان وونغ؟ ووفقا لدراسة نشرت قبل أيام في المجلة العلمية Nature Machine Intelligence، يمكن تفسير هذه الظاهرة من خلال تأثير الدواء الوهمي. ولإثبات ذلك، قام باحثون من معهد ماساتشوستس للتكنولوجيا (MIT) وجامعة أريزونا باستطلاع آراء 300 مشارك، موضحين للبعض أن روبوت الدردشة لديه تعاطف، وللآخرين أنه كان متلاعبًا، بينما أخبروا أعضاء مجموعة ثالثة أنه كان لديه سلوك متوازن. ونتيجة لذلك، فإن أولئك الذين اعتقدوا أنهم يتحدثون إلى مساعد افتراضي يمكنه التعاطف معهم كانوا أكثر عرضة لاعتبار محاورهم جديرًا بالثقة. وقال بات باتارانتابورن، المؤلف المشارك في الدراسة: “لقد وجدنا أن الذكاء الاصطناعي يُنظر إليه بطريقة ما بناءً على تصورات المستخدم المسبقة”. – “غباء” الروبوتات – دون اتخاذ الكثير من الحذر في مجال لا يزال حساسا، بدأت العديد من الشركات الناشئة في تطوير تطبيقات من المفترض أن تقدم شكلا من أشكال المساعدة في قضايا الصحة العقلية، الأمر الذي أثار خلافات مختلفة. اشتكى مستخدمو تطبيق Replica، وهو تطبيق شائع معروف بتقديم فوائد للصحة العقلية، على وجه الخصوص من أن الذكاء الاصطناعي يمكن أن يصبح متحيزًا جنسيًا أو متلاعبًا. كما اعترفت منظمة “كوكو” الأمريكية غير الحكومية، التي أجرت تجربة في فبراير/شباط الماضي على 4000 مريض قدمت لهم نصائح مكتوبة باستخدام نموذج الذكاء الاصطناعي “جي بي تي-3″، بأن الاستجابات الآلية لم تنجح كعلاج. كتب المؤسس المشارك للشركة روب موريس في Ex: “إن محاكاة التعاطف تبدو غريبة وغير منطقية”. تعكس هذه الملاحظة نتائج دراسة سابقة حول تأثير الدواء الوهمي، حيث شعر بعض المشاركين وكأنهم “يتحدثون إلى الحائط”. وردا على سؤال لوكالة فرانس برس، قال ديفيد شو من جامعة بازل في سويسرا إنه لم يتفاجأ بهذه النتائج السيئة. ويشير إلى أنه “يبدو أنه لم يتم إبلاغ أي من المشاركين بغباء روبوتات الدردشة”. لكن فكرة المعالج الآلي ليست جديدة. وفي ستينيات القرن الماضي، تم تطوير أول برنامج من نوعه لمحاكاة العلاج النفسي، يسمى “ELISA”، باستخدام طريقة عالم النفس الأمريكي كارل روجرز. وبدون فهم حقيقي لأي شيء عن القضايا المطروحة عليه، قام البرنامج ببساطة بتوسيع المناقشة بأسئلة قياسية معززة بكلمات رئيسية موجودة في ردود القائمين على المقابلات. “ما لم أدركه هو أن التعرض القصير جدًا لبرنامج كمبيوتر بسيط نسبيًا يمكن أن يحفز أفكارًا وهمية قوية لدى الأشخاص العاديين تمامًا،” كتب جوزيف وايزنباوم، مبتكر البرنامج، لاحقًا عن هذا البرنامج السابق لـ ChatGPT.
هل تساعد GBT Chat المستخدمين في العلاج النفسي؟…
– الدستور نيوز