[ad_1]
أثارت مديرة في شركة OpenAI للذكاء الاصطناعي الجدل مؤخرًا عندما قالت إنها أجرت “محادثة عاطفية وشخصية للغاية” مع برنامج الدردشة الفيروسي الخاص بالشركة، ChatGPT.
“لم تجرب العلاج من قبل ولكن ربما هذا هو؟” نشرت ليليان وينغ على موقع X، تويتر سابقًا، ما أثار سيلًا من التعليقات السلبية التي اتهمتها بالتقليل من أهمية المرض العقلي.
ومع ذلك، يمكن تفسير رأي وينج في تفاعلها مع ChatGPT من خلال نسخة من تأثير الدواء الوهمي الذي تم تحديده هذا الأسبوع من خلال بحث في مجلة Nature Machine Intelligence.
طلب فريق من معهد ماساتشوستس للتكنولوجيا (MIT) وجامعة ولاية أريزونا من أكثر من 300 مشارك التفاعل مع برامج الذكاء الاصطناعي للصحة العقلية، وقاموا بتعريفهم بما يمكن توقعه.
قيل للبعض أن برنامج الدردشة الآلي كان متعاطفًا، والبعض الآخر كان متلاعبًا، وقيل للمجموعة الثالثة أنه كان محايدًا.
أولئك الذين قيل لهم إنهم يتحدثون مع روبوت محادثة مهتم كانوا أكثر احتمالًا بكثير من المجموعات الأخرى لرؤية المعالجين في روبوت الدردشة الخاص بهم على أنهم جديرون بالثقة.
وقال بات باتارانتابورن، المؤلف المشارك للتقرير: “من هذه الدراسة، نرى أن الذكاء الاصطناعي هو إلى حد ما الذكاء الاصطناعي للناظر”.
تعمل الشركات الناشئة الصاخبة على دفع تطبيقات الذكاء الاصطناعي التي تقدم العلاج والرفقة وغيرها من أشكال دعم الصحة العقلية لسنوات حتى الآن – وهي تجارة كبيرة.
ولكن يبقى هذا المجال بمثابة مانع للجدل.
“غريب، فارغ”
مثل كل القطاعات الأخرى التي يهدد الذكاء الاصطناعي بتعطيلها، يشعر المنتقدون بالقلق من أن الروبوتات ستحل في نهاية المطاف محل العمال البشر بدلا من أن تكملهم.
وفيما يتعلق بالصحة العقلية، فإن القلق هو أنه من غير المرجح أن تقوم الروبوتات بعمل رائع.
وكتبت شير سكارليت، الناشطة والمبرمجة، ردًا على منشور Weng الأولي على X: “إن العلاج يهدف إلى الصحة العقلية وهو عمل شاق”.
“الشعور بالرضا تجاه نفسك أمر جيد، لكنه ليس هو نفسه.”
ومما يزيد من تفاقم الخوف العام بشأن الذكاء الاصطناعي، أن بعض التطبيقات في مجال الصحة العقلية لها تاريخ حديث متقلب.
لقد اشتكى مستخدمو Replika، وهو رفيق شهير يعمل بالذكاء الاصطناعي ويتم تسويقه أحيانًا على أنه يحقق فوائد للصحة العقلية، منذ فترة طويلة من أن الروبوت يمكن أن يكون مهووسًا بالجنس ومسيءًا.
وبشكل منفصل، أجرت منظمة أمريكية غير ربحية تدعى كوكو تجربة في فبراير/شباط مع 4000 عميل يقدمون الاستشارة باستخدام GPT-3، ووجدت أن الاستجابات الآلية ببساطة لم تنجح كعلاج.
وكتب المؤسس المشارك للشركة، روب موريس، على موقع X: “إن محاكاة التعاطف تبدو غريبة، وفارغة”.
وكانت النتائج التي توصل إليها مماثلة لما توصل إليه باحثون من معهد ماساتشوستس للتكنولوجيا/أريزونا، الذين قالوا إن بعض المشاركين شبهوا تجربة روبوت الدردشة بـ “التحدث إلى جدار من الطوب”.
لكن موريس اضطر لاحقا للدفاع عن نفسه بعد انتقادات واسعة النطاق لتجربته، لأنه لم يكن من الواضح ما إذا كان عملاؤه على علم بمشاركتهم.
“توقعات أقل”
وقال ديفيد شو من جامعة بازل، الذي لم يشارك في دراسة معهد ماساتشوستس للتكنولوجيا/أريزونا، لوكالة فرانس برس إن النتائج لم تكن مفاجئة.
لكنه أشار إلى أنه “يبدو أنه لم يتم إخبار أي من المشاركين فعليًا بكل هراء روبوتات الدردشة”.
وقال إن هذا قد يكون التمهيدي الأكثر دقة على الإطلاق.
ومع ذلك، فإن فكرة استخدام روبوت الدردشة كمعالج تتشابك مع جذور التكنولوجيا في الستينيات.
تم تطوير ELIZA، أول روبوت دردشة، لمحاكاة نوع من العلاج النفسي.
استخدم الباحثون في معهد ماساتشوستس للتكنولوجيا/أريزونا اختبار ELIZA لنصف المشاركين وGPT-3 للنصف الآخر.
على الرغم من أن التأثير كان أقوى بكثير مع GPT-3، إلا أن المستخدمين المستعدين للإيجابية ما زالوا يعتبرون ELIZA جديرة بالثقة بشكل عام.
لذلك ليس من المستغرب أن تبدي وينج إعجابها بتفاعلاتها مع ChatGPT، فهي تعمل في الشركة التي تصنعه.
قال الباحثون في معهد ماساتشوستس للتكنولوجيا/أريزونا إن المجتمع بحاجة إلى السيطرة على الروايات المتعلقة بالذكاء الاصطناعي.
وقالت الورقة البحثية: “إن الطريقة التي يتم بها تقديم الذكاء الاصطناعي للمجتمع مهمة لأنها تغير كيفية تجربة الذكاء الاصطناعي”.
“قد يكون من المرغوب فيه جعل المستخدم لديه توقعات أقل أو أكثر سلبية.”
[ad_2]
اترك رد