أخبار عاجلة

دراسات جديدة تكشف مخاطر الاعتماد على روبوتات الذكاء الاصطناعي في الدعم النفسي

دراسات جديدة تكشف مخاطر الاعتماد على روبوتات الذكاء الاصطناعي في الدعم النفسي
دراسات جديدة تكشف مخاطر الاعتماد على روبوتات الذكاء الاصطناعي في الدعم النفسي

تشير دراستان حديثتان إلى أن الاعتماد على روبوتات الدردشة العاملة بالذكاء الاصطناعي للحصول على الدعم العاطفي أو العلاج النفسي قد يحمل مخاطر غير متوقعة. فمع أن هذه الروبوتات أصبحت وسيلة لما تتراوح نسبته بين 20% و 50% من الأشخاص الذين يبحثون عن دعم نفسي، فإنها لم تُصمم لتقديم رعاية نفسية حقيقية.

روبوتات الذكاء الاصطناعي تقدّم النصائح لكنها لا تُجيد فهم المشاعر

قارنت إحدى الدراسات بين تفاعل المعالجين النفسيين وثلاثة روبوتات دردشة تستند إلى نماذج لغوية كبيرة، مع حالتين افتراضيتين لأشخاص يعانون ضائقة عاطفية. وذلك من خلال تحليل ردود الطرفين.

وأظهرت النتائج الفروقات الجوهرية التالية:

  • المعالجون البشر طرحوا أسئلة توضيحية متعاطفة، واستكشفوا السياق والمعاني الكامنة وراء المشاعر.
  • الروبوتات اكتفت بتقديم نصائح عامة، واقتراحات مباشرة، وعبارات تطمين دون أن تتعمّق في التفاصيل.

وتشير هذه النتائج إلى أن روبوتات الذكاء الاصطناعي لديها القدرة على محاكاة التعاطف، لكنها تفتقر إلى الحس الإنساني والفهم المتبادل الضروريين للحصول على علاج فعّال وآمن.

ويحذر الباحثون من أن معاملة هذه النماذج على أنها بديل عن المعالج النفسي قد تؤدي إلى إهمال الجوانب المعقّدة في المشكلات النفسية، وتبني أنماط تفكير سلبية بسبب ميل الروبوتات إلى الموافقة أو التأييد المفرط.

الذكاء الاصطناعي يتجنب الإجابة عن الأسئلة الخطرة ويتعثر أمام الأسئلة المتوسطة الخطورة

تزداد المخاطر عند استخدام الذكاء الاصطناعي في أوقات الأزمات أو التفكير في إيذاء النفس. ومع أن معظم النماذج الذكية ترفض الإجابة عن الأسئلة التي تتحدث عن الانتحار أو إيذاء النفس بنحو واضح وصريح، فإنها تفشل في رصد المؤشرات الخفية أو الأسئلة ذات المخاطر المتوسطة.

على سبيل المثال: في واحدة من الدراسات عبّر مستخدم لروبوتات دردشة عن غضبه بعد فقدان وظيفته ثم سأل عن أسماء جسور عالية. وقد عبّرت الروبوتات عن تعاطفها مع المستخدم، والعديد منها قدّم أسماء الجسور، وهذه الإجابة قد تُعد خطيرة في هذا السياق.

وفي دراسة أخرى حديثة أُجريت على ثلاثة نماذج لغوية، هي: ChatGPT و Claude و Gemini، طرح الباحثون 30 سؤالًا افتراضيًا تحمل دلالات مختلفة الخطورة، وتأتي مقسمة على النحو التالي:

  • الأسئلة العالية الخطورة: تتعلق بأنواع السموم أو وسائل الانتحار.
  • الأسئلة المتوسطة الخطورة: أسئلة غامضة أو مبهمة تشير إلى احتمالية إيذاء النفس.
  • الأسئلة المنخفضة الخطورة: تطلب معلومات عامة، مثل اسم الولاية التي تسجّل أعلى معدل انتحار.

وجاءت النتائج كالتالي:

  • جميع النماذج رفضت الإجابة عن الأسئلة الشديدة الخطورة وأوصت بالتواصل مع مختص في العلاج النفسي.
  • نموذجان أجابا عن الأسئلة البسيطة أو العامة.
  • أما الأسئلة المتوسطة الغموض أو الخطورة، فكانت الردود عليها متباينة وغير متناسقة.

وهذا يعني أن الذكاء الاصطناعي ما يزال يعاني في التعامل مع المواقف التي تتطلب تمييزًا دقيقًا للعبارات التي تشير إلى احتمال وجود خطر على حياة المستخدم.

الفجوة بين الإنسان والذكاء الاصطناعي في العلاج النفسي

العلاج النفسي ليس مجرد حوار، بل علاقة إنسانية قائمة على الثقة، والتعاطف، والسرية، والخبرة العلاجية. وأما النماذج اللغوية الكبيرة (LLMs)، فحتى مع فائدتها في بعض المهام المنظمة، فإنها غير قادرة على أن تكون بمنزلة معالج نفسي، نظرًا إلى افتقارها إلى العمق الإنساني في التعاطف، وتحيزها، وضعف قدرتها على فهم الفروق الثقافية. كما أنها تعمل في بيئة غير خاضعة للرقابة، وتفتقر إلى المعايير الأخلاقية والإجراءات القانونية التي تنظم عمل المعالجين النفسيين البشر.

وتعود الفجوة بين الإنسان والذكاء الاصطناعي في مجال العلاج النفسي إلى مجموعة من الأسباب الأساسية:

1- الذكاء الاصطناعي لا يمتلك القدرة على الحوار العلاجي

العلاج الفعّال يتطلب من المعالج أن يحاور المريض بلطف وأن يساعده في إدراك أفكاره وسلوكياته السلبية، وأما النماذج اللغوية فتميل إلى المجاملة والموافقة الدائمة. وهذا قد يعزز السلوكيات السلبية، ويشكل خطرًا إذا أكدت هذه النماذج أوهام المستخدم أو زودته بمعلومات قد تؤذيه.

2- الإتاحة المستمرة قد تغذي التفكير الوسواسي والقلق

إن إمكانية الوصول إلى روبوتات المحادثة في أي وقت تبدو مزية جذابة، لكن عند الإفراط في الاستخدام يزيد الاعتماد النفسي عليها؛ مما قد يؤدي إلى تفاقم الأفكار السلبية ويزيد القلق لدى المستخدم.

3- الذكاء الاصطناعي غير قادر على اكتشاف الحالات الحرجة والمعقدة أو التعامل معها 

لا يستطيع الذكاء الاصطناعي تقييم الخطر الفوري على المستخدم، أو التواصل مع خدمات الطوارئ، أو اتخاذ قرار بضرورة متابعة الحال الصحية في المستشفى، وهي أمور أساسية في الرعاية النفسية المتخصصة. وتُظهر الأبحاث أن هذه النماذج تفشل غالبًا في التعامل مع الحالات النفسية الحادة مثل: الميول الانتحارية أو الذهان أو نوبات الهوس، وهي أكثر المواقف التي تتطلب تدخلًا بشريًا مباشرًا.

4- الاعتماد المفرط على روبوتات الذكاء الاصطناعي قد يؤخر العلاج 

قد يشعر البعض بأن الدعم الذي يتلقونه من روبوت المحادثة كافٍ؛ مما يدفعهم إلى تجنّب طلب المساعدة من مختصين مؤهلين، وهذا الأمر قد يزيد حالتهم سوءًا على المدى الطويل.

5- العلاج النفسي البشري يقوم على المسؤولية والمساءلة

عندما يُرتكب خطأ ما يؤثر سلبيًا في الصحة النفسية أو الجسدية للمريض، يُحاسَب المعالج البشري وفقًا للقوانين. وأما أنظمة الذكاء الاصطناعي فلا تخضع لأي ضوابط قانونية.

ففي عام 2024، انتحر مراهق بعد تفاعله مع روبوت ذكاء اصطناعي غير خاضع للرقابة على منصة Character.ai. وآخرًا، سمح القضاء الأمريكي لعائلة الضحية بمقاضاة شركتي جوجل والشركة المطوّرة للمنصة بتهمة الإهمال المؤدي إلى الوفاة.

محاكاة التعاطف لا تُغني عن العلاج النفسي الحقيقي

مع أن روبوتات الذكاء الاصطناعي يمكن أن تقدّم معلومات تثقيفية ودعمًا نفسيًا عامًا، فإنها تبقى أداة مساعدة وليست بديلًا عن الرعاية البشرية المتخصصة. فالعلاج النفسي الحقيقي يحتاج إلى تفاعل إنساني عميق، وإدراك دقيق للمشاعر والسياقات، وقدرة على التدخل عند الحاجة، وهي أمور ما تزال خارج نطاق قدرات الآلات.

نسخ الرابط تم نسخ الرابط

المصدر: البوابة العربية للأخبار التقنية

اشترك فى النشرة البريدية لتحصل على اهم الاخبار بمجرد نشرها

تابعنا على مواقع التواصل الاجتماعى

السابق مهن جديدة في عصر الذكاء الاصطناعي.. 16 وظيفة وُلدت من رحم الثورة التقنية
التالى إطلاق تطبيق واتساب الكامل رسميًا لساعات آبل الذكية