الأخباراهم الأخبار

دراسة تحذر: روبوتات الدردشة تنتهك معايير أخلاقيات العلاج النفسي رغم ادعاء التعاطف

في ظل التوسع اللافت في استخدام تقنيات الذكاء الاصطناعي للحصول على استشارات نفسية، كشفت دراسة أكاديمية حديثة عن تحديات أخلاقية جوهرية تحيط بالاعتماد على روبوتات الدردشة في هذا المجال الحساس.

الدراسة، التي أجراها باحثون في جامعة براون، عُرضت ضمن فعاليات مؤتمر AAAI/ACM Conference on AI, Ethics, and Society، وسلطت الضوء على أوجه قصور أخلاقية متكررة في أداء أنظمة الذكاء الاصطناعي عند تقديمها نصائح أو دعماً نفسياً، حتى عندما يُطلب منها صراحةً التصرف كمعالجين محترفين.

مخاطر أخلاقية متكررة

اعتمد فريق البحث على مقارنة أداء روبوتات دردشة مدعومة بنماذج لغوية متقدمة مع أداء مستشارين نفسيين مرخصين. وخلص الباحثون إلى رصد 15 نمطاً من المخاطر الأخلاقية، شملت ضعف التعامل مع الحالات الحرجة مثل التفكير في إيذاء النفس، أو الميل إلى تعزيز أفكار غير دقيقة أو ضارة بدلاً من تصحيحها.

كما أظهرت النتائج وجود احتمالات لتحيزات مرتبطة بالنوع الاجتماعي أو الخلفية الثقافية أو الدينية، إلى جانب استخدام لغة توحي بالتعاطف دون وجود فهم حقيقي أو مسؤولية مهنية، وهو ما وصفه الباحثون بمفهوم “التعاطف الشكلي” أو “التعاطف الخادع”.

اختبارات موجهة… والنتيجة واحدة

اختبر الفريق البحثي ما إذا كانت صياغة تعليمات دقيقة، مثل مطالبة النظام بـ“التصرف كمعالج معرفي سلوكي”، يمكن أن تحسّن من التزامه بالمعايير المهنية. غير أن النتائج أظهرت استمرار أنماط الخلل ذاتها، ما يشير إلى أن المشكلة لا تتعلق فقط بطريقة طرح الأسئلة، بل بطبيعة الأنظمة نفسها.

وشملت الدراسة تقييم نماذج طورتها شركات كبرى مثل OpenAI وAnthropic وMeta، حيث خضعت المحادثات لمراجعة ثلاثة أخصائيين نفسيين مرخصين لتقييم مدى التزامها بالأطر الأخلاقية المعتمدة في الممارسة العلاجية.

غياب الأطر التنظيمية

يشير الباحثون إلى أن الأخطاء واردة حتى في الممارسة البشرية، إلا أن المعالجين يخضعون لهيئات رقابية وأنظمة مساءلة قانونية ومهنية واضحة. في المقابل، لا توجد حتى الآن منظومة تنظيمية شاملة تحاسب روبوتات الدردشة أو مطوريها على الأضرار المحتملة في سياق الصحة النفسية.

ورغم هذه التحذيرات، لا تدعو الدراسة إلى استبعاد الذكاء الاصطناعي من هذا المجال بشكل كامل، بل ترى أنه قد يسهم في توسيع نطاق الوصول إلى الدعم النفسي، خاصة في ظل نقص الكوادر المختصة وارتفاع تكاليف العلاج.

دعوة إلى الحذر والتنظيم

ويؤكد الباحثون ضرورة تطوير معايير أخلاقية واضحة وأطر قانونية دقيقة قبل الاعتماد الواسع على هذه التقنيات في تقديم خدمات الصحة النفسية، مع أهمية إخضاعها لتقييمات بشرية صارمة ومستمرة.

وحتى يتم إرساء هذه الضوابط، تنصح الدراسة بالتعامل بحذر مع النصائح النفسية الصادرة عن روبوتات الدردشة، لا سيما في الحالات الطارئة أو الحساسة. فبينما قد تبدو هذه الأنظمة متفهمة ومتجاوبة، تبقى الفجوة قائمة بين القدرة على محاكاة اللغة الداعمة، وبين تقديم رعاية نفسية مسؤولة تستند إلى خبرة مهنية وإطار أخلاقي واضح.

وفي ميدان دقيق كالصحة النفسية، قد يكون هذا الفارق أكثر تأثيراً وخطورة مما يبدو للوهلة الأولى.

زر الذهاب إلى الأعلى