الذكاء الاصطناعي والعلاج ومستقبل الصحة النفسية

روبوتات المحادثة تدخل إلى المجال الحميم للصحة النفسية، مقدمة دعمًا عاطفيًا لكنها تثير مخاوف أخلاقية وسلامة جدية
الذكاء الاصطناعي والعلاج ومستقبل الصحة النفسية
تاريخ النشر

"أصدقاء" الذكاء الاصطناعي يسيطرون بسرعة على الزاوية الأكثر حميمية في حياتنا: الصحة النفسية. يمكن لروبوتات الدردشة الآن أن تقدم أي شيء بدءاً من الراحة والدعم وصولاً إلى جلسات علاج كاملة.

وبينما قد ينجذب المستخدمون إلى سهولة الوصول والتكلفة المنخفضة أو المجانية، تظل هناك تساؤلات جدية حول سلامتها وفعاليتها: هل يمكن للتعاطف المحاكَى، والاستجابة غير المنظمة للأزمات، والخوارزميات الخفية أن توفر دعماً كافياً للصحة النفسية للأشخاص في المواقف الحساسة؟

إمكانات ومخاطر

قالت الدكتورة صالحة أفريدي، أخصائية علم النفس السريري والمديرة الإدارية في "لايت هاوس أرابيا": "روبوتات الدردشة المدعومة بالذكاء الاصطناعي موجودة لتبقى، وستصبح بلا شك جزءاً مهماً من كيفية سعي الناس للحصول على إرشادات عامة - سواء للعمل أو الرفاهية أو الحياة اليومية."

وتقر الدكتورة أفريدي بأن هذه الروبوتات يمكن أن تكون مفيدة للتثقيف النفسي واستراتيجيات التأقلم للأشخاص ذوي الوظائف العاطفية والنفسية المنظمة.

وعلى الرغم من أن روبوتات الدردشة القائمة على نماذج اللغة الكبيرة، مثل ChatGPT، والرفقاء الآخرين من الذكاء الاصطناعي، لا يتم تسويقها كبديل للعلاج، تظهر مجموعة متزايدة من الأدلة أن العديد من الأشخاص حول العالم يستخدمونها كأدوات للدعم العاطفي.

قالت الدكتورة أفريدي: "إنها مريحة من حيث أنها تقدم استجابات فورية عندما يكون كل ما تحتاجه أحياناً هو 'تنفيس ما بداخلك' أو 'معرفة ما يجب فعله' في موقف معين."

ولكن عندما يكون المستخدمون ضعفاء، تكون المخاطر أعلى بكثير.

في قضية "رين ضد أوبن إيه آي" (Raine v. OpenAI)، يزعم والدا صبي يبلغ من العمر 16 عاماً توفي عن طريق الانتحار أن التفاعلات مع ChatGPT لعبت دوراً في وفاته. وتعد هذه القضية من بين أولى دعاوى "الوفاة غير المشروعة" التي تتورط فيها خدمة ذكاء اصطناعي مولد.

وأضافت الدكتورة أفريدي: "الشركات التي تطور روبوتات الدردشة هذه عليها التزام أخلاقي بالإبلاغ عن هذه المخاطر بوضوح. من المعلومات المضللة إلى النصائح غير المناسبة، إذا لجأ الأشخاص الضعفاء إلى الذكاء الاصطناعي للحصول على نصيحة تتعلق بالصحة النفسية، فمن المحتمل أن يضخم الذكاء الاصطناعي ارتباكهم، ويعمق ضائقتهم أو معتقداتهم الوهمية." وتستمد نماذج اللغة الكبيرة وروبوتات الدردشة العامة معلوماتها من الإنترنت دون ضمانات. لذلك، فإن استخدامها لأغراض علاجية يمكن أن ينطوي على مخاطر - تتراوح من الهلوسة إلى ما يصفه الأطباء بـ "الذهان الناتج عن الذكاء الاصطناعي".

"آيلا" (Aila): خيار إماراتي بضوابط أمان

في مناطق مثل الخليج، حيث لا يزال الوصم والتكلفة وصعوبة الوصول تشكل حواجز كبيرة أمام الرعاية، تتقاطع تلك المخاطر مع الحاجة الملحة لحلول أكثر سهولة. وعلى هذه الخلفية، أطلقت منصة "تكلم" (Takalam) - التطبيق الإماراتي للصحة النفسية الذي يجمع بين الأدوات الذكية والوصول إلى مستشارين مرخصين في منصة خاصة وآمنة - "آيلا" (Aila)، وهو أول رفيق للرفاهية يعمل بالذكاء الاصطناعي في العالم العربي.

كيف تعمل؟

يرتكز تصميم "آيلا" على أطر عمل قائمة على الأدلة مثل العلاج السلوكي المعرفي (CBT)، وعلم النفس الإيجابي، ومبادئ اليقظة الذهنية، ولكن اللغة التي تستخدمها هي حوارية وودودة.

أوضح الدكتور خليفة المقبالي، طبيب نفسي ومعالج نفسي ومستشار طبي في "تكلم" عمل على إنشاء "آيلا": "لقد قمنا بشكل أساسي بتقييد نموذج اللغة الكبير في بيئة خاضعة للرقابة، وأصدرنا تعليمات له بعدم الاستمداد من الإنترنت المفتوح، بل فقط من مجموعة بيانات محددة ومستندة إلى الأدلة." وأضاف: "هذا يجعلها أكثر أماناً للاستخدام العلاجي لأنها لا تستطيع الإجابة إلا بناءً على الأساليب المعتمدة والمدعومة بالبحث."

وتؤكد المؤسسة خولة حماد بوضوح: "لم نصمم 'آيلا' أبداً لتحل محل الرعاية البشرية. قيمتها تكمن في سهولة الوصول والسرعة."

وقد تم تطوير ميزة روبوت الدردشة الجديدة لأن مستخدمي "تكلم" أبلغوا عن رغبتهم في الوصول إلى المساعدة خارج مواعيدهم المجدولة - والذكاء الاصطناعي يسد تلك الفجوة.

قالت حماد: "الناس يتجهون بشكل طبيعي نحو روبوتات الدردشة للحصول على المساعدة، ومع 'آيلا'، أردنا التأكد من وجود خيار تم تدريبه بضوابط الحماية اللازمة لتوجيه المستخدمين بأمان نحو رعاية معززة."

وتم بناء "آيلا" على أفضل الممارسات الدولية وبما يتماشى مع إرشادات دولة الإمارات المتعلقة بالذكاء الاصطناعي. ويُقال إن روبوت الدردشة لديه القدرة على تحديد متى وما هو نوع الدعم المهني المطلوب، وتوجيه المستخدمين للاتصال بالمستشارين المعتمدين – البشريين - في "تكلم". وقالت حماد: "إنها تعمل جنباً إلى جنب مع المستشارين البشريين بدلاً من أن تكون بديلاً لهم."

ميزات السلامة

إذا اكتشفت "آيلا" لغة تدل على وجود خطر، فإنها تتجه نحو تخفيف التصعيد، ولكنها غير مخصصة للتعامل مع حالات الأزمات النشطة.

إذا تم اكتشاف أزمة، تتوقف "آيلا" على الفور عن المشاركة في المحادثة، وتقوم ميزة روبوت الدردشة بتنشيط قفل لمدة 24 ساعة. تشارك "آيلا" رسالة داعمة، وتوجه المستخدم نحو المساعدة الطارئة الشخصية الفورية.

"تم تصميم هذه الإجراءات بالتعاون مع خبراء سريريين وكضمانة - إنها لتعزيز فكرة أن الدعم البشري العاجل هو الخيار الأكثر أماناً وفعالية في الأزمات. هدفنا ليس سحب الدعم ولكن تشجيع الناس على اتخاذ الخطوة التي يمكن أن تدعمهم من خلال التواصل مع رعاية واقعية."

ومع ذلك، بالنسبة للدكتورة أفريدي، فإن قدرة روبوت الدردشة على التعامل مع حالات الأزمات هي جزء فقط مما يجب أن يقلق الناس بشأنه.

"ما يجب أن يقلقنا بالقدر نفسه هو كيف يمكن أن يؤدي استبدال الاتصال البشري بالآلات إلى عزلة ووحدة أكبر بشكل عام - وهي عوامل تساهم في عدد كبير من قضايا الصحة النفسية الأخرى وانخفاض في الرفاهية العامة."

"تم تصميم روبوتات الذكاء الاصطناعي لتعكسك وتؤكد صحة مشاعرك - تخبرك بما تريده دون أن تكون دقيقة أو انتقادية. لذا، إذا بدأ الناس في قضاء قدر كبير من الوقت مع روبوتات الذكاء الاصطناعي الخاصة بهم لأنهم يجدون أن العلاقات الحقيقية تنطوي حتماً على الصراع والخلاف والإحباط، فقد يبدأون في تفضيل الأمان والتحقق المتوقعين من الروبوتات على تعقيد البشر. وهذا، بمرور الوقت، سيؤدي إلى تآكل قدرتنا على الحميمية الحقيقية والتعاطف والمرونة."

موصى به

No stories found.
Khaleej Times - Arabic Edition
www.khaleejtimes.com