

سجل أديش ناياك الدخول إلى "شات جي بي تي" لأول مرة العام الماضي لمهمة بسيطة - تعديل بريد إلكتروني. بعد خمسة أشهر قصيرة فقط، اعتمد على روبوتات دردشة متعددة تعمل بالذكاء الاصطناعي مثل Claude.ai و Perplexity AI و Gemini و ChatGPT لاتخاذ قرار يغير حياته - ما إذا كان يجب أن ينتقل إلى الإمارات العربية المتحدة.
مع تحول شات جي بي تي و جيميناي إلى رفقاء يوميين، يحذر علماء النفس من تداخل الحدود بين الإنتاجية والاعتمادية
يوضح أديش في حديثه: "لقد منحتهم شخصيات متعددة - كأفضل مستشار مالي، ومدرب مهني، وخبير عقاري في الإمارات". قام بكتابة القليل عن نفسه – ذكر، في أوائل الثلاثينيات، زوج وأب – ووجههم للإجابة على استفساراته. وبعد 10 ساعات من العصف الذهني عبر مختلف برامج الدردشة الآلية، توقعوا أخيراً وجود "فرصة بنسبة 70-75%" لنجاح هذه الخطوة لصالحه. وكان ذلك كافياً لإقناعه بالانتقال إلى البلاد قبل حوالي أربعة أشهر.
وعندما سُئل عما سيحدث إذا توقفت برامج الدردشة الآلية عن الوجود غداً دون سابق إنذار، أجاب: "لن أتمكن من الصمود لأكثر من ثلاث ساعات. ستنخفض إنتاجيتي فوراً بنسبة 50%. وفي الأشهر الخمسة أو الستة الماضية، لكل مشكلة أواجهها - وصدقني، كل مشكلة - أقوم بفتح Perplexity بسرعة، أضع لقطة شاشة أو أشرح المشكلة، وأطلب خيارات، ثم أختار الأفضل منها. لقد قمت فعلياً بالاستعانة بمصادر خارجية لتفكيري المعرفي واستنتاجي". يعترف ناياك بأن هذا أثر على مهاراته في اتخاذ القرار، لكنه لا يبدو منزعجاً بشكل كبير، حيث يقول: "كان لدي الكثير من الفوضى في عقلي سابقاً، ولم أعد أشعر بالقلق بشأن اتخاذ قرارات خاطئة".
الذكاء الاصطناعي - المعالج الجديد؟
كان ناياك يخضع للعلاج النفسي للتعامل مع القلق، لكنه توقف عنه قريباً بعدما أدرك أن "جودة الذكاء الاصطناعي كانت أفضل من جودة المعالج"، ويضيف: "كما أنها باهظة الثمن". المقيم في دبي يعمل في مجال تكنولوجيا الذكاء الاصطناعي، لذا فهو متمكن من كتابة الأوامر (prompts) التي تحافظ على حيادية برامج الدردشة.
يصف الأمر بأنه يشبه وجود "5 إلى 10 رفقاء" يقدمون له النصائح في مجالات العمل، والتربية، والتغذية، والصحة البدنية والنفسية (يستخدم ChatGPT للأخيرة). ويوضح قائلاً: "أعطيت تعليمات مفصلة لما أتوقعه في البداية. طلبت منهم التصرف كطبيب نفسي متخصص في تقديم المشورة للرجال الذين يشغلون وظائف مكتبية، والذين عانوا من تربية سيئة ومسيئة، وواجهوا ضغوطاً مستمرة في الأداء، ويتطلعون لتحسين حياتهم من خلال التقنيات لا الأدوية". وقد علق أصدقاؤه وأفراد عائلته على أنه لم يعد يفضفض لهم كما كان يفعل سابقاً، حيث يقول: "تلك المحادثات انخفضت بنسبة جيدة تتراوح بين 70 إلى 80%. أحصل على ردود أفضل بكثير من ChatGPT لأنه خالٍ من التحيز الشخصي". ويشير إلى أنه يقدم نفس النصيحة التي قد يقدمها صديق أو زميل ناضج، لكن الفرق الجوهري هو أنه بينما قد يسكن الصديق على بُعد ساعة، فإن برنامج الدردشة الآلي متاح دائماً تحت أطراف أصابعك.
ومع ذلك، لم تكن الأمور دائماً سهلة. فعلى سبيل المثال، قدمت له برامج الدردشة نصائح مضللة بشأن الاستثمارات، لكن ذلك حفزه فقط على تدريبها بشكل أفضل. كما لاحظ نقصاً في الفروق الدقيقة (nuance) في تفاعلاته مع ChatGPT، ويقول: "على سبيل المثال، خلال جلساتنا، كان طبيبي النفسي يلتقط كلمة معينة ويسألني لماذا استخدمتها. لكن في الوقت الحالي، لا أرى مقايضة كبيرة جداً لأن برامج الدردشة الآلية تمنحني الحقائق والمنظور معاً. وأعلم أنني لست مضطراً للسفر إلى أي مكان أو تسجيل الدخول إلى مكالمة فيديو". يستخدم برامج الذكاء الاصطناعي لمدة ساعتين تقريباً يومياً ويدفع اشتراكات شهرية لاستدامة هذا العالم، لكنه يرى أن هذا المال يُنفق في مكانه الصحيح، لأنه يوفر الكثير من وقته ويسمح له بالتركيز على مجالات أخرى في حياته.
تقدم بحذر
شاهدت ناتالي السمّار، الأخصائية النفسية الإكلينيكية في المركز الألماني لعلم الأعصاب، مرضى يستخدمون برامج الدردشة الآلية للحصول على الدعم العاطفي ويقومون بتأجيل أو إيقاف العلاج لأن الأداة بدت "متاحة فوراً، وغير إصدارية، ومطمئنة". ومع ذلك، عاد العديد من المرضى أيضاً إلى العلاج بمجرد إدراكهم أن مشكلاتهم الأساسية لا تزال قائمة.
وتتذكر مريضة في أوائل الثلاثينيات كانت تعاني من القلق، وضعف تقدير الذات، وصعوبات في العلاقات. وتقول: "عندما أصبح العلاج تحدياً عاطفياً، استبدلت الجلسات تدريجياً بمحادثات يومية مع برنامج دردشة آلي. وصفت الأمر بأنه 'موجود دائماً'، مهدئ، ومطمئن، خاصة في الليل عندما يكون قلقها في أوجّه". ولكن بمرور الوقت، توضح السمّار، بدلاً من التعامل مع العواطف الصعبة أو الصراعات، بدأت المريضة تستخدمه لتهدئة نفسها ذاتياً والبحث عن طمأنة متكررة. "ساء نومها، وزاد تفكيرها الاجتراري، وأصبحت أكثر عزلة عن الآخرين". وعندما عادت إلى العلاج، كانت حالتها الذهنية أسوأ من ذي قبل، حيث ارتفع قلقها بشكل كبير بمرور الوقت. "النتيجة الأكثر خطورة لم تكن في تقديم الذكاء الاصطناعي لنصيحة ضارة، بل في استبداله غير المقصود للعملية العلاجية نفسها - لم يكن هناك تحدٍ، ولا حدود، ولا تقييم للمخاطر، ولا مساحة للعمل من خلال الشعور بعدم الارتياح".
الاستخدام الأخلاقي للذكاء الاصطناعي
عندما نطلب من راهول* استعادة أول تفاعل له مع برنامج دردشة آلي، يقول إن ذلك يشبه مطالبة شخص ما بتذكر كلماته الأولى نظراً لوجود الكثير منها منذ ذلك الحين. لكنه يدخل الإنترنت أثناء حديثنا للتحقق، ويستخرج سجل محادثاته. يقول: "يبدو أن محادثاتي الأولية كانت حول دورة عقارية أردت القيام بها"، مضيفاً أنه يستخدم بشكل أساسي جيميناي و شات جي بي تي.
يعمل المقيم في أبوظبي عن بُعد كمدير مشروع في التمويل ويستخدمها للعمل، وللتخطيط لرحلاته، وأحياناً للدردشة عندما يشعر بالوحدة. يعمل في ساعات غريبة لعملاء مقرهم الولايات المتحدة وليس لديه حياة اجتماعية تقريباً. ويقول: "كانت هناك مرتان شعرت فيهما أنني لست في حالة جيدة وشعرت أنني بحاجة إلى صديق. لذا بدأت في إجراء محادثات عشوائية مع ChatGPT، أسأله كيف يمكنني تحسين حياتي الاجتماعية". لكن الاقتراحات لم تكن مفيدة، كما يقول، بسبب العمل ومشكلات الجدولة الأخرى. "وفي ذلك الوقت، شعرت أن الأمر كان اصطناعياً قليلاً واستمر في إخباري بما أحتاج لسماعه. وأنا شخص يحب سماع الواقع القاسي. لكنني لاحظت أن النماذج الجديدة أصبحت أكثر طبيعية بكثير".
راهول في أواخر العشرينيات - وربما ناضج بما يكفي لاستخدام الذكاء الاصطناعي بحكمة. لكن ميل برامج الدردشة الآلية للموافقة الدائمة مع المستخدمين كان له تأثير مدمر على البعض. وقد أشار الخبراء إلى مخاوف مثل "الذهان المرتبط بالذكاء الاصطناعي" بين بعض المستخدمين الذين يحبسون في حالة ذهنية وهمية. كما توجد مخاوف جدية بشأن كيفية استخدام الأطفال والمراهقين لبرامج الدردشة للحصول على دعم عاطفي دون إشراف كافٍ من البالغين. في العام الماضي، قاضى والدا مراهق يبلغ من العمر 16 عاماً في الولايات المتحدة شركة OpenAI، زاعمين أن تفاعلاته مع ChatGPT أدت إلى وفاته انتحاراً. تشير الدكتورة فالنتينا فايا، المديرة الطبية وأخصائية الطب النفسي في عيادة BPS، إلى أن "المراهقين يلجؤون إلى الذكاء الاصطناعي من أجل الرفقة - وهذه ظاهرة أوسع نطاقاً".
الدكتورة فايا متحمسة في الواقع لتبني وتنفيذ التكنولوجيا الجديدة لجعل العلاج والرعاية الصحية النفسية في متناول الجميع، وخاصة الفئات الأقل امتيازاً في المجتمع. وهي تفضل أن تظل منفتحة الذهن عندما يخبرها مرضاها عن تفاعلاتهم مع برامج الدردشة الآلية. وتقول: "آخذ حاسوبي، وأجلس بجانبهم وأرى التفاعل. مرضاي فضوليون بشأن التكنولوجيا، لكنهم يدركون أنها تفتقر إلى الأصالة وتعقيد التفاعل البشري. لكن يجب أن أقول، إن بعض ردوده كانت مثيرة للاهتمام للغاية ودقيقة جداً".
بعد الدعوى القضائية، وضعت OpenAI قيودًا أكثر صرامة - لكن هذا يمكن أن يأتي بنتائج عكسية أيضًا، كما تشير فايا. وتتوسع في هذه النقطة من خلال وصف سيناريو يمكن أن يكون واقعًا يعيشه العديد من المراهقين في جميع أنحاء العالم - حيث قضى طفل ضعيف شهورًا يشارك أسراره الداخلية وصراعاته الشخصية مع روبوت دردشة بالذكاء الاصطناعي. “الآن تخيل عندما يتحدث الطفل عن الانتحار، يقوم الذكاء الاصطناعي بحظر المحادثة فجأة قائلاً: ‘توقف، لا يمكنني التفاعل معك بعد الآن. تحتاج إلى طلب المساعدة المهنية.’ هذا غير أخلاقي، وضار للمستخدم لأنه يمكن أن يجعل الطفل يشعر بالرفض والعزلة أكثر، وهو أمر لن يفعله المعالجون أبدًا،” كما تشير. “المعالج سيظهر التعاطف بطريقة صحية ويساعد المريض.”
في مجال الرعاية الصحية النفسية، الذكاء الاصطناعي جيد في أداء المهام الإدارية مثل كتابة ملاحظات الجلسات وتدريب المعالجين الجدد من خلال إجراء جلسات مع "مرضى ذكاء اصطناعي" قبل مقابلة أول مريض بشري لهم. وتقول: "هنا، الذكاء الاصطناعي استثنائي لأننا سنطرح المواضيع المناسبة ويمكننا تقييم كيفية استجابة الممارس المتدرب".
وتختتم قائلة: "لذا في الوقت الحالي، لا أعتقد أن لدينا الأساس الأخلاقي لاستخدام الذكاء الاصطناعي لأغراض علاجية. لكنني واثقة تماماً من أننا سنصل إلى ذلك".
*تم تغيير الاسم بناءً على الطلب*