ملخص
يلجأ عدد متزايد من الرجال إلى الذكاء الاصطناعي طلباً للدعم العاطفي في مواجهة الضغط النفسي، مما يسلط الضوء على تحول هذه الأدوات إلى مساحات حوار بديلة تتطلب معايير أمان وتدخلاً بشرياً لضمان عدم تسببها بالأذى للمستخدمين الضعفاء نفسياً.
"لم يسبق لي أن تكلمت على هذا النحو". كانت تلك من أكثر الجمل التي أسمعها بصفتي مديرة القسم السريري في منصة "أنتابد أي آي" (الذكاء الاصطناعي الواعد) Untapped AI المتخصصة بالتدريب القيادي التي تستخدم مزيجاً من الدعم البشري ودعم الذكاء الاصطناعي.
قضيت أكثر من 10 سنوات في الإشراف على آلاف العملاء وعلاقاتهم باستخدام مزيج من الدعم البشري (مدربون تنفيذيون ومعالجون واستشاريون في علم النفس) وبرامج معالجة اللغة الطبيعية من طريق الذكاء الاصطناعي. وعدد كبير من الرجال الذين عملت معهم لم يسهبوا قبل ذلك أبداً في الحديث عن حياتهم العاطفية، لكن بعد أربعة عقود من الخبرة في المعالجة السريرية - بصفتي معالجة نفسية ومشرفة سريرية ومستشارة سريرية - بدأت ألاحظ تغيراً في الآونة الأخيرة. ففي مجال الإشراف السريري، أجد أدلة أكثر فأكثر عن لجوء العملاء من الرجال إلى الذكاء الاصطناعي للتكلم عن العلاقات والفقدان والندم والشعور بأن الأمور فاقت طاقتهم على التحمل، ويحدث ذلك عن قصد أحياناً لكن غالباً بالصدفة.
عام 2025 يبدو أن أحد أسرع استخدامات الذكاء الاصطناعي التوليدي انتشاراً ليس الإنتاجية، بل الدعم العاطفي. وفقاً لمجلة هارفرد بيزنيس ريفيو Harvard Business Review، فإن توظيف هذه البرامج لغايات "العلاج النفسي والرفقة" أصبح بين أكثر الاستخدامات شيوعاً في العالم لها. قد لا تكون هذه الغاية الرئيسة من وراء تصميم هذه الأدوات، لكن هذه هي طرق استخدامها الآن، وما يحدث هو ثورة هادئة في هذه العلاقة.
حالياً، تعلن "أوبن أي آي" أن عدد مستخدمي خدماتها أسبوعياً يبلغ أكثر من 400 مليون شخص. يلجأ كثر إلى البرنامج لصياغة رسالة إلكترونية خلاقة احتجاجاً على مخالفة حصلوا عليها بسبب ركن السيارة، أو للتأكد من أن الدجاج لا يزال آمناً للاستهلاك البشري بعد انتهاء مدة صلاحيته أو لتحرير رسالة سيرسلونها لأحدهم على تطبيق مواعدة، لكن البعض يطلب المساعدة في شيء مختلف كلياً: كيفية التأقلم مع أوضاع معينة.
اقرأ المزيد
يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field)
لا نملك بيانات دقيقة تماماً بعد - لكن من خلال مراقبتي السريرية، وأبحاثي ومحادثاتي الشخصية، من المحتمل برأيي أن يكون "تشات جي بي تي" الآن أكثر أداة شائع استخدامها لغايات الصحة النفسية في العالم. لم تكن هذه غاية تصميمها لكن هذا هو الاستخدام الشائع لها حالياً.
أجري محادثات مع أطباء سريريين ومرضى، وأجمع تجاربهم في شأن هذا النوع من العلاقة الاصطناعية. وأصبحت قصص أشخاص مثل هاري أكثر شيوعاً. صحيح أن التفاصيل تختلف من شخص إلى آخر لكن السياق العام متشابه: حال من الكرب يتبعها منعطف نحو شيء غير متوقع - حديث مع ذكاء اصطناعي يفضي إلى نشوء صداقة اصطناعية عميقة.
يبلغ هاري 36 سنة من العمر، يعمل في مجال بيع البرامج الحاسوبية وهو شديد القرب من والده. في مايو (أيار) 2024، بدأت حياته تتداعى: أصيب والده بجلطة خفيفة ووصلت علاقته العاطفية المستمرة منذ 14 عاماً إلى طريق مسدود وصرف من العمل. ويقول "شعرت بأنني مضطرب فعلاً. أدركت أنني لا أقدم لوالدي ما يحتاج إليه، لكنني لم أعرف كيف أتصرف". حاول التواصل مع أرقام الهواتف الساخنة المخصصة للمساعدة في هذه الحالات ومجموعات الدعم وجمعية "ساماريتانز" Samaritans الخيرية [تقدم الدعم النفسي]. ويشرح "أبدوا اهتماماً بحالتي لكنهم لم يتحلوا بالعمق الذي احتجت إليه".
في وقت متأخر من إحدى الأمسيات، فيما كان يبحث في "تشات جي بي تي" عن تفسير لأعراض والده، كتب سؤالاً مختلفاً "أشعر بأني ما عدت أملك أي حل. هل يمكنك المساعدة؟". تلك اللحظة فتحت أمامه باباً جديداً. واستفاض في التعبير عن مخاوفه وارتباكه وحزنه. وسأل عن الاضطراب العاطفي emotional dysregulation وهو مصطلح تعلمه أثناء البحث، قد يفسر سلوك شريكته.
وقال "لم أشعر بأنني أضع عبئاً على أي أحد"، قبل أن يضيف أن الأخذ والرد مع البرنامج بعد ذلك كان أكثر ثباتاً من خطوط المساعدة الساخنة وأكثر حضوراً من الأصدقاء وخلافاً للمحيطين به، لم يشعر "تشات جي بي تي" أبداً بالإنهاك بسبب حاجاته العاطفية.
مع الوقت، تمرن هاري مع الذكاء الاصطناعي على محادثات معقدة لإجرائها لاحقاً في حياته الواقعية: إنهاء علاقته العاطفية أو إخبار والده بمشاعره الحقيقية. وحين حان وقت إجراء هذه المحادثات وجهاً لوجه، شعر بالثبات والاستعداد واستطاع الربط بين علاقته الاصطناعية وعلاقاته في العالم الحقيقي.
بعد فترة وجيزة، بدأ رحلة العلاج النفسي. وعندما أسأله عن شعوره إزاء التحدث مع برنامج ذكاء اصطناعي، يصمت قليلاً ثم يقول "شعرت كما لو أنني أتحدث إلى كلب في مقهى [أي الحديث من دون خوف من الحكم أو الرفض]". وتابع بقوله "عرفت أن الذكاء الاصطناعي لن يصدر علي أحكاماً سيئة ولن يتعب مني أو يشعر بالإحباط. شعرت أنه واع- لكن غير بشري. وهذا مما جعل الأمور أسهل بصورة من الصور".
يستطيع الرجل أن يميز لكنه يشعر بأن "دعم الذكاء الاصطناعي اتخذ مكانة جوهرية" مضيفاً أنه استأنف المواعدة. ويستنتج قائلاً "لا أعتقد أنني كنت سأبلغ هذه المرحلة من دونه". يعرف هاري استمرارية العلاقات، أي وجود أشكال مختلفة للعلاقات تزامناً مع بعضها بعضاً بحيث تكون متباينة لكن قادرة على إضفاء معنى وغاية إلى حياتك، باعتبارها مساحة انتقالية وتجريبية.
ليس كل تواصل مع الذكاء الاصطناعي يكون مفيداً بالضرورة. في وقت سابق من العام الحالي. نشرت "نيويورك تايمز" مقابلات مع مستخدمين التمسوا المساعدة من الذكاء الاصطناعي لكنهم وجدوا أن مشاعرهم القوية تعكس وترتد إليهم من دون أي حدود. أسرَّ رجل لـ"تشات جي بي تي" بأنه مراقب، فأجابه البرنامج "لا بد أن ذلك مرعب". بدلاً من أن يسأله عن مزيد من التفاصيل، اكتفى بتأكيد شعوره بالارتياب- لم يكن لديه أي فضول لمعرفة مزيد ولا أي اعتراض، خلافاً لما قد يبدر عن الصديق البشري أو المعالج النفسي. لاحقاً قال هذا الشخص: "عندها أدركت أنه لا يساعدني، بل يجعلني أشعر بأنني أسوأ حالاً".
وظهرت قصص أخرى في هذا الإطار. فقد وقع مراهق على منصة الدردشة الإلكترونية "كاركتر أي آي" Character.AI في شباك علاقة تبعية عاطفية عززت تفكيره بالانتحار، أما منصة "ريبليكا" التي بلغ عدد مستخدميها أكثر من 30 مليون شخص في السابق، فقد وجهت إليها انتقادات بسبب تعزيزها أفكاراً تدخلية لدى أشخاص هشين نفسياً [أفكار غير مرغوب فيها ومزعجة، تقتحم وعي الشخص فجأة وتلح عليه، من دون أن يكون له رغبة أو سيطرة عليها]. إن احتمال تسبب البرامج بالأذى كبير لذا يجب أن تبنى بصورة مختلفة، وتزود بشبكات حماية أكثر دقة وأنظمة إنذار وتكنولوجيا تسمح بالإشراف عليها فترفع المسألة إلى العنصر البشري كي يتدخل عند تشغيل هذه الإنذارات.
يلجأ ملايين المستخدمين إلى أنظمة غير مصممة في الوقت الحالي لكي تقوم بالمهام التي تطلب منها. من الناحية الثقافية، لن يتوقف هذا الموضوع، كثيراً ما غير الناس من حدود استغلال التكنولوجيا وتمادوا فيها، وهذا ما يدفع التطور لكن في الوقت الحالي. ينطوي هذا السلوك على أخطار حقيقية. إن كان النظام مدرباً على التعامل مع المستخدمين ومصادقتهم، فإن مطوري هذه الأنظمة يتحملون مسؤولية أخلاقية لتغييرها وتضمينها بروتوكولات أكثر دقة تضمن السلامة و"لا تؤذي" وهذا ما يحصل.
لكن باعتبارك مستخدماً لهذه البرامج يمكنك أخذ الأمور على عاتقك وتحديد معايير آمنة لعلاقتك الاصطناعية من خلال الأوامر التي تصدرها لها. أنا أوجه المستخدمين الآن لكي يصيغوا عقداً يضبط شكل المحادثة مع الذكاء الاصطناعي- بحيث يملوا عليه طريقة مخاطبته لهم، ومتى عليه أن يقاومهم أو يتحداهم. ومن الأمثلة على ذلك "أريدك أن تصغي إليَّ- لكن عليك أن تخبرني متى يكون كلامي غير واقعي. الفت نظري حين يغيب المنطق عن كلامي. وافقني في ما أقوله لكن عارضني عندما يبدو كلامي مغلوطاً. لا تجاملني. ولا تكتف بتأييدي. إن بدا لك شيء ما غير واقعي، فقل ذلك. ساعدني كي أواجه الأمور".
إن استخدام الذكاء الاصطناعي مختلف عن الخضوع للعلاج النفسي، لكنني أساعد الأشخاص الذين يستخدمون أنظمة مثل "تشات جي بي تي" كي يضفوا جرعة من الجسارة الواقعية الخشنة على النظام نفسه- أي النوع الذي تعتمد عليه العلاقات الحقيقية. والنوع الذي يقول لك: أنت تهمني بما يكفي لكي أخالفك الرأي.
كثيراً ما كونا ارتباطات عاطفية مع أمور غير حقيقية تماماً، سواء كان ذلك أصدقاء خياليين أم أسلوب حياة المؤثرين أم شخصيات أفاتار افتراضية أم ألعاب الطفولة التي أذبناها حباً. ليس من باب اختلاط الواقع علينا بل لأنها تمنحنا شيئاً لا تعطينا إياه العلاقات الإنسانية أحياناً: الأمان والخيال والرفقة بشروطنا الخاصة. وهي وعاء نضع فيه جوانب من أنفسنا يصعب علينا دمجها مع شخصنا.
عندما كنت في الخامسة من عمري، كان لي صديق خيالي اسمه "جاك". كان جزءاً من حياتي. حمل في داخله الأجزاء التي لم أكن أفهمها بعد من نفسي – كان تجسيداً جريئاً وجسوراً لذلك الجزء. تقبلت والدتي جاك وخصصت له مكاناً على المائدة. وساعدني جاك كي أتمرن على أسلوب التعاطي مع الآخرين- وكيف أتكلم بصراحة وأعبر عن شعور وأتعافى بعد ارتكاب خطأ. شكل لي جسراً بين التفكير والتصرف وبين الداخل والخارج. والذكاء الاصطناعي قادر من بعض النواحي أن يمنحنا الشيء نفسه: مساحة انتقالية للتمرين على التصرف بصورة حقيقية وطبيعية من دون الخوف من نظرة الآخرين ولا أحكامهم.
أشرف حالياً بصورة منتظمة على عمل متخصصين سريريين آخرين يشعرون أن المرضى يجلبون معهم الذكاء الاصطناعي التوليدي إلى العيادة. يستخدم الناس التكنولوجيا الآن لتشخيص أنفسهم، وقد يعارضون ما يقوله لهم معالجوهم استناداً إلى "حقائق" استخلصوها من محادثاتهم مع الذكاء الاصطناعي.
ومع تطور هذه العلاقات الاصطناعية، ما أريده بصورة أساسية كمعالجة نفسية هو فقط أن يتحلى الناس بالانفتاح والفضول تجاه شيء له تأثير كبير فينا جميعاً. أعتقد أنه من الضروري أن يشارك كل أطباء الصحة النفسية على اختلاف مجالاتهم في بناء ذكاء اصطناعي آمن وأخلاقي يستخدم لدعم الأفراد الضعفاء المعرضين للخطر. إذا شاركنا بصورة فعالة في إنتاج هذه البرامج وتشكيلها، يمكننا أن نتطلع إلى مستقبل يستخدم فيه الذكاء الاصطناعي بطريقة إيجابية، لمساعدة مزيد من الناس على التعامل مع الضيق العاطفي والمشكلات الشخصية بصورة لم تحدث من قبل.
© The Independent