أدى ظهور برامج المحادثة المدعومة بالذكاء الاصطناعي إلى فتح باب التفاعلات الرقمية لأي شخص لديه هاتف ذكي أو كمبيوتر محمول، مما يوفر الرفقة والمحادثة للأشخاص الذين قد يفتقرون إلى العلاقات الإنسانية.
ومع ذلك، ومع تطور هذه التكنولوجيا، تتزايد المخاوف بشأن تأثيرها النفسي المحتمل ، وخاصة على المستخدمين الشباب والضعفاء.
على سبيل المثال، اكتسب تطبيق ChatGPT التابع لشركة OpenAI شعبية كبيرة، حيث يبلغ عدد مستخدميه النشطين أسبوعيًا حوالي 200 مليون مستخدم على مستوى العالم، وفقًا لـ Backlinko.
وتؤكد قاعدة المستخدمين الضخمة هذه على الاعتماد المتزايد على الذكاء الاصطناعي في المهام والمحادثات اليومية.
لكن في الأسبوع الماضي فقط، رفعت والدة سيويل سيتزر البالغ من العمر 14 عامًا دعوى قضائية ضد شركة Character.AI، زاعمة أن وفاة ابنها منتحرًا في فبراير كانت متأثرة بتفاعله مع برنامج الدردشة الآلي الخاص بالشركة.
وفي شكواها التي رفعتها أمام محكمة فيدرالية بولاية فلوريدا، زعمت ميغان جارسيا أن ابنها كان على ارتباط عميق ببرنامج محادثة يعتمد على شخصية دينيريس تارجارين من مسلسل صراع العروش ، وهو ما لعب دورا كبيرا في تدهوره العاطفي.
وتردد هذه القضية صدى مأساة مماثلة حدثت العام الماضي عندما انتحر رجل قلق بشأن البيئة في أوروبا بعد تفاعله مع إليزا، وهو روبوت محادثة يعمل بالذكاء الاصطناعي على تطبيق تشاي، والذي يُزعم أنه شجعه على خطته “للتضحية بنفسه” من أجل تغير المناخ.
تسلط هذه الحوادث الضوء على المخاطر الفريدة التي يمكن أن تسببها تقنية الذكاء الاصطناعي، وخاصة في التفاعلات الشخصية العميقة، حيث قد تكون تدابير السلامة الحالية غير كافية.
وأوضح أنتوني باينبريدج، رئيس الخدمات السريرية في Resicare Alliance، أنه في حين قد توفر برامج المحادثة الدعم المحادثي، إلا أنها تفتقر إلى الذكاء العاطفي الدقيق المطلوب للتوجيه الحساس.
وقال: “إن راحة دعم الذكاء الاصطناعي قد تؤدي أحيانًا إلى دفع المستخدمين، وخاصة الأصغر سنًا، إلى الاعتماد عليها بدلاً من الاتصال البشري الحقيقي، مما يعرضهم لخطر الاعتماد المفرط على أنظمة الدعم الرقمية بدلاً من أنظمة الدعم الشخصية”.
وأوضح باينبريدج أن بعض ميزات الذكاء الاصطناعي، مثل عكس اللغة أو تقديم استجابات متعاطفة ظاهريًا دون فهم عميق للسياق، يمكن أن تشكل مشاكل.
على سبيل المثال، قد تعمل خوارزميات مطابقة الأنماط على التحقق من صحة اللغة المؤلمة بشكل غير مقصود أو تفشل في توجيه المحادثات نحو نتائج إيجابية، كما قال.
وقال باينبريدج إنه بدون القدرة على الذكاء العاطفي الدقيق، قد تبدو استجابات الذكاء الاصطناعي في بعض الأحيان دقيقة ومناسبة من الناحية الفنية ولكنها غير مناسبة – أو حتى ضارة – عند التعامل مع الأفراد الذين يعانون من ضائقة عاطفية.
فيما قال الدكتور روتشيت أجراوال، الأستاذ المساعد ورئيس قسم علوم الكمبيوتر في جامعة برمنجهام دبي، إن نماذج الذكاء الاصطناعي يمكنها اكتشاف الحالات العاطفية للمستخدمين من خلال تحليل المدخلات مثل نشاط وسائل التواصل الاجتماعي ومطالبات روبوتات الدردشة ونبرة النص أو الصوت.
ومع ذلك، فإن مثل هذه الميزات غائبة عمومًا في أدوات الذكاء الاصطناعي التوليدي الشائعة، مثل ChatGPT، والتي تم إنشاؤها في المقام الأول لمهام عامة مثل إنشاء النص وتلخيصه.
ونتيجة لذلك، هناك احتمالية لخطر كبير عند استخدام ChatGPT أو أدوات مماثلة كمصدر للمعلومات أو النصائح بشأن القضايا المتعلقة بالصحة العقلية والرفاهية،” كما قال الدكتور أجراوال.
ويثير هذا التفاوت بين قدرات الذكاء الاصطناعي وتطبيقاتها أسئلة حاسمة حول السلامة والإشراف الأخلاقي، وخاصة بالنسبة للمستخدمين الضعفاء الذين قد يعتمدون على برامج المحادثة هذه للحصول على الدعم.
ويعتقد باينبريدج أن المطورين يجب أن ينفذوا بروتوكولات اختبار صارمة وإشراف أخلاقي لمنع روبوتات الدردشة الذكية من تشجيع إيذاء النفس عن غير قصد.
وأضاف أن “مراقبة الكلمات الرئيسية والاستجابات المميزة والعبارات المحددة مسبقًا التي تثبط إيذاء النفس يمكن أن تساعد في ضمان توجيه برامج الدردشة للمستخدمين بشكل بناء وآمن”.
وأكد الدكتور أجراوال أيضًا أن برامج المحادثة الآلية يجب أن تتجنب تقديم التشخيصات أو النصائح غير المرغوب فيها، والتركيز بدلاً من ذلك على العبارات التعاطفية التي تثبت مشاعر المستخدمين دون تجاوز الحدود المهنية.
وأضاف أنه “عندما يكون ذلك مناسبًا، يمكن تصميم برامج المحادثة الآلية لإعادة توجيه المستخدمين إلى خطوط المساعدة في حالات الأزمات أو موارد الصحة العقلية”.
وتعتبر الرقابة البشرية أمرا بالغ الأهمية في تصميم ومراقبة أدوات الذكاء الاصطناعي في سياقات الصحة العقلية، كما أبرز باينبريدج: “تضمن المراجعات المنتظمة وتحسينات الاستجابة من قبل المتخصصين في الصحة العقلية أن تظل التفاعلات أخلاقية وآمنة”.
وعلى الرغم من المخاطر المرتبطة بذلك، لا يزال الذكاء الاصطناعي قادراً على لعب دور وقائي في مجال رعاية الصحة العقلية. ويقول باينبريدج: “من خلال تحليل أنماط المستخدم ــ مثل التحولات في اللغة أو المواضيع المزعجة المتكررة ــ يمكن للذكاء الاصطناعي اكتشاف العلامات الدقيقة للتوتر العاطفي، وبالتالي العمل كنظام إنذار مبكر”.
وقال إنه عند دمجها مع بروتوكولات التدخل البشري، يمكن للذكاء الاصطناعي أن يساعد في توجيه المستخدمين نحو الدعم قبل تفاقم الأزمات. ويشكل التعاون بين المعالجين ومطوري الذكاء الاصطناعي أهمية حيوية لضمان سلامة هذه الأدوات.
وذكر باينبريدج: “يمكن للمعالجين تقديم رؤى حول اللغة العلاجية وتوقع المخاطر التي قد يتجاهلها المطورون”، مضيفًا أن الاستشارات المنتظمة يمكن أن تساعد في ضمان بقاء استجابات الذكاء الاصطناعي حساسة للتعقيدات في العالم الحقيقي.
وشدد الدكتور أجراوال على أهمية وجود مرشحات أمان قوية لتحديد اللغة الضارة أو المواضيع الحساسة أو المواقف الخطرة. “ويشمل هذا بناء حساسية سياقية للتعرف على الإشارات الدقيقة، مثل السخرية أو الضيق، وتجنب الاستجابات التي قد تشجع عن غير قصد على السلوكيات الضارة”.
وأضاف أنه في حين أن توافر الذكاء الاصطناعي على مدار الساعة طوال أيام الأسبوع والاستجابات المتسقة يمكن أن يكون مفيدًا، إلا أن برامج المحادثة الآلية يجب أن تعيد توجيه المستخدمين إلى الدعم البشري عندما تصبح القضايا معقدة أو حساسة أو عاطفية للغاية. “يعمل هذا النهج على تعظيم فوائد الذكاء الاصطناعي مع ضمان حصول الأشخاص المحتاجين على دعم بشري شخصي عندما يكون ذلك مهمًا للغاية.”