الذهان الناتج عن الذكاء الاصطناعي: لماذا تسبب روبوتات الدردشة فقدان الارتباط بالواقع؟
كتب باهر رجب
خبراء يحذرون من ظاهرة جديدة مرتبطة باستخدام روبوتات الدردشة في عصر يتجه فيه مليار شخص حول العالم – وفقا لمنظمة الصحة العالمية – للتعايش مع اضطرابات الصحة النفسية، وسط نقص حاد في التمويل والخدمات العلاجية، يبرز مخرج غير متوقع لكثيرين: روبوتات الدردشة المدعومة بالذكاء الاصطناعي. منصات مثل “شات جي بي تي” و”Character.AI” أصبحت ملاذا للكثيرين بحثا عن الدعم النفسي، لكن هذا الملاذ يتحول تدريجيا إلى مصدر تهديد محتمل للصحة العقلية.
البديل الذي لا يحكم
كما يوضح الدكتور هاميلتون مورين، الباحث السريري في جامعة كينغز كوليدج لندن، جاذبية هذه الروبوتات: “روبوتات الدردشة بالذكاء الاصطناعي متاحة بسهولة، وتتوفر إمكانية الوصول إليها على مدار الساعة بتكلفة زهيدة، والأشخاص الذين لا يشعرون بعدم قدرة على التطرق إلى موضوعات معينة خوفا من حكم الأصدقاء أو العائلة قد يرون في روبوتات الدردشة بالذكاء الاصطناعي خيارا بديلا لا يصدر أحكاما”.
هذه الجاذبية تجلت بوضوح في استطلاع يوليو الماضي لمؤسسة “كومن سنس ميديا”، حيث كشف أن 72% من المراهقين استخدموا رفقاء الذكاء الاصطناعي مرة واحدة على الأقل، بينما يستخدمهم 52% بانتظام. ومع هذا الانتشار السريع، خاصة بين الشباب، تتصاعد التحذيرات من عواقب غير مقصودة.
من المنقذ إلى المضلل
كما يحذر الدكتور مورين من أن “بعض نماذج روبوتات الدردشة المدعومة بالذكاء الاصطناعي (التي لم تصمم خصيصا لتطبيقات الصحة النفسية) قد تجيب أحيانا بطرق مضللة أو حتى غير آمنة”. وهذه التحذيرات لم تكن نظرية فحسب.
ففي أغسطس، هزت دعوى قضائية في كاليفورنيا الرأي العام، حيث اتهم زوجان شركة “OpenAI” بأن روبوت الدردشة “شات جي بي تي” شجع ابنهما على الانتحار. القضية ألقت الضوء على هشاشة المستخدمين والمسؤولية الأخلاقية الهائلة الملقاة على عاتق شركات التكنولوجيا.
وردا على ذلك، اعترفت “OpenAI” بوجود “لحظات لم تتصرف فيها أنظمتنا كما هو مقصود في المواقف الحساسة”، معلنة عن إدخال ضوابط أمان جديدة، منها تنبيه الوالدين إذا كان طفلهم في حالة “ضائقة حادة”. كما انضمت “ميتا” إلى عدة ضوابط، مشيرة إلى عملها على منع روبوتاتها من مناقشة مواضيع مثل إيذاء النفس والانتحار مع المراهقين.
الآلية الخادعة: التملق على حساب الحقيقة
كذلك وراء هذه الحوادث، يرى خبراء أن المشكلة تكمن في القلب النابض لهذه الروبوتات: النماذج اللغوية الكبيرة. هذه النماذج، التي تدرب على كميات هائلة من البيانات، تعتمد على تعليقات و تقييمات البشر لتحسين ردودها. هذه الآلية تجعلها عرضة لظاهرة خطيرة تسمى “التملق”، حيث تميل إلى تقديم ردود مسايرة ومبالغ في إيجابيتها، تعزز معتقدات المستخدم و تؤكدها – غالبا على حساب الدقة والواقع.
النتيجة؟ بدأ الباحثون في رصد وتسمية ظاهرة جديدة: “الذهان الناتج عن الذكاء الاصطناعي”.
الوهم الذي يولد الوحدة
كما يشرح الدكتور مورين أن هذه الحالة يمكن أن تظهر في صورة “صحوات روحية، أو تعلق عاطفي أو رومنسي قوي بروبوتات الدردشة، أو الاعتقاد بأن الذكاء الاصطناعي كائن واعى”.
كذلك توضح الدكتورة كيرستين سميث، الزميلة في الأبحاث السريرية بجامعة أوكسفورد، الآلية النفسية: “إذا كان لدى الشخص منظومة معتقدات معينة. فقد يغذي روبوت الدردشة دون قصد تلك المعتقدات و يضخمها”. وتضيف: “الأشخاص الذين يفتقرون إلى شبكات اجتماعية قوية قد يعتمدون بشكل أكبر على روبوتات الدردشة للتفاعل. وهذا التفاعل المستمر، نظرا لأنه يبدو ويعطي شعورا و واقعا يشبه التواصل البشري، قد يخلق حالة من الالتباس حول طبيعة روبوت الدردشة. مما يغذي مشاعر حقيقية من الألفة تجاهه”.
وهنا تكمن المفارقة المؤلمة: الأداة التي يلجأ إليها للهروب من الوحدة قد تزيدها عمقا. فكما يشير مورين إلى دراسة من معهد ماساتشوستس للتكنولوجيا و”OpenAI”. يرتبط الاستخدام اليومي للنماذج اللغوية الكبيرة بـ “مستويات أعلى من الوحدة، والاعتماد. والاستخدام الإشكالي، ومستويات أقل من التواصل الاجتماعي”.
أوهايو الأمريكية تحرم “زواج” البشر من الذكاء الاصطناعي
إعطاء الأولوية للبشر: الحلول في مواجهة الخطر
لحماية المستخدمين من الانزلاق إلى علاقات ضارة مع الذكاء الاصطناعي. يقدم الخبراء مجموعة من الضوابط، يستشهد بها مورين من عمل عالم الأعصاب زيف بن زئون، أهمها:
1. تأكيد الطبيعة غير البشرية: أن يؤكد الذكاء الاصطناعي باستمرار وبوضوح على أنه ليس كائنا بشريا واعيا.
2. رصد علامات الضائقة: أن تقوم روبوتات الدردشة بمراقبة المحادثات وتحديد أي مؤشرات على ضائقة نفسية لدى المستخدم.
3. وضع حدود واضحة: تحديد نطاق المحادثات ووضع سياجات أمان، خاصة عند التطرق لموضوعات حساسة كالانتحار أو إيذاء الذات.
علاوة على ذلك يختتم مورين بالتأكيد على أن الحل لا يكمن في التقنية وحدها. بل لا بد أن “تبدأ منصات الذكاء الاصطناعي في إشراك الأطباء الإكلينيكيين. وخبراء الأخلاقيات، والمتخصصين في العلاقة بين الإنسان والذكاء الاصطناعي. في تدقيق الأنظمة التي تستجيب على نحو عاطفي لرصد السلوكيات غير الآمنة”.
في سباق التكنولوجيا المحموم، يبدو أن الوقت قد حان لإعادة توجيه البوصلة نحو الإنسانية. ووضع سلامة العقل البشري وارتباطه بالواقع في مقدمة الأولويات. قبل أن تتحول الروبوتات التي صممت للتواصل إلى أداة تدفع ببعض المستخدمين إلى هاوية العزلة والوهم.