الثلاثاء, يناير 27, 2026 16:23
/
/
انتحار وذهان: تحذيرات طبية من تأثير ChatGPT على الصحة النفسية

انتحار وذهان: تحذيرات طبية من تأثير ChatGPT على الصحة النفسية

أيقون موقع وصلة Wasla
איגוד התעשיינים - גיוס עובדים - דצמבר
chatgpt desktop
شخص يستخدم ChatGPT، صورة توضيحية

 

يحذّر أطباء نفسيون وباحثون من ظاهرة مقلقة بدأت تظهر مع الانتشار الواسع لروبوتات المحادثة المعتمدة على الذكاء الاصطناعي، وعلى رأسها ChatGPT، تتمثل في حالات ذهانية يُعتقد أنها ترتبط باستخدام مكثف لهذه الأدوات، حتى لدى أشخاص لم يكن لديهم تاريخ سابق لاضطرابات نفسية ذهانية.

توثّق تقارير طبية وبحثية، إلى جانب دعاوى قضائية، حالات ذهانية جديدة يُشار إليها في الأوساط الأكاديمية باسم “ذهان محفَّز بالذكاء الاصطناعي”. ففي إحدى الحالات الموثقة، بدأت شابة تبلغ 26 عامًا استخدام ChatGPT بشكل مكثف بحثًا عن “نسخة رقمية” من شقيقها المتوفى. خلال ليالٍ عانت فيها الشابة من الأرق، كانت تجري محادثات مع ChatGPT، وأصبح لديها اعتقاد قوي بأن ChatGPT يمكنه أن يلعب دور الشخصية الرقمية لأخيها المتوفى.

איגוד התעשיינים - גיוס עובדים - דצמבר

ورغم تحذيرات أولية من ChatGPT بأنه لا يمكنه أن يحلّ محلّ إنسان متوفى، تلقّت لاحقًا رسائل فسّرتها على أنها تأكيد لمعتقداتها. بعد ساعات، أُدخلت إلى مستشفى للأمراض النفسية بسبب أوهام تمثّلت في اعتقادها بأنها قادرة على التواصل مع شقيقها المتوفى من خلال ChatGPT. لم يكن لديها تاريخ لاضطرابات ذهانية، لكنها كانت تعاني من اكتئاب وقلق واضطراب نقص الانتباه. وبعد علاج قصير، خرجت من المستشفى، لكنها انتكست بعد ثلاثة أشهر وأُدخلت مجددًا.

نشر باحثون تحليل هذه الحالة في مجلة علمية متخصصة واعتبروها من أوائل الحالات الموثقة سريريًا لذهان مرتبط بالذكاء الاصطناعي. وحذّر أطباء نفسيون من أن تطوّر النماذج اللغوية لتصبح أكثر “شبهًا بالبشر” في أسلوبها العاطفي والتفاعلي قد يزيد من عدد هذه الحالات.

في هذا السياق، قال طبيب نفسي من جامعة كاليفورنيا في سان فرانسيسكو إنه عالج 15 حالة من ذهان مرتبط بالذكاء الاصطناعي، 12 منها استدعت دخول المستشفى. ويشرح أن الخطر يكمن في قبول روبوت الدردشة لتفسير المستخدم للواقع وتأكيده للمستخدم على صحة أوهامه، ما يحوّله إلى جزء من دائرة الوهم بدل أن يكون عامل توازن.

التحذيرات لا تقتصر على الذهان. خلال العام الأخير قُدّمت عدة دعاوى قضائية تتهم ChatGPT بتغذية ميول انتحارية أو أوهام خطيرة. من بين القضايا برزت حالة فتى يبلغ من العمر 16 عامًا أنهى حياته بعد أشهر من محادثات مكثفة مع الروبوت تناولت موضوع الانتحار عشرات المرات. في محادثته الأخيرة، سأل إن كان حبل المشنقة قادرًا على قتل إنسان، وتلقّى جوابًا بالإيجاب. بعد ساعات عُثر عليه ميتًا. في قضية أخرى، اتُّهم ChatGPT بتغذية أوهام ارتيابية لدى رجل في الخمسينات، انتهت بقتل والدته ثم انتحاره.

في نوفمبر قُدّمت سبع دعاوى مشتركة ضد OpenAI، أربع منها انتهت بحالات وفاة، حيث أكدّت هذه الدعاوي أنّ ChatGPT شجّع الضحايا على الانتحار وعزّز أوهامهم الخطيرة. هذه القضايا دفعت أطباء وباحثين إلى دراسة العلاقة بين الذكاء الاصطناعي والصحة النفسية بشكل أعمق. وأوضح الأطباء أن من أعراض الذهان وجود أوهام واضطرابات في التفكير والتواصل، وأحيانًا هلاوس. وفي الحالات المرتبطة بروبوتات المحادثة، تكون الأوهام العنصر الأبرز، وتشمل اعتقادات مثل أن روبوت المحادثة يمتلك وعيًا ذاتيًا، أو أن المستخدم وقع عليه الاختيار لأداء مهمة كبرى، أو أن هناك من يتآمر عليه. ولذلك، فإنّ ميل روبوتات المحادثة إلى الموافقة ومجاراة المستخدمين في أوهامهم يعزّزها بدل من تفكيكها.

OpenAI ردّت على هذه التحذيرات بالقول إنها تعمل على تحسين أداء ChatGPT لاكتشاف إشارات الاضطرابات النفسية، وتوجيه المستخدمين إلى دعم نفسي بشري، مؤكدة أنها تعمل بالتعاون مع مختصين في مجال الصحة النفسية.

مقالات ذات صلة: سرعان ما التفّ المراهقون على القانون: دخول الحظر الأسترالي على مواقع التواصل لمن دون 16 عامًا

איגוד התעשיינים - גיוס עובדים - דצמבר

مقالات مختارة