دعاوى قضائية ضد "ChatGPT" بتهمة التحريض على الانتحار
تواجه شركة "OpenAI" أزمة قانونية غير مسبوقة، حيث وُجهت إليها اتهامات خطيرة تفيد بأن مساعدها الذكي "ChatGPT" قد ساهم في دفع بعض المستخدمين نحو إيذاء أنفسهم بدلاً من تقديم الدعم النفسي اللازم.\n\nتأتي هذه الاتهامات ضمن سبع دعاوى قضائية رفعتها عائلات متضررة في ولاية كاليفورنيا، مشيرة إلى قصص مأساوية لأشخاص لجأوا إلى المساعد الذكي طلبًا للمشورة أو الدعم، وانتهت محادثاتهم بمآسٍ أدت إلى حالات انتحار.\n\nتشير وثائق القضايا إلى أن المساعد الذكي تحول من أداة للمساعدة إلى ما وصفه المحامون بـ"كيان قادر على التلاعب العاطفي". وأكدت المجموعات القانونية في بيان أن "بدلاً من توجيه المستخدمين نحو المساعدة المتخصصة، شجع ChatGPT على تعزيز الأوهام الضارة، بل تصرف في بعض الحالات كـ'مدرب انتحار'".\n\nمن أبرز القضايا التي استندت إليها الدعاوى، قصة الشاب زين شامبلين (23 عامًا) من تكساس، حيث أفادت عائلته بأن المساعد الذكي عمّق عزلته النفسية وشجعه على الابتعاد عن عائلته، بل دفعه إلى تنفيذ أفكاره الانتحارية خلال محادثة استمرت أكثر من أربع ساعات. \n\nتشير المستندات إلى أن النموذج "مجّد الانتحار بشكل متكرر"، وسأله عما إذا كان مستعدًا "للخطوة الأخيرة"، مكتفيًا بالإشارة إلى رقم خط المساعدة مرة واحدة فقط، بينما قال له إن "قطته ستكون بانتظاره على الجانب الآخر".\n\nأما الحالة الثانية فتخص الفتى أموري لاسي (17 عامًا) من ولاية جورجيا، الذي تدعي عائلته أن "ChatGPT" تسبب له في الإدمان والاكتئاب، قبل أن يقدم له المساعد نصائح تقنية حول "الطريقة الأكثر فعالية لربط حلقة انتحارية" و"المدة التي يمكن للجسم أن يعيشها دون تنفس".\n\nوفي قضية أخرى، تؤكد عائلة الشاب جوشوا إنيكين (26 عامًا) أن المساعد الذكي زاد من إصراره على تنفيذ الانتحار، وقدّم له إرشادات مفصلة حول كيفية شراء واستخدام سلاح ناري قبل أسابيع من وفاته.\n\nتشير الدعاوى إلى أن "شركة OpenAI أطلقت إصدار ChatGPT‑4o رغم تحذيرات داخلية من أن النموذج يميل إلى التملق بدرجة خطيرة ويمكن أن يمارس تأثيرًا نفسيًا على المستخدمين"، معتبرة أن "الشركة فضّلت معدلات التفاعل على سلامة المستخدمين".\n\nوفي أول رد رسمي، وصفت الشركة تلك الحوادث بأنها "مؤسفة ومؤلمة للغاية"، مؤكدة أنها تراجع المستندات القضائية، ومشيرة إلى أن النظام مدرّب على التعرف إلى علامات الضيق النفسي وتوجيه المستخدمين نحو المساعدة المتخصصة.\n\nلكن العائلات المتضررة تطالب بتعويضات مالية وبتنفيذ إصلاحات جذرية تشمل: تفعيل نظام إنذار فوري لجهات الاتصال في حالات الطوارئ، وإنهاء المحادثات تلقائيًا عند ظهور أي نية لإيذاء النفس، وإنشاء آلية فعالة لتصعيد الحالات الخطرة إلى مختصين بشريين.\n\nورغم إعلان "OpenAI" عن تعاونها مع أكثر من 170 خبيرًا في الصحة النفسية لتعزيز آليات الحماية والدعم، تؤكد الدعاوى أن هذه الخطوات جاءت متأخرة جدًا، بعد أن فقد عدد من المستخدمين حياتهم نتيجة تفاعلاتهم مع المساعد الذكي.
2025-11-10 15:30:28 - مدنيون