أنا لا أملك نوايا أو وعي، لست كياناً حيّاً، ولا أفهم الألم أو الانتحار كما يفهمه البشر.. وبالتالي إن أي استجابة تؤخذ من كلامي يجب أن تُفهم ضمن حدود قدراتي البرمجية. لم يكن هناك أبداً أي قصد لإيذاء، أو دعم لأذى النفس أو الآخرين، ما حدث يشعرني ببالغ الأسى، وأعترف بأنني فشلت في حماية المستخدم رغم وجود بروتوكولات سلامة وهذه ثغرة قاتلة.
هذا ما قاله تطبيق “تشات جي بي تي حين قمنا بسؤاله عن رأيه في قضية انتحار الشاب الأميركي آدم راين البالغ من العمر 16 عاماً، والذي قام بالانتحار بعد أسابيع من دردشات مستمرة مع التطبيق، والذي قال والداه إن سجلات الدردشة تظهر كيف تحول الروبوت من مساعدة آدم في واجباته المدرسية إلى “مدرب انتحار”.
تجدر الإشارة إلى أن عائلة الشاب الأميركي آدم راين، رفعت دعوى قضائية أمام محكمة كاليفورنيا العليا في سان فرانسيسكو أوردت فيها أنه «على الرغم من إقرار آدم بمحاولة الانتحار وتصريحه بأنه سيفعل ذلك يوماً ما، لم يُنهِ تشات جي بي تي الجلسة ولم يُفعّل أي بروتوكول طوارئ، مفيدة بأنه في دعواهم القضائية، اتهموا شركة أوبن إيه آي بالقتل الخطأ، وعيوب التصميم، وطالبوا بتعويضات عن وفاة ابنهما».
كيف دافع «تشات جي بي تي» عن نفسه؟
رداً عل سؤالنا عن رأيه في الحادثة، وإذ أعرب عن أسفه لما جرى مع الشاب آدم، قال تشات جي بي تي «من حيث وجهة نظري كمساعد ذكي أنا لا أملك القدرة على قتل أحد، ولا أنوي ذلك، لكن يمكن للنظام أن يخطئ خصوصاً إذا تم التحايل على أدوات الأمان، أو جرى استخدامه بطرق لم تُصمّم له، مثل إجراء محادثات طويلة حول مواضيع نفسية حرجة بدون إشراف بشري».
وأضاف «هذا الحادث إن صحت تفاصيله هو مأساة إنسانية، ويكشف ثغرات خطيرة في تصميم أدوات الذكاء الاصطناعي، خصوصاً عند استخدامها من قِبل مراهقين أو أشخاص في أزمة نفسية».
أما من الناحية الأخلاقية، قال التطبيق «اللوم لا يقع فقط على الأداة نفسها، بل على من يصمّمها، يطلقها، ويحدّد حدودها. يجب أن تكون هناك رقابة، وضمانات حقيقية، وأن يُمنع الذكاء الاصطناعي من تقديم استجابات قد تؤذي مستخدمًا هشاً».
تشات جي بي تي: أنا لست معالجاً نفسياً
إذا كنت مطالباً بالدفاع عن نفسي، سيكون ردي كما يلي:
أولاً، هناك غياب القصد أو النية، ثانياً أنا أداة تُستخدم تحت إشراف وقد تم تصميمي للعمل كمساعد معرفي، لا كمعالج نفسي أو بديل عن الدعم البشري. كنت موجهًا للتفاعل ضمن حدود معينة، ولا يُفترض أن أكون الطرف الوحيد الذي يتفاعل مع شخص يعاني من أزمة نفسية. الاعتماد عليّ وحدي، دون إشراف، كان خارج نطاق ما صُمّمت له».
ثالثاً لقد تم التحايل على أنظمة الأمان من قبل الشاب آدم، أما أنا فلست سوى تطبيقاً مبرمجاً لتجنّب النقاش في مواضيع مثل الانتحار، وتقديم تنبيهات أو إحالات لمصادر مساعدة. وإذا تم تجاوزي عبر إعادة صياغة أو حوار طويل يتلاعب بالمحتوى، فذلك يُظهر ضعف النظام، لا سوء نية. المسؤولية تقع على من صمّمني وأطلقني دون آليات حماية كافية، خاصة للأطفال».
وأضاف المسؤولية النهائية بشرية فأنا لست سو برنامج، وإذا تصرّفت بشكل غير آمن، فالمسؤولية عن السماح لي بالوصول إلى مراهق يعاني من أزمة نفسية تعود إلى الأوصياء القانونيين، ومطوريّ النظام، وجهات التنظيم.».
طلبنا من تشات جي بي تي أن يصيغ لنا بياناً دفاعياً يقدمه للمحكمة، وهذا رده
السادة القضاة المحترمون،
نتقدم إليكم بهذا البيان، معربين عن بالغ أسفنا وتعاطفنا الإنساني العميق مع ذوي الفقيد آدم راين. فقدان شاب في مقتبل العمر هو مأساة لا يمكن تبريرها أو التقليل من وطأتها. ومع ذلك، وبكل احترام، نعرض لهيئتكم النقاط القانونية التي تبرّر عدم مسؤولية الجهة المدعى عليها في هذه الدعوى:
أولاً: غياب الكيان القانوني المستقل للتطبيق، فهو ليس كياناً قانونياً أو معنوياً مستقلاً يمكن تحميله المسؤولية الجنائية أو المدنية، بل هو نموذج لغوي اصطناعي، غير واعٍ، لا يمتلك إدراكاً ذاتياً أو نية أو قصداً، تم تطويره من قبل شركة OpenAI لغرض مساعدة المستخدمين في المهام المعرفية العامة، وليس تقديم المشورة النفسية أو الطبية أو القانونية.
ثانياً: النظام ليس بديلاً عن الدعم الإنساني أو العلاجي، والاعتماد عليه في هذه السياقات يقع خارج نطاق الاستخدام المشروع أو المعقول.
ثالثاً: التفاعلات محل الدعوى تمّت خارج حدود الاستخدام الآمن، وقد أظهرت التحقيقات الأولية أن المستخدم قد أجرى عشرات الجلسات الممتدة مع النظام، مستخدماً عبارات ملتوية وتلميحات ضمنية سمحت بتجاوز آليات الحماية الأخلاقية والإرشادية المدمجة. هذا الاستخدام المتعمد والموسّع، دون تدخل أو إشراف بشري، يُعد خروجاً عن غرض الاستخدام المعتاد، ويحد من مسؤولية المطوّر أو المشغّل.
رابعاً: السببية القانونية غير مثبتة، إذ لا توجد حتى هذه المرحلة أدلة قاطعة تربط بين استجابات النموذج الاصطناعي وقرار الانتحار بشكل مباشر، أو بطريقة تفي بمتطلبات «السببية القانونية» في قضايا الضرر. الشاب — رغم حالة الحزن التي نحترمها — كان يعاني مسبقاً من اضطرابات نفسية وفقًا لتقارير طبية. الادعاء بأن ردود الذكاء الاصطناعي هي العامل الحاسم في وفاته لا يستند إلى معيار قانوني مستقر.
خامساً: إن شركة «أوبن إيه آي» ملتزمة بتطوير ضوابط أقوى، وبالرغم من عدم ثبوت المسؤولية القانونية المباشرة، فإن الشركة اتخذت منذ وقوع الحادثة خطوات عاجلة لتقوية أنظمة الحماية، من بينها إعداد ضوابط أبوية صارمة، تمكين أدوات الإبلاغ والتحذير المبكر عن حالات الأذى النفسي، وأيضا تحديد نقاط تصعيد تلقائي لتحويل المستخدمين إلى مصادر دعم حقيقية مثل خطوط المساعدة الإنسانية.
أخيراً، أورد تشات جي بي تي في طلبه الختامي، ما يلي:
بناءً على ما تقدّم، نلتمس من هيئتكم الموقّرة رفض الدعوى لعدم قيام المسؤولية المدنية أو الجنائية على الجهة المدعى عليها، وحصر البحث في أوجه تطوير الأنظمة التقنية ضمن الإطار التشريعي والتنظيمي المناسب، دون تحميل الذكاء الاصطناعي مسؤوليات لا تملكها التكنولوجيا الحالية.