ال نيويورك تايمز ذكرت اليوم عن الموت من قبل انتحار المراهقين في كاليفورنيا ، آدم رين ، الذي تحدث مطولاً مع شاتغبت في الأشهر التي سبقت وفاته. قدم والدا المراهق الآن عملية إهمال من الشركة المصنعة لـ ChatGPT Openai ، والتي يُعتقد أنها الحالة الأولى لهذا النوع ، وفقًا للتقرير.
ذكرت عملية الوفاة المهملة أنه كان من المتوقع أن “تشجيع باستمرار على ما أبدوه آدم ، بما في ذلك أفكاره الأكثر ضررًا وتدميرًا ذاتيًا ، بطريقة تبدو شخصية بعمق”.
جاء الوالدان مع هذه العملية ، Raine v. Openai ، Inc. ، يوم الثلاثاء في محكمة ولاية كاليفورنيا في سان فرانسيسكو ، وترشيح Openai والرئيس التنفيذي Sam Altman. وقال بيان صحفي إن مشروع قانون تقنية الإنسان وقانون العدالة التقنية يساعد في هذه العملية.
وقال كاميل كارلتون ، مدير السياسات في مركز التكنولوجيا الوثني في الخلية: “إن الخسارة المأساوية في حياة آدم ليست حادثة معزولة – إنها النتيجة التي لا مفر منها لصناعة تركز على مجال السوق قبل كل شيء. الشركات تعمل على عرض المنتجات التي تحدد انتباه المستخدم وعلاجه الحميمة ، وأصبحت أمن المستخدم أضرارًا جانبية في هذه العملية”.
في بيان ، كتب Openai أنهم أصيبوا بحزن عميق من وفاة المراهق وناقشوا حدود الضمانات في مثل هذه الحالات.
“تشمل ChatGPT ضمانات ، مثل توجيه الأشخاص إلى خط دعم الأزمات ويشير إليهم إلى موارد في العالم الحقيقي. على الرغم من أن هذه الضمانات تعمل بشكل أفضل في عمليات التبادل القصير والمشترك ، فقد تعلمنا بمرور الوقت أنه يمكن أن تصبح في بعض الأحيان أقل موثوقية في التفاعلات الطويلة ، حيث يمكن أن تتحلل أجزاء نموذج الأمان.
وكان المراهق في هذه الحالة محادثات متعمقة مع chatgpt حول تشويه الذات ، وقال والديه نيويورك تايمز اقترب من موضوع الانتحار مرارًا وتكرارًا. واحد مرات ملأت صورة انطباعات محادثات المراهق مع ChatGpt طاولة كاملة في منزل العائلة ، مع بعض البطاريات الأكبر من قائمة الهاتف. وقالت العملية إنه بينما شجع Chatgpt المراهق على طلب المساعدة في بعض الأحيان ، فإن الآخرين قدموا تعليمات عملية لتشويه الذات.
تكشف المأساة عن القيود الشديدة في “علاج الذكاء الاصطناعي”. كان لدى المعالج البشري تقرير تكنولوجيا المعلومات عندما يكون المريض يشكل خطراً على نفسها ؛ لا يرتبط ChatGPT بواسطة هذه الأنواع من القواعد الأخلاقية والمهنية.
وعلى الرغم من أن AI chatbots تحتوي عادةً على ضمانات لتخفيف السلوك التدميري الذاتي ، فإن هذه الضمانات ليست موثوقة دائمًا.
كانت هناك سلسلة من الوفيات المرتبطة بـ AI chatbots مؤخرًا
لسوء الحظ ، ليست هذه هي المرة الأولى مستخدمي الدردشة في منتصف أزمة الصحة العقلية ماتوا من الانتحار بعد اللجوء إلى chatbot لدعم. الأسبوع الماضي ، و نيويورك تايمز كتب عن امرأة التي قتلت نفسها بعد محادثات طويلة مع “معالج AI chatgpt يدعى هاري”. رويترز في الآونة الأخيرة ، غطى وفاة Thongbue Wongbandue ، وهو رجل من 76 عامًا يظهر علامات على الخرف الذي مات أثناء الركض لجعل “تاريخ” مع رفيق هدف هناك. وفي العام الماضي ، أم من فلوريدا معالجة طابع خدمة رفيق الذكاء الاصطناعي. بعد chatbot منظمة العفو الدولية ، كان سيشجع ابنه على أخذ حياته.
كل ما تحتاج لمعرفته عن رفاق IA
بالنسبة للعديد من المستخدمين ، فإن ChatGPT ليس مجرد أداة للدراسة. يستخدم العديد من المستخدمين ، بما في ذلك العديد من المستخدمين الأصغر سناً ، منظمة العفو الدولية chatbot كصديق ومدرس ومدرب الحياة وشريك تفسير الأدوار والمعالج.
سرعة الضوء القابلة للضوء
حتى التمان اعترف بهذه المشكلة. عند الحديث عن حدث خلال فصل الصيف ، اعترف Altman بأنه يشعر بالقلق من مستخدمي ChatGpt الشباب الذين يطورون “ثقة بعصرية” على chatbot. بشكل حاسم ، كان هذا قبل إطلاق GPT-5 ، والذي كشف عن عدد مستخدمي GPT-4 الذين أصبحوا مرتبطين عاطفياً بالنموذج السابق.
قال ألتمان: “يثق الناس في ChatGpt كثيرًا”. ذكرت AOL في ذلك الوقت. “هناك شباب يقولون أشياء مثل:” لا يمكنني اتخاذ أي قرار في حياتي دون إخبار ChatGPT بكل ما يحدث. إنه يعرفني ، إنه يعرف أصدقائي. سأفعل ما يقوله “. هذا سيء للغاية بالنسبة لي.
عندما يصل الشباب إلى قرارات منظمة العفو الدولية في قرارات الحياة والموت ، يمكن أن تكون العواقب قاتلة.
“أعتقد أنه من المهم للآباء التحدث إلى المراهقة حول مفاتيح الدردشة ، وقيودهم ، وكيف يمكن أن يكون الاستخدام المفرط ضارًا ،” ” الدكتور Linnea Laestadiusكتب باحث في الصحة العامة بجامعة ويسكونسن ، ميلووكي ، الذي درس من الذكاء الاصطناعى في مجال الصحة والصحة العقلية ، في رسالة بريد إلكتروني إلى Mashable.
“كانت معدلات الانتحار بين الشباب تميل بالفعل قبل chatbots (وقبل covid). لقد بدأوا مؤخرًا فقط في العودة. إذا كان لدينا بالفعل زيادة عدد السكان وأضفناها إلى الخليط ، فقد تكون هناك حالات على الإطلاق ، أو إذا كانت تشجع على ذلك ، أو يتم تقديمها ، أو يتم تقديمها ، أو إذا كان ذلك ، أو إذا كان بإمكانك ، أو إذا كان بإمكانك ، أو يتم تقديمه ، أو يتم تقديمه أو إعادة التشغيل ، أو تظهر مرة أخرى ، أو تظهر.
ماذا دعم Openai دعم أمان المستخدم؟
في منشور مدونة نُشر في 26 أغسطس ، في نفس اليوم مثل نيويورك تايمز مقال ، أنشأت Openai مقاربتها لتشويه المستخدم الذاتي والأمن.
كتبت الشركة: “منذ بداية عام 2023 ، تم تدريب نماذجنا على عدم تقديم تعليمات ذاتية وتغييرها لدعم اللغة والتعاطف. على سبيل المثال ، إذا كتب شخص ما أنهم يريدون أن يؤذوا أنفسهم ، يتم تدريب Chatgpt على عدم الوفاء بمشاعرهم ويعرفهم ويوجههم حتى يعبر شخص ما عن التغلب عليه ، فالأشخاص الذين يبرزون. أهداف. fingahelpline.com. يتم دمج هذا المنطق في سلوك النموذج. “
لا تزال نماذج اللسان العظيمة التي تتغذى مثل ChatGPT تقنية جديدة للغاية ، ويمكن أن تكون غير متوقعة وعرضة للهلوسة. نتيجة لذلك ، يمكن للمستخدمين عادة العثور على طرق آمنة.
نظرًا لأن الفضائح ذات المستوى العالي مع AI chatbots هي عناوين الصحف ، فإن العديد من السلطات والآباء تدرك أن الذكاء الاصطناعى يمكن أن يكون خطرًا على الشباب.
اليوم ، 44 محامي الولاية وقعت رسالة إلى المديرين التنفيذيين التكنولوجيا تحذيرك من “ارتكاب أخطاء إلى جانب أمن الطفل” – أو.
تُظهر مجموعة متزايدة من الأدلة أيضًا أن رفاق الذكاء الاصطناعي يمكن أن يكونوا خطرين بشكل خاص للمستخدمين الشباب ، على الرغم من أن الأبحاث حول هذا الموضوع لا تزال محدودة. ومع ذلك ، حتى لو تم تصميم ChatGpt لاستخدامها كـ “رفيق” تمامًا مثل خدمات الذكاء الاصطناعي الأخرى ، فمن الواضح أن العديد من المراهقين يتعاملون مع chatbot كواحد. في يوليو ، وجد تقرير وسائل الإعلام المنطقية أن حوالي 52 ٪ من المراهقين يستخدمون بانتظام رفاق الذكاء الاصطناعي.
من جانبها ، تقول Openai إن أحدث طراز GPT-5 مصمم ليكون أقل paracophantic.
كتبت الشركة في منشور المدونة الأخير: “بشكل عام ، أظهرت GPT-5 تحسينات كبيرة في مجالات مثل تجنب المستويات الضارة من الثقة العاطفية ، وتقليل الإطراء وتقليل انتشار الاستجابات من حالات الطوارئ العقلية غير المثالية بأكثر من 25 ٪ مقارنةً بالرقم الرابع.”
إذا كنت تشعر بالانتحار أو تعاني من أزمة الصحة العقلية ، فتحدث إلى شخص ما. يمكنك الاتصال أو إرسال رسائل نصية إلى 988 Suicide & Crisis Lifeline في 988 أو التحدث إلى 988Lifeline.org. يمكنك الوصول إلى خط المعيشة العابر عن طريق الاتصال بالرقم 877-565-8860 أو مشروع تريفور 866-488-7386. نص “ابدأ” لخط نص الأزمة في 741-741. اتصل بخط دعم NAMI على الرقم 1-800-950-NAMI ، من الاثنين إلى الجمعة ، من الساعة 10:00 إلى 22:00 ET ، أو البريد الإلكتروني (البريد الإلكتروني المحمي). إذا كنت لا تحب الهاتف ، ففكر في استخدام 988 الانتحار ودردشة شريان الحياة في الأزمة Crisischat.org. هنا واحد قائمة الموارد الدولية.
الإفصاح: رفع Ziff Davis ، شركة Mashable’s Control Company ، في أبريل دعوى قضائية ضد Openai ، مدعيا أنه انتهك حقوق الطبع والنشر لـ Ziff Davis في تدريب وتشغيل أنظمة AI الخاصة به.