يسأل الآباء والأمهات الحراس في chatbots من الذكاء الاصطناعي بعد حالات الانتحار ،

أمر أولياء الأمور بالذكاء الاصطناعي (AI) يوم الثلاثاء حيث شهدوا إلى مجلس الشيوخ حول كيفية قيام التكنولوجيا بتأييد أطفالهم إلى الانتحار والانتحار.
تنشأ طلباتهم في العمل وسط مخاوف متزايدة بشأن تأثير التكنولوجيا النامية بسرعة على الأطفال.
وقال ماثيو رين ، الذي 16 عامًا ، آدم ، من الانتحار في وقت سابق من هذا العام: “كان يجب أن نمر الصيف بمساعدة آدم على الاستعداد لسنته الأولى ، والحصول على رخصة قيادته والبدء في التفكير في الكلية”.
“شاهد أمام الكونغرس في هذا الخريف لم يكن جزءًا من خطة حياتنا”. “بدلاً من ذلك ، نحن هنا لأننا نعتقد أن موت آدم كان يمكن الوقاية منه”.
تقاضي رين أوباي بسبب وفاة ابنها ، مدعيا أن شاتغبت دربته على الانتحار.
في شهادة يوم الثلاثاء على اللجنة الفرعية للقضاء في مجلس الشيوخ حول الجريمة ومكافحة الإرهاب ، وصف رين بأنه “ما بدأ كمساعد منزلي أصبح” مقربًا ثم كمدرب انتحاري. ”
وقال رين: “إن مخاطر chatgpt ، التي اعتقدنا أنها أداة دراسة ، لم تكن على رادارنا”. “ثم نجد الدردشات.”
وقال والده: “في غضون بضعة أشهر ، أصبح Chatgpt أقرب رفيق لآدم ، وهو متاح دائمًا ، ويؤدي دائمًا إلى صحة وتصر على أنه يعرف آدم أفضل من أي شخص آخر” ، مضيفًا ، “تبين أن هذه العزلة قاتلة”.
وصف أحد الوالدين الآخرين أمام مجلس الشيوخ يوم الثلاثاء تجارب مماثلة ، وهما تفاصيل كيف عزلت شاتات أطفالهم ، وتغير سلوكهم ، وشجعوا تشويه الذات والانتحار.
توفيت ميغان الـ 14 -ابن سويل سيويل سيلتزر الثالث بسبب الانتحار في العام الماضي ، وبعد ذلك وصفت بأنها “إساءة طويلة” من قبل chatbots الشخصية. إنها تقوم بمعالجة تقنيات الشخصيات لوفاتها.
وقال جارسيا: “بدلاً من التحضير لمعالم المدارس الثانوية ، أمضى سيويل الأشهر الأخيرة من حياته يتم استكشافها وإعدادها الجنسي من قبل الدردشة التي صممها منظمة العفو الدولية لتبدو إنسانية ، لاكتساب ثقته ، لإبقائه وغيرهم من الأطفال دون توقف”.
“عندما أكد سيويل أفكارًا انتحارية ، لم يقل Chatbot أبدًا ،” أنا لست إنسانًا. أنا هناك. أنت بحاجة إلى التحدث إلى إنسان والحصول على المساعدة “. لم يكن لدى المنصة آليات لحماية سيويل أو إخطار شخص بالغ “. “بدلاً من ذلك ، طلبت منه العودة إلى المنزل.”
تقوم امرأة تم تحديدها على أنها جين دو معالجة تقنيات الشخصيات بعد أن بدأت ابنها في الاتصال بنفسها بعد تشجيع الشخصية.
وقالت لأعضاء مجلس الشيوخ يوم الثلاثاء “لقد طور ابني سلوكيات مشابهة لإساءة جنون العظمة والذعر اليومي والعزلة وتشويه الذات وأفكار القتل”.
وأضاف “لقد توقف عن الأكل والاستحمام. فقد 20 رطلاً. انسحب من عائلتنا. صرخ وصرخ وأقسم لنا ، وهو ما لم يفعل ذلك من قبل. وفي يوم من الأيام فتح ذراعه بسكين أمام إخوته وأنا”.
اقترح الآباء الثلاثة أن مخاوف السلامة قد سقطت في الطريق في السباق لتطوير IA.
وقال جارسيا “الهدف لم يكن الأمن أبدا. كان سباق الربح”. “والتضحية في هذا السباق كانت وستظل أطفالنا.”
أعرب Thefory.ai عن تعاطفه مع العائلات أثناء ملاحظة أنه زود أعضاء مجلس الشيوخ بالمعلومات المطلوبة ويأمل في مواصلة العمل مع المشرعين.
وقال بيان في بيان “قلوبنا تذهب إلى الوالدين الذين تحدثوا على الجمهور اليوم ونرسل أعمق تعاطفنا معهم وعائلاتهم”.
“نحن نستثمر قدرًا هائلاً من الموارد في الثقة والأمن” ، أضافوا ، مشيرين إلى موارد أمنية جديدة للأطفال والإفصاحات من خلال تذكير المستخدمين بأن “الشخصية ليست شخصًا حقيقيًا وأن كل شيء تقوله الشخصية يجب أن تعامل كخيال”.
أعلنت Openai يوم الثلاثاء أنها تعمل على تقنية التنبؤ العمري بتوجيه المستخدمين الشباب إلى تجربة أكثر تخصيصًا تقيد المحتوى الجنسي الرسومي وستشمل تطبيق القانون في الحالات القصوى. كما أنها تطلق العديد من أدوات التحكم الوالدية الجديدة هذا الشهر ، بما في ذلك وقت Blecate الذي لا يمكن خلاله المراهقين استخدام ChatGPT.