يتم إطلاق حملة “AI Red Lines” على الأمم المتحدة ، إليك ما يمكن أن تكون عليه.

ال خطوط حمراء هناك تم إطلاق المبادرة في الجمعية العامة للأمم المتحدة يوم الثلاثاء – المكان المثالي لبيان غير محدد للغاية.

أكثر من 200 مكاسب من جائزة نوبل وغيرهم من خبراء الذكاء الاصطناعي (بما في ذلك المؤسس المشارك لـ Openai Wojciech Zaremba) ، بالإضافة إلى 70 مؤسسة تتعامل مع AI (بما في ذلك Google Deepmind و Anthropio) ، وقعت خطابًا يطلب خطوطًا حمراء عالمية لتجنب AI غير المقبول. “

“لقد أظهرت أنظمة الذكاء الاصطناعى بالفعل سلوكيات مضللة ومضللة ، ومع ذلك فإن هذه الأنظمة تتلقى مزيدًا من الحكم الذاتي” ، قالت الرسالة ، وهي تحدد فترة 2026 بحيث يتم تنفيذ توصيتها: “اتفاق دولي على خطوط حمراء واضحة ويمكن التحقق منها ضرورية لمنع المخاطر غير المقبولة عالميًا”.

عادلة بما فيه الكفاية ، ولكن ماذا خطوط حمراء ، بالضبط؟ تقول الرسالة فقط أن هذه المعلمات “يجب أن تطور وتطبيق الهياكل العالمية الحالية والتزامات الشركات التطوعية ، مما يضمن أن جميع موردي الذكاء الاصطناعى المتقدمين مسؤولون عن الحدود المشتركة.”

انظر أيضا:

حاولت أن أتعلم من معلم منظمة العفو الدولية للأنثروبور. شعرت كأنني عدت إلى الكلية.

قد يكون الافتقار إلى التفاصيل ضروريًا للحفاظ على تحالف فضفاض للغاية من الموقعين معًا. وهي تشمل منبهات الذكاء الاصطناعي مثل جيفري هينتون ، 77 عامًا ، “عراب الذكاء الاصطناعي” ، الذي قضى السنوات الثلاث الأخيرة في التنبؤ بأشكال مختلفة من تدمير وصول وشيك العصور (الذكاء الاصطناعي العام) ؛ تتضمن القائمة أيضًا متشككين من الذكاء الاصطناعى ، مثل العالم المعرفي غاري ماركوس ، الذي قضى السنوات الثلاث الماضية في إخبارنا بذلك هذا ليس كذلك الوصول قريبا.

ما الذي يمكن أن يتفقوا معه جميعًا؟ لهذا السبب ، ما الذي يمكن أن توافق عليه الحكومات بالفعل مع الذكاء الاصطناعي ، وخاصة الولايات المتحدة والصين ، وتثق ببعضها البعض في التنفيذ؟ سؤال جيد.

سرعة الضوء القابلة للضوء

ربما ، جاء الاستجابة الأكثر ملموسًا لتوقيع ستيوارت راسل ، أستاذ علوم الكمبيوتر في جامعة كاليفورنيا في بيركلي ، بعد محاولة سابقة للحديث عن الخطوط الحمراء في قمة أمن الذكاء الاصطناعى العالمي 2023. في مقال بعنوان “Turn Ai Safe أو Do Safe Security؟” كتب راسل تقدم شركات الذكاء الاصطناعى “محاولات بعد تقليل السلوك غير المقبول عند بناء نظام الذكاء الاصطناعى”. واعتبر أنه مع نهج الخط الأحمر: ضمان أمن التصميم الداخلي منذ البداية ، ولن يكون “السلوك غير المقبول” ممكنًا أولاً.

وكتب راسل: “يجب أن يقول المطورين ، بثقة عالية ، أن أنظمتهم لن تظهر سلوكيات ضارة”. “هناك تأثير جانبي مهم لتنظيم الخط الأحمر سيكون زيادة موارد هندسة أمان المطورين.”

في مقالته ، وصل راسل إلى أربعة أمثلة للخط الأحمر: يجب ألا تحاول أنظمة AMA التكرار ؛ يجب ألا يحاولوا أبدًا غزو أنظمة الكمبيوتر الأخرى ؛ لا ينبغي أن يكون لديهم تعليمات حول تصنيع البيولوجية. ويجب ألا يسمح إنتاجك “بتصريحات خاطئة وضارة عن أناس حقيقيين”.

من وجهة نظر 2025 ، يمكننا إضافة خطوط حمراء تتعامل مع التهديدات الحالية المستمرة لذهان الذكاء الاصطناعي و AI chatbots التي يمكن التلاعب بها لتقديم المشورة الانتحارية.

يمكننا جميعًا أن نتفق مع ذلك ، أليس كذلك؟

انظر أيضا:

كل ما تحتاج لمعرفته عن رفاق IA

المشكلة هي أن راسل يعتقد أيضًا أنه لا يوجد نموذج لغوي كبير (LLM) “قادر على إظهار الامتثال” ، حتى مع متطلبات الخط الأحمر الأربعة. لماذا؟ لأنهم محركات من الكلمات التنبؤية التي لا تفهم بشكل أساسي ما يقولونه. إنهم غير قادرين على التفكير ، حتى في كسر المنطق الأساسي ، و على نحو متزايد “الهلوسة” الإجابات لإرضاء المستخدمين.

تعني السلامة الحقيقية للخط الأحمر من الذكاء الاصطناعي بلا شك أنه لن يتم السماح بأي من نماذج الذكاء الاصطناعى الحالية في السوق. هذا لا يزعج راسل. كما يشير ، لا نهتم بأن الامتثال صعب عندما يتعلق الأمر بالطب أو الطاقة النووية. ننظم بغض النظر عن النتيجة.

ولكن هل ستقوم الفكرة بأن الشركات ستقوم طوعًا بإيقاف نماذجها حتى يتمكنوا من إثبات المنظمين أنه لن يأتي أي ضرر للمستخدمين؟ هذا هو هلوسة أكبر من أي شيء يمكن أن تنشئه chatgpt.

موضوعات
الذكاء الاصطناعي

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى