حث Elon Musk على تعليق التجارب الكبيرة على الذكاء الاصطناعي
Miscellanea / / April 03, 2023
تم دعمه من قبل كبار الباحثين في الصناعة.
نشرت منظمة Future of Life Institute غير الربحية رسالة مفتوحة موقعة من Elon Musk ، المؤسس المشارك لشركة Apple ستيف وزنياك ، المؤسس المشارك لـ Skype ، جان تالين ، بالإضافة إلى باحثين ومديرين تنفيذيين آخرين في مجال الذكاء الاصطناعي من الشركات الكبيرة.
تزعم الرسالة أن المختبرات عالقة في "سباق خارج عن السيطرة" للتطوير والتقديم أنظمة التعلم الآلي التي "لا يستطيع أحد - ولا حتى منشئوها - فهمها أو توقعها أو بثقة يتحكم". إليك ما يقترحه المؤلفون:
ندعو جميع مختبرات الذكاء الاصطناعي إلى تعليق التدريب فورًا على أنظمة الذكاء الاصطناعي الأكبر من GPT-4 لمدة 6 أشهر على الأقل. يجب أن يكون تعليق العمليات علنيًا ويمكن التحقق منه ، ويجب إشراك جميع اللاعبين الرئيسيين. إذا لم يكن من الممكن التوقف في المستقبل القريب ، يجب على حكومات الدول التدخل وفرض تجميد.
من Pause Giant AI Experiments: رسالة مفتوحة
تعبر الرسالة أيضًا عن عدم رضاها عن الموقف "سنطلقها كما هي ، وسنصلحها لاحقًا" عند تطوير الشبكات العصبية (تذكر على الأقل شاعر من جوجل). حتى افتح AI أثار بالفعل الحاجة المحتملة لعمليات تدقيق أمن الذكاء الاصطناعي في المستقبل. يعتقد مؤلفو الرسالة أن هذا المستقبل قد وصل بالفعل.
يجب على مطوري الذكاء الاصطناعي والخبراء المستقلين استخدام هذا الاستراحة للتطوير والتنفيذ بشكل مشترك بروتوكولات الأمان الموحدة لأنظمة الذكاء الاصطناعي المعقدة ، والتي سيتم التحقق من الامتثال لها من قبل جهات خارجية مستقلة خبراء. ستساعد هذه البروتوكولات في ضمان أمان الأنظمة بدرجة كافية للاستخدام.
من Pause Giant AI Experiments: رسالة مفتوحة
يمكن قراءة النص الكامل للرسالة هنا.
اقرأ أيضا🧐
- كيفية استخدام ChatGPT في Telegram والحصول بسرعة على إجابات لأي أسئلة بدون متصفح
- كيفية استخدام GPTZero ، أداة البحث عن النص التي أنشأتها ChatGPT
- "لن يحل ChatGPT محل عمل متخصص": مقابلة مع خبير Web 3.0 Stas Ustenko