- سام التمان ، الرئيس التنفيذي لشركة OpenAI ، صانع ChatGBT ، والمديرون التنفيذيون من قسم الذكاء الاصطناعي في Google DeepMind و Microsoft هم من بين الموقعين على الموجز.
- وقال التقرير: “يجب أن يكون التخفيف من خطر الانقراض من الذكاء الاصطناعي أولوية عالمية إلى جانب المخاطر المجتمعية الأخرى مثل الأوبئة والحرب النووية”.
- حذر قادة التكنولوجيا الآخرون ، مثل Elon Musk من Tesla والرئيس التنفيذي السابق لشركة Google ، إريك شميدت ، من المخاطر التي يشكلها الذكاء الاصطناعي على المجتمع.
يظهر تطبيق Microsoft Ping الذي يعمل على جهاز iPhone في هذا الرسم التوضيحي للصور في 30 مايو 2023 في وارسو ، بولندا. (تصوير Job Arians / NurPhoto عبر Getty Images)
أريانس الوظيفة | نورفوتو | صور جيدة
قال خبراء الصناعة وقادة التكنولوجيا في بيان إن الذكاء الاصطناعي يمكن أن يؤدي إلى انقراض الإنسان ويجب أن يكون تقليل المخاطر المرتبطة بالتكنولوجيا أولوية عالمية. خطاب مفتوح.
وجاء في تقرير يوم الثلاثاء أن “التخفيف من خطر الانقراض من الذكاء الاصطناعي يجب أن يكون أولوية عالمية إلى جانب المخاطر المجتمعية الأخرى مثل الأوبئة والحرب النووية”.
سام التمان ، الرئيس التنفيذي لشركة OpenAI ، صانع ChatGBT ، والمديرون التنفيذيون من ذراع الذكاء الاصطناعي لشركة Google DeepMind و Microsoft هم من بين الموقعين على البيان القصير لمركز AI Security.
اكتسبت التكنولوجيا زخمًا في الأشهر الأخيرة بعد إطلاق chatbot ChatGPD للاستخدام العام في نوفمبر. في غضون شهرين من إطلاقه ، وصل إلى 100 مليون مستخدم. لقد أذهل ChatGPT الباحثين والجمهور على حد سواء بقدرته على توليد استجابات شبيهة بالبشر لمطالبات المستخدم.
وقال التقرير يوم الثلاثاء إن هناك نقاشا متزايدا حول “مجموعة واسعة من المخاطر الحرجة والعاجلة من الذكاء الاصطناعي”.
لكنها قالت إنه “من الصعب التعبير عن المخاوف بشأن بعض المخاطر الأكثر خطورة للذكاء الاصطناعي المتقدم” وتعتزم فتح مناقشات للتغلب على هذه العقبة.
عززت ChatGPT الوعي بالذكاء الاصطناعي واعتماده حيث تتسابق الشركات الكبرى في جميع أنحاء العالم لتطوير المنتجات والقدرات المنافسة.
اعترف ألتمان في مارس / آذار بأنه “خائف قليلاً” من الذكاء الاصطناعي لأنه يخشى أن تطور الحكومات الاستبدادية التكنولوجيا. قادة التكنولوجيا الآخرين مثل Tesla’s Elon Musk و ex حذر إريك شميدت ، الرئيس التنفيذي لشركة Google ، من مخاطر الذكاء الاصطناعي على المجتمع.
في رسالة مفتوحة في مارس / آذار ، حث ماسك والمؤسس المشارك لشركة Apple ستيف وزنياك والعديد من قادة التكنولوجيا مختبرات الذكاء الاصطناعي على التوقف عن تدريبهم ليكونوا أقوى من GPT-4 – أحدث نموذج لغة رئيسي لـ OpenAI. ودعوا أيضا إلى توقف لمدة ستة أشهر لمثل هذا التطوير المتقدم.
وجاء في الرسالة: “أصبحت أنظمة الذكاء الاصطناعي الحديثة الآن قادرة على المنافسة البشرية في المهام المشتركة”.
“هل يجب علينا أتمتة جميع الأعمال ، بما في ذلك الإنجاز؟ هل يجب علينا إنشاء عقول خارقة ستتجاوز في النهاية عددًا ، أو يفوق عددها ، أو تصبح عفا عليها الزمن وتحل محلنا؟ هل نفقد السيطرة على حضارتنا؟” سأل الخطاب.
في الأسبوع الماضي ، حذر شميدت أيضًا بشكل منفصل من “المخاطر الوجودية” المرتبطة بالذكاء الاصطناعي مع تقدم التكنولوجيا.
“متعصب للموسيقى. مستكشف متواضع جدا. محلل. متعصب للسفر. مدرس تلفزيوني متطرف. لاعب.”