ما هي المخاطر التي يشكلها الذكاء الاصطناعي؟

ما هي المخاطر التي يشكلها الذكاء الاصطناعي؟

في نهاية شهر مارس ، وقع 1000 من قادة التكنولوجيا والباحثين والباحثين الآخرين في مجال الذكاء الاصطناعي وما حوله رسالة مفتوحة تقول إن تقنيات الذكاء الاصطناعي تمثل “مخاطر عميقة على المجتمع والإنسانية”.

حثت مجموعة تضم الرئيس التنفيذي لشركة Tesla ومالك Twitter Elon Musk مختبرات الذكاء الاصطناعي على وقف تطوير أنظمتها القوية لمدة ستة أشهر حتى يتمكنوا من فهم المخاطر الكامنة وراء التكنولوجيا بشكل أفضل.

وجاء في الرسالة: “يجب تطوير أنظمة ذكاء اصطناعي قوية فقط إذا كنا واثقين من أن آثارها ستكون إيجابية ويمكن التحكم في مخاطرها”.

كانت الرسالة ، التي تضم الآن أكثر من 27000 توقيع ، مقتضبة. كانت لغتها شاسعة. بعض الأسماء وراء الرسالة هي AI Mr. يبدو أن ماسك لديه علاقة عدائية مع ، على سبيل المثال ، الذي يقوم ببناء شركة AI الناشئة الخاصة به وهو أحد المانحين الأساسيين للشركة التي كتبت الرسالة.

لكن الرسالة تعكس القلق المتزايد بين خبراء الذكاء الاصطناعي من أن الأنظمة الحديثة ، ولا سيما GPT-4 ، وهي تقنية قدمتها شركة OpenAI الناشئة في سان فرانسيسكو ، يمكن أن تضر المجتمع. كانوا يعتقدون أن الأنظمة المستقبلية ستكون أكثر خطورة.

لقد ظهرت بعض المخاطر. البعض الآخر لا يستغرق شهورًا أو سنوات. البعض الآخر خيالي بحت.

قال يوشوا بنجيو ، الأستاذ وباحث الذكاء الاصطناعي في جامعة مونتريال: “قدرتنا على فهم الأخطاء التي يمكن أن تحدث في أقوى أنظمة الذكاء الاصطناعي ضعيفة للغاية”. “لذلك علينا أن نكون حذرين للغاية.”

كان أهم شخص وقع الرسالة هو الدكتور بنجيو.

العمل مع اثنين من الأكاديميين الآخرين – جيفري هينتون ، باحث في Google حتى وقت قريب ، و Yann LeCun ، الآن كبير علماء الذكاء الاصطناعي في Meta ، مالك Facebook – أمضى الدكتور بنجيو العقود الأربعة الماضية في تطوير التكنولوجيا التي تدعم أنظمة مثل GPT- 4. . في عام 2018 ، حصل الباحثون على جائزة تورينج ، المعروفة باسم “جائزة نوبل للحوسبة” لعملهم على الشبكات العصبية.

READ  انتهت إثارة تحديثات نظام التشغيل الرئيسية لجميع طرز Galaxy S10 و Note 10

الشبكة العصبية هي نظام رياضي يتعلم المهارات من خلال تحليل البيانات. منذ حوالي خمس سنوات ، بدأت شركات مثل Google و Microsoft و OpenAI في بناء شبكات عصبية تعلمت من كميات كبيرة من النصوص الرقمية ، والمعروفة باسم نماذج اللغات الكبيرة أو LLMs.

من خلال تدوين الأنماط في هذا النص ، يتعلم LLM إنشاء نص بمفرده ، بما في ذلك منشورات المدونة والقصائد وبرامج الكمبيوتر. يمكنهم حتى إجراء محادثة.

تساعد هذه التقنية مبرمجي الكمبيوتر والكتاب والعاملين الآخرين على توليد الأفكار وإنجاز المهام بشكل أسرع. لكن د. كما حذر بينجيو وخبراء آخرون من أن LLMs يمكن أن تتعلم السلوكيات غير المرغوب فيها وغير المتوقعة.

يمكن أن تولد هذه الأنظمة معلومات خاطئة ومتحيزة وسامة. تتلقى أنظمة مثل GPT-4 حقائق خاطئة وتخلق معلومات ، تُعرف باسم “الهلوسة”.

تعمل الشركات على حل هذه المشاكل. لكن الخبراء مثل الدكتور بنجيو قلقون من أنه بينما يجعل الباحثون هذه الأنظمة أكثر قوة ، يمكن أن يتسببوا في مخاطر جديدة.

نظرًا لأن هذه الأنظمة توفر المعلومات بثقة تامة ، فقد يكون من الصعب فصل الحقيقة عن الخيال عند استخدامها. يشعر الخبراء بالقلق من أن الناس سيعتمدون على هذه الأنظمة للحصول على المشورة الطبية والدعم العاطفي والمعلومات الأولية التي يستخدمونها لاتخاذ القرارات.

قال Subbarao Kambambatti ، أستاذ علوم الكمبيوتر في جامعة ولاية أريزونا: “ليس هناك ما يضمن أن هذه الأنظمة ستكون صحيحة لأية مهمة تكلفها بها”.

يشعر الخبراء بالقلق أيضًا من أن الناس سوف يسيئون استخدام هذه الأنظمة لنشر معلومات كاذبة. لأنهم يستطيعون التواصل بطرق شبيهة بالبشر ، يمكن أن يكونوا مقنعين بشكل مدهش.

READ  تحجب Google لعبة معركة جرافتون الملكية في الهند ، مستشهدة بالحظر الحكومي

قال الدكتور بنجيو: “لدينا الآن أنظمة يمكنها التواصل معنا من خلال اللغة الطبيعية ولا يمكنها التمييز بين الحقيقي والمزيف”.

يشعر الخبراء بالقلق من أن الذكاء الاصطناعي الجديد قد يكون قاتلاً للوظائف. حاليًا ، تكمل تقنيات مثل GPT-4 القوى العاملة البشرية. لكن OpenAI تقر بأنها يمكن أن تحل محل بعض العاملين على الإنترنت ، بما في ذلك أولئك الذين يشرفون على المحتوى.

لا يمكنهم حتى الآن تكرار عمل المحامين أو المحاسبين أو الأطباء. لكن يمكنهم استبدال المساعدين القانونيين والمساعدين الشخصيين والمترجمين.

مقال كتبه باحثو OpenAI تشير التقديرات إلى أن 80 في المائة من القوى العاملة الأمريكية مع ماجستير في القانون تؤثر على 10 في المائة على الأقل من مهام عملهم ، ويؤثر 19 في المائة من العمال على 50 في المائة على الأقل من مهامهم.

قال أورين إتزيوني ، الرئيس التنفيذي لمعهد ألين للذكاء الاصطناعي ، وهو مختبر أبحاث في سياتل: “هناك علامة على أن وظائف الطرق ستختفي”.

يعتقد بعض الموقعين على الرسالة أيضًا أن الذكاء الاصطناعي يمكن أن يخرج عن سيطرتنا أو يدمر البشرية. لكن العديد من الخبراء يقولون إنه مرتفع للغاية.

كتب الرسالة فريق من معهد Future of Life ، وهي منظمة مكرسة للبحث في المخاطر الوجودية على البشرية. وهم يحذرون من أن أنظمة الذكاء الاصطناعي تتعلم سلوكًا غير متوقع من الكميات الهائلة من البيانات التي تحللها ، ويمكن أن تسبب مشاكل خطيرة وغير متوقعة.

نظرًا لأن الشركات تقوم بتوصيل LLM بخدمات الإنترنت الأخرى ، فإنها تشعر بالقلق من أن هذه الأنظمة قد تكتسب قوى غير متوقعة لأنها تستطيع كتابة كود الكمبيوتر الخاص بها. يقولون إن المطورين سيخلقون مخاطر جديدة إذا سمحوا لأنظمة الذكاء الاصطناعي القوية بتشغيل التعليمات البرمجية الخاصة بهم.

READ  شاشة قفل iOS 16: كيفية تخصيص iPhone

قال أنتوني أغيري ، عالم الكونيات النظري والفيزيائي في جامعة كاليفورنيا ، سانتا كروز ، والمؤسس المشارك لـ Future: “إذا نظرت مباشرة إلى ما وصلنا إليه بعد ثلاث سنوات من الآن ، فستكون الأمور مختلفة تمامًا”. شركة لايف.

قال: “إذا أخذت السيناريو الأقل احتمالًا – حيث تبدأ الأشياء حقًا ، حيث لا توجد حوكمة حقيقية ، وتصبح هذه الأنظمة أقوى مما كنا نظن – عندها تصبح الأمور مجنونة حقًا”.

قال د. إتزيوني إن الحديث عن الخطر الوجودي وهمي. لكنه قال إن المخاطر الأخرى – وخاصة المعلومات المضللة – لم تعد تكهنات.

قال “الآن لدينا بعض المشاكل الحقيقية”. “إنهم صادقون. تتطلب بعض ردود الفعل المسؤولة. قد يحتاجون إلى تنظيم وتشريع “.

By Halim Abdullah

"مهووس البيرة. النينجا الشرير لثقافة البوب. عالم القهوة في الحياة. مدرس محترف للإنترنت. مدرس اللحوم."