“60 دقيقة” تقدم ادعاءً كاذبًا بشكل صادم حول روبوت الدردشة من Google AI

“60 دقيقة” تقدم ادعاءً كاذبًا بشكل صادم حول روبوت الدردشة من Google AI

نظرًا لأن OpenAI أطلق العنان لـ ChatGPT في العالم ، فقد رأينا ما لا يؤمن به أي شخص.

زعم البعض أن برامج الدردشة الآلية لديها أجندة حراسة. السناتور. غرد كريس مورفي (D-CT) أن ChatGPT “علمه” كيمياء أفضل. حتى صحفيي التكنولوجيا المخضرمين كتبوا قصصًا عن كيفية القيام بذلك وقع الشات بوت في حبهم. يبدو أن العالم يتفاعل مع الذكاء الاصطناعي بنفس الطريقة التي تفاعل بها رجال الكهف مع النار لأول مرة: الارتباك التام والكلام غير المتماسك.

أحد الأمثلة الحديثة يأتي من 60 دقيقة، جعلت صوتها مسموعًا في حلقة جديدة ركزت على الابتكارات في مجال الذكاء الاصطناعي والتي تم بثها يوم الأحد على شبكة سي بي إس. تضمنت الحلقة مقابلات مع الرئيس التنفيذي لشركة Google Sundar Pichai وآخرين يخبرنا عن أحد نماذج اللغات الكبيرة للشركة (LLM).

يدور عنوان المقطع حول السلوك الناشئ ، والذي يصف أحد الآثار الجانبية غير المقصودة لنظام الذكاء الاصطناعي الذي لم يقصده بالضرورة مطورو النموذج. لقد رأينا بالفعل ظهور السلوك في مشاريع الذكاء الاصطناعي الحديثة الأخرى. على سبيل المثال ، استخدم الباحثون مؤخرًا ChatGPT لإنشاء شخصيات رقمية ذات أهداف وخلفيات في دراسة نُشرت على الإنترنت الأسبوع الماضي. لقد لاحظوا أن الكمبيوتر كان يؤدي العديد من السلوكيات الناشئة ، مثل مشاركة معلومات جديدة من شخصية إلى أخرى وتكوين علاقات مع بعضها البعض – وهو أمر لم يخطط له المؤلفون في البداية لجهاز الكمبيوتر.

السلوك الناشئ هو بالتأكيد موضوع مفيد للمناقشة في برنامج إخباري. أين ال 60 دقيقة ومع ذلك ، يأخذ المقطع منعطفًا عندما قدمنا ​​إلى الادعاء بأن chatbot الخاص بـ Google كان في الواقع قادرًا على تعليم نفسه لغة لم يعرفها بعد أن سُئل بهذه اللغة. وقال سكوت بيلي مراسل شبكة سي بي إس نيوز في المقطع “على سبيل المثال ، غيّر برنامج الذكاء الاصطناعي من Google نفسه تلقائيًا بعد أن سُئل بلغة بنجلاديشية لم يتم تدريبها على معرفتها”.

READ  تحصل سلسلة Samsung Galaxy S22 على أكبر تحديث للكاميرا منذ شهور

كان ذلك بكالوريوس كاملة. لا يقتصر الأمر على عدم قدرة الروبوت على تعلم لغة أجنبية “لم يتدرب على تعلمها مطلقًا” ، ولكنه لا يعلم مهارة جديدة. دفع المقطع بأكمله باحثي وخبراء الذكاء الاصطناعي للانتقال إلى Twitter لكشف الهيكل المعيب للبرنامج الإخباري.

قالت ميلاني ميتشل ، باحثة الذكاء الاصطناعي والأستاذة في معهد سانتا في: “آمل أن يراجع بعض الصحفيين مقال @ 60 دقيقة على Google Bard كدراسة حالة”. كتب في تغريدة.

“توقف عن التفكير السحري في التكنولوجيا! قال إم. أليكس أو.فاسيليسكو ، الباحث في معهد ماساتشوستس للتكنولوجيا ، “لا يمكن للذكاء الاصطناعي الرد باللغة البنغالية ما لم تكن بيانات التدريب ملوثة باللغة البنغالية أو تم إجهادها بلغة بنغالية مثل الأسامية أو الأوريا أو الهندية”. تمت الإضافة إلى منشور آخر.

ومن الجدير بالذكر 60 دقيقة لم يذكر المقطع بالضبط ما يستخدمه الذكاء الاصطناعي. ومع ذلك ، قال متحدث باسم CBS لصحيفة The Daily Beast إن المقطع لم يكن مناقشة لـ Bard ، ولكنه برنامج منفصل للذكاء الاصطناعي – تم دمج التكنولوجيا الأساسية له لاحقًا في Bard.

السبب الذي جعل هذا القسم محبطًا جدًا لهؤلاء الخبراء هو أنه يتجاهل حقيقة ما يمكن أن يفعله الذكاء الاصطناعي الإبداعي. لا يمكنها “تعليم” نفسها لغة إذا لم يكن لها حق الوصول في المقام الأول. إنها مثل محاولة تعليم نفسك لغة الماندرين ، لكنك لم تسمع لغة الماندرين إلا بعد أن يطلب منك أحدهم ذلك.

بعد كل شيء ، اللغة معقدة بشكل لا يصدق – مع الفروق الدقيقة والقواعد التي تتطلب قدرًا لا يصدق من السياق للفهم والتواصل. حتى LLM الأكثر تقدمًا ليس لديها طريقة لفهم وتعلم كل شيء من خلال عدد قليل من المطالبات.

READ  هل يعرف بارد عدد المرات التي يظهر فيها الحرف "e" في "الكاتشب"؟

تم تدريب BalM بالفعل في البنغالية ، اللغة الرئيسية في بنغلاديش. أوضحت مارجريت ميتشل (لا علاقة لها) ، الباحثة في مختبر بدء التشغيل في AT HuggingFace والتي كانت تعمل سابقًا في Google ، هذا الأمر. سقسقة الموضوع يقدم حجة لماذا 60 دقيقة كان خطأ.

في العرض التوضيحي لميتشل ، 2022 ، أظهرت Google أن PalmM يمكنها التواصل والرد على التعليمات باللغة البنغالية. ال ورق خلف PalM كشفت ورقة البيانات أن النموذج تم تدريبه بالفعل على لغة بها حوالي 194 مليون رمز في الأبجدية البنغالية.

لذلك لا يتعلم أي شيء بطريقة سحرية من موجه. إنه يعرف اللغة بالفعل.

ليس من الواضح لماذا سمح بيتشاي ، الرئيس التنفيذي لشركة Google ، لنفسه بالجلوس لإجراء مقابلة وتقديم هذه الادعاءات دون أي معارضة. (لم تستجب Google لطلبات التعليق). منذ بث الحلقة ، التزم الصمت ، على الرغم من إشارة الخبراء إلى ادعاءات كاذبة ومضللة في المقطع.

على تويتر مارجريت ميتشل مُستَحسَن والسبب هو مزيج من قيادة Google التي لا تعرف كيف تعمل منتجاتها وتترك الضجة الحالية حول الذكاء الاصطناعي.

“أنا أشك في ذلك [Google executives] لا أفهم حقًا كيف يعمل ، “ميتشل تغريد. “ما كتبته أعلاه قد يكون أخبارًا لهم. إنهم متحمسون لعدم الفهم (أغمض عينيك عن ورقة البيانات هذه !!) “.

يمكن أن يُنظر إلى النصف الثاني من الفيديو على أنه معقد ، حيث يناقش Pitch and Belle قصة قصيرة أنشأها الشاعر والتي “بدت إنسانية بشكل مثير للانزعاج” وتركت كلاهما في حالة اهتزاز طفيف.

الحقيقة هي أن هذه المنتجات ليست سحرية. لا يمكن أن يكونوا “بشرًا” لأنهم ليسوا بشرًا. إنهم متنبئون بالنص مثل أولئك الموجودين على هاتفك ، وقد تم تدريبهم على ابتكار أكثر الكلمات والعبارات المرغوبة بعد سلسلة من الكلمات في العبارات. يمكن أن يمنحهم قولهم مستوى من القوة يمكن أن يكون خطيرًا بشكل لا يصدق.

READ  داون – اوقات نيويورك

بعد كل شيء ، يمكن للناس استخدام أنظمة الذكاء الاصطناعي التوليدية هذه للقيام بأشياء مثل نشر المعلومات الخاطئة. لقد رأينا بالفعل أن هذا يتجلى في عمق شخصيات الناس وأصواتهم.

يمكن أن يكون روبوت المحادثة ضارًا إذا كان ينتج عنه نتائج متحيزة – كما رأينا بالفعل مع أمثال ChatGPT و Bard. بمعرفة نزوع روبوتات المحادثة هذه إلى خلق الهلوسة والنتائج ، فهي قادرة على نشر معلومات كاذبة للمستخدمين المطمئنين.

يؤكد البحث هذا. دراسة حديثة نشرت في التقارير العلمية تم العثور على ردود البشر على الأسئلة الأخلاقية تتأثر بسهولة بالحجج التي قدمتها ChatGPT – وأظهر المستخدمون القليل جدًا من المؤشرات حول مدى تأثرهم بالروبوتات.

على الادعاءات الكاذبة 60 دقيقة في وقت نحن في أمس الحاجة فيه إلى محو الأمية الرقمية ، فهي بالفعل علامة على وجود حاجة ماسة. يقول العديد من خبراء الذكاء الاصطناعي إنه الآن أكثر من أي وقت مضى ، يحتاج الناس إلى معرفة ما يمكن للذكاء الاصطناعي فعله وما لا يمكنه فعله. يجب توصيل هذه الحقائق الأساسية حول الروبوتات بشكل فعال للجمهور الأوسع.

يتحمل أولئك الذين لديهم أكبر المنصات وأصوات أعلى (أي وسائل الإعلام والسياسيون والمديرين التنفيذيين للتكنولوجيا الكبيرة) مسؤولية أكبر لضمان مستقبل أكثر أمانًا وتعليمًا فيما يتعلق بالذكاء الاصطناعي. إذا لم نفعل ذلك ، فقد نلعب بسحر النار مثل رجال الكهوف المذكورين أعلاه ونحرق أنفسنا في هذه العملية.

By Halim Abdullah

"مهووس البيرة. النينجا الشرير لثقافة البوب. عالم القهوة في الحياة. مدرس محترف للإنترنت. مدرس اللحوم."