يغطي المراسل المقيم في لندن سلع التجزئة والسلع الاستهلاكية ويحلل الاتجاهات ، بما في ذلك تغطية سلاسل التوريد واستراتيجيات الإعلان وحوكمة الشركات والاستدامة والسياسة والتنظيم. كتب سابقًا عن تجار التجزئة في الولايات المتحدة والمؤسسات المالية الكبرى ودورة طوكيو للألعاب الأولمبية 2020.
لندن / واشنطن (رويترز) – وجد استطلاع أجرته رويترز وإيبسوس أن العديد من العمال في جميع أنحاء الولايات المتحدة يتجهون إلى ChatGPT للمساعدة في المهام الأساسية ، على الرغم من المخاوف التي دفعت أرباب العمل مثل مايكروسوفت وجوجل إلى تقييد استخدامها.
تدرس الشركات في جميع أنحاء العالم أفضل السبل لاستخدام ChatGPT ، وهو برنامج chatbot يستخدم الذكاء الاصطناعي لإجراء محادثات مع المستخدمين والاستجابة لعدد لا يحصى من المطالبات. ومع ذلك ، أثارت شركات وشركات الأمن مخاوف من أن يؤدي ذلك إلى الملكية الفكرية والتسريبات الاستراتيجية.
تعد صياغة رسائل البريد الإلكتروني وتلخيص المستندات وإجراء البحوث الأولية أمثلة على الأشخاص الذين يستخدمون ChatGPT للمساعدة في مهامهم اليومية.
قال حوالي 28 ٪ من المشاركين في استطلاع عبر الإنترنت حول الذكاء الاصطناعي (AI) بين 11 و 17 يوليو إنهم يستخدمون ChatGPT بانتظام في العمل.
أظهر استطلاع أجرته رويترز / إبسوس على 2625 من البالغين في جميع أنحاء الولايات المتحدة نفس فجوة المصداقية.
قال حوالي 10٪ ممن شملهم الاستطلاع إن أرباب عملهم حظروا صراحة أدوات الذكاء الاصطناعي الخارجية ، بينما لم يعرف 25٪ ما إذا كانت شركتهم تسمح لهم باستخدام التكنولوجيا.
أصبح ChatGPT التطبيق الأسرع نموًا في التاريخ بعد إطلاقه في نوفمبر. وقد أدى ذلك إلى إثارة كل من الإثارة والقلق ، مما أدى إلى دخول مطور OpenAI إلى صراع مع المنظمين ، لا سيما في أوروبا ، حيث أثار جمع البيانات الجماعية للشركة انتقادات من هيئات مراقبة الخصوصية.
يمكن للمراجعين البشريين من الشركات الأخرى قراءة أي من الدردشات التي تم إنشاؤها ، ووجد الباحثون أن ذكاءً اصطناعيًا مشابهًا يمكن أن يعيد إنتاج البيانات التي يتم امتصاصها أثناء التدريب ، مما يخلق خطرًا على معلومات الملكية.
قال بن كينج ، نائب رئيس ثقة العملاء في شركة أمن الشركات Okta (OKTA.O): “لا يفهم الناس كيفية استخدام البيانات عند استخدام خدمات الذكاء الاصطناعي التي يتم إنشاؤها”.
قال كينج: “إنه أمر مهم حقًا للشركات لأن المستخدمين لا يتعاقدون مع العديد من أنظمة الذكاء الاصطناعي – لأنها خدمة مجانية – لذلك لا تتعرض الشركات للمخاطر من خلال عملية التقييم المنتظمة”.
رفضت شركة OpenAI التعليق عندما سُئلت عن الآثار المترتبة على الموظفين الفرديين الذين يستخدمون ChatGPT ، لكنها سلطت الضوء على منشور مدونة للشركة حديثًا يؤكد لشركاء الشركة أن بياناتهم لن تُستخدم لمزيد من تدريب روبوت المحادثة ما لم يمنحوا إذنًا صريحًا.
عندما يستخدم الأشخاص شريط Google ، فإنه يجمع بيانات مثل النص والموقع ومعلومات الاستخدام الأخرى. تسمح الشركة للمستخدمين بحذف النشاط السابق من حساباتهم وتطلب إزالة المحتوى الموجود على الذكاء الاصطناعي. رفضت Google المملوكة لشركة Alphabet (GOOGL.O) التعليق عندما طُلب منها مزيد من التفاصيل.
لم ترد Microsoft (MSFT.O) على الفور على طلب للتعليق.
مهام مفيدة
قال موظف في Tinder في الولايات المتحدة إن العاملين في تطبيق المواعدة استخدموا ChatGPT من أجل “مهام غير ضارة” مثل كتابة رسائل البريد الإلكتروني ، على الرغم من أن الشركة لم تسمح بذلك رسميًا.
قال الموظف الذي رفض الكشف عن اسمه: “إنها رسائل بريد إلكتروني منتظمة. نستخدمها لإنشاء دعوات تقويم ممتعة لأحداث الفريق ، وداعًا لرسائل البريد الإلكتروني عندما يغادر شخص ما … حتى لأغراض البحث العام”. سلطة التحدث إلى الصحافة.
قال الموظف إن Tinder “ليس لديها قاعدة ChatGBT” ، لكن الموظفين يستخدمونها “بطريقة عامة لا تكشف أي شيء عن وجودنا على Tinder.”
لم تستطع رويترز التأكد بشكل مستقل من كيفية استخدام الموظفين في Tinder لـ ChatGPT. وقالت Tinder إنها قدمت “إرشادات منتظمة للموظفين بشأن أفضل ممارسات الأمان والبيانات.”
في مايو ، حظرت Samsung Electronics عالميًا استخدام ChatGPT وأدوات الذكاء الاصطناعي المماثلة بعد أن تبين أن أحد الموظفين قد قام بتحميل رمز حساس إلى النظام الأساسي.
قالت سامسونج في بيان صدر في 3 أغسطس: “إننا نراجع التدابير اللازمة لخلق بيئة آمنة لاستخدام الذكاء الاصطناعي من شأنها تحسين إنتاجية الموظفين وكفاءتهم”.
“ومع ذلك ، إلى أن تصبح هذه الإجراءات جاهزة ، فإننا نقيد مؤقتًا استخدام الذكاء الاصطناعي الذي تولده أجهزة الشركة.”
ذكرت رويترز في يونيو أن Alphabet حذرت الموظفين من كيفية استخدامها لبرامج الدردشة ، بما في ذلك Google Bart ، أثناء تسويق البرنامج عالميًا.
على الرغم من أن Bart يمكنه تقديم اقتراحات تعليمات برمجية غير مرغوب فيها ، إلا أن Google قالت إنها تساعد المبرمجين. وقالت أيضًا إنها تهدف إلى أن تكون شفافة بشأن قيود تقنيتها.
حواجز بطانية
وقالت بعض الشركات لرويترز إنها تتبنى موقع ChatGPT ومواقع مماثلة لأسباب أمنية.
قال متحدث باسم شركة Coca-Cola في أتلانتا بولاية جورجيا: “لقد بدأنا الاختبار والتعرف على كيفية قيام الذكاء الاصطناعي بتحسين الكفاءة التشغيلية ، وتبقى البيانات داخل جدار الحماية الخاص بها.
قال المتحدث: “داخليًا ، أطلقنا مؤخرًا نسخة مؤسسية من Coca-Cola ChatGPT للإنتاجية” ، مضيفًا أن شركة Coca-Cola تخطط لاستخدام الذكاء الاصطناعي لتحسين كفاءة وإنتاجية فرقها.
في غضون ذلك ، قال المدير المالي لشركة Tate & Lyle (TATE.L) ، دان ألين ، لرويترز ، إن الشركة العالمية المصنعة للمكونات تختبر ChatGPT و “وجدت طريقة لاستخدامها بطريقة آمنة”.
“لدينا فرق مختلفة تقرر كيفية استخدامها من خلال الاختبار المستمر. هل يجب أن نستخدمها في علاقات المستثمرين؟ هل يجب استخدامها في إدارة المعرفة؟ كيف يمكننا استخدامها لإنجاز المهام بشكل أكثر كفاءة؟”
يقول بعض الموظفين إنهم لا يستطيعون الوصول إلى النظام الأساسي على أجهزة كمبيوتر الشركة.
قال أحد موظفي شركة بروكتر آند جامبل ، الذي تحدث شريطة عدم الكشف عن هويته لأنه غير مخول بالتحدث إلى المراسلين: “إنه محظور تمامًا على شبكة المكاتب ولا يعمل”.
وامتنعت شركة بروكتر آند جامبل عن التعليق. لم تتمكن رويترز بشكل مستقل من تأكيد ما إذا كان الموظفون في P&G غير قادرين على استخدام ChatGPT.
قال بول لويس ، كبير مسؤولي أمن المعلومات في شركة Nominet للأمن السيبراني ، إن الشركات محقة في توخي الحذر.
وقال: “يستفيد الجميع من هذه القدرة المتزايدة ، لكن المعلومات ليست آمنة تمامًا ويمكن التلاعب بها” ، مشيرًا إلى “المحفزات الخبيثة” التي يمكن أن تستخدمها روبوتات الدردشة الآلية للوصول إلى المعلومات.
وقال لويس: “الحظر الشامل ليس مضمونًا بعد ، لكن علينا أن نتعامل بحذر”.
شارك في التغطية ريتشا نايدو ومارتن كولتر وجيسون لانج ؛ تحرير الكسندر سميث
معاييرنا: مبادئ الثقة في Thomson Reuters.
“متعصب للموسيقى. مستكشف متواضع جدا. محلل. متعصب للسفر. مدرس تلفزيوني متطرف. لاعب.”