- قامت شركة OpenAI بتعيين المدير السابق لوكالة الأمن القومي بول ناكاسوني في مجلس إدارتها.
- يهدف تعيين ناكاسوني إلى تحسين أمن الذكاء الاصطناعي، لكنه يثير مخاوف تتعلق بالمراقبة.
- كما تم أيضًا حل فريق الأمن الداخلي للشركة بشكل فعال.
لديها حراس أمن سريين يتربصون خارج مكتبها. وعينت مديرًا سابقًا لوكالة الأمن القومي في مجلس إدارتها. وتم حل فرقة العمل الداخلية لتعزيز الاستخدام الآمن للذكاء الاصطناعي بشكل فعال.
أشعر أن OpenAI ينفتح أكثر قليلاً كل يوم.
في أحدث تحركاتها المثيرة للدهشة، قامت الشركة قال الجمعة عين مدير وكالة الأمن القومي السابق بول ناكاسوني في مجلس إدارتها.
وبالإضافة إلى قيادة وكالة الأمن القومي، ترأس ناكاسوني أيضًا القيادة السيبرانية الأمريكية، ذراع الأمن السيبراني لوزارة الدفاع. تقول OpenAI إن توظيف ناكاسوني يعكس “التزامها بالسلامة والأمن” ويؤكد على أهمية الأمن السيبراني مع استمرار الذكاء الاصطناعي في التطور.
وقال ناكاسوني في بيان: “إن التزامي بعمل OpenAI يتوافق بشكل وثيق مع قيمي وخبرتي في الخدمة العامة”. “إنني أتطلع إلى المساهمة في جهود OpenAI لضمان أن الذكاء الاصطناعي العام آمن ومفيد للناس في جميع أنحاء العالم.”
لكن المنتقدين يشعرون بالقلق من أن تعيين ناكاسوني يمثل شيئا آخر: المراقبة.
قال المخبر الأمريكي إدوارد سنودن، الذي سرب وثائق سرية تتعلق بالمراقبة في عام 2013، في بيان له. نشر على X تم تعيين ناكاسوني باعتباره “خيانة محسوبة لحقوق كل شخص على وجه الأرض”.
وكتب سنودن: “لقد أزالوا القناع بالكامل: لا تثقوا أبدًا في OpenAI أو منتجاتها (مثل ChatGPT).”
في آخر تعليق على Xوقال سنودن: “إن تقاطع الذكاء الاصطناعي مع محيط بيانات المراقبة الجماعية التي تراكمت على مدى العقدين الماضيين سيضع قوى رهيبة حقًا في أيدي قلة غير مسؤولة”.
من ناحية أخرى، قال السيناتور الديمقراطي عن ولاية فرجينيا ورئيس لجنة المخابرات بمجلس الشيوخ. وصف مارك وارنر تعيين ناكاسوني بأنه “نجاح كبير”.
وقال وارنر: “لا يوجد أحد في المجتمع الأمني، على نطاق واسع، يحظى باحترام أكبر منه”. قال أكسيوس.
قد تكون هناك حاجة لخبرة ناكاسوني في مجال الأمن في OpenAI، حيث يشعر النقاد بالقلق من أن المشكلات الأمنية قد تعرضه للهجمات.
قامت شركة OpenAI بفصل عضو مجلس الإدارة السابق ليوبولد أشنبرينر في أبريل بعد أن أرسل مذكرة تصف “حادثًا أمنيًا كبيرًا”. ووصف أمن الشركة بأنه “غير كاف على الإطلاق” للحماية من السرقة من قبل الجهات الأجنبية.
بعد ذلك بوقت قصير، تفكك فريق SuperAlignment التابع لشركة OpenAI – والذي ركز على بناء أنظمة الذكاء الاصطناعي المتوافقة مع المصالح البشرية – فجأة بعد مغادرة اثنين من كبار الباحثين الأمنيين في الشركة.
وقال جون ليك، أحد الباحثين المغادرين، إنه “اختلف مع قيادة OpenAI حول الأولويات الرئيسية للشركة لبعض الوقت”.
كان كبير العلماء في OpenAI، إيليا سوتزكيفير، الذي بدأ فريق SuperAlignment في البداية، خجولًا بشأن أسباب مغادرته. لكن المطلعين على الشركة قالوا إنه كان مهتزًا بسبب دوره في الإطاحة بالرئيس التنفيذي سام التمان. اختلف الوقاحة مع نهج ألتمان العدواني في تطوير الذكاء الاصطناعي، مما أدى إلى صراعهم على السلطة.
وإذا لم يكن كل ذلك كافيًا، فحتى السكان المحليون الذين يعيشون ويعملون بالقرب من مكتب OpenAI في سان فرانسيسكو يقولون إن الشركة بدأت في طردهم. قال أمين الصندوق في متجر الصناديق المجاور معيار سان فرانسيسكو المكتب لديه “أجواء سرية”.
ويقف العديد من العاملين في الشركات المجاورة، وهم رجال مثل حراس الأمن السريين، خارج المبنى، لكنهم لا يقولون إنهم يعملون في OpenAI.
“[OpenAI] قال أحدهم: “ليس جارًا سيئًا. لكنهم سريون”.
“متعصب للموسيقى. مستكشف متواضع جدا. محلل. متعصب للسفر. مدرس تلفزيوني متطرف. لاعب.”