كيف تتراكم التزامات البيت الأبيض بشأن الذكاء الاصطناعي؟

أعلن البيت الأبيض هذا الأسبوع أنه حصل على “التزامات طوعية” من سبع شركات رائدة في مجال الذكاء الاصطناعي لإدارة المخاطر التي يشكلها الذكاء الاصطناعي.
إن إقناع الشركات – Amazon و Anthropic و Google و Inflection و Meta و Microsoft و OpenAI – بالموافقة على أي شيء يعد خطوة إلى الأمام. وهي تشمل منافسين لدودين مع اختلافات دقيقة ولكنها مهمة في الطرق التي يتعاملون بها مع البحث والتطوير في مجال الذكاء الاصطناعي.
Meta ، على سبيل المثال ، حريصة جدًا على وضع نماذج الذكاء الاصطناعي الخاصة بها في أيدي المطورين لدرجة أنها قامت بفتح العديد منها ، ووضع كودها في العلن ليستخدمه أي شخص. اتخذت مختبرات أخرى ، مثل Anthropic ، نهجًا أكثر حذرًا ، حيث أطلقت تقنيتها بطرق أكثر محدودية.
لكن ماذا تعني هذه الالتزامات في الواقع؟ وهل من المحتمل أن يغيروا الكثير بشأن كيفية عمل شركات الذكاء الاصطناعي ، بالنظر إلى أنها غير مدعومة بقوة القانون؟
بالنظر إلى المخاطر المحتملة لتنظيم الذكاء الاصطناعي ، فإن التفاصيل مهمة. لذلك دعونا نلقي نظرة فاحصة على ما تم الاتفاق عليه هنا ونحدد حجم التأثير المحتمل.
الالتزام 1: تلتزم الشركات باختبار الأمان الداخلي والخارجي لأنظمة الذكاء الاصطناعي الخاصة بها قبل إصدارها.
تقوم كل شركة من شركات الذكاء الاصطناعي هذه بالفعل بإجراء اختبار أمان – ما يُسمى غالبًا “الفريق الأحمر” – لنماذجها قبل إصدارها. على مستوى واحد ، هذا ليس التزامًا جديدًا حقًا. وهو وعد غامض. لا يأتي مع العديد من التفاصيل حول نوع الاختبار المطلوب ، أو من سيقوم بإجراء الاختبار.
في بيان مصاحب للالتزامات ، قال البيت الأبيض فقط إن اختبار نماذج الذكاء الاصطناعي “سيتم إجراؤه جزئيًا بواسطة خبراء مستقلين” وسيركز على مخاطر الذكاء الاصطناعي “مثل الأمن البيولوجي والأمن السيبراني ، فضلاً عن آثاره المجتمعية الأوسع”.
إنها لفكرة جيدة أن تجعل شركات الذكاء الاصطناعي تلتزم علنًا بمواصلة إجراء هذا النوع من الاختبارات ، وتشجيع المزيد من الشفافية في عملية الاختبار. وهناك بعض أنواع مخاطر الذكاء الاصطناعي – مثل خطر استخدام نماذج الذكاء الاصطناعي لتطوير أسلحة بيولوجية – والتي ربما يكون المسؤولون الحكوميون والعسكريون أكثر ملاءمة من الشركات لتقييمها.
أود أن أرى صناعة الذكاء الاصطناعي توافق على مجموعة قياسية من اختبارات السلامة ، مثل اختبارات “النسخ المستقل” التي يجريها مركز أبحاث المحاذاة على النماذج التي تم إصدارها مسبقًا بواسطة OpenAI و Anthropic. أود أيضًا أن أرى الحكومة الفيدرالية تمول هذه الأنواع من الاختبارات ، والتي قد تكون باهظة الثمن وتتطلب مهندسين ذوي خبرة فنية كبيرة. في الوقت الحالي ، يتم تمويل العديد من اختبارات السلامة والإشراف عليها من قبل الشركات ، مما يثير أسئلة واضحة حول تضارب المصالح.
الالتزام 2: تلتزم الشركات بمشاركة المعلومات عبر الصناعة ومع الحكومات والمجتمع المدني والأوساط الأكاديمية حول إدارة مخاطر الذكاء الاصطناعي.
هذا الالتزام غامض بعض الشيء أيضًا. تنشر العديد من هذه الشركات بالفعل معلومات حول نماذج الذكاء الاصطناعي الخاصة بها – عادةً في الأوراق الأكاديمية أو منشورات مدونات الشركة. عدد قليل منهم ، بما في ذلك OpenAI و Anthropic ، ينشرون أيضًا مستندات تسمى “بطاقات النظام” ، والتي تحدد الخطوات التي اتخذوها لجعل هذه النماذج أكثر أمانًا.
لكنهم حجبوا أيضًا المعلومات في بعض الأحيان ، مشيرين إلى مخاوف تتعلق بالسلامة. عندما أصدرت شركة OpenAI أحدث طراز لها للذكاء الاصطناعي ، GPT-4 ، هذا العام ، خرجت عن عادات الصناعة واختارت عدم الكشف عن مقدار البيانات التي تم تدريبها عليها ، أو حجم النموذج (مقياس يُعرف باسم “المعلمات”). وقالت إنها رفضت نشر هذه المعلومات بسبب مخاوف بشأن المنافسة والسلامة. ويصادف أيضًا أن يكون نوع البيانات الذي ترغب شركات التكنولوجيا في إبعاده عن المنافسين.
في ظل هذه الالتزامات الجديدة ، هل ستضطر شركات الذكاء الاصطناعي إلى نشر هذا النوع من المعلومات؟ ماذا لو كان القيام بذلك يهدد بتسريع سباق التسلح للذكاء الاصطناعي؟
أظن أن هدف البيت الأبيض لا يتعلق بإجبار الشركات على الكشف عن عدد معاييرها بقدر ما يتعلق بتشجيعها على تبادل المعلومات مع بعضها البعض حول المخاطر التي تشكلها (أو لا تمثلها) نماذجها.
ولكن حتى هذا النوع من تبادل المعلومات يمكن أن يكون محفوفًا بالمخاطر. إذا منع فريق الذكاء الاصطناعي في Google استخدام نموذج جديد لهندسة سلاح بيولوجي قاتل أثناء الاختبار التجريبي ، فهل يجب عليه مشاركة هذه المعلومات خارج Google؟ هل سيخاطر ذلك بإعطاء الأطراف السيئة أفكارًا حول كيفية حصولهم على نموذج أقل حراسة لأداء نفس المهمة؟
الالتزام 3: تلتزم الشركات بالاستثمار في الأمن السيبراني وضمانات التهديدات الداخلية لحماية أوزان النماذج المملوكة وغير المنشورة.
هذا واحد واضح ومباشر وغير مثير للجدل بين المطلعين على الذكاء الاصطناعي الذين تحدثت معهم. “أوزان النموذج” هو مصطلح تقني للتعليمات الرياضية التي تمنح نماذج الذكاء الاصطناعي القدرة على العمل. الأوزان هي ما تريد سرقته إذا كنت وكيلًا لحكومة أجنبية (أو شركة منافسة) تريد إنشاء نسختك الخاصة من ChatGPT أو منتج AI آخر. وهو شيء تمتلكه شركات الذكاء الاصطناعي مصلحة راسخة في الحفاظ عليه برقابة مشددة.
كانت هناك بالفعل مشكلات تم الإعلان عنها بشكل جيد مع تسرب أوزان النماذج. تم تسريب الأوزان الخاصة بنموذج لغة Meta الأصلي LLaMA ، على سبيل المثال ، على 4chan ومواقع الويب الأخرى بعد أيام قليلة من إطلاق النموذج علنًا. بالنظر إلى مخاطر المزيد من التسريبات – والمصلحة التي قد تكون لدى الدول الأخرى في سرقة هذه التكنولوجيا من الشركات الأمريكية – فإن مطالبة شركات الذكاء الاصطناعي بالاستثمار أكثر في أمنها الخاص تبدو وكأنها لا تحتاج إلى تفكير.
الالتزام 4: تلتزم الشركات بتسهيل اكتشاف الأطراف الثالثة والإبلاغ عن نقاط الضعف في أنظمة الذكاء الاصطناعي الخاصة بهم.
لست متأكدًا حقًا مما يعنيه هذا. اكتشفت كل شركة من شركات الذكاء الاصطناعي نقاط ضعف في نماذجها بعد إطلاقها ، عادةً لأن المستخدمين يحاولون القيام بأشياء سيئة باستخدام النماذج أو التحايل على حواجز الحماية الخاصة بهم (وهي ممارسة تُعرف باسم “كسر الحماية”) بطرق لم تتوقعها الشركات.
يدعو التزام البيت الأبيض الشركات إلى إنشاء “آلية إبلاغ قوية” لهذه الثغرات ، ولكن ليس من الواضح ما قد يعنيه ذلك. زر التعليقات داخل التطبيق ، على غرار الزر الذي يسمح لمستخدمي Facebook و Twitter بالإبلاغ عن المشاركات المخالفة للقواعد؟ برنامج مكافأة الأخطاء ، مثل برنامج OpenAI الذي بدأ هذا العام لمكافأة المستخدمين الذين يجدون عيوبًا في أنظمتها؟ شيء آخر؟ سيتعين علينا انتظار مزيد من التفاصيل.
الالتزام 5: تلتزم الشركات بتطوير آليات تقنية قوية للتأكد من أن المستخدمين يعرفون متى يتم إنشاء المحتوى بواسطة الذكاء الاصطناعي ، مثل نظام العلامات المائية.
هذه فكرة مثيرة للاهتمام ولكنها تترك مجالًا كبيرًا للتفسير. حتى الآن ، كافحت شركات الذكاء الاصطناعي لابتكار أدوات تسمح للناس بمعرفة ما إذا كانوا ينظرون إلى المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي أم لا. هناك أسباب فنية جيدة لذلك ، لكنها مشكلة حقيقية عندما يمكن للأشخاص اعتبار العمل الذي تم إنشاؤه بواسطة الذكاء الاصطناعي على أنه عملهم الخاص. (اسأل أي مدرس ثانوي.) والعديد من الأدوات التي يتم الترويج لها حاليًا على أنها قادرة على اكتشاف مخرجات الذكاء الاصطناعي لا يمكنها فعل ذلك بأي درجة من الدقة.
لست متفائلاً أن هذه المشكلة قابلة للإصلاح بالكامل. لكنني سعيد لأن الشركات تتعهد بالعمل على ذلك.
الالتزام 6: تلتزم الشركات بالإبلاغ العلني عن قدرات أنظمة الذكاء الاصطناعي الخاصة بها وقيودها ومجالات الاستخدام المناسب وغير المناسب.
تعهد آخر يبدو منطقيًا مع مساحة كبيرة للمناورة. كم مرة سيُطلب من الشركات الإبلاغ عن قدرات أنظمتها وحدودها؟ إلى أي مدى ستكون هذه المعلومات مفصلة؟ وبالنظر إلى أن العديد من الشركات التي تبني أنظمة ذكاء اصطناعي قد فوجئت بقدرات أنظمتها الخاصة بعد الحقيقة ، ما مدى جودة وصفها مسبقًا؟
الالتزام 7: تلتزم الشركات بإعطاء الأولوية للبحوث المتعلقة بالمخاطر المجتمعية التي يمكن أن تشكلها أنظمة الذكاء الاصطناعي ، بما في ذلك تجنب التحيز الضار والتمييز وحماية الخصوصية.
إن الالتزام “بترتيب أولويات البحث” هو أمر غامض بقدر ما يصبح الالتزام. ومع ذلك ، أنا متأكد من أن هذا الالتزام سيحظى بقبول جيد من قبل الكثيرين في حشد أخلاقيات الذكاء الاصطناعي ، الذين يريدون من شركات الذكاء الاصطناعي أن تجعل منع الأضرار على المدى القريب مثل التحيز والتمييز أولوية على القلق بشأن سيناريوهات يوم القيامة ، كما يفعل خبراء السلامة في الذكاء الاصطناعي.
إذا كنت مرتبكًا بالفرق بين “أخلاقيات الذكاء الاصطناعي” و “أمان الذكاء الاصطناعي” ، فاعلم فقط أن هناك فصيلين متحاربين داخل مجتمع أبحاث الذكاء الاصطناعي ، يعتقد كل منهما أن الآخر يركز على منع الأنواع الخاطئة من الأضرار.
الالتزام 8: تلتزم الشركات بتطوير ونشر أنظمة ذكاء اصطناعي متقدمة للمساعدة في مواجهة أكبر تحديات المجتمع.
لا أعتقد أن الكثير من الناس قد يجادلون بأن الذكاء الاصطناعي المتقدم يجب أن يفعل ذلك لا تستخدم للمساعدة في مواجهة أكبر تحديات المجتمع. يسرد البيت الأبيض “الوقاية من السرطان” و “التخفيف من تغير المناخ” باعتبارهما مجالين من المجالات التي ترغب في أن تركز فيها شركات الذكاء الاصطناعي جهودها ، ولن تحصل على أي خلاف مني هناك.
ما يجعل هذا الهدف معقدًا إلى حد ما ، على الرغم من ذلك ، هو أنه في أبحاث الذكاء الاصطناعي ، ما يبدأ في الظهور بشكل تافه غالبًا ما يكون له آثار أكثر خطورة. تبين أن بعض التقنيات التي دخلت في برنامج AlphaGo الخاص بـ DeepMind – وهو نظام ذكاء اصطناعي تم تدريبه على ممارسة لعبة اللوحة Go – مفيد في التنبؤ بالبنى ثلاثية الأبعاد للبروتينات ، وهو اكتشاف رئيسي عزز البحث العلمي الأساسي.
بشكل عام ، تبدو صفقة البيت الأبيض مع شركات الذكاء الاصطناعي أكثر رمزية من كونها جوهرية. لا توجد آلية إنفاذ للتأكد من التزام الشركات بهذه الالتزامات ، وكثير منها يعكس الاحتياطات التي تتخذها شركات الذكاء الاصطناعي بالفعل.
ومع ذلك ، فهي خطوة أولى معقولة. وتوضح الموافقة على اتباع هذه القواعد أن شركات الذكاء الاصطناعي قد تعلمت من إخفاقات شركات التكنولوجيا السابقة ، والتي انتظرت للتواصل مع الحكومة حتى وقعت في المشاكل. في واشنطن ، على الأقل فيما يتعلق بالتنظيم التكنولوجي ، من المفيد الظهور مبكرًا.