توافق 7 شركات للذكاء الاصطناعي على إجراءات الحماية بعد ضغوط من البيت الأبيض

وافقت سبع شركات رائدة في مجال الذكاء الاصطناعي في الولايات المتحدة على ضمانات طوعية لتطوير التكنولوجيا ، حسبما أعلن البيت الأبيض يوم الجمعة ، وتعهد بالسعي من أجل السلامة والأمن والثقة حتى في الوقت الذي تتنافس فيه على إمكانات الذكاء الاصطناعي.
ستعلن الشركات السبع – Amazon و Anthropic و Google و Inflection و Meta و Microsoft و OpenAI – رسميًا التزامها بالمعايير الجديدة في اجتماع مع الرئيس بايدن في البيت الأبيض بعد ظهر يوم الجمعة.
يأتي هذا الإعلان في الوقت الذي تتسابق فيه الشركات للتغلب على بعضها البعض بإصدارات من الذكاء الاصطناعي توفر أدوات جديدة قوية لإنشاء نصوص وصور وموسيقى وفيديو دون تدخل بشري. لكن القفزات التكنولوجية أثارت مخاوف من أن الأدوات ستسهل انتشار المعلومات المضللة والتحذيرات الرهيبة من “خطر الانقراض” مع تطور أجهزة الكمبيوتر التي تدرك نفسها بنفسها.
يوم الأربعاء ، أعلنت Meta ، الشركة الأم لـ Facebook ، عن أداة الذكاء الاصطناعي الخاصة بها المسماة Llama 2 وقالت إنها ستطلق الكود الأساسي للجمهور. قال نيك كليج ، رئيس الشؤون العالمية في Meta ، في بيان إن شركته تدعم الضمانات التي وضعها البيت الأبيض.
قال السيد كليج: “يسعدنا أن نقدم هذه الالتزامات الطوعية جنبًا إلى جنب مع الآخرين في هذا القطاع”. “إنها خطوة أولى مهمة في ضمان إنشاء حواجز حماية مسؤولة للذكاء الاصطناعي ، كما أنها تخلق نموذجًا تتبعه الحكومات الأخرى.”
الإجراءات الوقائية الطوعية التي تم الإعلان عنها يوم الجمعة ليست سوى خطوة مبكرة حيث وضعت واشنطن والحكومات في جميع أنحاء العالم أطرًا قانونية وتنظيمية لتطوير الذكاء الاصطناعي. قال مسؤولو البيت الأبيض إن الإدارة تعمل على أمر تنفيذي يذهب إلى أبعد من إعلان يوم الجمعة ويدعم تطوير تشريع من الحزبين.
وقالت الإدارة في بيان أعلن عن الاتفاقات: “تتحمل الشركات التي تطور هذه التقنيات الناشئة مسؤولية ضمان سلامة منتجاتها”. وقال البيان إن الشركات يجب أن “تلتزم بأعلى المعايير لضمان ألا يأتي الابتكار على حساب حقوق الأمريكيين وسلامتهم”.
كجزء من الاتفاقية ، وافقت الشركات على:
-
اختبار الأمان لمنتجات الذكاء الاصطناعي الخاصة بهم ، جزئيًا من قبل خبراء مستقلين ومشاركة المعلومات حول منتجاتهم مع الحكومات وغيرها ممن يحاولون إدارة مخاطر التكنولوجيا.
-
التأكد من أن المستهلكين قادرون على اكتشاف المواد التي تم إنشاؤها بواسطة الذكاء الاصطناعي من خلال تطبيق العلامات المائية أو غيرها من الوسائل لتحديد المحتوى الذي تم إنشاؤه.
-
الإبلاغ علنًا عن قدرات وقيود أنظمتها على أساس منتظم ، بما في ذلك المخاطر الأمنية ودليل التحيز.
-
نشر أدوات الذكاء الاصطناعي المتقدمة لمواجهة أكبر تحديات المجتمع ، مثل علاج السرطان ومكافحة تغير المناخ.
-
إجراء بحث حول مخاطر التحيز والتمييز وانتهاك الخصوصية من انتشار أدوات الذكاء الاصطناعي.
وقال بيان إدارة بايدن يوم الجمعة قبل الاجتماع: “إن سجل حافل بالذكاء الاصطناعي يظهر غدر وانتشار هذه المخاطر ، وتلتزم الشركات بإطلاق الذكاء الاصطناعي الذي يخفف من حدتها”.
من غير المرجح أن يؤدي الاتفاق إلى إبطاء الجهود المبذولة لتمرير التشريعات وفرض اللوائح على التكنولوجيا الناشئة. يتسابق المشرعون في واشنطن لمواكبة التطورات السريعة في الذكاء الاصطناعي. والحكومات الأخرى تفعل الشيء نفسه.
تحرك الاتحاد الأوروبي بسرعة في الشهر الماضي للنظر في أكثر الجهود بعيدة المدى لتنظيم التكنولوجيا. سيضع التشريع المقترح من قبل البرلمان الأوروبي قيودًا صارمة على بعض استخدامات الذكاء الاصطناعي ، بما في ذلك التعرف على الوجه ، وسيطلب من الشركات الكشف عن المزيد من البيانات حول منتجاتها.