رأي | لينا خان: يجب علينا تنظيم الذكاء الاصطناعي وإليك الطريقة.

من المثير وغير المريح إجراء محادثة واقعية مع جهاز كمبيوتر. بفضل التقدم السريع للذكاء الاصطناعي التوليدي ، اختبر الكثير منا الآن هذه التكنولوجيا الثورية المحتملة ذات الآثار الهائلة على كيفية عيش الناس وعملهم وتواصلهم في جميع أنحاء العالم. لا يزال النطاق الكامل لإمكانيات الذكاء الاصطناعي التوليدية محل نقاش ، ولكن ليس هناك شك في أنها ستكون معطلة للغاية.
كانت آخر مرة وجدنا فيها أنفسنا نواجه مثل هذا التغيير الاجتماعي الواسع الذي أحدثته التكنولوجيا هو بداية عصر الويب 2.0 في منتصف العقد الأول من القرن الحادي والعشرين. أحدثت الشركات الجديدة والمبتكرة مثل Facebook و Google ثورة في الاتصالات وقدمت خدمات شائعة لقاعدة مستخدمين سريعة النمو.
لكن هذه الخدمات المبتكرة جاءت بتكلفة باهظة. ما تصورناه في البداية على أنه خدمات مجانية تم تحقيق الدخل منه من خلال المراقبة المكثفة للأشخاص والشركات التي استخدمتها. وكانت النتيجة اقتصادًا عبر الإنترنت حيث يكون الوصول إلى الخدمات الأساسية بشكل متزايد مشروطًا بتخزين وبيع بياناتنا الشخصية على نطاق واسع.
دفعت نماذج الأعمال هذه الشركات إلى تطوير طرق اجتياحية لا نهاية لها لتتبعنا ، وستجد لجنة التجارة الفيدرالية لاحقًا سببًا للاعتقاد بأن العديد من هذه الشركات قد انتهكت القانون. إلى جانب الاستراتيجيات العدوانية للاستحواذ على الشركات أو إغلاقها التي كانت تهدد مواقعها ، عززت هذه التكتيكات هيمنة حفنة من الشركات. ما بدأ كمجموعة ثورية من التقنيات انتهى به الأمر إلى تركيز سلطة خاصة هائلة على الخدمات الرئيسية وإغلاق نماذج الأعمال التي تأتي بتكلفة غير عادية لخصوصيتنا وأمننا.
لم يكن مسار عصر الويب 2.0 حتميًا – بل تم تشكيله من خلال مجموعة واسعة من خيارات السياسة. ونحن الآن نواجه لحظة أخرى من الاختيار. مع انتشار استخدام الذكاء الاصطناعي على نطاق واسع ، يتحمل المسؤولون العموميون مسؤولية ضمان عدم تكرار هذا التاريخ المكتسب بشق الأنفس.
بينما تتسابق الشركات لنشر الذكاء الاصطناعي وتحقيق الدخل منه ، تقوم لجنة التجارة الفيدرالية بإلقاء نظرة فاحصة على أفضل السبل التي يمكننا من خلالها تحقيق تفويضنا المزدوج لتعزيز المنافسة العادلة وحماية الأمريكيين من الممارسات غير العادلة أو الخادعة. مع تطور هذه التقنيات ، نحن ملتزمون بالقيام بدورنا لدعم تقاليد أمريكا القديمة في الحفاظ على الأسواق المفتوحة والعادلة والتنافسية التي عززت كل من الابتكارات الخارقة والنجاح الاقتصادي لأمتنا – دون التسامح مع نماذج الأعمال أو الممارسات التي تنطوي على الاستغلال الجماعي لها المستخدمين. على الرغم من أن هذه الأدوات جديدة ، إلا أنها ليست مستثناة من القواعد الحالية ، وستعمل لجنة التجارة الفيدرالية (FTC) بقوة على إنفاذ القوانين التي نتولى إدارتها ، حتى في هذا السوق الجديد.
بينما تتحرك التكنولوجيا بسرعة ، يمكننا بالفعل رؤية العديد من المخاطر. قد يؤدي التوسع في تبني الذكاء الاصطناعي إلى مزيد من الهيمنة على السوق لشركات التكنولوجيا الكبيرة القائمة. تتحكم حفنة من الشركات القوية في المواد الخام اللازمة التي تعتمد عليها الشركات الناشئة والشركات الأخرى لتطوير أدوات الذكاء الاصطناعي ونشرها. يتضمن ذلك الخدمات السحابية وقوة الحوسبة ، فضلاً عن مخازن البيانات الضخمة.
يجب أن يكون المنفذون والمنظمون يقظين. يمكن للشركات المهيمنة استخدام سيطرتها على هذه المدخلات الرئيسية لاستبعاد أو التمييز ضد المنافسين في المراحل النهائية ، واختيار الفائزين والخاسرين بطرق تزيد من ترسيخ هيمنتهم. وفي الوقت نفسه ، فإن أدوات الذكاء الاصطناعي التي تستخدمها الشركات لتحديد أسعار كل شيء بدءًا من منظفات الغسيل إلى حجوزات حارة البولينج يمكن أن تسهل السلوك التواطئي الذي يؤدي إلى تضخم الأسعار بشكل غير عادل – فضلاً عن أشكال من التمييز في الأسعار المستهدفة بدقة. يتحمل المنفذون مسؤولية مزدوجة تتمثل في مراقبة المخاطر التي تشكلها تقنيات الذكاء الاصطناعي الجديدة مع تعزيز المنافسة العادلة اللازمة لضمان تطور سوق هذه التقنيات بشكل قانوني. إن لجنة التجارة الفيدرالية مجهزة جيدًا بالولاية القضائية القانونية للتعامل مع القضايا التي أثارها قطاع الذكاء الاصطناعي سريع التطور ، بما في ذلك التواطؤ والاحتكار والاندماج والتمييز في الأسعار وأساليب المنافسة غير العادلة.
ويخاطر الذكاء الاصطناعي التوليدي بالاحتيال. قد لا يكون جاهزًا لاستبدال الكتاب المحترفين ، لكن يمكنه بالفعل القيام بعمل أفضل بكثير في صياغة رسالة تبدو أصلية من الفنان العادي المحتال – تجهيز المحتالين لإنشاء المحتوى بسرعة وبتكلفة زهيدة. يتم استخدام Chatbots بالفعل لإنشاء رسائل بريد إلكتروني تصيد احتيالي مصممة لخداع الأشخاص ومواقع الويب المزيفة ومراجعات العملاء المزيفة – حتى أن الروبوتات يتم توجيهها لاستخدام كلمات أو عبارات تستهدف مجموعات ومجتمعات معينة. يمكن للمحتالين ، على سبيل المثال ، صياغة رسائل بريد إلكتروني شديدة الاستهداف للتصيد الاحتيالي استنادًا إلى منشورات المستخدمين الفرديين على وسائل التواصل الاجتماعي. إلى جانب الأدوات التي تنشئ مقاطع فيديو مزيفة واستنساخًا صوتيًا ، يمكن استخدام هذه التقنيات لتسهيل الاحتيال والابتزاز على نطاق واسع.
عند فرض حظر القانون على الممارسات الخادعة ، لن ننظر فقط إلى المحتالين الذين يطيرون ليلا وهم ينشرون هذه الأدوات ولكن أيضًا في شركات المنبع التي تمكّنهم.
أخيرًا ، يتم تدريب أدوات الذكاء الاصطناعي هذه على مجموعات ضخمة من البيانات بطرق لم يتم التحقق منها إلى حد كبير. نظرًا لأنه قد يتم تغذيتها بمعلومات مليئة بالأخطاء والتحيز ، فإن هذه التقنيات تخاطر بأتمتة التمييز – منع الأشخاص بشكل غير عادل من الوظائف أو الإسكان أو الخدمات الرئيسية. يمكن أيضًا تدريب هذه الأدوات على رسائل البريد الإلكتروني الخاصة والمحادثات والبيانات الحساسة ، مما يؤدي في النهاية إلى كشف التفاصيل الشخصية وانتهاك خصوصية المستخدم. سيتم تطبيق القوانين الحالية التي تحظر التمييز ، وكذلك السلطات الحالية التي تحظر جمع البيانات الشخصية أو استخدامها بطريقة استغلالية.
يعد تاريخ نمو شركات التكنولوجيا قبل عقدين بمثابة قصة تحذيرية لكيفية التفكير في التوسع في الذكاء الاصطناعي التوليدي ، لكن التاريخ يحتوي أيضًا على دروس حول كيفية التعامل مع الاضطراب التكنولوجي لصالح الجميع. في مواجهة التدقيق في مكافحة الاحتكار في أواخر الستينيات ، قامت شركة IBM الحاسوبية العملاقة بفك حزم البرمجيات من أنظمة أجهزتها ، مما أدى إلى صعود صناعة البرمجيات الأمريكية وخلق تريليونات من الدولارات من النمو. تطلبت الإجراءات الحكومية من AT&T أن تفتح خزنة براءات الاختراع الخاصة بها وأطلقت بالمثل عقودًا من الابتكار وحفزت التوسع في عدد لا يحصى من الشركات الشابة.
لقد كان التزام أمريكا الوطني طويل الأمد بتعزيز المنافسة العادلة والمفتوحة جزءًا أساسيًا مما جعل هذه الأمة قوة اقتصادية ومختبرًا للابتكار. مرة أخرى نجد أنفسنا في نقطة قرار رئيسية. هل يمكننا الاستمرار في أن نكون موطنًا للتكنولوجيا الرائدة عالميًا دون قبول نماذج الأعمال من السباق إلى الأسفل والتحكم الاحتكاري الذي يحجب المنتجات عالية الجودة أو الفكرة الكبيرة التالية؟ نعم – إذا اتخذنا الخيارات السياسية الصحيحة.