مع بدء جلسة المحكمة في مانهاتن ، بدا المحامي ، ستيفن شوارتز ، متفائلاً بعصبية ، مبتسماً وهو يتحدث مع فريقه القانوني. بعد ساعتين تقريبًا ، جلس السيد شوارتز متهدلًا وكتفيه متدليتين ورأسه بالكاد يرتفع فوق ظهر كرسيه.
لمدة ساعتين تقريبًا يوم الخميس ، استجوب القاضي السيد شوارتز في جلسة استماع أمر بها بعد الكشف عن أن المحامي قد أنشأ موجزًا قانونيًا لقضية في محكمة المقاطعة الفيدرالية مليئة بآراء قضائية مزيفة واستشهادات قانونية ، وكلها تم إنشاؤها بواسطة الدردشة وقال القاضي بي. كيفين كاستل إنه سيدرس الآن ما إذا كان سيفرض عقوبات على السيد شوارتز وشريكه بيتر لودوكا ، الذي ورد اسمه في المذكرة.
في بعض الأحيان أثناء جلسة الاستماع ، كان السيد شوارتز يغلق عينيه ويفرك جبينه بيده اليسرى. تلعثم وانخفض صوته. حاول مرارًا وتكرارًا شرح سبب عدم إجراء مزيد من البحث في الحالات التي قدمتها إليه ChatGPT.
قال السيد شوارتز: “يا إلهي ، أتمنى لو فعلت ذلك ، ولم أفعل ذلك” ، مضيفًا أنه شعر بالحرج والإذلال والندم الشديد.
قال للقاضي كاستل: “لم أفهم أن بإمكان ChatGPT اختلاق القضايا”.
على النقيض من مواقف السيد شوارتز المؤسفة ، كان القاضي كاستل يلمح في كثير من الأحيان في سخط ، وكان صوته يرتفع وهو يسأل أسئلة محددة. مرارًا وتكرارًا ، رفع القاضي ذراعيه في الهواء ، وراح يرفع يده ، بينما سأل السيد شوارتز لماذا لم يفحص عمله بشكل أفضل.
عندما أجاب السيد شوارتز على أسئلة القاضي ، امتد رد الفعل في قاعة المحكمة بما يقرب من 70 شخصًا ، من بينهم محامون وطلاب قانون وكتبة وأساتذة ، على المقاعد. كانت هناك شهقات وضحكات وتنهدات. تجهم المتفرجون ، اندفعوا بأعينهم ، يمضغون الأقلام.
“استمر خداع ChatGPT لي. قال السيد شوارتز “إنه أمر محرج”.
أطلق أحد المتفرجين صافرة تنازلية ناعمة.
أثارت الحلقة ، التي نشأت في دعوى قضائية غامضة ، عالم التكنولوجيا ، حيث كان هناك نقاش متزايد حول المخاطر – حتى التهديد الوجودي للبشرية – التي يشكلها الذكاء الاصطناعي. كما أنه أذهل المحامين والقضاة.
قال ديفيد لات ، المعلق القانوني: “لقد ترددت أصداء هذه القضية في جميع أنحاء مهنة المحاماة بأكملها”. “الأمر يشبه إلى حد ما النظر إلى حطام سيارة.”
وتتعلق القضية برجل يدعى روبرتو ماتا ، رفع دعوى قضائية ضد شركة طيران أفيانكا مدعيا إصابته عندما اصطدمت عربة خدمة معدنية بركبته خلال رحلة في أغسطس 2019 من السلفادور إلى نيويورك.
طلبت أفيانكا من القاضي كاستل رفض الدعوى لأن قانون التقادم قد انتهى. ورد محامو السيد ماتا بإيجاز من 10 صفحات استشهد بأكثر من ستة قرارات قضائية ، بأسماء مثل Martinez v. Delta Air Lines ، و Zicherman v. Korean Air Lines و Varghese v. China Southern Airlines ، لدعم حجتهم بأن يجب السماح للدعوى بالمضي قدما.
بعد أن لم يتمكن محامو Avianca من تحديد مكان القضايا ، أمر القاضي Castel محامي السيد ماتا بتقديم نسخ. وقدموا خلاصة وافية للقرارات.
اتضح أن الحالات لم تكن حقيقية.
قال السيد شوارتز ، الذي مارس القانون في نيويورك لمدة 30 عامًا ، في إعلان تم تقديمه للقاضي هذا الأسبوع إنه تعلم عن ChatGPT من أطفاله في سن الكلية ومن المقالات ، لكنه لم يستخدمها أبدًا بشكل احترافي.
أخبر القاضي كاستل يوم الخميس أنه يعتقد أن ChatGPT لديها وصول أكبر من قواعد البيانات القياسية.
قال السيد شوارتز: “سمعت عن هذا الموقع الجديد ، الذي افترضت خطأً أنه محرك بحث فائق”.
في الواقع ، تنتج برامج مثل ChatGPT ونماذج اللغات الكبيرة الأخرى ردودًا واقعية من خلال تحليل أجزاء النص التي يجب أن تتبع تسلسلات أخرى ، بناءً على نموذج إحصائي استوعب مليارات الأمثلة المأخوذة من جميع أنحاء الإنترنت.
قالت إيرينا رايكو ، مديرة برنامج أخلاقيات الإنترنت في جامعة سانتا كلارا ، هذا الأسبوع إن قضية Avianca أظهرت بوضوح ما قاله منتقدو مثل هذه النماذج ، “وهو أن الغالبية العظمى من الأشخاص الذين يلعبون بها ويستخدمونها لا لا أفهم حقًا ما هي وكيف تعمل ، وعلى وجه الخصوص ما هي حدودها “.
قالت ريبيكا رويب ، الأستاذة بكلية الحقوق في نيويورك والتي تدرس مهنة القانون ، إن هذا الوضع المعقد قد أثار نقاشًا حول كيفية دمج روبوتات المحادثة بشكل مسؤول في ممارسة القانون.
قال البروفيسور رويفي: “لقد غيرت هذه القضية مدى إلحاحها”. “هناك شعور بأن هذا ليس شيئًا يمكننا التفكير فيه بطريقة أكاديمية. إنه شيء أثر فينا الآن ويجب معالجته. “
قال ستيفن جيلرز ، أستاذ الأخلاق في كلية الحقوق بجامعة نيويورك ، إن الدعاية العالمية التي ولّدتها الحادثة يجب أن تكون بمثابة تحذير. وقال “من المفارقات أن هذا الحدث له جانب مضيء غير مقصود في شكل ردع”.
لم يكن هناك جانب إيجابي في قاعة المحكمة 11-د يوم الخميس. في مرحلة ما ، استجوب القاضي كاستل السيد شوارتز حول أحد الآراء المزيفة ، وقام بقراءة بضعة أسطر بصوت عالٍ.
“هل يمكننا أن نتفق على أن هذا هراء قانوني؟” قال القاضي كاستل.
بعد أن انتقلت القضية لشركة Avianca إلى المحكمة الفيدرالية ، حيث لم يُسمح للسيد شوارتز بممارسة المهنة ، أصبح السيد LoDuca ، شريكه في Levidow ، Levidow & Oberman ، المحامي المسجل.
في إفادة خطية الشهر الماضي ، أخبر السيد لودوكا القاضي كاستل أنه ليس له دور في إجراء البحث. استجوب القاضي كاستل السيد LoDuca يوم الخميس حول مستند تم تقديمه باسمه يطالب بعدم رفض الدعوى.
“هل قرأت أي من الحالات المذكورة؟” سأل القاضي كاستل.
أجاب السيد لودوكا “لا”.
“هل فعلت أي شيء لضمان وجود هذه الحالات؟”
لا مجددا.
طلب محامو السيد شوارتز والسيد لودوكا من القاضي عدم معاقبة موكليهم ، قائلين إن المحامين قد تحملوا المسؤولية ولم يكن هناك سوء سلوك متعمد.
في الإعلان الذي قدمه السيد شوارتز هذا الأسبوع ، وصف كيف طرح أسئلة على ChatGPT ، وفي كل مرة بدا أنه يساعد في الاستشهادات الحقيقية للقضايا. أرفق نسخة مطبوعة من ندوته مع الروبوت ، مما يدل على أنه يلقي بكلمات مثل “أكيد” و “بالتأكيد!”
بعد إجابة واحدة ، قال ChatGPT بمرح ، “أتمنى أن يساعد ذلك!”
More Stories
مساعدات إنسانية تتحوّل إلى فخ للموت
سفينة “مادلين” تنطلق من إيطاليا لكسر حصار غزة
مسؤول أممي سابق يتحدث بشأن “مؤسسة غزة الإنسانية”