قال القاضي ب. كيفن كاستل إن تصرف المحاميين كان غير مسؤول. لكنه أقرّ باعتذارات المحاميين والخطوات التي اتخذوها، وأوضح سبب عدم ضرورة تشديد العقوبات لضمان عدم قيام محامين آخرين باتباع نفس النهج.
الصورة: CNYB
كتب السيد كاستل: "التطورات التكنولوجية أمر طبيعي، ولا حرج في استخدام أداة ذكاء اصطناعي موثوقة للمساعدة". "لكن القواعد الحالية تُلزم المحامين بضمان دقة السجلات التي يقدمونها".
وقال القاضي إن المحامين وشركة المحاماة ليفيدو وأوبرمان "تخلوا عن مسؤوليتهم بإصدار آراء قضائية غير موجودة مع استشهادات مزيفة تم إنشاؤها بواسطة أداة الذكاء الاصطناعي ChatGPT".
في بيان، أعلنت شركة المحاماة التزامها بأمر القاضي، لكنها أضافت: "نرفض بشدة الادعاءات القائلة بأن أي شخص في شركتنا تصرف بشكل غير مسؤول. لقد اعتذرنا للمحكمة ولموكلينا. هذا وضع غير مسبوق في تاريخ القضاء، وقد أخطأنا عندما لم نصدق أن التكنولوجيا قادرة على اختلاق قضايا وهمية تمامًا".
وفي جلسة استماع عقدت في وقت سابق من هذا الشهر، قال محام إنه استخدم روبوت محادثة يعمل بالذكاء الاصطناعي للمساعدة في العثور على سوابق قانونية تدعم دعوى قضائية رفعها موكله ضد شركة الطيران الكولومبية أفيانكا بشأن إصابة حدثت على متن رحلة عام 2019.
وقال القاضي إن أحد القرارات المزيفة التي تم إنشاؤها بواسطة روبوت المحادثة "كان يحتوي على بعض الميزات التي تبدو متسقة مع القرارات القضائية الفعلية"، لكنه يحتوي على "هراء".
كووك ثين (وفقًا لوكالة أسوشيتد برس)
[إعلان 2]
مصدر
تعليق (0)