هوش مصنوعی در دادگاه: توهمات و خطرات

یک مطالعه نشان داد که مدل‌های زبانی بزرگ در ۵۸ تا ۸۸ درصد مواقع در پاسخ به سؤالات حقوقی دچار خطا می‌شوند.

این خطاها می‌تواند شامل ساختن سوابق قانونی جعلی، ارایه اطلاعات نادرست در مورد قوانین و مقررات و سوگیری در تفسیر حقایق باشد.

شبکه اطلاع‌رسانی روابط‌عمومی‌ ایران (شارا) || تحقیقات جدید نشان می‌دهد که مدل‌های زبانی بزرگ مانند چت‌جی‌پی‌تی، متا و گوگل در هنگام بررسی یا کمک به پرونده‌های حقوقی، اغلب دچار توهم می‌شوند.

مگان مک کارتی کارینو از Marketplace با دانیل هو از موسسه هوش مصنوعی انسان‌محور استنفورد در مورد مطالعه اخیر این گروه در مورد اینکه چگونه این مدل‌ها به طور نگران‌کننده‌ای در پاسخ به سؤالات حقوقی دچار خطا می‌شوند، صحبت کرد.

نکات کلیدی:
مطالعه نشان داد که مدل‌های زبانی بزرگ در ۵۸ تا ۸۸ درصد مواقع در پاسخ به سؤالات حقوقی دچار خطا می‌شوند.

این خطاها می‌تواند شامل ساختن سوابق قانونی جعلی، ارایه اطلاعات نادرست در مورد قوانین و مقررات و سوگیری در تفسیر حقایق باشد.

خطرات اتکا به هوش مصنوعی در زمینه حقوقی، از جمله اتکای بیش از حد به خروجی این مدل‌ها و از دست دادن دقت و ظرافت مورد نیاز در تجزیه و تحلیل حقوقی، وجود دارد.

متخصصان بر این باورند که هوش مصنوعی می‌تواند به عنوان ابزاری برای کمک به وکلا در تحقیقات و وظایف اداری مفید باشد، اما نباید جایگزینی برای قضاوت و تخصص انسانی باشد.

دانیل هو: “ما تقریباً ۲۰۰۰۰۰ پرسش را طراحی کردیم که به هر چیزی نگاه می‌کردند، آیا این دو مورد در تنش هستند؟ هسته حقوقی در این مورد چیست؟ یا اصلا این مورد وجود دارد؟ و چیزی که در کل متوجه شدیم این است که میزان توهم به طرز نگران‌کننده‌ای بالا بود.”

مگان مک کارتی کارینو: “یکی دیگر از مشکلات بزرگی که به آن اشاره کردید، آن چیزی است که شما آن را تعصب ضد و نقیض می‌نامید. آیا می‌توانید این مفهوم را توضیح دهید؟”

هو: “مطمئناً، مفهوم سوگیری خلاف واقع این ایده است که مدل‌های زبان بزرگ اغلب فرض می‌کنند که یک فرض واقعی در یک سؤال توسط کاربر درست است، حتی اگر کاملاً اشتباه باشد.”

مک کارتی کارینو: “آیا خطراتی وجود دارد که می‌بینید حتی اگر این مدل‌های زبانی بزرگ را بتوان برای رفع این مشکل توهم اصلاح کرد؟”

هو: “قطعا. به‌طور کلی نگرانی در مورد آنچه مردم از آن به عنوان سوگیری اتوماسیون یاد می‌کنند وجود دارد، تمایل انسان‌ها به تکیه بیش از حد بر خروجی در اینجا و همانطور که برخی از افراد ممکن است بیش از حد به نتایج جستجوی برتر گوگل اعتماد کنند، همانطور که سیستم‌های هوش مصنوعی شروع به بهبود جستجو در موتورهای تحقیقاتی قانونی مانند Lexis و Westlaw می‌کنند، افراد ممکن است شروع به اعتماد بیش از حد کنند و واقعاً این کار را انجام ندهند. مواردی را که با توجه به حقایق خاص در یک پرونده مناسب‌تر هستند، آشکار کنید.”

تاریخ انتشار: ۱۲ مارس۲۰۲۴
منبع انگلیسی: marketplace
منبع فارسی: شارا

 

انتهای پیام/