این خطاها میتواند شامل ساختن سوابق قانونی جعلی، ارایه اطلاعات نادرست در مورد قوانین و مقررات و سوگیری در تفسیر حقایق باشد.
شبکه اطلاعرسانی روابطعمومی ایران (شارا) || تحقیقات جدید نشان میدهد که مدلهای زبانی بزرگ مانند چتجیپیتی، متا و گوگل در هنگام بررسی یا کمک به پروندههای حقوقی، اغلب دچار توهم میشوند.
مگان مک کارتی کارینو از Marketplace با دانیل هو از موسسه هوش مصنوعی انسانمحور استنفورد در مورد مطالعه اخیر این گروه در مورد اینکه چگونه این مدلها به طور نگرانکنندهای در پاسخ به سؤالات حقوقی دچار خطا میشوند، صحبت کرد.
نکات کلیدی:
مطالعه نشان داد که مدلهای زبانی بزرگ در ۵۸ تا ۸۸ درصد مواقع در پاسخ به سؤالات حقوقی دچار خطا میشوند.
این خطاها میتواند شامل ساختن سوابق قانونی جعلی، ارایه اطلاعات نادرست در مورد قوانین و مقررات و سوگیری در تفسیر حقایق باشد.
خطرات اتکا به هوش مصنوعی در زمینه حقوقی، از جمله اتکای بیش از حد به خروجی این مدلها و از دست دادن دقت و ظرافت مورد نیاز در تجزیه و تحلیل حقوقی، وجود دارد.
متخصصان بر این باورند که هوش مصنوعی میتواند به عنوان ابزاری برای کمک به وکلا در تحقیقات و وظایف اداری مفید باشد، اما نباید جایگزینی برای قضاوت و تخصص انسانی باشد.
دانیل هو: “ما تقریباً ۲۰۰۰۰۰ پرسش را طراحی کردیم که به هر چیزی نگاه میکردند، آیا این دو مورد در تنش هستند؟ هسته حقوقی در این مورد چیست؟ یا اصلا این مورد وجود دارد؟ و چیزی که در کل متوجه شدیم این است که میزان توهم به طرز نگرانکنندهای بالا بود.”
مگان مک کارتی کارینو: “یکی دیگر از مشکلات بزرگی که به آن اشاره کردید، آن چیزی است که شما آن را تعصب ضد و نقیض مینامید. آیا میتوانید این مفهوم را توضیح دهید؟”
هو: “مطمئناً، مفهوم سوگیری خلاف واقع این ایده است که مدلهای زبان بزرگ اغلب فرض میکنند که یک فرض واقعی در یک سؤال توسط کاربر درست است، حتی اگر کاملاً اشتباه باشد.”
مک کارتی کارینو: “آیا خطراتی وجود دارد که میبینید حتی اگر این مدلهای زبانی بزرگ را بتوان برای رفع این مشکل توهم اصلاح کرد؟”
هو: “قطعا. بهطور کلی نگرانی در مورد آنچه مردم از آن به عنوان سوگیری اتوماسیون یاد میکنند وجود دارد، تمایل انسانها به تکیه بیش از حد بر خروجی در اینجا و همانطور که برخی از افراد ممکن است بیش از حد به نتایج جستجوی برتر گوگل اعتماد کنند، همانطور که سیستمهای هوش مصنوعی شروع به بهبود جستجو در موتورهای تحقیقاتی قانونی مانند Lexis و Westlaw میکنند، افراد ممکن است شروع به اعتماد بیش از حد کنند و واقعاً این کار را انجام ندهند. مواردی را که با توجه به حقایق خاص در یک پرونده مناسبتر هستند، آشکار کنید.”
تاریخ انتشار: ۱۲ مارس۲۰۲۴
منبع انگلیسی: marketplace
منبع فارسی: شارا
انتهای پیام/
|
نظر بدهید