در حال حاضر، داستان دو وکیل نیویورکی که به دلیل استناد به موارد غیرموجود تولید شده توسط ابزار هوش مصنوعی (“AI”) ChatGPT مورد بررسی قرار گرفتهاند. ملی (و بین المللی) سرفصل ها. اوا، ماه گذشته، یک قاضی فدرال در ناحیه ج،ی نیویورک، وکلای دادگستری و شرکت آنها را با پرداخت 5000 دلار تحریم کرد. دادگاه تصمیم گیری (روبرتو ماتا v. Avianca، Inc.شماره 22-cv-1461-PKC (SDNY 22 ژوئن 2023) (ECF No. 54)) یادآوری متواضعانه از مسئولیت های وکیل در حصول اطمینان از صحت پرونده های وی و محدودیت های فناوری های خاص در حرفه وکالت
تمرکز اصلی تصمیم دادگاه به جای حمله به استفاده از فناوری هوش مصنوعی به طور کلی، رفتار وکلا بود. همانطور که دادگاه در ابتدا توضیح داد: «پیشرفتهای فناوری امری عادی است و هیچ چیز ذاتاً نامن،ی در مورد استفاده از ابزار هوش مصنوعی قابل اعتماد برای کمک وجود ندارد. اما قو،ن موجود نقش دروازه بان را بر وکلا تحمیل می کند تا از صحت پرونده های آنها اطمینان حاصل شود. شناسه. در 1. دادگاه توضیح داد که مشکل وکلا با استناد به پرونده های جعلی ایجاد شده توسط ChatGPT بدتر شده است زیرا وکلا “پس از اینکه دستورات قضایی وجود آنها را زیر سوال برد، همچنان به نظرات جعلی می ایستند.” شناسه. در واقع، دادگاه متوجه شد که وکلای دادگستری بد نیت عمل کرده و تعهدات قانون 11 خود را نقض کرده اند، از جمله، به دفاع از پرونده های جعلی و استدلال های قانونی مطرح شده در آن پرونده ها، حتی پس از اطلاع رقیب خود و دادگاه که موارد را نمی توان یافت. شناسه. در 29.
تصمیم دادگاه نه تنها وظایفی را که وکلای دادگستری در قبال دادگاه، مخالفان و موکلان خود دارند، تأیید می کند. شناسه. در 1-2. همچنین نمونه ای واقعی از محدودیت های فعلی هوش مصنوعی در انجام تحقیقات حقوقی ارائه می دهد. دادگاه تصمیمات جعلی ایجاد شده توسط ChatGPT را به تفصیل توصیف کرد و اظهار داشت که در حالی که آنها «ویژگی هایی دارند که به طور سطحی با تصمیمات قضایی واقعی مطابقت دارد»، تحلیل حقوقی در یکی از آنها شبیه به «بیهوده» بود، سابقه رویه «مرزهای بی م،ی است، و این تصمیم “به طور ناگه، بدون نتیجه پایان می یابد.” شناسه. در 10-11. وقتی یکی از وکلایی که به این پروندههای جعلی اشاره کرد، ابزار هوش مصنوعی را در مورد مشروعیت آنها زیر سوال برد، پاسخ ChatGPT نشان داد که پروندهها همه واقعی هستند و میتوان آنها را در پایگاههای اطلاعاتی تحقیقات حقوقی مانند Westlaw و LexisNexis یافت. شناسه. در 41-43. ابزار هوش مصنوعی به سادگی اشتباه بود. این ،مت ناگوار تأیید می کند که وقتی صحبت از تحقیق، تحلیل و وکالت حقوقی می شود (که همه آنها به وضوح جنبه های کلیدی شغل وکالت هستند)، هنوز هیچ جایگزینی برای مشارکت و مشارکت انس، وجود ندارد.
این به این م،ی نیست که از همه گیرها کم شود اشتیاق برای هوش مصنوعی به طور کلی در سال های اخیر. در واقع، استفاده روتین از برخی فناوریهای هوش مصنوعی اکنون برای بسیاری از حقوقدانان امری عادی است (فکر میکنید کدگذاری پیش بینی در eDiscovery). با این حال، ChatGPT بود راه اندازی شد کمتر از یک سال پیش با این حال قبلا وجود داشته است صحبت آن روزی وکلا را “منسوخ” می کند. آن روز هنوز فرا نرسیده است، همانطور که در بالا نشان داده شد. در واقع، در طول کنفرانس Legalweek مارس 2023 در نیویورک، ChatGPT برگزار شد گزارش شده است از “توهمات” رنج می برند، به این م،ی که “گاهی اوقات فناوری حقایقی را “پیش بینی” می کند که هیچ مبنای واقعی در واقعیت ندارند.” علاوه بر این “توهمات”، برخی از شرکت های حقوقی نگر، دارند که استفاده از ChatGPT خطر افشای اطلاعات محرمانه مشتری را به همراه دارد. یک موسسه حقوقی ممنوعیت استفاده در دفتر ChatGPT به طور کامل. با توجه به نگر، های جدی ناشی از استفاده از ChatGPT در کوتاه مدت این ابزار، مسیر احتمالی پیش روی بسیاری از شرکت های حقوقی شامل خواهد شد. با احتیاط متعادل ، مزایایی که ChatGPT (و سایر ابزارهای هوش مصنوعی) می تواند ارائه دهد، در حالی که اقداماتی را برای محافظت در برابر خطرات ایجاد شده توسط اتکا به چنین ابزارهایی انجام می دهد.
© 2023 Epstein Becker & Green, PC کلیه حقوق محفوظ است.بررسی حقوق ملی، جلد سیزدهم، شماره 195
منبع: https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research