شاکیان ادعا می کنند که OpenAI و Microsoft CFAA را نقض کرده اند


در یک دعوای دسته جمعی فرضی که در 28 ژوئن 2023 در ناحیه شمالی کالیفرنیا و در موارد مشابه دیگر، شاکیان ادعا می کنند که OpenAI، مایکروسافت و وابستگان مربوطه آنها حقوق حریم خصوصی میلیون ها کاربر اینترنتی را از طریق مقیاس بزرگ نقض کرده اند. جمع آوری داده های شخصی آنها از رسانه های اجتماعی، پست های وبلاگ و سایر وب سایت ها و استفاده از این داده ها برای آموزش مدل های یادگیری ماشینی.

علاوه بر این، شاکیان ادعا می کنند که متهمان با دسترسی عمدی به رایانه های محافظت شده بدون مجوز و به دست آوردن اطلاعات از طریق پلاگین های ChatGPT یکپارچه شده در پلتفرم ها و وب سایت های مختلف، قانون تقلب و سوء استفاده رایانه ای (CFAA) را نقض کرده اند.

شاکیان همچنین ادعا می کنند که متهمان نتوانسته اند به اندازه کافی افشا کنند که داده های کاربران ممکن است برای آموزش مدل های یادگیری ماشینی و ابزارهای هوش مصنوعی مولد استفاده شود.

احتمالاً مهم‌ترین اتهام حول محور ،اش داده‌ها می‌چرخد. اگر شاکیان بر نظریه خود مبنی بر اینکه رضایت برای جمع‌آوری گسترده داده‌های شخصی از اینترنت برای استفاده در آموزش ابزارهای هوش مصنوعی ضروری است، پیامدها می‌تواند عمیق باشد. تصور اینکه چگونه شرکت‌های هوش مصنوعی رضایت م،ق از میلیون‌ها کاربر که قبلاً داده‌های خود را در اختیار وب‌سایت‌ها قرار داده‌اند، دشوار است.

سایر دعاوی معلق

این شکایت‌های جدید برای جمع‌آوری داده‌ها در میان موجی از دیگر دعاوی در انتظار به چالش کشیدن فعالیت‌های جمع‌آوری داده‌های ابزارهای مولد هوش مصنوعی ظاهر می‌شوند.

موارد دیگر اغلب در مورد نقض حق نسخه برداری یا ادعاهای مبتنی بر مجوز است. مثلا، کدگذاران ناشناس شکایت هایی را علیه ابزار کدنویسی با کمک هوش مصنوعی Copilot در ناحیه شمالی کالیفرنیا به دلیل نقض مجوزهای نرم افزار منبع باز و قانون حق چاپ هزاره دیجیتال ارائه کرد.

در اوایل سال 2023، ارائه دهنده ع، استوک گتی ایماژ از Stability AI، یک استارت‌آپ کوچک‌تر هوش مصنوعی در دادگاه فدرال دلاور شکایت کرد و به استفاده غیرقانونی از ع،‌های آن برای آموزش یک ربات تولید کننده تصویر متهم شد.

در اروپا، بر اساس مقررات عمومی حفاظت از داده ها (GDPR)، سازمان ها باید رضایت صریح شهروندان اتحادیه اروپا را قبل از جمع آوری یا پردازش داده های شخصی خود دریافت کنند. این شرط ممکن است برای مدل‌های هوش مصنوعی که به داده‌های ،اش‌شده متکی هستند، مشکلاتی ایجاد کند، زیرا آنها باید از ،ب رضایت من،، به‌ویژه هنگام مدیریت داده‌های شخصی اطمینان حاصل کنند. علاوه بر این، ممنوعیت ChatGPT در ایتالیا، اگرچه بعداً لغو شد، نگر،‌های فزاینده در مورد انطباق هوش مصنوعی با مقررات حفاظت از داده‌ها را برجسته می‌کند. این اختلافات حقوقی بر مشکلات حل نشده توسعه‌دهندگان هوش مصنوعی و کاربرانشان در مورد قانونی بودن است،اج و استفاده از داده‌های اینترنت عمومی برای آموزش ابزارهای هوش مصنوعی مانند ChatGPT تاکید می‌کند.

مفاهیم

همانطور که چشم انداز قانونی پیرامون هوش مصنوعی به سرعت در حال تکامل است، این سوال که آیا ابزارهای مولد هوش مصنوعی می توانند به طور قانونی از داده های اینترنت عمومی برای اه، آموزشی استفاده کنند، بی پاسخ مانده است. چالش های حقوقی فزاینده ای که ابزارهای هوش مصنوعی مولد با آن مواجه هستند، بر پیچیدگی ها و مسائل حل نشده ای که هوش مصنوعی در خط مقدم بحث های حقوقی و اخلاقی به ارمغان می آورد، تاکید دارد. برخی از نگر، های کلیدی عبارتند از:

  • حریم خصوصی داده ها: ابزارهای هوش مصنوعی مولد اغلب از داده های اینترنت عمومی، از جمله پست های رسانه های اجتماعی، وبلاگ ها و سایر محتوای تولید شده توسط کاربر برای آموزش الگوریتم های خود استفاده می کنند. این نگر،‌ها را در مورد حقوق حریم خصوصی افراد در صورتی که از داده‌های آنها بدون رضایت آنها استفاده شده باشد، ایجاد می‌کند، که به طور بالقوه منجر به نقض قو،ن و مقررات حفاظت از داده‌ها می‌شود.

  • مسائل مربوط به مجوز و منبع باز: ابزارهای هوش مصنوعی ممکن است از نرم‌افزار منبع باز یا داده‌هایی با ا،امات مجوز خاص استفاده کنند که اگر این ا،امات برآورده نشود یا در طول فرآیند توسعه هوش مصنوعی نقض شود، می‌تواند منجر به اختلافات قانونی شود.

  • مالکیت م،وی: محتوای تولید شده توسط هوش مصنوعی می‌تواند شباهت زیادی به مطالب دارای حق چاپ داشته باشد یا حتی آن را بازتولید کند و سؤالاتی را در مورد نقض حق چاپ ایجاد کند. علاوه بر این، استفاده از داده های دارای حق چاپ در آموزش مدل های هوش مصنوعی می تواند منجر به ادعاهای قانونی در مورد استفاده غیرمجاز از چنین مطالبی شود.

قانون‌گذاران و قانون‌گذاران در سراسر جهان عجله دارند تا رژیم‌های قانونی جدیدی را پیرامون هوش مصنوعی تحمیل کنند. در این میان، همانطور که این موارد جدید نشان می دهد، مجموعه بزرگی از قو،ن موجود ممکن است حفاظ هایی را در اطراف آن اعمال کند. اینکه چگونه تحول‌پذیرترین فناوری در یک نسل شکل خواهد گرفت، در خطر است.


منبع: https://www.natlawreview.com/article/data-s،ing-privacy-law-and-latest-challenge-to-generative-ai-business-model