در یک دعوای دسته جمعی فرضی که در 28 ژوئن 2023 در ناحیه شمالی کالیفرنیا و در موارد مشابه دیگر، شاکیان ادعا می کنند که OpenAI، مایکروسافت و وابستگان مربوطه آنها حقوق حریم خصوصی میلیون ها کاربر اینترنتی را از طریق مقیاس بزرگ نقض کرده اند. جمع آوری داده های شخصی آنها از رسانه های اجتماعی، پست های وبلاگ و سایر وب سایت ها و استفاده از این داده ها برای آموزش مدل های یادگیری ماشینی.
علاوه بر این، شاکیان ادعا می کنند که متهمان با دسترسی عمدی به رایانه های محافظت شده بدون مجوز و به دست آوردن اطلاعات از طریق پلاگین های ChatGPT یکپارچه شده در پلتفرم ها و وب سایت های مختلف، قانون تقلب و سوء استفاده رایانه ای (CFAA) را نقض کرده اند.
شاکیان همچنین ادعا می کنند که متهمان نتوانسته اند به اندازه کافی افشا کنند که داده های کاربران ممکن است برای آموزش مدل های یادگیری ماشینی و ابزارهای هوش مصنوعی مولد استفاده شود.
احتمالاً مهمترین اتهام حول محور ،اش دادهها میچرخد. اگر شاکیان بر نظریه خود مبنی بر اینکه رضایت برای جمعآوری گسترده دادههای شخصی از اینترنت برای استفاده در آموزش ابزارهای هوش مصنوعی ضروری است، پیامدها میتواند عمیق باشد. تصور اینکه چگونه شرکتهای هوش مصنوعی رضایت م،ق از میلیونها کاربر که قبلاً دادههای خود را در اختیار وبسایتها قرار دادهاند، دشوار است.
سایر دعاوی معلق
این شکایتهای جدید برای جمعآوری دادهها در میان موجی از دیگر دعاوی در انتظار به چالش کشیدن فعالیتهای جمعآوری دادههای ابزارهای مولد هوش مصنوعی ظاهر میشوند.
موارد دیگر اغلب در مورد نقض حق نسخه برداری یا ادعاهای مبتنی بر مجوز است. مثلا، کدگذاران ناشناس شکایت هایی را علیه ابزار کدنویسی با کمک هوش مصنوعی Copilot در ناحیه شمالی کالیفرنیا به دلیل نقض مجوزهای نرم افزار منبع باز و قانون حق چاپ هزاره دیجیتال ارائه کرد.
در اوایل سال 2023، ارائه دهنده ع، استوک گتی ایماژ از Stability AI، یک استارتآپ کوچکتر هوش مصنوعی در دادگاه فدرال دلاور شکایت کرد و به استفاده غیرقانونی از ع،های آن برای آموزش یک ربات تولید کننده تصویر متهم شد.
در اروپا، بر اساس مقررات عمومی حفاظت از داده ها (GDPR)، سازمان ها باید رضایت صریح شهروندان اتحادیه اروپا را قبل از جمع آوری یا پردازش داده های شخصی خود دریافت کنند. این شرط ممکن است برای مدلهای هوش مصنوعی که به دادههای ،اششده متکی هستند، مشکلاتی ایجاد کند، زیرا آنها باید از ،ب رضایت من،، بهویژه هنگام مدیریت دادههای شخصی اطمینان حاصل کنند. علاوه بر این، ممنوعیت ChatGPT در ایتالیا، اگرچه بعداً لغو شد، نگر،های فزاینده در مورد انطباق هوش مصنوعی با مقررات حفاظت از دادهها را برجسته میکند. این اختلافات حقوقی بر مشکلات حل نشده توسعهدهندگان هوش مصنوعی و کاربرانشان در مورد قانونی بودن است،اج و استفاده از دادههای اینترنت عمومی برای آموزش ابزارهای هوش مصنوعی مانند ChatGPT تاکید میکند.
مفاهیم
همانطور که چشم انداز قانونی پیرامون هوش مصنوعی به سرعت در حال تکامل است، این سوال که آیا ابزارهای مولد هوش مصنوعی می توانند به طور قانونی از داده های اینترنت عمومی برای اه، آموزشی استفاده کنند، بی پاسخ مانده است. چالش های حقوقی فزاینده ای که ابزارهای هوش مصنوعی مولد با آن مواجه هستند، بر پیچیدگی ها و مسائل حل نشده ای که هوش مصنوعی در خط مقدم بحث های حقوقی و اخلاقی به ارمغان می آورد، تاکید دارد. برخی از نگر، های کلیدی عبارتند از:
-
حریم خصوصی داده ها: ابزارهای هوش مصنوعی مولد اغلب از داده های اینترنت عمومی، از جمله پست های رسانه های اجتماعی، وبلاگ ها و سایر محتوای تولید شده توسط کاربر برای آموزش الگوریتم های خود استفاده می کنند. این نگر،ها را در مورد حقوق حریم خصوصی افراد در صورتی که از دادههای آنها بدون رضایت آنها استفاده شده باشد، ایجاد میکند، که به طور بالقوه منجر به نقض قو،ن و مقررات حفاظت از دادهها میشود.
-
مسائل مربوط به مجوز و منبع باز: ابزارهای هوش مصنوعی ممکن است از نرمافزار منبع باز یا دادههایی با ا،امات مجوز خاص استفاده کنند که اگر این ا،امات برآورده نشود یا در طول فرآیند توسعه هوش مصنوعی نقض شود، میتواند منجر به اختلافات قانونی شود.
-
مالکیت م،وی: محتوای تولید شده توسط هوش مصنوعی میتواند شباهت زیادی به مطالب دارای حق چاپ داشته باشد یا حتی آن را بازتولید کند و سؤالاتی را در مورد نقض حق چاپ ایجاد کند. علاوه بر این، استفاده از داده های دارای حق چاپ در آموزش مدل های هوش مصنوعی می تواند منجر به ادعاهای قانونی در مورد استفاده غیرمجاز از چنین مطالبی شود.
قانونگذاران و قانونگذاران در سراسر جهان عجله دارند تا رژیمهای قانونی جدیدی را پیرامون هوش مصنوعی تحمیل کنند. در این میان، همانطور که این موارد جدید نشان می دهد، مجموعه بزرگی از قو،ن موجود ممکن است حفاظ هایی را در اطراف آن اعمال کند. اینکه چگونه تحولپذیرترین فناوری در یک نسل شکل خواهد گرفت، در خطر است.
منبع: https://www.natlawreview.com/article/data-s،ing-privacy-law-and-latest-challenge-to-generative-ai-business-model