طرح کاخ سفید برای منشور حقوق هوش مصنوعی


سه شنبه 18 اکتبر 2022

بر ،ی پوشیده نیست که قانونگذاران و آژانس های نظارتی به اتکای فزاینده شرکت ها به هوش مصنوعی (“AI”) توجه کرده اند. در زمینه اشتغال، فروشندگان هوش مصنوعی را به‌،وان ابزار کارآمدی به بازار عرضه می‌کنند که می‌تواند فرآیندهای منابع انس، را ساده‌سازی کند و از تعصب و تبعیض انس، محافظت کند. اما همانطور که قبلاً وبلاگ نویسی کرده ایم، استفاده بدون انضباط از هوش مصنوعی ممکن است باعث تسریع یا ایجاد تبعیض در محل کار شود.

اوایل این ماه، کاخ سفید وارد این بحث شد. دفتر سیاست علم و فناوری کاخ سفید با نام «طرح‌نامه برای منشور حقوق هوش مصنوعی: ساخت سیستم‌های خودکار برای مردم آمریکا کارآمد» شناخته شده است پنج اصل برای “هدایت طراحی، استفاده و استقرار سیستم های خودکار برای محافظت از مردم آمریکا در عصر هوش مصنوعی”.

اگرچه این طرح هیچ اثر قانونی ا،ام‌آوری ندارد، اما این سندی است که تلاش‌های اخیر برای تنظیم مقررات هوش مصنوعی را تجلیل می‌کند و طراحان، تنظیم‌کننده‌ها و مشتریان هوش مصنوعی را تشویق می‌کند تا به اثرات جانبی منفی که ممکن است هوش مصنوعی بر مردم آمریکا بگذارد و از نزدیک ببینند. اقداماتی برای کاهش این اثرات

پنج اصل

این طرح به پنج اصل جداگانه اما مرتبط سازماندهی شده است:

(1) سیستم های ایمن و موثر.

(2) حفاظت از تبعیض الگوریتمی.

(3) حریم خصوصی داده ها.

(4) اطلاعیه و توضیح. و

(5) جایگزین های انس،، توجه و بازگشت.

برای هر اصل، این سند به تشریح حفاظت‌های انس، مرتبط می‌پردازد که باید طراحی و استفاده از هوش مصنوعی را هدایت کند. موضوع کلی که در هر بخش ظاهر می شود این است که هوش مصنوعی باید با در نظر گرفتن تجربیات انس، طراحی شود و اطمینان حاصل شود که هرگونه استفاده از هوش مصنوعی، 1) جان انسان را به خطر نمی اندازد. 2) انسان را در معرض رفتار تبعیض آمیز قرار نمی دهد. 3) از منافع حریم خصوصی انسان محافظت می کند. 4) شفافیت را در بر می گیرد. و 5) به انسان این فرصت را می دهد که از سیستم های مبتنی بر هوش مصنوعی انصراف دهد.

حفاظت از تبعیض الگوریتمی

بخش مربوط به حفاظت از تبعیض الگوریتمی از اهمیت ویژه ای برای کارفرمایان است. کاخ سفید پتانسیل هوش مصنوعی برای نوآوری را به رسمیت می شناسد، اما توضیح می دهد که تمام سیستم های هوش مصنوعی باید “حفاظت های تبعیض الگوریتمی را در طراحی، استقرار و استفاده مداوم خود داشته باشند.” در حمایت از این حمایت‌ها، این طرح به نمونه‌ای در دنیای واقعی از ابزار استخدام اشاره می‌کند که «ویژگی‌های کارمندان یک شرکت (عمدتاً مردان) را آموخته و متقاضیان زن را به دلایل جعلی و تبعیض‌آمیز رد می‌کند.

کاخ سفید از اخیر EEOC تمجید می کند بولتن کمک فنی این توضیح می‌دهد که چگونه برخی از ابزارهای هوش مصنوعی مبتنی بر اشتغال می‌توانند با نقض قانون آمریکایی‌های دارای معلولیت، علیه افراد دارای معلولیت تبعیض قائل شوند. و بهترین شیوه‌های مبتنی بر صنعت را که در آن به یادگار مانده است، برجسته می‌کند پادمان های تعصب الگوریتمی برای نیروی کار، یک پرسشنامه ساختاریافته که مشاغل می توانند هنگام تصمیم گیری در مورد پیاده سازی نرم افزار طراحی شده برای ارزیابی کارگران و متقاضیان از آن استفاده کنند.

این طرح اصول حمایت از تبعیض را که ما شاهد اجرای آن در قو،ن مختلف در سراسر کشور بوده ایم، تشریح می کند. برای مثال، کاخ سفید توضیح می‌دهد که ابزارهای هوش مصنوعی باید از نظر تأثیرات تبعیض‌آمیز نظارت شوند و نتایج چنین ممیزی‌ها «باید هر زمان که ممکن است برای تأیید این حفاظت‌ها به اطلاع عموم برسد». این مطابق با مقررات اخیر در شهر نیویورک است که قرار است در ژانویه 2023 اجرایی شود که به حسابرسی ابزارهای هوش مصنوعی مورد استفاده در محل کار نیاز دارد.

مهم‌تر از همه، این طرح بر نیاز طراحان و کاربران فناوری هوش مصنوعی تأکید می‌کند که به تأثیرات تبعیض‌آمیز بر جمعیت‌های محافظت‌شده توجه داشته باشند. طراحان را هدایت می کند تا در سیستم ها از تبعیض ناخواسته مبتنی بر پرو،ی محافظت ایجاد کنند و به فروشندگان و مشتریان دستور می دهد تا تأثیرات را ارزیابی کنند و اقدامات فعالی را برای کاهش نتایج تبعیض آمیز انجام دهند.

مفهوم طرح برای کارفرمایان

اگرچه این طرح یک سند ا،ام آور نیست، اما نمادی از تمرکز فزاینده ای است که تنظیم کننده ها بر استفاده از هوش مصنوعی در تمام جنبه های زندگی، از جمله محل کار دارند. کارفرمایان باید به اصول بیان شده در طرح توجه داشته باشند و تحولات قانون را به دقت زیر نظر داشته باشند.

حق چاپ © 2022، هانتون اندروز کورث LLP. تمامی حقوق محفوظ است.بررسی حقوق ملی، جلد دوازدهم، شماره 291


منبع: https://www.natlawreview.com/article/bill-rights-information-age-white-،use-outlines-principles-artificial-intelligence