چهارشنبه 26 آوریل 2023
در 25 آوریل 2023، مقامات چهار آژانس فدرال منتشر شد بی،ه ای مش، که متعهد به افزایش “تلاش های اجرایی برای محافظت از مردم در برابر سوگیری در سیستم های خودکار و هوش مصنوعی” (“AI”) است. آژانسهایی که در این تلاش شرکت میکنند عبارتند از: کمیسیون فرصتهای شغلی برابر (“EEOC”)، کمیسیون تجارت فدرال (“FTC”)، و، دادگستری ایالات متحده (“DOJ”) و دفتر حمایت مالی از مصرف کننده (“CFPB” ). همانطور که قبلاً گزارش دادیم اینجا و اینجا، این آژانس ها قبلاً نگر، خود را در مورد این پتانسیل ابراز کرده اند که استفاده از سیستم های خودکار برای تصمیم گیری استخدامی می تواند نتایج تبعیض آمیز ایجاد کند. بی،ه مش، دستاوردهای اخیر آژانسها در این زمینه را تشریح میکند و مجدداً تأکید میکند که در حالی که سیستمهای خودکار کارایی، بهرهوری بیشتر و سایر مزایا را ارائه میدهند، «پتانسیل تداوم تعصب غیرقانونی، خودکارسازی تبعیضهای غیرقانونی و ایجاد نتایج مضر دیگر را دارند».
بی،ه مش، تاکید می کند که مراجع قانونی موجود اعمال می شوند به همان اندازه به استفاده از سیستم های خودکار و سایر فناوری های جدید. سپس تلاشهای فردی و مش، آژانسها برای جلب توجه به استفادههای بالقوه مضر سیستمهای خودکار را برجسته میکند. به ،وان مثال، EEOC را ذکر می کند سند کمک فنی، منتشر شده در ماه مه گذشته، توضیح می دهد که ADA برای استفاده از نرم افزار، الگوریتم ها و هوش مصنوعی در تصمیم گیری استخدامی و FTC اعمال می شود. گزارش ژوئن گذشته به کنگره هشدار داد که ابزارهای هوش مصنوعی می توانند نادرست، جانبدارانه و تبعیض آمیز باشند و ممکن است نظارت تجاری تهاجمی را ترویج کنند.
در نهایت، بی،ه چند حوزه کلیدی را مشخص می کند که در آن سیستم های خودکار می توانند منجر به تبعیض غیرقانونی یا نقض قو،ن دیگر شوند. ابتدا، بی،ه اشاره میکند که ،وجی سیستمهای خودکار ممکن است توسط مجموعههای دادهای که “باعصب تاریخی را در بر میگیرند” منحرف شود.[are] غیر معرف یا نامتعادل، یا «شامل انواع دیگری از خطاها». همچنین هشدار می دهد که وقتی سیستم های خودکار داده ها را با ک، های محافظت شده مرتبط می کنند، ممکن است تبعیض غیرقانونی ایجاد شود. دوم، بی،ه برخی از سیستمهای خودکار را به ،وان «جعبههای سیاه» توصیف میکند و هشدار میدهد که این عدم شفافیت میتواند تشخیص منصفانه بودن سیستم را برای مردم دشوار کند. سوم، بی،ه تشخیص می دهد که توسعه دهندگان سیستم های خودکار اغلب به طور کامل زمینه های استفاده از سیستم هایشان را درک نمی کنند، بنابراین سیستم ها ممکن است تحت فرضیات ناقصی در مورد کاربران و شیوه های آنها توسعه داده شوند.
بی،ه مش، با تعهد آژانس ها برای حمایت جدی از حقوق افراد، خواه نقض با استفاده از فناوری پیشرفته یا روش های سنتی تر، به پایان برسد.
غذای آماده برای کارفرمایان
در حالی که بی،ه مش، هیچ تغییری در قانون یا مقررات نشان نمیدهد، نگاهی اجمالی به حوزههای اجرایی اولویتدار توسط EEOC، FTC، DOJ و CFPB ارائه میکند. کارفرمای، که از سیستمهای خودکار برای تصمیمگیری در مورد استخدام استفاده میکنند، باید سیستمهای موجود خود را بهطور منظم آزمایش و تأیید کنند و برای بحث در مورد هر گونه تعهد قانونی با مشاور مشورت کنند، بهویژه در شرایطی که قو،ن بیشتری برای تنظیم هوش مصنوعی در حال پیشنهاد و تصویب هستند (به،وان مثال، اینجا و اینجا). ما به نظارت برای پیشرفت های بیشتر ادامه خواهیم داد.
© 2023 Proskauer Rose LLP. بررسی حقوق ملی، جلد سیزدهم، شماره 116
منبع: https://www.natlawreview.com/article/eeoc-ftc-and-other-federal-agencies-release-joint-statement-confronting-bias-and