آژانس های فدرال بیانیه مشترکی درباره تعصب هوش مصنوعی منتشر کردند


چهارشنبه 26 آوریل 2023

در 25 آوریل 2023، مقامات چهار آژانس فدرال منتشر شد بی،ه ای مش، که متعهد به افزایش “تلاش های اجرایی برای محافظت از مردم در برابر سوگیری در سیستم های خودکار و هوش مصنوعی” (“AI”) است. آژانس‌هایی که در این تلاش شرکت می‌کنند عبارتند از: کمیسیون فرصت‌های شغلی برابر (“EEOC”)، کمیسیون تجارت فدرال (“FTC”)، و، دادگستری ایالات متحده (“DOJ”) و دفتر حمایت مالی از مصرف کننده (“CFPB” ). همانطور که قبلاً گزارش دادیم اینجا و اینجا، این آژانس ها قبلاً نگر، خود را در مورد این پتانسیل ابراز کرده اند که استفاده از سیستم های خودکار برای تصمیم گیری استخدامی می تواند نتایج تبعیض آمیز ایجاد کند. بی،ه مش، دستاوردهای اخیر آژانس‌ها در این زمینه را تشریح می‌کند و مجدداً تأکید می‌کند که در حالی که سیستم‌های خودکار کارایی، بهره‌وری بیشتر و سایر مزایا را ارائه می‌دهند، «پتانسیل تداوم تعصب غیرقانونی، خودکارسازی تبعیض‌های غیرقانونی و ایجاد نتایج مضر دیگر را دارند».

بی،ه مش، تاکید می کند که مراجع قانونی موجود اعمال می شوند به همان اندازه به استفاده از سیستم های خودکار و سایر فناوری های جدید. سپس تلاش‌های فردی و مش، آژانس‌ها برای جلب توجه به استفاده‌های بالقوه مضر سیستم‌های خودکار را برجسته می‌کند. به ،وان مثال، EEOC را ذکر می کند سند کمک فنی، منتشر شده در ماه مه گذشته، توضیح می دهد که ADA برای استفاده از نرم افزار، الگوریتم ها و هوش مصنوعی در تصمیم گیری استخدامی و FTC اعمال می شود. گزارش ژوئن گذشته به کنگره هشدار داد که ابزارهای هوش مصنوعی می توانند نادرست، جانبدارانه و تبعیض آمیز باشند و ممکن است نظارت تجاری تهاجمی را ترویج کنند.

در نهایت، بی،ه چند حوزه کلیدی را مشخص می کند که در آن سیستم های خودکار می توانند منجر به تبعیض غیرقانونی یا نقض قو،ن دیگر شوند. ابتدا، بی،ه اشاره می‌کند که ،وجی سیستم‌های خودکار ممکن است توسط مجموعه‌های داده‌ای که “باعصب تاریخی را در بر می‌گیرند” منحرف شود.[are] غیر معرف یا نامتعادل، یا «شامل انواع دیگری از خطاها». همچنین هشدار می دهد که وقتی سیستم های خودکار داده ها را با ک، های محافظت شده مرتبط می کنند، ممکن است تبعیض غیرقانونی ایجاد شود. دوم، بی،ه برخی از سیستم‌های خودکار را به ،وان «جعبه‌های سیاه» توصیف می‌کند و هشدار می‌دهد که این عدم شفافیت می‌تواند تشخیص منصفانه بودن سیستم را برای مردم دشوار کند. سوم، بی،ه تشخیص می دهد که توسعه دهندگان سیستم های خودکار اغلب به طور کامل زمینه های استفاده از سیستم هایشان را درک نمی کنند، بنابراین سیستم ها ممکن است تحت فرضیات ناقصی در مورد کاربران و شیوه های آنها توسعه داده شوند.

بی،ه مش، با تعهد آژانس ها برای حمایت جدی از حقوق افراد، خواه نقض با استفاده از فناوری پیشرفته یا روش های سنتی تر، به پایان برسد.

غذای آماده برای کارفرمایان

در حالی که بی،ه مش، هیچ تغییری در قانون یا مقررات نشان نمی‌دهد، نگاهی اجمالی به حوزه‌های اجرایی اولویت‌دار توسط EEOC، FTC، DOJ و CFPB ارائه می‌کند. کارفرمای، که از سیستم‌های خودکار برای تصمیم‌گیری در مورد استخدام استفاده می‌کنند، باید سیستم‌های موجود خود را به‌طور منظم آزمایش و تأیید کنند و برای بحث در مورد هر گونه تعهد قانونی با مشاور مشورت کنند، به‌ویژه در شرایطی که قو،ن بیشتری برای تنظیم هوش مصنوعی در حال پیشنهاد و تصویب هستند (به‌،وان مثال، اینجا و اینجا). ما به نظارت برای پیشرفت های بیشتر ادامه خواهیم داد.

© 2023 Proskauer Rose LLP. بررسی حقوق ملی، جلد سیزدهم، شماره 116


منبع: https://www.natlawreview.com/article/eeoc-ftc-and-other-federal-agencies-release-joint-statement-confronting-bias-and