نگرانی های هوش مصنوعی در تصمیمات استخدامی که توسط آژانس های فدرال خطاب شده است


چهارشنبه 26 آوریل 2023

در 25 آوریل 2023، چهار آژانس فدرال ایالات متحده بی،ه مش،ی صادر ،د که در آن متعهد شدند قو،ن فدرال را برای “ترویج نوآوری مسئولانه” در زمینه سیستم های تصمیم گیری خودکار و هوش مصنوعی (AI) که به طور فزاینده ای توسط سازمان های ،تی و خصوصی استفاده می شود، اجرا کنند. از جمله اتخاذ تصمیمات مربوط به اشتغال.

بازدید سریع

  • بی،ه مش، EEOC، DOJ، CFPB و FTC نگر،‌هایی را در مورد استفاده روزافزون از هوش مصنوعی ایجاد کرد.

  • این آژانس ها متعهد شدند که قو،ن فدرال را برای ترویج «نوآوری مسئولانه» اجرا کنند.

  • این آ،ین اقدام EEOC برای هشدار به کارفرمایان است که این موضوع را دنبال می کند.

بی،ه مش،

در بی،ه مش، از کمیسیون فرصت های شغلی برابر ایالات متحده (EEOC)، بخش حقوق مدنی و، دادگستری (DOJ)، دفتر حمایت مالی از مصرف کننده (CFPB) و کمیسیون تجارت فدرال (FTC)، آژانس ها نگر، های خود را در مورد اینکه این فناوری در حال ظهور می تواند بر مدنی تأثیر بگذارد برجسته ،د. حقوق، رقابت عادلانه، حمایت از مصرف کننده و فرصت های شغلی برابر.

سیستم‌های خودکار که از «هوش مصنوعی» یا «AI» استفاده می‌کنند یا بر،ب‌گذاری می‌شوند، در این بی،ه به‌طور گسترده‌ای تعریف شده‌اند که شامل «نرم‌افزار و فرآیندهای الگوریتمی … مورد استفاده برای خودکارسازی گردش کار و کمک به افراد برای تکمیل وظایف یا تصمیم‌گیری است».

در بی،ه مش، آمده است: «امروز، آژانس‌های ما بر عزم خود برای نظارت بر توسعه و استفاده از سیستم‌های خودکار و ارتقای نوآوری مسئولانه تاکید می‌کنند.» ما همچنین متعهد می‌شویم که به شدت از مقامات جمعی خود برای محافظت از حقوق افراد استفاده کنیم، صرف نظر از اینکه آیا نقض قانونی از طریق روش‌های سنتی یا فناوری‌های پیشرفته رخ می‌دهد.»

احتمال “تبعیض غیرقانونی”

طبق بی،ه مش،، آژانس‌ها معتقدند سیستم‌های خودکار و هوش مصنوعی پتانسیل «تولید نتایجی را دارند که منجر به تبعیض غیرقانونی» شود. در حالی که آژانس‌ها اذعان داشتند که چنین ابزارهایی «می‌توانند مفید باشند»، اما اظهار داشتند که نگران این هستند که چگونه ابزارها به «مقدار عظیم داده‌ها برای یافتن ال،ا یا همبستگی‌ها» برای «انجام وظایف یا ارائه توصیه‌ها و پیش‌بینی‌ها» متکی هستند.

بی،ه مش، سه منبع بالقوه برای تبعیض را برجسته کرد:

  • “داده ها و مجموعه داده ها” – این بی،ه به پتانسیل “منحرف شدن” نتایج توسط “مجموعه داده های نامتعادل یا نامتعادل” اشاره می کند که “سوگیری تاریخی را در بر می گیرد.”

  • ” شفافیت و دسترسی مدل” – این بی،ه نگر،‌هایی را ایجاد کرد که سیستم‌های خودکار می‌توانند «جعبه‌های سیاه» باشند که عدم شفافیت در نحوه عملکرد سیستم وجود دارد.

  • “طراحی و استفاده” – این بی،ه هشدار داد که توسعه دهندگان ممکن است به طور کامل درک نکنند که این فناوری چگونه استفاده می شود و “ممکن است یک سیستم را بر اساس فرضیات ناقص در مورد کاربران آن، زمینه مربوطه، یا رویه ها و رویه های اساسی که ممکن است جایگزین شود، طراحی کنند.”

نگر، های شغلی برابر

این بی،ه مش، در حالی منتشر می شود که EEOC و رئیس شارلوت باروز بررسی دقیق استفاده از سیستم های خودکار و هوش مصنوعی توسط کارفرمایان را در اولویت قرار داده و راه اندازی کرده اند. هوش مصنوعی و ابتکار انصاف الگوریتمی. که در اعلام بی،ه مش،باروز اظهار داشت که آژانس از “مقامات اجرایی خود برای اطمینان از اینکه هوش مصنوعی به مسیری با فناوری پیشرفته برای تبعیض تبدیل نمی شود استفاده خواهد کرد.”

در ژانویه 2023، EEOC جلسه دادرسی برگزار کرد در مورد موضوعی که در آن اعضای میزگرد از EEOC خواستند تا نقش بیشتری در ارزیابی فناوری ایفا کند و رهنمودهای مربوط به انطباق با ،وان هفتم قانون حقوق مدنی 1964 و قانون تبعیض سنی در استخدام را صادر کند. این جلسه پس از انتشار کمک‌های فنی EEOC در ماه مه 2022 انجام شد که هشدار داد استفاده از سیستم‌های خودکار و هوش مصنوعی برای تصمیم‌گیری‌های مربوط به اشتغال ممکن است قانون آمریکایی‌های دارای معلولیت (ADA) را نقض کند. به طور خاص، آژانس در آن کمک، نگر، هایی را برجسته کرد که این ابزارها ممکن است به طور بالقوه نامزدهای شغلی دارای معلولیت را “غریب” کنند، در ارائه تسهیلات معقول به نامزدهای شغلی ناکام باشند، و نگر، های مربوط به حفظ حریم خصوصی ایجاد کنند زیرا نامزدها ممکن است مجبور به افشای اطلاعات مربوط به معلولیت یا پزشکی شوند. شرایط

خوراکی های کلیدی

بی،ه مش، آژانس های فدرال آ،ین نشانه ای است که نشان می دهد تنظیم کننده ها نگاه دقیق تری به نحوه استفاده از فناوری تصمیم گیری خودکار و تأثیر آن بر محل کار و سایر عرصه ها دارند. تعداد فزاینده ای از حوزه های قضایی ایالتی و محلی، از جمله ایلینوی و شهر نیویورک نیز شروع به تنظیم انواع خاصی از هوش مصنوعی و ابزارهای تصمیم گیری الگوریتمی در تصمیم گیری های استخدامی کرده اند. کارفرمایان ممکن است بخواهند بررسی کنند که تا چه حد از چنین ابزارهایی استفاده می کنند و نحوه استفاده از آنها را در حرکت رو به جلو ارزیابی کنند.

© 2023، Ogletree، Deakins، Nash، Smoak & Stewart، PC، کلیه حقوق محفوظ است.بررسی حقوق ملی، جلد سیزدهم، شماره 116


منبع: https://www.natlawreview.com/article/eeoc-issues-joint-statement-automated-systems-and-ai-concerns-other-agencies