تا کنون در سال 2023، هوش مصنوعی (AI) در لبه پیشروی انقلاب تکنولوژیک بوده است، زیرا کاربردهای بالقوه ابزارهایی مانند ChatGPT سر و صدای قابل توجهی را به همراه داشته است. در آوریل 2023، اولین قانون شهر نیویورک را گزارش کردیم که ا،امات اخطار و ممیزی را در مورد استفاده از ابزارهای هوش مصنوعی توسط کارفرمایان اعمال می کند. اخیراً، کمیسیون فرصت های شغلی برابر (EEOC) دو سند راهنمایی را در مورد هوش مصنوعی در زمینه منابع انس، منتشر کرده است، به طور خاص به مسائل مربوط به تاثیر نامطلوب و اسکان معلولان.
کارفرمایان به طور فزاینده ای از ابزارهای هوش مصنوعی و یادگیری ماشینی (ML) برای کمک به بهینه سازی تصمیمات استخدامی مانند استخدام، ترفیع و خاتمه استفاده می کنند. برخی از نمونههایی از این ابزارها که در راهنمای EEOC شناسایی شدهاند عبارتند از اسکنر رزومه برای شناسایی نامزدهای امیدوارکننده، نرمافزار نظارت بر کارمندان که کارمندان را بر اساس معیارهای بهرهوری رتبهبندی میکند، دستیاران مجازی یا رباتهای چت که از متقاضیان در مورد صلاحیتهایشان سؤال میکنند، نرمافزار مصاحبه ویدیویی که حالات چهره و ال،ای گفتار را ارزیابی میکند. و تست نرم افزاری که نمرات تن، شغلی یا فرهنگی را ارائه می کند. به طور کلی، ابزار AI/ML ابزاری است که به طور کامل یا جزئی بر تجزیه و تحلیل کامپیوتری دادهها برای تصمیمگیری در مورد شغل متکی است. با این حال، مانند بسیاری از فناوریهای جدید، در برخی موارد، پیشرفت فناوری ممکن است انطباق قانونی را به خطر بیندازد. کارفرمایان باید پیامدهای این ابزارها را هم تحت قو،ن جدید (مانند شهر نیویورک) و هم قو،ن قدیمی تر مانند قو،ن اداره شده توسط EEOC در نظر بگیرند.
EEOC اولین سند راهنمایی تعهد کارفرما را برای اطمینان از اینکه ابزارهای AI/ML مورد استفاده در روشهای انتخاب شغل بر طبقات محافظت شده تحت ،وان VII تأثیر منفی نمیگذارد، ارزیابی کرد.به ،وان مثال، ،ت، نژاد). یک ابزار AI/ML که تأثیر نامتن، «قابل توجهی» بر یک طبقه محافظت شده دارد، اگر مرتبط با شغل نباشد و با نیازهای تجاری سازگار نباشد یا اگر جایگزین های مطلوب تری در دسترس باشد، ممکن است تبعیض آمیز باشد. اگر ابزاری رتبههای بالاتری اعطا کند یا احتمال بیشتری برای انتخاب یا رد اعضای یک ک، محافظت شده خاص در مقایسه با سایر ک،های محافظتشده داشته باشد، میتواند تأثیر نامطلوبی داشته باشد. چند نکته مهم از راهنمای EEOC در مورد اثرات نامطلوب:
-
ممکن است کارفرمایان مسئول تأثیر نرم افزارهای شخص ثالث باشند. راهنمایی های EEOC نشان می دهد که آژانس به دنبال این است که کارفرمایان را مسئول تأثیرات نامطلوب بداند حتی اگر ابزار AI/ML مورد نظر نرم افزار شخص ثالثی باشد که کارفرما توسعه نداده است. این راهنما بیان میکند که این مسئولیت میتواند از مدیریت نرمافزار خود کارفرما یا مدیریت فروشنده به ،وان نماینده کارفرما ناشی شود.
-
کارفرمایان با مسئولیت خود به تضمین فروشنده متکی هستند. اگرچه EEOC کارفرمایان را تشویق می کند که «حداقل» از فروشندگان نرم افزار AI/ML خود در مورد اقدامات انجام شده برای ارزیابی اثرات نامطلوب بپرسند، موضع EEOC این است که اتکا به تضمین های فروشنده ،وماً سپر در برابر مسئولیت نیست. کارفرمایان همچنان با مسئولیت “اگر فروشنده در مورد ارزیابی خود نادرست باشد.”
-
خود ممیزی توصیه می شود. با توجه به ناتو، در اتکا به تضمینهای فروشنده، کارفرمایان با ممیزی دورهای که چگونه ابزارهای هوش مصنوعی/ML استفاده میکنند بر گروههای مختلف تأثیر میگذارند، بهترین کار را دارند. برای انجام چنین ممیزی، کارفرمایان نیاز به دسترسی به داده های زیربنایی ابزار AI/ML دارند که در زمان اجرای ابزار به بهترین وجه تضمین می شود.
EEOC سند راهنمایی دوم به تأثیر ابزارهای AI/ML بر افراد دارای معلولیت تحت قانون آمریکاییهای دارای معلولیت (ADA) پرداخت. راهنمای ADA روشن میکند که این یک تحلیل کاملاً متفاوت از تحلیل تأثیر نامطلوب ،وان VII است که در بالا توضیح داده شد. علاوه بر این، به دلیل ماهیت فردی تأثیر معلولیت ها و تجزیه و تحلیل سازگاری معقول ADA، اعتبار ابزار AI/ML یا یک یافته آماری مبنی بر اینکه این ابزار به طور کلی بر افراد دارای معلولیت تأثیر منفی نمی گذارد، برای اطمینان از انطباق ADA کافی نیست. . درعوض، EEOC فرآیند فردیتر را پیشبینی میکند که در آن کارفرما ارزیابی میکند که آیا محدودیتهای یک کارمند خاص یا شرایط متقاضی باعث میشود که کارمند یا متقاضی توسط ابزار AI/ML “غربالگری” یا بهطور ناعادلانه رتبهبندی شود. راهنمای EEOC پیشبینی میکند که کارفرمایان، به ،وان بهترین روش، اطلاعیه نسبتاً عمیقی را در مورد عملکرد ابزارهای AI/ML و در دسترس بودن فرآیندهای جایگزین به منظور انجام فرآیند تطبیق ارائه میدهند.
AI/ML پتانسیل تغییر محل کار را، در میان سایر فرآیندهای تجاری، با اجازه دادن به کارفرمایان برای مرتبسازی مقادیر زیادی از دادهها و بهسرعت جمعآوری بینش عملی ارائه میدهد. با این حال، EEOC و حوزههای قضایی مانند شهر نیویورک پتانسیل تعصبات تبعیضآمیز را در الگوریتمهای AI/ML یا این الگوریتمها برای آسیب رساندن به افراد دارای معلولیت شناسایی کردهاند. به منظور جلوگیری از نقض قو،ن جدیدی که برای رسیدگی به AI/ML طراحی شده اند و قو،ن موجود مانند ،وان VII و ADA که چندین دهه پیش اجرا شده اند اما با این وجود بر استفاده از AI/ML حاکم هستند، کارفرمایان باید به دقت فرآیندهای خود را برای استفاده از این ابزارها در این زمینه بررسی کنند. منابع انس، و زمینه استخدام
© Polsinelli PC، Polsinelli LLP در کالیفرنیابررسی حقوق ملی، جلد سیزدهم، شماره 144
منبع: https://www.natlawreview.com/article/eeoc-issues-guidance-use-artificial-intelligence-employment-selections