آنچه کارفرمایان باید در مورد هوش مصنوعی در تصمیم گیری های استخدامی بدانند


شرکت حقوقی پولسینلی AM LAW

رویه ها و حوزه های قضایی مرتبط

تا کنون در سال 2023، هوش مصنوعی (AI) در لبه پیشروی انقلاب تکنولوژیک بوده است، زیرا کاربردهای بالقوه ابزارهایی مانند ChatGPT سر و صدای قابل توجهی را به همراه داشته است. در آوریل 2023، اولین قانون شهر نیویورک را گزارش کردیم که ا،امات اخطار و ممیزی را در مورد استفاده از ابزارهای هوش مصنوعی توسط کارفرمایان اعمال می کند. اخیراً، کمیسیون فرصت های شغلی برابر (EEOC) دو سند راهنمایی را در مورد هوش مصنوعی در زمینه منابع انس، منتشر کرده است، به طور خاص به مسائل مربوط به تاثیر نامطلوب و اسکان معلولان.

کارفرمایان به طور فزاینده ای از ابزارهای هوش مصنوعی و یادگیری ماشینی (ML) برای کمک به بهینه سازی تصمیمات استخدامی مانند استخدام، ترفیع و خاتمه استفاده می کنند. برخی از نمونه‌هایی از این ابزارها که در راهنمای EEOC شناسایی شده‌اند عبارتند از اسکنر رزومه برای شناسایی نامزدهای امیدوارکننده، نرم‌افزار نظارت بر کارمندان که کارمندان را بر اساس معیارهای بهره‌وری رتبه‌بندی می‌کند، دستیاران مجازی یا ربات‌های چت که از متقاضیان در مورد صلاحیت‌هایشان سؤال می‌کنند، نرم‌افزار مصاحبه ویدیویی که حالات چهره و ال،ای گفتار را ارزیابی می‌کند. و تست نرم افزاری که نمرات تن، شغلی یا فرهنگی را ارائه می کند. به طور کلی، ابزار AI/ML ابزاری است که به طور کامل یا جزئی بر تجزیه و تحلیل کامپیوتری داده‌ها برای تصمیم‌گیری در مورد شغل متکی است. با این حال، مانند بسیاری از فناوری‌های جدید، در برخی موارد، پیشرفت فناوری ممکن است انطباق قانونی را به خطر بیندازد. کارفرمایان باید پیامدهای این ابزارها را هم تحت قو،ن جدید (مانند شهر نیویورک) و هم قو،ن قدیمی تر مانند قو،ن اداره شده توسط EEOC در نظر بگیرند.

EEOC اولین سند راهنمایی تعهد کارفرما را برای اطمینان از اینکه ابزارهای AI/ML مورد استفاده در روش‌های انتخاب شغل بر طبقات محافظت شده تحت ،وان VII تأثیر منفی نمی‌گذارد، ارزیابی کرد.به ،وان مثال، ،ت، نژاد). یک ابزار AI/ML که تأثیر نامتن، «قابل توجهی» بر یک طبقه محافظت شده دارد، اگر مرتبط با شغل نباشد و با نیازهای تجاری سازگار نباشد یا اگر جایگزین های مطلوب تری در دسترس باشد، ممکن است تبعیض آمیز باشد. اگر ابزاری رتبه‌های بالاتری اعطا کند یا احتمال بیشتری برای انتخاب یا رد اعضای یک ک، محافظت شده خاص در مقایسه با سایر ک،‌های محافظت‌شده داشته باشد، می‌تواند تأثیر نامطلوبی داشته باشد. چند نکته مهم از راهنمای EEOC در مورد اثرات نامطلوب:

  • ممکن است کارفرمایان مسئول تأثیر نرم افزارهای شخص ثالث باشند. راهنمایی های EEOC نشان می دهد که آژانس به دنبال این است که کارفرمایان را مسئول تأثیرات نامطلوب بداند حتی اگر ابزار AI/ML مورد نظر نرم افزار شخص ثالثی باشد که کارفرما توسعه نداده است. این راهنما بیان می‌کند که این مسئولیت می‌تواند از مدیریت نرم‌افزار خود کارفرما یا مدیریت فروشنده به ،وان نماینده کارفرما ناشی شود.

  • کارفرمایان با مسئولیت خود به تضمین فروشنده متکی هستند. اگرچه EEOC کارفرمایان را تشویق می کند که «حداقل» از فروشندگان نرم افزار AI/ML خود در مورد اقدامات انجام شده برای ارزیابی اثرات نامطلوب بپرسند، موضع EEOC این است که اتکا به تضمین های فروشنده ،وماً سپر در برابر مسئولیت نیست. کارفرمایان همچنان با مسئولیت “اگر فروشنده در مورد ارزیابی خود نادرست باشد.”

  • خود ممیزی توصیه می شود. با توجه به ناتو، در اتکا به تضمین‌های فروشنده، کارفرمایان با ممیزی دوره‌ای که چگونه ابزارهای هوش مصنوعی/ML استفاده می‌کنند بر گروه‌های مختلف تأثیر می‌گذارند، بهترین کار را دارند. برای انجام چنین ممیزی، کارفرمایان نیاز به دسترسی به داده های زیربنایی ابزار AI/ML دارند که در زمان اجرای ابزار به بهترین وجه تضمین می شود.

EEOC سند راهنمایی دوم به تأثیر ابزارهای AI/ML بر افراد دارای معلولیت تحت قانون آمریکایی‌های دارای معلولیت (ADA) پرداخت. راهنمای ADA روشن می‌کند که این یک تحلیل کاملاً متفاوت از تحلیل تأثیر نامطلوب ،وان VII است که در بالا توضیح داده شد. علاوه بر این، به دلیل ماهیت فردی تأثیر معلولیت ها و تجزیه و تحلیل سازگاری معقول ADA، اعتبار ابزار AI/ML یا یک یافته آماری مبنی بر اینکه این ابزار به طور کلی بر افراد دارای معلولیت تأثیر منفی نمی گذارد، برای اطمینان از انطباق ADA کافی نیست. . درعوض، EEOC فرآیند فردی‌تر را پیش‌بینی می‌کند که در آن کارفرما ارزیابی می‌کند که آیا محدودیت‌های یک کارمند خاص یا شرایط متقاضی باعث می‌شود که کارمند یا متقاضی توسط ابزار AI/ML “غربالگری” یا به‌طور ناعادلانه رتبه‌بندی شود. راهنمای EEOC پیش‌بینی می‌کند که کارفرمایان، به ،وان بهترین روش، اطلاعیه نسبتاً عمیقی را در مورد عملکرد ابزارهای AI/ML و در دسترس بودن فرآیندهای جایگزین به منظور انجام فرآیند تطبیق ارائه می‌دهند.

AI/ML پتانسیل تغییر محل کار را، در میان سایر فرآیندهای تجاری، با اجازه دادن به کارفرمایان برای مرتب‌سازی مقادیر زیادی از داده‌ها و به‌سرعت جمع‌آوری بینش عملی ارائه می‌دهد. با این حال، EEOC و حوزه‌های قضایی مانند شهر نیویورک پتانسیل تعصبات تبعیض‌آمیز را در الگوریتم‌های AI/ML یا این الگوریتم‌ها برای آسیب رساندن به افراد دارای معلولیت شناسایی کرده‌اند. به منظور جلوگیری از نقض قو،ن جدیدی که برای رسیدگی به AI/ML طراحی شده اند و قو،ن موجود مانند ،وان VII و ADA که چندین دهه پیش اجرا شده اند اما با این وجود بر استفاده از AI/ML حاکم هستند، کارفرمایان باید به دقت فرآیندهای خود را برای استفاده از این ابزارها در این زمینه بررسی کنند. منابع انس، و زمینه استخدام

© Polsinelli PC، Polsinelli LLP در کالیفرنیابررسی حقوق ملی، جلد سیزدهم، شماره 144


منبع: https://www.natlawreview.com/article/eeoc-issues-guidance-use-artificial-intelligence-employment-selections