NIST برای کمک به کسب‌وکارها در خطر هوش مصنوعی راه‌اندازی می‌کند


همانطور که قبلا مورد بحث قرار گرفتاوایل سال جاری، موسسه ملی استاندارد و فناوری (NIST) مرکز منابع هوش مصنوعی قابل اعتماد و مسئولیت پذیر را راه اندازی کرد. NIST در مرکز منابع هوش مصنوعی گنجانده شده است چارچوب مدیریت ریسک هوش مصنوعی (RMF) در کنار الف کتاب بازی برای کمک به مشاغل و افراد در اجرای چارچوب. RMF برای کمک به کاربران و توسعه‌دهندگان هوش مصنوعی طراحی شده است تا ضمن ارائه دستورالعمل‌های عملی و بهترین شیوه‌ها برای رسیدگی و به حداقل رساندن چنین خطراتی، خطرات سیستم‌های هوش مصنوعی را تحلیل و رسیدگی کنند. همچنین در نظر گرفته شده است که با توجه به رشد و عملیاتی شدن فناوری های هوش مصنوعی، عملی و سازگار با چشم انداز در حال تغییر باشد.

نیمه اول RMF این خطرات را مورد بحث قرار می دهد و نیمه دوم نحوه رسیدگی به خطرات را مورد بحث قرار می دهد. هنگامی که AI RMF به درستی پیاده‌سازی شود، سازمان‌ها و کاربران باید فرآیندهای پیشرفته، آگاهی و دانش بهبود یافته و تعامل بیشتر را هنگام کار با سیستم‌های هوش مصنوعی ببینند. RMF سیستم‌های هوش مصنوعی را به‌،وان «سیستم‌های مهندسی شده یا مبتنی بر ماشین توصیف می‌کند که می‌توانند برای مجموعه‌ای از اه، معین، ،وجی‌هایی مانند پیش‌بینی‌ها، توصیه‌ها یا تصمیم‌گیری‌هایی را تولید کنند که بر محیط‌های واقعی یا مجازی تأثیر می‌گذارند. سیستم‌های هوش مصنوعی برای عملکرد با سطوح مختلف استقلال طراحی شده‌اند.

درک و رسیدگی به خطرات، اثرات و مضرات با سیستم های هوش مصنوعی

استفاده از سیستم های هوش مصنوعی به افراد و سازمان ها (که در مجموع در RMF به ،وان “بازیگران” نامیده می شود) مزایای بی شماری از جمله افزایش بهره وری و خلاقیت را ارائه می دهد. با این حال، RMF تشخیص می‌دهد که سیستم‌های هوش مصنوعی، در صورت استفاده نادرست، می‌توانند به افراد، سازمان‌ها و عموم مردم آسیب وارد کنند. برای مثال، RMF بیان می‌کند که سیستم‌های هوش مصنوعی می‌توانند تبعیض را تشدید کنند، خطرات امنیتی را برای شرکت‌ها ایجاد کنند و مسائل مربوط به تغییرات آب و هوایی را تشدید کنند. RMF به بازیگران این امکان را می‌دهد تا به تأثیرات مثبت و منفی سیستم‌های هوش مصنوعی به صورت هماهنگ رسیدگی کنند.

همانطور که بسیاری از متخصصان امنیت سایبری می‌دانند، ریسک تابعی از احتمال وقوع یک رویداد و آسیبی است که در صورت وقوع آن رویداد می‌تواند ایجاد شود. پیامدهای منفی می تواند شامل آسیب به افراد، سازمان ها یا یک ا،یستم باشد. در عمل، کمیت ، ریسک با دقت بسیار دشوار است، زیرا ممکن است عدم قطعیت قابل توجهی در احتمال وقوع رویداد وجود داشته باشد و اغلب تشخیص اثرات آسیب ها در صورت وقوع هر یک از آنها دشوار است. RMF برخی از این چالش ها را شرح می دهد، از جمله:

  • خطرات مربوط به نرم افزار، سخت افزار و داده های شخص ثالث: در حالی که داده‌ها یا سیستم‌های شخص ثالث می‌توانند برای تسریع توسعه سیستم‌های هوش مصنوعی مفید باشند، اما ناشناخته‌هایی را نشان می‌دهند که می‌توانند اندازه‌گیری ریسک را پیچیده کنند. علاوه بر این، کاربران سیستم‌های هوش مصنوعی ممکن است از چنین سیستم‌هایی به روشی که توسعه‌دهندگان و ارائه‌دهندگان آنها در نظر داشتند استفاده نکنند. توسعه دهندگان و ارائه دهندگان سیستم های هوش مصنوعی ممکن است تعجب کنند زم، که استفاده از سیستم های هوش مصنوعی در یک سیستم تولید بسیار متفاوت از استفاده در یک محیط توسعه کنترل شده است.

  • در دسترس بودن معیارهای قابل اعتماد: مح،ه تأثیر یا آسیب احتمالی هنگام استفاده از سیستم‌های هوش مصنوعی پیچیده است و ممکن است عوامل زیادی را شامل شود.

  • ریسک در مراحل مختلف چرخه حیات هوش مصنوعی: بازیگر، که از یک سیستم خارج از قفسه استفاده می کنند باید با خطرات متفاوتی نسبت به یک بازیگر که سیستم خود را می سازد و آموزش می دهد، مواجه شوند.

    RMF تشخیص می‌دهد که شرکت‌ها باید تحمل خود را برای ریسک تعیین کنند، و برخی از سازمان‌ها ممکن است بسته به زمینه‌های قانونی یا نظارتی، مایل به تحمل ریسک بیشتری نسبت به سایرین باشند. با این حال، RMF تشخیص می‌دهد که پرداختن به همه ریسک‌ها و به حداقل رساندن آنها کارآمد یا مقرون به صرفه نیست و ،ب‌وکارها باید اولویت‌بندی کنند که چه ریسک‌هایی باید برطرف شوند. مشابه نحوه برخورد ،ب‌وکارها با خطرات امنیت سایبری و حریم خصوصی داده‌ها، RMF پیشنهاد می‌کند که مدیریت ریسک در اقدامات سازم، ادغام شود، زیرا ریسک‌های مختلف خود را در مراحل مختلف اقدامات سازم، نشان می‌دهند.

    RMF همچنین تشخیص می دهد که قابلیت اطمینان یکی از ویژگی های کلیدی سیستم های هوش مصنوعی است. قابل اعتماد بودن با رفتار بازیگران، مجموعه داده های مورد استفاده توسط سیستم های هوش مصنوعی، رفتار کاربران و توسعه دهندگان سیستم های هوش مصنوعی و نحوه نظارت بازیگران بر این سیستم ها مرتبط است. RMF نشان می دهد که ویژگی های زیر بر قابلیت اطمینان یک سیستم هوش مصنوعی تأثیر می گذارد:

  • اعتبار و قابلیت اطمینان: بازیگران باید بتوانند تأیید کنند که سیستم هوش مصنوعی ا،امات خاصی را برآورده کرده است و می‌تواند بدون ش،ت تحت شرایط خاص عمل کند.

  • ایمنی: سیستم های هوش مصنوعی نباید جان، سلامت، اموال یا محیط زیست انسان را به خطر بیندازند.

  • امنیت و انعطاف پذیری: سیستم‌های هوش مصنوعی باید بتوانند به هر دو رویداد نامطلوب و تغییرات غیرمنتظره واکنش نشان دهند و از آن بازیابی کنند.

  • پاسخگویی و شفافیت: بازیگران باید بتوانند به اطلاعات مربوط به سیستم های هوش مصنوعی و ،وجی های آنها دسترسی داشته باشند.

  • قابل توضیح و تفسیر پذیری: سیستم های هوش مصنوعی باید بتوانند مقدار من،ی از اطلاعات را در اختیار بازیگران قرار دهند و سطح مشخصی از درک را ارائه دهند.

  • افزایش حریم خصوصی: در صورت ،وم، انتخاب‌های طراحی برای سیستم‌های هوش مصنوعی باید دارای مقادیری مانند ناشناس بودن، محرمانه بودن و کنترل باشد.

  • انصاف با سوگیری مضر مدیریت شده: سیستم‌های هوش مصنوعی خطر تداوم و تشدید تبعیض‌های موجود را دارند. بازیگران باید برای پیشگیری و کاهش چنین سوگیری ها آماده باشند.

هسته و نمایه های مدیریت ریسک AI RMF

در هسته AI RMF (RMF Core) عملکردهای اساسی وجود دارد که برای ارائه چارچوبی برای کمک به ،ب و کارها در توسعه سیستم های هوش مصنوعی قابل اعتماد طراحی شده اند. این توابع عبارتند از: حکومت، نقشه برداری، اندازه گیری و مدیریت، با عملکرد «حکومت» طراحی شده برای تأثیرگذاری بر هر یک از دیگران.

NIST

شکل 1: هسته مدیریت ریسک (NIST AI 100-1, Page 20).

هر یک از این توابع بیشتر به دسته ها و زیرمجموعه هایی ت،یم می شوند که برای دستیابی به عملکردهای سطح بالا طراحی شده اند. با توجه به تعداد زیادی از زیرمجموعه ها و اقدامات پیشنهادی، هسته RMF به ،وان چک لیستی عمل نمی کند که مشاغل صرفاً برای “چک ، کادر” از آن استفاده می کنند. در عوض، AI RMF توصیه می کند که مدیریت ریسک باید مستمر، به موقع و در طول چرخه عمر سیستم های AI انجام شود.

AI RMF همچنین تشخیص می دهد که هیچ رویکرد “یک اندازه متن، با همه” در مورد مدیریت ریسک وجود ندارد. بازیگران باید یک نمایه خاص برای کاربرد سیستم هوش مصنوعی بسازند و اقدامات من، را برای انجام و دستیابی به چهار عملکرد انتخاب کنند. در حالی که AI RMF فرآیند را توصیف می کند، کتاب بازی AI RMF توضیحات مفصل و اطلاعات مفیدی در مورد نحوه پیاده سازی AI RMF برای برخی موقعیت های رایج (که معمولاً پروفایل نامیده می شود) ارائه می دهد. پروفایل های RMF بسته به بخش، فناوری یا استفاده خاص متفاوت خواهد بود. به ،وان مثال، یک نمایه برای زمینه اشتغال متفاوت است، و ریسک های متفاوتی را نسبت به مشخصاتی برای شناسایی ریسک های اعتباری و تقلب می کند.

هسته RMF از توابع زیر تشکیل شده است:

  • حکومت کن. حکمر، قوی برای توسعه شیوه ها و هنجارهای داخلی حیاتی برای حفظ مدیریت ریسک سازم، مهم است. تابع حاکم، دسته‌هایی را برای کمک به اجرای سیاست‌ها و عملکردهای سه عملکرد دیگر، ایجاد ساختارهای پاسخگویی، تنوع در محل کار، و فرآیندهای دسترسی برای ارزیابی ریسک‌های هوش مصنوعی توسط تیمی با دیدگاه‌های مختلف، و توسعه تیم‌های سازم، متعهد به یک فرهنگ توصیف می‌کند. اولین اقدامات ایمنی در زمینه هوش مصنوعی

  • نقشه. عملکرد نقشه به بازیگران کمک می کند تا در هنگام استفاده از سیستم های هوش مصنوعی خطرات را زمینه سازی کنند. با اجرای اقدامات ارائه شده در نقشه، سازمان ها بهتر می توانند منابع بالقوه ریسک های منفی را پیش بینی، ارزیابی و رسیدگی کنند. برخی از مقوله‌های تحت این عملکرد عبارتند از ایجاد و درک زمینه سیستم‌های هوش مصنوعی، طبقه‌بندی سیستم هوش مصنوعی، درک خطرات و مزایای همه اجزای سیستم هوش مصنوعی، و شناسایی افراد و گروه‌هایی که ممکن است تحت تأثیر قرار گیرند.

  • اندازه گرفتن. تابع اندازه گیری از ابزارهای کمی و کیفی برای تجزیه و تحلیل و نظارت بر ریسک هوش مصنوعی و برای بازیگران برای ارزیابی استفاده از سیستم های هوش مصنوعی خود استفاده می کند. اندازه‌گیری‌ها باید اه، مختلفی مانند ویژگی‌های قابل اعتماد، تأثیر اجتماعی و کیفیت تعاملات انسان و هوش مصنوعی را دنبال کنند. دسته بندی تابع اندازه گیری شامل شناسایی و به کارگیری روش ها و معیارهای من،، ارزیابی سیستم ها برای ویژگی های قابل اعتماد، اجرای مک،سم هایی برای ردیابی ریسک های شناسایی شده در طول زمان، و جمع آوری بازخورد در مورد کارایی اندازه گیری است.

  • مدیریت کنید. پس از تعیین ریسک‌های مربوطه و میزان من، تحمل ریسک، عملکرد مدیریت به شرکت‌ها در اولویت‌بندی ریسک، تخصیص منابع من، برای رسیدگی به بالاترین ریسک‌ها و امکان نظارت منظم و بهبود سیستم هوش مصنوعی کمک می‌کند. دسته‌های عملکرد مدیریت شامل اولویت‌بندی ریسک‌ها پس از ارزیابی از روی نقشه و اندازه‌گیری، استراتژی در مورد چگونگی به حدا،ر رساندن مزایای هوش مصنوعی و به حداقل رساندن آسیب‌های هوش مصنوعی، و مدیریت ریسک هوش مصنوعی از طرف اشخاص ثالث است.

به این ترتیب، کتاب راهنما پیشنهادهای ویژه و قابل اجرا در مورد چگونگی دستیابی به چهار عملکرد را ارائه می دهد.

تاثیر بر مشاغل

AI RMF به ،ب‌وکارها کمک می‌کند تا یک برنامه حاکمیتی قوی ایجاد کنند و ریسک سیستم‌های هوش مصنوعی خود را برطرف کنند. در حالی که استفاده از AI RMF در حال حاضر بر اساس هیچ قانون پیشنهادی (از جمله قانون هوش مصنوعی اتحادیه اروپا) ا،امی نیست، AI RMF، مانند سایر استانداردها و راهنمایی های NIST، بدون شک برای کمک به ،ب و کارها در انطباق با ا،امات تجزیه و تحلیل ریسک مفید خواهد بود. چنین قو،نی به گونه ای ساختار یافته و قابل تکرار باشد. بنابراین، ،ب‌وکارهایی که قصد ارائه یا استفاده از سیستم‌های هوش مصنوعی را دارند، باید از AI RMF برای تجزیه و تحلیل و به حداقل رساندن خطرات استفاده کنند. ممکن است از ،ب‌وکارها خواسته شود که اسناد سطح بالایی را که به‌،وان بخشی از استفاده از AI RMF تولید می‌شود به تنظیم‌کننده‌ها نشان دهند و همچنین ممکن است ارائه چنین اسنادی را به مشتریان خود برای کاهش نگر،‌ها و افزایش اعتماد در نظر بگیرند.


منبع: https://www.natlawreview.com/article/nist-s-ai-risk-management-framework-helps-businesses-address-ai-risk