همانطور که قبلا مورد بحث قرار گرفتاوایل سال جاری، موسسه ملی استاندارد و فناوری (NIST) مرکز منابع هوش مصنوعی قابل اعتماد و مسئولیت پذیر را راه اندازی کرد. NIST در مرکز منابع هوش مصنوعی گنجانده شده است چارچوب مدیریت ریسک هوش مصنوعی (RMF) در کنار الف کتاب بازی برای کمک به مشاغل و افراد در اجرای چارچوب. RMF برای کمک به کاربران و توسعهدهندگان هوش مصنوعی طراحی شده است تا ضمن ارائه دستورالعملهای عملی و بهترین شیوهها برای رسیدگی و به حداقل رساندن چنین خطراتی، خطرات سیستمهای هوش مصنوعی را تحلیل و رسیدگی کنند. همچنین در نظر گرفته شده است که با توجه به رشد و عملیاتی شدن فناوری های هوش مصنوعی، عملی و سازگار با چشم انداز در حال تغییر باشد.
نیمه اول RMF این خطرات را مورد بحث قرار می دهد و نیمه دوم نحوه رسیدگی به خطرات را مورد بحث قرار می دهد. هنگامی که AI RMF به درستی پیادهسازی شود، سازمانها و کاربران باید فرآیندهای پیشرفته، آگاهی و دانش بهبود یافته و تعامل بیشتر را هنگام کار با سیستمهای هوش مصنوعی ببینند. RMF سیستمهای هوش مصنوعی را به،وان «سیستمهای مهندسی شده یا مبتنی بر ماشین توصیف میکند که میتوانند برای مجموعهای از اه، معین، ،وجیهایی مانند پیشبینیها، توصیهها یا تصمیمگیریهایی را تولید کنند که بر محیطهای واقعی یا مجازی تأثیر میگذارند. سیستمهای هوش مصنوعی برای عملکرد با سطوح مختلف استقلال طراحی شدهاند.
درک و رسیدگی به خطرات، اثرات و مضرات با سیستم های هوش مصنوعی
استفاده از سیستم های هوش مصنوعی به افراد و سازمان ها (که در مجموع در RMF به ،وان “بازیگران” نامیده می شود) مزایای بی شماری از جمله افزایش بهره وری و خلاقیت را ارائه می دهد. با این حال، RMF تشخیص میدهد که سیستمهای هوش مصنوعی، در صورت استفاده نادرست، میتوانند به افراد، سازمانها و عموم مردم آسیب وارد کنند. برای مثال، RMF بیان میکند که سیستمهای هوش مصنوعی میتوانند تبعیض را تشدید کنند، خطرات امنیتی را برای شرکتها ایجاد کنند و مسائل مربوط به تغییرات آب و هوایی را تشدید کنند. RMF به بازیگران این امکان را میدهد تا به تأثیرات مثبت و منفی سیستمهای هوش مصنوعی به صورت هماهنگ رسیدگی کنند.
همانطور که بسیاری از متخصصان امنیت سایبری میدانند، ریسک تابعی از احتمال وقوع یک رویداد و آسیبی است که در صورت وقوع آن رویداد میتواند ایجاد شود. پیامدهای منفی می تواند شامل آسیب به افراد، سازمان ها یا یک ا،یستم باشد. در عمل، کمیت ، ریسک با دقت بسیار دشوار است، زیرا ممکن است عدم قطعیت قابل توجهی در احتمال وقوع رویداد وجود داشته باشد و اغلب تشخیص اثرات آسیب ها در صورت وقوع هر یک از آنها دشوار است. RMF برخی از این چالش ها را شرح می دهد، از جمله:
خطرات مربوط به نرم افزار، سخت افزار و داده های شخص ثالث: در حالی که دادهها یا سیستمهای شخص ثالث میتوانند برای تسریع توسعه سیستمهای هوش مصنوعی مفید باشند، اما ناشناختههایی را نشان میدهند که میتوانند اندازهگیری ریسک را پیچیده کنند. علاوه بر این، کاربران سیستمهای هوش مصنوعی ممکن است از چنین سیستمهایی به روشی که توسعهدهندگان و ارائهدهندگان آنها در نظر داشتند استفاده نکنند. توسعه دهندگان و ارائه دهندگان سیستم های هوش مصنوعی ممکن است تعجب کنند زم، که استفاده از سیستم های هوش مصنوعی در یک سیستم تولید بسیار متفاوت از استفاده در یک محیط توسعه کنترل شده است.
در دسترس بودن معیارهای قابل اعتماد: مح،ه تأثیر یا آسیب احتمالی هنگام استفاده از سیستمهای هوش مصنوعی پیچیده است و ممکن است عوامل زیادی را شامل شود.
ریسک در مراحل مختلف چرخه حیات هوش مصنوعی: بازیگر، که از یک سیستم خارج از قفسه استفاده می کنند باید با خطرات متفاوتی نسبت به یک بازیگر که سیستم خود را می سازد و آموزش می دهد، مواجه شوند.
RMF تشخیص میدهد که شرکتها باید تحمل خود را برای ریسک تعیین کنند، و برخی از سازمانها ممکن است بسته به زمینههای قانونی یا نظارتی، مایل به تحمل ریسک بیشتری نسبت به سایرین باشند. با این حال، RMF تشخیص میدهد که پرداختن به همه ریسکها و به حداقل رساندن آنها کارآمد یا مقرون به صرفه نیست و ،بوکارها باید اولویتبندی کنند که چه ریسکهایی باید برطرف شوند. مشابه نحوه برخورد ،بوکارها با خطرات امنیت سایبری و حریم خصوصی دادهها، RMF پیشنهاد میکند که مدیریت ریسک در اقدامات سازم، ادغام شود، زیرا ریسکهای مختلف خود را در مراحل مختلف اقدامات سازم، نشان میدهند.
RMF همچنین تشخیص می دهد که قابلیت اطمینان یکی از ویژگی های کلیدی سیستم های هوش مصنوعی است. قابل اعتماد بودن با رفتار بازیگران، مجموعه داده های مورد استفاده توسط سیستم های هوش مصنوعی، رفتار کاربران و توسعه دهندگان سیستم های هوش مصنوعی و نحوه نظارت بازیگران بر این سیستم ها مرتبط است. RMF نشان می دهد که ویژگی های زیر بر قابلیت اطمینان یک سیستم هوش مصنوعی تأثیر می گذارد:
اعتبار و قابلیت اطمینان: بازیگران باید بتوانند تأیید کنند که سیستم هوش مصنوعی ا،امات خاصی را برآورده کرده است و میتواند بدون ش،ت تحت شرایط خاص عمل کند.
ایمنی: سیستم های هوش مصنوعی نباید جان، سلامت، اموال یا محیط زیست انسان را به خطر بیندازند.
امنیت و انعطاف پذیری: سیستمهای هوش مصنوعی باید بتوانند به هر دو رویداد نامطلوب و تغییرات غیرمنتظره واکنش نشان دهند و از آن بازیابی کنند.
پاسخگویی و شفافیت: بازیگران باید بتوانند به اطلاعات مربوط به سیستم های هوش مصنوعی و ،وجی های آنها دسترسی داشته باشند.
قابل توضیح و تفسیر پذیری: سیستم های هوش مصنوعی باید بتوانند مقدار من،ی از اطلاعات را در اختیار بازیگران قرار دهند و سطح مشخصی از درک را ارائه دهند.
افزایش حریم خصوصی: در صورت ،وم، انتخابهای طراحی برای سیستمهای هوش مصنوعی باید دارای مقادیری مانند ناشناس بودن، محرمانه بودن و کنترل باشد.
انصاف با سوگیری مضر مدیریت شده: سیستمهای هوش مصنوعی خطر تداوم و تشدید تبعیضهای موجود را دارند. بازیگران باید برای پیشگیری و کاهش چنین سوگیری ها آماده باشند.
هسته و نمایه های مدیریت ریسک AI RMF
در هسته AI RMF (RMF Core) عملکردهای اساسی وجود دارد که برای ارائه چارچوبی برای کمک به ،ب و کارها در توسعه سیستم های هوش مصنوعی قابل اعتماد طراحی شده اند. این توابع عبارتند از: حکومت، نقشه برداری، اندازه گیری و مدیریت، با عملکرد «حکومت» طراحی شده برای تأثیرگذاری بر هر یک از دیگران.
شکل 1: هسته مدیریت ریسک (NIST AI 100-1, Page 20).
هر یک از این توابع بیشتر به دسته ها و زیرمجموعه هایی ت،یم می شوند که برای دستیابی به عملکردهای سطح بالا طراحی شده اند. با توجه به تعداد زیادی از زیرمجموعه ها و اقدامات پیشنهادی، هسته RMF به ،وان چک لیستی عمل نمی کند که مشاغل صرفاً برای “چک ، کادر” از آن استفاده می کنند. در عوض، AI RMF توصیه می کند که مدیریت ریسک باید مستمر، به موقع و در طول چرخه عمر سیستم های AI انجام شود.
AI RMF همچنین تشخیص می دهد که هیچ رویکرد “یک اندازه متن، با همه” در مورد مدیریت ریسک وجود ندارد. بازیگران باید یک نمایه خاص برای کاربرد سیستم هوش مصنوعی بسازند و اقدامات من، را برای انجام و دستیابی به چهار عملکرد انتخاب کنند. در حالی که AI RMF فرآیند را توصیف می کند، کتاب بازی AI RMF توضیحات مفصل و اطلاعات مفیدی در مورد نحوه پیاده سازی AI RMF برای برخی موقعیت های رایج (که معمولاً پروفایل نامیده می شود) ارائه می دهد. پروفایل های RMF بسته به بخش، فناوری یا استفاده خاص متفاوت خواهد بود. به ،وان مثال، یک نمایه برای زمینه اشتغال متفاوت است، و ریسک های متفاوتی را نسبت به مشخصاتی برای شناسایی ریسک های اعتباری و تقلب می کند.
هسته RMF از توابع زیر تشکیل شده است:
حکومت کن. حکمر، قوی برای توسعه شیوه ها و هنجارهای داخلی حیاتی برای حفظ مدیریت ریسک سازم، مهم است. تابع حاکم، دستههایی را برای کمک به اجرای سیاستها و عملکردهای سه عملکرد دیگر، ایجاد ساختارهای پاسخگویی، تنوع در محل کار، و فرآیندهای دسترسی برای ارزیابی ریسکهای هوش مصنوعی توسط تیمی با دیدگاههای مختلف، و توسعه تیمهای سازم، متعهد به یک فرهنگ توصیف میکند. اولین اقدامات ایمنی در زمینه هوش مصنوعی
نقشه. عملکرد نقشه به بازیگران کمک می کند تا در هنگام استفاده از سیستم های هوش مصنوعی خطرات را زمینه سازی کنند. با اجرای اقدامات ارائه شده در نقشه، سازمان ها بهتر می توانند منابع بالقوه ریسک های منفی را پیش بینی، ارزیابی و رسیدگی کنند. برخی از مقولههای تحت این عملکرد عبارتند از ایجاد و درک زمینه سیستمهای هوش مصنوعی، طبقهبندی سیستم هوش مصنوعی، درک خطرات و مزایای همه اجزای سیستم هوش مصنوعی، و شناسایی افراد و گروههایی که ممکن است تحت تأثیر قرار گیرند.
اندازه گرفتن. تابع اندازه گیری از ابزارهای کمی و کیفی برای تجزیه و تحلیل و نظارت بر ریسک هوش مصنوعی و برای بازیگران برای ارزیابی استفاده از سیستم های هوش مصنوعی خود استفاده می کند. اندازهگیریها باید اه، مختلفی مانند ویژگیهای قابل اعتماد، تأثیر اجتماعی و کیفیت تعاملات انسان و هوش مصنوعی را دنبال کنند. دسته بندی تابع اندازه گیری شامل شناسایی و به کارگیری روش ها و معیارهای من،، ارزیابی سیستم ها برای ویژگی های قابل اعتماد، اجرای مک،سم هایی برای ردیابی ریسک های شناسایی شده در طول زمان، و جمع آوری بازخورد در مورد کارایی اندازه گیری است.
مدیریت کنید. پس از تعیین ریسکهای مربوطه و میزان من، تحمل ریسک، عملکرد مدیریت به شرکتها در اولویتبندی ریسک، تخصیص منابع من، برای رسیدگی به بالاترین ریسکها و امکان نظارت منظم و بهبود سیستم هوش مصنوعی کمک میکند. دستههای عملکرد مدیریت شامل اولویتبندی ریسکها پس از ارزیابی از روی نقشه و اندازهگیری، استراتژی در مورد چگونگی به حدا،ر رساندن مزایای هوش مصنوعی و به حداقل رساندن آسیبهای هوش مصنوعی، و مدیریت ریسک هوش مصنوعی از طرف اشخاص ثالث است.
به این ترتیب، کتاب راهنما پیشنهادهای ویژه و قابل اجرا در مورد چگونگی دستیابی به چهار عملکرد را ارائه می دهد.
تاثیر بر مشاغل
AI RMF به ،بوکارها کمک میکند تا یک برنامه حاکمیتی قوی ایجاد کنند و ریسک سیستمهای هوش مصنوعی خود را برطرف کنند. در حالی که استفاده از AI RMF در حال حاضر بر اساس هیچ قانون پیشنهادی (از جمله قانون هوش مصنوعی اتحادیه اروپا) ا،امی نیست، AI RMF، مانند سایر استانداردها و راهنمایی های NIST، بدون شک برای کمک به ،ب و کارها در انطباق با ا،امات تجزیه و تحلیل ریسک مفید خواهد بود. چنین قو،نی به گونه ای ساختار یافته و قابل تکرار باشد. بنابراین، ،بوکارهایی که قصد ارائه یا استفاده از سیستمهای هوش مصنوعی را دارند، باید از AI RMF برای تجزیه و تحلیل و به حداقل رساندن خطرات استفاده کنند. ممکن است از ،بوکارها خواسته شود که اسناد سطح بالایی را که به،وان بخشی از استفاده از AI RMF تولید میشود به تنظیمکنندهها نشان دهند و همچنین ممکن است ارائه چنین اسنادی را به مشتریان خود برای کاهش نگر،ها و افزایش اعتماد در نظر بگیرند.
منبع: https://www.natlawreview.com/article/nist-s-ai-risk-management-framework-helps-businesses-address-ai-risk