در 3 میrdلینا خان، رئیس کمیسیون تجارت فدرال، تصریح کرد که FTC برای رسیدگی به مسائل مطرح شده توسط بخش هوش مصنوعی، “از جمله تب،، انحصار، ادغام، تبعیض قیمت و روش های ناعادلانه رقابت” به خوبی مجهز است.1 استفاده روزافزون از هوش مصنوعی همچنین مسائل امنیتی سایبری قابل توجهی را ایجاد کرده است.
علاقه به سیستمهای هوش مصنوعی، «که میتوانند به روشهایی غیرمنتظره حتی برای سازندگان خود عمل کنند.»2 اخیراً سر به فلک کشیده است. مجموعهای از مسائل با وجود چندین دهه وجودشان تا چند ماه پیش نادیده گرفته میشدند، زم، که ظاهراً یکباره هوش مصنوعی شروع به تجربه همان دعواهای حقوقی کرد که سالهاست دیگر فناوریهای نوظهور با آن مواجه بودند.
با نقض اطلاعات شروع شد. در روز جمعه، 24 مارس، ChatGPT اعلام کرد که چند روز قبل، در یک بازه زم، 9 ساعته، این امکان برای برخی از کاربران وجود دارد که «نام و نام خانوادگی، آدرس ایمیل، آدرس پرداخت، چهار رقم آ، (فقط) کاربر دیگر را ببینند. شماره کارت اعتباری و تاریخ انقضای کارت اعتباری.”3 بیش از یک میلیون کاربر تحت تأثیر قرار گرفتند.
سپس ظرف چند روز نامه سر،ه با ،وان آزمایشهای هوش مصنوعی غولپیکر را متوقف کنید (به مدت شش ماه) منتشر شد (بیش از 27000 فناور آن را امضا کرده اند)4 شکایتی به کمیسیون تجارت فدرال مبنی بر اینکه ChatGPT “خطری برای حریم خصوصی و امنیت عمومی” است، ثبت شد.5 و مقامات حفاظت از داده های ایتالیا آن را به دلیل نگر، های مربوط به حفظ حریم خصوصی داده ها ممنوع ،د.6
همانطور که در مقاله فوریه ما در مورد قانون و سیاست هوش مصنوعی اشاره شد، راهنمای مدیریت ریسک برای هوش مصنوعی رسیده است.7 در 20 مارس 2023، موسسه ملی استاندارد و فناوری (NIST) چارچوبی را که برای رسیدگی به خطرات هوش مصنوعی (AI RMF) طراحی شده بود، به روز کرد. چارچوب های NIST تاریخچه نسبتا کوتاه اما قابل توجهی دارند.
در سال 2013، یک فرمان اجرایی صادر شد که به موجب آن ،تها و سازمانهای بخش خصوصی م،م به همکاری در مورد چگونگی «حفظ یک محیط سایبری است که کارایی، نوآوری و شکوفایی اقتصادی را تشویق میکند و در عین حال امنیت، امنیت، محرمانه بودن تجاری، حریم خصوصی و آزادیهای مدنی را ارتقا میدهد».8
در سال 2014، NIST چارچوب امنیت سایبری (CSF) را منتشر کرد. CSF به قدری پذیرفته شده است که اوهایو، کانکتیکات و یوتا قو،ن بندر امن دارند که بیان می کند اگر برنامه امنیت اطلاعات مکتوب سازمان به طور منطقی با CSF مطابقت داشته باشد، در برابر ادعاهای جرم مدنی ناشی از نقض داده ها دفاع مثبتی دارد.9
در سال 2020، NIST یک همراه برای CSF برای حفظ حریم خصوصی داده ها (PF) منتشر کرد. PF برای کمک به سازمان ها طراحی شده است تا با پیشرفت های فناوری و استفاده های جدید از داده ها و مدیریت ریسک را بهبود بخشد. اخیرا، تنسی قانون جامع حفظ حریم خصوصی داده ها را تصویب کرده است که شرکت ها را م،م می کند برنامه حفظ حریم خصوصی مکتوب مطابق با PF داشته باشند.10
یک چارچوب جدید NIST برای هوش مصنوعی اینجاست
را من RFM دارممانند CSF و PF، در نظر گرفته شده است که منعطف باشد و «با ادامه توسعه فناوریها با چشمانداز هوش مصنوعی سازگار شود» و «روشهای ریسک موجود را تقویت کند که باید با قو،ن، مقررات و هنجارهای قابل اجرا همخو، داشته باشد». را من RFM دارم “نقض های امنیتی” را به ،وان یکی از آسیب های احتمالی اصلی برای سازمان ها فهرست می کند.
AI RMF همچنین به نگر،های امنیتی مربوط به هوش مصنوعی “متخاصم” اشاره میکند – عمل تغییر سیستمهای AI برای دستکاری یا حمله عمدی – و بیان میکند که تنها در صورتی که سیستمهای AI محرمانه، یکپارچگی و در دسترس بودن را از طریق مک،سمهای حفاظتی حفظ کنند، میتوان آنها را ایمن تلقی کرد.11
اما با وجود تمام تلاشهایی که برای درک آسان AI RMF انجام شده است، هنوز اعمال آن آسان نیست. مانند موضوع اصلی آن انتزاعی است و انتظار می رود در طول زمان به طور اساسی تکامل یابد و تغییر کند. به همین دلیل، NIST این منابع همراه را ارائه کرده است:
- کتاب راهنما NIST AI RMF
- ویدیوی توضیح دهنده AI RMF
- نقشه راه AI RMF
- AI RMF Crosswalk، و
- دیدگاه های مختلف12
در مجموع، این منابع برای کمک به “افراد، سازمان ها و جامعه” در مدیریت بهتر خطرات هوش مصنوعی در نظر گرفته شده است. باز هم ساییدگی وجود دارد، وسعت AI RMF – ت، برای رسیدگی به همه خطرات برای همه. اما همراه با ارزش دیگری وجود دارد، گزارش بین سازم، NIST 8286D که نوامبر گذشته منتشر شد، با تمرکز بر مدیریت ریسک امنیت سایبری.13
گزارش بین سازم، استفاده از تجزیه و تحلیل تأثیر ،ب و کار (BIA) را برای متخصصان امنیت سایبری بخش عمومی و خصوصی در همه سطوح تشویق می کند و بر اهمیت تجزیه و تحلیل مستمر و درک ریسک های نوظهور برای منابع سازم، که اه، شرکت را قادر می سازد، تأکید می کند.
گزارش بین سازم، توضیح میدهد که چگونه سازمانها میتوانند با انجام کارهایی مانند فهرستنویسی و طبقهبندی داراییها و پیروی از فرآیند تحلیل ریسک، عوامل خطری را که میتوانند تأثیر نامطلوب با اهمیتی بر وضعیت مالی و توانایی آنها داشته باشند، بررسی کنند. در هسته خود، این گزارش تلاش های مستمر را برای درک تأثیرات بالقوه ،ب و کار تشویق می کند.
که ما را به هوش مصنوعی متخاصم برمی گرداند، که جاناتان کر نمونه های واضحی از آن را در مقاله ماه گذشته خود با ،وان «مبارزه با هوش مصنوعی با هوش مصنوعی» ارائه کرده است.
“[A]n وسیله نقلیه خودر، که دستکاری شده باشد می تواند باعث تصادف جدی شود یا سیستم تشخیص چهره که مورد حمله قرار گرفته است می تواند افراد را به اشتباه شناسایی کند و منجر به دستگیری کاذب شود. این حملات میتوانند از منابع مختلفی از جمله عوامل م،ب انجام شوند و میتوانند برای انتشار اطلاعات نادرست، انجام حملات سایبری یا ارتکاب انواع دیگر جنایات مورد استفاده قرار گیرند.»14
در واقع، سازمان هایی مانند Capital One در حال حاضر از هوش مصنوعی برای مهار کلاهبرداری استفاده می کنند.15 در نهایت، این قابلیتها به وظایف قانونی اجباری تبدیل میشوند، همانطور که برای مواردی مانند احراز هویت چندعاملی، برنامهریزی پاسخگویی به حوادث امنیت سایبری و برنامههای مدیریت وصلهفروشی و فروشندگان انجام میشود.16
چارچوب های NIST مورد علاقه هستند
چارچوبهای NIST استانداردهای صنعتی را در بر میگیرد که با ایجاد وظایف قانونی من، به قانون تبدیل میشوند. FTC قبلاً اعلام کرده بود که در برخی موارد، اگر سازمانها بر اساس راهنماییهای موجود در CSF، امنیت را زیر نظر داشته باشند و در مورد حملات سایبری ارتباط برقرار کرده باشند، ممکن است حقوق مصرفکنندگان را نقض نکرده باشند.17
پس از تایید وی در سال 2021، خانم خان اعلام کرد که FTC باید رویکرد خود را برای همگام شدن با فناوری های یادگیری جدید و “تغییرات تکنولوژیکی” به روز کند. در ماه های فوریه، مارس و آوریل، FTC هشدارهایی را در مورد افزایش بیش از حد توانایی های هوش مصنوعی صادر کرد.18 و حفظ اصول اصلی انصاف.19
برای ریسک امنیت سایبری، FTC بارها سازمانها را تشویق کرده است که برنامههای امنیتی خود را «با توجه به هرگونه تغییر در عملیات یا ترتیبات تجاری»، از جمله روشهای فناوری یا عملیاتی جدید یا کارآمدتر که تأثیر خواهند داشت، ارزیابی و تنظیم کنند. برای این اه، باید گزارش AI RMF و بین سازم، NIST در نظر گرفته شود.
© Polsinelli PC، Polsinelli LLP در کالیفرنیابررسی حقوق ملی، جلد سیزدهم، شماره 124
منبع: https://www.natlawreview.com/article/artificial-intelligence-has-nist-framework-cybersecurity-risk