نگرانی FTC در مورد روش های ناعادلانه رقابت در صنعت هوش مصنوعی


در 3 میrdلینا خان، رئیس کمیسیون تجارت فدرال، تصریح کرد که FTC برای رسیدگی به مسائل مطرح شده توسط بخش هوش مصنوعی، “از جمله تب،، انحصار، ادغام، تبعیض قیمت و روش های ناعادلانه رقابت” به خوبی مجهز است.1 استفاده روزافزون از هوش مصنوعی همچنین مسائل امنیتی سایبری قابل توجهی را ایجاد کرده است.

علاقه به سیستم‌های هوش مصنوعی، «که می‌توانند به روش‌هایی غیرمنتظره حتی برای سازندگان خود عمل کنند.»2 اخیراً سر به فلک کشیده است. مجموعه‌ای از مسائل با وجود چندین دهه وجودشان تا چند ماه پیش نادیده گرفته می‌شدند، زم، که ظاهراً یکباره هوش مصنوعی شروع به تجربه همان دعواهای حقوقی کرد که سال‌هاست دیگر فناوری‌های نوظهور با آن مواجه بودند.

با نقض اطلاعات شروع شد. در روز جمعه، 24 مارس، ChatGPT اعلام کرد که چند روز قبل، در یک بازه زم، 9 ساعته، این امکان برای برخی از کاربران وجود دارد که «نام و نام خانوادگی، آدرس ایمیل، آدرس پرداخت، چهار رقم آ، (فقط) کاربر دیگر را ببینند. شماره کارت اعتباری و تاریخ انقضای کارت اعتباری.”3 بیش از یک میلیون کاربر تحت تأثیر قرار گرفتند.

سپس ظرف چند روز نامه سر،ه با ،وان آزمایش‌های هوش مصنوعی غول‌پیکر را متوقف کنید (به مدت شش ماه) منتشر شد (بیش از 27000 فناور آن را امضا کرده اند)4 شکایتی به کمیسیون تجارت فدرال مبنی بر اینکه ChatGPT “خطری برای حریم خصوصی و امنیت عمومی” است، ثبت شد.5 و مقامات حفاظت از داده های ایتالیا آن را به دلیل نگر، های مربوط به حفظ حریم خصوصی داده ها ممنوع ،د.6

همانطور که در مقاله فوریه ما در مورد قانون و سیاست هوش مصنوعی اشاره شد، راهنمای مدیریت ریسک برای هوش مصنوعی رسیده است.7 در 20 مارس 2023، موسسه ملی استاندارد و فناوری (NIST) چارچوبی را که برای رسیدگی به خطرات هوش مصنوعی (AI RMF) طراحی شده بود، به روز کرد. چارچوب های NIST تاریخچه نسبتا کوتاه اما قابل توجهی دارند.

در سال 2013، یک فرمان اجرایی صادر شد که به موجب آن ،ت‌ها و سازمان‌های بخش خصوصی م،م به همکاری در مورد چگونگی «حفظ یک محیط سایبری است که کارایی، نوآوری و شکوفایی اقتصادی را تشویق می‌کند و در عین حال امنیت، امنیت، محرمانه بودن تجاری، حریم خصوصی و آزادی‌های مدنی را ارتقا می‌دهد».8

در سال 2014، NIST چارچوب امنیت سایبری (CSF) را منتشر کرد. CSF به قدری پذیرفته شده است که اوهایو، کانکتیکات و یوتا قو،ن بندر امن دارند که بیان می کند اگر برنامه امنیت اطلاعات مکتوب سازمان به طور منطقی با CSF مطابقت داشته باشد، در برابر ادعاهای جرم مدنی ناشی از نقض داده ها دفاع مثبتی دارد.9

در سال 2020، NIST یک همراه برای CSF برای حفظ حریم خصوصی داده ها (PF) منتشر کرد. PF برای کمک به سازمان ها طراحی شده است تا با پیشرفت های فناوری و استفاده های جدید از داده ها و مدیریت ریسک را بهبود بخشد. اخیرا، تنسی قانون جامع حفظ حریم خصوصی داده ها را تصویب کرده است که شرکت ها را م،م می کند برنامه حفظ حریم خصوصی مکتوب مطابق با PF داشته باشند.10

یک چارچوب جدید NIST برای هوش مصنوعی اینجاست

را من RFM دارممانند CSF و PF، در نظر گرفته شده است که منعطف باشد و «با ادامه توسعه فناوری‌ها با چشم‌انداز هوش مصنوعی سازگار شود» و «روش‌های ریسک موجود را تقویت کند که باید با قو،ن، مقررات و هنجارهای قابل اجرا همخو، داشته باشد». را من RFM دارم “نقض های امنیتی” را به ،وان یکی از آسیب های احتمالی اصلی برای سازمان ها فهرست می کند.

AI RMF همچنین به نگر،‌های امنیتی مربوط به هوش مصنوعی “متخاصم” اشاره می‌کند – عمل تغییر سیستم‌های AI برای دستکاری یا حمله عمدی – و بیان می‌کند که تنها در صورتی که سیستم‌های AI محرمانه، یکپارچگی و در دسترس بودن را از طریق مک،سم‌های حفاظتی حفظ کنند، می‌توان آنها را ایمن تلقی کرد.11

اما با وجود تمام تلاش‌هایی که برای درک آسان AI RMF انجام شده است، هنوز اعمال آن آسان نیست. مانند موضوع اصلی آن انتزاعی است و انتظار می رود در طول زمان به طور اساسی تکامل یابد و تغییر کند. به همین دلیل، NIST این منابع همراه را ارائه کرده است:

  • کتاب راهنما NIST AI RMF
  • ویدیوی توضیح دهنده AI RMF
  • نقشه راه AI RMF
  • AI RMF Crosswalk، و
  • دیدگاه های مختلف12

در مجموع، این منابع برای کمک به “افراد، سازمان ها و جامعه” در مدیریت بهتر خطرات هوش مصنوعی در نظر گرفته شده است. باز هم ساییدگی وجود دارد، وسعت AI RMF – ت، برای رسیدگی به همه خطرات برای همه. اما همراه با ارزش دیگری وجود دارد، گزارش بین سازم، NIST 8286D که نوامبر گذشته منتشر شد، با تمرکز بر مدیریت ریسک امنیت سایبری.13

گزارش بین سازم، استفاده از تجزیه و تحلیل تأثیر ،ب و کار (BIA) را برای متخصصان امنیت سایبری بخش عمومی و خصوصی در همه سطوح تشویق می کند و بر اهمیت تجزیه و تحلیل مستمر و درک ریسک های نوظهور برای منابع سازم، که اه، شرکت را قادر می سازد، تأکید می کند.

گزارش بین سازم، توضیح می‌دهد که چگونه سازمان‌ها می‌توانند با انجام کارهایی مانند فهرست‌نویسی و طبقه‌بندی دارایی‌ها و پیروی از فرآیند تحلیل ریسک، عوامل خطری را که می‌توانند تأثیر نامطلوب با اهمیتی بر وضعیت مالی و توانایی آنها داشته باشند، بررسی کنند. در هسته خود، این گزارش تلاش های مستمر را برای درک تأثیرات بالقوه ،ب و کار تشویق می کند.

که ما را به هوش مصنوعی متخاصم برمی گرداند، که جاناتان کر نمونه های واضحی از آن را در مقاله ماه گذشته خود با ،وان «مبارزه با هوش مصنوعی با هوش مصنوعی» ارائه کرده است.

“[A]n وسیله نقلیه خودر، که دستکاری شده باشد می تواند باعث تصادف جدی شود یا سیستم تشخیص چهره که مورد حمله قرار گرفته است می تواند افراد را به اشتباه شناسایی کند و منجر به دستگیری کاذب شود. این حملات می‌توانند از منابع مختلفی از جمله عوامل م،ب انجام شوند و می‌توانند برای انتشار اطلاعات نادرست، انجام حملات سایبری یا ارتکاب انواع دیگر جنایات مورد استفاده قرار گیرند.»14

در واقع، سازمان هایی مانند Capital One در حال حاضر از هوش مصنوعی برای مهار کلاهبرداری استفاده می کنند.15 در نهایت، این قابلیت‌ها به وظایف قانونی اجباری تبدیل می‌شوند، همانطور که برای مواردی مانند احراز هویت چندعاملی، برنامه‌ریزی پاسخگویی به حوادث امنیت سایبری و برنامه‌های مدیریت وصله‌فروشی و فروشندگان انجام می‌شود.16

چارچوب های NIST مورد علاقه هستند

چارچوب‌های NIST استانداردهای صنعتی را در بر می‌گیرد که با ایجاد وظایف قانونی من، به قانون تبدیل می‌شوند. FTC قبلاً اعلام کرده بود که در برخی موارد، اگر سازمان‌ها بر اساس راهنمایی‌های موجود در CSF، امنیت را زیر نظر داشته باشند و در مورد حملات سایبری ارتباط برقرار کرده باشند، ممکن است حقوق مصرف‌کنندگان را نقض نکرده باشند.17

پس از تایید وی در سال 2021، خانم خان اعلام کرد که FTC باید رویکرد خود را برای همگام شدن با فناوری های یادگیری جدید و “تغییرات تکنولوژیکی” به روز کند. در ماه های فوریه، مارس و آوریل، FTC هشدارهایی را در مورد افزایش بیش از حد توانایی های هوش مصنوعی صادر کرد.18 و حفظ اصول اصلی انصاف.19

برای ریسک امنیت سایبری، FTC بارها سازمان‌ها را تشویق کرده است که برنامه‌های امنیتی خود را «با توجه به هرگونه تغییر در عملیات یا ترتیبات تجاری»، از جمله روش‌های فناوری یا عملیاتی جدید یا کارآمدتر که تأثیر خواهند داشت، ارزیابی و تنظیم کنند. برای این اه، باید گزارش AI RMF و بین سازم، NIST در نظر گرفته شود.

© Polsinelli PC، Polsinelli LLP در کالیفرنیابررسی حقوق ملی، جلد سیزدهم، شماره 124


منبع: https://www.natlawreview.com/article/artificial-intelligence-has-nist-framework-cybersecurity-risk