مراقبت های بهداشتی، مانند بسیاری از صنایع، با گسترش هوش مصنوعی (AI) و خطرات و مزایای جدید آن دست و پنجه نرم می کند. ایجاد تعادل بین این خطرات و مزایا می تواند به ویژه برای وکلای دادگستری چالش برانگیز باشد، زیرا قو،ن و رژیم های نظارتی که ممکن است برای یک فناوری هوش مصنوعی خاص اعمال شود می تواند بین فناوری ها و ایالت ها و کشورهای مختلف متفاوت باشد. خوشبختانه، کارشناسان چندین نهاد به نمایندگی از سیستمهای مراقبت بهداشتی، دانشگاهها و ،ت، از طریق ائتلاف برای سلامت AI (CHAI) گرد هم آمدهاند و یک طرح اولیه که راه حل هایی را برای مسائلی که باید به منظور امکان استفاده قابل اعتماد از هوش مصنوعی در مراقبت های بهداشتی مورد توجه قرار گیرند، شناسایی و پیشنهاد می کند.
اجازه دادن به فناوری های هوش مصنوعی برای انجام وظایفی که به طور سنتی توسط انسان ها انجام می شود، خطرات منحصر به فردی را در زمینه مراقبت های بهداشتی ایجاد می کند. خطرات معمولی هوش مصنوعی که در بیشتر زمینههای تجاری مشاهده میشود، مانند خطرات امنیت سایبری و سوگیری نامرئی در تصمیمگیری، همچنان وجود دارند. با این حال، نمایه خطر در زمینه مراقبت های بهداشتی به دلیل پتانسیل یک تصمیم خودکار که منجر به تأثیر منفی مستقیم بر بقای انسان، ایجاد استرس، سردرگمی، درد، رنج یا حتی از دست دادن زندگی می شود، به طور قابل ملاحظه ای بیشتر است.
سازمانهایی که در فضای مراقبتهای بهداشتی فعالیت میکنند باید یک بازبینی جامع از هر فناوری هوش مصنوعی که میخواهند پیادهسازی کنند، برای تعیین یک نمایه کلی خطر انجام دهند. حوزه هایی مانند پیامدهای اخلاقی، احتمال آسیب رساندن به شهرت عمومی، میزان نظارت انس،، سوگیری های بالقوه و نگر، های بالقوه نظارتی باید بررسی شوند.
خواندن چشم انداز نظارتی
به جای قانون ی،، که بر فناوریهای هوش مصنوعی حاکم است، جنبههای خاصی از این فناوریها توسط مجموعهای از قو،ن و مقررات کنترل میشوند. چارچوب نظارتی فعلی پیچیده است و ممکن است بر اساس چندین عامل از جمله انواع دادههای دخیل، موقعیت جغرافیایی، موارد استفاده و اجرای فنی متفاوت باشد. تلاش های مختلفی برای رفع شکاف نظارتی از جمله اتحادیه اروپا در حال انجام است قانون هوش مصنوعی (که پارلمان اروپا اخیرا تصویب کرد) و طرحی برای منشور حقوق هوش مصنوعی در اکتبر 2022 توسط ،ت بایدن منتشر شد. در حالی که این نشان دهنده پیشرفت در جهت تصویب مقررات رسمی هوش مصنوعی است، این وصله همچنان ادامه دارد.
در غیاب مقررات رسمی، تنظیمکنندهها و وکلا معمولاً در هنگام ارزیابی ریسک به چارچوبهای صنعتی رایج نگاه میکنند، مانند آنچه که توسط مؤسسه ملی استاندارد و فناوری ایالات متحده (NIST) منتشر شده است. خوشبختانه برای سازمانهایی که در فضای مراقبتهای بهداشتی فعالیت میکنند، راهنماییها و رهبری فکری زیادی برای استفاده ایمن و مسئولانه از فناوری هوش مصنوعی وجود دارد. در آوریل 2023، CHAI اولین نسخه خود را منتشر کرد طرحی برای راهنمایی پیاده سازی هوش مصنوعی قابل اعتماد و تضمین برای مراقبت های بهداشتی. این طرح با NIST مطابقت دارد چارچوب مدیریت ریسک هوش مصنوعی و یک نقطه شروع ساده و آموزنده برای سازمان های مراقبت های بهداشتی فراهم می کند که به دنبال پیاده سازی فناوری های هوش مصنوعی ایمن و مسئولانه هستند. علاوه بر این، Blueprint میتواند به وکلای دادگستری در بررسی فناوریهای هوش مصنوعی که مشتریانشان مایل به پیادهسازی آنها هستند و در کاهش ریسک قانونی با ارائه نقطه شروعی برای توسعه یک رویکرد عینی و قابل دفاع برای ارزیابی استفاده مشتریانشان از فناوریهای هوش مصنوعی کمک کند.
محیط نظارتی پیرامون فناوریهای هوش مصنوعی پیچیده و دائما در حال تغییر است. سازمانهایی که در فضای مراقبتهای بهداشتی فعالیت میکنند باید به طور مرتب استفاده از فناوریهای هوش مصنوعی را بررسی و ارزیابی مجدد کنند تا مطمئن شوند که آنها ایمن، اخلاقی، سودمند برای سازمان هستند و قو،ن یا استانداردهای صنعت را نقض نمیکنند. برای کمک، با مشاور حقوقی مشورت کنید که با وضعیت قانون، خط مشی و فناوری به روز است.
منبع: https://www.natlawreview.com/article/ai-health-care-regulatory-landscape-risk-mitigation