کارشناسان بهداشت و درمان گرد هم می آیند تا استفاده قابل اعتماد از هوش مصنوعی را شناسایی کنند


مراقبت های بهداشتی، مانند بسیاری از صنایع، با گسترش هوش مصنوعی (AI) و خطرات و مزایای جدید آن دست و پنجه نرم می کند. ایجاد تعادل بین این خطرات و مزایا می تواند به ویژه برای وکلای دادگستری چالش برانگیز باشد، زیرا قو،ن و رژیم های نظارتی که ممکن است برای یک فناوری هوش مصنوعی خاص اعمال شود می تواند بین فناوری ها و ایالت ها و کشورهای مختلف متفاوت باشد. خوشبختانه، کارشناسان چندین نهاد به نمایندگی از سیستم‌های مراقبت بهداشتی، دانشگاه‌ها و ،ت، از طریق ائتلاف برای سلامت AI (CHAI) گرد هم آمده‌اند و یک طرح اولیه که راه حل هایی را برای مسائلی که باید به منظور امکان استفاده قابل اعتماد از هوش مصنوعی در مراقبت های بهداشتی مورد توجه قرار گیرند، شناسایی و پیشنهاد می کند.

اجازه دادن به فناوری های هوش مصنوعی برای انجام وظایفی که به طور سنتی توسط انسان ها انجام می شود، خطرات منحصر به فردی را در زمینه مراقبت های بهداشتی ایجاد می کند. خطرات معمولی هوش مصنوعی که در بیشتر زمینه‌های تجاری مشاهده می‌شود، مانند خطرات امنیت سایبری و سوگیری نامرئی در تصمیم‌گیری، همچنان وجود دارند. با این حال، نمایه خطر در زمینه مراقبت های بهداشتی به دلیل پتانسیل یک تصمیم خودکار که منجر به تأثیر منفی مستقیم بر بقای انسان، ایجاد استرس، سردرگمی، درد، رنج یا حتی از دست دادن زندگی می شود، به طور قابل ملاحظه ای بیشتر است.

سازمان‌هایی که در فضای مراقبت‌های بهداشتی فعالیت می‌کنند باید یک بازبینی جامع از هر فناوری هوش مصنوعی که می‌خواهند پیاده‌سازی کنند، برای تعیین یک نمایه کلی خطر انجام دهند. حوزه هایی مانند پیامدهای اخلاقی، احتمال آسیب رساندن به شهرت عمومی، میزان نظارت انس،، سوگیری های بالقوه و نگر، های بالقوه نظارتی باید بررسی شوند.

خواندن چشم انداز نظارتی

به جای قانون ی،، که بر فناوری‌های هوش مصنوعی حاکم است، جنبه‌های خاصی از این فناوری‌ها توسط مجموعه‌ای از قو،ن و مقررات کنترل می‌شوند. چارچوب نظارتی فعلی پیچیده است و ممکن است بر اساس چندین عامل از جمله انواع داده‌های دخیل، موقعیت جغرافیایی، موارد استفاده و اجرای فنی متفاوت باشد. تلاش های مختلفی برای رفع شکاف نظارتی از جمله اتحادیه اروپا در حال انجام است قانون هوش مصنوعی (که پارلمان اروپا اخیرا تصویب کرد) و طرحی برای منشور حقوق هوش مصنوعی در اکتبر 2022 توسط ،ت بایدن منتشر شد. در حالی که این نشان دهنده پیشرفت در جهت تصویب مقررات رسمی هوش مصنوعی است، این وصله همچنان ادامه دارد.

در غیاب مقررات رسمی، تنظیم‌کننده‌ها و وکلا معمولاً در هنگام ارزیابی ریسک به چارچوب‌های صنعتی رایج نگاه می‌کنند، مانند آنچه که توسط مؤسسه ملی استاندارد و فناوری ایالات متحده (NIST) منتشر شده است. خوشبختانه برای سازمان‌هایی که در فضای مراقبت‌های بهداشتی فعالیت می‌کنند، راهنمایی‌ها و رهبری فکری زیادی برای استفاده ایمن و مسئولانه از فناوری هوش مصنوعی وجود دارد. در آوریل 2023، CHAI اولین نسخه خود را منتشر کرد طرحی برای راهنمایی پیاده سازی هوش مصنوعی قابل اعتماد و تضمین برای مراقبت های بهداشتی. این طرح با NIST مطابقت دارد چارچوب مدیریت ریسک هوش مصنوعی و یک نقطه شروع ساده و آموزنده برای سازمان های مراقبت های بهداشتی فراهم می کند که به دنبال پیاده سازی فناوری های هوش مصنوعی ایمن و مسئولانه هستند. علاوه بر این، Blueprint می‌تواند به وکلای دادگستری در بررسی فناوری‌های هوش مصنوعی که مشتریانشان مایل به پیاده‌سازی آن‌ها هستند و در کاهش ریسک قانونی با ارائه نقطه شروعی برای توسعه یک رویکرد عینی و قابل دفاع برای ارزیابی استفاده مشتریانشان از فناوری‌های هوش مصنوعی کمک کند.

محیط نظارتی پیرامون فناوری‌های هوش مصنوعی پیچیده و دائما در حال تغییر است. سازمان‌هایی که در فضای مراقبت‌های بهداشتی فعالیت می‌کنند باید به طور مرتب استفاده از فناوری‌های هوش مصنوعی را بررسی و ارزیابی مجدد کنند تا مطمئن شوند که آنها ایمن، اخلاقی، سودمند برای سازمان هستند و قو،ن یا استانداردهای صنعت را نقض نمی‌کنند. برای کمک، با مشاور حقوقی مشورت کنید که با وضعیت قانون، خط مشی و فناوری به روز است.


منبع: https://www.natlawreview.com/article/ai-health-care-regulatory-landscape-risk-mitigation