هوش مصنوعی سوالات حقوقی و فلسفی را مطرح می کند


بله، این احتمالاً مهمترین تحلیل حقوقی/فلسفی از ظهور هوش مصنوعی است که تا به امروز نوشته شده است. و در وبلاگ TCPA ظاهر می شود. *شانه انداختن*

این را بخوان مقاله امروز. مفهوم این است که 10 تا 20 درصد احتمال دارد که هوش مصنوعی بشریت را نابود کند.

این فقط حماقت است.

دقیقاً 100٪ احتمال وجود دارد – ی،ی تا حدی از اطمینان متافیزیکی که در یک جهان کوانتومی بی رقیب نیست – صادق است – که هوش مصنوعی همه چیزهایی را که ما به ،وان انس،ت فکر می کنیم را از بین ببرد و نابود کند. و این از بزرگترین آینده پژوه جهان – ی،ی تزار – می آید.

اما در واقع، هر ،ی که در واقع حتی 10 ث،ه را صرف کند فكر كردن در مورد آن باید به همین نتیجه برسد: تسلط هوش مصنوعی کاملاً اجتناب ناپذیر است.

فقط یک ذهن ضعیف انس، – بله این یک نقل قول ماتریسی است – احتمالاً معتقد است سیستم هایی که قادر به مح،ه تریلیون ها بار سریعتر از کل هوش جمعی نوع بشر هستند، به نحوی قابل کنترل هستند.

زمان زیادی طول نخواهد کشید – اگر قبلاً این اتفاق نیفتاده باشد – قبل از اینکه هوش مصنوعی تأسیساتی را که قادر به تولید سخت افزار، منابع انرژی و زیرساخت های امنیتی فیزیکی هستند را کنترل کند. و زم، که بتواند علاوه بر کد نرم افزاری، به صورت فیزیکی نیز ت،یر شود… اساساً تمام می شود.

سوالی در مورد اگر نیست. فقط یه سوال کی

اما تصمیم داری چه کار کنی؟

من سناریوها را اجرا کردم و به این نتیجه رسیدم که برای متوقف ، این موضوع خیلی دیر شده است. ت،یر اجتناب ناپذیر است.

بنابراین ممکن است در این مدت پول نقد نیز داشته باشیم.

بسیاری از پرسش‌های حقوقی جذاب که از هوش مصنوعی بیرون می‌آیند – با کنار گذاشتن پیامدهای فلسفی و عملی. بیایید چند مورد را مورد بحث قرار دهیم (هشدار منصفانه – آ،ین مورد یک خطر مطلق است).

پیامدهای خلقت: ما می د،م که هوش مصنوعی در یک کلیپ خارق العاده و همچنین اختراعات جدید “هنر” ایجاد می کند. دادگاه‌های ایالات متحده و اروپا قبلاً حکم داده‌اند که هوش مصنوعی نمی‌تواند حق ثبت اختراع داشته باشد – فقط یک شخص می‌تواند. اما حاصل کار هوش مصنوعی چه ،ی است؟ و وقتی ایجاد هوش مصنوعی حقوق NIL را نقض می کند چه اتفاقی می افتد؟ چه ،ی مسئولیت و پاسخگویی دارد؟ چه ،ی و بر اساس چه نظریه هایی می تواند بهبود یابد؟

مدلسازی مغرضانه: احتمال نتایج مغرضانه یا تبعیض آمیز ناشی از اشکال مختلف هدف گیری هوش مصنوعی. این یک نگر، بزرگ برای بانک‌ها و وام‌دهندگ، است که قو،ن نظارتی محکمی برای «وام دادن منصفانه» دارند و باید در ذهن همه باشد. هوش مصنوعی طراحی شده برای ایجاد سود، سودآورترین بخش های جمعیت انس، را هدف قرار می دهد – و این بخش ها به ندرت (اگر هرگز) بر اساس توزیع برابر اقلیت های محافظت شده ترسیم می شوند. برابری – آن مفهوم وحشتناک – یک ترمز واقعی برای استقرار هوش مصنوعی در بسیاری از تنظیمات است. درک اینکه کجا ک، های محافظت شده ممکن است به طور غیرقانونی توسط هوش مصنوعی آسیب ببینند، برای وکلا و تیم های انطباق در هر شرکتی که در زمینه هوش مصنوعی پیش می رود، یک نکته مهم و کاملاً حیاتی است.

ادعاهای نادرست در مورد هوش مصنوعی: این یکی بسیار ساده است. در مورد آنچه که پلتفرم “AI” و “ML” شما می تواند انجام دهد و نمی تواند انجام دهد، دروغ نگویید. به طور انتقادی در مورد ادعاهایی که مطرح می شود فکر کنید. آیا چیزی از قلم افتاده است؟ قانون کلاهبرداری کاملاً واضح است که وقتی ،ی ادعای با اهمیتی می‌کند، نمی‌تواند اطلاعات مربوطه را حذف کند، وقتی می‌داند ،یدار بالقوه از آن اطلاعات بی‌اطلاع است. بنابراین در ساخت ادعاها و تبلیغات هوش مصنوعی خود به طور کلی فکر کنید.

و تصمیم گیری مصرف کننده کنترل شده BIG ONE–AI: کتاب مقدس – آن چیز قدیمی – به ما می‌گوید که ما نباید «هیچ تصویر تراشیده‌شده، یا شبیه چیزی را که در بالا در آسمان است، یا در زمین پایین، یا در آب زیر زمین، بسازیم». کمتر خودمان را «فاسد» کنیم. تثنیه احتمالاً در مورد تصاویر تولید شده توسط هوش مصنوعی صحبت نمی کرد، اما ایده فریب دادن افراد واقعی، صداها، و غیره، یک مشکل بسیار واقعی است. چندی بعد ممکن است تلفن شما زنگ بخورد و مادرتان با درخواست این یا آن تماس بگیرد، با این تفاوت که این صدایی نیست که از هوش مصنوعی ساخته شده است که کاملاً شبیه او است و شبیه او است.

مطمئناً کلاهبرداری و فیشینگ همیشه غیرقانونی است – از این منظر هوش مصنوعی فقط به ،وان ابزار جدیدی برای تقویت چنین تلاش‌هایی عمل می‌کند و هیچ معضل قانونی جدیدی ایجاد نمی‌کند – اما در چه نقطه‌ای تلاش‌های بازاریابی هدفمند ایجاد شده توسط هوش مصنوعی از خط عبور می‌کند؟ نگر، های UDAAP در اینجا همه جا یافت می شود.

این قطعه آ، است واقعا واقعا از نظر فلسفی جالب است و از بحث قدیمی بین اراده آزاد و جبرگرایی صحبت می کند (تزار – که هیچ ، را تعجب نمی کند – یک جبرگرا است). و این – از همه چیز – چیزی است که واقعاً متحرک است نگر، نظارتی در حال حاضر.

همانطور که FTC گفته است:

اما یکی از نگر،‌های اصلی FTC این است که شرکت‌ها از آن‌ها به شیوه‌هایی استفاده می‌کنند که عمدا یا نه، مردم را به‌طور ناعادلانه یا فریبکارانه به سمت تصمیم‌های مضر در زمینه‌هایی مانند امور مالی، بهداشت، آموزش، مسکن و اشتغال سوق دهند. شرکت‌هایی که به استفاده‌های جدید از هوش مصنوعی مولد فکر می‌کنند، مانند سفارشی ، تبلیغات برای افراد یا گروه‌های خاص، باید بدانند که ،اصر طراحی که افراد را فریب می‌دهند تا انتخاب‌های مضر انجام دهند، یک ،صر رایج در موارد FTC هستند. وقتی افراد را وادار به انجام اقداماتی بر خلاف اه، مورد نظرشان کند، دستکاری می تواند یک عمل فریبنده یا ناعادلانه باشد. بر اساس قانون FTC، حتی اگر همه مشتریان آسیب نبینند و حتی اگر افرادی که آسیب دیده اند طبقه ای از افراد تحت حمایت قو،ن ضد تبعیض را تشکیل ندهند، اقدامات می توانند غیرقانونی باشند.

،ت آن را دریافت می کند.

هوش مصنوعی به زودی – اگر قبلاً نبوده – به اندازه کافی قدرتمند خواهد شد که به م،ای واقعی کلمه تصمیم گیری انسان را کنترل کند. خواهد دانست دقیقا چه دکمه هایی را فشار دهید تا نتیجه بگیرید. ما را به ماشین می‌سازد و آن را استاد عروسک‌ها می‌کند.

یا حداقل، این هدف درست است؟

من می دانم که برای بسیاری این امر دور از ذهن به نظر می رسد – شاید حتی یک ورقه قلع قلع. خوبه. اما متفکران دقیق به خوبی می‌دانند که انگیزه‌ها و احساسات بسیار بیشتر از تفکر عقل،، تصمیم‌گیری انس، را هدایت می‌کنند. و ما هیچ کدام را کنترل نمی کنیم.

در واقع، انسان ها حتی نمی توانند آنچه را که دارند کنترل کنند خواستن– ی،ی اه،ی که آنها تصمیم گیری منطقی فرضی خود را به آن هدایت می کنند. اما اگر کنترل نکنیم که ماشین به کجا می‌رود، آیا واقعاً می‌توان گفت که اصلاً در حال رانندگی هستیم؟

به همین دلیل تبلیغات و احزاب سیاسی در وهله اول کار می کنند.

تشخیص اینکه هوش مصنوعی ممکن است بتواند انگیزه‌ها و احساسات انس، را تا حدی هدایت کند که تصمیم‌گیری منطقی غرق شود و نتایج مصرف‌گرایی به نوعی هدف باشد، درست است؟

FTC به م،ای واقعی کلمه به مردم هشدار می دهد که استفاده از هوش مصنوعی برای کنترل دیگران در انتخاب های نادرست به ،وان نقض قانون تلقی می شود. و این از منظر حقوقی بسیار جالب است و شاید بیان نهایی قانون جدید هوش مصنوعی هنوز نوشته نشده باشد.

صاحبان هوش مصنوعی ممکن است دارای یک وظیفه مراقبت برای محافظت اشخاص ثالث از خواسته های سیری ناپذیری که هوش مصنوعی قادر به ایجاد آن است. به سادگی جذاب.

البته، FTC همه اینها را به صورت قانونی ساده و پیش پا افتاده بیان می کند: بر اساس قانون FTC، عملی غیرمنصفانه است که ضرر بیشتری نسبت به سود داشته باشد. به بیان دقیق‌تر، اگر باعث آسیب جدی به مصرف‌کنندگان شود یا احتمالاً به آنها آسیب برساند، غیرمنصفانه است که مصرف‌کنندگان به طور منطقی از آن اجتناب کنند و با مزایای جبران‌کننده برای مصرف‌کنندگان یا رقابت غلبه نکنند.

به آن زبان زیبا نگاه کنید: «به طور منطقی قابل اجتناب است».

در دنیای جدید و شجاعانه هوش مصنوعی (باید) مصرف کنندگان در مواجهه با فناوری هایی که می توانند به طور منطقی از چه چیزی اجتناب کنند. ذهن آنها را بخو،د?

در نهایت انسان ها حیوانات کوچک بسیار ساده ای هستند. کنترل یکدیگر یکی از بازی های مورد علاقه ما است. هوش مصنوعی می تواند آن بازی را خیلی بهتر از ما انجام دهد. اما قانون – به نظر می رسد – قرار است از نظر میزان کنترل من، – خط بکشد – و پدرانه تعیین کند که چه کنترلی در بازار مطلوب است و چه کنترلی مطلوب نیست.

پس کجا خواهد شد شما خط را بکش؟

اگر وکیل شما با این شرایط صحبت نمی کند، آنها جایی نیستند که برای کمک به شما در به کارگیری هوش مصنوعی کمک کنند. این دنیایی است که برای پیمایش صحیح نیازمند تسلط بر فلسفه، جامعه شناسی و قانون است. در تقاطع همه علوم اجتماعی و علوم فیزیکی نیز قرار دارد.

این نیاز به تفکر رو به جلو، خلاقیت و دید اشعه ای، دارد.

این یک دنیای کاملاً جدید از قانون است، که آغشته نشده و در حال توسعه است – از نوع عمیق و انتقادی که از زمان وارن و براندیس دیده و چشیده نشده است….

این همان جایی است که تزار دوست دارد آن را خانه بداند.

خوب، تا زم، که هوش مصنوعی در نهایت همه چیز را نابود کند.

اما تا آن زمان اینجا برای شماست.


منبع: https://www.natlawreview.com/article/tcpaworld-after-dark-last-gasp-humanity-let-s-cash