برای هوش مصنوعی به قانون چهارم رباتیک نیاز داریم
انتشار: دی 25، 1403
بروزرسانی: 23 خرداد 1404

برای هوش مصنوعی به قانون چهارم رباتیک نیاز داریم



در سال 1942، نویسنده افسانه ای علمی تخیلی ایزاک آسیموف سه قانون رباتیک خود را در داستان کوتاه خود "Runaround" معرفی کرد. این قو،ن بعداً در مجموعه داستان های مهم او رایج شد من، ربات.

  • قانون اول: یک ربات ممکن است به انسان آسیب نرساند یا با عدم اقدام، اجازه آسیب رساندن به انسان را بدهد.
  • قانون دوم: یک روبات باید از دستوراتی که توسط انسان ها داده می شود اطاعت کند، مگر در مواردی که چنین دستوراتی با قانون اول در تضاد باشد.
  • قانون سوم: یک ربات باید از وجود خود محافظت کند تا زم، که چنین حفاظتی با قانون اول یا دوم در تضاد نباشد.

این قو،ن در حالی که از آثار داست، است،اج شده اند، دهه ها بحث درباره اخلاق روبات ها را شکل داده اند. و از آنجایی که سیستم های هوش مصنوعی – که می توان آن ها را روبات های مجازی در نظر گرفت – پیچیده تر و فراگیرتر شده اند، برخی از فن آوران چارچوب آسیموف را برای در نظر گرفتن پادمان های بالقوه مورد نیاز برای هوش مصنوعی که با انسان ها در تعامل است مفید یافته اند.

اما سه قانون موجود کافی نیست. امروز، ما وارد دوران همکاری بی سابقه انسان و هوش مصنوعی می شویم که آسیموف به سختی می توانست آن را تصور کند. پیشرفت سریع قابلیت های هوش مصنوعی مولد، به ویژه در تولید زبان و تصویر، چالش هایی فراتر از نگر، های اولیه آسیموف در مورد آسیب فیزیکی و اطاعت ایجاد کرده است.

دیپ فیک، اطلاعات غلط و کلاهبرداری

گسترش فریبکاری با هوش مصنوعی به ویژه نگران کننده است. طبق گزارش FBI 2024 گزارش جرایم اینترنتی، جرایم سایبری شامل دستکاری دیجیتال و مهندسی اجتماعی منجر به خسارات بیش از 10.3 میلیارد دلار شد. آژانس امنیت سایبری اتحادیه اروپا در سال 2023 منظره تهدید به طور خاص دیپ فیک ها (رسانه های مصنوعی که واقعی به نظر می رسند) را به ،وان یک تهدید در حال ظهور برای هویت و اعتماد دیجیتال برجسته کرد.

اطلاعات نادرست رسانه های اجتماعی مانند آتش در حال گسترش است. من آن را در طول همه گیری مطالعه کردم به طور گسترده و تنها می توان گفت که گسترش ابزارهای هوش مصنوعی مولد، تشخیص آن را به طور فزاینده ای دشوار کرده است. بدتر از همه، مقالات تولید شده با هوش مصنوعی به همان اندازه متقاعد کننده هستند حتی متقاعد کننده تر نسبت به تبلیغات سنتی، و استفاده از هوش مصنوعی برای ایجاد محتوای متقاعد کننده نیاز به مقدار زیادی دارد تلاش کمی.

دیپ فیک در سراسر جامعه در حال افزایش است. بات نت ها می توانند از متن، گفتار و ویدیوی تولید شده توسط هوش مصنوعی برای ایجاد برداشت های نادرست از پشتیب، گسترده از هر موضوع سیاسی استفاده کنند. ربات ها اکنون قادر به برقراری و دریافت تماس های تلفنی هستند جعل هویت افراد. تماس های کلاهبرداری هوش مصنوعی با تقلید از صداهای آشنا به طور فزاینده ای در حال افزایش است مش،و هر روز، می تو،م انتظار رونق کلاهبرداری های تماس ویدیویی بر اساس آواتارهای همپوش، ارائه شده توسط هوش مصنوعی را داشته باشیم، که به کلاهبرداران اجازه می دهد خود را شبیه عزیزان خود کنند و آسیب پذیرترین جمعیت ها را هدف قرار دهند. به طور حکایتی، خود پدرم وقتی فیلمی از من دید تعجب کرد به زبان اسپ،ایی روان صحبت می کند، همانطور که او می دانست که من یک مبتدی مغرور در این زبان هستم (400 روز قوی در Duolingo!). کافی است بگوییم که ویدیو با هوش مصنوعی ویرایش شده است.

حتی نگران کننده تر، کودکان و نوجوانان در حال ایجاد وابستگی عاطفی به عوامل هوش مصنوعی هستند و گاهی اوقات قادر به تمایز بین تعامل با دوستان واقعی و ربات های آنلاین نیستند. قبلاً وجود داشته است خودکشی ها نسبت داده شده است به تعامل با چت ربات های هوش مصنوعی.

در کتاب 2019 خود سازگار با انسان، دانشمند برجسته کامپیوتر استوارت راسل استدلال می کند که توانایی سیستم های هوش مصنوعی برای فریب دادن انسان ها، چالشی اساسی برای اعتماد اجتماعی است. این نگر، در ابتکارات سیاستی اخیر، به ویژه در ابتکار عمل، منع، شده است قانون هوش مصنوعی اتحادیه اروپا، که شامل مقرراتی است که به شفافیت در تعاملات هوش مصنوعی و افشای شفاف محتوای تولید شده توسط هوش مصنوعی نیاز دارد. در زمان آسیموف، مردم نمی توانستند تصور کنند که چگونه عوامل مصنوعی می توانند از ابزارهای ارتباطی آنلاین و آواتارها برای فریب دادن انسان ها استفاده کنند.

بنابراین، ما باید به قو،ن آسیموف اضافه کنیم.

  • قانون چهارم: یک ربات یا هوش مصنوعی نباید با جعل هویت انسان، انسان را فریب دهد.

راه به سوی هوش مصنوعی قابل اعتماد

ما به مرزهای روشن نیاز داریم. در حالی که همکاری انسان و هوش مصنوعی می تواند سازنده باشد، فریب هوش مصنوعی اعتماد را تضعیف می کند و منجر به اتلاف زمان، ناراحتی عاطفی و سوء استفاده از منابع می شود. عوامل مصنوعی باید خود را شناسایی کنند تا اطمینان حاصل شود که تعاملات ما با آنها شفاف و سازنده است. محتوای تولید شده توسط هوش مصنوعی باید به وضوح علامت گذاری شود مگر اینکه به طور قابل توجهی توسط یک انسان ویرایش و اقتباس شده باشد.

اجرای این قانون چهارم مست،م:

  • افشای اجباری هوش مصنوعی در تعاملات مستقیم،
  • بر،ب گذاری واضح محتوای تولید شده توسط هوش مصنوعی،
  • استانداردهای فنی برای شناسایی هوش مصنوعی،
  • چارچوب های قانونی برای اجرا،
  • ابتکارات آموزشی برای بهبود سواد هوش مصنوعی.

البته گفتن همه اینها راحت تر از انجام دادن است. تلاش های تحقیقاتی گسترده ای در حال انجام است تا راه های قابل اعتمادی برای واترمارک یا تشخیص متن، صدا، تصاویر و ویدیوهای تولید شده توسط هوش مصنوعی پیدا شود. ایجاد شفافیتی که من خواستار آن هستم به دور از یک مشکل حل شده است.

اما آینده همکاری انسان و هوش مصنوعی به حفظ تمایزات واضح بین عوامل انس، و مصنوعی بستگی دارد. همانطور که در IEEE 2022 اشاره شده است.طراحی همسو با اخلاق«چارچوب، شفافیت در سیستم های هوش مصنوعی برای ایجاد اعتماد عمومی و تضمین توسعه مسئولانه هوش مصنوعی ضروری است.

داستان های پیچیده آسیموف نشان داد که حتی روبات هایی که سعی می ،د از قو،ن پیروی کنند، اغلب پیامدهای ناخواسته اعمال خود را کشف می ،د. با این حال، داشتن سیستم های هوش مصنوعی که سعی می کنند از دستورالعمل های اخلاقی آسیموف پیروی کنند، شروع بسیار خوبی خواهد بود.

از مقالات سایت شما

مقالات مرتبط در سراسر وب



منبع: https://spect،.ieee.org/isaac-asimov-robotics