کاخ سفید روز جمعه اعلام کرد، هفت شرکت پیشرو هوش مصنوعی در ایالات متحده با پادمانهای داوطلبانه در مورد توسعه این فناوری موافقت کردهاند و متعهد شدند که خطرات ابزارهای جدید را حتی در شرایطی که بر سر پتانسیل هوش مصنوعی رقابت میکنند، مدیریت کنند.
هفت شرکت – آمازون، آنتروپیک، گوگل، فلکشن، متا، مایکروسافت و OpenAI – به طور رسمی در نشستی با رئیس جمهور بایدن در کاخ سفید بعدازظهر جمعه به استانداردهای جدید برای ایمنی، امنیت و اعتماد متعهد شدند.
آقای بایدن در اظهارات کوتاهی از اتاق روزولت در کاخ سفید گفت: «ما باید در مورد تهدیدات ناشی از فناوریهای نوظهور که میتوانند برای دموکراسی و ارزشهای ما ایجاد کنند، آگاه و هوشیار باشیم.
«این یک مسئولیت جدی است. ما باید آن را به درستی انجام دهیم.» او در کنار مدیران این شرکت ها گفت. “و همچنین پتانسیل عظیم و عظیمی وجود دارد.”
این اعلامیه در حالی منتشر میشود که شرکتها در حال رقابت برای پیشی گرفتن از یکدیگر با نسخههایی از هوش مصنوعی هستند که راههای جدید قدرتمندی برای ایجاد متن، ع،، موسیقی و ویدیو بدون دخالت انسان ارائه میدهند. اما جهش های تکنولوژیکی باعث ترس از انتشار اطلاعات نادرست و هشدارهای وحشتناک در مورد “خطر انقراض” شده است زیرا هوش مصنوعی پیچیده تر و شبیه انسان می شود.
پادمان های داوطلبانه تنها یک گام اولیه و آزمایشی است زیرا واشنگتن و ،ت های سراسر جهان به دنبال ایجاد چارچوب های قانونی و نظارتی برای توسعه هوش مصنوعی هستند. این توافقنامه ها شامل آزمایش محصولات برای خطرات امنیتی و استفاده از واترمارک برای اطمینان از اینکه مصرف کنندگان می توانند مواد تولید شده توسط هوش مصنوعی را تشخیص دهند، می شود.
اما قانونگذاران برای تنظیم رسانههای اجتماعی و سایر فناوریها به شیوههایی که با فناوری بهسرعت در حال تکامل همگام باشند، تلاش کردهاند.
کاخ سفید هیچ جزئیاتی از فرمان اجرایی آتی ریاست جمهوری ارائه نکرد که هدف آن مق، با مشکل دیگری است: چگونگی کنترل توانایی چین و سایر رقبا برای دستیابی به برنامه های جدید هوش مصنوعی یا اجزای مورد استفاده برای توسعه آنها.
انتظار میرود این دستور شامل محدودیتهای جدید در نیمهرساناهای پیشرفته و محدودیتهایی در صادرات مدلهای زبان بزرگ باشد. ایمن ، آنها سخت است – بسیاری از نرمافزارها میتوانند روی یک درایو انگشت شست، فشرده شوند.
یک فرمان اجرایی میتواند بیش از تعهدات داوطلبانه روز جمعه، که به گفته کارشناسان در رویههای شرکتهای درگیر منع، شده بود، مخالفتهای صنعت را برانگیزد. این وعده ها برنامه های شرکت های هوش مصنوعی را محدود نمی کند و مانع توسعه فناوری های آنها نمی شود. و به ،وان تعهدات داوطلبانه، آنها توسط تنظیم کننده های ،تی اجرا نمی شوند.
نیک کلگ، رئیس امور جه، در متا، شرکت مادر فیس بوک، در بی،ه ای گفت: «ما از انجام این تعهدات داوطلبانه در کنار سایرین در این بخش ،سندیم. آنها اولین گام مهم در حصول اطمینان از ایجاد حفاظ های مسئول برای هوش مصنوعی هستند و الگویی را برای سایر ،ت ها ایجاد می کنند تا از آن پیروی کنند.
به ،وان بخشی از پادمانها، شرکتها با آزمایش امنیتی، تا حدی توسط کارشناسان مستقل موافقت ،د. تحقیق در مورد تعصب و نگر، های حفظ حریم خصوصی؛ به اشتراک گذاری اطلاعات در مورد خطرات با ،ت ها و سایر سازمان ها؛ توسعه ابزار برای مبارزه با چالش های اجتماعی مانند تغییرات آب و هوا؛ و اقدامات شفافیت برای شناسایی مواد تولید شده توسط هوش مصنوعی.
،ت بایدن در بی،ه ای که این توافقنامه ها را اعلام کرد، گفت: شرکت ها باید اطمینان حاصل کنند که «نوآوری به ضرر حقوق و امنیت آمریکایی ها تمام نمی شود».
،ت در بی،های گفت: «شرکتهایی که در حال توسعه این فناوریهای نوظهور هستند، مسئولیت دارند که از ایمن بودن محصولات خود اطمینان حاصل کنند.
برد اسمیت، رئیس مایکروسافت و یکی از مدیران شرکت کننده در جلسه کاخ سفید، گفت که شرکت او از پادمان های داوطلبانه حمایت می کند.
آقای اسمیت گفت: «تعهدات کاخ سفید با حرکت سریع، پایهای را ایجاد میکند تا اطمینان حاصل شود که وعده هوش مصنوعی جلوتر از خطراتش میماند».
آنا ماکانجو، معاون امور جه، در OpenAI، این اعلامیه را بخشی از همکاری مداوم ما با ،تها، سازمانهای جامعه مدنی و سایرین در سراسر جهان برای پیشبرد حکمر، هوش مصنوعی توصیف کرد.
برای این شرکتها، استانداردهای توصیفشده روز جمعه دو هدف را دنبال میکنند: ت، برای جلوگیری یا شکلدهی به حرکتهای قانونی و نظارتی با نظارت بر خود، و سیگنالی مبنی بر اینکه آنها با فناوری جدید به طور متفکرانه و پیشگیرانه برخورد میکنند.
اما قو،نی که آنها در مورد آنها توافق ،د تا حد زیادی کمترین م،ج مش، هستند و هر شرکتی می تواند آن را متفاوت تفسیر کند. به ،وان مثال، شرکتها متعهد به اقدامات سختگیرانه امنیت سایبری در مورد دادههای مورد استفاده برای ساخت مدلهای زب، هستند که برنامههای هوش مصنوعی مولد بر اساس آن توسعه مییابند. اما هیچ مشخصه ای در مورد م،ای آن وجود ندارد و شرکت ها به هر حال علاقه مند به حفاظت از مالکیت م،وی خود هستند.
و حتی مراقب ترین شرکت ها نیز آسیب پذیر هستند. مایکروسافت، یکی از شرکتهایی که با آقای بایدن در مراسم کاخ سفید شرکت کرد، هفته گذشته تلاش کرد تا با هک سازماندهی شده توسط ،ت چین در ایمیلهای خصوصی مقامات آمریکایی که با چین سروکار داشتند، مق، کند. اکنون به نظر می رسد که چین یک “کلید خصوصی” را که توسط مایکروسافت نگهداری می شود و کلید احراز هویت ایمیل ها است – یکی از دقیق ترین کدهای این شرکت – به سرقت برده یا به نوعی به دست آورده است.
با توجه به چنین خطراتی، بعید به نظر میرسد که توافق تلاشها برای تصویب قو،ن و اعمال مقررات بر فناوری نوظهور را کند کند.
پل بارت، معاون مرکز استرن برای تجارت و حقوق بشر در دانشگاه نیویورک، گفت که برای محافظت در برابر خطراتی که هوش مصنوعی برای جامعه ایجاد می کند، باید اقدامات بیشتری انجام شود.
آقای بارت در بی،ه ای گفت: «تعهدات داوطلبانه اعلام شده امروز قابل اجرا نیستند، به همین دلیل ضروری است که کنگره، همراه با کاخ سفید، به سرعت قو،نی را تدوین کنند که نیازمند شفافیت، حفاظت از حریم خصوصی، و تحقیقات بیشتر در مورد طیف وسیعی از خطرات ناشی از هوش مصنوعی مولد است.
قانونگذاران اروپایی در اوا، سال جاری قو،ن هوش مصنوعی را تصویب میکنند، که باعث شده بسیاری از شرکتها مقررات ایالات متحده را تشویق کنند. چندین قانونگذار لوایحی را ارائه کرده اند که شامل صدور مجوز برای شرکت های هوش مصنوعی برای انتشار فناوری های خود، ایجاد یک آژانس فدرال برای نظارت بر صنعت و ا،امات حفظ حریم خصوصی داده ها می شود. اما اعضای کنگره از توافق بر سر قو،ن فاصله زیادی دارند.
قانونگذاران با چگونگی رسیدگی به رشد فناوری هوش مصنوعی دست و پنجه نرم می کنند، برخی از آنها بر خطرات برای مصرف کنندگان تمرکز کرده اند و برخی دیگر به شدت نگران عقب ماندن از دشمنان، به ویژه چین، در رقابت برای تسلط در این زمینه هستند.
این هفته، کمیته رقابت با چین مجلس نمایندگان، نامههای دو حزبی را به شرکتهای سرمایهگذاری خطرپذیر مستقر در ایالات متحده ارسال کرد و خواستار مح،ه سرمایهگذاریهایی شد که در شرکتهای هوش مصنوعی و نیمهرساناهای چینی انجام دادهاند. برای ماهها، گروههای مختلف مجلس نمایندگان و سنا از تأثیرگذارترین کارآفرینان و منتقدان صنعت هوش مصنوعی سؤال می،د تا مشخص کنند کنگره باید چه نوع محافظهای قانونی و مشوقهایی را بررسی کند.
بسیاری از این شاهدان، از جمله سم ،من از OpenAI، از قانونگذاران خواسته اند تا صنعت هوش مصنوعی را تنظیم کنند و به پتانسیل این فناوری جدید برای ایجاد آسیب های ناروا اشاره کنند. اما این مقررات در کنگره به کندی اجرا میشود، جایی که بسیاری از قانونگذاران هنوز در تلاش برای درک دقیق فناوری هوش مصنوعی هستند.
در تلاش برای بهبود درک قانونگذاران، سناتور چاک شومر، دموکرات نیویورک و رهبر ا،ریت، مجموعهای از جلسات را تابستان امسال آغاز کرد تا از مقامات ،تی و کارشناسان درباره مزیتها و خطرات هوش مصنوعی در تعدادی از زمینهها بشنود.
کارون دمیرجیان گزارشی از واشنگتن ارائه کرد.
منبع: https://www.nytimes.com/2023/07/21/us/politics/ai-regulation-biden.html