دسته‌ها
اخبار

متا، گوگل و شرکت های هوش مصنوعی با اقدامات ایمنی در نشست بایدن موافقت کردند


کاخ سفید روز جمعه اعلام کرد، هفت شرکت پیشرو هوش مصنوعی در ایالات متحده با پادمان‌های داوطلبانه در مورد توسعه این فناوری موافقت کرده‌اند و متعهد شدند که خطرات ابزارهای جدید را حتی در شرایطی که بر سر پتانسیل هوش مصنوعی رقابت می‌کنند، مدیریت کنند.

هفت شرکت – آمازون، آنتروپیک، گوگل، فلکشن، متا، مایکروسافت و OpenAI – به طور رسمی در نشستی با رئیس جمهور بایدن در کاخ سفید بعدازظهر جمعه به استانداردهای جدید برای ایمنی، امنیت و اعتماد متعهد شدند.

آقای بایدن در اظهارات کوتاهی از اتاق روزولت در کاخ سفید گفت: «ما باید در مورد تهدیدات ناشی از فناوری‌های نوظهور که می‌توانند برای دموکراسی و ارزش‌های ما ایجاد کنند، آگاه و هوشیار باشیم.

«این یک مسئولیت جدی است. ما باید آن را به درستی انجام دهیم.» او در کنار مدیران این شرکت ها گفت. “و همچنین پتانسیل عظیم و عظیمی وجود دارد.”

این اعلامیه در حالی منتشر می‌شود که شرکت‌ها در حال رقابت برای پیشی گرفتن از یکدیگر با نسخه‌هایی از هوش مصنوعی هستند که راه‌های جدید قدرتمندی برای ایجاد متن، ع،، موسیقی و ویدیو بدون دخالت انسان ارائه می‌دهند. اما جهش های تکنولوژیکی باعث ترس از انتشار اطلاعات نادرست و هشدارهای وحشتناک در مورد “خطر انقراض” شده است زیرا هوش مصنوعی پیچیده تر و شبیه انسان می شود.

پادمان های داوطلبانه تنها یک گام اولیه و آزمایشی است زیرا واشنگتن و ،ت های سراسر جهان به دنبال ایجاد چارچوب های قانونی و نظارتی برای توسعه هوش مصنوعی هستند. این توافقنامه ها شامل آزمایش محصولات برای خطرات امنیتی و استفاده از واترمارک برای اطمینان از اینکه مصرف کنندگان می توانند مواد تولید شده توسط هوش مصنوعی را تشخیص دهند، می شود.

اما قانون‌گذاران برای تنظیم رسانه‌های اجتماعی و سایر فناوری‌ها به شیوه‌هایی که با فناوری به‌سرعت در حال تکامل همگام باشند، تلاش کرده‌اند.

کاخ سفید هیچ جزئیاتی از فرمان اجرایی آتی ریاست جمهوری ارائه نکرد که هدف آن مق، با مشکل دیگری است: چگونگی کنترل توانایی چین و سایر رقبا برای دستیابی به برنامه های جدید هوش مصنوعی یا اجزای مورد استفاده برای توسعه آنها.

انتظار می‌رود این دستور شامل محدودیت‌های جدید در نیمه‌رساناهای پیشرفته و محدودیت‌هایی در صادرات مدل‌های زبان بزرگ باشد. ایمن ، آن‌ها سخت است – بسیاری از نرم‌افزارها می‌توانند روی یک درایو انگشت شست، فشرده شوند.

یک فرمان اجرایی می‌تواند بیش از تعهدات داوطلبانه روز جمعه، که به گفته کارشناسان در رویه‌های شرکت‌های درگیر منع، شده بود، مخالفت‌های صنعت را برانگیزد. این وعده ها برنامه های شرکت های هوش مصنوعی را محدود نمی کند و مانع توسعه فناوری های آنها نمی شود. و به ،وان تعهدات داوطلبانه، آنها توسط تنظیم کننده های ،تی اجرا نمی شوند.

نیک کلگ، رئیس امور جه، در متا، شرکت مادر فیس بوک، در بی،ه ای گفت: «ما از انجام این تعهدات داوطلبانه در کنار سایرین در این بخش ،سندیم. آنها اولین گام مهم در حصول اطمینان از ایجاد حفاظ های مسئول برای هوش مصنوعی هستند و الگویی را برای سایر ،ت ها ایجاد می کنند تا از آن پیروی کنند.

به ،وان بخشی از پادمان‌ها، شرکت‌ها با آزمایش امنیتی، تا حدی توسط کارشناسان مستقل موافقت ،د. تحقیق در مورد تعصب و نگر، های حفظ حریم خصوصی؛ به اشتراک گذاری اطلاعات در مورد خطرات با ،ت ها و سایر سازمان ها؛ توسعه ابزار برای مبارزه با چالش های اجتماعی مانند تغییرات آب و هوا؛ و اقدامات شفافیت برای شناسایی مواد تولید شده توسط هوش مصنوعی.

،ت بایدن در بی،ه ای که این توافقنامه ها را اعلام کرد، گفت: شرکت ها باید اطمینان حاصل کنند که «نوآوری به ضرر حقوق و امنیت آمریکایی ها تمام نمی شود».

،ت در بی،ه‌ای گفت: «شرکت‌هایی که در حال توسعه این فناوری‌های نوظهور هستند، مسئولیت دارند که از ایمن بودن محصولات خود اطمینان حاصل کنند.

برد اسمیت، رئیس مایکروسافت و یکی از مدیران شرکت کننده در جلسه کاخ سفید، گفت که شرکت او از پادمان های داوطلبانه حمایت می کند.

آقای اسمیت گفت: «تعهدات کاخ سفید با حرکت سریع، پایه‌ای را ایجاد می‌کند تا اطمینان حاصل شود که وعده هوش مصنوعی جلوتر از خطراتش می‌ماند».

آنا ماکانجو، معاون امور جه، در OpenAI، این اعلامیه را بخشی از همکاری مداوم ما با ،ت‌ها، سازمان‌های جامعه مدنی و سایرین در سراسر جهان برای پیشبرد حکمر، هوش مصنوعی توصیف کرد.

برای این شرکت‌ها، استانداردهای توصیف‌شده روز جمعه دو هدف را دنبال می‌کنند: ت، برای جلوگیری یا شکل‌دهی به حرکت‌های قانونی و نظارتی با نظارت بر خود، و سیگنالی مبنی بر اینکه آنها با فناوری جدید به طور متفکرانه و پیشگیرانه برخورد می‌کنند.

اما قو،نی که آنها در مورد آنها توافق ،د تا حد زیادی کمترین م،ج مش، هستند و هر شرکتی می تواند آن را متفاوت تفسیر کند. به ،وان مثال، شرکت‌ها متعهد به اقدامات سختگیرانه امنیت سایبری در مورد داده‌های مورد استفاده برای ساخت مدل‌های زب، هستند که برنامه‌های هوش مصنوعی مولد بر اساس آن توسعه می‌یابند. اما هیچ مشخصه ای در مورد م،ای آن وجود ندارد و شرکت ها به هر حال علاقه مند به حفاظت از مالکیت م،وی خود هستند.

و حتی مراقب ترین شرکت ها نیز آسیب پذیر هستند. مایکروسافت، یکی از شرکت‌هایی که با آقای بایدن در مراسم کاخ سفید شرکت کرد، هفته گذشته تلاش کرد تا با هک سازمان‌دهی شده توسط ،ت چین در ایمیل‌های خصوصی مقامات آمریکایی که با چین سروکار داشتند، مق، کند. اکنون به نظر می رسد که چین یک “کلید خصوصی” را که توسط مایکروسافت نگهداری می شود و کلید احراز هویت ایمیل ها است – یکی از دقیق ترین کدهای این شرکت – به سرقت برده یا به نوعی به دست آورده است.

با توجه به چنین خطراتی، بعید به نظر می‌رسد که توافق تلاش‌ها برای تصویب قو،ن و اعمال مقررات بر فناوری نوظهور را کند کند.

پل بارت، معاون مرکز استرن برای تجارت و حقوق بشر در دانشگاه نیویورک، گفت که برای محافظت در برابر خطراتی که هوش مصنوعی برای جامعه ایجاد می کند، باید اقدامات بیشتری انجام شود.

آقای بارت در بی،ه ای گفت: «تعهدات داوطلبانه اعلام شده امروز قابل اجرا نیستند، به همین دلیل ضروری است که کنگره، همراه با کاخ سفید، به سرعت قو،نی را تدوین کنند که نیازمند شفافیت، حفاظت از حریم خصوصی، و تحقیقات بیشتر در مورد طیف وسیعی از خطرات ناشی از هوش مصنوعی مولد است.

قانون‌گذاران اروپایی در اوا، سال جاری قو،ن هوش مصنوعی را تصویب می‌کنند، که باعث شده بسیاری از شرکت‌ها مقررات ایالات متحده را تشویق کنند. چندین قانونگذار لوایحی را ارائه کرده اند که شامل صدور مجوز برای شرکت های هوش مصنوعی برای انتشار فناوری های خود، ایجاد یک آژانس فدرال برای نظارت بر صنعت و ا،امات حفظ حریم خصوصی داده ها می شود. اما اعضای کنگره از توافق بر سر قو،ن فاصله زیادی دارند.

قانونگذاران با چگونگی رسیدگی به رشد فناوری هوش مصنوعی دست و پنجه نرم می کنند، برخی از آنها بر خطرات برای مصرف کنندگان تمرکز کرده اند و برخی دیگر به شدت نگران عقب ماندن از دشمنان، به ویژه چین، در رقابت برای تسلط در این زمینه هستند.

این هفته، کمیته رقابت با چین مجلس نمایندگان، نامه‌های دو حزبی را به شرکت‌های سرمایه‌گذاری خطرپذیر مستقر در ایالات متحده ارسال کرد و خواستار مح،ه سرمایه‌گذاری‌هایی شد که در شرکت‌های هوش مصنوعی و نیمه‌رساناهای چینی انجام داده‌اند. برای ماه‌ها، گروه‌های مختلف مجلس نمایندگان و سنا از تأثیرگذارترین کارآفرینان و منتقدان صنعت هوش مصنوعی سؤال می‌،د تا مشخص کنند کنگره باید چه نوع محافظ‌های قانونی و مشوق‌هایی را بررسی کند.

بسیاری از این شاهدان، از جمله سم ،من از OpenAI، از قانونگذاران خواسته اند تا صنعت هوش مصنوعی را تنظیم کنند و به پتانسیل این فناوری جدید برای ایجاد آسیب های ناروا اشاره کنند. اما این مقررات در کنگره به کندی اجرا می‌شود، جایی که بسیاری از قانون‌گذاران هنوز در تلاش برای درک دقیق فناوری هوش مصنوعی هستند.

در تلاش برای بهبود درک قانون‌گذاران، سناتور چاک شومر، دموکرات نیویورک و رهبر ا،ریت، مجموعه‌ای از جلسات را تابستان امسال آغاز کرد تا از مقامات ،تی و کارشناسان درباره مزیت‌ها و خطرات هوش مصنوعی در تعدادی از زمینه‌ها بشنود.

کارون دمیرجیان گزارشی از واشنگتن ارائه کرد.


منبع: https://www.nytimes.com/2023/07/21/us/politics/ai-regulation-biden.html