کمیسیون تجارت فدرال تحقیقاتی را درباره OpenAI، استارتآپ هوش مصنوعی که ChatGPT را میسازد، درباره اینکه آیا چت بات از طریق جمعآوری دادهها و انتشار اطلاعات نادرست در مورد افراد به مشتریان آسیب رسانده است، آغاز کرده است.
در نامه ای 20 صفحه ای که این هفته به شرکت سانفرانسیسکو ارسال شد، آژانس گفت که در حال بررسی اقدامات امنیتی OpenAI نیز هست. FTC در نامه خود ده ها سوال از OpenAI پرسیده است، از جمله اینکه چگونه این استارت آپ مدل های هوش مصنوعی خود را آموزش می دهد و با داده های شخصی رفتار می کند و گفت که این شرکت باید اسناد و جزئیات را در اختیار آژانس قرار دهد.
در این نامه آمده است که FTC در حال بررسی است که آیا OpenAI “درگیر اقدامات غیرمنصفانه یا فریبنده حریم خصوصی یا امنیت داده ها بوده یا درگیر اقدامات ناعادلانه یا فریبنده مربوط به خطرات آسیب به مصرف کنندگان است.”
تحقیق بود قبلا گزارش شده است توسط واشنگتن پست و توسط یک فرد آشنا با تحقیقات تایید شده است. OpenAI از اظهار نظر خودداری کرد.
تحقیقات FTC اولین تهدید بزرگ نظارتی ایالات متحده را برای OpenAI، یکی از شرکت های هوش مصنوعی مطرح می کند، و نشان می دهد که این فناوری ممکن است به طور فزاینده ای مورد بررسی قرار گیرد زیرا مردم، مشاغل و ،ت ها از محصولات بیشتری با هوش مصنوعی استفاده می کنند. این فناوری که به سرعت در حال تکامل است، هشدارهایی را به،وان رباتهای گفتگو ایجاد کرده است که میتوانند پاسخهایی را در پاسخ به درخواستها ایجاد کنند، این پتانسیل را دارند که جایگزین افراد در مشاغلشان شوند و اطلاعات نادرست را منتشر کنند.
سام ،من، که رهبری OpenAI را بر عهده دارد، گفته است که صنعت در حال رشد هوش مصنوعی باید تنظیم شود. در ماه مه، او در کنگره شهادت داد تا قانون هوش مصنوعی را دعوت کند و صدها قانونگذار را با هدف تعیین یک برنامه سیاست برای این فناوری ملاقات کرده است.
او در جلسه استماع ماه می گفت: «فکر میکنم اگر این فناوری اشتباه پیش برود، ممکن است کاملاً اشتباه شود. ما می خواهیم با ،ت برای جلوگیری از این اتفاق کار کنیم.»
OpenAI در حال حاضر تحت فشار مقررات بین المللی قرار گرفته است. در ماه مارس، مقام حفاظت از دادههای ایتالیا ChatGPT را ممنوع کرد و گفت که OpenAI به طور غیرقانونی دادههای شخصی کاربران را جمعآوری میکند و یک سیستم تأیید سن برای جلوگیری از قرار گرفتن ،دسالان در معرض مواد غیرقانونی وجود ندارد. OpenAI دسترسی به سیستم را در ماه بعد بازیابی کرد و گفت که تغییراتی را که مقامات ایتالیایی درخواست کرده بودند ایجاد کرده است.
FTC با سرعت قابل توجهی روی هوش مصنوعی عمل می کند و کمتر از یک سال پس از معرفی OpenAI ChatGPT، تحقیقاتی را آغاز کرد. لینا خان، رئیس FTC، گفته است که شرکتهای فناوری باید در زم، که فناوریها در حال ظهور هستند، تنظیم شوند، نه تنها زم، که بالغ شوند.
در گذشته، این آژانس معمولاً پس از یک اشتباه عمومی بزرگ توسط یک شرکت، مانند باز ، یک تحقیق در مورد شیوه های حریم خصوصی متا پس از گزارش هایی مبنی بر به اشتراک گذاشتن داده های کاربران با یک شرکت مشاوره سیاسی، کمبریج آنالیتیکا، در سال 2018، تحقیقات را آغاز کرد.
خانم خان که در جلسه استماع کمیته مجلس نمایندگان در روز پنجشنبه در مورد اقدامات آژانس شهادت داد، قبلا گفته بود صنعت هوش مصنوعی نیاز به بررسی دقیق دارد.
او در مقالهای در نیویورک تایمز در ماه می نوشت: «اگرچه این ابزارها جدید هستند، اما از قو،ن موجود مستثنی نیستند، و FTC قو،نی را که ما مسئول اجرای آن هستیم، حتی در این بازار جدید به شدت اجرا خواهد کرد. “در حالی که فناوری به سرعت در حال حرکت است، ما می تو،م چندین خطر را ببینیم.”
این تحقیقات می تواند OpenAI را مجبور کند تا روش های خود را در مورد ساخت ChatGPT و اینکه از چه منابع داده ای برای ساخت سیستم های AI خود استفاده می کند، آشکار کند. در حالی که OpenAI مدتها در مورد چنین اطلاعاتی کاملاً باز بود، اخیراً در مورد اینکه دادههای سیستمهای هوش مصنوعی خود از کجا میآیند و چقدر برای ساخت ChatGPT استفاده میشود، کم گفته است، احتمالاً به این دلیل که نسبت به کپیبرداری رقبا از آن محتاط است و نگر،هایی در مورد دعاوی دارد. بیش از استفاده از مجموعه داده های خاص
رباتهای چت، که توسط شرکتهایی مانند گوگل و مایکروسافت نیز به کار گرفته میشوند، نشاندهنده تغییر بزرگی در نحوه ساخت و استفاده از نرمافزارهای رایانهای هستند. آنها در حال اختراع مجدد موتورهای جستجوی اینترنتی مانند جستجوی گوگل و بینگ، دستیارهای دیجیتال سخنگو مانند ال،ا و سیری و سرویس های ایمیل مانند Gmail و Outlook هستند.
هنگامی که OpenAI در ماه نوامبر ChatGPT را منتشر کرد، فوراً تخیل عمومی را با توانایی پاسخ دادن به سؤالات، نوشتن شعر و ریف تقریباً در مورد هر موضوعی جذب کرد. اما این فناوری همچنین میتواند واقعیت را با داستان ،یب کند و حتی اطلاعات را بسازد، پدیدهای که دانشمندان آن را «توهم» مینامند.
ChatGPT توسط چیزی که محققان هوش مصنوعی آن را شبکه عصبی می نامند هدایت می شود. این همان فناوری است که در سرویسهایی مانند Google Translate بین فرانسوی و ،یسی ترجمه میشود و عابران پیاده را به ،وان خودروهای خودران در خیابانهای شهر شناسایی میکند. یک شبکه عصبی با تجزیه و تحلیل داده ها مهارت ها را می آموزد. برای مثال، با مشخص ، ال،ا در هزاران ع، گربه، میتواند تشخیص یک گربه را بیاموزد.
محققان در آزمایشگاههایی مانند OpenAI شبکههای عصبی را طراحی کردهاند که مقادیر وسیعی از متن دیجیتال، از جمله مقالات ویکیپدیا، کتابها، داستانهای خبری و گزارشهای چت آنلاین را تحلیل میکنند. این سیستمها، که به ،وان مدلهای زبان بزرگ شناخته میشوند، یاد گرفتهاند که متن خود را تولید کنند، اما ممکن است اطلاعات ناقص را تکرار کنند یا واقعیتها را به روشهایی ،یب کنند که اطلاعات نادرست تولید کنند.
در ماه مارس، مرکز هوش مصنوعی و سیاست دیجیتال، یک گروه م،ع برای استفاده اخلاقی از فناوری، از FTC درخواست کرد که OpenAI را از انتشار نسخههای تجاری جدید ChatGPT با اشاره به نگر،های مربوط به سوگیری، اطلاعات نادرست و امنیت مسدود کند.
این سازمان شکایت را کمتر از یک هفته پیش بهروزرس، کرد و راههای دیگری را که ربات چت میتواند به آن آسیب برساند، توصیف کرد که گفت OpenAI نیز به آن اشاره کرده است.
مارک روتنبرگ، رئیس و موسس مرکز هوش مصنوعی و سیاست دیجیتال گفت: «خود شرکت به خطرات مرتبط با عرضه محصول اذعان کرده است و خود را مقررات تنظیم کرده است. کمیسیون تجارت فدرال باید اقدام کند.
OpenAI برای اصلاح ChatGPT و کاهش فراو، مطالب مغرضانه، نادرست یا مضر کار کرده است. همانطور که کارمندان و سایر آزمایشکنندگان از سیستم استفاده میکنند، شرکت از آنها میخواهد سودمندی و درستی پاسخهایش را ارزیابی کنند. سپس از طریق تکنیکی به نام یادگیری تقویتی، از این رتبهبندیها استفاده میکند تا با دقت بیشتری مشخص کند که چتبات چه کاری انجام میدهد و چه نخواهد کرد.
این یک داستان در حال توسعه است. برای به روز رس، دوباره بررسی کنید.
منبع: https://www.nytimes.com/2023/07/13/technology/chatgpt-investigation-ftc-openai.html