دسته‌ها
اخبار

گزارش شده است که سه کارمند سامسونگ اطلاعات حساسی را به ChatGPT افشا کردند


در ظاهر، ممکن است ابزاری به نظر برسد که می تواند برای مجموعه ای از وظایف کاری مفید باشد. اما قبل از اینکه از ربات چت بخواهید یادداشت های مهم را خلاصه کند یا کار شما را از نظر خطا بررسی کند، بهتر است به خاطر داشته باشید که هر چیزی که با ChatGPT به اشتراک می گذارید می تواند برای آموزش سیستم استفاده شود و شاید حتی در پاسخ های آن به سایر کاربران ظاهر شود. این چیزی است که احتمالاً چندین کارمند باید قبل از به اشتراک گذاشتن اطلاعات محرمانه با ربات چت از آن آگاه می‌بودند.

بر اساس گزارشات، بلافاصله پس از اینکه بخش نیمه هادی سامسونگ به مهندسان اجازه استفاده از ChatGPT را داد، کارگران حداقل سه بار اطلاعات محرمانه را در اختیار آن قرار دادند. (همانطور که توسط ). گزارش شده است که یکی از کارمندان از چت ربات خواسته است تا کد منبع پایگاه داده حساس را از نظر خطا بررسی کند، دیگری بهینه سازی کد را درخواست کرد و سومی یک جلسه ضبط شده را به ChatGPT ارسال کرد و از آن خواست تا دقیقه ایجاد کند.

پیشنهاد می‌شود که سامسونگ پس از اطلاع از لغزش‌های امنیتی، با محدود ، طول اعلان‌های ChatGPT کارمندان به یک کیلوبایت یا 1024 کاراکتر متن، وسعت گذرهای تقلبی را در آینده محدود کند. همچنین گفته می شود که این شرکت در حال بررسی سه کارمند مورد بحث و ساخت ربات چت خود برای جلوگیری از حوادث مشابه است. Engadget برای نظر دادن با سامسونگ تماس گرفته است.

ChatGPT بیان می کند که، مگر اینکه کاربران به طور صریح انصراف دهند، از دستورات آنها برای آموزش مدل های خود استفاده می کند. OpenAI مالک چت بات اطلاعات محرمانه را در مکالمات با ChatGPT به اشتراک نگذارید، زیرا “نمی تواند درخواست های خاصی را از سابقه شما حذف کند.” تنها راه خلاص شدن از شر اطلاعات شناسایی شخصی در ChatGPT این است که حساب خود را حذف کنید – فرآیندی که .

حماسه سامسونگ نمونه دیگری از این است که چرا در تمام فعالیت های آنلاین شما آنطور که شاید باید باشد. شما هرگز نمی د،د که اطلاعات شما به کجا ختم می شود.


منبع: https://www.engadget.com/three-samsung-employees-reportedly-leaked-sensitive-data-to-chatgpt-190221114.html?src=rss