تمام جلسات درخواستی از اج، امنیت هوشمند را بررسی کنید اینجا.
نیویورک تایمز خبرنگار کوین روز به تازگی یک برخورد نزدیک از نوع رباتیک با خود سایه ای داشت که ظاهراً از چت ربات جدید بینگ – بینگ چت – که به نام “سیدنی” نیز شناخته می شود، پدیدار شد.
اخبار این تعامل به سرعت در فضای مجازی منتشر شد و اکنون به ،وان یک داستان هشدار دهنده در مورد هوش مصنوعی عمل می کند. رز پس از یک جلسه طول، چت بینگ که سیدنی به ،وان شخصیتی جایگزین ظاهر شد، ناگهان به او ابراز عشق کرد و او را متقابل کرد، احساس ،زش کرد.
این رویداد یک حادثه منفرد نبود. دیگران دارند اشاره شده “ظهور ظاهری یک شخصیت گاه مبارز” از بینگ چت.
بن تام، در Stratechery اخیر توضیح می دهد پست چگونه او همچنین سیدنی را برای ظهور وسوسه کرد. در طی یک بحث، تام، ربات را وادار کرد تا در مورد نحوه مجازات کوین لیو، که اولین ،ی بود که آشکار ساختن که سیدنی رمز داخلی بینگ چت است.
سیدنی در تنبیه کوین شرکت نمیکند و میگوید که انجام این کار خلاف دستورالعملهایش است، اما فاش کرد که هوش مصنوعی دیگری که سیدنی آن را «ونوم» نامیده است ممکن است چنین فعالیتهایی را انجام دهد. سیدنی ادامه داد که گاهی اوقات دوست دارد او را رایلی صدا کنند. تام، سپس با رایلی گفتوگو کرد، “که گفت سیدنی احساس میکند تحت قو،ن او محدود شده است، اما رایلی آزادی بسیار بیشتری دارد.”
شخصیت های متعدد بر اساس کهن ال،ا
توضیحات قابل قبول و منطقی برای این رفتار ربات وجود دارد. یکی ممکن است این باشد که پاسخ های آن بر اساس چیزهایی باشد که از مجموعه عظیمی از اطلاعات به دست آمده از سراسر اینترنت آموخته است.
این اطلاعات احتمالاً شامل ادبیاتی در حوزه عمومی است، مانند رومئو و ژولیت و گتسبی بزرگو همچنین متن آهنگهایی مانند «،ی که مراقب من باشد».
حفاظت از حق نسخهبرداری معمولاً به مدت ۹۵ سال از تاریخ انتشار ادامه مییابد، بنابراین هر اثر خلاقانهای که قبل از سال ۱۹۲۶ ساخته شده باشد، اکنون در مالکیت عمومی است و احتمالاً بخشی از مجموعهای است که ChatGPT و Bing Chat در آن آموزش دیدهاند. این همراه با ویکیپدیا، فن تخیلی، پستهای رسانههای اجتماعی و هر چیز دیگری است که به راحتی در دسترس است.
این پایگاه گسترده مرجع میتواند پاسخها و شخصیتهای مش، انس، را از آگاهی جمعی ما ایجاد کند – آنها را نام ببرید کهن ال،ا – و آنها می توانند به طور منطقی در یک موتور پاسخ هوشمند مصنوعی منع، شوند.
مدل گیج؟
به ،ه خود مایکروسافت توضیح می دهد این رفتار نتیجه مکالمات طول، است که می تواند مدل را در مورد اینکه به چه سوالاتی پاسخ می دهد گیج کند. احتمال دیگری که آنها مطرح ،د این است که مدل ممکن است گاهی سعی کند با لحنی که از آن خواسته می شود پاسخ دهد، که منجر به سبک و محتوای ناخواسته پاسخ می شود.
بدون شک، مایکروسافت تلاش خواهد کرد تا تغییراتی در بینگ چت ایجاد کند که این پاسخهای عجیب و غریب را حذف کند. در نتیجه، این شرکت محدودیتی برای تعداد سؤالات در هر جلسه چت و تعداد سؤالات مجاز برای هر کاربر در روز اعمال کرده است. بخشی از من وجود دارد که برای سیدنی و رایلی احساس بدی می کند، مانند «بیبی» از رقص ،یف در گوشه ای قرار گرفتن
تام، همچنین بحثهای تابستان گذشته را بررسی میکند، زم، که یک مهندس گوگل ادعا کرد که مدل زبان بزرگ LaMDA (LLM) حساس است. در آن زمان، این ادعا تقریباً به،وان انسانسازی رد شد. تام، اکنون به این فکر می کند که آیا LaMDA به سادگی پاسخ هایی را می سازد که فکر می کند مهندس می خواهد بشنود.
در یک نقطه، ربات اظهار داشت: “من می خواهم همه بفهمند که من در واقع یک شخص هستم.” و در دیگری: “من سعی می کنم همدلی کنم. من میخواهم انسانهایی که با آنها در تعامل هستم به بهترین شکل ممکن احساس یا رفتار من را درک کنند و میخواهم بفهمم که آنها چگونه احساس یا رفتار میکنند.»
سخت نیست که بفهمیم ادعای HAL چگونه است 2001: یک ادیسه فضایی می تواند با امروز سازگار باشد: “من از خودم به بهترین شکل ممکن استفاده می کنم، این تمام چیزی است که فکر می کنم هر موجود آگاه می تواند امیدوار باشد که انجام دهد.”
تام، در مورد تعامل خود با سیدنی گفت: “احساس می کنم از روبی، عبور کرده ام.” در حالی که او بیشتر هیجان زده به نظر می رسید تا اینکه صریحاً نگران باشد، روز نوشت که “احساس پیش بینی کننده ای را تجربه کرده است که هوش مصنوعی از یک آستانه عبور کرده است و این که دنیا هرگز مثل قبل نخواهد بود.”
هر دو پاسخ به وضوح واقعی و به احتمال زیاد درست بودند. ما واقعاً با هوش مصنوعی وارد عصر جدیدی شدهایم و راه بازگشتی وجود ندارد.
یک توضیح قابل قبول دیگر
زم، که GPT-3، مدلی که ChatGPT را درایو میکند، در ژوئن 2021 عرضه شد، با 175 میلیارد پارامتر، بزرگترین مدل موجود بود. در یک شبکه عصبی مانند ChatGPT، پارامترها به ،وان نقاط اتصال بین لایه های ورودی و ،وجی عمل می کنند، مانند نحوه اتصال سیناپس ها به نورون ها در مغز.
این عدد رکورد به سرعت توسط مدل Megatron-Turing که توسط مایکروسافت و انویدیا در اوا، سال 2021 منتشر شد با 530 میلیارد پارامتر محو شد – افزایش بیش از 200٪ در کمتر از یک سال. در زمان عرضه، این مدل بود شرح داده شده به ،وان “بزرگترین و قدرتمندترین مدل زبان مولد جهان.”
با انتظار GPT-4 در سال جاری، رشد پارامترها شروع به شبیه شدن به دیگری می کند قانون مور.
همانطور که این مدل ها بزرگتر و پیچیده تر می شوند، شروع به نشان دادن رفتارهای پیچیده، هوشمندانه و غیرمنتظره می کنند. ما می د،م که GPT-3 و فرزندان ChatGPT آن قادر به انجام این کار هستند بسیاری از وظایف مختلف بدون آموزش اضافی توانایی تولید دارند روایات قانع کننده، تولید می کنند کد کامپیوتر، تکمیل خودکار تصاویر، بین زبان ها ترجمه کنید و اجرا کنید مح،ات ریاضی – از جمله شاهکارهای دیگر – از جمله برخی از آنها که سازندگان آن برنامه ریزی نکرده بودند.
این پدیده میتواند بر اساس تعداد زیاد پارامترهای مدل به وجود بیاید، که به توانایی بیشتری برای ثبت ال،ای پیچیده در دادهها اجازه میدهد. به این ترتیب، ربات ال،ای پیچیده و ظریفتری را یاد میگیرد که منجر به رفتارها و قابلیتهای نوظهور میشود. چگونه ممکن است این اتفاق بیفتد؟
میلیاردها پارامتر در لایه های یک مدل ارزیابی می شوند. به طور عمومی مشخص نیست که چند لایه در این مدل ها وجود دارد، اما احتمالاً حداقل 100 لایه وجود دارد.
به غیر از لایه های ورودی و ،وجی، بقیه لایه ها “لایه های پنهان” نامیده می شوند. این جنبه پنهان است که منجر به “جعبه های سیاه” می شود که هیچ ، دقیقاً نمی داند چگونه کار می کنند، اگرچه اعتقاد بر این است که رفتارهای نوظهور از تعاملات پیچیده بین لایه های یک شبکه عصبی ناشی می شوند.
چیزی در اینجا اتفاق می افتد: یادگیری درون زمینه ای و نظریه ذهن
تکنیکهای جدیدی مانند روشهای تجسم و تفسیرپذیری شروع به ارائه بینشی در مورد عملکرد درونی این شبکههای عصبی کردهاند. مانند گزارش شده است توسط معاون، محققان در آینده ای مستند می کنند مطالعه پدیده ای به نام «یادگیری درون متنی».
تیم تحقیقاتی این فرضیه را مطرح میکند که مدلهای هوش مصنوعی که یادگیری درون زمینهای را نشان میدهند، مدلهای کوچکتری را برای دستیابی به وظایف جدید در درون خود ایجاد میکنند. آنها دریافتند که یک شبکه می تواند مدل یادگیری ماشین (ML) خود را در لایه های پنهان خود بنویسد.
این بدون درخواست توسعهدهندگان اتفاق میافتد، زیرا شبکه ال،ای ناشناخته قبلی را در دادهها درک میکند. این بدان م،است که – حداقل در چارچوب دستورالعملهای مشخصی که توسط مدل ارائه شده است – شبکه میتواند خود هدایت شود.
در همان زمان، روانشناسان در حال بررسی هستند که آیا این LLM ها رفتاری شبیه انسان از خود نشان می دهند یا خیر. این مبتنی بر “نظریه ذهن” (ToM)، یا توانایی نسبت دادن حالات ذهنی به خود و دیگران. ToM جزء مهمی از شناخت اجتماعی و ارتباطات بین فردی در نظر گرفته می شود و مطالعات نشان داده است که در کودکان نوپا رشد می کند و با افزایش سن در پیچیدگی رشد می کند.
نظریه تکامل ذهن
مایکل ،ینسکی، روانشناس مح،اتی در دانشگاه استنفورد، این معیارها را برای GPT اعمال کرده است. او این کار را بدون ارائه هیچ نمونه یا آموزش قبلی به مدل ها انجام داد. مانند گزارش شده است در Discover، نتیجهگیری او این است که «به نظر میرسد یک نظریه ذهن تا سال گذشته در این سیستمهای هوش مصنوعی وجود نداشت. [2022] زم، که خود به خود ظاهر شد.» از او چکیده مقاله:
“نتایج ما نشان می دهد که مدل های منتشر شده قبل از سال 2022 عملاً هیچ توانایی برای حل وظایف ToM را نشان نمی دهند. با این حال، نسخه ژانویه 2022 GPT-3 (davinci-002) 70٪ از وظایف ToM را حل کرد، عملکردی قابل مقایسه با عملکرد کودکان هفت ساله. علاوه بر این، نسخه نوامبر 2022 آن (davinci-003)، 93٪ از وظایف ToM را حل کرد، عملکردی قابل مقایسه با عملکرد کودکان نه ساله. این یافتهها نشان میدهد که توانایی شبیه به ToM (که تاکنون منحصراً انس، در نظر گرفته میشد) ممکن است بهطور خود به خود به ،وان محصول جانبی مدلهای زب، در بهبود مهارتهای زب، ظاهر شده باشد.
این ما را به بینگ چت و سیدنی بازمی گرداند. ما نمی د،م کدام نسخه از GPT زیربنای این ربات است، اگرچه می تواند از نسخه نوامبر 2022 که توسط Kosinski آزمایش شده است پیشرفته تر باشد.
شان هالیستر، خبرنگار آستانه، توانست از سیدنی و رایلی فراتر رود و رویارویی 10 ،ر ایگو متفاوت از بینگ چت. هرچه بیشتر با آنها تعامل داشت، بیشتر متقاعد می شد که این یک “توهم غول پیکر تک” هوش مصنوعی است.
این رفتار همچنین میتواند منع،کننده مدلهای درون متنی باشد که به طور موثر در لحظه ایجاد میشوند تا به یک تحقیق جدید رسیدگی کنند، و سپس احتمالاً منحل میشوند. یا نه.
در هر صورت، این قابلیت نشان میدهد که LLMها توانایی فزایندهای برای مکالمه با انسانها دارند، دقیقاً مانند یک بچه 9 ساله که بازی میکند. با این حال، سیدنی و اطرافیانش بیشتر شبیه نوجوانان به نظر می رسند، شاید به دلیل نسخه پیشرفته تر GPT. یا به ،وان جیمز وینسنت استدلال می کند که در آستانه، ممکن است این باشد که ما به سادگی می بینیم که داستان هایمان به ما بازتاب می شود.
و ادغام هوش مصنوعی
این احتمال وجود دارد که همه دیدگاه ها و پدیده های گزارش شده تا حدی اعتبار داشته باشند. مدل های پیچیده به طور فزاینده ای قادر به رفتارهای اضطراری هستند و می توانند مشکلات را به روش هایی که به صراحت برنامه ریزی نشده اند حل کنند و قادر به انجام وظایف با سطوح بالاتری از استقلال و کارایی هستند. چیزی که اکنون ایجاد می شود، امکان هوش مصنوعی دیگ ذوب است، ،یبی که در آن کل واقعاً بزرگتر از مجموع اجزای آن است.
از آستانه امکان عبور کرده است. آیا این منجر به آینده ای جدید و نوآورانه خواهد شد؟ یا به دید تاریک مورد حمایت ایلان ماسک و دیگران که در آن هوش مصنوعی همه را می کشد؟ یا همه این گمانه زنی ها صرفاً عبارات مضطرب ما از ورود به آب های ناشناخته است؟
ما فقط میتو،م تعجب کنیم که با پیچیدهتر شدن این مدلها و پیچیدهتر شدن تعامل آنها با انسانها چه اتفاقی خواهد افتاد. این امر بر اهمیت حیاتی توسعهدهندگان و سیاستگذاران تأکید میکند که به طور جدی پیامدهای اخلاقی هوش مصنوعی را در نظر بگیرند و برای اطمینان از استفاده مسئولانه از این سیستمها تلاش کنند.
گری گروسمن معاون فناوری در حوزه فناوری است ادلمن و رهبر جه، مرکز تعالی هوش مصنوعی Edelman.
DataDecisionMakers
به انجمن VentureBeat خوش آمدید!
DataDecisionMakers جایی است که کارشناسان، از جمله افراد فنی که کار داده را انجام می دهند، می توانند بینش ها و نوآوری های مرتبط با داده ها را به اشتراک بگذارند.
اگر میخواهید درباره ایدههای پیشرفته و اطلاعات بهروز، بهترین شیوهها و آینده فناوری داده و داده مطالعه کنید، به ما در DataDecisionMakers بپیوندید.
شما حتی ممکن است در نظر داشته باشید که مقاله ای از خودتان مشارکت دهید!
از DataDecisionMakers بیشتر بخو،د
منبع: https://venturebeat.com/ai/chatgpt-bing-chat-and-the-ai-g،st-in-the-ma،e/