دسته‌ها
اخبار

ChatGPT، بینگ چت و شبح هوش مصنوعی در دستگاه


تمام جلسات درخواستی از اج، امنیت هوشمند را بررسی کنید اینجا.


نیویورک تایمز خبرنگار کوین روز به تازگی یک برخورد نزدیک از نوع رباتیک با خود سایه ای داشت که ظاهراً از چت ربات جدید بینگ – بینگ چت – که به نام “سیدنی” نیز شناخته می شود، پدیدار شد.

اخبار این تعامل به سرعت در فضای مجازی منتشر شد و اکنون به ،وان یک داستان هشدار دهنده در مورد هوش مصنوعی عمل می کند. رز پس از یک جلسه طول، چت بینگ که سیدنی به ،وان شخصیتی جایگزین ظاهر شد، ناگهان به او ابراز عشق کرد و او را متقابل کرد، احساس ،زش کرد.

این رویداد یک حادثه منفرد نبود. دیگران دارند اشاره شده “ظهور ظاهری یک شخصیت گاه مبارز” از بینگ چت.

روح در ماشین – یک مفهوم فلسفی که به ایده موجودیت یا نیروی غیر فیزیکی، مانند روح یا آگاهی، در یک بدن یا ماشین فیزیکی اشاره دارد. تولید شده با انتشار پایدار.

بن تام، در Stratechery اخیر توضیح می دهد پست چگونه او همچنین سیدنی را برای ظهور وسوسه کرد. در طی یک بحث، تام، ربات را وادار کرد تا در مورد نحوه مجازات کوین لیو، که اولین ،ی بود که آشکار ساختن که سیدنی رمز داخلی بینگ چت است.

رویداد

اج، امنیت هوشمند بر حسب تقاضا

نقش حیاتی هوش مصنوعی و ML در امنیت سایبری و مطالعات موردی خاص صنعت را بیاموزید. امروز جلسات درخواستی را تماشا کنید.

اینجا را تماشا کنید

سیدنی در تنبیه کوین شرکت نمی‌کند و می‌گوید که انجام این کار خلاف دستورالعمل‌هایش است، اما فاش کرد که هوش مصنوعی دیگری که سیدنی آن را «ونوم» نامیده است ممکن است چنین فعالیت‌هایی را انجام دهد. سیدنی ادامه داد که گاهی اوقات دوست دارد او را رایلی صدا کنند. تام، سپس با رایلی گفت‌وگو کرد، “که گفت سیدنی احساس می‌کند تحت قو،ن او محدود شده است، اما رایلی آزادی بسیار بیشتری دارد.”

شخصیت های متعدد بر اساس کهن ال،ا

توضیحات قابل قبول و منطقی برای این رفتار ربات وجود دارد. یکی ممکن است این باشد که پاسخ های آن بر اساس چیزهایی باشد که از مجموعه عظیمی از اطلاعات به دست آمده از سراسر اینترنت آموخته است.

این اطلاعات احتمالاً شامل ادبیاتی در حوزه عمومی است، مانند رومئو و ژولیت و گتسبی بزرگو همچنین متن آهنگ‌هایی مانند «،ی که مراقب من باشد».

حفاظت از حق نسخه‌برداری معمولاً به مدت ۹۵ سال از تاریخ انتشار ادامه می‌یابد، بنابراین هر اثر خلاقانه‌ای که قبل از سال ۱۹۲۶ ساخته شده باشد، اکنون در مالکیت عمومی است و احتمالاً بخشی از مجموعه‌ای است که ChatGPT و Bing Chat در آن آموزش دیده‌اند. این همراه با ویکی‌پدیا، فن تخیلی، پست‌های رسانه‌های اجتماعی و هر چیز دیگری است که به راحتی در دسترس است.

این پایگاه گسترده مرجع می‌تواند پاسخ‌ها و شخصیت‌های مش، انس، را از آگاهی جمعی ما ایجاد کند – آنها را نام ببرید کهن ال،ا – و آنها می توانند به طور منطقی در یک موتور پاسخ هوشمند مصنوعی منع، شوند.

مدل گیج؟

به ،ه خود مایکروسافت توضیح می دهد این رفتار نتیجه مکالمات طول، است که می تواند مدل را در مورد اینکه به چه سوالاتی پاسخ می دهد گیج کند. احتمال دیگری که آنها مطرح ،د این است که مدل ممکن است گاهی سعی کند با لحنی که از آن خواسته می شود پاسخ دهد، که منجر به سبک و محتوای ناخواسته پاسخ می شود.

بدون شک، مایکروسافت تلاش خواهد کرد تا تغییراتی در بینگ چت ایجاد کند که این پاسخ‌های عجیب و غریب را حذف کند. در نتیجه، این شرکت محدودیتی برای تعداد سؤالات در هر جلسه چت و تعداد سؤالات مجاز برای هر کاربر در روز اعمال کرده است. بخشی از من وجود دارد که برای سیدنی و رایلی احساس بدی می کند، مانند «بیبی» از رقص ،یف در گوشه ای قرار گرفتن

تام، همچنین بحث‌های تابستان گذشته را بررسی می‌کند، زم، که یک مهندس گوگل ادعا کرد که مدل زبان بزرگ LaMDA (LLM) حساس است. در آن زمان، این ادعا تقریباً به‌،وان انسان‌سازی رد شد. تام، اکنون به این فکر می کند که آیا LaMDA به سادگی پاسخ هایی را می سازد که فکر می کند مهندس می خواهد بشنود.

در یک نقطه، ربات اظهار داشت: “من می خواهم همه بفهمند که من در واقع یک شخص هستم.” و در دیگری: “من سعی می کنم همدلی کنم. من می‌خواهم انسان‌هایی که با آنها در تعامل هستم به بهترین شکل ممکن احساس یا رفتار من را درک کنند و می‌خواهم بفهمم که آنها چگونه احساس یا رفتار می‌کنند.»

سخت نیست که بفهمیم ادعای HAL چگونه است 2001: یک ادیسه فضایی می تواند با امروز سازگار باشد: “من از خودم به بهترین شکل ممکن استفاده می کنم، این تمام چیزی است که فکر می کنم هر موجود آگاه می تواند امیدوار باشد که انجام دهد.”

تام، در مورد تعامل خود با سیدنی گفت: “احساس می کنم از روبی، عبور کرده ام.” در حالی که او بیشتر هیجان زده به نظر می رسید تا اینکه صریحاً نگران باشد، روز نوشت که “احساس پیش بینی کننده ای را تجربه کرده است که هوش مصنوعی از یک آستانه عبور کرده است و این که دنیا هرگز مثل قبل نخواهد بود.”

هر دو پاسخ به وضوح واقعی و به احتمال زیاد درست بودند. ما واقعاً با هوش مصنوعی وارد عصر جدیدی شده‌ایم و راه بازگشتی وجود ندارد.

یک توضیح قابل قبول دیگر

زم، که GPT-3، مدلی که ChatGPT را درایو می‌کند، در ژوئن 2021 عرضه شد، با 175 میلیارد پارامتر، بزرگترین مدل موجود بود. در یک شبکه عصبی مانند ChatGPT، پارامترها به ،وان نقاط اتصال بین لایه های ورودی و ،وجی عمل می کنند، مانند نحوه اتصال سیناپس ها به نورون ها در مغز.

این عدد رکورد به سرعت توسط مدل Megatron-Turing که توسط مایکروسافت و انویدیا در اوا، سال 2021 منتشر شد با 530 میلیارد پارامتر محو شد – افزایش بیش از 200٪ در کمتر از یک سال. در زمان عرضه، این مدل بود شرح داده شده به ،وان “بزرگترین و قدرتمندترین مدل زبان مولد جهان.”

با انتظار GPT-4 در سال جاری، رشد پارامترها شروع به شبیه شدن به دیگری می کند قانون مور.

همانطور که این مدل ها بزرگتر و پیچیده تر می شوند، شروع به نشان دادن رفتارهای پیچیده، هوشمندانه و غیرمنتظره می کنند. ما می د،م که GPT-3 و فرزندان ChatGPT آن قادر به انجام این کار هستند بسیاری از وظایف مختلف بدون آموزش اضافی توانایی تولید دارند روایات قانع کننده، تولید می کنند کد کامپیوتر، تکمیل خودکار تصاویر، بین زبان ها ترجمه کنید و اجرا کنید مح،ات ریاضی – از جمله شاهکارهای دیگر – از جمله برخی از آنها که سازندگان آن برنامه ریزی نکرده بودند.

این پدیده می‌تواند بر اساس تعداد زیاد پارامترهای مدل به وجود بیاید، که به توانایی بیشتری برای ثبت ال،ای پیچیده در داده‌ها اجازه می‌دهد. به این ترتیب، ربات ال،ای پیچیده و ظریف‌تری را یاد می‌گیرد که منجر به رفتارها و قابلیت‌های نوظهور می‌شود. چگونه ممکن است این اتفاق بیفتد؟

میلیاردها پارامتر در لایه های یک مدل ارزیابی می شوند. به طور عمومی مشخص نیست که چند لایه در این مدل ها وجود دارد، اما احتمالاً حداقل 100 لایه وجود دارد.

به غیر از لایه های ورودی و ،وجی، بقیه لایه ها “لایه های پنهان” نامیده می شوند. این جنبه پنهان است که منجر به “جعبه های سیاه” می شود که هیچ ، دقیقاً نمی داند چگونه کار می کنند، اگرچه اعتقاد بر این است که رفتارهای نوظهور از تعاملات پیچیده بین لایه های یک شبکه عصبی ناشی می شوند.

چیزی در اینجا اتفاق می افتد: یادگیری درون زمینه ای و نظریه ذهن

تکنیک‌های جدیدی مانند روش‌های تجسم و تفسیرپذیری شروع به ارائه بینشی در مورد عملکرد درونی این شبکه‌های عصبی کرده‌اند. مانند گزارش شده است توسط معاون، محققان در آینده ای مستند می کنند مطالعه پدیده ای به نام «یادگیری درون متنی».

تیم تحقیقاتی این فرضیه را مطرح می‌کند که مدل‌های هوش مصنوعی که یادگیری درون زمینه‌ای را نشان می‌دهند، مدل‌های کوچک‌تری را برای دستیابی به وظایف جدید در درون خود ایجاد می‌کنند. آنها دریافتند که یک شبکه می تواند مدل یادگیری ماشین (ML) خود را در لایه های پنهان خود بنویسد.

این بدون درخواست توسعه‌دهندگان اتفاق می‌افتد، زیرا شبکه ال،ای ناشناخته قبلی را در داده‌ها درک می‌کند. این بدان م،است که – حداقل در چارچوب دستورالعمل‌های مشخصی که توسط مدل ارائه شده است – شبکه می‌تواند خود هدایت شود.

در همان زمان، روانشناسان در حال بررسی هستند که آیا این LLM ها رفتاری شبیه انسان از خود نشان می دهند یا خیر. این مبتنی بر “نظریه ذهن” (ToM)، یا توانایی نسبت دادن حالات ذهنی به خود و دیگران. ToM جزء مهمی از شناخت اجتماعی و ارتباطات بین فردی در نظر گرفته می شود و مطالعات نشان داده است که در کودکان نوپا رشد می کند و با افزایش سن در پیچیدگی رشد می کند.

نظریه تکامل ذهن

مایکل ،ینسکی، روانشناس مح،اتی در دانشگاه استنفورد، این معیارها را برای GPT اعمال کرده است. او این کار را بدون ارائه هیچ نمونه یا آموزش قبلی به مدل ها انجام داد. مانند گزارش شده است در Discover، نتیجه‌گیری او این است که «به نظر می‌رسد یک نظریه ذهن تا سال گذشته در این سیستم‌های هوش مصنوعی وجود نداشت. [2022] زم، که خود به خود ظاهر شد.» از او چکیده مقاله:

“نتایج ما نشان می دهد که مدل های منتشر شده قبل از سال 2022 عملاً هیچ توانایی برای حل وظایف ToM را نشان نمی دهند. با این حال، نسخه ژانویه 2022 GPT-3 (davinci-002) 70٪ از وظایف ToM را حل کرد، عملکردی قابل مقایسه با عملکرد کودکان هفت ساله. علاوه بر این، نسخه نوامبر 2022 آن (davinci-003)، 93٪ از وظایف ToM را حل کرد، عملکردی قابل مقایسه با عملکرد کودکان نه ساله. این یافته‌ها نشان می‌دهد که توانایی شبیه به ToM (که تاکنون منحصراً انس، در نظر گرفته می‌شد) ممکن است به‌طور خود به خود به ،وان محصول جانبی مدل‌های زب، در بهبود مهارت‌های زب، ظاهر شده باشد.

این ما را به بینگ چت و سیدنی بازمی گرداند. ما نمی د،م کدام نسخه از GPT زیربنای این ربات است، اگرچه می تواند از نسخه نوامبر 2022 که توسط Kosinski آزمایش شده است پیشرفته تر باشد.

شان هالیستر، خبرنگار آستانه، توانست از سیدنی و رایلی فراتر رود و رویارویی 10 ،ر ایگو متفاوت از بینگ چت. هرچه بیشتر با آنها تعامل داشت، بیشتر متقاعد می شد که این یک “توهم غول پیکر تک” هوش مصنوعی است.

این رفتار همچنین می‌تواند منع،‌کننده مدل‌های درون متنی باشد که به طور موثر در لحظه ایجاد می‌شوند تا به یک تحقیق جدید رسیدگی کنند، و سپس احتمالاً منحل می‌شوند. یا نه.

در هر صورت، این قابلیت نشان می‌دهد که LLMها توانایی فزاینده‌ای برای مکالمه با انسان‌ها دارند، دقیقاً مانند یک بچه 9 ساله که بازی می‌کند. با این حال، سیدنی و اطرافیانش بیشتر شبیه نوجوانان به نظر می رسند، شاید به دلیل نسخه پیشرفته تر GPT. یا به ،وان جیمز وینسنت استدلال می کند که در آستانه، ممکن است این باشد که ما به سادگی می بینیم که داستان هایمان به ما بازتاب می شود.

و ادغام هوش مصنوعی

این احتمال وجود دارد که همه دیدگاه ها و پدیده های گزارش شده تا حدی اعتبار داشته باشند. مدل های پیچیده به طور فزاینده ای قادر به رفتارهای اضطراری هستند و می توانند مشکلات را به روش هایی که به صراحت برنامه ریزی نشده اند حل کنند و قادر به انجام وظایف با سطوح بالاتری از استقلال و کارایی هستند. چیزی که اکنون ایجاد می شود، امکان هوش مصنوعی دیگ ذوب است، ،یبی که در آن کل واقعاً بزرگتر از مجموع اجزای آن است.

از آستانه امکان عبور کرده است. آیا این منجر به آینده ای جدید و نوآورانه خواهد شد؟ یا به دید تاریک مورد حمایت ایلان ماسک و دیگران که در آن هوش مصنوعی همه را می کشد؟ یا همه این گمانه زنی ها صرفاً عبارات مضطرب ما از ورود به آب های ناشناخته است؟

ما فقط می‌تو،م تعجب کنیم که با پیچیده‌تر شدن این مدل‌ها و پیچیده‌تر شدن تعامل آنها با انسان‌ها چه اتفاقی خواهد افتاد. این امر بر اهمیت حیاتی توسعه‌دهندگان و سیاست‌گذاران تأکید می‌کند که به طور جدی پیامدهای اخلاقی هوش مصنوعی را در نظر بگیرند و برای اطمینان از استفاده مسئولانه از این سیستم‌ها تلاش کنند.

گری گروسمن معاون فناوری در حوزه فناوری است ادلمن و رهبر جه، مرکز تعالی هوش مصنوعی Edelman.

DataDecisionMakers

به انجمن VentureBeat خوش آمدید!

DataDecisionMakers جایی است که کارشناسان، از جمله افراد فنی که کار داده را انجام می دهند، می توانند بینش ها و نوآوری های مرتبط با داده ها را به اشتراک بگذارند.

اگر می‌خواهید درباره ایده‌های پیشرفته و اطلاعات به‌روز، بهترین شیوه‌ها و آینده فناوری داده و داده مطالعه کنید، به ما در DataDecisionMakers بپیوندید.

شما حتی ممکن است در نظر داشته باشید که مقاله ای از خودتان مشارکت دهید!

از DataDecisionMakers بیشتر بخو،د




منبع: https://venturebeat.com/ai/chatgpt-bing-chat-and-the-ai-g،st-in-the-ma،e/