OpenAI یک هوش مصنوعی پاسخگوی سوال طولانی به نام ChatGPT معرفی کرد که به سوالات پیچیده به صورت مکالمه پاسخ می دهد.

این یک فناوری انقلابی است، زیرا آموزش داده شده است تا بفهمد انسان هنگام پرسیدن چه چیزی، چه معنایی می‌دهد.

بسیاری از کاربران از توانایی آن در ارائه پاسخ های با کیفیت انسانی شگفت زده شده اند و این احساس را القا می کند که ممکن است در نهایت قدرت ایجاد اختلال در نحوه تعامل انسان ها با رایانه ها و تغییر نحوه بازیابی اطلاعات را داشته باشد.

ChatGPT چیست؟

ChatGPT یک چت بات مدل زبان بزرگ است که توسط OpenAI بر اساس GPT-3.5 توسعه یافته است. توانایی قابل توجهی در تعامل در قالب گفتگوی محاوره ای و ارائه پاسخ هایی دارد که می تواند به طرز شگفت آوری انسانی به نظر برسد.

مدل های زبان بزرگ وظیفه پیش بینی کلمه بعدی را در یک سری کلمات انجام می دهند.

یادگیری تقویتی با بازخورد انسانی (RLHF) یک لایه آموزشی اضافی است که از بازخورد انسانی برای کمک به ChatGPT برای یادگیری توانایی پیروی از دستورالعمل‌ها و ایجاد پاسخ‌های رضایت‌بخش برای انسان استفاده می‌کند.

چه کسی ChatGPT را ساخت؟

ChatGPT توسط شرکت هوش مصنوعی OpenAI مستقر در سانفرانسیسکو ایجاد شده است. OpenAI Inc. شرکت مادر غیر انتفاعی OpenAI LP انتفاعی است.

OpenAI به دلیل معروف DALL·E خود، یک مدل یادگیری عمیق که تصاویر را از دستورالعمل های متنی به نام prompt تولید می کند، مشهور است.

مدیرعامل شرکت سام آلتمن است که قبلاً رئیس Y Combinator بود.

مایکروسافت شریک و سرمایه گذار به مبلغ 1 میلیارد دلار است. آنها به طور مشترک پلتفرم هوش مصنوعی Azure را توسعه دادند.

مدل های زبان بزرگ

ChatGPT یک مدل زبان بزرگ (LLM) است. مدل‌های زبان بزرگ (LLM) با مقادیر انبوهی از داده‌ها آموزش داده می‌شوند تا دقیقاً پیش‌بینی کنند چه کلمه‌ای در یک جمله قرار می‌گیرد.

مشخص شد که افزایش مقدار داده، توانایی مدل های زبان را برای انجام کارهای بیشتر افزایش می دهد.

به گفته دانشگاه استنفورد:

GPT-3 دارای 175 میلیارد پارامتر است و بر روی 570 گیگابایت متن آموزش داده شده است. برای مقایسه، سلف آن، GPT-2، بیش از 100 برابر کوچکتر با 1.5 میلیارد پارامتر بود.

این افزایش مقیاس رفتار مدل را به شدت تغییر می‌دهد – GPT-3 قادر است کارهایی را انجام دهد که به صراحت روی آن‌ها آموزش داده نشده است، مانند ترجمه جملات از انگلیسی به فرانسوی، بدون مثال آموزشی.

این رفتار بیشتر در GPT-2 وجود نداشت. علاوه بر این، برای برخی از کارها، GPT-3 از مدل هایی که به صراحت برای حل آن وظایف آموزش داده شده بودند، بهتر عمل می کند، اگرچه در کارهای دیگر کوتاهی می کند.

LLM ها کلمه بعدی را در یک سری از کلمات در یک جمله و جملات بعدی را پیش بینی می کنند – به نوعی مانند تکمیل خودکار، اما در مقیاسی که ذهن را خم می کند.

این توانایی به آنها اجازه می دهد پاراگراف ها و کل صفحات محتوا را بنویسند.

اما LLM ها از این جهت محدود هستند که همیشه نمی دانند یک انسان دقیقا چه می خواهد.

و اینجاست که ChatGPT با آموزش تقویت‌کننده با بازخورد انسانی (RLHF) پیشرفت می‌کند.

ChatGPT چگونه آموزش داده شد؟

GPT-3.5 بر روی حجم عظیمی از داده‌ها در مورد کد و اطلاعات از اینترنت، از جمله منابعی مانند بحث‌های Reddit، آموزش داده شد تا به ChatGPT در یادگیری گفتگو و دستیابی به سبک پاسخگویی انسانی کمک کند.

ChatGPT همچنین با استفاده از بازخورد انسانی (تکنیکی به نام یادگیری تقویتی با بازخورد انسانی) آموزش داده شد تا هوش مصنوعی بفهمد که انسان ها هنگام پرسیدن سوال چه انتظاراتی دارند. آموزش LLM به این روش انقلابی است زیرا فراتر از آموزش ساده LLM برای پیش بینی کلمه بعدی است.

یک مقاله تحقیقاتی در مارس 2022 با عنوان مدل‌های زبان آموزشی برای پیروی از دستورالعمل‌ها با بازخورد انسانی توضیح می‌دهد که چرا این یک رویکرد پیشرفت است:

انگیزه این کار با هدف ما افزایش تأثیر مثبت مدل‌های زبانی بزرگ با آموزش آن‌ها برای انجام کاری است که مجموعه‌ای از انسان‌ها می‌خواهند انجام دهند.

به‌طور پیش‌فرض، مدل‌های زبان هدف پیش‌بینی کلمه بعدی را بهینه می‌کنند، که تنها یک پروکسی برای کاری است که ما می‌خواهیم این مدل‌ها انجام دهند.

نتایج ما نشان می‌دهد که تکنیک‌های ما برای مفیدتر، صادق‌تر و بی‌ضررتر کردن مدل‌های زبانی نویدبخش است.

بزرگ‌تر کردن مدل‌های زبان ذاتاً آن‌ها را در پیروی از هدف کاربر بهتر نمی‌کند.

برای مثال، مدل‌های زبان بزرگ می‌توانند خروجی‌هایی تولید کنند که غیرواقعی، سمی یا به سادگی برای کاربر مفید نیستند.

به عبارت دیگر، این مدل ها با کاربران خود هماهنگ نیستند.»

مهندسانی که ChatGPT را ساختند، پیمانکارانی (به نام labelers) استخدام کردند تا خروجی های دو سیستم GPT-3 و InstructGPT جدید (یک «مدل خواهر و برادر» ChatGPT) را رتبه بندی کنند.

بر اساس رتبه بندی، محققان به نتایج زیر رسیدند:

برچسب‌ها به طور قابل توجهی خروجی‌های InstructGPT را بر خروجی‌های GPT-3 ترجیح می‌دهند.

مدل‌های InstructGPT نسبت به GPT-3 پیشرفت‌هایی در صداقت نشان می‌دهند.

InstructGPT بهبودهای کوچکی را در سمیت نسبت به GPT-3 نشان می دهد، اما سوگیری ندارد.

مقاله تحقیقاتی نتیجه می گیرد که نتایج برای InstructGPT مثبت بوده است. با این حال، همچنین اشاره کرد که جا برای بهبود وجود دارد.

به طور کلی، نتایج ما نشان می‌دهد که تنظیم دقیق مدل‌های زبان بزرگ با استفاده از ترجیحات انسانی به طور قابل توجهی رفتار آن‌ها را در طیف گسترده‌ای از وظایف بهبود می‌بخشد، اگرچه کار زیادی برای بهبود ایمنی و قابلیت اطمینان آنها باقی مانده است.

چیزی که ChatGPT را از یک چت بات ساده متمایز می کند این است که به طور خاص برای درک هدف انسان در یک سوال و ارائه پاسخ های مفید، واقعی و بی ضرر آموزش داده شده است.

به دلیل آن آموزش، ChatGPT ممکن است سؤالات خاصی را به چالش بکشد و بخش‌هایی از سؤال را که منطقی نیستند کنار بگذارد.

مقاله تحقیقاتی دیگری مربوط به ChatGPT نشان می دهد که چگونه آنها هوش مصنوعی را برای پیش بینی آنچه که انسان ترجیح می دهند آموزش دادند.

محققان متوجه شدند که معیارهای مورد استفاده برای رتبه‌بندی خروجی‌های پردازش زبان طبیعی هوش مصنوعی به ماشین‌هایی منجر می‌شود که امتیاز خوبی در این معیارها کسب می‌کنند، اما با آنچه انسان‌ها انتظار داشتند همسو نمی‌شوند.

روشی که محققان این مشکل را توضیح داده اند به شرح زیر است:

بسیاری از برنامه های کاربردی یادگیری ماشین معیارهای ساده ای را بهینه می کنند که تنها پروکسی های تقریبی برای آنچه طراح در نظر دارد است. این می‌تواند منجر به مشکلاتی شود، مانند توصیه‌های YouTube برای ترویج کلیک طعمه.»

بنابراین راه حلی که آنها طراحی کردند، ایجاد یک هوش مصنوعی بود که بتواند پاسخ هایی بهینه سازی شده برای آنچه که انسان ها ترجیح می دهند، ارائه دهد.

برای انجام این کار، آنها هوش مصنوعی را با استفاده از مجموعه داده‌های مقایسه‌های انسانی بین پاسخ‌های مختلف آموزش دادند تا دستگاه در پیش‌بینی پاسخ‌های رضایت‌بخش از نظر انسان‌ها بهتر عمل کند.

این مقاله به اشتراک می‌گذارد که آموزش با خلاصه کردن پست‌های Reddit و همچنین آزمایش بر روی خلاصه‌سازی اخبار انجام شده است.

مقاله پژوهشی فوریه 2022 یادگیری خلاصه کردن از بازخورد انسانی نام دارد.

محققان می نویسند:

در این کار، ما نشان می‌دهیم که می‌توان با آموزش مدلی برای بهینه‌سازی برای ترجیحات انسانی، کیفیت خلاصه را به طور قابل توجهی بهبود بخشید.

ما یک مجموعه داده بزرگ و با کیفیت از مقایسه‌های انسانی بین خلاصه‌ها جمع‌آوری می‌کنیم، مدلی را برای پیش‌بینی خلاصه ترجیحی انسان آموزش می‌دهیم و از آن مدل به عنوان تابع پاداش برای تنظیم دقیق خط مشی خلاصه‌سازی با استفاده از یادگیری تقویتی استفاده می‌کنیم.

محدودیت های ChatGPT چیست؟

محدودیت در واکنش مضر

ChatGPT به طور خاص برنامه ریزی شده است تا پاسخ های سمی یا مضر ارائه نکند. بنابراین از پاسخ دادن به این نوع سوالات اجتناب خواهد کرد.

کیفیت پاسخ ها به کیفیت دستورالعمل ها بستگی دارد

یک محدودیت مهم ChatGPT این است که کیفیت خروجی به کیفیت ورودی بستگی دارد. به عبارت دیگر، دستورالعمل های متخصص (اعلانات) پاسخ های بهتری را ایجاد می کنند.

پاسخ ها همیشه درست نیستند

محدودیت دیگر این است که از آنجایی که آموزش داده شده است تا پاسخ هایی را ارائه دهد که برای انسان ها درست باشد، پاسخ ها می توانند انسان ها را فریب دهند که خروجی درست است.

بسیاری از کاربران دریافتند که ChatGPT می تواند پاسخ های نادرستی ارائه دهد، از جمله برخی از آنها که به شدت نادرست هستند.

ناظران در وب‌سایت پرسش و پاسخ برنامه‌نویسی Stack Overflow ممکن است پیامدهای ناخواسته‌ای از پاسخ‌هایی که برای انسان‌ها مناسب است، کشف کرده باشند.

Stack Overflow مملو از پاسخ‌های کاربران ایجاد شده از ChatGPT بود که به نظر درست می‌رسیدند، اما تعداد زیادی پاسخ اشتباه بودند.

هزاران پاسخ تیم ناظم داوطلب را تحت تأثیر قرار داد و مدیران را بر آن داشت تا برای هر کاربری که پاسخ‌های ایجاد شده از ChatGPT را ارسال می‌کنند، ممنوعیتی وضع کنند.

سیل پاسخ های ChatGPT منجر به پستی شد با عنوان: خط مشی موقت: ChatGPT ممنوع است:

«این یک خط‌مشی موقت است که هدف آن کاهش هجوم پاسخ‌ها و سایر محتوای ایجاد شده با ChatGPT است.

…مشکل اصلی این است که در حالی که پاسخ هایی که ChatGPT تولید می کند دارای درصد بالایی از نادرست بودن هستند، معمولاً «به نظر می رسند» که «ممکن است» خوب باشند…»

تجربه گردانندگان Stack Overflow با پاسخ‌های اشتباه ChatGPT که درست به نظر می‌رسند، چیزی است که OpenAI، سازندگان ChatGPT، از آن آگاه هستند و در اعلامیه فناوری جدید به آن هشدار داده‌اند.

OpenAI محدودیت های ChatGPT را توضیح می دهد

اعلامیه OpenAI این هشدار را ارائه کرد:

«ChatGPT گاهی اوقات پاسخ هایی با صدای معقول اما نادرست یا بی معنی می نویسد.

رفع این مشکل چالش برانگیز است، زیرا:

(1) در طول آموزش RL، در حال حاضر هیچ منبعی از حقیقت وجود ندارد.

(2) آموزش محتاط تر بودن مدل باعث می شود تا سوالاتی را که می تواند به درستی پاسخ دهد رد کند. و

(3) آموزش تحت نظارت مدل را گمراه می کند، زیرا پاسخ ایده آل به آنچه مدل می داند بستگی دارد تا آنچه نشان دهنده انسانی می داند.

آیا استفاده از ChatGPT رایگان است؟

استفاده از ChatGPT در حال حاضر در زمان “پیش نمایش تحقیق” رایگان است.

ربات چت در حال حاضر برای کاربران باز است تا بتوانند پاسخ ها را امتحان کنند و بازخورد ارائه کنند تا هوش مصنوعی بتواند در پاسخ به سؤالات بهتر شود و از اشتباهات خود درس بگیرد.

در اطلاعیه رسمی آمده است که OpenAI مشتاق دریافت بازخورد در مورد اشتباهات است:

“در حالی که ما تلاش کرده ایم مدل درخواست های نامناسب را رد کند، گاهی اوقات به دستورالعمل های مضر پاسخ می دهد یا رفتار مغرضانه ای از خود نشان می دهد.

ما از Moderation API برای هشدار یا مسدود کردن انواع خاصی از محتوای ناامن استفاده می‌کنیم، اما انتظار داریم فعلاً دارای نکات منفی و مثبت کاذب باشد.

ما مشتاق جمع آوری بازخورد کاربران برای کمک به کار مداوم خود برای بهبود این سیستم هستیم.”

در حال حاضر مسابقه ای با جایزه 500 دلاری در اعتبار ChatGPT وجود دارد تا مردم را تشویق کند که به پاسخ ها امتیاز دهند.

«کاربران تشویق می‌شوند تا درباره خروجی‌های مدل مشکل‌ساز از طریق UI، و همچنین در مورد موارد مثبت/منفی نادرست از فیلتر محتوای خارجی که بخشی از رابط است، بازخورد ارائه کنند.

ما به ویژه به بازخورد مربوط به خروجی‌های مضری که ممکن است در دنیای واقعی و شرایط غیر خصمانه رخ دهد، و همچنین بازخوردهایی که به ما کمک می‌کند خطرات جدید و کاهش‌های احتمالی را کشف و درک کنیم، علاقه‌مندیم.

می‌توانید انتخاب کنید که در ChatGPT Feedback Contest3 شانس برنده شدن تا 500 دلار اعتبار API را انتخاب کنید.

ورودی‌ها را می‌توان از طریق فرم بازخوردی که در رابط ChatGPT پیوند داده شده است، ارسال کرد.»

مسابقه جاری در ساعت 23:59 پایان می یابد. PST در 31 دسامبر 2022.

آیا مدل های زبان جایگزین جستجوی گوگل می شوند؟

خود گوگل قبلاً یک ربات چت هوش مصنوعی به نام LaMDA ایجاد کرده است. عملکرد چت بات گوگل آنقدر به مکالمه انسانی نزدیک بود که یک مهندس گوگل ادعا کرد که LaMDA حساس است.

با توجه به اینکه چگونه این مدل‌های زبان بزرگ می‌توانند به این همه سؤال پاسخ دهند، آیا دور از ذهن است که شرکتی مانند OpenAI، گوگل یا مایکروسافت روزی جستجوی سنتی را با یک ربات چت هوش مصنوعی جایگزین کند؟

برخی در توییتر قبلاً اعلام کرده اند که ChatGPT گوگل بعدی خواهد بود.

این سناریو که یک ربات چت پرسش و پاسخ ممکن است روزی جایگزین گوگل شود، برای کسانی که به عنوان متخصصان بازاریابی جستجو امرار معاش می کنند، ترسناک است.

این موضوع باعث ایجاد بحث‌هایی در جوامع بازاریابی جستجوی آنلاین شده است، مانند آزمایشگاه محبوب Facebook SEOSignals که در آن شخصی می‌پرسد که آیا جستجوها ممکن است از موتورهای جستجو دور شوند و به سمت ربات‌های چت بروند.

پس از آزمایش ChatGPT، باید قبول کنم که ترس از جایگزینی جستجو با ربات چت بی اساس نیست.

این فناوری هنوز راه درازی در پیش دارد، اما می توان یک جستجوی ترکیبی و آینده ربات چت را برای جستجو متصور شد.

اما به نظر می‌رسد اجرای کنونی ChatGPT ابزاری است که در برخی مواقع برای استفاده از آن نیاز به خرید اعتبار دارد.

چگونه می توان از ChatGPT استفاده کرد؟

ChatGPT می تواند کد، شعر، آهنگ و حتی داستان کوتاه را به سبک یک نویسنده خاص بنویسد.

تخصص در دستورالعمل‌های زیر، ChatGPT را از یک منبع اطلاعاتی به ابزاری ارتقا می‌دهد که می‌توان از آن برای انجام یک کار درخواست کرد.

این باعث می شود که برای نوشتن یک مقاله تقریباً در مورد هر موضوعی مفید باشد.

ChatGPT می تواند به عنوان ابزاری برای ایجاد طرح کلی برای مقالات یا حتی کل رمان ها عمل کند.

تقریباً برای هر کاری که می توان با متن نوشتاری پاسخ داد، پاسخی ارائه می دهد.

نتیجه

همانطور که قبلا ذکر شد، ChatGPT به عنوان ابزاری در نظر گرفته شده است که در نهایت عموم باید برای استفاده از آن هزینه بپردازند.

بیش از یک میلیون کاربر برای استفاده از ChatGPT در پنج روز اول از زمان باز شدن آن برای عموم ثبت نام کرده اند.