“من پیشنهاد می کنم این سوال را در نظر بگیریم، “آیا ماشین ها می توانند فکر کنند؟”

– آلن تورینگ، ماشین‌های محاسباتی و هوش، 1950

در بحث‌هایی که در تابستان امسال در مورد مدل زبان LaMDA گوگل مدفون شد، که یک مهندس ادعا می‌کرد که باهوش است، اشاره‌ای به تغییر بزرگی است که از زمانی که آلن تورینگ ایده “آزمون تورینگ” را در مقاله‌ای در سال 1950 تعریف کرد، در هوش مصنوعی رخ داده است.

تورینگ، ریاضیدان بریتانیایی که مقدمات محاسبات را فراهم کرد، چیزی را ارائه کرد که او آن را «بازی تقلید» نامید. از دو نهاد، یکی یک شخص، دیگری یک کامپیوتر دیجیتال، توسط شخص سوم، یک بازجوی انسانی، سؤال می شود. بازجو نمی تواند دو نفر دیگر را ببیند و باید به سادگی از پاسخ های تایپ شده آنها بفهمد که کدام یک از این دو انسان و کدام ماشین است.

تورینگ به او پیشنهاد کرد که چرا نه، اجازه دهید رفتار موضوع را حل کند. اگر مانند یک انسان پاسخ دهد، پس می توان آن را با تفکر نسبت داد.

تورینگ مطمئن بود که ماشین‌ها در آزمون تورینگ آنقدر خوب می‌شوند که تا سال 2000، “کسی می‌تواند از ماشین‌هایی صحبت کند که فکر می‌کنند بدون انتظار مخالفت.”

یک اتفاق خنده دار در راه آینده رخ داد. به نظر می رسد که انسان ها بیشتر و بیشتر وقت خود را در دنیای ماشین ها صرف می کنند تا برعکس.

همچنین: هدف واقعی هوش مصنوعی ممکن است دیگر هوش نباشد

انسان‌ها به طور فزاینده‌ای وقت خود را صرف کارهایی می‌کنند که اگر بهتر نباشد، یک ماشین می‌تواند به همان خوبی انجام دهد. یکی از بسیاری از دستاوردهای نرم افزارهای مدرن این است که وقت افراد را با کارهای آسان، مانند مشغله کاری که در شبکه های اجتماعی انجام می دهید، مواردی مانند پست کردن، نظر دادن، “لایک کردن” و اسنپ را اشغال می کند.

بدیهی است که با نصف فرصت، اکثر ماشین‌ها می‌توانند رفتار رسانه‌های اجتماعی را بدون نقص تکرار کنند. نه به این دلیل که برنامه هایی مانند برنامه زبان OpenAI GPT-3 شبیه انسان هستند، بلکه به این دلیل که نوار پایین تعامل در رسانه های اجتماعی، آنچه را که ممکن است به عنوان رفتار «انسانی» بپذیریم، دوباره تعریف کرده است.

به هر کجا که نگاه کنید، انسان‌ها به طور فزاینده‌ای درگیر رفتارهایی می‌شوند که تا چند دهه پیش شبیه داستان‌های علمی تخیلی به نظر می‌رسید.

انسان ها هزاران ساعت را صرف انجام کارهای تکه ای روی Mechanical Turk آمازون می کنند تا داده های تست هوش مصنوعی را تولید کنند.

انسان‌ها برای تعدیل محتوا در پلت‌فرم‌هایی مانند TikTok و Instagram Reels شبانه‌روز کار می‌کنند، فعالیتی که حجم زیادی از کار آن در یک زمان مانند سوء استفاده در محل کار به نظر می‌رسید، اما اکنون یک ضرورت اساسی برای حفظ امپراتوری‌های رسانه‌های اجتماعی و مقابله با آن محسوب می‌شود. خاموش رگولاتورها

چنین فعالیتی می تواند مجدداً به خوبی یا بهتر توسط الگوریتم های یادگیری ماشین انجام شود. مانند جان هنری و ماشین بخار، انسان ها به طور فزاینده ای در تلاش هستند تا کار ماشین را انجام دهند.

همچنین: حساس؟ Google LaMDA شبیه یک ربات چت معمولی است

دستگاه‌هایی مانند الکسای آمازون افراد را مشروط کرده‌اند تا دستورالعمل‌ها را با دستیار دیجیتالی صحبت کنند. نه تنها فناوری تشخیص گفتار شگفت انگیز است، بلکه استفاده مداوم از آن یک پیشرفت خیره کننده در تاریخ فعالیت های انسانی است. ورنر فوگلز، فن‌شناس ارشد آمازون، خاطرنشان کرده است که برای افراد مسن، تعامل با الکسا از طریق صدا تبدیل به تعامل با یک همکار و همراه شده است.

واضح ترین بیانی که انسان و ماشین اکنون زمان خود را چگونه می گذرانند، مسابقات بین المللی در ورزش های الکترونیکی است. در حالی که ظاهراً رقابتی است که تیم‌های انسانی را در برابر یکدیگر قرار می‌دهد تا ببینند چه کسی در بازی‌های ویدیویی بهترین است، اما به قلمرو دستاوردهای هوش مصنوعی نیز تبدیل شده است. ماشین‌هایی مانند AlphaStar از DeepMind در برخی از این مسابقات به خوبی انسان‌ها شده‌اند.

زمانی، این تصور که انسان‌ها ساعت‌های بی‌پایانی را در بازی‌های روی صفحه‌نمایش غوطه‌ور می‌کنند، و اینکه ماشین‌ها با تلاش برای رقابت با انسان‌ها، برنامه‌ریزی خود را اصلاح می‌کنند، دوباره داستانی عجیب و غریب به نظر می‌رسید.

همه این تغییرات رفتاری به چیزی که می‌توانید آن را تغییر کوپرنیکی هوش مصنوعی بنامید، اضافه می‌شود. دانشمند لهستانی نیکلاوس کوپرنیک در دهه 1500 دیدگاه رایج کهکشان را وارونه کرد و به این نتیجه رسید که خورشید به دور زمین نمی چرخد، بلکه برعکس است.

به همین ترتیب، تا حدود یک دهه گذشته، هر پیش‌فرض هوش ماشینی شامل ماشین‌هایی بود که خودشان را به دنیای ما وارد می‌کردند، انسان‌آمیز می‌شدند و مانند فیلم «A.I» در هدایت احساسات و امیال موفق می‌شدند.

در عوض، اتفاقی که افتاده این است که انسان‌ها بیشتر و بیشتر وقت خود را در فعالیت‌های رایانه‌ای سپری کرده‌اند: کلیک کردن بر روی صفحه‌نمایش، پر کردن فرم‌های وب، پیمایش در گرافیک‌های رندر شده، مونتاژ ویدیوهای تکراری که حرکات رقص کپی را تولید می‌کنند، بازی مجدد سناریوهای مشابه بازی در کشش های چند ساعته

در مورد ربات چت LaMDA گوگل، مهندس سابق گوگل، بلیک لمواین، مأموریت یافت تا این برنامه را آزمایش کند، بازتابی سرگرم کننده از چالش تورینگ. فقط در مورد Lemoine، از قبل به او گفته شد که این یک برنامه است. این مانع از آن نشد که او حتی یک روح را به احساسات LaMDA نسبت دهد.

ما دقیقاً نمی دانیم که لمواین چند ساعت، روز، هفته یا ماه سپری کرده است، اما صرف زمان زیادی برای چت کردن با چیزی که به شما گفته شده یک برنامه است، باز هم یک رویداد بدیع در تاریخ بشر است.

هکتور لوسک، دانشمند کامپیوتر، اشاره کرده است که “آزمون تورینگ یک مشکل جدی دارد: بیش از حد بر فریبکاری متکی است.” (تاکید Levesque.) Levesque می نویسد که ماهیت آزاد آزمون به این معنی است که یک برنامه هوش مصنوعی می تواند صرفاً در مجموعه ای از ترفندها شرکت کند که برای بازجو احساس انسان بودن کند.

Levesque می نویسد، چنین برنامه هایی “به شدت به بازی کلمات، جوک ها، نقل قول ها، کناره گیری ها، طغیان های عاطفی، نکات دستوری و غیره متکی هستند.”

با این حال، شوخی در مورد Levesque و در مورد همه ما است. لموئین اسیر آن کوله باری از حقه ها شد. غوطه ور شدن مداوم در دنیای پرده ها، غوطه وری به درجه ای که تورینگ هرگز تصورش را نمی کرد، باعث شده است که آزمایش تورینگ دیگر آزمایشی برای ماشین ها نباشد، بلکه آزمایشی برای انسان ها باشد، چیزی که انسان ها آن را معتبر می پذیرند.

همچنین: زمان آن فرا رسیده است که ماشین ها کنترل را در دست بگیرند

بسیاری از محققان هوش مصنوعی هوش واقعی LaMDA و دیگر ربات‌های چت را زیر سوال می‌برند، اما نظر آنها ممکن است در اقلیت باشد. اگر فعالیت‌های نه تحقیق، بلکه اوقات فراغت و بهره‌وری به طور فزاینده‌ای حول تعامل رایانه‌ای می‌چرخد، چه کسی می‌تواند بگوید دستگاه آن طرف صفحه با کلیک برای کلیک انسان‌ها مطابقت ندارد؟

از این گذشته، انسان‌هایی که از رسانه‌های اجتماعی استفاده می‌کنند، با چیزی غیر از یک تصویر یا متن ذخیره شده متصل به یک نام در تعامل نیستند، و با این حال انسان‌ها تعاملات خود را با معنا پر می‌کنند، در مورد بحث‌های سیاسی مشغول به کار می‌شوند، یا بر اثر رفتار افراد مشهور ملتهب می‌شوند. توهم پرسونا، احساس اینکه وجود آنلاین شخص واقعی است، آنقدر شدید است که گامی کوتاه برای نسبت دادن احساسات به یک ماشین است.

در وارونگی هوشمندانه تست تورینگ، یک برنامه اخیر هوش مصنوعی گوگل نقش بازجو و سوژه را تغییر می دهد.

برنامه Google که مصاحبه گرماب نامیده می‌شود، نمونه‌ای از ارزیابی زبان طبیعی است، شکلی از درک زبان طبیعی که در آن یک برنامه باید تصمیم بگیرد که آیا پاسخ‌های آزاد به یک سؤال متناسب با متن سؤال است یا خیر.

مصاحبه Warmup از یک انسان دعوت می کند تا به عنوان یک جوینده کار به چندین سؤال پشت سر هم پاسخ دهد. سپس برنامه ارزیابی می کند که چگونه پاسخ های آزمودنی با ماهیت سوال مطابقت دارد. گوگل پیشنهاد می کند Warmup نوعی مربی الکترونیکی است، جایگزینی برای انسانی که به انسان دیگری کمک می کند تا برای مصاحبه شغلی آماده شود.

با در نظر گرفتن سناریوی اصلی تورینگ، این یک معکوس است. انسان ها دیگر دستگاهی را در اتاقی قرار نمی دهند تا آن را آزمایش کنند. درعوض، آنها خود را تابع قوانین بازی یک ماشین می‌کنند و شاید به شکلی مشارکتی کار می‌کنند تا ماشین داده‌هایی را در مورد نحوه صحبت کردن انسان‌ها به دست آورد، و برای انسان برای دریافت راهنمایی در مورد نحوه صحبت کردنشان.

مرز نهایی این است که سؤال را به طور کامل برگردانیم و بپرسیم که آیا انسان ها در یک محیط رایانه واقعاً ویژگی هایی را نشان می دهند که انسان هستند یا خیر. آنها خود را در ویدیوهای اجرایی در TikTok ارائه می دهند و به دستگاهی ارسال می کنند که شاید آنها را ویروسی کند، شاید نه. آیا این یک تعقیب انسانی است؟ آیا این دنباله‌ای است که یک ماشین می‌تواند با استفاده از یک هویت اختراعی بهتر آن را دنبال کند؟

در آن مرز نهایی، شاید همه ما منتظریم تا ماشین شرایط خود را برای آنچه که به اندازه کافی هوشمند می‌داند، اعلام کند.