“من پیشنهاد می کنم این سوال را در نظر بگیریم، “آیا ماشین ها می توانند فکر کنند؟”
– آلن تورینگ، ماشینهای محاسباتی و هوش، 1950
در بحثهایی که در تابستان امسال در مورد مدل زبان LaMDA گوگل مدفون شد، که یک مهندس ادعا میکرد که باهوش است، اشارهای به تغییر بزرگی است که از زمانی که آلن تورینگ ایده “آزمون تورینگ” را در مقالهای در سال 1950 تعریف کرد، در هوش مصنوعی رخ داده است.
تورینگ، ریاضیدان بریتانیایی که مقدمات محاسبات را فراهم کرد، چیزی را ارائه کرد که او آن را «بازی تقلید» نامید. از دو نهاد، یکی یک شخص، دیگری یک کامپیوتر دیجیتال، توسط شخص سوم، یک بازجوی انسانی، سؤال می شود. بازجو نمی تواند دو نفر دیگر را ببیند و باید به سادگی از پاسخ های تایپ شده آنها بفهمد که کدام یک از این دو انسان و کدام ماشین است.
تورینگ به او پیشنهاد کرد که چرا نه، اجازه دهید رفتار موضوع را حل کند. اگر مانند یک انسان پاسخ دهد، پس می توان آن را با تفکر نسبت داد.
تورینگ مطمئن بود که ماشینها در آزمون تورینگ آنقدر خوب میشوند که تا سال 2000، “کسی میتواند از ماشینهایی صحبت کند که فکر میکنند بدون انتظار مخالفت.”
یک اتفاق خنده دار در راه آینده رخ داد. به نظر می رسد که انسان ها بیشتر و بیشتر وقت خود را در دنیای ماشین ها صرف می کنند تا برعکس.
همچنین: هدف واقعی هوش مصنوعی ممکن است دیگر هوش نباشد
انسانها به طور فزایندهای وقت خود را صرف کارهایی میکنند که اگر بهتر نباشد، یک ماشین میتواند به همان خوبی انجام دهد. یکی از بسیاری از دستاوردهای نرم افزارهای مدرن این است که وقت افراد را با کارهای آسان، مانند مشغله کاری که در شبکه های اجتماعی انجام می دهید، مواردی مانند پست کردن، نظر دادن، “لایک کردن” و اسنپ را اشغال می کند.
بدیهی است که با نصف فرصت، اکثر ماشینها میتوانند رفتار رسانههای اجتماعی را بدون نقص تکرار کنند. نه به این دلیل که برنامه هایی مانند برنامه زبان OpenAI GPT-3 شبیه انسان هستند، بلکه به این دلیل که نوار پایین تعامل در رسانه های اجتماعی، آنچه را که ممکن است به عنوان رفتار «انسانی» بپذیریم، دوباره تعریف کرده است.
به هر کجا که نگاه کنید، انسانها به طور فزایندهای درگیر رفتارهایی میشوند که تا چند دهه پیش شبیه داستانهای علمی تخیلی به نظر میرسید.
انسان ها هزاران ساعت را صرف انجام کارهای تکه ای روی Mechanical Turk آمازون می کنند تا داده های تست هوش مصنوعی را تولید کنند.
انسانها برای تعدیل محتوا در پلتفرمهایی مانند TikTok و Instagram Reels شبانهروز کار میکنند، فعالیتی که حجم زیادی از کار آن در یک زمان مانند سوء استفاده در محل کار به نظر میرسید، اما اکنون یک ضرورت اساسی برای حفظ امپراتوریهای رسانههای اجتماعی و مقابله با آن محسوب میشود. خاموش رگولاتورها
چنین فعالیتی می تواند مجدداً به خوبی یا بهتر توسط الگوریتم های یادگیری ماشین انجام شود. مانند جان هنری و ماشین بخار، انسان ها به طور فزاینده ای در تلاش هستند تا کار ماشین را انجام دهند.
همچنین: حساس؟ Google LaMDA شبیه یک ربات چت معمولی است
دستگاههایی مانند الکسای آمازون افراد را مشروط کردهاند تا دستورالعملها را با دستیار دیجیتالی صحبت کنند. نه تنها فناوری تشخیص گفتار شگفت انگیز است، بلکه استفاده مداوم از آن یک پیشرفت خیره کننده در تاریخ فعالیت های انسانی است. ورنر فوگلز، فنشناس ارشد آمازون، خاطرنشان کرده است که برای افراد مسن، تعامل با الکسا از طریق صدا تبدیل به تعامل با یک همکار و همراه شده است.
واضح ترین بیانی که انسان و ماشین اکنون زمان خود را چگونه می گذرانند، مسابقات بین المللی در ورزش های الکترونیکی است. در حالی که ظاهراً رقابتی است که تیمهای انسانی را در برابر یکدیگر قرار میدهد تا ببینند چه کسی در بازیهای ویدیویی بهترین است، اما به قلمرو دستاوردهای هوش مصنوعی نیز تبدیل شده است. ماشینهایی مانند AlphaStar از DeepMind در برخی از این مسابقات به خوبی انسانها شدهاند.
زمانی، این تصور که انسانها ساعتهای بیپایانی را در بازیهای روی صفحهنمایش غوطهور میکنند، و اینکه ماشینها با تلاش برای رقابت با انسانها، برنامهریزی خود را اصلاح میکنند، دوباره داستانی عجیب و غریب به نظر میرسید.
همه این تغییرات رفتاری به چیزی که میتوانید آن را تغییر کوپرنیکی هوش مصنوعی بنامید، اضافه میشود. دانشمند لهستانی نیکلاوس کوپرنیک در دهه 1500 دیدگاه رایج کهکشان را وارونه کرد و به این نتیجه رسید که خورشید به دور زمین نمی چرخد، بلکه برعکس است.
به همین ترتیب، تا حدود یک دهه گذشته، هر پیشفرض هوش ماشینی شامل ماشینهایی بود که خودشان را به دنیای ما وارد میکردند، انسانآمیز میشدند و مانند فیلم «A.I» در هدایت احساسات و امیال موفق میشدند.
در عوض، اتفاقی که افتاده این است که انسانها بیشتر و بیشتر وقت خود را در فعالیتهای رایانهای سپری کردهاند: کلیک کردن بر روی صفحهنمایش، پر کردن فرمهای وب، پیمایش در گرافیکهای رندر شده، مونتاژ ویدیوهای تکراری که حرکات رقص کپی را تولید میکنند، بازی مجدد سناریوهای مشابه بازی در کشش های چند ساعته
در مورد ربات چت LaMDA گوگل، مهندس سابق گوگل، بلیک لمواین، مأموریت یافت تا این برنامه را آزمایش کند، بازتابی سرگرم کننده از چالش تورینگ. فقط در مورد Lemoine، از قبل به او گفته شد که این یک برنامه است. این مانع از آن نشد که او حتی یک روح را به احساسات LaMDA نسبت دهد.
ما دقیقاً نمی دانیم که لمواین چند ساعت، روز، هفته یا ماه سپری کرده است، اما صرف زمان زیادی برای چت کردن با چیزی که به شما گفته شده یک برنامه است، باز هم یک رویداد بدیع در تاریخ بشر است.
هکتور لوسک، دانشمند کامپیوتر، اشاره کرده است که “آزمون تورینگ یک مشکل جدی دارد: بیش از حد بر فریبکاری متکی است.” (تاکید Levesque.) Levesque می نویسد که ماهیت آزاد آزمون به این معنی است که یک برنامه هوش مصنوعی می تواند صرفاً در مجموعه ای از ترفندها شرکت کند که برای بازجو احساس انسان بودن کند.
Levesque می نویسد، چنین برنامه هایی “به شدت به بازی کلمات، جوک ها، نقل قول ها، کناره گیری ها، طغیان های عاطفی، نکات دستوری و غیره متکی هستند.”
با این حال، شوخی در مورد Levesque و در مورد همه ما است. لموئین اسیر آن کوله باری از حقه ها شد. غوطه ور شدن مداوم در دنیای پرده ها، غوطه وری به درجه ای که تورینگ هرگز تصورش را نمی کرد، باعث شده است که آزمایش تورینگ دیگر آزمایشی برای ماشین ها نباشد، بلکه آزمایشی برای انسان ها باشد، چیزی که انسان ها آن را معتبر می پذیرند.
همچنین: زمان آن فرا رسیده است که ماشین ها کنترل را در دست بگیرند
بسیاری از محققان هوش مصنوعی هوش واقعی LaMDA و دیگر رباتهای چت را زیر سوال میبرند، اما نظر آنها ممکن است در اقلیت باشد. اگر فعالیتهای نه تحقیق، بلکه اوقات فراغت و بهرهوری به طور فزایندهای حول تعامل رایانهای میچرخد، چه کسی میتواند بگوید دستگاه آن طرف صفحه با کلیک برای کلیک انسانها مطابقت ندارد؟
از این گذشته، انسانهایی که از رسانههای اجتماعی استفاده میکنند، با چیزی غیر از یک تصویر یا متن ذخیره شده متصل به یک نام در تعامل نیستند، و با این حال انسانها تعاملات خود را با معنا پر میکنند، در مورد بحثهای سیاسی مشغول به کار میشوند، یا بر اثر رفتار افراد مشهور ملتهب میشوند. توهم پرسونا، احساس اینکه وجود آنلاین شخص واقعی است، آنقدر شدید است که گامی کوتاه برای نسبت دادن احساسات به یک ماشین است.
در وارونگی هوشمندانه تست تورینگ، یک برنامه اخیر هوش مصنوعی گوگل نقش بازجو و سوژه را تغییر می دهد.
برنامه Google که مصاحبه گرماب نامیده میشود، نمونهای از ارزیابی زبان طبیعی است، شکلی از درک زبان طبیعی که در آن یک برنامه باید تصمیم بگیرد که آیا پاسخهای آزاد به یک سؤال متناسب با متن سؤال است یا خیر.
مصاحبه Warmup از یک انسان دعوت می کند تا به عنوان یک جوینده کار به چندین سؤال پشت سر هم پاسخ دهد. سپس برنامه ارزیابی می کند که چگونه پاسخ های آزمودنی با ماهیت سوال مطابقت دارد. گوگل پیشنهاد می کند Warmup نوعی مربی الکترونیکی است، جایگزینی برای انسانی که به انسان دیگری کمک می کند تا برای مصاحبه شغلی آماده شود.
با در نظر گرفتن سناریوی اصلی تورینگ، این یک معکوس است. انسان ها دیگر دستگاهی را در اتاقی قرار نمی دهند تا آن را آزمایش کنند. درعوض، آنها خود را تابع قوانین بازی یک ماشین میکنند و شاید به شکلی مشارکتی کار میکنند تا ماشین دادههایی را در مورد نحوه صحبت کردن انسانها به دست آورد، و برای انسان برای دریافت راهنمایی در مورد نحوه صحبت کردنشان.
مرز نهایی این است که سؤال را به طور کامل برگردانیم و بپرسیم که آیا انسان ها در یک محیط رایانه واقعاً ویژگی هایی را نشان می دهند که انسان هستند یا خیر. آنها خود را در ویدیوهای اجرایی در TikTok ارائه می دهند و به دستگاهی ارسال می کنند که شاید آنها را ویروسی کند، شاید نه. آیا این یک تعقیب انسانی است؟ آیا این دنبالهای است که یک ماشین میتواند با استفاده از یک هویت اختراعی بهتر آن را دنبال کند؟
در آن مرز نهایی، شاید همه ما منتظریم تا ماشین شرایط خود را برای آنچه که به اندازه کافی هوشمند میداند، اعلام کند.
[…] کسب اطلاعات بیشتر: تست تورینگ چیست؟ […]