دانشمندان می خواهند کارهایی مانند مهار قدرت مولکول ها در طول فتوسنتز انجام دهند، آنها قادر به انجام این کار با استفاده از رایانه های قدیمی معمولی نخواهند بود. آنها نیاز به استفاده از رایانه های کوانتومی دارند که قادر به اندازه گیری و مشاهده سیستم های کوانتومی در سطح مولکولی و همچنین حل احتمال شرطی رویدادها هستند. اساساً، رایانههای کوانتومی میتوانند میلیاردها سال محاسبات را در طول یک آخر هفته انجام دهند – و برخی از پیچیدهترین مشکلات جهان را در این فرآیند حل کنند.
کسب اطلاعات بیشتر: 8 راه برای کاهش فرسودگی هوش مصنوعی
محاسبات کوانتومی چیست؟
محاسبات کوانتومی فرآیندی است که از قوانین مکانیک کوانتومی برای حل مسائل بسیار بزرگ یا پیچیده برای رایانههای سنتی استفاده میکند. کامپیوترهای کوانتومی برای اجرا و حل الگوریتم های کوانتومی چند بعدی به کیوبیت ها متکی هستند.
در واقع، محاسبات کوانتومی بسیار متفاوت از محاسبات کلاسیک است. شوهینی گوس، فیزیکدان کوانتومی، از دانشگاه ویلفرد لوریه، تفاوت بین محاسبات کوانتومی و کلاسیک را به لامپ ها و شمع ها تشبیه کرده است: «لامپ فقط شمع بهتری نیست. این چیزی کاملا متفاوت است.»
محاسبات کوانتومی مسائل ریاضی را حل می کند و مدل های کوانتومی را با استفاده از اصول نظریه کوانتومی اجرا می کند. برخی از سیستم های کوانتومی که برای مدل سازی استفاده می شود شامل فتوسنتز، ابررسانایی و تشکیلات مولکولی پیچیده است.
برای درک محاسبات کوانتومی و نحوه عملکرد آن، ابتدا باید کیوبیت ها، برهم نهی، درهم تنیدگی و تداخل کوانتومی را بدانید.
کیوبیت چیست؟
بیت های کوانتومی یا کیوبیت ها واحد اصلی اطلاعات در محاسبات کوانتومی هستند. شبیه یک بیت باینری سنتی در محاسبات سنتی.
کیوبیت ها از برهم نهی برای قرار گرفتن در چندین حالت در یک زمان استفاده می کنند. بیتهای باینری فقط میتوانند 0 یا 1 را نشان دهند. کیوبیتها میتوانند 0 یا 1 باشند، و همچنین هر بخشی از 0 و 1 در برهمنهی هر دو حالت.
کیوبیت ها از چه چیزی ساخته شده اند؟ پاسخ به معماری سیستم های کوانتومی بستگی دارد، زیرا برخی از آنها برای عملکرد صحیح به دمای بسیار سرد نیاز دارند. کیوبیت ها می توانند از یون ها، فوتون ها، اتم های مصنوعی یا واقعی یا شبه ذرات به دام افتاده ساخته شوند، در حالی که بیت های دوتایی اغلب تراشه های مبتنی بر سیلیکون هستند.
SUPERPOSITION چیست؟
برای توضیح برهم نهی، برخی افراد گربه شرودینگر را تداعی می کنند، در حالی که برخی دیگر به لحظاتی اشاره می کنند که یک سکه در هنگام پرتاب سکه در هوا است.
به زبان ساده، برهم نهی کوانتومی حالتی است که در آن ذرات کوانتومی ترکیبی از تمام حالات ممکن هستند. در حالی که کامپیوتر کوانتومی هر ذره را اندازه گیری و مشاهده می کند، ذرات به نوسان و حرکت خود ادامه می دهند.
جان دونوهو، مدیر توسعه علمی در دانشگاه، گفت: واقعیت جالبتر در مورد برهم نهی – به جای نقطه تمرکز دو چیز همزمان – توانایی نگاه کردن به حالتهای کوانتومی به طرق مختلف و پرسیدن سؤالات مختلف از آن است. موسسه واترلو برای محاسبات کوانتومی. به این معنی که کامپیوترهای کوانتومی به جای اینکه مجبور باشند وظایف را به صورت متوالی انجام دهند، مانند یک کامپیوتر سنتی، می توانند تعداد زیادی محاسبات موازی را اجرا کنند.
این تقریباً به همان اندازه ساده است که میتوانیم قبل از شروع معادلات به دست آوریم. اما نکته اصلی این است که این برهم نهی چیزی است که به یک کامپیوتر کوانتومی اجازه می دهد «همه مسیرها را یکجا امتحان کند».
درهم تنیدگی چیست؟
ذرات کوانتومی می توانند اندازه گیری ها را با یکدیگر مطابقت دهند و زمانی که در این حالت قرار می گیرند، درهم تنیدگی نامیده می شود. در طول درهم تنیدگی، از اندازه گیری های یک کیوبیت می توان برای رسیدن به نتیجه گیری در مورد واحدهای دیگر استفاده کرد. درهم تنیدگی به رایانههای کوانتومی کمک میکند تا مسائل بزرگتر را حل کنند و ذخیرههای بزرگتری از دادهها و اطلاعات را محاسبه کنند.
تداخل کوانتومی چیست؟
همانطور که کیوبیت ها برهم نهی را تجربه می کنند، به طور طبیعی می توانند تداخل کوانتومی را نیز تجربه کنند. این تداخل احتمال فروپاشی کیوبیت ها به این صورت است. به دلیل احتمال تداخل، کامپیوترهای کوانتومی برای کاهش آن و اطمینان از نتایج دقیق کار می کنند.
کامپیوترهای کوانتومی چگونه کار می کنند؟
کامپیوترهای کوانتومی اطلاعات را به روشی اساسی متفاوت از کامپیوترهای کلاسیک پردازش می کنند. رایانه های سنتی بر روی بیت های باینری کار می کنند اما رایانه های کوانتومی اطلاعات را از طریق کیوبیت ها منتقل می کنند. توانایی کیوبیت برای باقی ماندن در برهم نهی، قلب پتانسیل کوانتومی برای قدرت محاسباتی نمایی بیشتر است.
کامپیوترهای کوانتومی از الگوریتم های مختلفی برای انجام اندازه گیری ها و مشاهدات استفاده می کنند. این الگوریتمها توسط کاربر وارد میشوند، سپس کامپیوتر یک فضای چند بعدی ایجاد میکند که در آن الگوها و نقاط داده فردی قرار میگیرند. برای مثال، اگر کاربری بخواهد مشکل تاخوردگی پروتئین را حل کند تا کمترین مقدار انرژی مورد استفاده را کشف کند، کامپیوتر کوانتومی ترکیب چینها را اندازهگیری میکند. این ترکیب پاسخ مشکل است.
ظاهر یک کامپیوتر کوانتومی واقعاً می تواند متفاوت باشد. شرکتهای فناوری مانند آیبیام، مایکروسافت و اینتل شبیهسازها و پردازندههای کوانتومی را توسعه دادهاند که میتوان از راههایی مانند خرید یا عضویتهای ویژه به آنها دسترسی داشت. همچنین انواع ابزارهای کوانتومی منبع باز در بازار وجود دارد که می توان به صورت آنلاین به آنها دسترسی داشت، مثلاً از طریق GitHub.
ساختار فیزیکی یک کامپیوتر کوانتومی واقعی عمدتاً از سه بخش تشکیل شده است. بخش اول یک کامپیوتر سنتی و زیرساخت است که برنامه نویسی را اجرا می کند و دستورالعمل ها را به کیوبیت ها ارسال می کند. بخش دوم روشی برای انتقال سیگنال از کامپیوتر به کیوبیت ها است. در نهایت، باید یک واحد ذخیره سازی برای کیوبیت ها وجود داشته باشد. این واحد ذخیره سازی برای کیوبیت ها باید بتواند کیوبیت ها را تثبیت کند و نیازها یا الزامات خاصی باید برآورده شود. اینها می توانند از نیاز به نزدیک به صفر درجه یا محفظه یک محفظه خلاء متغیر باشند.
کسب اطلاعات بیشتر: هوش مصنوعی Chatty قرار است به مشاغل مراکز تماس کمک کند
به نظر می رسد کیوبیت ها حتی از مستعدترین ستاره های راک نیز تعمیر و نگهداری بالاتری دارند. هر تعداد عمل یا متغیر ساده میتواند کیوبیتهای مستعد خطا را به حالت ناهمدوسی یا از دست دادن حالت کوانتومی بفرستد. چیزهایی که می توانند باعث از کار افتادن یک کامپیوتر کوانتومی شوند عبارتند از اندازه گیری کیوبیت ها و اجرای عملیات. به عبارت دیگر: استفاده از آن. حتی ارتعاشات کوچک و جابجایی های دما نیز باعث جدا شدن کیوبیت ها می شود.
به همین دلیل است که رایانههای کوانتومی ایزوله نگه داشته میشوند و رایانههایی که روی مدارهای ابررسانا کار میکنند – برجستهترین روش، مورد علاقه گوگل و IBM – باید در نزدیکی صفر مطلق (460- درجه فارنهایت سرد) نگه داشته شوند.
به گفته جاناتان کارتر، دانشمند آزمایشگاه ملی لارنس برکلی، این چالش دو جانبه است. اول، کیوبیت های فیزیکی فردی باید وفاداری بهتری داشته باشند. این امر می تواند از طریق مهندسی بهتر، کشف طرح مداری بهینه و یافتن ترکیب بهینه اجزاء اتفاق بیفتد. دوم، باید آنها را مرتب کنیم تا کیوبیت های منطقی تشکیل دهند.
برآوردها از صدها تا هزاران تا ده ها هزار کیوبیت فیزیکی مورد نیاز برای تشکیل یک کیوبیت مقاوم در برابر خطا متغیر است. کارتر گفت: من فکر میکنم میتوان گفت که هیچ یک از فناوریهایی که در حال حاضر داریم نمیتواند به آن سطوح برسد.
از آنجا، محققان همچنین باید سیستمهای پیچیدهتری بسازند تا با افزایش وفاداری کیوبیت و اعداد مقابله کنند.
محاسبات کوانتومی چه چیزی را می تواند حل کند؟
همانطور که کیوبیت ها می توانند در بسیاری از حالت ها باشند، مشکلات و چالش هایی که محاسبات کوانتومی می تواند روی آنها کار کند بسیار زیاد است. چندین مورد استفاده برای محاسبات کوانتومی وجود دارد: بهینه سازی، احتمال، شبیه سازی مولکولی، رمزنگاری و جستجو.
محاسبات کوانتومی می تواند حل مسئله را با استفاده از QCها برای اجرای الگوریتم های الهام گرفته از کوانتومی بهینه کند. این بهینهسازیها را میتوان در زمینههای علم و صنعت اعمال کرد زیرا به شدت به عواملی مانند هزینه، کیفیت و زمان تولید متکی هستند. با محاسبات کوانتومی، اکتشافات جدیدی در نحوه مدیریت کنترل ترافیک هوایی، تحویل بستهها، ذخیره انرژی و موارد دیگر وجود خواهد داشت.
یکی از پیشرفتهای QC در سال 2017 رخ داد، زمانی که محققان IBM هیدرید بریلیوم را مدلسازی کردند، بزرگترین مولکول شبیهسازی شده روی یک کامپیوتر کوانتومی تا به امروز. یکی دیگر از گام های کلیدی در سال 2019 رسید، زمانی که محققان IonQ از محاسبات کوانتومی برای بزرگتر شدن با شبیه سازی یک مولکول آب استفاده کردند.
اینها به طور کلی هنوز مشکلات کوچکی هستند که با استفاده از روش های شبیه سازی کلاسیک قابل بررسی هستند. دونوهو گفت: «اما این کار به سمت چیزهایی ساخته میشود که بررسی آنها بدون ساختن یک آزمایش فیزیک ذرات بزرگ که میتواند بسیار گران تمام شود، دشوار خواهد بود.
«بیشتر منافع [تجاری] از دیدگاه بلندمدت است. [شرکتها] دارند به این فناوری عادت میکنند تا زمانی که به این فناوری رسید – و این جدول زمانی موضوع بحثهای شدید است – برای آن آماده باشند.
همچنین این امیدواری وجود دارد که کامپیوترهای کوانتومی در مقیاس بزرگ به تسریع هوش مصنوعی کمک کنند، و بالعکس – اگرچه کارشناسان در این مورد اختلاف نظر دارند. ربکا کراتامر، مدیر عامل شرکت مشاوره محاسبات کوانتومی کوانتوم Thought، می گوید: «دلیل وجود اختلاف نظر این است که چیزها باید در یک دنیای کوانتومی دوباره طراحی شوند. ما نمیتوانیم الگوریتمها را از رایانههای معمولی به رایانههای کوانتومی ترجمه کنیم، زیرا قوانین در ابتداییترین سطح کاملاً متفاوت هستند.»
برخی معتقدند رایانه های کوانتومی می توانند با بهبود جذب کربن به مبارزه با تغییرات آب و هوایی کمک کنند. جرمی اوبراین، مدیر عامل PsiQuantum مبتنی بر پالو آلتو، نوشت که شبیهسازی کوانتومی مولکولهای بزرگتر – در صورت تحقق – میتواند به ساخت کاتالیزوری برای “پاک کردن” دی اکسید کربن به طور مستقیم از جو کمک کند.
کامپیوترهای کوانتومی وجود دارند و در حال حاضر از آنها استفاده می شود. با این حال، آنها در حال حاضر در حال “حل” تغییرات آب و هوایی، توربوشارژ کردن احتمالات پیش بینی مالی یا انجام سایر وظایف عالی مشابهی نیستند که با توجه به پتانسیل محاسبات کوانتومی مورد توجه قرار می گیرند. QC ممکن است برنامههای تجاری مرتبط با آن چالشها داشته باشد، اما این به خوبی ادامه دارد.
امروز، ما هنوز در دورانی به سر می بریم که به عنوان دوره NISQ شناخته می شود – کوانتومی در مقیاس متوسط و پر سر و صدا. به طور خلاصه، «نویز» کوانتومی تثبیت چنین رایانههایی را بسیار دشوار میکند. به این ترتیب، نمی توان به رایانه های NISQ برای تصمیم گیری با پیامدهای تجاری عمده اعتماد کرد، به این معنی که آنها در حال حاضر عمدتاً برای تحقیق و آموزش استفاده می شوند.
Dohonue گفت: «این فناوری هنوز کاملاً وجود ندارد تا مزیت محاسباتی نسبت به آنچه در حال حاضر با سایر روشهای محاسباتی میتوان انجام داد، ارائه دهد. «بیشتر منافع [تجاری] از دیدگاه بلندمدت است. [شرکتها] دارند به این فناوری عادت میکنند تا زمانی که به این فناوری رسید – و این جدول زمانی موضوع بحثهای شدید است – برای آن آماده باشند.
اما کارایی تحقیق و توسعه کامپیوترهای NISQ قابل اثبات است، البته اگر در مقیاس کوچک باشد. Donohue مدلسازی مولکولی هیدروژن لیتیوم را ذکر میکند. این یک مولکول به اندازهای کوچک است که میتوان آن را با استفاده از یک ابررایانه نیز شبیهسازی کرد، اما شبیهسازی کوانتومی فرصت مهمی برای «بررسی پاسخهایمان» پس از شبیهسازی رایانهای کلاسیک فراهم میکند.
اینها به طور کلی هنوز مشکلات کوچکی هستند که با استفاده از روش های شبیه سازی کلاسیک قابل بررسی هستند. دونوهو گفت: «اما این کار به سمت چیزهایی ساخته میشود که بررسی آنها بدون ساختن یک آزمایش فیزیک ذرات بزرگ که میتواند بسیار گران تمام شود، دشوار خواهد بود.
و ذهن های کنجکاو می توانند همین الان دست خود را کثیف کنند. کاربران میتوانند پردازندههای کوانتومی در مقیاس کوچک را از طریق فضای ابری از طریق Q Experience آنلاین IBM و نرمافزار منبع باز آن Quiskit کار کنند. مایکروسافت و آمازون هر دو اکنون پلتفرم های مشابهی دارند که Azure Quantum و Braket نام دارند. کراتامر گفت: «این یکی از چیزهای جالب در مورد محاسبات کوانتومی امروز است. “همه ما می توانیم سوار شویم و با آن بازی کنیم.”
چرا محاسبات کوانتومی مهم است
کامپیوترهای کوانتومی ممکن است این پتانسیل را داشته باشند که برخی از سیستم های فعلی ما را از بین ببرند. سیستم رمزنگاری معروف به RSA ساختار ایمنی را برای میزبانی از پروتکل های حریم خصوصی و ارتباطی، از ایمیل گرفته تا تراکنش های خرده فروشی اینترنتی، فراهم می کند. استانداردهای کنونی بر این واقعیت تکیه می کنند که هیچ کس قدرت محاسباتی برای آزمایش هر راه ممکن برای از بین بردن داده های شما پس از رمزگذاری را ندارد، اما یک کامپیوتر کوانتومی بالغ می تواند هر گزینه را در عرض چند ساعت امتحان کند.
باید تاکید کرد که رایانههای کوانتومی هنوز به آن سطح از بلوغ نرسیدهاند – و برای مدتی هم نخواهند رسید – اما اگر و زمانی که یک دستگاه بزرگ و پایدار ساخته شود، توانایی بیسابقهاش در فاکتورسازی اعداد بزرگ، اساساً سیستم رمزنگاری RSA را در آن جا خواهد گذاشت. پاره می شود. خوشبختانه، این فناوری هنوز خیلی دور است – و کارشناسان در حال انجام آن هستند.
جامعه بسیار راحت است که بگوید این چیزی نیست که در 5 تا 10 سال آینده اتفاق بیفتد.
“وحشت نکنید.” این همان چیزی است که مایک براون، CTO و یکی از بنیانگذاران شرکت رمزنگاری متمرکز کوانتومی ISARA Corporation، به مشتریان احتمالی مضطرب توصیه می کند. تهدید به دور از نزدیک است. او گفت: «آنچه از جامعه دانشگاهی و از شرکتهایی مانند آیبیام و مایکروسافت میشنویم این است که بازه زمانی 2026 تا 2030 همان چیزی است که ما معمولاً از منظر برنامهریزی برای آمادهسازی سیستمها استفاده میکنیم.»
رمزنگاران ISARA از جمله چندین گروهی هستند که در حال حاضر در پروژه استانداردسازی رمزنگاری پس کوانتومی، مسابقه ای برای طرح های رمزگذاری مقاوم در برابر کوانتومی، شرکت می کنند. هدف استانداردسازی الگوریتم هایی است که می توانند در برابر حملات اعمال شده توسط کامپیوترهای کوانتومی در مقیاس بزرگ مقاومت کنند. این مسابقه در سال 2016 توسط موسسه ملی استانداردها و فناوری، یک آژانس فدرال که به ایجاد دستورالعمل های فنی و علمی کمک می کند، راه اندازی شد و اکنون برای دور سوم خود آماده می شود.
در واقع، سطح پیچیدگی و پایداری مورد نیاز یک کامپیوتر کوانتومی برای راه اندازی حمله RSA بسیار مورد بحث است. حتی اعطای این جدول زمانی در محاسبات کوانتومی – به ویژه از نظر مقیاس پذیری – محل اختلاف است.
آینده محاسبات کوانتومی
محاسبات کوانتومی ممکن است هنوز در مرحله پیچیده و غیرهمکاری خود باشد، اما این موضوع مانع از ورود منافع تجاری به آن نشده است.
IBM در نمایشگاه Consumer Electronics در سال 2020 اعلام کرد که شبکه Q به بیش از 100 شرکت و سازمان گسترش یافته است. شرکا در حال حاضر از خطوط هوایی دلتا گرفته تا Anthem Health و دایملر AG که مالک مرسدس بنز است.
برخی از این مشارکتها به وعدههای ذکر شده محاسبات کوانتومی از نظر شبیهسازی مولکولی بستگی دارد. به عنوان مثال، دایملر امیدوار است این فناوری روزی راهی برای تولید باتری های بهتر برای خودروهای برقی به دست آورد.
در جاهای دیگر، مشارکت بین استارتآپهای محاسبات کوانتومی و شرکتهای پیشرو در صنعت داروسازی – مانند مشارکتهایی که بین 1QBit و Biogen، و ProteinQure و AstraZeneca ایجاد شدهاند – به وعده کشف دارو در مدلسازی مولکولی کوانتومی اشاره دارد، هرچند دور از ذهن است.
سابین هوسنفلدر، فیزیکدان نظری در گاردین، خاطرنشان کرد که محققان برای محاسبه «خواص شیمیایی یک ماده جدید» به میلیونها کیوبیت نیاز دارند. اما حداقل پشتوانه مفهومی آن وجود دارد. دانوهو توضیح داد: «یک کامپیوتر کوانتومی از قبل مکانیک کوانتومی را میداند، بنابراین من اساساً میتوانم نحوه عملکرد یک سیستم کوانتومی دیگر را برنامهریزی کنم و از آن برای تکرار سیستم دیگر استفاده کنم.
برای افرادی مانند مایکل بیرکوک، بنیانگذار شرکت نرم افزاری مهندسی کوانتومی Q-CTRL، “تنها نقطه عطف تجاری تجاری که اکنون اهمیت دارد مزیت کوانتومی است” – یا همانطور که او از این اصطلاح استفاده می کند، زمانی که یک کامپیوتر کوانتومی مزیت زمانی یا هزینه ای را ارائه می دهد. یک کامپیوتر کلاسیک او را در میان خوشبینان بشمارید: او برای رسیدن به چنین هدفی مقیاس زمانی پنج تا هشت ساله را پیش بینی می کند.
سوال باز دیگر: کدام روش محاسبات کوانتومی استاندارد خواهد شد؟ در حالی که ابررسانا تاکنون بیشترین ثمرات را داشته است، محققان در حال بررسی روشهای جایگزینی هستند که شامل یونهای به دام افتاده، بازپخت کوانتومی یا به اصطلاح کیوبیتهای توپولوژیکی است. از نظر Donohue، این مسئله لزوماً این نیست که کدام فناوری بهتر است، بلکه یکی از آنها یافتن بهترین رویکرد برای کاربردهای مختلف است. به عنوان مثال، تراشه های ابررسانا به طور طبیعی با فناوری میدان مغناطیسی که زیربنای تصویربرداری عصبی است، مطابقت دارد.
«این مشکل بزرگتری است که باید روی آن تمرکز کرد، حتی بیشتر از سختافزار. زیرا مردم آن نوآوری را خواهند آورد.»
با این حال، چالشهایی که محاسبات کوانتومی با آن مواجه است، کاملاً به سختافزار مرتبط نیستند. گرگ کوپربرگ، ریاضیدان دانشگاه کالیفرنیا در دیویس، به سرعت تاکید می کند که “جادوی” محاسبات کوانتومی در پیشرفت های الگوریتمی است، “نه سرعت”.
او گفت: «اگر الگوریتم جدیدی برای سؤالی که مناسب باشد، بیاورید، همه چیز میتواند به صورت تصاعدی سریعتر باشد. (بیش از 60 الگوریتم فهرست شده و بیش از 400 مقاله در باغ وحش الگوریتم کوانتومی، کاتالوگ آنلاین الگوریتم های کوانتومی که توسط محقق کوانتومی مایکروسافت استفان جردن گردآوری شده است، ذکر شده است.)
یکی دیگر از موانع برای محاسبات کوانتومی، به گفته کراتامر، عدم تخصص عمومی است. او گفت: «فقط افراد کافی در سطح نرم افزار یا در سطح الگوریتمی در این زمینه کار نمی کنند. به گفته Krauthamer، تیم کارآفرین فناوری، Jack Hidarity، تعداد افرادی که در محاسبات کوانتومی کار میکنند را شمارش کردند و تنها حدود 800 تا 850 نفر را پیدا کردند. او گفت: «این مشکل بزرگتری است که باید روی آن تمرکز کرد، حتی بیشتر از سختافزار. “زیرا مردم آن نوآوری را به ارمغان خواهند آورد.”
شبیه سازی های کامپیوتری چگونه کار می کنند؟
شبیه سازی کامپیوتری یک فرآیند گام به گام است که در آن یک برنامه شبیه سازی کامپیوتری بر اساس یک سیستم دنیای واقعی (یک سیستم می تواند یک ماشین، یک ساختمان یا حتی یک تومور باشد) مدل می شود. به منظور تکرار سیستم و نتایج احتمالی، شبیهسازی از معادلات ریاضی برای ایجاد الگوریتمی استفاده میکند که وضعیت سیستم یا ترکیبی از متغیرهای ممکن مختلف را تعریف میکند.
برای مثال، اگر در حال شبیهسازی تصادف خودرو هستید، از الگوریتم شبیهسازی میتوان برای آزمایش اینکه در صورت وقوع طوفان در حین تصادف چه اتفاقی میافتد در مقابل آنچه که در هوای معتدلتر اتفاق میافتد، استفاده میشود.
شبیه سازی وضعیت سیستم را در یک زمان معین (t) محاسبه می کند، سپس به t+1 و غیره می رود. هنگامی که شبیه سازی کامل شد، دنباله ای از متغیرها به عنوان مجموعه داده های بزرگ ذخیره می شوند، که سپس می توانند به تصویرسازی ترجمه شوند.
مکال گفت: «ما علاقه ای به تعمیم به آینده نداریم. ما علاقه مند به بررسی تمام عدم قطعیت ها و همچنین پارامترهای متفاوتی هستیم که مدل را مشخص می کند، و هزاران یا میلیون ها شبیه سازی از همه احتمالات مختلف را انجام دهیم و سعی کنیم بفهمیم کدام مداخلات قوی ترین است. و اینجاست که محاسبات با کارایی بالا وارد می شود.”
به لطف قدرت پردازش داده های قوی ابررایانه ها، شبیه سازی پیشرفته تر از همیشه است – و با سرعتی سریع در حال تکامل است.
اوزیک گفت که منابع محاسباتی در اختیار آنها به محققان این امکان را میدهد که «بهجای استفاده از رویکردهای موقتی برای یافتن برخی رفتارهای جالب که ممکن است جنبهای از واقعیت را منعکس کنند، رفتارهایی را که این مدلها میتوانند نشان دهند، به طور کامل کشف کنند».
یعنی شبیهسازیها بسیار گستردهتر و در نتیجه حتی واقعیتر هستند – حداقل از منظر فرضی.
شبیه سازی های کامپیوتری در دنیای واقعی
بسیاری از شبیه سازی ها با قدرت محاسباتی بسیار کمتری نسبت به آرگون انجام می شوند. آلیسون بریجر، رئیس دپارتمان هواشناسی و علوم آب و هوا در دانشگاه ایالتی سن خوزه در کالیفرنیا، گفت که رایانههای خوشهای در محل به اندازهای قوی هستند که بتوانند مدلهای شبیهسازی آب و هوا را که او میسازد اجرا کنند. خدمات رایانش ابری مانند خدمات ارائه شده توسط آمازون (AWS) و مایکروسافت (Azure) به تدریج در این فضا نیز جای پای خود را به دست میآورند.
همراه با فیزیک هسته ای، هواشناسی یکی از اولین رشته هایی بود که پس از جنگ جهانی دوم از شبیه سازی کامپیوتری استفاده کرد. بریجر گفت و مدلسازی آب و هوا، «مثل پسرعموی نزدیک پیشبینی آب و هوا است. در دهه 1960، مردم از مدل های اولیه پیش بینی آب و هوا برای پیش بینی آب و هوا استفاده می کردند. قبل از اینکه بتوانید آب و هوا را پیش بینی کنید، باید بتوانید آن را با مدل خود به درستی بازتولید کنید.
کار بریجر از یک مدل پرکاربرد «مقیاس محلی» به نام WRF استفاده میکند که مخفف Weather, Research and Forecasting است و میتواند «شبیهسازیهای معقول خوبی از آبوهوا در مقیاس، مثلاً ایلینوی شمالی – از شیکاگو تا گرینبی و پایینتر از آن را تولید کند. بخش مرکزی ایالت مواردی مانند دمای بالا و پایین، باران و غیره را پیش بینی می کند. و معمولا فقط برای شبیه سازی 24، 48 یا 72 ساعت آب و هوا اجرا می شود.”
در توضیح بیشتر فرآیند خود، بریجر از تصاویر مکعبی در مرکز شیکاگو استفاده می کند که تقریباً یک کیلومتر از شرق به غرب و یک کیلومتر از شمال به جنوب است. هدف این است که دما را در مرکز مکعب پیشبینی کرده و آن را به کل چیز تعمیم دهیم. همچنین، به گفته او، مکعبهای دیگری در اطراف مکعب اولیه وجود دارد که «تا بالای جو روی هم چیده شدهاند» که دمای آینده آنها با افزایشهای زمانی مختلف پیشبینی میشود – در یک ساعت، در 12 ساعت، در یک روز، در سه روز و غیره
در مرحله بعد، متغیرهای موثر بر دما مانند میزان آفتاب، پوشش ابر، بلایای طبیعی مانند آتشسوزیهای جنگلی و آلودگی انسانساز به این ترکیب اضافه میشوند. سپس موضوع اعمال قوانین فیزیک برای تعیین انواع رویدادهای مرتبط با آب و هوا است: افزایش و کاهش دما، میزان باد و باران.
شبیه سازی های کامپیوتری را می توان برای خیلی بیشتر از پیش بینی های آب و هوا و آب و هوا استفاده کرد.
6 نمونه از شبیه سازی های کامپیوتری
چه دانشمندان بخواهند پاسخ های مراقبت های بهداشتی را بهتر درک کنند یا حتی سیاهچاله ها را کشف کنند، شبیه سازی کامپیوتری فرصت های تحقیقاتی مهمی را فراهم می کند. در اینجا شش مورد برجسته وجود دارد:
1. پاسخ به همه گیری
مکال به همراه اوزیک و همکارشان نیک کولیر، روی یک پروژه مدلسازی و شبیه سازی کار کردند که تعیین می کرد اگر ویروس مرگبار ابولا – که در ابتدا در غرب آفریقا در سال 2013 تا 2016 گسترش یافت و اثرات مخربی داشت – بر جمعیت ایالات متحده تأثیر بگذارد چه اتفاقی می افتد. . بخشی از این فرآیند شامل بازدید از بیمارستانهای شیکاگو برای آشنایی با روشهای مرتبط با ابولا و سپس گنجاندن این روشها در مدلهای آنها بود.
2. بهبود درمان سرطان
دیگر دانشمندان آرگون از مدلسازی و شبیهسازی برای بهبود درمان سرطان از طریق پزشکی پیشبینیکننده استفاده کردهاند و متوجه میشوند که چگونه بیماران و تومورهای مختلف به داروهای مختلف پاسخ میدهند.
و یک مطالعه در سال 2019 نتایج مثبتی در شبیه سازی تومورهای سرطان سینه نشان داد. برای این مطالعه، محققان یک شبیهسازی کامپیوتری ساختند که تومورهای چهار بیمار مختلف را تحت درمانهای 12 هفتهای مدلسازی کرد. پس از اینکه دو تومور شبیه سازی شده به درمان پاسخ ندادند، آنها به این نتیجه رسیدند که دوزهای مکرر و کمتر شیمی درمانی می تواند تومور پرولیفراتیو کم را کاهش دهد، در حالی که دوزهای پایین تر عوامل ضد رگ زایی به تومورهای با پرفیوژن ضعیف کمک می کند تا به درمان دارویی بهتر پاسخ دهند.
3. پیش بینی نقض کد بهداشتی
در شیکاگو، اداره بهداشت عمومی شهر از مدلسازی و شبیهسازی رایانهای استفاده میکند تا پیشبینی کند که در کجای تخلفات مهم ممکن است ابتدا ظاهر شوند. سپس آن رستوران ها در صدر فهرست 15000 مؤسسه قرار می گیرند که تنها توسط سه دوجین بازرس نظارت می شود. و ظاهراً کار میکند: یک شبیهسازی 14 درصد تخلفات بیشتری را به همراه داشت، که در حالت ایدهآل به معنای بازرسی زودهنگام و احتمال کمتر بیمار شدن مشتریان از ماهیهای بد یخچال است.
4. درک رابطه ما با دین و بحران
شبیه سازی کامپیوتری به روش های جالبی در دانشگاه بوستون استفاده می شود. وسلی وایلدمن، استاد فلسفه، الهیات و اخلاق، از شبیهسازی رایانهای برای مطالعه استفاده میکند – همانطور که در مقالهای برای گفتگو بیان کرد – «چگونگی تعامل دین با ذهنهای پیچیده انسان، از جمله در فرآیندهایی مانند مدیریت واکنشها به رویدادهای وحشتناک».
برای انجام این کار، او و تیمش دنیایی را طراحی کردند و آن را با شخصیتهای کنترلشده کامپیوتری یا «عاملهایی» پر کردند که «برنامهریزی شدهاند تا از قوانین و گرایشهای شناسایی شده در انسانها از طریق آزمایشهای روانشناختی، مشاهده قومنگاری و تحلیل اجتماعی پیروی کنند».
سپس آنها مشاهده کردند که چه اتفاقی افتاد زمانی که ماموران آنها در برابر نمونههای واقعی مانند زلزلهای عظیم که در سال 2011 کرایستچرچ نیوزلند را لرزاند، آزمایش شدند.
وایلدمن گفت: «هر چه عوامل ما بهتر از رفتار انسانهای واقعی در چنین شرایطی تقلید کنند، مدل با واقعیت هماهنگتر است و راحتتر میگوییم که انسانها احتمالاً همان رفتاری را که مأموران انجام میدادند، راحتتر میکنند. موقعیتهای جدید و ناشناخته.»
5. تحقیق در مورد زلزله
در آلمان، تیمی در مرکز ابر محاسباتی لایبنیتس شبیهسازیهای زلزله را با استفاده از زمینلرزه ویرانگر اقیانوس هند در سال 2004، که یک سونامی عظیم را برانگیخت، به عنوان نقطه مبدا انجام دادند.
به گفته پروفسور مایکل بادر از مؤسسه انفورماتیک آلمان، آنها میخواستند «بهتر کل فرآیند این که چرا برخی از زمینلرزهها و سونامیهای ناشی از آن بسیار بزرگتر از سایرین هستند، درک کنند. گاهی اوقات سونامیهای نسبتاً کوچکی را میبینیم که زمینلرزهها بزرگ هستند، یا سونامیهای شگفتانگیز بزرگی که با زلزلههای نسبتاً کوچک مرتبط هستند. شبیهسازی یکی از ابزارهایی است که میتوان در مورد این رویدادها دید.”
اما از کامل بودن فاصله زیادی دارد. شری فینک، خبرنگار نیویورک تایمز توضیح داد که چگونه یک استارتآپ پاسخگویی به بلایای طبیعی مستقر در سیاتل به نام One Concern شبیهسازی زلزله را توسعه داد که نتوانست بسیاری از سازههای تجاری پرجمعیت را در آزمایشهای خود بگنجاند «زیرا محاسبات خسارت عمدتاً بر دادههای سرشماری مسکونی تکیه میکرد». نتیجه بالقوه دنیای واقعی این مدل پیشبینی معیوب: امدادگران ممکن است مکان بسیاری از قربانیان نیازمند را نمیدانستند.
6. کاوش در سیاهچاله ها
در سال 2022، محققان یک شبیهسازی سیاهچاله با مدلسازی یک زنجیره تک فایلی از اتمها برای ایجاد افق رویداد یک سیاهچاله ساختند. این امر منجر به مشاهده تابش هاوکینگ توسط تیم شد، این نظریه فرضی مبنی بر اینکه ذرات تشکیل شده توسط لبه سیاهچاله دمایی ایجاد می کنند که با جرم سیاهچاله نسبت معکوس دارد.
اگرچه این تحقیق هنوز در مراحل اولیه خود است، این به طور بالقوه می تواند به دانشمندان در درک و حل تفاوت های بین نظریه نسبیت عام و مکانیک کوانتومی کمک کند.
کاربردهای شبیه سازی کامپیوتری در صنایع مختلف
در 75 سال گذشته، مدلسازی و شبیهسازی رایانهای از یک ابزار عمدتاً علمی به چیزی تبدیل شده است که صنعت برای اهداف بهینهسازی و سودآوری آن را پذیرفته است.
مکال گفت: «صنعت شبیهسازی را با سرعتی سریعتر از قبل پذیرفته و آن را به چیزی که من آن را تجزیه و تحلیل دادهها برای مواردی مانند زمانبندی و مدیریت زنجیره تأمین مینامم متصل میکند». صنعت در تلاش است هر کاری را که انجام میدهد شبیهسازی کند، زیرا متوجه میشود که ارزانتر و سریعتر از ساختن یک سیستم نمونه اولیه است.
وقتی نلسون نورث وسترن با Built In صحبت کرد، اخیراً از کنفرانس سالانه احتمالات کاربردی بازگشته بود. در آنجا، برنامههای شبیهسازی مورد بحث شامل موارد زیر بودند، اما به موارد زیر محدود نشدند: مدلسازی هوانوردی، امنیت سایبری، پایداری و ریسک محیطی، مدیریت ریسک مالی، مراقبتهای بهداشتی، لجستیک، زنجیره تامین و حملونقل، تولید نیمهرسانا، برنامههای کاربردی نظامی، ارتباطات شبکه، مدیریت پروژه و ساخت و ساز
نلسون با استفاده از یک شرکت خودروسازی که میخواهد یک کارخانه مونتاژ جدید بسازد یا تصمیم بگیرد که چه خودروهایی را به بازار عرضه کند، گفت: «معمولاً شرکتهایی که از شبیهسازی استفاده میکنند میخواهند عملکرد سیستم را به نوعی بهینه کنند.
او ادامه داد: «بنابراین بهینهسازی کلید بسیاری از مشاغل در صنعت است، اما راهحلهای بهینه اغلب شکننده هستند. منظورم این است که اگر مسائل کوچک در مورد فرضیات یا تقریب های مدل سازی که انجام داده اید اشتباه باشد، ناگهان چیزی که در مدل شما بهینه به نظر می رسد می تواند به طرز فاجعه باری بد باشد.
نلسون افزود: «وقتی افراد مدلهای ریاضی و رایانهای میسازند، حتی اگر مدل ممکن است از دادهها ساخته شده باشد، با آن رفتار میکنند که گویی مدل صحیح است و بنابراین راهحلی که [نتایج] بهینه است. کاری که ما سعی می کنیم انجام دهیم این است که همچنان عدم اطمینانی را که در زمان ساخت آن ایجاد شد در مدل بگنجانیم.
نلسون گفت که بحران مالی سال 2008 یکی از مواردی است که ریسک مدل به طور مخربی کم اهمیت بوده است.
او گفت: «صنعت مالی از تعداد بسیار زیادی از [روشهای] مدلسازی رایانهای بسیار پیچیده استفاده میکند. و کاملاً واضح است که همبستگی میان ابزارهای مالی مختلف و اوراق بهادار و غیره به نوعی نادیده گرفته شد، بنابراین با شکستهای آبشاری مواجه شدیم.»
با این حال، چنین داستانهای احتیاطی به این معنا نیست که کسانی که مدلهای ریاضی و رایانهای را که شبیهسازیها بر اساس آنها است، ایجاد میکنند، باید برای کمال تلاش کنند، زیرا هیچ مدلی کامل نیست و مدلها باعث پیشرفت میشوند. نلسون گفت که تقاضای کمال، «ما را فلج می کند. اما با شروع تصمیمگیریهای حیاتیتر بر اساس مدلها، توجه به ریسکها اهمیت بیشتری پیدا میکند.
آینده شبیه سازی های کامپیوتری
این را تصور کنید: سالها دیگر میگذرد و فردی که میشناسید به یک تومور سرطانی مبتلا شده است. اما به جای بمباران فوری آنها با پرتوها و داروهای شیمی درمانی بسیار سمی و امید به بهترین ها، پزشکان در عوض آزمایشاتی را انجام می دهند که از طریق آن یک دوقلوی ریاضی و مجازی از رشد بدخیم آن فرد ایجاد می کنند. ماکت دیجیتال سپس تحت مداخلات محاسباتی در قالب میلیونها یا حتی میلیاردها شبیهسازی قرار میگیرد که به سرعت مؤثرترین شکل درمان را تعیین میکند.
این کمتر از آن چیزی که به نظر می رسد خارق العاده است.
موسسه ملی سرطان گزارش داد: «تحولات اخیر در «دادههای بزرگ» و فناوریهای تجربی خاص سرطان، همراه با پیشرفتها در تجزیه و تحلیل دادهها و قابلیتهای محاسباتی با کارایی بالا، فرصتهای بیسابقهای برای پیشبرد درک سرطان در مقیاسهای بزرگتر و دقیقتر ایجاد میکند. .
سایر تحولات انقلابی با تأثیرات گسترده در حال حاضر در حال اجرا هستند.
همانطور که جاستین اسمیت، فیزیکدان آزمایشگاه ملی لس آلاموس، به Science Daily گفت: «ما اکنون میتوانیم مواد و دینامیک مولکولی را میلیاردها بار سریعتر در مقایسه با روشهای کوانتومی معمولی مدلسازی کنیم، در حالی که همان سطح دقت را حفظ میکنیم.»
این خبر خوبی برای توسعه دهندگان دارو است، که محققان آنها حرکت مولکولی را مطالعه می کنند تا ببینند چه چیزی برای استفاده در تولید دارو مناسب است، و همچنین بیمارانی که اغلب درگیر یک بازی حدس زدن مضر در مورد درمان هستند.
محققان ایالت پن که به همراه همکارانش در دانشگاه آلمریا در اسپانیا کار میکنند «یک مدل رایانهای را توسعه دادند که میتواند به پیشبینیکنندگان کمک کند طوفانهای شدید احتمالی را سریعتر و دقیقتر تشخیص دهند». همانطور که استیو ویستار، یک هواشناس ارشد پزشکی قانونی در AccuWeather، توضیح داد، این ابزار میتواند به پیشبینیهای بهتری منجر شود، زیرا او و پیشبینیکنندگان همکارش «تصویری از کاملترین نمای جو» خواهند داشت.
و بنابراین، در حالی که ممکن است ما در یک دنیای شبیه سازی شده توسط کامپیوتر زندگی کنیم یا نباشیم، جهان توسط شبیه سازی کامپیوتری در حال تغییر است. همانطور که رایانه ها سریعتر می شوند و روش های تحقیق اصلاح می شوند، نمی توان گفت به کجا می تواند منجر شود.
مودی یانگ، یک دانشآموز دبیرستانی شبیهسازی کیهان از نشویل، این را به شیوایی بیان میکند که میگوید: «شبیهسازیهای رایانهای به ما توانایی ایجاد جهانهای مجازی را میدهد و آن جهانهای مجازی به ما اجازه میدهند تا دنیای واقعی خود را بهتر درک کنیم.»