هوش مصنوعی مسئولانه و اخلاقی به موضوع داغ روزگار ما تبدیل شده است، به خصوص که هوش مصنوعی در تمام جنبه های تصمیم گیری و اتوماسیون نفوذ می کند. بر اساس یک نظرسنجی اخیر، 35 درصد از شرکت ها در حال حاضر از هوش مصنوعی در مشاغل خود استفاده می کنند و 42 درصد در حال بررسی این فناوری هستند.
همان نظرسنجی آیبیام نشان میدهد که اعتماد بسیار مهم است – از هر پنج پاسخدهنده، چهار نفر میگویند که میتوانند توضیح دهند که هوش مصنوعی چگونه به تصمیمی که برای کسبوکارشان مهم است، رسیده است.
با این حال، هوش مصنوعی همچنان کد است — یک و صفر. همانطور که من و نویسنده همکارم اندی تورای، استراتژیست Constellation Research، در مقاله اخیر هاروارد بیزینس ریویو توضیح دادیم، این همدلی را ندارد و اغلب مضمونی از دست داده است.
این پتانسیل ارائه نتایج مغرضانه و مضر را دارد. همانطور که هوش مصنوعی در زنجیره تصمیم گیری بالا می رود – از چت ربات های ساده یا تعمیر و نگهداری پیش بینی شده تا کمک به تصمیم گیری های اجرایی یا پزشکی – نیاز به محاسبه وجود دارد.
یعنی توسعهدهندگان، اجراکنندگان، کاربران و حامیان هوش مصنوعی باید بتوانند کار خود را نشان دهند، نحوه تصمیمگیری را توضیح دهند و بتوانند به طور مستمر با سناریوهای جدید سازگار شوند.
با این حال، هوش مصنوعی مسئول آسان نیست. این به معنای فشار – به ویژه بر تیم های هوش مصنوعی است. همانطور که Melissa Heikkilä در MIT Technology Review اشاره می کند، “فرسودگی شغلی در تیم های مسئول هوش مصنوعی به طور فزاینده ای رایج می شود.” بزرگترین سازمانها «روی تیمهایی سرمایهگذاری کردهاند که ارزیابی میکنند چگونه زندگی، جوامع و سیستمهای سیاسی ما تحت تأثیر شیوه طراحی، توسعه و استقرار این سیستمها قرار میگیرند». برای شرکتهای کوچک تا متوسط و استارتآپها، این بدان معناست که این مسئولیتها بر عهده توسعهدهندگان، مهندسان داده و دانشمندان داده است.
نتیجه – حتی در بزرگترین شرکتها – این است که “تیمهایی که روی هوش مصنوعی مسئول کار میکنند، اغلب به حال خود رها میشوند.” Heikkilä میگوید. این کار میتواند به اندازه تعدیل محتوا از نظر روانشناختی خستهکننده باشد. در نهایت، این میتواند باعث شود افراد در این تیمها احساس کمارزش شدن کنند، که میتواند بر سلامت روان آنها تأثیر بگذارد و منجر به فرسودگی شغلی شود.»
سرعت پذیرش هوش مصنوعی در سال های اخیر فشار را به سطوح شدیدی افزایش داده است. Thurai که یکی از مدافعان برجسته هوش مصنوعی مسئول بوده است، میگوید هوش مصنوعی از آزمایشگاه به سطح تولید رسیده است. مدیریت هوش مصنوعی مسئول «ممکن است به ویژه در صورتی که آنها مجبور به تعدیل محتوا، تصمیمات و داده های مغرضانه بر خلاف باورها، دیدگاه ها، نظرات و فرهنگ خود شوند و در عین حال سعی در حفظ خط باریک بین بی طرفی و باورهای خود داشته باشند، می تواند خسته کننده باشد. هوش مصنوعی 24x7x365 کار میکند و تصمیمهایی که توسط هوش مصنوعی گرفته میشود گاهی اوقات رویدادهایی هستند که زندگی را تغییر میدهند، انتظار میرود که انسانهای موجود در آن مناطق با آنچه میتواند منجر به فرسودگی و خستگی شود، که میتواند منجر به قضاوتها و تصمیمهای مستعد خطا شود، همگام باشند. ”
او میافزاید که قوانین و حکمرانی «به هوش مصنوعی نمیرسند». همراه با این واقعیت که بسیاری از شرکتها رویهها و دستورالعملهای مناسبی برای مدیریت اخلاقی هوش مصنوعی و هوش مصنوعی ندارند، این فرآیند را پیچیدهتر میکند.»
او میگوید چالشهای بالقوه خروجیهای هوش مصنوعی از دادگاهها و سیستمهای حقوقی را به این موارد اضافه کنید، “که شروع به اعمال مجازاتهای سنگین میکنند و شرکتها را مجبور میکنند تصمیمات خود را تغییر دهند.” این امر به ویژه برای کارمندانی که سعی در اجرای قوانین سیستم های هوش مصنوعی دارند، استرس زا است.
پشتیبانی از بالا نیز وجود ندارد و استرس را روی هم میریزد. مطالعه 1000 مدیر اجرایی که توسط MIT Sloan Management Review و Boston Consulting Group منتشر شده است، تایید می کند. با این حال، این مطالعه نشان می دهد که در حالی که اکثر مدیران موافق هستند که “هوش مصنوعی مسئول برای کاهش خطرات فناوری – از جمله مسائل ایمنی، تعصب، انصاف و حریم خصوصی – مفید است – آنها به شکست در اولویت بندی آن اذعان کردند.”
بنابراین، چگونه حامیان، توسعه دهندگان و تحلیلگران هوش مصنوعی به مسائل مربوط به فرسودگی بالقوه، احساس مبارزه با جزر و مد اقیانوس می پردازند؟ در اینجا چند راه برای کاهش استرس و فرسودگی ناشی از هوش مصنوعی آورده شده است:
- رهبران کسب و کار را از عواقب هوش مصنوعی غیرمسئولانه آگاه کنید. تصمیمات و خروجی های AI فیلتر نشده خطر شکایت، مقررات و تصمیمات آسیب رسان را به دنبال دارد. Thurai میگوید: «مدیران باید هزینههای اخلاقی و مسئولانه هوش مصنوعی را بهعنوان وسیلهای برای بهبود مسئولیتپذیری و وضعیت ریسک شرکتشان ببینند، نه یک مرکز هزینه. “در حالی که اکنون صرف پول کمتر می تواند سود آنها را بهبود بخشد، حتی یک مسئولیت یا حکم دادگاه، پس انداز حاصل از این سرمایه گذاری ها را کاهش می دهد.”
- برای منابع مناسب فشار بیاورید. استرس ناشی از بررسی های مسئول هوش مصنوعی پدیده جدیدی است که نیاز به بازنگری در مورد حمایت دارد. Heikkilä می نویسد: «بسیاری از منابع سلامت روان در شرکت های فناوری بر مدیریت زمان و تعادل بین کار و زندگی متمرکز است، اما حمایت بیشتری برای افرادی که از نظر عاطفی و روانشناختی روی موضوعات نگران کننده کار می کنند مورد نیاز است.
- از نزدیک با کسب و کار کار کنید تا اطمینان حاصل کنید که هوش مصنوعی مسئول یک اولویت تجاری است. Thurai میگوید: «برای هر شرکتی که هوش مصنوعی را پیادهسازی میکند، باید هوش مصنوعی مسئول نیز وجود داشته باشد. او از مطالعه MIT-BCG (که در بالا ذکر شد) استناد میکند که نشان میدهد تنها ۱۹ درصد از شرکتهایی که هوش مصنوعی را به عنوان اولویت استراتژیک خود در برنامههای هوش مصنوعی مسئول کار میکنند. او می گوید: “باید نزدیک به 100٪ باشد.” مدیران و کارکنان باید تشویق شوند تا از تصمیم گیری های کل نگر که شامل اخلاق، اخلاق و انصاف است، استفاده کنند.
- فعالانه برای تصمیم گیری های هوش مصنوعی مسئول کمک بخواهید. Thurai میگوید: «از کارشناسان بخواهید به جای مهندسان هوش مصنوعی یا سایر فناوریهایی که به اندازه کافی برای گرفتن چنین تصمیمهایی تحصیل نکردهاند، آن تصمیمات اخلاقی هوش مصنوعی را بگیرند.
- انسان ها را در جریان نگه دارید. همیشه در فرآیند تصمیمگیری هوش مصنوعی، رمپهای غیرفعال ارائه کنید. انعطاف پذیر باشید و در برابر طراحی مجدد سیستم ها باز باشید. نظرسنجی انجامشده توسط SAS، Accenture Applied Intelligence، Intel و Forbes نشان میدهد که از هر چهار پاسخدهنده، یک نفر اعتراف میکند (PDF) به دلیل نتایج مشکوک یا رضایتبخش، مجبور به تجدیدنظر، طراحی مجدد یا نادیده گرفتن سیستم مبتنی بر هوش مصنوعی بوده است.
- تا حد امکان خودکار کنید. Thurai می گوید: “هوش مصنوعی در مورد پردازش بسیار در مقیاس بالا است.” “فرآیند دستی اعتبارسنجی سوگیری ورودی، کیفیت دادهها و تایید نتایج کارساز نخواهد بود. شرکتها باید هوش مصنوعی یا سایر راهحلهای مقیاس بالا را برای خودکارسازی فرآیند پیادهسازی کنند. هر استثنا یا ممیزی را میتوان به صورت دستی انجام داد، اما انجام کارهای بالا توسط انسانها انجام میشود. کار هوش مصنوعی در مقیاس به نتایج فاجعهباری منجر خواهد شد.”
- سوگیری داده ها را از قبل حفظ کنید. دادههای مورد استفاده در آموزش مدلهای هوش مصنوعی ممکن است به دلیل محدودیتهای مجموعه دادهها، دارای سوگیری ضمنی باشند. داده هایی که در سیستم های هوش مصنوعی جریان می یابد باید به خوبی بررسی شوند.
- سناریوهای هوش مصنوعی را قبل از شروع تولید اعتبار سنجی کنید. داده هایی که وارد الگوریتم های هوش مصنوعی می شوند می توانند روز به روز تغییر کنند و این الگوریتم ها باید دائماً آزمایش شوند.
Thurai میگوید: «در این دنیای دوقطبی، آسان است که تصمیمات اخلاقی مبتنی بر هوش مصنوعی را توسط افرادی که با آن مخالف هستند جعلی بدانیم. “شرکتها باید هم از شفافیت در تصمیمگیریهای هوش مصنوعی و هم به اخلاق و حاکمیتی که اعمال میشود دقت بیشتری داشته باشند. هوش مصنوعی قابل توضیح از بالا به پایین و شفافیت دو عنصر مهم هستند. برای ارزیابی و اصلاح اقدامات و فرآیندها با حسابرسی منظم ترکیب شود.”
[…] کسب اطلاعات بیشتر: 8 راه برای کاهش فرسودگی هوش مصنوعی […]