هوش مصنوعی مسئولانه و اخلاقی به موضوع داغ روزگار ما تبدیل شده است، به خصوص که هوش مصنوعی در تمام جنبه های تصمیم گیری و اتوماسیون نفوذ می کند. بر اساس یک نظرسنجی اخیر، 35 درصد از شرکت ها در حال حاضر از هوش مصنوعی در مشاغل خود استفاده می کنند و 42 درصد در حال بررسی این فناوری هستند.

همان نظرسنجی آی‌بی‌ام نشان می‌دهد که اعتماد بسیار مهم است – از هر پنج پاسخ‌دهنده، چهار نفر می‌گویند که می‌توانند توضیح دهند که هوش مصنوعی چگونه به تصمیمی که برای کسب‌وکارشان مهم است، رسیده است.

با این حال، هوش مصنوعی همچنان کد است — یک و صفر. همانطور که من و نویسنده همکارم اندی تورای، استراتژیست Constellation Research، در مقاله اخیر هاروارد بیزینس ریویو توضیح دادیم، این همدلی را ندارد و اغلب مضمونی از دست داده است.

این پتانسیل ارائه نتایج مغرضانه و مضر را دارد. همانطور که هوش مصنوعی در زنجیره تصمیم گیری بالا می رود – از چت ربات های ساده یا تعمیر و نگهداری پیش بینی شده تا کمک به تصمیم گیری های اجرایی یا پزشکی – نیاز به محاسبه وجود دارد.

یعنی توسعه‌دهندگان، اجراکنندگان، کاربران و حامیان هوش مصنوعی باید بتوانند کار خود را نشان دهند، نحوه تصمیم‌گیری را توضیح دهند و بتوانند به طور مستمر با سناریوهای جدید سازگار شوند.

با این حال، هوش مصنوعی مسئول آسان نیست. این به معنای فشار – به ویژه بر تیم های هوش مصنوعی است. همانطور که Melissa Heikkilä در MIT Technology Review اشاره می کند، “فرسودگی شغلی در تیم های مسئول هوش مصنوعی به طور فزاینده ای رایج می شود.” بزرگ‌ترین سازمان‌ها «روی تیم‌هایی سرمایه‌گذاری کرده‌اند که ارزیابی می‌کنند چگونه زندگی، جوامع و سیستم‌های سیاسی ما تحت تأثیر شیوه طراحی، توسعه و استقرار این سیستم‌ها قرار می‌گیرند». برای شرکت‌های کوچک تا متوسط ​​و استارت‌آپ‌ها، این بدان معناست که این مسئولیت‌ها بر عهده توسعه‌دهندگان، مهندسان داده و دانشمندان داده است.

نتیجه – حتی در بزرگ‌ترین شرکت‌ها – این است که “تیم‌هایی که روی هوش مصنوعی مسئول کار می‌کنند، اغلب به حال خود رها می‌شوند.” Heikkilä می‌گوید. این کار می‌تواند به اندازه تعدیل محتوا از نظر روان‌شناختی خسته‌کننده باشد. در نهایت، این می‌تواند باعث شود افراد در این تیم‌ها احساس کم‌ارزش شدن کنند، که می‌تواند بر سلامت روان آنها تأثیر بگذارد و منجر به فرسودگی شغلی شود.»

سرعت پذیرش هوش مصنوعی در سال های اخیر فشار را به سطوح شدیدی افزایش داده است. Thurai که یکی از مدافعان برجسته هوش مصنوعی مسئول بوده است، می‌گوید هوش مصنوعی از آزمایشگاه به سطح تولید رسیده است. مدیریت هوش مصنوعی مسئول «ممکن است به ویژه در صورتی که آنها مجبور به تعدیل محتوا، تصمیمات و داده های مغرضانه بر خلاف باورها، دیدگاه ها، نظرات و فرهنگ خود شوند و در عین حال سعی در حفظ خط باریک بین بی طرفی و باورهای خود داشته باشند، می تواند خسته کننده باشد. هوش مصنوعی 24x7x365 کار می‌کند و تصمیم‌هایی که توسط هوش مصنوعی گرفته می‌شود گاهی اوقات رویدادهایی هستند که زندگی را تغییر می‌دهند، انتظار می‌رود که انسان‌های موجود در آن مناطق با آنچه می‌تواند منجر به فرسودگی و خستگی شود، که می‌تواند منجر به قضاوت‌ها و تصمیم‌های مستعد خطا شود، همگام باشند. ”

او می‌افزاید که قوانین و حکمرانی «به هوش مصنوعی نمی‌رسند». همراه با این واقعیت که بسیاری از شرکت‌ها رویه‌ها و دستورالعمل‌های مناسبی برای مدیریت اخلاقی هوش مصنوعی و هوش مصنوعی ندارند، این فرآیند را پیچیده‌تر می‌کند.»

او می‌گوید چالش‌های بالقوه خروجی‌های هوش مصنوعی از دادگاه‌ها و سیستم‌های حقوقی را به این موارد اضافه کنید، “که شروع به اعمال مجازات‌های سنگین می‌کنند و شرکت‌ها را مجبور می‌کنند تصمیمات خود را تغییر دهند.” این امر به ویژه برای کارمندانی که سعی در اجرای قوانین سیستم های هوش مصنوعی دارند، استرس زا است.

پشتیبانی از بالا نیز وجود ندارد و استرس را روی هم می‌ریزد. مطالعه 1000 مدیر اجرایی که توسط MIT Sloan Management Review و Boston Consulting Group منتشر شده است، تایید می کند. با این حال، این مطالعه نشان می دهد که در حالی که اکثر مدیران موافق هستند که “هوش مصنوعی مسئول برای کاهش خطرات فناوری – از جمله مسائل ایمنی، تعصب، انصاف و حریم خصوصی – مفید است – آنها به شکست در اولویت بندی آن اذعان کردند.”

بنابراین، چگونه حامیان، توسعه دهندگان و تحلیلگران هوش مصنوعی به مسائل مربوط به فرسودگی بالقوه، احساس مبارزه با جزر و مد اقیانوس می پردازند؟ در اینجا چند راه برای کاهش استرس و فرسودگی ناشی از هوش مصنوعی آورده شده است:

  • رهبران کسب و کار را از عواقب هوش مصنوعی غیرمسئولانه آگاه کنید. تصمیمات و خروجی های AI فیلتر نشده خطر شکایت، مقررات و تصمیمات آسیب رسان را به دنبال دارد. Thurai می‌گوید: «مدیران باید هزینه‌های اخلاقی و مسئولانه هوش مصنوعی را به‌عنوان وسیله‌ای برای بهبود مسئولیت‌پذیری و وضعیت ریسک شرکت‌شان ببینند، نه یک مرکز هزینه. “در حالی که اکنون صرف پول کمتر می تواند سود آنها را بهبود بخشد، حتی یک مسئولیت یا حکم دادگاه، پس انداز حاصل از این سرمایه گذاری ها را کاهش می دهد.”
  • برای منابع مناسب فشار بیاورید. استرس ناشی از بررسی های مسئول هوش مصنوعی پدیده جدیدی است که نیاز به بازنگری در مورد حمایت دارد. Heikkilä می نویسد: «بسیاری از منابع سلامت روان در شرکت های فناوری بر مدیریت زمان و تعادل بین کار و زندگی متمرکز است، اما حمایت بیشتری برای افرادی که از نظر عاطفی و روانشناختی روی موضوعات نگران کننده کار می کنند مورد نیاز است.
  • از نزدیک با کسب و کار کار کنید تا اطمینان حاصل کنید که هوش مصنوعی مسئول یک اولویت تجاری است. Thurai می‌گوید: «برای هر شرکتی که هوش مصنوعی را پیاده‌سازی می‌کند، باید هوش مصنوعی مسئول نیز وجود داشته باشد. او از مطالعه MIT-BCG (که در بالا ذکر شد) استناد می‌کند که نشان می‌دهد تنها ۱۹ درصد از شرکت‌هایی که هوش مصنوعی را به عنوان اولویت استراتژیک خود در برنامه‌های هوش مصنوعی مسئول کار می‌کنند. او می گوید: “باید نزدیک به 100٪ باشد.” مدیران و کارکنان باید تشویق شوند تا از تصمیم گیری های کل نگر که شامل اخلاق، اخلاق و انصاف است، استفاده کنند.
  • فعالانه برای تصمیم گیری های هوش مصنوعی مسئول کمک بخواهید. Thurai می‌گوید: «از کارشناسان بخواهید به جای مهندسان هوش مصنوعی یا سایر فناوری‌هایی که به اندازه کافی برای گرفتن چنین تصمیم‌هایی تحصیل نکرده‌اند، آن تصمیمات اخلاقی هوش مصنوعی را بگیرند.
  • انسان ها را در جریان نگه دارید. همیشه در فرآیند تصمیم‌گیری هوش مصنوعی، رمپ‌های غیرفعال ارائه کنید. انعطاف پذیر باشید و در برابر طراحی مجدد سیستم ها باز باشید. نظرسنجی انجام‌شده توسط SAS، Accenture Applied Intelligence، Intel و Forbes نشان می‌دهد که از هر چهار پاسخ‌دهنده، یک نفر اعتراف می‌کند (PDF) به دلیل نتایج مشکوک یا رضایت‌بخش، مجبور به تجدیدنظر، طراحی مجدد یا نادیده گرفتن سیستم مبتنی بر هوش مصنوعی بوده است.
  • تا حد امکان خودکار کنید. Thurai می گوید: “هوش مصنوعی در مورد پردازش بسیار در مقیاس بالا است.” “فرآیند دستی اعتبارسنجی سوگیری ورودی، کیفیت داده‌ها و تایید نتایج کارساز نخواهد بود. شرکت‌ها باید هوش مصنوعی یا سایر راه‌حل‌های مقیاس بالا را برای خودکارسازی فرآیند پیاده‌سازی کنند. هر استثنا یا ممیزی را می‌توان به صورت دستی انجام داد، اما انجام کارهای بالا توسط انسان‌ها انجام می‌شود. کار هوش مصنوعی در مقیاس به نتایج فاجعه‌باری منجر خواهد شد.”
  • سوگیری داده ها را از قبل حفظ کنید. داده‌های مورد استفاده در آموزش مدل‌های هوش مصنوعی ممکن است به دلیل محدودیت‌های مجموعه داده‌ها، دارای سوگیری ضمنی باشند. داده هایی که در سیستم های هوش مصنوعی جریان می یابد باید به خوبی بررسی شوند.
  • سناریوهای هوش مصنوعی را قبل از شروع تولید اعتبار سنجی کنید. داده هایی که وارد الگوریتم های هوش مصنوعی می شوند می توانند روز به روز تغییر کنند و این الگوریتم ها باید دائماً آزمایش شوند.

Thurai می‌گوید: «در این دنیای دوقطبی، آسان است که تصمیمات اخلاقی مبتنی بر هوش مصنوعی را توسط افرادی که با آن مخالف هستند جعلی بدانیم. “شرکت‌ها باید هم از شفافیت در تصمیم‌گیری‌های هوش مصنوعی و هم به اخلاق و حاکمیتی که اعمال می‌شود دقت بیشتری داشته باشند. هوش مصنوعی قابل توضیح از بالا به پایین و شفافیت دو عنصر مهم هستند. برای ارزیابی و اصلاح اقدامات و فرآیندها با حسابرسی منظم ترکیب شود.”