تحقیقات قبلی نشان داده است که کارمندان شرکتها اغلب تمایلی به پذیرش راهنماییهای هوش مصنوعی، چه به صورت آگاهانه و چه غیرآگاهانه ندارند و به طور معمول آن را نادیده میگیرند. این یک مشکل برای شرکتهایی است که زمان و هزینه زیادی را صرف سیستمهای هوش مصنوعی می کنند. در این مقاله Timothy DeStefano و همکارانش مطالعهای موردی در خصوص پذیرش هوش مصنوعی توسط کارمندان در کسب و کارها و استفاده از آن را در شرکت Tapestry انجام و این موضوع را مورد بررسی قرار دادند که در ادامه بدان خواهیم پرداخت.
بررسی پذیرش هوش مصنوعی توسط کارمندان در یک تحقیق میدانی
Timothy DeStefano از دانشگاه جورج تاون و همکارانش، Michael Menietti وLuca Vendraminelli از دانشگاه هاروارد و Katherine Kellogg از دانشگاه MIT در بررسی شرکت Tapestry، تصمیمات مربوط به تخصیص 425 محصول یک فروشگاه زنجیره ای خرده فروشی مد و فشن لوکس در ایالات متحده را در 186 فروشگاه را مورد تجزیه و تحلیل قرار دادند.
نیمی از تصمیمها توسط کارمندان پس از دریافت توصیههایی از یک الگوریتم هوش مصنوعی که به راحتی قابل فهم بود و نیمی دیگر پس از دریافت توصیههایی از الگوریتمی که برای کارمندان قابل رمزگشایی نبود، گرفته شد. مقایسه تصمیمات نشان داد که پذیرش هوش مصنوعی توسط کارمندان در الگوریتم غیرقابل تفسیر بالاتر بود.
پذیرش هوش مصنوعی توسط کارمندان شرکت Tapestry در چه وضعیتی بود؟
ما با شرکت Tapestry همکاری کردیم تا ریشهی این بیمیلی و نحوه مقابله با آن را بررسی کنیم. این شرکت نزدیک به 1500 فروشگاه و فروش سالانه 6.7 میلیارد دلاری دارد و بهینهسازی تخصیص محصول و اجرای یک زنجیرهی تأمین کارآمد برای موفقیت آن بسیار مهم است. در حال حاضر کارکنان با پیشبینیهای کوتاهمدت خود، تخصیص موجودی هفتگی را برای هر فروشگاه تعیین میکنند، که باید تا حد امکان دقیق باشد.
Tapestry در طول تاریخ خود از یک الگوریتم مبتنی بر یک فرمول برای کمک به کارمندان جهت پیشبینی تقاضا استفاده میکرد. آنها این مدل را در طول زمان و بر پایهی تجارب روزمره شان طراحی کردند. این شرکت به دنبال افزایش دقت، مدل پیشبینی پیچیدهتری را توسعه داد که در بین کارمندان به مدل “جعبه سیاه” معروف شد.
ما به طور تصادفی یکی از این دو سیستم یعنی الگوریتم قدیمی مورد استفاده و همچنین الگوریتم مبتنی بر هوش مصنوعی یا همان جعبه سیاه را برای ارائهی راهنمایی جهت تصمیمگیری مناسب کارمندان در مورد هر محصول در طول سه هفته مطالعه خود مورد استفاده قرار دادیم. پس از مشاهده توصیهها، کارمندان میتوانند مقادیر پیشنهادی را مطابق راهنمایی هوش مصنوعی اجرا کنند و یا از دستورالعمل منحرف شده و تعداد متفاوتی از محصولات را برا اساس نظر خودشان ارسال کنند.
پس از بررسی مشخص شد که محمولههای ارسالی تا 50 درصد به توصیههای سیستم جعبه سیاه نزدیکتر بودند تا به توصیههای الگوریتم سادهتر و مبتنی بر قانون شرکت، که نشان میدهد پذیرش هوش مصنوعی توسط کارمندان در مدل جعبه سیاه بسیار بیشتر بوده است.
تغییر دیدگاه و پذیرش هوش مصنوعی توسط کارمندان شگفتانگیز است، به نظر شما چرا این اتفاق افتاد؟
در واقع، یافتههای ما در تضاد با تفکر رایج میباشدکه معتقد است کارمندان احتمالاً راهنمایی سیستمهای هوش مصنوعی را که میتوانند درک کنند، میپذیرند. یکی از دلایلی که کارکنان سیستم هوش مصنوعی کمتر پیچیده را نادیده میگیرند، مربوط به چیزی است که ما آن را “عیبیابی بیش از حد مطمئن” مینامیم. این زمانی اتفاق می افتد که کارمندان معتقد باشند که استدلال پشت هوش مصنوعی را بهتر از آنچه واقعاً هست، درک می کنند. آنها از تجربیات خود برای تکمیل آنچه که به عنوان کمبود در مدل می بینند استفاده می کنند.
کارمندانی که ما مورد مطالعه قرار دادیم اغلب داستانهایی در مورد عملکرد درونی الگوریتم هوش مصنوعی قابل تفسیر و اینکه چرا باید راهنماییهای آن را نادیده میگرفتند، بیان کردند. به عنوان مثال، در مصاحبهای که پس از آزمایش انجام شد، یکی از کارمندان به ما در مورد کاهش مقادیر محصول پیشنهادی مدل هوش مصنوعی گفت و ادعا کرد که الگوریتم در این خصوص اشتباه کرده است پس طبیعیست که پذیرش هوش مصنوعی توسط کارمندان با وجود این دیدگاه سختتر شود.
چرا پذیرش هوش مصنوعی توسط کارمندان در مدلهایی پیچیدهتر بیشتر است؟
حتی با وجود اینکه کارمندان نمیتوانستند بگویند چه مقداری از داده در مدل هوش مصنوعی غیرقابل تفسیر استفاده شده است یا مدل با آن چه کرده است، اما میدانستند که این الگوریتم با نظرات برخی از همکارانشان ساخته و آزمایش شده است و این موضوع به آنها اطمینان خاطر میداد و طبعاً پذیرش آن راحت تر بود. این نمونه ای از چیزی است که به عنوان “اثبات اجتماعی” شناخته می شود. یکی از کارمندان به ما گفت که ما به این مدل هوش مصنوعی در سطح کلانتری اعتماد کردیم، زیرا همکاران ما در توسعه آن نقش داشتهاند.
وقتی کارمندان در استفاده از هوش مصنوعی بر تجربهی خود تکیه کردند، آیا نتایج بهتری گرفتند؟
درست برعکس، چون مدل پیچیده تر خیلی خوب بود! ما بیش از 17،000 تصمیم در مورد تخصیص کالاها را مورد مطالعه قرار دادیم و نحوهی عملکرد هر تصمیم را بعد از دو هفته مورد بررسی قرار دادیم. تصمیمات مرتبط با مدل هوش مصنوعی جعبه سیاه موفقیت آمیزتر از تصمیمات مرتبط با مدل شفاف تر بودند، دقیقاً به این دلیل که کارمندان تمایل زیادی به پذیرش توصیههای آن داشتند. آنها با استفاده از این مدل هوش مصنوعی فروش بالاتر و مرجوعی انبار کمتری را به ارمغان آوردند و همچنین 20٪ افزایش درآمد را تجربه کردند.
آیا مورد دیگری بر پذیرش هوش مصنوعی توسط کارمندان تأثیر داشت؟
میزان عدم اطمینانی که یک کارمند هنگام یک تصمیمگیری خاص احساس می کرد، مهم بود و با حجم فروش مورد نظر متفاوت بود. تصمیمات در مورد تخصیص محصولات برای فروشگاههای با ظرفیت بالا بیشترین عدم قطعیت را در بر داشت زیرا پیامدهای تخصیص نادرست همانند مقادیر فروش از دست رفته یا موجودی اضافی انبار بیشتر بود. پذیرش هوش مصنوعی توسط کارمندان هنگام تخصیص محصولات به آن فروشگاهها، در مدل غیرقابل تفسیر بسیار بیشتر از مدل شفاف بود. در مدل قابل تفسیر، سطح بالای عدم قطعیت افراد را وادار کرد تا پیشنهادات آن را بررسی و آنها را رد کنند.
چگونه کارمندان را ترغیب میکنید که الگوریتم هوش مصنوعی را بپذیرند؟
شما باید به طور مداوم میزان اعتماد کارمندان به سیستمتان را اندازه گیری کنید. اگر متوجه شدید که آنها در برخی زمینهها بیشتر از سایر موارد به آن اعتماد دارند، باید دلیل آن را بررسی کنید. آنها ممکن است نسبت به هوش مصنوعی بدبین باشند زیرا هوش مصنوعی باگ دارد یا توصیه هایی ارائه می دهد که بسیار متفاوت از تجربه یا شهود آنها می باشد.
شما باید تعیین کنید که آیا آنها در بیاعتمادی خود منطقی هستند یا خیر. هنگامی که متوجه شدید چه چیزی پشت پرده آن است، می توانید آموزش هدفمندی را برای بهبود پذیرش آنها از قدرت تصمیمگیری ابزار هوش مصنوعی توسعه دهید. این پدیدهی جدیدی نیست، هر زمان که فناوریهای جدید به کار گرفته میشوند، ممکن است افراد در ابتدا تمایلی به پذیرش آن نداشته باشند. پس در خصوص پذیرش هوش مصنوعی توسط کارمندان نیز بایستی این نکته را فراموش نکرد و همچنین با تکنیک های مدیریتی ذکر شده این چالش را مدیریت نمود.
جمع بندی
قبل از اینکه ابزار جدیدی را عرضه کنید، از تیم علم داده یا هر کسی که آن را میسازد بخواهید با کارمندانی که از آن استفاده میکنند ملاقات کند و برخی از آنها را در فرآیند توسعه دخیل نمایند. این نوع شفافیت و مشارکت پذیرش هوش مصنوعی توسط کارمندان را افزایش داده و موجب اعتماد در بین آنها میشود. اما با این وجود و وقتی همه این اتفاقات رخ داد و سیستم آزمایش شد و همه موافق بودند و پذیرفتند که این الگوریتم هوش مصنوعی مناسب است، بهتر است توانایی کارمندان را برای نادیده گرفتن الگوریتم را محدود کنید.
اینگونه قادر خواهید بود که از یک سو پذیرش هوش مصنوعی توسط کارمندان خود را بالا ببرید و از سویی دیگر فعالیتهای کسب و کارتان را بهینه نمایید.
برای مطالعه بیشتر در این حوزه به صفحات تکنولوژی و توسعه منابع انسانی از بلاگ اکوبا مراجعه کنید.
منبع مقاله:
https://hbr.org/2023/09/people-may-be-more-trusting-of-ai-when-they-cant-see-how-it-works