جستجو
این کادر جستجو را ببندید.
جستجو
این کادر جستجو را ببندید.
جستجو
این کادر جستجو را ببندید.

پذیرش هوش مصنوعی توسط کارمندان، چالش روز کسب و کارها

زمان مطالعه این مقاله: 10 دقیقه

امروزه و با پیشرفت تکنولوژی، هوش مصنوعی هرچه بیشتر در حال ورود به کسب و کارها می باشد و پذیرش آن توسط کارمندان از اهمیت بالایی برخوردار است. همانند هر تکنولوژی دیگری، ابتدا پذیرش هوش مصنوعی توسط کارمندان شرکت‌ها با چالش هایی روبروست. طبق نتایج، کارمندان شرکت‌ها از الگوریتم های هوش مصنوعی که قادر به درک و رمزگشایی آن نیستند، بیشتر پیروی می‌کنند تا آنهایی که برای آنها روشن و آشکار است. همچنین در انتها چند توصیه به کسب و کارها در خصوص استفاده از هوش مصنوعی و پذیرش آن توسط کارمندان از سوی یک تیم تحقیقاتی ارائه می‌گردد.
پذیرش هوش مصنوعی توسط کارمندان

فهرست مطالب

تحقیقات قبلی نشان داده است که کارمندان شرکت‌­ها اغلب تمایلی به پذیرش راهنمایی­‌های هوش مصنوعی، چه به صورت آگاهانه و چه غیر­­آگاهانه ندارند و به طور معمول آن را نادیده می­گیرند. این یک مشکل برای شرکت‌­هایی است که زمان و هزینه زیادی را صرف سیستم‌­های هوش مصنوعی می کنند. در این مقاله Timothy DeStefano و همکارانش مطالعه‌­ای موردی در خصوص پذیرش هوش مصنوعی توسط کارمندان در کسب و کارها و استفاده از آن را در شرکت Tapestry انجام و این موضوع را مورد بررسی قرار دادند که در ادامه بدان خواهیم پرداخت.

بررسی پذیرش هوش مصنوعی توسط کارمندان در یک تحقیق میدانی

 

بررسی پذیرش هوش مصنوعی توسط کارمندان

 

Timothy DeStefano از دانشگاه جورج تاون و همکارانش، Michael Menietti وLuca Vendraminelli از دانشگاه هاروارد و Katherine Kellogg از دانشگاه MIT  در بررسی شرکت Tapestry، تصمیمات مربوط به تخصیص 425 محصول یک فروشگاه زنجیره ای خرده فروشی مد و فشن لوکس در ایالات متحده را در 186 فروشگاه را مورد تجزیه و تحلیل قرار دادند.

نیمی از تصمیم‌ها توسط کارمندان پس از دریافت توصیه‌هایی از یک الگوریتم هوش مصنوعی که به راحتی قابل فهم بود و نیمی دیگر پس از دریافت توصیه‌هایی از الگوریتمی که برای کارمندان قابل رمزگشایی نبود، گرفته شد. مقایسه تصمیمات نشان داد که پذیرش هوش مصنوعی توسط کارمندان در الگوریتم غیرقابل تفسیر بالاتر بود.

پذیرش هوش مصنوعی توسط کارمندان شرکت Tapestry در چه وضعیتی بود؟

ما با شرکت Tapestry همکاری کردیم تا ریشه‌­ی این بی­‌میلی و نحوه مقابله با آن را بررسی کنیم. این شرکت نزدیک به 1500 فروشگاه و فروش سالانه 6.7 میلیارد دلاری دارد و بهینه‌­سازی تخصیص محصول و اجرای یک زنجیره‌­ی تأمین کارآمد برای موفقیت آن بسیار مهم است. در حال حاضر کارکنان با پیش‌بینی‌های کوتاه‌مدت خود، تخصیص موجودی هفتگی را برای هر فروشگاه تعیین می‌کنند، که باید تا حد امکان دقیق باشد.

Tapestry در طول تاریخ خود از یک الگوریتم مبتنی بر یک فرمول برای کمک به کارمندان جهت پیش­بینی تقاضا استفاده می‌کرد. آنها این مدل را در طول زمان و بر پایه‌­ی تجارب روزمره شان طراحی کردند. این شرکت به دنبال افزایش دقت، مدل پیش‌بینی پیچیده‌تری را توسعه داد که در بین کارمندان به مدل “جعبه سیاه” معروف شد.

ما به طور تصادفی یکی از این دو سیستم یعنی الگوریتم قدیمی مورد استفاده و همچنین الگوریتم مبتنی بر هوش مصنوعی یا همان جعبه سیاه را برای ارائه­‌ی راهنمایی جهت تصمیم­‌گیری مناسب کارمندان در مورد هر محصول در طول سه هفته مطالعه خود مورد استفاده قرار دادیم. پس از مشاهده توصیه‌ها، کارمندان می‌توانند مقادیر پیشنهادی را مطابق راهنمایی هوش مصنوعی اجرا کنند و یا از دستورالعمل منحرف شده و تعداد متفاوتی از محصولات را برا اساس نظر خودشان ارسال کنند.

پس از بررسی مشخص شد که محموله‌های ارسالی تا 50 درصد به توصیه‌های سیستم جعبه سیاه نزدیک‌تر بودند تا به توصیه‌های الگوریتم ساده‌تر و مبتنی بر قانون شرکت، که نشان می‌دهد پذیرش هوش مصنوعی توسط کارمندان در مدل جعبه سیاه بسیار بیشتر بوده است.

تغییر دیدگاه و پذیرش هوش مصنوعی توسط کارمندان شگفت‌­انگیز است، به نظر شما چرا این اتفاق افتاد؟

 

تغییر دیدگاه و پذیرش هوش مصنوعی توسط کارمندان شگفت‌­انگیز است، به نظر شما چرا این اتفاق افتاد

 

در واقع، یافته‌های ما در تضاد با تفکر رایج می‌­باشدکه معتقد است کارمندان احتمالاً راهنمایی‌ سیستم‌های هوش مصنوعی را که می‌توانند درک کنند، می‌پذیرند. یکی از دلایلی که کارکنان سیستم هوش مصنوعی کمتر پیچیده را نادیده می‌گیرند، مربوط به چیزی است که ما آن را “عیب‌یابی بیش از حد مطمئن” می‌نامیم. این زمانی اتفاق می افتد که کارمندان معتقد باشند که استدلال پشت هوش مصنوعی را بهتر از آنچه واقعاً هست، درک می کنند. آنها از تجربیات خود برای تکمیل آنچه که به عنوان کمبود در مدل می بینند استفاده می کنند.

کارمندانی که ما مورد مطالعه قرار دادیم اغلب داستان­‌هایی در مورد عملکرد درونی الگوریتم هوش مصنوعی قابل تفسیر و اینکه چرا باید راهنمایی‌­های آن را نادیده می­گرفتند، بیان کردند. به عنوان مثال، در مصاحبه‌ای که پس از آزمایش انجام شد، یکی از کارمندان به ما در مورد کاهش مقادیر محصول پیشنهادی مدل هوش مصنوعی گفت و ادعا کرد که الگوریتم در این خصوص اشتباه کرده است پس طبیعیست که پذیرش هوش مصنوعی توسط کارمندان با وجود این دیدگاه سخت­تر شود.

چرا پذیرش هوش مصنوعی توسط کارمندان در مدل­‌هایی پیچیده‌­تر بیشتر است؟

حتی با وجود اینکه کارمندان نمی‌توانستند بگویند چه مقداری از داده در مدل هوش مصنوعی غیرقابل تفسیر استفاده شده است یا مدل با آن چه کرده است، اما می‌دانستند که این الگوریتم با نظرات برخی از همکارانشان ساخته و آزمایش شده است و این موضوع به آنها اطمینان خاطر می‌داد و طبعاً پذیرش آن راحت تر بود. این نمونه ای از چیزی است که به عنوان “اثبات اجتماعی” شناخته می شود. یکی از کارمندان به ما گفت که ما به این مدل هوش مصنوعی در سطح کلان­‌تری اعتماد کردیم، زیرا همکاران ما در توسعه آن نقش داشته‌­اند.

وقتی کارمندان در استفاده از هوش مصنوعی بر تجربه‌­ی خود تکیه کردند، آیا نتایج بهتری گرفتند؟

درست برعکس، چون مدل پیچیده تر خیلی خوب بود! ما بیش از 17،000 تصمیم در مورد تخصیص کالاها را مورد مطالعه قرار دادیم و نحوه‌­ی عملکرد هر تصمیم را بعد از دو هفته مورد بررسی قرار دادیم. تصمیمات مرتبط با مدل هوش مصنوعی جعبه سیاه موفقیت آمیزتر از تصمیمات مرتبط با مدل شفاف تر بودند، دقیقاً به این دلیل که کارمندان تمایل زیادی به پذیرش توصیه­‌های آن داشتند. آنها با استفاده از این مدل هوش مصنوعی فروش بالاتر و مرجوعی انبار کمتری را به ارمغان آوردند و همچنین 20٪ افزایش درآمد را تجربه کردند.

آیا مورد دیگری بر پذیرش هوش مصنوعی توسط کارمندان تأثیر داشت؟

میزان عدم اطمینانی که یک کارمند هنگام یک تصمیم‌­گیری خاص احساس می کرد، مهم بود و با حجم فروش مورد نظر متفاوت بود. تصمیمات در مورد تخصیص محصولات برای فروشگاه‌های با ظرفیت بالا بیشترین عدم قطعیت را در بر داشت زیرا پیامدهای تخصیص نادرست همانند مقادیر فروش از دست رفته یا موجودی اضافی انبار بیشتر بود. پذیرش هوش مصنوعی توسط کارمندان هنگام تخصیص محصولات به آن فروشگاه‌ها، در مدل غیرقابل تفسیر بسیار بیشتر از مدل شفاف بود. در مدل قابل تفسیر، سطح بالای عدم قطعیت افراد را وادار کرد تا پیشنهادات آن را بررسی و آنها را رد کنند.

چگونه کارمندان را ترغیب می­کنید که الگوریتم هوش مصنوعی را بپذیرند؟

شما باید به طور مداوم میزان اعتماد کارمندان به سیستم­تان را اندازه­ گیری کنید. اگر متوجه شدید که آنها در برخی زمینه‌ها بیشتر از سایر موارد به آن اعتماد دارند، باید دلیل آن را بررسی کنید. آنها ممکن است نسبت به هوش مصنوعی بدبین باشند زیرا هوش مصنوعی باگ دارد یا توصیه هایی ارائه می دهد که بسیار متفاوت از تجربه یا شهود آنها می باشد.

شما باید تعیین کنید که آیا آنها در بی­‌اعتمادی خود منطقی هستند یا خیر. هنگامی که متوجه شدید چه چیزی پشت پرده آن است، می توانید آموزش هدفمندی را برای بهبود پذیرش آنها از قدرت تصمیم‌­گیری ابزار هوش مصنوعی توسعه دهید. این پدیده‌­ی جدیدی نیست، هر زمان که فناوری‌های جدید به کار گرفته می‌شوند، ممکن است افراد در ابتدا تمایلی به پذیرش آن نداشته باشند. پس در خصوص پذیرش هوش مصنوعی توسط کارمندان نیز بایستی این نکته را فراموش نکرد و همچنین با تکنیک های مدیریتی ذکر شده این چالش را مدیریت نمود.

جمع بندی

قبل از اینکه ابزار جدیدی را عرضه کنید، از تیم علم داده یا هر کسی که آن را می‌سازد بخواهید با کارمندانی که از آن استفاده می‌کنند ملاقات کند و برخی از آنها را در فرآیند توسعه دخیل نمایند. این نوع شفافیت و مشارکت پذیرش هوش مصنوعی توسط کارمندان را افزایش داده و موجب اعتماد در بین آنها می­شود. اما با این وجود و وقتی همه این اتفاقات رخ داد و سیستم آزمایش شد و همه موافق بودند و پذیرفتند که این الگوریتم هوش مصنوعی مناسب است، بهتر است توانایی کارمندان را برای نادیده گرفتن الگوریتم را محدود کنید.

اینگونه قادر خواهید بود که از یک سو پذیرش هوش مصنوعی توسط کارمندان خود را بالا ببرید و از سویی دیگر فعالیت‌­های کسب و کارتان را بهینه نمایید.

برای مطالعه بیشتر در این حوزه به صفحات تکنولوژی و توسعه منابع انسانی از بلاگ اکوبا مراجعه کنید.

منبع مقاله:
https://hbr.org/2023/09/people-may-be-more-trusting-of-ai-when-they-cant-see-how-it-works

برای امتیاز به این نوشته کلیک کنید!
[کل: 2 میانگین: 4.5]

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

مقالات مرتبط