در فضای کاری، مردم و ربات ها همیشه با هم کنار نمی آیند!
از آنجایی که بیشتر سیستمهای هوش مصنوعی و رباتها به کارگران انسانی کمک میکنند، ایجاد اعتماد بین آنها برای انجام کار کلیدی است. یکی از اساتید دانشگاه جورجیا[1] به دنبال این است که با کمک ارتش ایالات متحده این شکاف را پر کند.
آرون اسچکتر، استادیار دپارتمان سیستمهای اطلاعات مدیریت کالج تری(Terry College)، دو کمک مالی– به ارزش نزدیک به ۲ میلیون دلار– از ارتش ایالات متحده دریافت کرد تا تعامل بین تیمهای انسان و ربات را مطالعه کند. در حالی که هوش مصنوعی در خانه میتواند به سفارش مواد غذایی کمک کند، هوش مصنوعی در میدان جنگ مجموعهای از شرایط خطرناکتر را ارائه میدهد؛ انسجام و اعتماد تیمی میتواند موضوعی بین مرگ و زندگی باشد.
– تحقیقات من، کمتر به طراحی و عناصر نحوه کار ربات می پردازد و بیشتر جنبه روانی دارد. چه زمانی احتمال دارد به چیزی اعتماد کنیم؟ مکانیسم هایی که اعتماد را القا می کنند چیست؟ چگونه آنها را وادار به همکاری کنیم؟ اگر ربات خراب شود، می توانید آن را ببخشید؟ ( آرون اسچکتر)
اسچکتر گفت:”در زمینه ارتش، آنها میخواهند رباتی یا هوش مصنوعی ای داشته باشند که توسط انسان کنترل نشود، و عملکردی را انجام میدهد که باری را از روی دوش انسان بردارد. بدیهی است که تمایلی وجود داشته باشد که مردم نسبت به آن واکنش ضعیف نشان ندهند.”
در حالی که رباتهای نظامی میتوانند در قلمرو «ترمیناتور» غواصی کنند، اسچکتر توضیح داد که بیشتر رباتها و سیستمهای در حال توسعه برای انتقال بارهای سنگین یا ارائه پیشبینی پیشرفته ، یک سکوی پیادهروی که حامل مهمات و آب است، بهکار میروند، بنابراین سربازان با 80 پوند بار سنگین نمیشوند.
او گفت: «یا پهپادی را تصور کنید که از راه دور کنترل نمیشود. مثل یک پرنده خانگی بالای سر شما پرواز می کند، شما را زیر نظر می گیرد و بازخورد صوتی مانند «توصیه می کنم این مسیر را طی کنید» ارائه می کند.
اما این رباتها تنها در صورتی قابل اعتماد هستند که سربازان را هدف گلوله قرار ندهند یا به خطر نیندازند.
اسچکتر میگوید: “ما نمیخواهیم مردم از ربات متنفر باشند، از آن رنجیده شوند یا آن را نادیده بگیرند. شما باید مایل باشید که در شرایط زندگی و مرگ به آن اعتماد کنید تا آنها موثر واقع شوند. بنابراین، چگونه می توانیم مردم را نسبت به ربات ها مطمئن کنیم؟ چگونه مردم را وادار کنیم که به هوش مصنوعی اعتماد کنند؟”
ریک واتسون، پروفسور جانشین و جی رکس فوکوا ، رئیس برجسته استراتژی اینترنت، یکی از نویسندگان اسچکتر در برخی تحقیقات تیم های هوش مصنوعی است. او فکر میکند مطالعه نحوه کار ماشینها و انسانها با هم مهمتر خواهد بود، زیرا هوش مصنوعی به طور کامل توسعه مییابد.
درک محدودیت ها
واتسون گفت: “من فکر می کنم ما برنامه های جدید زیادی برای هوش مصنوعی خواهیم داشت و باید بدانیم چه زمانی خوب کار می کند. ما میتوانیم از موقعیتهایی که برای انسانها خطر ایجاد میکند یا جایی که توجیه یک تصمیم دشوار میشود اجتناب کنیم، زیرا نمیدانیم چگونه یک سیستم هوش مصنوعی آن را در جایی که یک جعبه سیاه است پیشنهاد کرده است. ما باید محدودیت های آن را درک کنیم.”
درک زمانی که سیستمها و رباتهای هوش مصنوعی به خوبی کار میکنند، اسچکتر را وادار کرده است تا آنچه را که در مورد تیمهای انسانی میداند و آن را در پویایی تیم انسان-ربات به کار گیرد.
اسچکتر گفت:”تحقیقات من کمتر به طراحی و عناصر نحوه کار ربات می پردازد. این بیشتر جنبه روانشناختی آن است.چه زمانی احتمال دارد به چیزی اعتماد کنیم؟ مکانیسم هایی که اعتماد را القا می کنند چیست؟ چگونه آنها را وادار به همکاری کنیم؟ اگر ربات خراب شود، می توانید آن را ببخشید؟”
اسچکتر برای اولین بار اطلاعاتی را در مورد اینکه چه زمانی افراد بیشتر به توصیه ربات ها عمل می کنند جمع آوری کرد. سپس، در مجموعهای از پروژههایی که توسط دفتر تحقیقات ارتش تأمین میشد، او چگونگی دریافت توصیههای انسانها از ماشینها را تجزیه و تحلیل کرد و آن را با توصیههای دیگران مقایسه کرد.
تکیه بر الگوریتم ها
در یک پروژه، تیم اسچکتر به آزمودنیها، یک کار برنامهریزی ارائه کرد، مانند ترسیم کوتاهترین مسیر بین دو نقطه روی نقشه. او دریافت که مردم بیشتر به توصیه های یک الگوریتم اعتماد می کنند تا یک انسان دیگر. همچنین، تیم او شواهدی پیدا کرد که نشان میدهد انسانها ممکن است برای کارهای دیگر، مانند تداعی کلمات یا بارش فکری، به الگوریتمها تکیه کنند.
او گفت: “ما در حال بررسی راههایی هستیم که یک الگوریتم یا هوش مصنوعی میتواند بر تصمیمگیری انسان تأثیر بگذارد. ما در حال آزمایش دسته ای از انواع مختلف وظایف هستیم و متوجه می شویم که چه زمانی افراد بیشتر به الگوریتم ها متکی هستند. … ما چیز خیلی شگفت انگیزی پیدا نکردیم. وقتی مردم کار تحلیلی تری انجام می دهند، بیشتر به کامپیوتر اعتماد می کنند. جالب است که این الگو ممکن است به سایر فعالیتها نیز گسترش یابد.”
در یک مطالعه متفاوت که بر نحوه تعامل رباتها و انسانها متمرکز بود، تیم اسچکتر بیش از 300 سوژه را به ویرو معرفی کرد ؛ یک دستیار تقلبی هوش مصنوعی که شکل یک فنر انساننما را داشت.
در طول آزمایشات روی ZOOM، تیمهای سه نفره وظایف تیمسازی مانند یافتن حداکثر تعداد استفاده از گیره کاغذ یا فهرست کردن موارد مورد نیاز برای بقا در یک جزیره بیابانی را انجام دادند. سپس ویرو(VERO) ظاهر شد.
به دنبال یک همکاری خوب
اسچکتر گفت: “این آواتار است که بالا و پایین شناور است ، سیم پیچ هایی شبیه فنر داشت و زمانی که می خواست صحبت کند منقبض می شد.” می گوید: سلام، نام من ویرو است. من می توانم در موارد مختلف به شما کمک کنم. من قابلیت پردازش صدای طبیعی دارم.”
اما این یک دستیار تحقیقاتی با تعدیل کننده صدا بود(متوازن کردن صدا) که ویرو را اداره می کرد. گاهی اوقات ویرو پیشنهادهای مفیدی ارائه میکرد ؛ مانند کاربردهای مختلف برای گیره کاغذ. مواقع دیگر، به عنوان ناظم بازی می کرد، با “کارتون خوب بود، بچه ها!” هم تیمی های خوددارتر را تشویق می کرد تا ایده هایشان را ارائه دهند.
اسچکتر گفت: “مردم واقعاً از آن شرایط متنفر بودند.” و اشاره کرد که کمتر از 10٪ از شرکت کنندگان گرفتار این نیرنگ شدند. آنها او را “ویرو احمق”صدا می زدند و با او خیلی بد رفتار می کردند.
هدف اسچکتر فقط عذاب دادن سوژه ها نبود. او گفت، محققان هر مکالمه، حالت چهره، ژست و پاسخ نظرسنجی را در مورد این تجربه ضبط کردند تا به دنبال “الگوهایی باشند که به ما میگویند چگونه یک همکاری خوب ایجاد کنیم.”
مقاله اولیه در مورد تیمهای انسانی و هوش مصنوعی در ماه آوریل در گزارش های علمی طبیعت منتشر شد، اما اسچکتر چندین مقاله دیگر را در دست بررسی برای سال آینده دارد.
مرجع: «انسان ها بیشتر به الگوریتمها متکی هستند تا تأثیر اجتماعی چون یک کار دشوارتر میشود»
توسط اریک بوگرت، آرون شکتر و ریچارد تی واتسون، 13 آوریل 2021، گزارشهای علمی.
[1]:دانشگاه جورجیا (به انگلیسی: University of Georgia) یکی از دانشگاههای ایالات متحده آمریکا، بوده و در ایالت جورجیا واقع است. این دانشگاه طبق آمار سال ۲۰۱۷[۱] رتبه دهم دانشگاههای دولتی ایالات متحده آمریکا را داراست.
