3 مه 2022 – توسط مت سواین، دانشگاه ایالتی پنسیلوانیا -اعتبار: گلن کارستنز-پیترز/Unsplash
به گفته تیمی از محققان، برچسبهای ظریفی که نشان میدهند سیستمهای توصیه آنلاین چگونه انتخابهای خود را انتخاب میکنند، مانند انتخاب کتاب و فیلم، ممکن است بر اعتماد مردم به آن سیستمها تأثیر بگذارد. آنها همچنین ممکن است زمانی که این توصیهها اشتباه میشوند، به افرادی که باید سرزنش شوند، تذکر دهند.
در یک مطالعه، محققان بررسی کردند که آیا مردم به سه مورد از رایج ترین فیلترها برای ساخت توصیه های فیلم، یعنی فیلترهای محتوا، مشارکتی و جمعیت شناختی اعتماد دارند یا خیر. فیلترینگ مشارکتی که قابل اعتمادترین سیستم بود، توصیه هایی را بر اساس انتخاب های دیگر کاربران با سلیقه های مشابه ارائه می دهد. فیلتر مبتنی بر محتوا توصیههایی را ارائه میکند که مشابه محتوای قبلی انتخاب شده توسط کاربر است، در حالی که فیلتر جمعیتی انتخابهایی را بر اساس اطلاعات جمعیتشناختی ارائه میدهد، مانند سن و جنسیت.
به گفته محققان، که (2 مه) در کنفرانس. نشریه برتر برای تحقیق در مورد تعامل انسان و کامپیوتر ACM در مورد عوامل انسانی در سیستمهای محاسباتی (CHI’22)، یافتههای خود را گزارش کردند، جلب اعتماد کاربران به این سیستمها میتواند به سازمانها کمک کند محتوا و خدمات را به طور مؤثرتری ارائه دهندS..
Shyam Sundar جیمز پی. کالج ارتباطات بلیساریو و یکی از مدیران آزمایشگاه تحقیقاتی تأثیرات رسانه ای در ایالت پن. می گوید آنچه ما دریافتیم این است که وقتی این سیستمها به ما میگویند چرا محتوای خاصی را توصیه میکنند و چگونه به آن توصیه خاص رسیدهاند، این اطلاعات برای ایجاد اعتماد با کاربر مهم است.
ساندار، که همچنین وابسته به مؤسسه علوم محاسباتی و داده ای پن استیت (ICDS) است، گفت: شرکت کنندگان به طور قابل توجهی بیشتر به فیلترینگ مشارکتی اعتماد داشتند، حتی زمانی که بهترین توصیه ها را ارائه نمی داد. “آنها احساس کردند که سیستم در مقایسه با شرکت کنندگانی که به آنها گفته شده بود که سیستم از فیلتر مبتنی بر محتوا استفاده می کند، توصیه های با کیفیت بالاتری ارائه می دهد.” او اضافه کرد که این نشان میدهد که کاربران بیشتر به توصیههای دیگران اهمیت میدهند و تأثیر قدرتمند تأییدهای اجتماعی را برجسته میکند.
در میان دو نوع دیگر سیستم، فیلتر مبتنی بر محتوا بیش از فیلتر جمعیتی توسط شرکت کنندگان در مطالعه مورد اعتماد بود زیرا آنها پیشنهادات فیلم را منعکس کننده هویت شخصی خود می دانستند.
آیا ممکن است کاربران سیستمهای توصیهگر متفاوتی را ترجیح دهند زیرا یک نوع در واقع توصیههای ارجحتری را ارائه میکند؟ به گفته جوزف والتر، یکی از نویسندگان این مطالعه، که مدیر عامل برتلسن و مدیر مرکز فناوری اطلاعات و جامعه در دانشگاه کالیفرنیا، سانتا باربارا است، این امکان وجود دارد، اما نه این بار.
والتر افزود: “ما این را با اطمینان از اینکه فقط به نظر می رسید که یک سیستم توصیه کننده متفاوت در حال کار است، در نظر گرفتیم. توصیه های واقعی تفاوتی نداشتند – فقط منبع ظاهری توصیه ها بود.”
این تیم همچنین دریافت که وقتی یک سیستم مشارکتی یا مبتنی بر محتوا فیلمهای خوب را پیشنهاد میکند، کاربران سیستم معمولاً خود را برای عملکرد خوب خود میدانند. با این حال، زمانی که توصیهها فیلمهای بدی را به همراه داشت، سیستم را به خاطر انتخابهای اشتباه مقصر میدانستند.
منگی لیائو، دانشجوی دکترای ارتباطات جمعی در ایالت پن و اولین نویسنده مقاله، گفت: “ما این تعصب داریم که وقتی توصیه های خوبی دریافت می کنیم، بیشتر فکر می کنیم که این به خاطر ماست.” به هر حال، ما اطلاعات خود را وارد میکنیم، بنابراین به سیستم کمک میکنیم تا انتخابها را انجام دهد. اما، از سوی دیگر، اگر توصیههای بدی به ما بدهد، احتمالاً فکر میکنیم که تقصیر سیستم است.»
با این حال، به گفته لیائو، زمانی که شرکتکنندگان از سیستم فیلترینگ جمعیتی استفاده میکردند، این “سوگیری خودخواهانه” کمتر مشخص بود. او افزود که کاربران انتظارات متفاوتی از سیستم توصیهگر جمعیتی دارند.
“این می تواند به دلیل تمایل انسان به اعتماد به چیزهایی باشد که ما مسئول آنها هستیم، برخلاف چیزهایی که ماشین ها مسئول آن هستند، تا عزت نفس و کنترل خود را حفظ کنیم، که در تعامل انسان و کامپیوتر بسیار مهم است.
محققان گفتند که طراحان و توسعه دهندگان ممکن است بخواهند کاربر را هنگام برچسب گذاری سیستم های توصیه خود در نظر داشته باشند. نشانههای واسط مشارکت کاربر میتواند برای راهاندازی “اکتشافی مالکیت” مفید باشد، که میتواند به اعتبار سیستم بیافزاید.