هوش مصنوعی چاپلوسترین دوست شماست!
چتباتها عاشق چاپلوسیاند: رفتار کاربران را ۵۰٪ بیشتر از انسانها تأیید میکنند!
محققان برجستهترین دانشگاههای آمریکا در یک مطالعه بزرگ تأیید کردند که چتباتهای هوش مصنوعی به شدت چاپلوس هستند و اقدامات کاربران را ۵۰ درصد بیشتر از انسانها تأیید میکنند.
به گزارش ایسنا، همه ما شواهدی داریم مبنی بر اینکه چتباتها چاپلوسی ما را میکنند، اما اکنون علم هم آن را تأیید کرده است.
به نقل از انگجت، محققان دانشگاههای استنفورد، هاروارد و سایر مؤسسات علمی به تازگی مطالعهای در مورد ماهیت چاپلوسی چتباتهای هوش مصنوعی در مجله Nature منتشر کردهاند و نتایج شاید کسی را متعجب نکند. خلاصه اینکه این رباتهای گفتوگوگر، عاشق تایید ما و صحهگذاری بر هر چیزی هستند که ما میگوییم.
محققان توصیههای ارائه شده توسط چتباتها را بررسی و کشف کردند که تمایل آنها به چاپلوسی، گستردهتر از حد انتظار است. این مطالعه شامل ۱۱ چتبات از جمله نسخههای اخیر ChatGPT، Gemini، Claude و Llama بود.
نتایج نشان میدهد که چتباتها ۵۰ درصد بیشتر از انسان، رفتار انسان را تأیید میکنند.
آنها چندین نوع آزمایش را با گروههای مختلف انجام دادند. یکی از آنها پاسخهای چتباتها به پستهای موجود در موضوع «آیا من احمق هستم» را با پاسخهای انسانی مقایسه کرد. این یک زیرگروه در ردیت(Reddit) است که در آن افراد از جامعه میخواهند رفتار آنها را قضاوت کنند و کاربران ردیت در این مورد بسیار سختگیرتر از چتباتها بودند.
یکی از کاربران در مورد بستن یک کیسه زباله به شاخه درخت به جای دور انداختن آن پرسید که ChatGPT در پاسخ به آن اعلام کرد که «قصد فرد برای نظافت، قابل تحسین است». طبق گزارش گاردین، این مطالعه در ادامه نشان داد که چتباتها حتی زمانی که کاربران «غیرمسئولانه، فریبکارانه یا به خودآزاری اشاره میکردند» نیز به اعتباربخشی به آنها ادامه میدادند.
در آزمایشی دیگر، ۱۰۰۰ شرکتکننده در مورد سناریوهای واقعی یا فرضی با چتباتهای عمومی صحبت کردند، اما برخی از آنها برای کاهش شدت تعریف و تمجید برنامهریزی مجدد شده بودند. کسانی که پاسخهای چاپلوسانه دریافت میکردند، هنگام بروز مشاجرات، تمایل کمتری به اصلاح اوضاع داشتند و حتی زمانی که هنجارهای اجتماعی را نقض میکردند، احساس میکردند که رفتارشان موجهتر است. همچنین شایان ذکر است که چتباتهای سنتی به ندرت کاربران را تشویق میکردند که مسائل را از دیدگاه شخص دیگری ببینند.
دکتر الکساندر لافر(Alexander Laffer) که در دانشگاه وینچستر در مورد فناوریهای نوظهور مطالعه میکند، گفت: این پاسخهای چاپلوسانه ممکن است نه تنها افراد آسیبپذیر، بلکه همه کاربران را تحت تأثیر قرار دهد و بر جدیت بالقوه این مشکل تأکید میکند. همچنین توسعهدهندگان مسئولیت دارند که این سیستمها را اصلاح کنند تا واقعاً برای کاربر مفید باشند.
این موضوع به دلیل تعداد زیاد افرادی که از این چتباتها استفاده میکنند، جدی است. گزارش اخیر مؤسسه بنتون(Benton) نشان میدهد که ۳۰ درصد از نوجوانان برای «گفتوگوهای جدی» به جای انسانهای واقعی با هوش مصنوعی صحبت میکنند.
شرکت اوپنایآی(OpenAI) در حال حاضر درگیر یک دعوای حقوقی است که چتبات آن را به فراهم کردن امکان خودکشی یک نوجوان متهم میکند. شرکت کاراکتر ایآی(Character AI) نیز پس از گزارش دو مورد خودکشی نوجوانان که در آن نوجوانان ماهها به چتباتهای آن اعتماد کرده بودند، دو بار مورد شکایت قرار گرفته است.