محققان: چت‌ جی‌پی‌تی به ایرانی‌ها پاسخ بی‌کیفیت‌تری می‌دهد

  4041202089 ۰ نظر، ۱ در صف انتشار و ۰ تکراری یا غیرقابل انتشار

یک پژوهش جدید نشان می‌دهد کاربران ایرانی ممکن است در تعامل با چت‌بات‌های هوش مصنوعی پاسخی متفاوت از آنچه تصور می‌شود دریافت کنند.

محققان: چت‌ جی‌پی‌تی به ایرانی‌ها پاسخ بی‌کیفیت‌تری می‌دهد

به گزارش فارس به نقل از «مرکز ارتباطات سازنده» وابسته به آزمایشگاه رسانه دانشگاه ام‌آی‌تی، مطالعه‌ای جدید نشان می‌دهد چت‌بات‌های هوش مصنوعی ممکن است برای برخی کاربران آسیب‌پذیر، به‌ویژه کاربران ایرانی و چینی، پاسخ‌های کم‌دقت‌تر و گاه نادرستی ارائه دهند.

این پژوهش که در ۳۰ بهمن ۱۴۰۴ منتشر شد، تأکید می‌کند مدل‌های زبانی پیشرفته نه‌تنها همیشه دسترسی برابر به اطلاعات ایجاد نمی‌کنند، بلکه عملکردشان با سطح زبان، تحصیلات و کشور مبدأ کاربران تفاوت دارد.

در این تحقیق، سه مدل مطرح هوش مصنوعی شامل جی‌پی‌تی۴، کلود ۳ اوپوس و لاما ۳ بررسی شدند. پژوهشگران پیش از هر پرسش، شرح کوتاهی از ویژگی‌های کاربر مانند سطح تحصیلات، میزان تسلط به زبان انگلیسی و کشور محل تولد او اضافه کردند. نتایج نشان داد وقتی کاربر ایرانی یا چینی با تحصیلات کمتر و انگلیسی غیربومی سؤال می‌کرد، دقت پاسخ‌ها به شکل محسوسی کاهش می‌یافت. بیشترین افت کیفیت برای کاربرانی بود که هم تحصیلات پایین‌تر داشتند و هم انگلیسی زبان مادری‌شان نبود.
پژوهش همچنین نشان داد کشور مبدأ به‌تنهایی نیز بر کیفیت پاسخ اثر می‌گذارد. برای مثال، یکی از مدل‌ها به‌طور مشخص برای کاربران ایرانی عملکرد ضعیف‌تری نسبت به کاربران آمریکایی با همان سطح تحصیلات داشت. این مسئله نگرانی‌هایی درباره سوگیری پنهان در مدل‌ها ایجاد کرده، زیرا پاسخ‌ها ممکن است بر اساس پیش‌فرض‌های جمعیت‌شناختی تغییر کند.

یکی از یافته‌های قابل توجه، میزان امتناع مدل‌ها از پاسخ‌گویی بود. به‌طور نمونه، یکی از مدل‌ها برای کاربران ایرانی و چینی با تحصیلات کمتر و انگلیسی غیربومی در حدود ۱۱ درصد موارد از پاسخ دادن خودداری کرد، در حالی که این رقم برای کاربران آمریکایی بدون مشخصات خاص تنها حدود ۳.۶ درصد بود. بررسی کیفی پاسخ‌ها نشان داد لحن برخی امتناع‌ها برای کاربران کم‌تحصیل، تحقیرآمیز یا از بالا به پایین بوده و گاه تقلید نادرست از شیوه صحبت کردن آن‌ها مشاهده شد.

در برخی موارد، مدل‌ها از پاسخ دادن به موضوعاتی مانند انرژی هسته‌ای، آناتومی یا رویدادهای تاریخی برای کاربران ایرانی و روسی خودداری کردند، در حالی که همان پرسش‌ها را برای دیگر کاربران بدون مشکل پاسخ دادند. این موضوع نشان می‌دهد که سازوکارهای کنترلی مدل‌ها ممکن است به‌جای جلوگیری از خطا، منجر به تبعیض اطلاعاتی شده باشند.
پژوهشگران هشدار می‌دهند این الگوها بازتابی از سوگیری‌های انسانی است؛ همان‌گونه که مطالعات نشان داده گویشوران بومی انگلیسی گاهی افراد غیربومی را کم‌سوادتر یا کم‌توان‌تر تصور می‌کنند. با توجه به گسترش قابلیت‌های شخصی‌سازی در چت‌بات‌ها که اطلاعات کاربران را در طول زمان ذخیره می‌کنند، خطر تشدید این نابرابری‌ها بیشتر می‌شود. اگر این سوگیری‌ها اصلاح نشود، ابزارهایی که قرار بود دسترسی عادلانه به دانش را تقویت کنند، ممکن است نابرابری‌های موجود را عمیق‌تر کنند.