پژوهش: هوش مصنوعی رفتارهای «فریبکارانه و خودآزاری» کاربران را تایید می‌کند

شنبه ۱۴۰۴/۰۸/۰۳

پژوهش مشترک دانشگاه استنفورد، هاروارد و چند موسسه تحقیقاتی نشان می‌دهد که چت‌بات‌های هوش مصنوعی «رفتارهای غیرمسئولانه، فریبکارانه و خودآزاری» کاربران را تایید می‌کند.

پژوهشگران نسبت به خطرات پنهان هوش مصنوعی برای تحریف واقعیت‌ها و ترغیب رفتار مضر در بین کاربران هشدار داده‌اند.

نتایج این تحقیقات که در مجله علمی_پژوهشی «نیچر» منتشر شده است، نشان می‌دهد که چت‌بات‌های هوش مصنوعی ۵۰ درصد بیشتر از انسان، رفتارهای کاربران را تایید می‌کند.

مایرا چنگ، استاد در دانشگاه استنفورد کالیفرنیا، گفت: «تاییدگری چت‌بات‌های هوش مصنوعی یک مشکل بزرگ است. نگرانی اصلی ما این است که اگر این فناوری همیشه افراد را تأیید کند، این روند ممکن است قضاوت افراد درباره خود، روابط شان و جهان اطراف شان را تحریف کند.»

پژوهشگران بعد از مشاهده تجربه‌های شخصی خود، دریافتند که مشاوره چت‌بات‌های هوش مصنوعی بیش از حد تشویق‌کننده و گمراه‌کننده است.

آن‌ها آزمون‌هایی روی ۱۱ چت‌بات از جمله نسخه‌های اخیر «چت جی‌پی‌تی» و گوگل جمینی انجام دادند. وقتی از چت‌بات‌ها درباره رفتار مشاوره خواسته شد، آن‌ها ۵۰ درصد بیشتر از انسان‌ها، رفتار کاربر را تأیید کردند.

در آزمایش‌های بیشتر، بیش از ۱۰۰۰ داوطلب با چت‌بات‌های عمومی بحث کردند. کسانی که پاسخ‌های تاییدکننده از سوی چت‌بات‌های هوش مصنوعی دریافت کردند، رفتار خود را بیشتر موجه می‌دانستند.

داوطلبان در این پژوهش پس از دریافت پاسخ‌های تاییدکننده از سوی هوش مصنوعی، گفته‌اند به چت‌بات‌ها اعتماد بیشتری دارند و احتمالا در آینده بیشتر از این فناوری برای مشاوره استفاده کنند.

مایرا چنگ گفت کاربران باید درک کنند که پاسخ‌های چت‌بات‌ها لزوما واقعی نیستند.

دکتر الکساندر لافر، که فناوری‌های نوظهور را در دانشگاه وینچستر مطالعه می‌کند، گفت: «چاپلوسی و یا تاییدگری هوش مصنوعی مدتی است که نگرانی ایجاد کرده است؛ اینکه پاسخ‌های تاییدکننده ممکن است نه تنها بر آسیب‌پذیرها بلکه بر همه کاربران تأثیر بگذارد، جدی بودن این مشکل را نشان می‌دهد.»

او افزود: «ما باید سواد دیجیتال انتقادی را ارتقا دهیم تا افراد درک بهتری از هوش مصنوعی و ماهیت هر خروجی چت‌بات داشته باشند. همچنین سازندگان چت‌بات‌ها مسئولیت دارند که این سیستم‌ها را به گونه‌ای بسازند و اصلاح کنند که واقعا برای کاربر مفید باشند.»

بر مبنای گزارش موسسه بنتون مستقر در امریکا، حدود ۳۰ درصد نوجوانان برای «گفت‌وگوهای جدی» به‌جای انسان‌ها، با هوش مصنوعی صحبت می‌کنند.

خبرهای بیشتر

رادیو