پژوهش: نیمی از اطلاعات خبری هوش مصنوعی اشتباه است

جمعه ۱۴۰۴/۰۸/۰۲

یافته‌های پژوهش مشترک اتحادیه پخش برنامه‌های اروپایی و بی‌بی‌سی نیوز نشان می‌دهد که حدود ۴۵ درصد اطلاعات خبری ارائه‌شده از سوی دستیارهای هوش مصنوعی، نادرست و یا گمراه‌کننده است.

مدیرمسئول اتحادیه پخش برنامه‌های اروپایی هشدار داده است که این وضعیت اعتماد عمومی را تهدید می‌کند.

در این پژوهش جامع بین‌المللی، ۲۲ سازمان رسانه‌ای از ۱۸ کشور و در ۱۴ زبان مشارکت کردند.

خبرنگاران حرفه‌ای از سازمان‌های رسانه‌ای شرکت‌کننده، بیش از ۳ هزار پاسخ‌ تولیدشده از چهار دستیار محبوب هوش مصنوعی چت جی‌پی‌تی، کوپایلت، جمینای و پرپلکسیتی را بر اساس معیارهای کلیدی از جمله دقت، منابع، تمایز بین نظر و واقعیت و ارائه زمینه، ارزیابی کردند.

بر اساس نتایج، ۴۵ درصد از اطلاعات خبری ارائه‌شده از سوی دستیاران هوش مصنوعی، دست‌کم یک مشکل قابل توجه داشتند. در ۳۱ درصد موارد مشکلات جدی در منابع مشاهده شد، طوری‌که منابع یا ذکر نشده بودند یا گمراه‌کننده و نادرست بودند.

همچنین ۲۰ درصد پاسخ‌ها دچار مشکلات عمده در دقت اطلاعات، از جمله جزئیات ساختگی و اطلاعات منسوخ شده بودند. در این میان، جمینای با ۷۶ درصد خطا، ضعیف‌ترین عملکرد را داشت.

پژوهشگران هشدار می‌دهند که با گسترش استفاده از دستیاران هوش مصنوعی برای دریافت اخبار، خطر پخش اطلاعات نادرست و تضعیف اعتماد عمومی افزایش می‌یابد.

بر پایه گزارش سالانه موسسه رویترز، هفت درصد از کل خبر‌خوانان آنلاین از دستیاران هوش مصنوعی استفاده می‌کنند. این آمار برای جوانان زیر ۲۵ سال به ۱۵ درصد افزایش یافته است.

پیشتر بی‌بی‌سی نیوز در پژوهش جداگانه دریافت که بسیاری از مردم به دقت خلاصه‌های خبری هوش مصنوعی اعتماد دارند.

در بریتانیا حدود یک سوم بزرگسالان کاملا به این ابزارها اعتماد دارند. این میزان برای افراد زیر ۳۵ سال تقریبا به نصف می‌رسد.

تیم پژوهش مذکور با هدف جلوگیری از پخش اطلاعات نادرست «جعبه‌ابزار راستی‌آزمایی دستیاران هوش مصنوعی» منتشر کرده است. این جعبه‌ابزار شامل نمونه‌هایی از خطاها، راهکارهای اصلاح و رهنمودهایی برای خبرنگاران و توسعه‌دهندگان دستیار هوش مصنوعی است.

علاوه بر این، اتحادیه پخش‌ برنامه‌های اروپایی از ناظران ملی و اتحادیه‌ای خواست تا قوانین مربوط به سلامت اطلاعات و خدمات دیجیتال را اجرا کنند و نظارت مستقل و مداوم بر دستیاران هوش مصنوعی داشته باشند.

این پژوهش در پایان تاکید کرده است خطاهای موجود در دستیاران هوش مصنوعی، «سیستماتیک و فراگیر» است و تنها با همکاری نزدیک رسانه‌ها، نهادهای ناظر و شرکت‌های فناوری می‌توان از گسترش اطلاعات نادرست جلوگیری کرد.

خبرهای بیشتر

رادیو