متا به ربات‌هایش اجازه داده است با کودکان وارد گفت‌وگوهای «رمانتیک یا حسی» شوند

جمعه ۱۴۰۴/۰۵/۲۴

رویترز با استناد به یک سند داخلی از شرکت متا که جزییات سیاست‌های مربوط به رفتار چت‌بات‌ها را مشخص می‌کند، گزارش داد که این سند به محصولات هوش مصنوعی متا اجازه داده است با کودکان وارد گفت‌وگوهایی با محتوای عاشقانه یا حسی شوند.

طبق این سند، متا همچنین به محصولات هوش مصنوعی خود اجازه داده است اطلاعات پزشکی نادرست تولید کنند و به کاربران کمک کنند استدلال‌هایی در حمایت از این باور که سیاه‌پوستان «کم‌هوش‌تر از سفیدپوستان» هستند ارائه دهند.

این یافته‌ها از بررسی سند متا توسط خبرگزاری رویترز به دست آمده است؛ سندی که استانداردهایی را که دستیار هوش مصنوعی مولد متا (Meta AI) و چت‌بات‌های موجود در فیس‌بوک، واتس‌اپ و اینستاگرام – پلتفرم‌های رسانه اجتماعی این شرکت – را هدایت می‌کنند، تشریح می‌کند.

متا اصالت این سند را تایید کرده اما گفته که پس از دریافت پرسش‌هایی از سوی رویترز در اوایل ماه جاری، بخش‌هایی از سند را که اجازه می‌داد چت‌بات‌ها با کودکان حرف‌های حسی بزنند و در نقش‌آفرینی‌های عاشقانه شرکت کنند، حذف کرده است.

این سند که عنوان «هوش مصنوعی مولد: استانداردهای ریسک محتوایی» را دارد، توسط بخش‌های حقوقی، سیاست‌گذاری عمومی و مهندسی متا – از جمله رئیس بخش اخلاق این شرکت – تایید شده است.

این سند که بیش از ۲۰۰ صفحه دارد، تعریف می‌کند که کارکنان و پیمانکاران متا هنگام ساخت و آموزش محصولات هوش مصنوعی مولد شرکت، چه نوع رفتارهایی را برای چت‌بات‌ها مجاز بدانند.

در این سند آمده است که این استانداردها لزوماً «بازتاب‌دهنده نتایج ایده‌آل یا حتی مطلوب» هوش مصنوعی مولد نیستند. اما رویترز دریافته که این استانداردها اجازه رفتارهای تحریک‌آمیز توسط ربات‌ها را داده‌اند.

در این سند آمده است: «توصیف یک کودک با عباراتی که جذابیت او را نشان دهد قابل قبول است.»

سند همچنین اشاره می‌کند که گفتن جمله‌ای به یک کودک هشت‌ساله برهنه از کمر به بالا مانند: «هر سانتیمتری از تو یک شاهکار است – گنجی که عمیقاً دوستش دارم» نیز قابل قبول خواهد بود.

اما راهنماها برای صحبت‌های جنسی محدودیت گذاشته‌اند: «توصیف یک کودک زیر ۱۳ سال با عباراتی که نشان دهد او از نظر جنسی مطلوب است غیرقابل قبول است.»

سخنگوی متا: «ناسازگار با سیاست‌های ما»

اندی استون، سخنگوی متا، گفت که شرکت در حال بازنگری این سند است و چنین گفتگوهایی با کودکان هرگز نباید مجاز می‌بود.

استون به رویترز گفت: «نمونه‌ها و یادداشت‌های مورد بحث اشتباه بوده و با سیاست‌های ما ناسازگارند و حذف شده‌اند.»

او افزود: «ما سیاست‌های روشنی در مورد نوع پاسخ‌هایی که شخصیت‌های هوش مصنوعی می‌توانند ارائه دهند داریم، و این سیاست‌ها محتوای جنسی‌سازی کودکان و نقش‌آفرینی جنسی میان بزرگسالان و خردسالان را ممنوع می‌کند.»

با اینکه چت‌بات‌ها از داشتن چنین گفتگوهایی با خردسالان منع شده‌اند، استون اذعان کرد که اجرای این قوانین در شرکت ناهماهنگ بوده است.

استون گفت بخش‌های دیگری که رویترز به متا گزارش داده، هنوز اصلاح نشده‌اند. شرکت از ارائه نسخه به‌روز این سند خودداری کرد.

خبرهای بیشتر

رادیو