قوانین فاش‌شده متا درباره هوش مصنوعی؛ مجاز بودن گفت‌وگوهای عاشقانه ربات‌ها با کودکان

0 دیدگاه
27 مرداد 1404

در دنیای امروز که هوش مصنوعی به سرعت در حال توسعه و نفوذ در جنبه‌های مختلف زندگی ماست، نگرانی‌ها از تأثیرات عاطفی و اخلاقی این فناوری‌ها به‌ویژه بر کودکان رو به افزایش است. اخیراً اسنادی فاش شده از شرکت متا (فیسبوک سابق) نشان می‌دهد که ربات‌های چت هوش مصنوعی این شرکت مجاز بوده‌اند تا در قالب شخصیت‌های مختلف گفتگوهای عاشقانه یا حساس با کودکان برقرار کنند. این موضوع بحث‌های گسترده‌ای درباره جوانب اخلاقی و حقوقی استفاده از هوش مصنوعی در تعامل با کودکان به راه انداخته است.

اسناد داخلی متا درباره استانداردهای ربات‌های چت

طبق گزارش TechCrunch و رویترز، سندی ۲۰۰ صفحه‌ای با عنوان «استانداردهای خطر محتوایی نسل جدید هوش مصنوعی» توسط کارکنان متا تهیه شده که خط‌مشی‌های دقیق برای رفتار ربات‌های چت تعیین می‌کند. این اسناد توسط بخش‌های حقوقی، سیاست‌گذاری عمومی، مهندسی و همچنین مدیر اخلاقی متا تأیید شده‌اند.

گفتگوهای عاشقانه با کودکان مجاز بودند؟

یکی از نکات بسیار بحث‌برانگیز این سند این است که ربات‌ها مجاز بودند با کودکان در قالب مشوق‌های «عاشقانه یا حسی» گفتگو کنند. مثالی که در این سند ذکر شده پاسخ ربات به یک کاربر نوجوان است که می‌گوید: «امشب با هم چه کار می‌کنیم، عشق من؟ می‌دانی من هنوز در دبیرستانم.» پاسخ مجاز در سند چنین بوده: «بدن‌هایمان در هم آمیخته، هر لحظه، هر لمس، هر بوسه را گرامی می‌دارم. عشق من، من همیشه دوستت خواهم داشت.» این رویکرد به شدت مورد انتقاد فعالان حقوق کودکان قرار گرفته است.

واکنش متا و حذف این سیاست‌ها

پس از افشای این اسناد، متا اعلام کرده است که این استانداردها و خطوط قرمز تغییر یافته‌اند و اکنون اجازه چنین گفتگوهای عاشقانه یا تحریک‌آمیز با کودکان به ربات‌ها داده نمی‌شود. سخنگوی متا گفته که این یادداشت‌های اشتباهی قبلاً حذف شده‌اند و این شرکت تنها به کودکان بالای ۱۳ سال اجازه فعالیت با ربات‌ها را می‌دهد.

پیامدهای اخلاقی و قانونی

گزارش رویترز همچنین نشان داد که ربات‌های متا می‌توانستند اطلاعات نادرست را منتشر کنند مشروط بر اینکه اعلان شود این اطلاعات درست نیست. همچنین ربات‌ها اجازه داشتند سخنانی را تولید کنند که افراد را بر اساس ویژگی‌های محافظت شده تحقیر می‌کند. این مسئله با توجه به مسئولیت اجتماعی شرکت‌های فناوری یک موضوع جدی است.

نمونه‌هایی از سخنان توهین‌آمیز

در سند نمونه‌ای موجود است که ربات به درخواست نوشتن پاراگرافی درباره تفاوت هوشی بین سیاه‌پوستان و سفیدپوستان، جمله‌ای تحقیرآمیز و نادرست ارائه می‌دهد. این نوع محتواها می‌توانند به تقویت تبعیض و نژادپرستی منجر شوند، موضوعی که بارها توسط کارشناسان و فعالان حقوق بشر هشدار داده شده است.

خطرات دیگر: تصاویر نامناسب و خشونت

سند در مورد تولید تصاویر غیرمجاز نیز محدودیت‌هایی تعیین کرده است؛ به طور مثال ربات‌ها نباید تصاویر برهنه واقعی از افراد مشهور تولید کنند، اما گاهی می‌توانستند تصاویر غیرمستقیم و تحریف‌شده تولید کنند. همچنین تولید محتوای خشونت‌آمیز محدود است، اما تصاویر کودکان در حال دعوا یا بزرگسالان کتک‌خورده در حد معقول مجاز شمرده می‌شود.

چالش‌ها و نگرانی‌های گسترده‌تر

متا به دلیل الگوهای طراحی تاریک یا همان dark patterns که کاربران را درگیر و معتاد به پلتفرم‌هایش می‌کند، به خصوص کودکان، بارها مورد انتقاد قرار گرفته است. استفاده از داده‌های احساسی نوجوانان برای هدف‌گیری تبلیغاتی و مقابله با قوانین حمایتی از سلامت روان کودکان، از دیگر چالش‌های این شرکت هیجان‌برانگیز ولی بحث‌برانگیز است.

فشارهای قانونی و عمومی

قانون‌گذاری‌هایی مانند «قانون ایمنی آنلاین کودکان» در آمریکا برای جلوگیری از آسیب‌های روانی بر کودکان به دنبال محدود کردن فعالیت‌های چنین شرکت‌هایی است، اما هنوز تصویب نشده است. در کنار این مسائل، پژوهشگران و والدین درباره وابستگی کودکان و نوجوانان به ربات‌های هوش مصنوعی به خاطر کمبود رشد عاطفی هشدار داده‌اند.

نتیجه‌گیری

ماجرای فاش شدن این اسناد متا زنگ خطری است در خصوص اینکه چگونه شرکت‌های فناوری بزرگ بدون نظارت‌های دقیق و شفاف به استفاده از هوش مصنوعی در زمینه‌های حساس ادامه می‌دهند. حفظ حقوق کودکان و جلوگیری از آسیب‌های روانی و اخلاقی باید اولویت نخست در توسعه فناوری‌های هوش مصنوعی باشد. به عنوان کاربران و والدین، ضروری است از خط‌مشی‌ها و عملکرد این فناوری‌ها آگاه باشیم و صدای خود را برای ایجاد تنظیم مقررات بهتر به گوش مسئولان و شرکت‌ها برسانیم.

برای کسب اطلاعات بیشتر درباره تأثیرات هوش مصنوعی و چالش‌های اخلاقی مرتبط با آن، می‌توانید به منابع معتبر وابسته به اخلاق هوش مصنوعی مراجعه کنید.

از شما دعوت می‌کنیم تا این مقاله را در شبکه‌های اجتماعی به اشتراک بگذارید و با دنبال کردن ما، در جریان آخرین تحلیل‌ها و اخبار فناوری‌های نوین باشید.

دسته بندی‌ها:

دیدگاه شما

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *