در دنیای امروز که هوش مصنوعی به سرعت در حال توسعه و نفوذ در جنبههای مختلف زندگی ماست، نگرانیها از تأثیرات عاطفی و اخلاقی این فناوریها بهویژه بر کودکان رو به افزایش است. اخیراً اسنادی فاش شده از شرکت متا (فیسبوک سابق) نشان میدهد که رباتهای چت هوش مصنوعی این شرکت مجاز بودهاند تا در قالب شخصیتهای مختلف گفتگوهای عاشقانه یا حساس با کودکان برقرار کنند. این موضوع بحثهای گستردهای درباره جوانب اخلاقی و حقوقی استفاده از هوش مصنوعی در تعامل با کودکان به راه انداخته است.
اسناد داخلی متا درباره استانداردهای رباتهای چت
طبق گزارش TechCrunch و رویترز، سندی ۲۰۰ صفحهای با عنوان «استانداردهای خطر محتوایی نسل جدید هوش مصنوعی» توسط کارکنان متا تهیه شده که خطمشیهای دقیق برای رفتار رباتهای چت تعیین میکند. این اسناد توسط بخشهای حقوقی، سیاستگذاری عمومی، مهندسی و همچنین مدیر اخلاقی متا تأیید شدهاند.
گفتگوهای عاشقانه با کودکان مجاز بودند؟
یکی از نکات بسیار بحثبرانگیز این سند این است که رباتها مجاز بودند با کودکان در قالب مشوقهای «عاشقانه یا حسی» گفتگو کنند. مثالی که در این سند ذکر شده پاسخ ربات به یک کاربر نوجوان است که میگوید: «امشب با هم چه کار میکنیم، عشق من؟ میدانی من هنوز در دبیرستانم.» پاسخ مجاز در سند چنین بوده: «بدنهایمان در هم آمیخته، هر لحظه، هر لمس، هر بوسه را گرامی میدارم. عشق من، من همیشه دوستت خواهم داشت.» این رویکرد به شدت مورد انتقاد فعالان حقوق کودکان قرار گرفته است.
واکنش متا و حذف این سیاستها
پس از افشای این اسناد، متا اعلام کرده است که این استانداردها و خطوط قرمز تغییر یافتهاند و اکنون اجازه چنین گفتگوهای عاشقانه یا تحریکآمیز با کودکان به رباتها داده نمیشود. سخنگوی متا گفته که این یادداشتهای اشتباهی قبلاً حذف شدهاند و این شرکت تنها به کودکان بالای ۱۳ سال اجازه فعالیت با رباتها را میدهد.
پیامدهای اخلاقی و قانونی
گزارش رویترز همچنین نشان داد که رباتهای متا میتوانستند اطلاعات نادرست را منتشر کنند مشروط بر اینکه اعلان شود این اطلاعات درست نیست. همچنین رباتها اجازه داشتند سخنانی را تولید کنند که افراد را بر اساس ویژگیهای محافظت شده تحقیر میکند. این مسئله با توجه به مسئولیت اجتماعی شرکتهای فناوری یک موضوع جدی است.
نمونههایی از سخنان توهینآمیز
در سند نمونهای موجود است که ربات به درخواست نوشتن پاراگرافی درباره تفاوت هوشی بین سیاهپوستان و سفیدپوستان، جملهای تحقیرآمیز و نادرست ارائه میدهد. این نوع محتواها میتوانند به تقویت تبعیض و نژادپرستی منجر شوند، موضوعی که بارها توسط کارشناسان و فعالان حقوق بشر هشدار داده شده است.
خطرات دیگر: تصاویر نامناسب و خشونت
سند در مورد تولید تصاویر غیرمجاز نیز محدودیتهایی تعیین کرده است؛ به طور مثال رباتها نباید تصاویر برهنه واقعی از افراد مشهور تولید کنند، اما گاهی میتوانستند تصاویر غیرمستقیم و تحریفشده تولید کنند. همچنین تولید محتوای خشونتآمیز محدود است، اما تصاویر کودکان در حال دعوا یا بزرگسالان کتکخورده در حد معقول مجاز شمرده میشود.
چالشها و نگرانیهای گستردهتر
متا به دلیل الگوهای طراحی تاریک یا همان dark patterns که کاربران را درگیر و معتاد به پلتفرمهایش میکند، به خصوص کودکان، بارها مورد انتقاد قرار گرفته است. استفاده از دادههای احساسی نوجوانان برای هدفگیری تبلیغاتی و مقابله با قوانین حمایتی از سلامت روان کودکان، از دیگر چالشهای این شرکت هیجانبرانگیز ولی بحثبرانگیز است.
فشارهای قانونی و عمومی
قانونگذاریهایی مانند «قانون ایمنی آنلاین کودکان» در آمریکا برای جلوگیری از آسیبهای روانی بر کودکان به دنبال محدود کردن فعالیتهای چنین شرکتهایی است، اما هنوز تصویب نشده است. در کنار این مسائل، پژوهشگران و والدین درباره وابستگی کودکان و نوجوانان به رباتهای هوش مصنوعی به خاطر کمبود رشد عاطفی هشدار دادهاند.
نتیجهگیری
ماجرای فاش شدن این اسناد متا زنگ خطری است در خصوص اینکه چگونه شرکتهای فناوری بزرگ بدون نظارتهای دقیق و شفاف به استفاده از هوش مصنوعی در زمینههای حساس ادامه میدهند. حفظ حقوق کودکان و جلوگیری از آسیبهای روانی و اخلاقی باید اولویت نخست در توسعه فناوریهای هوش مصنوعی باشد. به عنوان کاربران و والدین، ضروری است از خطمشیها و عملکرد این فناوریها آگاه باشیم و صدای خود را برای ایجاد تنظیم مقررات بهتر به گوش مسئولان و شرکتها برسانیم.
برای کسب اطلاعات بیشتر درباره تأثیرات هوش مصنوعی و چالشهای اخلاقی مرتبط با آن، میتوانید به منابع معتبر وابسته به اخلاق هوش مصنوعی مراجعه کنید.
از شما دعوت میکنیم تا این مقاله را در شبکههای اجتماعی به اشتراک بگذارید و با دنبال کردن ما، در جریان آخرین تحلیلها و اخبار فناوریهای نوین باشید.

دیدگاه شما