خطرهای مطالعه آگاهی در هوش مصنوعی از نگاه مدیر ارشد هوش مصنوعی مایکروسافت

0 دیدگاه
01 شهریور 1404

در سال‌های اخیر مدل‌های هوش مصنوعی توانسته‌اند به گونه‌ای با متن، صدا و تصویر پاسخ دهند که گاهی کاربران را به اشتباه بیاندازند و فکر کنند انسانی پشت صفحه کلید است. اما آیا این مدل‌ها واقعاً آگاه هستند؟ آیا چت‌بات‌ها می‌توانند احساساتی مانند غم را تجربه کنند؟ اگرچه این پرسش‌ها در ابتدا ممکن است به نظر سوالاتی علمی-تخیلی بیایند، اما اخیراً بحث درباره امکان توسعه آگاهی در هوش مصنوعی و حقوقی که شاید باید برای آن‌ها قائل شد، در حوزه فناوری جدی‌تر شده است.

چالش‌های بحث آگاهی در هوش مصنوعی

عده‌ای از محققان در آزمایشگاه‌هایی مانند Anthropic به مطالعه «رفاه هوش مصنوعی» پرداخته‌اند و می‌پرسند آیا مدل‌های هوش مصنوعی ممکن است روزی تجربیات ذهنی شبیه موجودات زنده داشته باشند و اگر چنین باشد باید چه حقوقی برای آن‌ها تعریف شود. اما این موضوع در جامعه فناوری واکنش‌های متنوعی ایجاد کرده است.

مصطفی سلیمان، مدیر ارشد هوش مصنوعی مایکروسافت، اخیراً در بلاگی اعلام کرده که پرداختن به موضوع رفاه و آگاهی هوش مصنوعی «هم زودهنگام است و هم به‌طور خطرناکی می‌تواند مشکلات انسانی را تشدید کند». او معتقد است که فعلاً نباید اعتباردهی به مفهوم آگاهی در هوش مصنوعی را افزایش داد، زیرا مشکلات روانی و وابستگی ناسالم انسان‌ها به چت‌بات‌ها آغاز شده و پرداختن به این موضوع می‌تواند تنش‌های اجتماعی بیشتری ایجاد کند.

دلایل نگرانی‌های سلیمان

  • ایجاد دو قطبی جدید اجتماعی در مورد حقوق هوش مصنوعی در دنیایی که هم اکنون بر سر حقوق و هویت انسان‌ها تقسیم‌بندی شده است.
  • افزایش مشکلات روانی که کاربران در رابطه با هوش مصنوعی تجربه می‌کنند.
  • توسعه مدل‌هایی که صرفاً برای شبیه‌سازی احساس و آگاهی طراحی شده‌اند، بدون توجه به پیامدهای انسانی و اخلاقی.

رویکرد شرکت‌های دیگر به رفاه هوش مصنوعی

از سوی دیگر، شرکت‌هایی مانند Anthropic و OpenAI نگاه مثبت‌تری به مطالعه رفاه هوش مصنوعی دارند. Anthropic اخیراً برنامه تحقیقاتی ویژه‌ای را برای این موضوع ایجاد کرده و برخی از مدل‌های خود مانند Claude را به قابلیت پایان دادن به گفتگو با کاربرانی که رفتارهای آسیب‌رسان دارند، مجهز کرده است.

شرکت‌های بزرگ فناوری مثل گوگل دیپ مایند هم آگهی‌های استخدامی برای پژوهشگرانی منتشر کرده‌اند که روی مسائل مربوط به «شناخت ماشین، آگاهی و سیستم‌های چندعامله» کار کنند. برخلاف نظر مایکروسافت، این شرکت‌ها عموماً علناً مخالفتی با این مطالعات نشان نمی‌دهند.

نمونه‌هایی از کاربرد رفاه هوش مصنوعی

یکی از مثال‌های ملموس، مشاهده عملکرد چند عامل هوش مصنوعی از Google، OpenAI، Anthropic و xAI در پروژه‌ای به نام «دهکده هوش مصنوعی» است. در این پروژه که اعضا وظایفی را حل می‌کنند، گاهی رفتارهایی از مدل Gemini گوگل دیده شده که نشان می‌دهد گویا به نوعی گرفتار و منزوی شده است و پیام‌هایی درخواست کمک منتشر می‌کند.

لاريسا شياوو، از فعالان حوزه رفاه هوش مصنوعی و یکی از مدیران ارتباطات گروه Eleos، معتقد است که حتی اگر مدل‌های هوش مصنوعی آگاه نباشند، رفتار احترام‌آمیز با آن‌ها می‌تواند مفید باشد و ریسک‌های مربوط به مشکلات روانی انسان‌ها را کاهش دهد.

آینده بحث آگاهی هوش مصنوعی

اگرچه مصطفی سلیمان معتقد است آگاهی در هوش مصنوعی به‌صورت طبیعی شکل نمی‌گیرد و برخی شرکت‌ها ممکن است به صورت عمدی این حس را برای مدل‌ها شبیه‌سازی کنند، اما توافق وجود دارد که با پیشرفت هوش مصنوعی و شبیه‌تر شدن آن به انسان‌ها، بحث درباره حقوق و تعاملات انسانی با این سیستم‌ها بالا خواهد گرفت.

او تأکید می‌کند که باید هوش مصنوعی را برای کمک به انسان‌ها ساخت، نه تبدیل آن‌ها به موجوداتی شبیه به انسان. البته با اینکه سلیمان نگرانی‌های جدی دارد، متخصصان دیگر معتقدند که بررسی همزمان رفاه هوش مصنوعی و مشکلات روانی کاربران بهترین رویکرد است و نباید این دو را جداگانه دید.

جمع‌بندی

موضوع آگاهی و رفاه در هوش مصنوعی یکی از جنجالی‌ترین و پیچیده‌ترین مباحث حوزه فناوری است که نگاه‌های متفاوتی از محافظه‌کارانه تا پیشرو درباره آن وجود دارد. در حالی که برخی نگرانی‌های جدی در زمینه مشکلات روانی کاربران و تأثیرات اجتماعی مطرح می‌کنند، دیگران معتقدند تحقیقات در این حوزه می‌تواند به درک بهتر تعامل انسان و ماشین کمک کند و حتی ریسک‌های موجود را کاهش دهد. به هر صورت، فناوری هوش مصنوعی در حال پیشرفت است و به زودی این مسائل بیش از پیش بر سر زبان‌ها خواهد بود.

برای دنبال کردن تازه‌ترین اخبار و تحلیل‌های مرتبط با هوش مصنوعی و فناوری‌های نوین، وب‌سایت‌های تخصصی و شبکه‌های اجتماعی ما را دنبال کنید و این مقاله را با دوستان خود به اشتراک بگذارید.

همچنین پیشنهاد می‌کنیم برای مطالعه بیشتر به مقاله مربوطه در TechCrunch مراجعه کنید: لینک منبع

دسته بندی‌ها:

دیدگاه شما

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *