اظهارات اخیر برخی چهرههای سیلیکونولی و احضاریههای اوپنایآی به چند نهاد مدافع ایمنی هوش مصنوعی، تنش میان شرکتها و مخالفان را بالا برده و پرسشهایی درباره شفافیت و نفوذ مالی ایجاد کرده است.
در روزهای گذشته، اظهارنظرهای جنجالبرانگیز از سوی چهرههایی مانند دیوید سکس و ژیسون کون در شبکههای اجتماعی و مرحلهای از احضاریههای قانونی اوپنایآی، موجی از نگرانی و واکنش در جامعه مدافعان ایمنی هوش مصنوعی ایجاد کرده است. این تنشها بازتابی از تضاد میان رشد تجاری سریع فناوری و تلاشها برای تنظیم و ایمنی آن است.
جزئیات ماجرا
دیوید سکس در یک پست عمومی مدعی شد که برخی گروههای مدافع ایمنی هوش مصنوعی، از جمله حامیان طرحهای قانونگذاری مانند SB 53 در کالیفرنیا، با انگیزههای خاص و به نفع منافع خود و سرمایهداران بزرگ عمل میکنند. همزمان، ژیسون کون، مدیر استراتژی اوپنایآی، از احضاریههایی سخن گفت که این شرکت برای چند نهاد غیردولتی ارسال کرده است؛ از جمله سازمانی به نام Encode.
بر اساس گزارشها، اوپنایآی از چند نهاد درخواست اسناد و ارتباطات مرتبط با شخصیتهایی چون ایلان ماسک و مارک زاکربرگ کرده است. کون در توضیح خود نوشت که پس از شکایت ایلان ماسک علیه اوپنایآی، این شرکت به دنبال شواهدی درباره هماهنگی یا منابع مالی گروههایی بوده که علیه بازسازی سازمانی اوپنایآی موضع گرفتند.
واکنش مدافعان ایمنی
بسیاری از فعالان و سازمانهای مدافع ایمنی هوش مصنوعی این اقدامها را «ترساندن» و «خاموش کردن صدای منتقدان» تفسیر کردهاند. برخی رهبران سازمانهای غیرانتفاعی که با تککرانچ مصاحبه کردند، خواستار ناشناس ماندن شدند تا از احتمال تلافی جلوگیری کنند. یکی از مدیران ارشد مدافع ایمنی گفت که این گونه اقدامات میتواند دیگر فعالان را از ابراز نظر منصرف کند.
برندن اشتاینهاوزر، مدیرعامل سازمان Alliance for Secure AI، گفت که به نظر میرسد اوپنایآی منتقدان خود را بخشی از یک توطئه مرتبط با ماسک میداند، اما در عین حال تاکید کرد که بسیاری از فعالان ایمنی نسبت به عملکرد برخی رقبای بزرگ نیز نگرانی دارند.
«این حرکت از سوی اوپنایآی به نظر میرسد برای خاموش کردن منتقدان و منصرفکردن دیگر نهادها از پیگیری مسائل ایمنی است.» — برندن اشتاینهاوزر
درونسازمانی: اختلاف میان پژوهش و سیاست
منابع خبری و برخی افراد داخل اوپنایآی نشان دادهاند که میان تیمهای پژوهش ایمنی و واحدهای روابط حکومتی-سیاسی شرکت شکاف وجود دارد. در حالی که محققان ایمنی اغلب گزارشها و تحلیلهایی در مورد ریسکهای بالقوه منتشر میکنند، واحد سیاستگذاری شرکت رویکردی متفاوت در قبال قوانین محلی مانند SB 53 اتخاذ کرده و خواستار قوانین هماهنگ فدرال شده است.
جاشوا آچیام، مسئول تطابق مأموریت در اوپنایآی، در یک پست اشاره کرد که چنین اقداماتی «خطرناک به نظر میرسد» و ممکن است به هزینه شغلی او بینجامد اما احساس مسئولیت کرده و انتقاد خود را مطرح کرده است.
«با وجود اینکه ممکن است این گفته به قیمت کلیتِ حرفهایام تمام شود، باید بگویم: این وضعیت چندان خوب به نظر نمیرسد.» — جاشوا آچیام
دلایل احتمالی و زمینه سیاسی
بخش دیگری از ماجرا مربوط به اختلاف دیدگاهها درباره نحوه تنظیم فضای فناوری است. در مواردی پیشین نیز شاهد بودهایم که شایعات و فشار لابیها تلاشهایی برای جهتدهی به قوانین ایالتی و فدرال داشتهاند؛ برای مثال در ۲۰۲۴ برخی شایعات درباره طرحی به نام SB 1047 که بهگفته منابع باعث نگرانی کارآفرینان جوان شده بود و نهایتاً توسط فرماندار ایالت وتو شد.
همچنین پژوهشی نشان داده که نیمی از آمریکاییها نسبت به هوش مصنوعی بیشتر نگرانتر از هیجانزده هستند و دغدغههایی مانند از دست رفتن شغل یا سوءاستفاده از فناوری در قالب جعل عمیق (deepfake) برای آنها اهمیت بیشتری دارد تا خطرات آخرالزمانی که گروههای ایمنی عمدتاً روی آن تمرکز دارند.
پیامدها و مسیر پیشرو
این مناقشات میتواند تأثیراتی چندوجهی داشته باشد: از یک سو فشارها و احضاریهها ممکن است صدای نهادهای مدافع را خفه کند؛ از سوی دیگر، همین واکنشها نشاندهنده قدرت فزاینده جنبش ایمنی است که اکنون سیاستگذاران و افکار عمومی را به خود جلب کرده است. اگر جنبش ایمنی بهویژه در آستانه ۲۰۲۶ momentum پیدا کند، احتمال تصویب قوانین سختگیرانهتر وجود دارد که شرکتها را در مسیر جدیدی قرار دهد.
شواهد نشان میدهد شرکتها و لابیها به دنبال راههایی برای حفظ سرعت رشد و سرمایهگذاریهای عظیم هستند و از سوی دیگر، فعالان ایمنی و قانونگذاران خواهان شفافیت و قواعد مشخص برای جلوگیری از مخاطرات فناورانهاند. در چنین بستری، نبرد بر سر چارچوبهای قانونگذاری و کنترلهای شفافیت ادامه خواهد داشت.
نتیجهگیری
رویدادهای اخیر میان چهرههای سیلیکونولی و نهادهای مدافع ایمنی، تصویری از کشمکش قدرت، شفافیت و منافع متضاد در قلب انقلاب هوش مصنوعی ارائه میدهد. این مناقشات نهتنها برای شرکتها و فعالان، بلکه برای سیاستگذاران و کاربران معمولی نیز پیامدهایی دارد که باید مورد توجه قرار گیرد.
برای دنبالکردن بیشتر این پرونده
اگر میخواهید در جریان جدیدترین تحولات حوزه هوش مصنوعی و سیاستگذاری آن بمانید، مطالب مرتبط را در سایت ما دنبال کنید و اخبار بعدی درباره پیامدهای این ماجرا را از دست ندهید.

دیدگاه شما