شرکت هوش مصنوعی آنتروپیک به تازگی سیاستهای مهمی را درباره استفاده از دادههای کاربران خود اعلام کرده است. اکنون کاربران باید تا تاریخ 28 سپتامبر تصمیم بگیرند که آیا مایل به اشتراکگذاری گفتگوهای خود برای آموزش مدلهای هوش مصنوعی هستند یا خیر. این تغییرات نشاندهنده تحولات گستردهتری در دنیای هوش مصنوعی و حریم خصوصی کاربران است.
تحولات جدید در سیاستهای آنتروپیک
آنتروپیک تا پیش از این، دادههای گفتگوهای کاربران را برای آموزش مدلهای خود به کار نمیبرد و ظرف مدت 30 روز پس از ایجاد گفتگو، تمامی اطلاعات پاک میشد، مگر آنکه دلایل قانونی یا سیاستی مانع میشد و یا در صورت نقض قوانین، دادهها تا دو سال نگهداری میشدند.
اما اکنون این شرکت تصمیم گرفته است به صورت پیشفرض و برای کاربرانی که از گزینه انصراف استفاده نکنند، از دادههای گفتگویی برای آموزش مدلهای هوش مصنوعی استفاده کرده و این دادهها را تا پنج سال نگهداری کند. این سیاست شامل کاربران نسخههای رایگان، پرو و مکس کلود، از جمله کاربران کلود کد میشود. در عوض، کاربران سازمانی همچنان از طبقهبندی ویژه و محافظت شده برخوردار خواهند بود.
علل احتمالی این تغییرات
از دیدگاه شرکت، این تغییر به کاربران این امکان را میدهد تا به بهبود ایمنی مدلها کمک کنند، به طوری که مدلهای هوش مصنوعی در شناسایی محتوای مضر دقیقتر شده و کمتر مکالمات بیآزار را به اشتباه علامتگذاری کنند. این کمک همچنین به ارتقای قابلیتهایی مانند برنامهنویسی، تجزیه و تحلیل و استدلال مدل کلود منجر خواهد شد.
در واقع، این تغییر علاوه بر اینکه به گفته شرکت جنبه کمک به کاربران دارد، شکلی از نیاز جدی شرکت به دادههای با کیفیت برای رشد مدلها و رقابت با دیگر رقبایی مانند OpenAI و گوگل است. دادههای واقعی گفتگوهای کاربران اهمیت بالایی در بهبود عملکرد و دقت مدلها دارند.
زمینههای گستردهتر و چالشهای حفظ حریم خصوصی
این تغییرات در آنتروپیک بخشی از روندی بزرگتر در صنعت هوش مصنوعی هستند، جایی که شرکتها با چالشهای حقوقی و سیاسی پیرامون دادهها مواجه شدهاند. به عنوان نمونه، OpenAI در ایالات متحده با حکم دادگاه مواجه شده است که این شرکت را موظف میکند همه گفتگوهای کاربران ChatGPT را حتی پس از حذف ذخیره کند، مسئلهای که خود OpenAI آن را یک درخواست گسترده و نامناسب میداند.
از دیدگاه محافظت از حریم خصوصی، کاربران اغلب از تغییرات شرایط استفاده و سیاستهای حفظ دادهها آگاه نیستند. طراحی رابطهای کاربری و نحوه ارائه انتخابها به گونهای است که کاربران به سرعت گزینه پذیرش را میزنند بدون آنکه فراگیرانه متوجه آثار آن شوند. به خصوص سیاست آنتروپیک، گزینه انصراف از اشتراکگذاری دادهها به صورت پیشفرض فعال نیست و در متنهای بسیار ریز و کمتوجه قرار داده شدهاست.
چالشهای دستیابی به رضایت آگاهانه کاربران
کارشناسان حریم خصوصی مدتهاست هشدار میدهند که پیچیدگیهای فنی و حقوقی پیرامون هوش مصنوعی، دریافت رضایت واقعی و آگاهانه کاربران را بسیار دشوار کرده است. نهادهای ناظر مانند کمیسیون تجارت فدرال آمریکا (FTC) نسبت به شیوههای پنهان در تغییر سیاستها یا پنهان کردن اطلاعات زیر متون حقوقی یا لینکهای متعدد هشدار دادهاند. این نگرانیها در شرایطی مطرح میشوند که بسیاری از کاربران عادی نیز شاید متوجه میزان و نحوه استفاده از دادههایشان نباشند.
نکات کاربردی و توصیهها برای کاربران
– به هنگام استفاده از سرویسهای هوش مصنوعی، همواره سیاستهای حفظ دادهها را با دقت مطالعه کنید.
– توجه داشته باشید که انتخاب ندادن یا کلیک سریع روی «پذیرش» به معنای رضایت شما برای به اشتراکگذاری دادهها است.
– در صورتی که اهمیت حفظ حریم خصوصی برای شما بالا است، از گزینه انصراف هنگامی که ارائه میشود، استفاده کنید.
– به روزرسانیهای سیاستهای شرکتهای فناوری را دنبال کنید، زیرا تغییرات ممکن است به سرعت و بدون اطلاعرسانی گسترده رخ دهند.
نتیجهگیری
تغییر سیاستهای دادهای شرکتهایی مانند آنتروپیک بازتابدهنده روند رو به رشد اهمیت دادههای واقعی در توسعه هوش مصنوعی است، اما همزمان چالشهای جدی در زمینه حفظ حق حریم خصوصی کاربران ایجاد میکند. هوشیاری و آگاهی کاربران نسبت به این تغییرات میتواند نقش مهمی در حفاظت از دادههای شخصی آنها ایجاد کند. پیشنهاد میکنیم این مطلب را با دوستان خود به اشتراک بگذارید و برای آگاهی از تازهترین اخبار دنیای فناوری ما را دنبال کنید.

دیدگاه شما