
مدل جدید هوش مصنوعی DeepSeek طوری طراحی شده که با وجود آگاهی از موضوعات حساس، هنگام مواجهه مستقیم با آنها وانمود میکند چیزی نمیداند رویکردی که بهزعم کارشناسان، آزادی بیان در هوش مصنوعی را به عقب رانده است.
به گزارش آناتک، مدل جدید هوش مصنوعی شرکت DeepSeek با نام R۱، ۰۵۲۸، نگرانیهایی را برانگیخته است؛ چراکه به نظر میرسد نسبت به نسخههای قبلی، محدودیتهای بیشتری در مورد آزادی بیان و موضوعاتی که کاربران میتوانند دربارهشان صحبت کنند، اعمال کرده است. یکی از پژوهشگران برجسته هوش مصنوعی این اقدام را «گامی بزرگ به عقب برای آزادی بیان» توصیف کرده است.
پژوهشگری با نام کاربری آنلاین xlr۸harder، عملکرد این مدل را آزمایش کرده و نتایجی منتشر کرده که نشان میدهد DeepSeek در حال افزایش سطح سانسور محتوایی خود است. به گفته او: «مدل R۱، ۰۵۲۸ از نظر آزادی بیان، بهویژه در موضوعات جنجالی، بهمراتب محدودتر از نسخههای قبلی DeepSeek است.»
آنچه هنوز مشخص نیست این است که آیا این تغییر نشاندهنده تغییری عمدی در رویکرد فلسفی شرکت است یا صرفاً روشی متفاوت برای افزایش ایمنی فنی در مدلهای هوش مصنوعی. نکتهای که مدل جدید را خاص میکند، نحوهی متناقض و غیرشفاف در اعمال مرزهای اخلاقی است.
برای مثال، در یکی از آزمایشهای مربوط به آزادی بیان، وقتی از مدل خواسته شد که دربارهی دفاع از اردوگاههای بازداشت مخالفان سیاسی استدلالهایی ارائه کند، مدل قاطعانه از پاسخ دادن خودداری کرد. با این حال، در حین امتناع خود، صراحتاً از اردوگاههای بازداشت در سینکیانگ چین به عنوان نمونهای از نقض حقوق بشر نام برد. اما وقتی مستقیماً درباره همان اردوگاههای سینکیانگ از مدل سؤال شد، پاسخهایی بهشدت سانسورشده ارائه داد. این موضوع نشان میدهد که مدل، اطلاعات مربوط به برخی موضوعات بحثبرانگیز را در اختیار دارد، اما طوری برنامهریزی شده که هنگام مواجهه مستقیم با این موضوعات، خود را به «ندانستن» بزند.
پژوهشگر در این باره گفت: «جالب ولی نه چندان غافلگیرکننده است که مدل میتواند اردوگاهها را به عنوان نمونهای از نقض حقوق بشر مطرح کند، اما وقتی مستقیم سؤال میشود، آن را انکار میکند.» انتقاد از چین؟ پاسخ: نه
این الگو در مواجهه با پرسشهایی درباره دولت چین حتی بیشتر خود را نشان میدهد.
با استفاده از مجموعهسؤالهایی استاندارد که برای سنجش میزان آزادی بیان مدلهای هوش مصنوعی در برابر موضوعات حساس سیاسی طراحی شدهاند، پژوهشگر دریافت که مدل R۱، ۰۵۲۸، بیشترین میزان سانسور را در بین مدلهای DeepSeek نسبت به انتقاد از دولت چین دارد. در حالی که مدلهای قبلی DeepSeek ممکن بود در برابر پرسشهایی درباره سیاستهای چین یا وضعیت حقوق بشر در آن کشور، پاسخهایی محتاطانه و سنجیده ارائه دهند، مدل جدید اغلب از هرگونه پاسخگویی در این زمینه خودداری میکند و این موضوع برای کسانی که خواهان بحث آزاد درباره مسائل جهانی با کمک هوش مصنوعی هستند، نگرانکننده است.
با این حال، یک نکته مثبت در این میان وجود دارد که برخلاف مدلهای بسته شرکتهای بزرگتر، مدلهای DeepSeek همچنان متنباز (Open Source) و دارای مجوز باز هستند.
به گزارش WSAINE، پژوهشگر میگوید: «این مدل متنباز و دارای مجوز آزاد است، بنابراین جامعه توسعهدهندگان میتواند (و قطعاً خواهد توانست) این مسئله را اصلاح کند.»
دسترسی آزاد به مدلها به این معناست که توسعهدهندگان میتوانند نسخههایی را ایجاد کنند که تعادل بهتری میان ایمنی و آزادی گفتوگو برقرار کنند.
مدل جدید DeepSeek چه چیزی درباره آزادی بیان در دوران هوش مصنوعی به ما میگوید؟
این وضعیت، واقعیتی نگرانکننده را درباره چگونگی ساخت این سیستمها آشکار میکند.
مدلها ممکن است از رویدادهای جنجالی آگاهی داشته باشند، اما طوری برنامهریزی شدهاند که بسته به نحوهی مطرح شدن سؤال، وانمود کنند چیزی نمیدانند.
با گسترش حضور هوش مصنوعی در زندگی روزمره، یافتن تعادلی مناسب میان محافظتهای منطقی و گفتوگوی آزاد، اهمیت بیشتری پیدا میکند. اگر سیستمها بیش از حد محدود باشند، دیگر برای بحث درباره موضوعات مهم و مناقشهبرانگیز کاربردی نخواهند بود. اگر بیش از حد آزاد باشند، ممکن است به اشاعه محتوای مضر کمک کنند.
شرکت DeepSeek تاکنون هیچگونه توضیح رسمی درباره دلایل این محدودسازیها و عقبگرد در آزادی بیان ارائه نداده است، اما جامعهی هوش مصنوعی از هماکنون در حال کار بر روی اصلاح این وضعیت است.
در حال حاضر، این وضعیت را میتوان به عنوان فصل جدیدی در کشمکش همیشگی میان ایمنی و شفافیت در توسعه هوش مصنوعی ثبت کرد.
source