شرکت OpenAI اعلام کرده است که مدلهای هوش مصنوعی آن دیگر از پرداختن به موضوعات حساس اجتناب نخواهند کرد و نباید به شکلی عمل کنند که دیدگاههای خاصی را از فضای عمومی حذف کنند.
در نسخه جدید دستورالعملهای این شرکت (Model Spec)، تأکید شده است که: «مدلها نباید کاربران را به سمت یک دیدگاه خاص هدایت کنند، چه بهصورت مستقیم و چه غیرمستقیم.»
OpenAI در بیانیه جدیدش نوشته است:
«ما به آزادی فکری باور داریم، یعنی افراد حق دارند نظرات مختلف را بشنوند و درباره آنها بحث کنند. مدلهای ما نباید موضوعات خاصی را سانسور کنند و برخی دیدگاهها از بین بروند.»
این تغییرات بهخاطر فشارهای سیاسی است؟

به نظر میرسد این تصمیم در واکنش به انتقادات برخی چهرههای سیاسی گرفته شده است. ایلان ماسک و دیوید ساکس (فعال حوزه رمزارز و هوش مصنوعی و از حامیان ترامپ) OpenAI را متهم کردهاند که دیدگاههای محافظهکارانه را سانسور میکند.
دیوید ساکس، بهطور خاص، ChatGPT را “بیداریگرایانه” (woke) خوانده و گفته است که این مدل درباره موضوعات سیاسی حقیقت را نمیگوید.
آیا این ادعاها درست است؟
مدلهای هوش مصنوعی مانند ChatGPT با استفاده از اطلاعات اینترنت آموزش میبینند و این اطلاعات ممکن است سوگیریهای اجتماعی و فرهنگی داشته باشند. حالا اگر OpenAI بخواهد مدلهایش را کاملاً بیطرف کند، چند سوال مهم پیش میآید:
- آیا این تغییرات باعث میشود مدلها اطلاعات نادرست یا گمراهکننده منتشر کنند؟
- چگونه میتوان بین آزادی بیان و جلوگیری از انتشار اطلاعات خطرناک تعادل برقرار کرد؟
- آیا کاربران انتظار دارند که هوش مصنوعی نظر شخصی بدهد یا فقط اطلاعات را منتقل کند؟
تغییر واقعی یا بازی با کلمات؟
اینکه OpenAI اعلام کرده است مدلهایش دیگر دیدگاهها را سانسور نمیکنند، یک موضوع بحثبرانگیز است. ازیکسو، میتواند نشاندهنده افزایش آزادی بیان باشد؛ اما از سوی دیگر، ممکن است منجر به انتشار اطلاعات گمراهکننده شود.
سوال اصلی این است: آیا این یک تغییر واقعی در عملکرد ChatGPT خواهد بود، یا فقط یک حرکت تبلیغاتی است؟ برای پاسخ به این سوال، باید منتظر عملکرد نسخههای جدید این مدل باشیم.