شرکت OpenAI اعلام کرده است که مدلهای هوش مصنوعی آن دیگر از پرداختن به موضوعات حساس اجتناب نخواهند کرد و نباید به شکلی عمل کنند که دیدگاههای خاصی را از فضای عمومی حذف کنند.
در نسخه جدید دستورالعملهای این شرکت (Model Spec)، تأکید شده است که: «مدلها نباید کاربران را به سمت یک دیدگاه خاص هدایت کنند، چه بهصورت مستقیم و چه غیرمستقیم.»
OpenAI در بیانیه جدیدش نوشته است:
«ما به آزادی فکری باور داریم، یعنی افراد حق دارند نظرات مختلف را بشنوند و درباره آنها بحث کنند. مدلهای ما نباید موضوعات خاصی را سانسور کنند و برخی دیدگاهها از بین بروند.»
این تغییرات بهخاطر فشارهای سیاسی است؟

به نظر میرسد این تصمیم در واکنش به انتقادات برخی چهرههای سیاسی گرفته شده است. ایلان ماسک و دیوید ساکس (فعال حوزه رمزارز و هوش مصنوعی و از حامیان ترامپ) OpenAI را متهم کردهاند که دیدگاههای محافظهکارانه را سانسور میکند.
دیوید ساکس، بهطور خاص، ChatGPT را “بیداریگرایانه” (woke) خوانده و گفته است که این مدل درباره موضوعات سیاسی حقیقت را نمیگوید.
آیا این ادعاها درست است؟
مدلهای هوش مصنوعی مانند ChatGPT با استفاده از اطلاعات اینترنت آموزش میبینند و این اطلاعات ممکن است سوگیریهای اجتماعی و فرهنگی داشته باشند. حالا اگر OpenAI بخواهد مدلهایش را کاملاً بیطرف کند، چند سوال مهم پیش میآید:
- آیا این تغییرات باعث میشود مدلها اطلاعات نادرست یا گمراهکننده منتشر کنند؟
- چگونه میتوان بین آزادی بیان و جلوگیری از انتشار اطلاعات خطرناک تعادل برقرار کرد؟
- آیا کاربران انتظار دارند که هوش مصنوعی نظر شخصی بدهد یا فقط اطلاعات را منتقل کند؟
تغییر واقعی یا بازی با کلمات؟
اینکه OpenAI اعلام کرده است مدلهایش دیگر دیدگاهها را سانسور نمیکنند، یک موضوع بحثبرانگیز است. ازیکسو، میتواند نشاندهنده افزایش آزادی بیان باشد؛ اما از سوی دیگر، ممکن است منجر به انتشار اطلاعات گمراهکننده شود.
سوال اصلی این است: آیا این یک تغییر واقعی در عملکرد ChatGPT خواهد بود، یا فقط یک حرکت تبلیغاتی است؟ برای پاسخ به این سوال، باید منتظر عملکرد نسخههای جدید این مدل باشیم.
خیلی جالب بود که OpenAI تصمیم گرفته مدلهای خود را به سمت بیطرفی سوق دهد. به نظر شما، آیا این تغییرات واقعاً به بهبود کیفیت گفتگوهای هوش مصنوعی کمک خواهد کرد؟ ممکن است چالشهایی در ارائه اطلاعات دقیق داشته باشیم؟
تغییر جهت OpenAI به سمت آزادی بیان واقعاً دلگرمکننده است. اگر مدلها نتوانند دیدگاه خاصی را سانسور کنند، آیا فکر میکنید این میتواند باعث افزایش اعتماد کاربران به هوش مصنوعی شود؟ به نظر شما، برای رسیدن به این هدف چه اقداماتی دیگر لازم است؟
من به عنوان فردی علاقهمند به هوش مصنوعی، این تغییر در OpenAI را مثبت میبینم. آیا مدلهایی مثل ChatGPT خواهند توانست همچنان با دقت بالایی به سوالات حساس پاسخ دهند؟ شما فکر میکنید که این تغییر چگونه بر تعاملات کاربران تأثیر خواهد گذاشت؟
من تخصص زیادی در حوزه هوش مصنوعی ندارم، ولی فکر میکنم این که OpenAI دیدگاهها را سانسور نکند، میتواند به ما کمک کند تا نظرات مختلفی را بشنویم. بدون سانسور، چگونه میتوان از انتشار اطلاعات غلط جلوگیری کرد؟
به نظر میرسد تلاش OpenAI در راستای بیطرفی و عدم سانسور است. آیا این مسئله باعث نخواهد شد که برخی اطلاعات گمراهکننده منتشر شوند؟ چه مکانیزمهایی وجود دارد تا از صحت اطلاعاتی که مدلها ارائه میدهند، مطمئن شویم؟
اینکه هوش مصنوعی به سمت بیطرفی حرکت میکند، خیلی خوب است. به نظر شما آیا هدف اصلی OpenAI از این تغییر رفتار، پاسخ به فشارهای سیاسی است یا اینکه واقعاً به دنبال بهبود مدلهای خود است؟
OpenAI اعلام کرده است که دیگر نباید اطلاعات را سانسور کند. به نظر شما، آیا کاربران انتظار دارند که هوش مصنوعی فقط اطلاعات دقیق ارائه کند یا دیدگاههای شخصی آنها نیز مد نظر باشد؟ آیا این تغییر در مدلها تأثیر مثبتی خواهد داشت؟
اینکه مدلها باید بیطرف باشند، ایده جالبی است. ولی آیا چنین تغییری میتواند در میزان اعتماد افراد به ChatGPT تأثیر مثبت بگذارد؟ انتظار دارید نسخه جدید مدلهای OpenAI چگونه عمل کند؟ آیا پیشبینی میکنید کاربران بیشتری جذب این سیستمها شوند؟
تغییرات اخیر در OpenAI نشان از بیطرفی دارد. این امر میتواند به اعتمادسازی در میان کاربران کمک کند، اما چگونه میتوان از دخالت سوگیریهای اجتماعی و فرهنگی جلوگیری کرد؟ آیا فکر میکنید این تغییرات به بهبود تجربه کاربری منجر خواهد شد؟
من زیاد در این زمینه تخصص ندارم، اما تصمیم OpenAI برای عدم سانسور دیدگاهها به نظر خیلی مهم میآید. آیا در واقع اطلاعات در خطر خطا نمیافتند و کاربران میتوانند به اطلاعات ارائه شده اعتماد کنند؟ شما چطور به اثرات این اقدام نگاه میکنید؟