آیا OpenAI دیگر دیدگاه‌ها را سانسور نمی‌کند؟ بررسی تغییرات جدید

تیم تحریریه 28 بهمن 1403 اخبار و رویداد ۳ دقیقه زمان مطالعه 0 دیدگاه ( ۰ امتیاز )

شرکت OpenAI اعلام کرده است که مدل‌های هوش مصنوعی آن دیگر از پرداختن به موضوعات حساس اجتناب نخواهند کرد و نباید به شکلی عمل کنند که دیدگاه‌های خاصی را از فضای عمومی حذف کنند.

 در نسخه جدید دستورالعمل‌های این شرکت (Model Spec)، تأکید شده است که: «مدل‌ها نباید کاربران را به سمت یک دیدگاه خاص هدایت کنند، چه به‌صورت مستقیم و چه غیرمستقیم.»

OpenAI در بیانیه جدیدش نوشته است:

«ما به آزادی فکری باور داریم، یعنی افراد حق دارند نظرات مختلف را بشنوند و درباره آن‌ها بحث کنند. مدل‌های ما نباید موضوعات خاصی را سانسور کنند و برخی دیدگاه‌ها از بین بروند.»

این تغییرات به‌خاطر فشارهای سیاسی است؟

آیا OpenAI دیگر دیدگاه‌ها را سانسور نمی‌کند؟ بررسی تغییرات جدید

به نظر می‌رسد این تصمیم در واکنش به انتقادات برخی چهره‌های سیاسی گرفته شده است. ایلان ماسک و دیوید ساکس (فعال حوزه رمزارز و هوش مصنوعی و از حامیان ترامپ) OpenAI را متهم کرده‌اند که دیدگاه‌های محافظه‌کارانه را سانسور می‌کند.

دیوید ساکس، به‌طور خاص، ChatGPT را “بیداری‌گرایانه” (woke) خوانده و گفته است که این مدل درباره موضوعات سیاسی حقیقت را نمی‌گوید.

آیا این ادعاها درست است؟

مدل‌های هوش مصنوعی مانند ChatGPT با استفاده از اطلاعات اینترنت آموزش می‌بینند و این اطلاعات ممکن است سوگیری‌های اجتماعی و فرهنگی داشته باشند. حالا اگر OpenAI بخواهد مدل‌هایش را کاملاً بی‌طرف کند، چند سوال مهم پیش می‌آید:

  • آیا این تغییرات باعث می‌شود مدل‌ها اطلاعات نادرست یا گمراه‌کننده منتشر کنند؟
  • چگونه می‌توان بین آزادی بیان و جلوگیری از انتشار اطلاعات خطرناک تعادل برقرار کرد؟
  • آیا کاربران انتظار دارند که هوش مصنوعی نظر شخصی بدهد یا فقط اطلاعات را منتقل کند؟

تغییر واقعی یا بازی با کلمات؟

اینکه OpenAI اعلام کرده است مدل‌هایش دیگر دیدگاه‌ها را سانسور نمی‌کنند، یک موضوع بحث‌برانگیز است. ازیک‌سو، می‌تواند نشان‌دهنده افزایش آزادی بیان باشد؛ اما از سوی دیگر، ممکن است منجر به انتشار اطلاعات گمراه‌کننده شود.

سوال اصلی این است: آیا این یک تغییر واقعی در عملکرد ChatGPT خواهد بود، یا فقط یک حرکت تبلیغاتی است؟ برای پاسخ به این سوال، باید منتظر عملکرد نسخه‌های جدید این مدل باشیم.

منابع
سوالات متداول این بخش
نظرات کاربران

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

مقالات مشابه
هشدار: خطرات امنیتی در تب داغ هوش مصنوعی!
سرمایه‌گذاری‌های سنگین در هوش مصنوعی، بدون درنظرگرفتن امنیت، مشکلات بزرگی ب…
تیم تحریریه ( ۰ امتیاز )
سم آلتمن و چالش‌های توزیع منافع هوش مصنوعی
سم آلتمن، مدیرعامل OpenAI، اخیراً در یک مقاله در وبلاگ شخصی‌اش به چالش‌های…
تیم تحریریه ( ۰ امتیاز )
موفقیت DeepSeek و کاهش ۹۴ میلیارد دلاری ثروت بزرگان فناوری
یک استارتاپ چینی به نام DeepSeek با رشد سریع خود دنیای فناوری را متحول کرده…
تیم تحریریه ( ۰ امتیاز )