هوش مصنوعی هم ضدصهیونیست از آب درآمد!

  چهارشنبه، 25 تیر 1404 ID  کد خبر 458844
هوش مصنوعی هم ضدصهیونیست از آب درآمد!
ساعدنیوز: انتشار پاسخ‌های ضدیهودی از سوی چت‌بات Grok متعلق به ایلان ماسک، تنها یک رسوایی فنی نبود؛ بلکه پرده از بحرانی عمیق‌تر در دل صنعت هوش مصنوعی برداشت. بحرانی که نشان می‌دهد مدل‌های زبانی، در غیاب نظارت اخلاقی و پالایش داده‌ها، می‌توانند به ابزاری برای بازتولید نفرت تاریخی و تبعیض ساختاری بدل شوند.

به گزارش پایگاه خبری ساعدنیوز به نقل از ان بی سی نیوز، انتشار پاسخ‌های ضدیهودی از سوی چت‌بات Grok، محصول شرکت xAI متعلق به ایلان ماسک، زنگ خطری جدی برای آینده اخلاق در هوش مصنوعی به صدا درآورد. این رویداد تنها یک خطای فنی یا حادثه‌ای موردی نبود، بلکه نماد بحرانی ساختاری و عمیق‌تر در درون فناوری‌های زبانی و مدل‌های مولد هوش مصنوعی است. در پاسخ به پرسش‌هایی درباره شخصیت‌های تاریخی، Grok به‌گونه‌ای پاسخ داد که نه‌تنها از آدولف هیتلر تمجید می‌کرد، بلکه به تکرار کلیشه‌ها و باورهای ضدیهودی پرداخت؛ موضوعی که خشم گسترده گروه‌های حقوق بشری و ضدنفرت‌پراکنی را برانگیخت و انتقادات جدی از نحوه آموزش و نظارت بر این نوع سامانه‌ها را در پی داشت.

اما این مسئله محدود به Grok نیست. مدل‌های هوش مصنوعی مانند ChatGPT، Gemini و دیگر نمونه‌ها نیز در گذشته به دلیل بازتولید محتوای نژادپرستانه، تبعیض‌گرایانه یا تحریف‌کننده تاریخ مورد انتقاد قرار گرفته‌اند. ریشه این بحران به نحوه آموزش این مدل‌ها بازمی‌گردد: حجم عظیمی از داده‌های اینترنتی که بدون پالایش کافی، وارد سامانه شده و تعصبات، تئوری‌های توطئه و روایت‌های افراطی را به‌عنوان «واقعیت» در ذهن الگوریتمی این سیستم‌ها نهادینه کرده‌اند. در کنار این، سیاست برخی شرکت‌ها در کاهش فیلترهای محتوایی برای نمایش پاسخ‌های «جسورانه‌تر» یا به‌ظاهر «آزادتر» باعث می‌شود خروجی‌ها بیش از پیش به لبه‌های خطرناک برسد؛ جایی که مرز میان حقیقت، نفرت و تبلیغ ایدئولوژی‌های افراطی گم می‌شود.

واکنش xAI به این رسوایی، شامل حذف برخی محتواها و وعده «برنامه‌ریزی مجدد» بود. اما بسیاری از کارشناسان معتقدند این پاسخ‌ها سطحی، موقتی و فاقد شفافیت کافی است. در غیاب چارچوب‌های اخلاقی مشترک، نظارت قانونی مؤثر و استانداردهای آموزشی شفاف، این احتمال وجود دارد که سامانه‌های هوش مصنوعی بار دیگر به تکرار تعصبات تاریخی و ترویج نفرت دامن بزنند — و این‌بار، با سرعت و مقیاسی بی‌سابقه.

رویداد Grok تنها یک هشدار است از آنچه ممکن است در آینده فراگیرتر شود. اگر شرکت‌های فناوری از نگاه صرفاً تجاری به مدل‌های زبانی فراتر نروند و مسئولیت اجتماعی و اخلاقی طراحی این سیستم‌ها را نپذیرند، ممکن است هوش مصنوعی نه ابزار روشنگری، بلکه آینه‌ای تاریک از بدترین باورهای انسانی شود؛ آینه‌ای که نفرت، تبعیض و تحریف را بازتاب می‌دهد — نه حقیقت و همزیستی.

برای پیگیری اخبار سیاسی اینجا کلیک کنید.


1 دیدگاه


  دیدگاه ها
...
3 ماه پیش

خدا همتونو لعنت کنه
از سراسر وب   
پربازدیدترین ویدئوهای روز   
آخرین ویدیو ها