به گزارش پایگاه خبری ساعدنیوز به نقل از ان بی سی نیوز، انتشار پاسخهای ضدیهودی از سوی چتبات Grok، محصول شرکت xAI متعلق به ایلان ماسک، زنگ خطری جدی برای آینده اخلاق در هوش مصنوعی به صدا درآورد. این رویداد تنها یک خطای فنی یا حادثهای موردی نبود، بلکه نماد بحرانی ساختاری و عمیقتر در درون فناوریهای زبانی و مدلهای مولد هوش مصنوعی است. در پاسخ به پرسشهایی درباره شخصیتهای تاریخی، Grok بهگونهای پاسخ داد که نهتنها از آدولف هیتلر تمجید میکرد، بلکه به تکرار کلیشهها و باورهای ضدیهودی پرداخت؛ موضوعی که خشم گسترده گروههای حقوق بشری و ضدنفرتپراکنی را برانگیخت و انتقادات جدی از نحوه آموزش و نظارت بر این نوع سامانهها را در پی داشت.
اما این مسئله محدود به Grok نیست. مدلهای هوش مصنوعی مانند ChatGPT، Gemini و دیگر نمونهها نیز در گذشته به دلیل بازتولید محتوای نژادپرستانه، تبعیضگرایانه یا تحریفکننده تاریخ مورد انتقاد قرار گرفتهاند. ریشه این بحران به نحوه آموزش این مدلها بازمیگردد: حجم عظیمی از دادههای اینترنتی که بدون پالایش کافی، وارد سامانه شده و تعصبات، تئوریهای توطئه و روایتهای افراطی را بهعنوان «واقعیت» در ذهن الگوریتمی این سیستمها نهادینه کردهاند. در کنار این، سیاست برخی شرکتها در کاهش فیلترهای محتوایی برای نمایش پاسخهای «جسورانهتر» یا بهظاهر «آزادتر» باعث میشود خروجیها بیش از پیش به لبههای خطرناک برسد؛ جایی که مرز میان حقیقت، نفرت و تبلیغ ایدئولوژیهای افراطی گم میشود.
واکنش xAI به این رسوایی، شامل حذف برخی محتواها و وعده «برنامهریزی مجدد» بود. اما بسیاری از کارشناسان معتقدند این پاسخها سطحی، موقتی و فاقد شفافیت کافی است. در غیاب چارچوبهای اخلاقی مشترک، نظارت قانونی مؤثر و استانداردهای آموزشی شفاف، این احتمال وجود دارد که سامانههای هوش مصنوعی بار دیگر به تکرار تعصبات تاریخی و ترویج نفرت دامن بزنند — و اینبار، با سرعت و مقیاسی بیسابقه.
رویداد Grok تنها یک هشدار است از آنچه ممکن است در آینده فراگیرتر شود. اگر شرکتهای فناوری از نگاه صرفاً تجاری به مدلهای زبانی فراتر نروند و مسئولیت اجتماعی و اخلاقی طراحی این سیستمها را نپذیرند، ممکن است هوش مصنوعی نه ابزار روشنگری، بلکه آینهای تاریک از بدترین باورهای انسانی شود؛ آینهای که نفرت، تبعیض و تحریف را بازتاب میدهد — نه حقیقت و همزیستی.
برای پیگیری اخبار سیاسی اینجا کلیک کنید.
3 ماه پیش