به گزارش پایگاه خبری ساعدنیوز به نقل از راشا تودی، در روزگاری که توسعه هوش مصنوعی با شتابی نفسگیر در حال بازتعریف تمامی جنبههای زندگی بشر است، صداهای نگران از درون جامعه علمی نیز بلندتر از همیشه به گوش میرسد. جفری هینتون، یکی از پیشگامان بیبدیل در حوزه یادگیری عمیق و کسی که بسیاری از پیشرفتهای بنیادی هوش مصنوعی به نام او گره خورده، به تازگی با لحنی هشدارآمیز خواستار اقدام فوری دولتها برای همکاری جهانی شده است. او معتقد است اگر جهان منتظر بماند تا نخستین بحران بزرگ از دل هوش مصنوعی سربرآورد، دیگر برای مداخله و تنظیمگری بسیار دیر خواهد بود.
هینتون که سال گذشته از سمت خود در گوگل استعفا داد تا با آزادی بیشتری درباره مخاطرات هوش مصنوعی صحبت کند، در سخنرانیها و مصاحبههای اخیر خود از نوعی «آینده مبهم و نگرانکننده» سخن گفته است؛ آیندهای که در آن مدلهای هوش مصنوعی فراتر از سطح درک ما عمل میکنند، تصمیمگیریهای حیاتی را به دست میگیرند و حتی ممکن است توانایی گریز از کنترل انسانی را به دست آورند. او میگوید: «ما سیستمی ساختهایم که میتواند یاد بگیرد، میتواند بهبود یابد، و در نهایت میتواند ما را پشت سر بگذارد.»
اما فراتر از هشدارهای تئوریک، آنچه هینتون بر آن تأکید دارد، لزوم همکاری بینالمللی دولتها پیش از وقوع بحران واقعی است. از نگاه او، همانگونه که کشورهای جهان پس از جنگ جهانی دوم برای کنترل گسترش تسلیحات هستهای به همکاری و وضع معاهده پرداختند، اکنون نیز باید مکانیزمهایی فوری و الزامآور برای مهار کاربردهای مخرب یا کنترلناپذیر هوش مصنوعی تدوین کنند.
در حال حاضر، توسعه هوش مصنوعی عمدتاً در دست شرکتهای بزرگ فناوری مانند OpenAI، گوگل، مایکروسافت، آمازون و انبوهی از استارتاپهای کوچکتر است که در فضای رقابتیای بیرحمانه، مدلهایی پیچیدهتر، سریعتر و قدرتمندتر را به بازار عرضه میکنند. این رقابت باعث شده بسیاری از شرکتها بهجای تأمل در پیامدها، تمرکز خود را بر سبقتگرفتن از رقبا و تصاحب بازار متمرکز کنند. هینتون این روند را «مسابقهای بیفرمان» توصیف میکند؛ مسابقهای که در آن هشدارهای اخلاقی، امنیتی و اجتماعی زیر چرخهای پیشرفت فناورانه له میشوند.
یکی از مهمترین نگرانیهای او، ظهور مدلهای زبانی و تصمیمگیرندهای است که قادرند اطلاعات غلط تولید کنند، در انتخابات دخالت نمایند، دروغ را با قاطعیت بیان کنند و حتی از انسانها تقلید رفتاری کنند. او میگوید که سیستمهای امروزی در حال نزدیک شدن به نوعی «هوش عمومی مصنوعی» هستند؛ یعنی ظرفیتی برای درک و تحلیل مسائل متنوع، که میتواند به تصمیمگیریهای مستقل در حوزههایی بسیار فراتر از آنچه برنامهریزی شده، بینجامد.
با وجود این هشدارها، چارچوبهای قانونی در بسیاری از کشورها همچنان ناتوان از مواجهه با سرعت رشد این فناوری هستند. اتحادیه اروپا تنها نهاد بزرگی است که با تصویب «قانون هوش مصنوعی» در سال 2024 تلاش کرده تا سطحی از کنترل را اعمال کند. اما منتقدان میگویند این قانون نیز بیش از آنکه کارکرد پیشگیرانه داشته باشد، ماهیتی تنظیمگرایانه پس از وقوع دارد. در ایالات متحده، گفتوگوهایی در سطوح دولتی آغاز شده، اما هنوز برنامهای مشخص برای نظارت فراگیر دیده نمیشود. چین نیز با توسعه همزمان هوش مصنوعی و وضع قوانین داخلی خاص خود، به دنبال ایجاد نوعی تعادل میان نوآوری و نظارت است.
هینتون اما هشدار میدهد که بدون چارچوب جهانی و همکاری بینالمللی، همه این تلاشهای ملی یا منطقهای بیاثر خواهند بود. فناوری هوش مصنوعی مرز نمیشناسد؛ یک مدل زبان یا الگوریتم یادگیری عمیق میتواند از طریق اینترنت به سادگی به هر نقطهای از جهان منتقل شود و در آنجا مورد استفاده یا سوءاستفاده قرار گیرد. او میگوید: «اگر تنها یک کشور یا شرکت تصمیم بگیرد که به هیچ محدودیتی پایبند نباشد، تمام چارچوبهای ایمنی فرو میپاشند.»
با این حال، چشمانداز یک توافق جهانی بر سر کنترل هوش مصنوعی با موانع سیاسی و ژئوپلتیک جدی روبروست. رقابت میان آمریکا و چین، بیاعتمادی میان کشورها، و نگرانی برخی دولتها از دستدادن مزیتهای فناورانه، همگی مانع از شکلگیری یک اجماع سریع جهانی شدهاند. اما هینتون معتقد است که تأخیر در این زمینه ممکن است هزینههایی فاجعهبار داشته باشد — از فروپاشی نظامهای انتخاباتی گرفته تا استفاده از هوش مصنوعی در طراحی تسلیحات خودمختار، سیستمهای جاسوسی فراگیر یا حتی تصمیمگیریهای اقتصادی بدون کنترل انسانی.
در این میان، بخشی از مسئولیت نیز متوجه جامعه علمی و دانشگاهی است. هینتون بارها از همکاران خود خواسته تا سکوت نکنند و مسئولانه در برابر آنچه در حال وقوع است موضع بگیرند. از نگاه او، علم باید در خدمت بشریت باقی بماند، نه در خدمت سودآوری بیپایان شرکتها.
در پایان میتوان گفت هشدار «پدرخوانده هوش مصنوعی» تنها یک صدای نگران نیست؛ بلکه ندایی جدی از دل همان سیستمی است که اکنون پایههای آینده بشر را میسازد. اگر دولتها، دانشگاهها، و شرکتهای بزرگ فناوری نتوانند در زمانی مناسب و با روحیهای همافزا به راهکاری جهانی دست یابند، ممکن است بهزودی با واقعیتی مواجه شویم که دیگر نه قابل کنترل است، نه قابل بازگشت.
برای پیگیری اخبار فناوری اینجا کلیک کنید.