وقتی که در مورد خطرات هوش مصنوعی صحبت میکنیم، معمولا تمرکز روی اثرات جانبی ناخواسته است. ما نگرانیم که یک روز تصادفی هوش مصنوعی فوق هوشمند بسازیم و یادمان برود که به آن ضمیری بدهیم؛ یا الگوریتمهایی برای محکوم کردن مجرمان به کار میبریم که مملو از تعصبات نژادپرستی دادههای تمرینیاش است.
اما این فقط نیمی از داستان است. آنهایی که از قصد میخواهند هوش مصنوعی را برای کارهای غیراخلافی، مجرمانه و آسیبرسان استفاده کنند چطور؟ احتمال بروز خطر از سوی آنها بیشتر -و حتی زودتر- نیست؟ پاسخ مثبت است، طبق نظر بیش از ده متخصص از انستیتوهایی نظیر «آینده بشر»، «مرکز پژوهش خطرهای موجود» و حتی شرکت غیر انتفاعی «OpenAI» که توسط ایلان ماسک تاسیس شده، جواب مثبت است.
در مقالهای که اخیرا با نام «استفاده مخرب از هوش مصنوعی: پیشبینی، جلوگیری و بازدارندگی» منتشر شده، این پژوهشگران و دانشگاهیان در مورد برخی راههایی که ممکن است هوش مصنوعی طی پنج سال آینده از طریق آن به ما ضرر برساند صحبت کرده اند و گفته اند که ما چه کار می توانیم انجام دهیم.
مایلز بروندج یکی از نویسندگان این مقاله از انستیتو آینده بشر به وبسایت ورج گفته که چون هوش مصنوعی می تواند حملات مهلکی به ما وارد کند، ما قطعا نباید وحشت کرده یا امید را کنار بگذاریم.
بروندج می گوید: «من دوست دارم حالت خوشبینانه را در نظر بگیرم که ما می توانیم کارهای بیشتری انجام دهیم. مسئله این است که تصویری تاریک و سیاه نکشیم. راه های دفاع بسیاری وجود دارد که می توانیم توسعه دهیم و چیزهای بسیاری برای یاد گرفتن وجود دارد. فکر نمی کنم که همهاش ناامیدی باشد ولی این مقاله را فراخوانی برای اقدام میبینم.»
گزارش بروندج و تیمهایی که با او همکاری داشتهاند بسیار وسیع است اما روی چند راه اصلی که هوش مصنوعی می تواند خطرات امنیتی فیزیکی و دیجیتالی ایجاد کند یا اصلا خطرات جدید بسازد متمرکز است.
در این مطلب پنج پیشنهاد هم برای مبارزه با این مشکل آمده از جمله آگاه سازی مهندسین هوش مصنوعی در مورد استفاده های مخرب در تحقیقاتشان و همچنین برقراری گفتمان میان دانشگاهیان و قانون گذاران تا هنگام وقوع جرم، غافلگیری پیش نیاید.
بگذارید از خطرات احتمالی شروع کنیم: یکی از مهمترین خطرات آن است که هوش مصنوعی به شکل قابل توجهی هزینه برخی حملات را کاهش میدهد و جایگزین نیروی انسانی میشود.
برای مثال حملات فیشینگ را در نظر بگیرید که در آن به افراد پیامهایی داده میشود تا به نوعی از آن طریق اطلاعات حسابهایشان را به دست آورند. مثل یک ایمیل از سایتهای خرید یا ایمیل از بانکی که در آن حساب دارید.
هوش مصنوعی میتواند در این حملات، عمده کارها را انجام دهد و بر اساس تحلیل اطلاعات و دادههای هر فرد، پیام مخصوصی برایش بسازد. یا تصور کنید چت باتها آنقدر پیشرفته شوند که بتوانند نقش دوست نزدیکتان را ایفا کنند و از شما رمز عبور ایمیلتان را بگیرند.
این مدل حملات پیچیده به نظر می رسد اما اگر یک بار این نرم افزار ساخته شود، بدون هزینه اضافه می توان آن را بارها و بارها به کار گرفت. ایمیلهای فیشینگ همین حالا هم بسیار مضر هستند. این ایمیلها مسبب انتشار تصاویر شخصی اشخاص معروف در سال 2014 و لو رفتن ایمیلهای جان پادستا، از ستاد انتخاباتی هیلاری کلینتون در انتخابات 2016 آمریکا بودند. لو رفتن ایمیلهای پادستا نه تنها باعث تغییر نتیجه انتخابات 2016 آمریکا شد، بلکه تئوریهای توطئهای نظیر پیتزاگیت را رقم زد که نزدیک بود به کشته شدن انسانها منجر شود. حالا تصور کنید یک هوش مصنوعی پیشرفته چه کارها که نمی تواند انجام دهد.
نکته مهم بعدی در این گزارش به افزودن ابعاد جدید به خطرهای فعلی اشاره دارد. همین مثال فیشینگ را در نظر بگیرید. هوش مصنوعی همین حالا هم با گوش دادن به چند دقیقه از صحبت های یک شخص می تواند صدای او را تقلید کند. یا می تواند به صورت همزمان از ویدیوهای موجود استفاده کرده و حرکات صورت و چهرهتان را جایگزین حرکات صورت یک شخص شناخته شده کند. این گزارش روی خطراتی متمرکز است که طی پنج سال آینده پدید میآیند و سریعا در حال تبدیل شدن به یک موضوع اساسی هستند.
البته یک سری اقدامات ناراحتکننده دیگر هم هستند که هوش مصنوعی میتواند آنها را تشدید کند. دستکاریهای سیاسی و پروپاگاندا (مثل دستکاری صدا و تصویر که می تواند مشکلی عظیم باشد)، و همچنین نظارتهای امنیتی به خصوص وقتی که اقلیتها را هدف قرار دهد.
مثال واضح می تواند چین باشد، کشوری که دوربینهای امنیتی و تشخیص دهنده چهرهاش یک منطقه بزرگ که اقلیت مسلمان اویغور در آن زندگی میکنند را زیر نظر گرفته است.
در نهایت، این گزارش به خطرات کاملا بدیعی که هوش مصنوعی می تواند ایجاد کند اشاره دارد. نویسنده به برخی سناریوهای ممکن اشاره دارد از جمله قرار دادن بمب در رباتی خدمتکار و انتقال آن به یک وزارت خانه دولتی. ربات با استفاده از قابلیتهای ویژه خود یک سیاستمدار خاص را شناسایی کرده و وقتی که نزدیکش برسد بمب را منفجر می کند.
این مثال به دو پیشرفت اساسی اشاره دارد، یکی بهره گیری از هوش مصنوعی در محصولات فیزیکی و دوم استفاده از فناوریهای نرم افزاری مثل تشخیص چهره. شاید اشاره به چنین داستانهایی اندکی خیالی به نظر برسد اما حقیقت آن است که همین حالا هم شاهد حملات بدیع توسط هوش مصنوعی بودهایم.
فناوری جابهجایی چهره این امکان را داده بود تا بدون هیچ حد و مرزی، کاربران چهره افراد مشهور را با چهره بازیگران فیلمهای غیر اخلاقی جایگزین کنند که باعث جنجال آفرینی بسیاری طی هفتههای گذشته شد. اگرچه تاکنون این ماجرا قربانی خاصی نگرفته اما کسانی که چنین سوء استفادهای از تکنولوژی میکنند قادر خواهند شد تا با ساخت چنین تصاویری از افرادی که میشناسند باج گرفته یا باعث آزار و اذیت شوند.
راه حلهای ارائه شده در این مقاله ساده هستند و عبارتند از:
پژوهشگران حوزه هوش مصنوعی باید آگاه باشند که کارهایشان چطور میتواند توسط دیگران مورد سوء استفاده قرار بگیرد
قانونگذاران باید از متخصصین در مورد این موضوع آموزه بگیرند
کسانی که روی هوش مصنوعی کار میکنند باید از متخصصین حوزه امنیت سایبری برای محافظت از سیستمهایشان آموزه بگیرند
باید چارچوبهای اخلاقی برای هوش مصنوعی ایجاد شده و آن را دنبال کرد
افراد بیشتری باید در این ماجرا دخیل باشند. نه فقط دانشمندان هوش مصنوعی و قانونگذاران. بلکه دانشمندان علوم اخلاق، کسب و کارها و عموم مردم
به بیان دیگر: کمی گفتمان و کمی کار بیشتر لازم است. همچنین برای مشاهده ی مطالب مرتبط دیگر به بخش آموزش عمومی ساعدنیوز مراجعه نمایید.