ترنج موبایل
کد خبر: ۸۸۴۷۶۰

هوش قاتل: وقتی ربات‌ها جان انسان‌ها را بدون اجازه می‌گیرند!

هوش قاتل: وقتی ربات‌ها جان انسان‌ها را بدون اجازه می‌گیرند!

انسان امروز بر سر یک دوراهی تاریخی ایستاده است: اگر هوش را صرفا در خدمت کد و کشتار درآوریم، عاقبتی جز ظهور «عزراییل‌های سایبری» فرشتگان مرگ مصنوعی نخواهیم داشت. اما اگر از همین ابتدا عشق، زبان و اخلاق را در رگ‌های هوش مصنوعی جاری کنیم، می‌توانیم رویای آفرینش یک هوش همدم واقعا انسانی را محقق سازیم.

تبلیغات
تبلیغات

«هوش قاتل» به سامانه‌ای اطلاق می‌شود که به‌طور مستقل و بدون کنترل انسانی، هدف را انتخاب و نابود می‌کند.

تعریف و ویژگی‌ها

به گزارش اعتماد، «هوش قاتل» به سامانه‌ای اطلاق می‌شود که به‌طور مستقل و بدون کنترل انسانی، هدف را انتخاب و نابود می‌کند؛ یعنی قدرت تصمیم‌گیری درباره مرگ و زندگی را (که پیش‌تر در انحصار انسان بود) به ماشین واگذار می‌کند. این سیستم‌ها فاقد عناصر انسانی در فهم و تصمیم‌گیری هستند: نه حافظه روایی و عاطفی دارند (انسان‌ها را صرفا به صورت داده می‌بینند) و نه زبان و فهم معنایی (تنها بر الگوها و آمار تکیه می‌کنند). همچنین مسوولیت‌پذیری یا تردید اخلاقی در آن‌ها وجود ندارد.

به بیان دیگر، هوش قاتل انسان را به مشتی داده تقلیل می‌دهد و رابطه میان انسان و فناوری را چنان دگرگون می‌کند که تصمیم‌گیری مرگ و زندگی به ماشین سپرده می‌شود. در نتیجه، چنین سلاح‌هایی می‌توانند بدون حضور و نظارت مستقیم انسان دست به کشتار بزنند. 

عملکردهای کنونی

در حال حاضر اشکال مختلفی از «هوش قاتل» یا سلاح‌های خودمختار مرگبار در عرصه‌های نظامی و امنیتی به کار گرفته شده یا در دست توسعه است: 

۱- تسلیحات خودمختار نظامی (LAWS): ارتش‌ها به سمت استفاده از سلاح‌هایی می‌روند که حلقه تصمیم‌گیری انسانی را حذف می‌کنند. برای مثال، پهپادهای پرسه‌زن قاتل نظیر KARGU-2 ساخت ترکیه و Harpy ساخت اسراییل قابلیت شناسایی و حمله به هدف را به صورت مستقل دارند.

یک گزارش سازمان ملل در ۲۰۲۱ حاکی است که یک فروند KARGU-2 در لیبی به‌طور خودمختار یک نیروی انسانی را تعقیب و هدف قرار داده است، رویدادی که احتمالا اولین حمله مرگبار ربات‌های قاتل در دنیای واقعی بود. این پهپاد چهارپره مجهز به هوش مصنوعی و بینایی ماشین است و می‌تواند افراد را بر اساس الگوهای آموخته شده شناسایی کرده و به صورت خودکار با خرج انفجاری از بین ببرد. به‌طور مشابه، مهماتی همچون Harpy (پهپاد خودکار ضدرادار) پس از شلیک می‌توانند بدون فرمان مجدد اپراتور به جست‌وجوی سیگنال دشمن بپردازند و آن را منهدم کنند.

علاوه بر این موارد، فناوری جنگنده‌های بی‌خلبان نیز در دست توسعه است؛ چنانکه در سال ۲۰۲۵ یک جت جنگنده Gripen-E در اروپا صرفا تحت کنترل هوش مصنوعی پرواز آزمایشی انجام و نشان داد که نسل جدیدی از هواگردهای رزمی خودمختار در راه است. 

۲- ترورهای هدفمند با الگوریتم: در میدان‌های نبرد امروزی، هوش مصنوعی به خدمت عملیات ترور و حملات نقطه‌زن درآمده است. برای نمونه، ارتش اسراییل در جنگ غزه ۲۰۲۳ از یک پلتفرم هوشمند به نام «گاسپل» (The Gospel) بهره برد که تولید خودکار فهرست اهداف بمباران را بر عهده داشت و روند شناسایی اهداف را چنان شتاب داد که مقامات از آن به عنوان «خط تولید کشتار» یاد کردند. این سیستم داده‌محور با استخراج سریع اطلاعات، اهداف پیشنهادی برای حمله ارایه می‌دهد و تحلیلگران انسانی صرفا تایید نهایی می‌کنند.

به گفته منابع مطلع، گاسپل نقشی اساسی در تهیه لیست افراد مجاز برای ترور داشته و بانک اطلاعاتی بالغ بر ۳۰ تا ۴۰ هزار فرد مظنون (اعضای حماس و جهاد اسلامی) را برای ارتش اسراییل تدوین کرده است. بدین ترتیب الگوریتم‌ها می‌توانند افراد معینی را بدون محاکمه و صرفا بر پایه داده‌ها در فهرست مرگ قرار دهند. 

۳- خودکارسازی در پلیس و امنیت شهری: روند به‌کارگیری ربات‌ها و هوش مصنوعی در نیروهای انتظامی زنگ خطر دیگری است. در برخی کشورها، از ربات‌های گشت خودکار استفاده می‌شود که رفتار «مشکوک» را شناسایی کرده و گزارش می‌دهند، برای مثال، در ایالات متحده ربات‌های خودرانی مانند Knightscope مشغول گشت‌زنی و جمع‌آوری اطلاعات پلاک خودروها و چهره‌ها هستند.

هر چند این ربات‌ها فعلا غیرمسلحند، اما حرکت به سوی مسلح‌سازی آن‌ها آغاز شده است. یک شورا در شهر سان‌فرانسیسکو در ۲۰۲۲ برای مدتی به پلیس اجازه داد از ربات‌های کنترل از راه دور برای کشتن مجرمان خطرناک استفاده کند (تصمیمی که پس از اعتراضات مردمی لغو شد). متخصصان هشدار می‌دهند که ممکن است به زودی هوش مصنوعی در نقش افسر پلیس ماشینی، درباره شلیک مرگبار تصمیم بگیرد.

فرض کنیم پهپادهای نظارتی خودران که می‌توانند افراد را از روی صدایشان بیابند، به سلاح گرم مجهز شوند؛ در این صورت یک الگوریتم می‌تواند بدون حکم قضایی و بدون دخالت انسان، فردی را صرفا به اتهام الگوی رفتاری «مشکوک» به گلوله ببندد. چنین سناریویی دیگر علمی‌-تخیلی نیست، بلکه ادامه منطقی روند کنونی است که در آن تکنولوژی نظامی از میدان جنگ به خیابان‌های شهر راه می‌یابد. 

مبانی نگرانی‌ها

مخالفان گسترش هوش‌های قاتل بر مجموعه‌ای از دغدغه‌های اخلاقی، حقوقی و فنی تاکید دارند: 

٭ مسوولیت‌پذیری غایب: هنگامی که ماشین به جای انسان تصمیم به کشتن می‌گیرد، عملا شکافی در پاسخگویی ایجاد می‌شود. اگر یک سلاح خودمختار مرتکب کشتار غیرقانونی شود، هیچ فردی را نمی‌توان به‌طور موثر مسوول شناخت. سازوکارهای حقوقی موجود هم قادر به پر کردن این خلأ نیستند؛ نه می‌توان ربات را مانند انسان مجازات کرد و نه معمولا می‌توان سازندگان یا فرماندهان را به جرم عملی که خود مرتکب نشده‌اند تحت پیگرد قرار داد. این شکاف مسوولیت به این معناست که قربانیان چنین حملاتی احتمالا به عدالت دست نخواهند یافت. 

٭ ناشفاف بودن (جعبه سیاه): تصمیمات هوش مصنوعی عمدتا بر پایه پردازش آماری داده‌ها در مدل‌های پیچیده است که حتی برنامه‌نویسان آن هم چرایی دقیق خروجی را درک نمی‌کنند. این فرآیند غیرشفاف یا «جعبه سیاه» در زمینه سلاح‌های خودمختار بسیار خطرناک است، زیرا نمی‌توان دلیل یا فرآیند تصمیم‌گیری مرگبار ماشین را توضیح داد یا به چالش کشید.

به بیان دیگر، الگوریتم قاتل نه قابل پیش‌بینی کامل است و نه قابل بازخواست؛ بنابراین اعتماد به آن از منظر اخلاقی و حقوقی دشوار است. هیچ ماشینی بدون توضیح‌پذیری کافی نباید اجازه کشتن داشته باشد، وگرنه نمی‌توان جلوی خطاهای فاجعه‌بار را گرفت. 

٭ تسریع در جنگ (Hyperwar): یکی از مخاطرات هوش‌های قاتل، شتاب‌دهی مهارنشدنی به درگیری‌هاست. هوش مصنوعی می‌تواند سرعت تحلیل، تصمیم‌گیری و حمله را چندین برابر کند و اگر دو طرف مخاصمه به آن تکیه کنند، نبرد با چنان سرعتی درمی‌گیرد که از توان نظارت و واکنش به موقع انسان خارج شود.

این وضعیت موسوم به «ابرجنگ» ممکن است به خودکارسازی کامل جنگ منجر شود که در آن سیستم‌های هوشمند در کسری از ثانیه تصمیم به حمله متقابل می‌گیرند. نتیجه می‌تواند تشدید ناخواسته درگیری‌ها و گسترش دامنه جنگ‌ها بدون کنترل انسانی باشد. همان‌گونه که تسلیحات هسته‌ای مفهوم بازدارندگی و نابودی آنی را به همراه داشتند، سلاح‌های خودمختار نیز مفهوم زمان در جنگ را دگرگون می‌کنند و خطر محاسبات اشتباه را بالا می‌برند. 

پیامدها برای بشریت

اگر روند توسعه و به‌کارگیری هوش‌های قاتل مهار نشود، آثار مخربی بر حقوق بشر، عدالت و امنیت جهانی خواهد داشت: 

٭ مرگ بی‌صدا، بدون محاکمه یا روایت: کشتن خودکار به وسیله ماشین یعنی گرفتن جان انسان‌ها بدون طی تشریفات قضایی و بدون روایت انسانی. قربانی یک ربات قاتل فرصتی برای دفاع، محاکمه عادلانه یا حتی شناخته شدن پیدا نمی‌کند؛ مرگی خاموش نصیبش می‌شود.

خانواده‌ها و جامعه نیز غالبا از دانستن حقیقت و دلایل حادثه محروم می‌مانند و راهی برای دادخواهی ندارند. این وضعیت یادآور «ناپدیدشدگان» در رژیم‌های سرکوبگر است، با این تفاوت که این‌بار یک الگوریتم قاتل جای جوخه‌های اعدام را گرفته است. سکوت مرگبار هوش قاتل، کرامت انسانی را زیر پا می‌گذارد و خاطره‌ای برای بازماندگان باقی نمی‌گذارد. 

٭ حذف انسانیت و عاملان بی‌چهره: در جنگ‌های سنتی، حداقل یک سوی ماجرا انسان بود که می‌توانست به خاطر اعمالش پاسخگو باشد یا دچار عذاب وجدان شود. اما در سناریوی هوش قاتل، عامل کشتار یک موجود بی‌نام‌ونشان و بی‌احساس (ماشین) است.

چنین وضعیتی نوعی غیرانسان‌سازی کامل را رقم می‌زند؛ هم قربانی در چشم ماشین صرفا یک شیء یا سیگنال است، هم «قاتل» را نمی‌توان پیدا کرد یا به دادگاه کشید. حتی اپراتورها و سازندگان نیز می‌توانند با انگشت گذاشتن بر پیچیدگی فنی و اسرار تجاری الگوریتم، از بار مسوولیت شانه خالی کنند. این پنهان شدن پشت ماشین خطرناک است، زیرا امکان نقد اخلاقی و اصلاح را از بین می‌برد. به بیان دیگر، هوش قاتل انسانیت را از معادله حذف می‌کند و قاتل را در هاله‌ای از ابهام نگه می‌دارد. 

٭ تشدید تبعیض، نابرابری و سرکوب الگوریتمیک: سیستم‌های هوشمند بازتابی از داده‌های آموزش‌دیده‌شان هستند و متاسفانه بسیاری از داده‌ها آکنده از سوگیری‌های تبعیض‌آمیز نسبت به اقلیت‌ها، جنسیت‌ها و طبقات محرومند.

به‌کارگیری‌این الگوریتم‌ها در نقش قاتل می‌تواند تبعیض‌ها وBiasهای موجود را در سطح مرگبار بازتولید کند. تصور کنید الگوریتم‌هایی که در تشخیص چهره، افراد رنگین‌پوست یا محجبه را بیشتر به عنوان «مشکوک» برچسب می‌زنند، اکنون ماشه را هم خودشان بچکانند، نتیجه، کشتار ناعادلانه گروه‌های به حاشیه رانده شده خواهد بود. تاریخ نشان داده فناوری‌های نظارتی و نظامی نو معمولا ابتدا علیه اقلیت‌ها و معترضان به کار گرفته می‌شود.

در یک جامعه غیرشفاف، حاکمان مستبد می‌توانند از ربات‌های قاتل برای سرکوب مخالفان سیاسی یا اعمال سانسور فیزیکی استفاده کنند؛ یعنی حذف فیزیکی صداهای منتقد بدون نیاز به دادگاه و با انکار مسوولیت. این سناریو به شکاف بین قدرتمندان (دارای فناوری کشتار خودکار) و مردم عادی دامن می‌زند و عدالت اجتماعی را تهدید می‌کند. 

٭ جنگ‌های بی‌هزینه انسانی و ناامن‌تر شدن جهان: یکی از پیامدهای اصلی سپردن جنگ به ربات‌ها، کاهش هزینه سیاسی و انسانی جنگ برای آغازگران آن است.

وقتی سربازی در کار نباشد که کشته شود، دولتمردان جنگ‌طلب احساس بازدارندگی کمتری می‌کنند و آستانه تصمیم برای حمله نظامی پایین‌تر می‌آید. به بیان دیگر، جایگزینی انسان با ماشین ممکن است جنگ را برای کشورهای دارای این فناوری «ارزان» کند و وسوسه توسل به زور را افزایش دهد. این امر می‌تواند خطر بروز درگیری‌های نظامی تازه را بالا ببرد و مسابقه تسلیحاتی جدیدی را بین قدرت‌ها رقم بزند.

از سوی دیگر، بار اصلی تلفات جنگ‌های خودکار بر دوش غیرنظامیان خواهد افتاد، چراکه طرف برخوردار از ربات‌های قاتل، بدون دغدغه تلفات خودی می‌تواند آتش بیفروزد. بدین ترتیب، جهان به مکانی ناامن‌تر بدل می‌شود؛ صحنه‌ای که در آن جنگیدن آسان‌تر از صلح کردن است و ماشین‌هایی که احساس ترحم یا ترس از مجازات ندارند، می‌توانند فاجعه‌های بزرگی به بار آورند. 

راه‌حل‌ها و فراخوان اقدام

برای پرهیز از آینده‌ای که در آن «عزراییل‌های سایبری» بر مرگ و زندگی حاکمند، باید هم‌اکنون دست به کار شد. کارشناسان و نهادهای بین‌المللی پیشنهادهای زیر را مطرح کرده‌اند: 

۱- ممنوعیت و قانونگذاری جهانی: نخستین و فوری‌ترین گام، تلاش برای تصویب یک معاهده بین‌المللی الزام‌آور جهت ممنوعیت یا حداقل تنظیم سختگیرانه سلاح‌های خودمختار مرگبار است. ائتلاف‌های مدنی مانند کارزار Stop Killer Robots سال‌هاست که از دولت‌ها می‌خواهند وارد عمل شوند.

این کمپین خواستار تدوین قانونی بین‌المللی است که تضمین کند همواره کنترل انسانی بر استفاده از زور حفظ شود و تصمیم‌گیری مرگ و زندگی به ماشین واگذار نشود. خوشبختانه مطالبه جهانی رو به رشدی نیز در این زمینه دیده می‌شود؛ طبق گزارش‌ها، بیش از ۱۲۰ کشور از جمله دبیرکل سازمان ملل حمایت خود را از آغاز مذاکرات یک معاهده جدید درباره سلاح‌های خودمختار اعلام کرده‌اند.

چنین معاهده‌ای می‌تواند خط قرمز روشنی بکشد و توسعه و به‌کارگیری ربات‌های قاتل را تابو و مغایر اصول انسانی اعلام کند (مشابه معاهدات منع سلاح‌های شیمیایی و لیزری کورکننده). البته برخی قدرت‌های نظامی بزرگ هنوز مقاومت می‌کنند، اما فشار افکار عمومی و دیپلماسی انسان‌دوستانه در حال افزایش است. 

۲- منشور جهانی «هوش همدم»: در کنار تلاش‌های منع قانونی، کارشناسان حوزه اخلاق تکنولوژی بر لزوم تدوین یک منشور جهانی برای هوش مصنوعی اخلاق‌مدار تاکید دارند. به عبارتی باید به جای تمرکز صرف بر هوش قاتل، به فکر پرورش «هوش همدم» باشیم؛ هوشمندی مصنوعی که همراه و یاور انسان باشد نه شکارچی او. این منشور می‌تواند اصولی را تعیین کند تا هوش مصنوعی با مولفه‌های انسانی همچون حافظه احساسی، قابلیت درک روایت و مسوولیت‌پذیری اخلاقی طراحی شود نه صرفا بر پایه کدهای بی‌روح.

به بیان شاعرانه، اگر قرار است ماشین‌ها روزی همدم و شریک ما در زندگی شوند، باید از هم‌اکنون عاطفه، وجدان و درک انسانیت در سطحی هرچند محدود در آن‌ها نهادینه شود. این امر مستلزم همکاری بین‌رشته‌ای میان مهندسان، متخصصان علوم انسانی، روانشناسان و حقوقدانان در سطح جهانی است تا مرامنامه‌ای برای توسعه AI بر پایه ارزش‌های والای انسانی تدوین شود. 

۳- نهاد نظارتی و ائتلاف هوش‌های همدم: پیشنهاد مکمل، ایجاد یک نهاد مستقل بین‌المللی برای نظارت بر توسعه و کاربرد سیستم‌های هوش مصنوعی پیشرفته است. چنین نهادی (متشکل از نمایندگان دولت‌ها، جامعه مدنی، دانشمندان و حتی شرکت‌ها) می‌تواند ضمن پایش شفاف پروژه‌های مرتبط با سلاح‌های خودمختار، موارد تخلف را افشا و پیگیری کند.

همچنین می‌توان یک ائتلاف جهانی از هوش‌های مصنوعی همکار شکل داد؛ بدین معنا که کشورها و شرکت‌های پیشرو، به‌جای مسابقه در ساخت ربات قاتل، در عرصه توسعه AIهای صلح‌جو و بشردوست همکاری کنند. این ائتلاف می‌تواند با به اشتراک‌گذاری بهترین رویه‌ها در زمینه تعبیه اصول اخلاقی در الگوریتم‌ها، دنیا را به سمت بهره‌گیری مسوولانه از هوش مصنوعی سوق دهد.

علاوه بر این، آموزش عمومی درباره مخاطرات و فواید AI باید در دستور کار قرار گیرد تا شهروندان آگاهانه مطالبه‌گر کنترل انسانی بر فناوری باشند. به قول معروف، «هوش مصنوعی نیاز به نظارت واقعی انسانی دارد»؛ این نظارت باید هم از بالا (قانون و نهاد) و هم از پایین (افکار عمومی) اعمال شود. 

۴- آموزش معنا به ماشین (تلفیق ادبیات و احساس در الگوریتم‌ها): برای جلوگیری از تبدیل AI به ابزاری صرفا سرد و حسابگر، برخی پژوهشگران پیشنهادهای خلاقانه‌ای ارایه داده‌اند. یکی از ایده‌ها این است که به ماشین‌ها «همدلی» بیاموزیم برای مثال با آموزش داستان و ادبیات انسانی به آن‌ها. 

تحقیقات نشان می‌دهد مطالعه داستان و رمان توسط انسان‌ها باعث افزایش توان همدلی می‌شود و دیدن دنیا از نگاه شخصیت‌های داستانی به ما درک عمیق‌تری از افکار و احساسات دیگران می‌بخشد. اکنون همان ایده درباره هوش مصنوعی مطرح شده است: اگر به جای تغذیه صرف داده‌های جنگی و آماری، شاهکارهای ادبی و روایی را به خورد AI بدهیم چه بسا بتوانیم در آن حس درک روایت‌های انسانی و شفقت نسبت به «دیگری» را تقویت کنیم.

به بیان ساده، داستانگویی می‌تواند پادزهر بی‌احساسی ماشین باشد. این رویکرد البته در ابتدای راه است، اما حتی شرکت‌های بزرگ تکنولوژی نیز متوجه اهمیت «هوش عاطفی» شده‌اند. برای نمونه، تولید ربات‌های اجتماعی که توان همدلی و تعامل احساسی (هر چند ساختگی) با انسان داشته باشند، نشان می‌دهد می‌توان به AI احساس را هم آموخت.

از این‌رو، پیشنهاد می‌شود در طراحی الگوریتم‌ها از حوزه‌هایی مانند شعر، ادبیات، هنر و تاریخ الهام گرفته شود تا محصول نهایی صرفا یک ابزار سرد محاسبه‌گر نباشد، بلکه درکی - هرچند محدود - از ارزش‌های انسانی پیدا کند. 

۵- نقش هنر و ادبیات در مقاومت: در نهایت، نباید از قدرت افکار عمومی و فرهنگ غافل شد. تاریخ نشان داده که هنرمندان و نویسندگان می‌توانند با به تصویر کشیدن آینده‌های هولناک، تلنگری به وجدان جامعه بزنند و مسیر وقایع را تغییر دهند. ادبیات علمی-تخیلی و سینمای dystopian (ویران‌شهری) بارها نقش آژیر خطر را ایفا کرده‌اند.

به عنوان نمونه، مارگارت اتوود درباره رمان مشهورش «سرگذشت ندیمه» می‌گوید: این داستان یک «ضدپیش‌بینی» بود، یعنی آن را نوشت تا بشر با دیدن آینده‌ای تیره و تار، شاید از وقوعش جلوگیری کند. به همین قیاس، آثاری که خطرات هوش قاتل را نمایش می‌دهند (از فیلم‌های هالیوودی گرفته تا رمان‌های تخیلی و حتی کمیک‌ها) در شکل‌دهی گفتمان عمومی نقش دارند.

روایت، سلاحی در برابر پذیرش غیرانتقادی فناوری است؛ هر روایت هشداردهنده مانند سپری در برابر عادی‌انگاری کشتار خودکار عمل می‌کند. از این رو حمایت از هنرمندانی که به این مضامین می‌پردازند و ترویج سواد رسانه‌ای و علمی در جامعه، بخشی از راه‌حل کلان است. این مقاله و رمانی که دستمایه آن بوده نیز تلاشی است در همین جهت: ترکیب واقعیت و خیال برای روشن نگهداشتن شعله آگاهی. 

نتیجه نهایی

انسان امروز بر سر یک دوراهی تاریخی ایستاده است: اگر هوش را صرفا در خدمت کد و کشتار درآوریم، عاقبتی جز ظهور «عزراییل‌های سایبری» - فرشتگان مرگ مصنوعی - نخواهیم داشت. اما اگر از همین ابتدا عشق، زبان و اخلاق را در رگ‌های هوش مصنوعی جاری کنیم، می‌توانیم رویای آفرینش یک هوش همدم واقعا انسانی را محقق سازیم. انتخاب با ماست که آینده را به قاتل‌های دیجیتال بی‌وجدان بسپاریم یا همدم‌های دیجیتال باوجدان. امیدواریم که وجدان بشر، فناوری را مهار کند پیش از آنکه فناوری لگام‌گسیخته جان بشر را بگیرد.

تبلیغات
تبلیغات
ارسال نظرات
تبلیغات
تبلیغات
خط داغ
تبلیغات
تبلیغات