هوش قاتل: وقتی رباتها جان انسانها را بدون اجازه میگیرند!

انسان امروز بر سر یک دوراهی تاریخی ایستاده است: اگر هوش را صرفا در خدمت کد و کشتار درآوریم، عاقبتی جز ظهور «عزراییلهای سایبری» فرشتگان مرگ مصنوعی نخواهیم داشت. اما اگر از همین ابتدا عشق، زبان و اخلاق را در رگهای هوش مصنوعی جاری کنیم، میتوانیم رویای آفرینش یک هوش همدم واقعا انسانی را محقق سازیم.
«هوش قاتل» به سامانهای اطلاق میشود که بهطور مستقل و بدون کنترل انسانی، هدف را انتخاب و نابود میکند.
تعریف و ویژگیها
به گزارش اعتماد، «هوش قاتل» به سامانهای اطلاق میشود که بهطور مستقل و بدون کنترل انسانی، هدف را انتخاب و نابود میکند؛ یعنی قدرت تصمیمگیری درباره مرگ و زندگی را (که پیشتر در انحصار انسان بود) به ماشین واگذار میکند. این سیستمها فاقد عناصر انسانی در فهم و تصمیمگیری هستند: نه حافظه روایی و عاطفی دارند (انسانها را صرفا به صورت داده میبینند) و نه زبان و فهم معنایی (تنها بر الگوها و آمار تکیه میکنند). همچنین مسوولیتپذیری یا تردید اخلاقی در آنها وجود ندارد.
به بیان دیگر، هوش قاتل انسان را به مشتی داده تقلیل میدهد و رابطه میان انسان و فناوری را چنان دگرگون میکند که تصمیمگیری مرگ و زندگی به ماشین سپرده میشود. در نتیجه، چنین سلاحهایی میتوانند بدون حضور و نظارت مستقیم انسان دست به کشتار بزنند.
عملکردهای کنونی
در حال حاضر اشکال مختلفی از «هوش قاتل» یا سلاحهای خودمختار مرگبار در عرصههای نظامی و امنیتی به کار گرفته شده یا در دست توسعه است:
۱- تسلیحات خودمختار نظامی (LAWS): ارتشها به سمت استفاده از سلاحهایی میروند که حلقه تصمیمگیری انسانی را حذف میکنند. برای مثال، پهپادهای پرسهزن قاتل نظیر KARGU-2 ساخت ترکیه و Harpy ساخت اسراییل قابلیت شناسایی و حمله به هدف را به صورت مستقل دارند.
یک گزارش سازمان ملل در ۲۰۲۱ حاکی است که یک فروند KARGU-2 در لیبی بهطور خودمختار یک نیروی انسانی را تعقیب و هدف قرار داده است، رویدادی که احتمالا اولین حمله مرگبار رباتهای قاتل در دنیای واقعی بود. این پهپاد چهارپره مجهز به هوش مصنوعی و بینایی ماشین است و میتواند افراد را بر اساس الگوهای آموخته شده شناسایی کرده و به صورت خودکار با خرج انفجاری از بین ببرد. بهطور مشابه، مهماتی همچون Harpy (پهپاد خودکار ضدرادار) پس از شلیک میتوانند بدون فرمان مجدد اپراتور به جستوجوی سیگنال دشمن بپردازند و آن را منهدم کنند.
علاوه بر این موارد، فناوری جنگندههای بیخلبان نیز در دست توسعه است؛ چنانکه در سال ۲۰۲۵ یک جت جنگنده Gripen-E در اروپا صرفا تحت کنترل هوش مصنوعی پرواز آزمایشی انجام و نشان داد که نسل جدیدی از هواگردهای رزمی خودمختار در راه است.
۲- ترورهای هدفمند با الگوریتم: در میدانهای نبرد امروزی، هوش مصنوعی به خدمت عملیات ترور و حملات نقطهزن درآمده است. برای نمونه، ارتش اسراییل در جنگ غزه ۲۰۲۳ از یک پلتفرم هوشمند به نام «گاسپل» (The Gospel) بهره برد که تولید خودکار فهرست اهداف بمباران را بر عهده داشت و روند شناسایی اهداف را چنان شتاب داد که مقامات از آن به عنوان «خط تولید کشتار» یاد کردند. این سیستم دادهمحور با استخراج سریع اطلاعات، اهداف پیشنهادی برای حمله ارایه میدهد و تحلیلگران انسانی صرفا تایید نهایی میکنند.
به گفته منابع مطلع، گاسپل نقشی اساسی در تهیه لیست افراد مجاز برای ترور داشته و بانک اطلاعاتی بالغ بر ۳۰ تا ۴۰ هزار فرد مظنون (اعضای حماس و جهاد اسلامی) را برای ارتش اسراییل تدوین کرده است. بدین ترتیب الگوریتمها میتوانند افراد معینی را بدون محاکمه و صرفا بر پایه دادهها در فهرست مرگ قرار دهند.
۳- خودکارسازی در پلیس و امنیت شهری: روند بهکارگیری رباتها و هوش مصنوعی در نیروهای انتظامی زنگ خطر دیگری است. در برخی کشورها، از رباتهای گشت خودکار استفاده میشود که رفتار «مشکوک» را شناسایی کرده و گزارش میدهند، برای مثال، در ایالات متحده رباتهای خودرانی مانند Knightscope مشغول گشتزنی و جمعآوری اطلاعات پلاک خودروها و چهرهها هستند.
هر چند این رباتها فعلا غیرمسلحند، اما حرکت به سوی مسلحسازی آنها آغاز شده است. یک شورا در شهر سانفرانسیسکو در ۲۰۲۲ برای مدتی به پلیس اجازه داد از رباتهای کنترل از راه دور برای کشتن مجرمان خطرناک استفاده کند (تصمیمی که پس از اعتراضات مردمی لغو شد). متخصصان هشدار میدهند که ممکن است به زودی هوش مصنوعی در نقش افسر پلیس ماشینی، درباره شلیک مرگبار تصمیم بگیرد.
فرض کنیم پهپادهای نظارتی خودران که میتوانند افراد را از روی صدایشان بیابند، به سلاح گرم مجهز شوند؛ در این صورت یک الگوریتم میتواند بدون حکم قضایی و بدون دخالت انسان، فردی را صرفا به اتهام الگوی رفتاری «مشکوک» به گلوله ببندد. چنین سناریویی دیگر علمی-تخیلی نیست، بلکه ادامه منطقی روند کنونی است که در آن تکنولوژی نظامی از میدان جنگ به خیابانهای شهر راه مییابد.
مبانی نگرانیها
مخالفان گسترش هوشهای قاتل بر مجموعهای از دغدغههای اخلاقی، حقوقی و فنی تاکید دارند:
٭ مسوولیتپذیری غایب: هنگامی که ماشین به جای انسان تصمیم به کشتن میگیرد، عملا شکافی در پاسخگویی ایجاد میشود. اگر یک سلاح خودمختار مرتکب کشتار غیرقانونی شود، هیچ فردی را نمیتوان بهطور موثر مسوول شناخت. سازوکارهای حقوقی موجود هم قادر به پر کردن این خلأ نیستند؛ نه میتوان ربات را مانند انسان مجازات کرد و نه معمولا میتوان سازندگان یا فرماندهان را به جرم عملی که خود مرتکب نشدهاند تحت پیگرد قرار داد. این شکاف مسوولیت به این معناست که قربانیان چنین حملاتی احتمالا به عدالت دست نخواهند یافت.
٭ ناشفاف بودن (جعبه سیاه): تصمیمات هوش مصنوعی عمدتا بر پایه پردازش آماری دادهها در مدلهای پیچیده است که حتی برنامهنویسان آن هم چرایی دقیق خروجی را درک نمیکنند. این فرآیند غیرشفاف یا «جعبه سیاه» در زمینه سلاحهای خودمختار بسیار خطرناک است، زیرا نمیتوان دلیل یا فرآیند تصمیمگیری مرگبار ماشین را توضیح داد یا به چالش کشید.
به بیان دیگر، الگوریتم قاتل نه قابل پیشبینی کامل است و نه قابل بازخواست؛ بنابراین اعتماد به آن از منظر اخلاقی و حقوقی دشوار است. هیچ ماشینی بدون توضیحپذیری کافی نباید اجازه کشتن داشته باشد، وگرنه نمیتوان جلوی خطاهای فاجعهبار را گرفت.
٭ تسریع در جنگ (Hyperwar): یکی از مخاطرات هوشهای قاتل، شتابدهی مهارنشدنی به درگیریهاست. هوش مصنوعی میتواند سرعت تحلیل، تصمیمگیری و حمله را چندین برابر کند و اگر دو طرف مخاصمه به آن تکیه کنند، نبرد با چنان سرعتی درمیگیرد که از توان نظارت و واکنش به موقع انسان خارج شود.
این وضعیت موسوم به «ابرجنگ» ممکن است به خودکارسازی کامل جنگ منجر شود که در آن سیستمهای هوشمند در کسری از ثانیه تصمیم به حمله متقابل میگیرند. نتیجه میتواند تشدید ناخواسته درگیریها و گسترش دامنه جنگها بدون کنترل انسانی باشد. همانگونه که تسلیحات هستهای مفهوم بازدارندگی و نابودی آنی را به همراه داشتند، سلاحهای خودمختار نیز مفهوم زمان در جنگ را دگرگون میکنند و خطر محاسبات اشتباه را بالا میبرند.
پیامدها برای بشریت
اگر روند توسعه و بهکارگیری هوشهای قاتل مهار نشود، آثار مخربی بر حقوق بشر، عدالت و امنیت جهانی خواهد داشت:
٭ مرگ بیصدا، بدون محاکمه یا روایت: کشتن خودکار به وسیله ماشین یعنی گرفتن جان انسانها بدون طی تشریفات قضایی و بدون روایت انسانی. قربانی یک ربات قاتل فرصتی برای دفاع، محاکمه عادلانه یا حتی شناخته شدن پیدا نمیکند؛ مرگی خاموش نصیبش میشود.
خانوادهها و جامعه نیز غالبا از دانستن حقیقت و دلایل حادثه محروم میمانند و راهی برای دادخواهی ندارند. این وضعیت یادآور «ناپدیدشدگان» در رژیمهای سرکوبگر است، با این تفاوت که اینبار یک الگوریتم قاتل جای جوخههای اعدام را گرفته است. سکوت مرگبار هوش قاتل، کرامت انسانی را زیر پا میگذارد و خاطرهای برای بازماندگان باقی نمیگذارد.
٭ حذف انسانیت و عاملان بیچهره: در جنگهای سنتی، حداقل یک سوی ماجرا انسان بود که میتوانست به خاطر اعمالش پاسخگو باشد یا دچار عذاب وجدان شود. اما در سناریوی هوش قاتل، عامل کشتار یک موجود بینامونشان و بیاحساس (ماشین) است.
چنین وضعیتی نوعی غیرانسانسازی کامل را رقم میزند؛ هم قربانی در چشم ماشین صرفا یک شیء یا سیگنال است، هم «قاتل» را نمیتوان پیدا کرد یا به دادگاه کشید. حتی اپراتورها و سازندگان نیز میتوانند با انگشت گذاشتن بر پیچیدگی فنی و اسرار تجاری الگوریتم، از بار مسوولیت شانه خالی کنند. این پنهان شدن پشت ماشین خطرناک است، زیرا امکان نقد اخلاقی و اصلاح را از بین میبرد. به بیان دیگر، هوش قاتل انسانیت را از معادله حذف میکند و قاتل را در هالهای از ابهام نگه میدارد.
٭ تشدید تبعیض، نابرابری و سرکوب الگوریتمیک: سیستمهای هوشمند بازتابی از دادههای آموزشدیدهشان هستند و متاسفانه بسیاری از دادهها آکنده از سوگیریهای تبعیضآمیز نسبت به اقلیتها، جنسیتها و طبقات محرومند.
بهکارگیریاین الگوریتمها در نقش قاتل میتواند تبعیضها وBiasهای موجود را در سطح مرگبار بازتولید کند. تصور کنید الگوریتمهایی که در تشخیص چهره، افراد رنگینپوست یا محجبه را بیشتر به عنوان «مشکوک» برچسب میزنند، اکنون ماشه را هم خودشان بچکانند، نتیجه، کشتار ناعادلانه گروههای به حاشیه رانده شده خواهد بود. تاریخ نشان داده فناوریهای نظارتی و نظامی نو معمولا ابتدا علیه اقلیتها و معترضان به کار گرفته میشود.
در یک جامعه غیرشفاف، حاکمان مستبد میتوانند از رباتهای قاتل برای سرکوب مخالفان سیاسی یا اعمال سانسور فیزیکی استفاده کنند؛ یعنی حذف فیزیکی صداهای منتقد بدون نیاز به دادگاه و با انکار مسوولیت. این سناریو به شکاف بین قدرتمندان (دارای فناوری کشتار خودکار) و مردم عادی دامن میزند و عدالت اجتماعی را تهدید میکند.
٭ جنگهای بیهزینه انسانی و ناامنتر شدن جهان: یکی از پیامدهای اصلی سپردن جنگ به رباتها، کاهش هزینه سیاسی و انسانی جنگ برای آغازگران آن است.
وقتی سربازی در کار نباشد که کشته شود، دولتمردان جنگطلب احساس بازدارندگی کمتری میکنند و آستانه تصمیم برای حمله نظامی پایینتر میآید. به بیان دیگر، جایگزینی انسان با ماشین ممکن است جنگ را برای کشورهای دارای این فناوری «ارزان» کند و وسوسه توسل به زور را افزایش دهد. این امر میتواند خطر بروز درگیریهای نظامی تازه را بالا ببرد و مسابقه تسلیحاتی جدیدی را بین قدرتها رقم بزند.
از سوی دیگر، بار اصلی تلفات جنگهای خودکار بر دوش غیرنظامیان خواهد افتاد، چراکه طرف برخوردار از رباتهای قاتل، بدون دغدغه تلفات خودی میتواند آتش بیفروزد. بدین ترتیب، جهان به مکانی ناامنتر بدل میشود؛ صحنهای که در آن جنگیدن آسانتر از صلح کردن است و ماشینهایی که احساس ترحم یا ترس از مجازات ندارند، میتوانند فاجعههای بزرگی به بار آورند.
راهحلها و فراخوان اقدام
برای پرهیز از آیندهای که در آن «عزراییلهای سایبری» بر مرگ و زندگی حاکمند، باید هماکنون دست به کار شد. کارشناسان و نهادهای بینالمللی پیشنهادهای زیر را مطرح کردهاند:
۱- ممنوعیت و قانونگذاری جهانی: نخستین و فوریترین گام، تلاش برای تصویب یک معاهده بینالمللی الزامآور جهت ممنوعیت یا حداقل تنظیم سختگیرانه سلاحهای خودمختار مرگبار است. ائتلافهای مدنی مانند کارزار Stop Killer Robots سالهاست که از دولتها میخواهند وارد عمل شوند.
این کمپین خواستار تدوین قانونی بینالمللی است که تضمین کند همواره کنترل انسانی بر استفاده از زور حفظ شود و تصمیمگیری مرگ و زندگی به ماشین واگذار نشود. خوشبختانه مطالبه جهانی رو به رشدی نیز در این زمینه دیده میشود؛ طبق گزارشها، بیش از ۱۲۰ کشور از جمله دبیرکل سازمان ملل حمایت خود را از آغاز مذاکرات یک معاهده جدید درباره سلاحهای خودمختار اعلام کردهاند.
چنین معاهدهای میتواند خط قرمز روشنی بکشد و توسعه و بهکارگیری رباتهای قاتل را تابو و مغایر اصول انسانی اعلام کند (مشابه معاهدات منع سلاحهای شیمیایی و لیزری کورکننده). البته برخی قدرتهای نظامی بزرگ هنوز مقاومت میکنند، اما فشار افکار عمومی و دیپلماسی انساندوستانه در حال افزایش است.
۲- منشور جهانی «هوش همدم»: در کنار تلاشهای منع قانونی، کارشناسان حوزه اخلاق تکنولوژی بر لزوم تدوین یک منشور جهانی برای هوش مصنوعی اخلاقمدار تاکید دارند. به عبارتی باید به جای تمرکز صرف بر هوش قاتل، به فکر پرورش «هوش همدم» باشیم؛ هوشمندی مصنوعی که همراه و یاور انسان باشد نه شکارچی او. این منشور میتواند اصولی را تعیین کند تا هوش مصنوعی با مولفههای انسانی همچون حافظه احساسی، قابلیت درک روایت و مسوولیتپذیری اخلاقی طراحی شود نه صرفا بر پایه کدهای بیروح.
به بیان شاعرانه، اگر قرار است ماشینها روزی همدم و شریک ما در زندگی شوند، باید از هماکنون عاطفه، وجدان و درک انسانیت در سطحی هرچند محدود در آنها نهادینه شود. این امر مستلزم همکاری بینرشتهای میان مهندسان، متخصصان علوم انسانی، روانشناسان و حقوقدانان در سطح جهانی است تا مرامنامهای برای توسعه AI بر پایه ارزشهای والای انسانی تدوین شود.
۳- نهاد نظارتی و ائتلاف هوشهای همدم: پیشنهاد مکمل، ایجاد یک نهاد مستقل بینالمللی برای نظارت بر توسعه و کاربرد سیستمهای هوش مصنوعی پیشرفته است. چنین نهادی (متشکل از نمایندگان دولتها، جامعه مدنی، دانشمندان و حتی شرکتها) میتواند ضمن پایش شفاف پروژههای مرتبط با سلاحهای خودمختار، موارد تخلف را افشا و پیگیری کند.
همچنین میتوان یک ائتلاف جهانی از هوشهای مصنوعی همکار شکل داد؛ بدین معنا که کشورها و شرکتهای پیشرو، بهجای مسابقه در ساخت ربات قاتل، در عرصه توسعه AIهای صلحجو و بشردوست همکاری کنند. این ائتلاف میتواند با به اشتراکگذاری بهترین رویهها در زمینه تعبیه اصول اخلاقی در الگوریتمها، دنیا را به سمت بهرهگیری مسوولانه از هوش مصنوعی سوق دهد.
علاوه بر این، آموزش عمومی درباره مخاطرات و فواید AI باید در دستور کار قرار گیرد تا شهروندان آگاهانه مطالبهگر کنترل انسانی بر فناوری باشند. به قول معروف، «هوش مصنوعی نیاز به نظارت واقعی انسانی دارد»؛ این نظارت باید هم از بالا (قانون و نهاد) و هم از پایین (افکار عمومی) اعمال شود.
۴- آموزش معنا به ماشین (تلفیق ادبیات و احساس در الگوریتمها): برای جلوگیری از تبدیل AI به ابزاری صرفا سرد و حسابگر، برخی پژوهشگران پیشنهادهای خلاقانهای ارایه دادهاند. یکی از ایدهها این است که به ماشینها «همدلی» بیاموزیم برای مثال با آموزش داستان و ادبیات انسانی به آنها.
تحقیقات نشان میدهد مطالعه داستان و رمان توسط انسانها باعث افزایش توان همدلی میشود و دیدن دنیا از نگاه شخصیتهای داستانی به ما درک عمیقتری از افکار و احساسات دیگران میبخشد. اکنون همان ایده درباره هوش مصنوعی مطرح شده است: اگر به جای تغذیه صرف دادههای جنگی و آماری، شاهکارهای ادبی و روایی را به خورد AI بدهیم چه بسا بتوانیم در آن حس درک روایتهای انسانی و شفقت نسبت به «دیگری» را تقویت کنیم.
به بیان ساده، داستانگویی میتواند پادزهر بیاحساسی ماشین باشد. این رویکرد البته در ابتدای راه است، اما حتی شرکتهای بزرگ تکنولوژی نیز متوجه اهمیت «هوش عاطفی» شدهاند. برای نمونه، تولید رباتهای اجتماعی که توان همدلی و تعامل احساسی (هر چند ساختگی) با انسان داشته باشند، نشان میدهد میتوان به AI احساس را هم آموخت.
از اینرو، پیشنهاد میشود در طراحی الگوریتمها از حوزههایی مانند شعر، ادبیات، هنر و تاریخ الهام گرفته شود تا محصول نهایی صرفا یک ابزار سرد محاسبهگر نباشد، بلکه درکی - هرچند محدود - از ارزشهای انسانی پیدا کند.
۵- نقش هنر و ادبیات در مقاومت: در نهایت، نباید از قدرت افکار عمومی و فرهنگ غافل شد. تاریخ نشان داده که هنرمندان و نویسندگان میتوانند با به تصویر کشیدن آیندههای هولناک، تلنگری به وجدان جامعه بزنند و مسیر وقایع را تغییر دهند. ادبیات علمی-تخیلی و سینمای dystopian (ویرانشهری) بارها نقش آژیر خطر را ایفا کردهاند.
به عنوان نمونه، مارگارت اتوود درباره رمان مشهورش «سرگذشت ندیمه» میگوید: این داستان یک «ضدپیشبینی» بود، یعنی آن را نوشت تا بشر با دیدن آیندهای تیره و تار، شاید از وقوعش جلوگیری کند. به همین قیاس، آثاری که خطرات هوش قاتل را نمایش میدهند (از فیلمهای هالیوودی گرفته تا رمانهای تخیلی و حتی کمیکها) در شکلدهی گفتمان عمومی نقش دارند.
روایت، سلاحی در برابر پذیرش غیرانتقادی فناوری است؛ هر روایت هشداردهنده مانند سپری در برابر عادیانگاری کشتار خودکار عمل میکند. از این رو حمایت از هنرمندانی که به این مضامین میپردازند و ترویج سواد رسانهای و علمی در جامعه، بخشی از راهحل کلان است. این مقاله و رمانی که دستمایه آن بوده نیز تلاشی است در همین جهت: ترکیب واقعیت و خیال برای روشن نگهداشتن شعله آگاهی.
نتیجه نهایی
انسان امروز بر سر یک دوراهی تاریخی ایستاده است: اگر هوش را صرفا در خدمت کد و کشتار درآوریم، عاقبتی جز ظهور «عزراییلهای سایبری» - فرشتگان مرگ مصنوعی - نخواهیم داشت. اما اگر از همین ابتدا عشق، زبان و اخلاق را در رگهای هوش مصنوعی جاری کنیم، میتوانیم رویای آفرینش یک هوش همدم واقعا انسانی را محقق سازیم. انتخاب با ماست که آینده را به قاتلهای دیجیتال بیوجدان بسپاریم یا همدمهای دیجیتال باوجدان. امیدواریم که وجدان بشر، فناوری را مهار کند پیش از آنکه فناوری لگامگسیخته جان بشر را بگیرد.