به گزارش الوقت کنفرانس مقابله با گسترش ساخت و توسعه رباتهای قاتل در مقر سازمان ملل در ژنو سویس بدون کسب نتیجهای روز جمعه ۹ فروردین (۲۹ مارس) به پایان رسید.
در این کنفرانس که از روز دوشنبه آغاز شده بود، قرار بود در بیانیهای سیاسی در زمینه خطرات استفاده از رباتهای نظامی که خود مستقلا تصمیم به استفاده از سلاح میگیرند گوشزد شود.
سالهاست که با پیشرفتهای سریع تکنولوژیکی و رقابت گسترده شرکتهای تولیدکننده سلاح برای تولید جنگ افزارهای مدرنتر با استفاده از هوش مصنوعی و به صورت رباتیک، موجب شده است تا موضوع نگرانی از آثار و خطرات نامعلوم احتمالی توسعه این سلاحها به بحث مهمی در میان دولتها، سازمانهای بینالمللی ذی الصلاح در عرصه تعیین کنوانسیون های جنگی، مراکز تحقیقاتی و آکادمیک و رسانهها تبدیل شود.
رباتها سلاحهای مرگبار آینده
در سال 1942 شخصی به نام اسحاق اسیموف یک داستان کوتاه با عنوان« Runaround» منتشر کرد که در آن برای اولین بار اصطلاح "روباتیک" را به کار گرفت و ایده روبات هایی را که قادر به کشتن انسانها باشند طرح کرد. اگرچه این داستان در دهههای بعد بیشتر موضوع تولید فیلمهای هالیوودی بوده است اما اکنون پیشرفت تکنولوژی بویژه در حوزه رباتها و هوش مصنوعی نگرانیهای جهانی در زمینه امکان تحقق این داستانها در دنیای واقعی را پیش کشیده است.
ربات قاتل سلاحی کاملا مستقل است که میتواند اهداف را بدون دخالت انسان انتخاب و نابود کند. تولید چنین سلاحی محصول پیشرفت فناوری هوش مصنوعی است. هوش مصنوعی که در سال 1956 توسط جان مک کارتی، یک مهندس کامپیوتر ابداع شد به شبیهسازی فرآیندهای هوشی انسان توسط ماشینآلات، به ویژه سیستمهای کامپیوتری گفته میشود. این فرآیند شامل یادگیری (کسب اطلاعات و قواعد و استفاده از آنها)، استدلال (استفاده از قوانین برای رسیدن به نتایج تقریبی یا قطعی) و خود اصلاحی است.
استفاده از موتور جستوجوگر گوگل یا وبگردی در سایت آمازون نمونهای ابتدایی از مواجهه با هوش مصنوعی در زندگی امروزی است، اما گفته میشود که نوع پیشرفته این فناوری به "خودآگاهی" نیز دست خواهد یافت.
بنیاد تحقیقات پیشرفته روسیه یا ARF درباره ربات های قاتل روسی اعلام کرده است: «سیر تکاملی ربات های نظامی به سمتی میرود که توانایی انجام وظایف مختلف را به لطف استفاده از هوش مصنوعی بالا میبرد و در آینده نزدیک وابستگی ربات ها به انسان کاهش خواهد یافت و کم کم دیگر به اپراتور انسانی نیازی نخواهد بود.»
اما نشانهها حاکی از بیشتر شدن تحقیقات دولتها در این زمینه میباشد از جمله پایگاه خبری دیفنسنیوز در گزارشی عنوان کرده که پنتاگون سرمایهگذاری هنگفتی بر روی تحقیق و توسعه هوش مصنوعی و سلاحهای خودمختار انجام داده است. کارشناسان و مقامات ارشد ارتش آمریکا گفتهاند که استفاده از "روبات های قاتل" در جنگ طی سالهای آینده به شدت گسترش خواهد یافت و هزینههای جهانی تحقیق و توسعه این سلاحها دوبرابر شده و از 71.8 میلیارد پوند در سال 2016 به 188 میلیارد دلار در سال 2020 خواهد رسید.
بر همین اساس اکثریت دولت ها پیشنهاد مذاکره در مورد ایجاد یک معاهده جدید برای جلوگیری از توسعه و استفاده از سلاح های کاملا مستقل نظیر هواپیماها، کشتی ها و تانکها و... که می تواند بدون نظارت بر انسان عمل می کنند را کردهاند.
دولتهای پیشرو در توسعه رباتهای قاتل
ایالات متحده، چین، اسرائیل، کره جنوبی، روسیه و انگلستان در حال توسعه سیستم های سلاح با استقلال قابل توجهی در عملکرد های مهم انتخاب و حمله به اهداف هستند.
اما در حال حاضر، به نظر میرسد که آمریکا، روسیه و چین وارد یک رقابت نامرئی برای توسعه و دستیابی به رباتهای قاتل شدهاند. با این وجود، پیشرفت آمریکا در این زمینه دو رقیب دیگر آن یعنی روسیه و چین را نگران کرده است.
در سال 2015 دولت روسیه یک ویدیوی تبلیغات از ربات های قاتل روسی منتشر کرده که قرار است در میدان نبرد به کمک ارتش این کشور بیایند.
ربات های قاتل روس در ابتدا شامل یک تانک خودران میشوند که هوش مصنوعی کنترل آن را بر عهده دارد و میتواند حرکت سربازان قرار گرفته جلوی خود را تکرار کرده و هدف مشابهی را با چند سلاح خود نشانه گیری کند. در همین زمینه اواخر فوریه 2019 ارتش روسیه از ربات قاتل جدید خود با عنوان «مارکر» رونمایی کرد.
بنیاد تحقیقات پیشرفته روسیه یا ARF هدفش از توسعه ربات های قاتل روسی را ایجاد ارتشی متشکل از چندصد ربات اعلام کرد که تمامی آنها توسط الگوریتمهای هوش مصنوعی کنترل شوند.
اما اگرچه روسیه در این زمینه به پیشرفت هایی دست یافته و سخنان پوتین در سپتامبر 2017 که پیشتازی در عرصه تحقیقات هوش مصنوعی را مجرای اصلی سلطه بر امور جهان اعلام کرده بود اما کارشناسان معتقدند در واقع چین و آمریکا (و نه روسیه) هستند که هم اکنون در خط مقدم این جبهه حضور دارند و حتی چین اخیرا اعلام کرده که میخواهد تا سال ۲۰۳۰ میلادی به سردمدار جهان در این عرصه بدل شود.
در این زمان رژیم صهیونیستی نیز از جمله دولتهای خاورمیانه ای است که برای پوشش ضعفهای نظامی خود تصمیم به سرمایه گذاری در این عرصه کرده است. هواپیمای بی سرنشین ضد رادار اسرائیل به نام "آتش و فراموش کن" نزدیک ترین همه به آن ها می باشد.
منتقدان چه میگویند؟
آیا اخلاقی است که یک ربات با هوش مصنوعی تصمیم بگیرد که زندگی یک انسان را بگیرد؟ یا به عبارت دیگر از کجا معلوم که این تکنولوژی حیات انسانی را نابود نسازد. این شاید مهمترین نقد و پیام هشداری است که در مورد تولید ابزار نظامی با توانایی تصمیمگیری مستقل از انسان بیان میشود.
از سوی دیگر مشخص نیست که چه کسی می تواند مسئول اقدامات غیرقانونی ناشی از یک سلاح کاملا مستقل باشد: برنامه نویس، سازنده، فرمانده یا خود دستگاه ؟ این شکاف پاسخگویی باعث می شود تا عدالت به ویژه برای قربانیان تضمین نشود.
همچنین جایگزینی نیروهای نظامی با ماشین ها می تواند تصمیم به رفتن به جنگ را آسان تر کند و از طرف دیگر به کشتار بیشتر به غیر نظامیان در جنگها بیانجامد چرا که از ارزیابی تناسب حمله و واکنش برخوردار نیستند و یا ممکن است افراد غیرنظامی را از جنگجویان تشخیص ندهند و دیگر قوانین اصلی جنگ را زیر پا نهند.
در این میان افراد سرشناس دنیا با پیشبینیهای خود بر وحشت ظهور رباتهای قاتل افزودهاند. استیون هاوکینگ، نظریهپرداز و فیزیکدان معروف انگلیسی میگوید: «هوش مصنوعی فراخوانی برای پایان نسل بشر است.» الون ماسک، مدیرعامل شرکت تسلا موتورز و اسپیس اکس نیز ساخت رباتهای قاتل را به "احضار شیطان" تشبیه کرده است.
لذا در سال 2015 بیش از 100 کارشناس برجسته در زمینه رباتیک از سازمان ملل درخواست کردند تا از توسعه فناوری رباتهای قاتل جلوگیری کند.
متخصصان هوش مصنوعی در بخشی از اجلاس مجمع جهانی اقتصاد (داووس 2018) گردهم آمدند تا در مورد آینده سلاحهای خودمختار (رباتهای قاتل) به گفتوگو بنشینند.
در مجمع صلح پاریس در سال 2018 نیز آنتونیو گوترش دبیر کل سازمان ملل متحد خواستار ممنوعیت روبات های قاتل شد و گفت: "برای من یک پیام است که بسیار روشن است - ماشین هایی که قدرت و اختیار دارند زندگی انسانی را خاتمه بدهند از لحاظ سیاسی غیرقابل قبول است، از نظر اخلاقی منزجر کننده است و باید توسط قوانین بین المللی ممنوع شود. "
اما با وجود این تلاشها همانگونه که پایان بدون نتیجه کنفرانس اخیر ژنو نشان داد ایجاد یک پروتکل جهانی برای ممنوع کردن این ربات ها با وجود مخالفت دولتهای قدرتمند دارای حق وتو میسر نیست. این در حالی است که وجود سلاحهای هستهای در دست این قدرتها گسترش کاربرد سیستم هوش مصنوعی در ارتشها را هولناکتر کرده است.