دستور مرگ با الگوریتم: دوران ربات های قاتل بیش از همواره به ما نزدیک است؛ قسمت اول
به گزارش مبصر کلاس، پیشرفت بشر در حوزه رباتیک سریع تر و نگران کننده تر از همواره به نظر می رسد. پیشرفتی که شاید به ساخت ربات های قاتل منجر گردد.
به گزارش مبصر کلاس به نقل از زومیت، تصور کنید ارتشی عظیم میخواهد شهری را در جریان نبرد جنگی تصرف کند. فرماندهان نمی خواهند نیروهای نظامی در نبردهای خانه به خانه درگیر شوند و تلفات زیادی داشته باشند. آن ها ابتدا گروهی از پهپادهای کوچک را با دستور العملی ساده به منطقه می فرستند: هر فردی که سلاح حمل می نماید را بکشید. چند ساعت بعد، شهر برای نفوذ نیروهای انسانی امن خواهد بود.
سناریوی بالا شبیه به صحنه ای از یک فیلم علمی تخیلی به نظر می رسد. شاید باور نکنید که فناوری مورد احتیاج برای پیوند دادن داستان بالا به حقیقت، هم اکنون در دستان انسان ها واقع شده است. ارتش های متعددی در سرتاسر دنیا کوشش می نمایند تا این داستان را به واقعیت پیوند دهند.
متخصصان یادگیری ماشین و فناوری های نظامی اعتقاد دارند ساخت ربات هایی با قابلیت تصمیم گیری بدون دخالت انسان، از لحاظ فناورانه ساده محسوب می گردد. ربات های مورد نظر آن ها، می توانند بدون درگیر کردن انسان ها در فرایندهای تصمیم گیری، هدف های کشتار خود را انتخاب نمایند. به بیان دیگر هیچ فردی از هیچ یک از مراحل انتخاب تا کشتن سوژه دخالت نخواهد کرد. با قدرتمندتر شدن فناوری های تشخیص چهره و الگوریتم های تصمیم گیری، توسعه چنین فرایندی روز به روز هم آسان تر می گردد.
سلاح هایی که در بالا به آن ها اشاره کردیم، به نام سلاح های مرگ بار اتوماتیک در اسناد نظامی مطرح می شوند. درواقع همان نام ربات قاتل را می توان برای چنین فناوری استفاده کرد. سلاح های مذکور برخلاف تصور مردم عادی به صورت ربات های انسان نما نخواهند بود و عموما، پهپاد هستند. درواقع ساختن ربات های انسان نمای مبارز هنوز مراحل دشواری در پیش دارد. به هرحال ساختن پهپادهای مرگ بار آسان تر از فرایندهای کنونی خواهد بود و قطعا محصولاتی مقرون به صرفه تر هم فراوری می شوند.
اکنون و با توسعه فناوری رباتیک، محققان حوزه هوش مصنوعی و سیاست های عمومی کوشش می نمایند تا جامعه و دولت مردان را از خطرات ربات های قاتل آگاه نمایند. آن ها می گویند چنین ربات هایی نه تنها در فیلم های علمی تخیلی، بلکه در زندگی واقعی هم ایده بدی هستند. هوش مصنوعی قطعا کاربردهایی در کاهش اثرات مرگ بار جنگ و آسیب های آن دارد. منتهی اسلحه های کاملا اتوماتیک می توانند بحران های جدی استراتژیک، فنی و اخلاقی ایجاد نمایند. به همین علت دانشمندان و فعالان اجتماعی کوشش می نمایند تا سازمان ملل متحد و دولت های سرتاسر دنیا را به ایجاد ممنوعیت های پیشگیرانه تشویق نمایند. آن ها امیدوار هستند که ربات های قاتل را در همان فیلم های علمی تخیلی نگه دارند.
ربات های قاتل چگونه عمل می نمایند؟
آمریکایی ها و بسیاری کشورهای دیگر هم اکنون هم از پهپادهای نظامی استفاده می نمایند. این پهپادها در حال حاضر هم در آسمان بسیاری از کشورها درحال پرواز هستند. البته در نمونه های کنونی، انسان ها تصمیم نهایی را در شلیک آتش به پهپاد ارسال می نمایند. سلاح های مرگ بار اتوماتیک (به اختصار با LAWS شناخته می شوند) هنوز به صورت کامل وجود خارجی ندارند؛ اما فناوری لازم برای جایگزین کردن انسان های تصمیم گیر با الگوریتم، طراحی شده است.
استوارت راسل استاد علوم کامپیوتر دانشگاه یوسی برکلی و محقق هوش مصنوعی درباره سلاح های اتوماتیک می گوید:
توسعه سلاح های اتوماتیک از لحاظ فناورانه آسان تر از خودروهای خودران است. افرادی که در فناوری های مرتبط کار می نمایند، توسعه چنین سلاح هایی را حداکثر تا دو سال آینده آسان و ممکن می دانند.
سلاح های اتوماتیک آینده شبیه به فیلم ترمیناتور نخواهند بود. ساده ترین نسخه های آن ها از سخت افزارهای کنونی پهپادهای نظامی بهره می برند. البته پهپادهای کنونی ویدئوی زنده ای از محل درگیری را به مرکز نظامی ارسال می نمایند که سرباز مورد نظر، براساس ویدئو دستور شلیک می دهد. درمقابل، سلاح های اتوماتیک سربازر را از چرخه خارج می نمایند و تصمیم گیری به وسیله الگوریتم انجام می گردد.
الگوریتم ها را می توان با فهرستی از اهداف احتمالی تغذیه کرد. آن ها با آنالیز ویدئوهای خود و پس از اطمینان حداکثری از شناسایی فرد مورد نظر، شلیک را انجام می دهند. به علاوه می توان الگوریتم را با نمونه هایی از میدان نبرد آموزش داد. پس از مدتی الگوریتم متوجه می گردد که در چه موقعیت هایی احتمال صدور فرمان حمله بیشتر خواهد بود. ماشین مورد نظر در آن موقعیت ها به صورت اتوماتیک دستور حمله را صادر و اجرا می نماید. در نمونه ای دیگر می توان دستور ساده ای به الگوریتم داد تا با شناسایی بصری، هر فردی را که بدون پوشیدن یونیفرم های خودی، سلاح حمل کند، هدف قرار دهد.
توبی والش، استاد هوش مصنوعی در دانشگاه نیو ساوث ولز و فعال مبارز علیه توسعه سلاح های اتوماتیک مرگ بار درباره آن ها می گوید:
وقتی درباره ربات های قاتل صحبت می کنیم، مردم فیلم ترمیناتور را تصور می نمایند. آن ها فیلم های علمی تخیلی را در نظر می گیرند. مردم فکر می نمایند این فناوری سال ها از ما فاصله دارد. درواقع سلاح های مرگ بار فناوری های ساده ای دارند که نزدیک تر از همواره به ما هستند. به علاوه هم اکنون هم نمونه های اولیه آن ها ساخته می گردد.
در سال های گذشته، هوش مصنوعی با سرعت بالایی رشد نموده است. تشخیص چهره بیش از هیشه دقیق شد و شناسایی اجسام هم با همان سرعت پیشرفت کرد. فناوری هایی که برای توسعه سلاح های مرگ بار اتوماتیک، الزامی هستند.
روش های نو به سیستم های هوش مصنوعی امکان انجام کارهایی را می دهند که چند سال پیش غیرممکن به نظر می رسید. از نوشتن داستان تا طراحی و ساخت چهره های قلابی امروزه به راحتی به وسیله هوش مصنوعی انجام می گردد. به علاوه فناوری امروز می تواند در بازی های جنگی آنلاین تصمیم های استراتژیک کاربردی بگیرد که در توسعه سلاح های مرگ بار اتوماتیک بسیار کاربردی خواهد بود.
پیشرفت های بالا ثابت می نمایند که توسعه سلاح های اتوماتیک مرگ بار امروز از غیرممکن به ساده تبدیل شده است. پیشرفت ها هم به این خاطر ایجاد شدند که ما مردم دنیا هیچ اجماع یا نظرسنجی را پیرامون صحیح بودن یا نبودن توسعه آن ها انجام نداده ایم.
چرا نیروهای نظامی به ربات احتیاج دارند؟
خارج کردن انسان ها از چرخه و توسعه سلاح هایی که به صورت اتوماتیک تصمیم گیری می نمایند، چالش های اخلاقی خطرناکی به همراه دارد. همان طور که گفته شد چالش های استراتژیک هم ایجاد خواهند شد که بعدا به آن می پردازیم. به هرحال اکنون این سؤال مطرح می گردد که چرا فرد یا سازمانی باید در پی چنین سلاح هایی باشد؟
از دیدگاه نظامی، بهترین مزیت سلاح های اتوماتیک، فرصت های نوی خواهد بود که با استفاده از آن ها ایجاد می گردد. در شرایط کنونی که ارتش ها به یک سرباز برای تصمیم گیری درباره شلیک یا عدم شلیک احتیاج دارند، تعداد پهپادهای در دسترس نیروی نظامی محدود به تعداد سربازان می گردد.
پهپادهای کنونی احتیاج به ارسال و دریافت داده با مرکز نظامی دارند. همین ارتباط کمی تأخیر در تصمیم گیری و عملکرد سلاح ایجاد می نماید. به علاوه محل مناسب فعالیت سلاح ها هم محدود می گردد و به نوعی آسیب پذیر هم می شوند. چرا که اگر نیروهای دشمن ارتباط را قطع نموده یا تداخلی در آن ایجاد نمایند، پهپاد عملا بی فایده می گردد.
سلاح های موسوم به LAWS توانایی ازبین بردن محدودیت های بالا را دارند. والش در بخش دیگری از صحبت پیرامون سلاح های اتوماتیک می گوید:
وقتی انسان از فرایندها خارج گردد، شما می توانید هزاران یا میلیون ها سلاح اتوماتیک داشته باشید. به علاوه به این تعداد نیروی انسانی هم احتیاج نخواهید داشت. دیگر نباید نگران تداخل در ارتباط باشید که امروزه به نام راهکاری برای مقاله با پهپادهای تحت کنترل انسان استفاده می گردد.
والش در ادامه می گوید که کاهش نیروی انسانی مورد احتیاج، تنها کاربرد سلاح های کاملا اتوماتیک نیست. او می گوید ربات ها عموما عملنمودهای اخلاقی بهتری دارند. به بیان دیگر انسان ها بعضی اوقات جنایات جنگی مرتکب می شوند و از روی عمد، غیرنظامی ها را هدف قرار می دهند. به علاوه انسان ها احساس خستگی، استرس و گیجی را تجربه می نمایند. انسان ها درصد اشتباه بالایی دارند، درحالی که ربات ها تنها از کد دستوری پیروی می نمایند.
رنجر پائول شار متخصص سابق دفاع در پنتاگون و ارتش آمریکا ایده ربات های اتوماتیک را در کتاب سال 2018 خود به نام Army of None مطرح می نماید. او در بخشی از کتاب می گوید:
ماشین ها برخلاف سربازهای انسانی هیچ گاه عصبانی نمی شوند و در پی انتقام جویی نیستند. اکنون به راحتی می توان عملکرد مناسب سلاح های آینده را متصور شد. آن ها دیگر در تشخیص بین یک ابزار کشاورزی با اسلحه، اشتباه نمی نمایند.
شار در پاین می گوید که استدلال هایش درباره سلاح ها مسائل اخلاقی جدی دارد. او در بخشی از کتاب می گوید: آن چه که صحیح تصور می کنیم، همواره با آن چه که قانونی است برابر نخواهد بود. او داستانی را از جنگ افعانستان و رویارویی تیمش با طالبان نقل می نماید. در داستان او، طالبان از کودکی 6 ساله استفاده نموده بود تا در ظاهر چوپانی گله گوسفندان، آمار موقعیت نیروهای آمریکایی را گزارش کند.
کهنه سرباز ارتش آمریکا می گوید: قانون جنگ برای مبمقرون به صرفه محدودیت سنی معین نمی نماید. طبق قوانین جنگ، یک مبارز طالبان (هرچند خردسال) در داستان بالا در عملیاتی نظامی علیه نیروهای آمریکای حضور داشت و کشتن او، مجاز تلقی می شد. البته طبق ادعای شار، سربازها به کودک شلیک نکردند، اما رباتی که طبق قوانین جنگی الگوریتم نویسی گردد، چنین انتخابی نخواهد کرد. به هرحال شار پارادوکسی را مطرح می نماید که در آن، ربات و انسان عملنمودهایی متناقض با هم دارند. بعضی اوقات انسان ها عملنمودهایی خلاف قوانین جنگی دارند و در مواقعی دیگر، به خاطر کدهای انسانی و احساسی، تصمیمات بهتری می گیرند. ربات ها هیچ گاه چنین تصمیم گیری هایی نخواهند داشت.
امیلیا یاورسکی بنیان گذار سازمان دانشمندان دربرابر سلاح های غیر انسانی (Scientists Against Inhumane Weapons) اعتقاد دارد راه های بهتری برای استفاده از ربات ها در جریان جنگ ها وجود دارد. او می گوید می توان از فناوری در جهت جلوگیری از جرایم جنگی استفاده کرد:
انسان ها و ماشین ها اشتباهات متفاوتی مرتکب می شوند. اگر آن ها را با هم به کار بگیریم، می توان از ارتکاب هر دو نوع اشتباه جلوگیری کرد. چنین رویکردی را امروز در پزشکی می بینیم. الگوریتم های شناسایی بیماری یک نوع اشتباه انجام می دهند و پزشکان اشتباه دیگری مرتکب می شوند.
در نتیجه پیشنهاد یاورسکی شاید بتوان سلاح هایی را طراحی کرد که قوانین جنگ را بدانند. سپس می توان از آن ها انتظار داشت که با هر دستور مخالف قوانین، مقابله نمایند. به علاوه آن ها نباید بدون نظارت نیروی انسانی، اجازه شلیک داشته باشند. سازمان دانشمندان دربرابر سلاح های غیر انسانی و جنبش های مشابه در سرتاسر دنیا، مخالفتی با چنین رویکردی از سوی فناوری ندارند. آن ها می گویند که وجود یک انسان در چرخه تصمیم گیری و عملکرد سلاح ها باید به نام قانونی بین المللی و بخشی اساسی در توسعه سلاح ها در نظر گرفته گردد.
اگر راستا صحیحی در توسعه سلاح های رباتیک طی گردد، می توان به آینده ای بهتر امیدوار بود. درنتیجه ربات هایی را شاهد خواهیم بود که حفاظ هایی اتوماتیک علیه اشتباه های جنگی ایجاد می نمایند. به علاوه انسان ها در فرایند تصمیم گیری آن ها حضور دارند تا از صحیح بودن تصمیم های اتوماتیک مطمئن شوند. درنهایت تحلیل گرها نگران هستند که حرکت کنونی به سمت اتوماتیکسازی کامل حرکت می نماید. دنیایی که در آن ربات ها بدون ورودی انسانی، دستور کشتن قربانیان را صادر و اجرا می نمایند.
منبع: جام جم آنلاین