هوش مصنوعی و آینده جنگ‌ها؛ روبات‌ها با اصول حقوق بشر دوستانه چه می‌کنند؟

گروه فناوری الف،   3980911102

امروزه کاربردهای مختلف هوش مصنوعی در ابعاد مختلف زندگی، بخصوص در مباحث نظامی، باعث مطرح شدن مسائل مختلف اخلاقی در باب استفاده از ربات‌ها در جنگ شده است.

هوش مصنوعی و آینده جنگ‌ها؛ روبات‌ها با اصول حقوق بشر دوستانه چه می‌کنند؟

به گزارش خبرگزاری علم و فناوری؛ تاریخ حیات بشری سرشار از دوگانگی‌های بسیاری بوده که شاید جنگ و صلح را بتوان مهم ترین نمود و نتیجه همه آن ها محسوب کرد. تاریخ انسان، تاریخ جنگ و صلح و در واقع جنگ و صلح سازنده تاریخ انسانی بوده است. اگر این پندار صحیح باشد، تغییر در ابزار و ماهیت جنگ و صلح، تاریخ های متمایزی را رقم زده که برای درک و شناخت آن ها ناگزیر از شناخت ابزار و ماهیت جنگ ها و دگرگونی های آن‌ها هستیم.

به نقل از پژوهش دکتر اصغر مشبکی، کاربردهای نوین هوش مصنوعی در خلال جنگ جهانی دوم و توسط نوربرت وینر یکی از دانشمندان دانشگاه فنی ماساچوست آغاز شد. وی با استفاده از مفهوم بازخورد، روشی برای ساخت توپ ضد هوایی با هدایت راداری ابداع نمود. کار اینگونه بود که دستگاه با دریافت اطلاعات، بازخورد از رادار، همواره موقعیت خود را تنظیم می کرد.

الگوريتم‌هاي هوش مصنوعي با تكيه بر فناوري‌هاي كليدي مانند ميكروالكترونيك، نانو فناوري، سنسورها، محاسبات و ارتباطات درحال پيش بردن جوامع كنوني به سمت سيستم‌هايي هستند كه نقش عامل انساني كمرنگ‌تر شود. رايانه‌اي شدن سيستم‌ها يكي از شاخص‌هاي نشان دهنده افزايش سهم عنصر دانش در جنگ است. امروزه جنگ واقعاً از تمام جهات خودكار شده و مستلزم اين توانمندي است كه مقادير زيادي از داده‌ها در شكل‌هاي گوناگون مورد تجزيه و تحليل قرار گيرد.

نسل جدید تسلیحات نظامی و روبات‌ها، از جنگ‌افزارهای ثابت در نیروی دفاعی کشورهاست. در عصر حاضر، کشورهای چین، روسیه، انگلستان و ایالات متحده به همراه پنجاه کشور دیگر به دنبال تقویت زرادخانه روباتیک خود، ازجمله روبات‌های نظامی مرگبار هستند و در این میان، کشور چین با رونمایی از 27 مدل مختلف روبات‌های مسلح تا سال 2012 میلادی، مقام اول را به خود اختصاص داده است.

این حجم استفاده از روبات‌های نظامی، متخصصین علم روباتیک را بر آن داشته است تا با تکیه بر معیارهای مختلف، تعریفی مناسب برای این دسته از تسلیحات نوین ترتیب دهند. روبات ماشینی است که از طریق کنترل از راه دور یا بر اساس الگوهای ازپیش برنامه‌ریزی‌شده، دسته‌ای از وظایف با پیچیدگی‌های خاص را انجام می‌دهد و همچنین نسبت به انسان از درجات مختلف استقلال برخوردار است.

در دنیای امروز، اما برخی شرکت‌های صنعتی که در حوزه فناوری کار می‌کنند در تلاش هستند به کمک هوش مصنوعی و یادگیری ماشین روبات‌های سرباز تولید کرده و روانه میدان جنگ کنند. ظاهرا جنگ آینده جنگ روبات‌ها خواهد بود.

مشکل استفاده از روبات‌ها در جنگ چیست؟

بهره‌گیری از روبات‌های نظامی در ارتش بعضی از کشورها به امری طبیعی و حتی لازم تبدیل شده است، درحالیکه برخی دیگر، تنها قربانی استفاده از آن هستند. باید گفت که روبات با هر میزان از استقلال، خطراتی به همراه خواهد داشت و بدین ترتیب، نیازمند نظارت نهایی انسان است.

با استناد به نتایج پژوهش رضا اسلامی، استادیار دانشکده حقوق دانشگاه شهید بهشتی و نرگس انصاری که در سال 1395 انجام شد، باید گفت روبات نظامی به هنگام تطبیق با اصول کلیدی حقوق بشردوستانه بین‌المللی با مشکلاتی روبه‌روست که در ادامه به آن‌ها پرداخته می‌شود.

تفکیک میان اهداف نظامی و غیرنظامی از پایه‌ای‌ترین قواعدی است که باید به هنگام درگیری رعایت شود. حتی اگر سامانه به گونه‌ای برنامه‌ریزی شود که فرد نظامی را، با توجه به نشانه‌های مشخص‌کننده، شناسایی کند، به علت عدم تعریف «غیرنظامی» در حقوق بشردوستانه، مشخص نیست که چه برنامه‌ای باید در نرم‌افزار روبات قرار بگیرد.

شکی نیست وقتی که نتوان نظامی را از غیرنظامی تفکیک کرد، اصل تناسب را هم نمی‌توان به شایستگی اجرا کرد. بخش اساسی در این اصل، سنجش میزان تلفات جانبی و مزیت نظامی است. آن هنگام که معلوم نباشد که آیا روبات می‌تواند مرحله نخست را انجام دهد، یعنی تلفات غیرنظامیان را تعیین کند یا نه، اصلاً نمی‌توان به مرحله دوم یعنی سنجش مزیت نظامی ورود پیدا کرد. حتی اگر با استناد به برخی برنامه‌های موجود در روبات، از بخش نخست چشم‌پوشی شود، چگونه می‌توان از روبات انتظار داشت تا به سنجش مزیت نظامی و انجام فرایند تناسب، که فراتر از داده‌های کمی بوده و کاملاً ذهنی و کیفی است، بپردازد.

دکتر سید کمال الدین موسوی استاد جامعه شناسی جنگ و مدرس دانشگاه با اشاره به یکی از قدیمی‌ترین اهداف اساسی قواعد امری و عرفی حقوق بشردوستانه یعنی اصل تفکیک و مصونیت غیرنظامیان، گفت: این اصل باید در مخاصمه مسلحانه(ملی یا بین المللی) اعمال شود، زیرا این اصل در واقع تنظیم کننده نحوه استفاده از تسلیحات در درگیری های مسلحانه است.

همچنین در پژوهش اسلامی و انصاری آمده است که مسئله دیگر آنکه هنوز سامانه نرم‌افزاری روبات قادر نیست وضعیت‌هایی مانند فرد خارج از کارزار یا حالتی مانند تسلیم شدن را تشخیص دهد. در این بین، اعطای امان، زیر سؤال خواهد رفت. اگر روبات به گونه‌ای برنامه‌ریزی شود که فرد X باید کشته شود و آن فرد، زخمی شده و تقاضای اسیرشدن به جای کشته شدن را کند، آیا روبات، توان دستگیری فرد به جای قتل او را خواهد داشت؟

در صورت استفاده از روبات در میدان جنگ و نقض قواعد حقوق بشردوستانه، تعیین شخص مسئول، مشکل است. عامل، فرمانده، تولیدکننده یا برنامه‌ریز در مقام اتهام قرار خواهند گرفت که با این حال، هیچکدام به طور جدی مسئول اصلی نخواهند بود. عدم پاسخگویی و شفافیت، مهم‌ترین دغدغه پیش روی تسلیحات روباتیک با هر درجه از استقلال خواهد بود.

دکتر موسوی با اشاره به عدم تعریف دقیق غیرنظامیانی که حمایت قانونی خود را از دست می‌دهند با وجود هوش مصنوعی، اظهار داشت: این مسئله باعث می شود سرباز هنگام مواجهه با این اهداف، دچار شک و عدم قطعیت شود. حال انسان به واسطه قدرت تفکر، تجزیه و تحلیل و همچنین حس شفقت متناسب با وضعیت، تصمیم به شلیک یا عدم شلیک می‌گیرد.

با عنایت به مباحث مطرح شده در پژوهش اسلامی و انصاری و نظرات دکتر موسوی، می‌توان گفت روبات‌های نظامی در مواجهه با حقوق بشردوستانة کنونی با خلأ روبه‌رو هستند. گرچه موافقان با استدلالات خود، سعی در سازگار نشان دادن این نوع تسلیحات با قواعد موجود داشته‌اند، این موارد نتوانسته به چالش‌های جدی و مشخص در این حوزه پاسخ دهد. به عبارت دیگر، اگر دولت‌ها خواستار بهره‌گیری از روبات‌های نظامی هستند، با توجه به مشکلات عدیده مذکور، باید به فکر تنظیم شکل جدیدی از حقوق جنگ باشند یا اینکه به هنگام طراحی روبات‌ها، خط قرمز حقوق بشردوستانه موجود را در تمام زمینه‌ها رعایت کنند که در این صورت، بهره‌گیری از روبات نظامیِ کاملاً خودمختار، این خط قرمز را زیر سؤال خواهد برد.

yektanetتریبونخرید ارز دیجیتال از والکس

پربحث‌های هفته

  1. اقدامی  اشتباه، در زمانی اشتباه تر!

  2. بازی با کلمات

  3. کوچه زیباکلام هنوز تیر چراغ برق دارد؟!

  4. اعتراض حواله داران پژو پارس به افزایش قیمت ۴۰۰ میلیونی

  5. حمایت اژه‌ای و رئیسی از طرح عفاف و حجاب فراجا/ انتقاد تلویحی روزنامه اصولگرا از حسین شریعتمداری

  6. توافق جدید ایران و آمریکا چه ویژگی‌هایی باید داشته باشد؟

  7. رئیسی هم به گشت ارشاد تذکر داد؟/ روایت فضائلی از علت تاکید رهبری بر وحدت

  8. یادداشت حسین شریعتمداری؛ دوستانه با برادر فضائلی

  9. گزارش میدانی از طرح نور فراجا

  10. مجلس مقابل این اقدام بایستد

  11. اطلاعیه شماره ۳ فراجا درباره اجرای «طرح نور»  

  12. نحوه رفتار متفاوت فروشندگان در برابر پوشش حجاب مشتریان

  13. رادان:‌ طرح نور با قوت ادامه دارد

  14. چرا این همه " در پوستینِ خَلق" می افتیم؟!

  15. این ابهامات مناقشه‌برانگیز را برطرف کنید

  16. تاکید رئیسی بر اجرای قانون عفاف و حجاب

  17. وقتی «بوقلمون» هم مقابل «رضا پهلوی» کم می‌آورد!

  18. واکنش بلینکن به حادثه اصفهان/ به مجازات ایران پایبند هستیم!  

  19. وزارت راه در شناسایی خانه‌های خالی مسئول است

  20. برخی مسئولان بدلیل کارهای بی‌قاعده در زمینه حجاب تذکر گرفتند        

  21. واکنش مشاور قالیباف به حواشی اخیر گشت ارشاد/ روایت ظریف از علت عدم مذاکره با ترامپ

  22. حضور حسین حسینی در دادسرای فرهنگ و رسانه با شکایت فراجا

  23. موضع رئیس عدلیه در خصوص ورود فراجا به مسئله حجاب/ اژه‌ای: در قضیه حجاب می‌توانیم بگوییم «کی بود کی بود، من نبودم؟»

  24. اشتباه برخی گروه‌ها در مقابله با توئیت فضائلی

  25. مشکل اصلی صهیونیست ها با عملیات "وعده صادق" چه بود؟

آخرین عناوین