کمیته تسلیحات هوش مصنوعی Lords اولین جلسه شواهد را برگزار می کند
به لردها گفته شده است که مزایای بالقوه استفاده از هوش مصنوعی (AI) در سیستم های تسلیحاتی و عملیات نظامی نباید با رعایت بهتر قوانین بین المللی بشردوستانه (IHL) درآمیخته شود.
تاسیس 31 ژانویه 2023، هوش مصنوعی مجلس اعیان در کمیته سیستمهای سلاح برای بررسی اخلاقیات توسعه و استقرار سیستمهای تسلیحاتی خودمختار (AWS)، از جمله نحوه استفاده ایمن و قابل اعتماد از آنها، پتانسیل آنها برای تشدید درگیری و انطباق آنها با قوانین بینالمللی، راهاندازی شد.
اینها همچنین به عنوان سیستم های تسلیحات خودران مرگبار (LAWS) شناخته می شوند، اینها سیستم های تسلیحاتی هستند که می توانند اهداف را با دخالت کم یا بدون دخالت انسان انتخاب، شناسایی و درگیر کنند.
در اولین جلسه شواهد خود در 23 مارس 2023، لردها از شاهدان متخصص در مورد اینکه آیا استفاده از هوش مصنوعی در سیستم های تسلیحاتی باعث بهبود یا بدتر شدن انطباق با IHL می شود، شنید.
برای مثال، داراغ موری، مدرس ارشد و عضو IHSS در دانشکده حقوق دانشگاه کوئین مری لندن، خاطرنشان کرد که “احتمال” وجود دارد که استفاده از هوش مصنوعی در اینجا می تواند انطباق با IHL را بهبود بخشد.
او گفت: “این می تواند اطلاعات بسیار بیشتری را در نظر بگیرد، از خستگی، آدرنالین یا انتقام رنج نمی برد، بنابراین اگر به درستی طراحی شده باشد، نمی دانم چرا در برخی موارد نمی تواند بهتر باشد.”
برای من، مانع بزرگ این است که ما تمایل داریم به سیستمهای هوش مصنوعی از منظری یکاندازه نزدیک شویم، جایی که انتظار داریم همه کارها را انجام دهد، اما اگر آن را در موقعیتهای خاص خراب کنیم، شاید تانک دشمن را شناسایی کنیم. یا پاسخ به موشک ورودی – یک سیستم هوش مصنوعی ممکن است بسیار بهتر باشد.
با این حال، او واضح بود که هرگونه مسئولیت برای عملیات سیستم های تسلیحاتی مجهز به هوش مصنوعی باید به عهده انسان هایی باشد که پارامترهای استقرار را تعیین می کنند.
جورجیا هیندز، مشاور حقوقی در کمیته بین المللی صلیب سرخ (ICRC)، گفت که در حالی که مزایای نظامی بالقوه ارائه شده توسط AWS – مانند افزایش سرعت عملیاتی را درک می کند – به شدت نسبت به تلفیق این مزایا با انطباق بهبود یافته IHL هشدار می دهد. .
“چیزی مثل [improved operational] سرعت در واقع می تواند خطری واقعی برای انطباق با IHL ایجاد کند. اگر اپراتورهای انسانی توانایی واقعی نظارت و مداخله در فرآیندها را نداشته باشند، اگر فراتر از شناخت انسان شتاب داده شوند، به این معنی است که نمی توانند از یک حمله غیرقانونی یا غیرضروری جلوگیری کنند – و این در واقع یک حمله است. شرط IHL.»
او اضافه کرد که استدلالهایی در مورد اینکه AWS در معرض خشم، انتقام، خستگی و موارد مشابه نیست، فاقد شواهد تجربی برای حمایت از آنها است.
او گفت: «در عوض، کاری که ما انجام میدهیم درگیر شدن در فرضیهها است، جایی که تصمیم بد یک اپراتور انسانی را با یک نتیجه فرضی خوب که از یک فرآیند ماشینی ناشی میشود، مقایسه میکنیم.
«من فکر میکنم در این بحث مفروضات زیادی وجود دارد، از جمله اینکه انسانها لزوماً تصمیمهای بدی میگیرند. [and] در نهایت این واقعیت را نادیده می گیرد که انسان ها مسئولیت پیروی از IHL را بر عهده دارند.
نوام لوبل، استاد دانشکده حقوق اسکس، با هیندز موافق بود و این سوال را مطرح کرد که مزایای هوش مصنوعی نظامی در کجا حاصل می شود.
برای چه کسی بهتر است؟ طرف نظامی و بخش بشردوستانه ممکن است همیشه یک چیز را بهتر نبینند.» “سرعت ذکر شد، اما دقت، برای مثال، چیزی است که فکر می کنم هر دو طرف معادله – نظامی و بشردوستانه – می توانند استدلال کنند که دقت چیز خوبی است.”
بحث سلاح های دقیق
لوبل خاطرنشان کرد که بحث مشابهی در دهه گذشته در رابطه با استفاده از “سلاح های دقیق” مانند هواپیماهای بدون سرنشین – که استفاده از آنها تحت دولت اوباما به شدت گسترش یافت.
میتوانید ببینید که از یک طرف، بحثی مطرح میشود: «خسارات جانبی کمتری وجود خواهد داشت، بنابراین بهتر است از آنها استفاده کنیم». اما در عین حال، میتوان استدلال کرد که منجر به انجام حملات نظامی در شرایطی شده است که قبلاً غیرقانونی بوده است زیرا خسارات جانبی بیش از حد وارد میشود.»
اکنون شما یک حمله انجام میدهید زیرا احساس میکنید یک سلاح دقیق دارید، و آسیبهای جانبی نیز وجود دارد، هرچند قانونی، اما اگر آن سلاح را نداشتید، اصلاً این حمله را انجام نمیدادید.»
صحبت با Computer Weekly در مورد اخلاق هوش مصنوعی نظامی، استاد نظریه سیاسی و نویسنده ماشین های مرگ: اخلاق فناوری های خشونت آمیز الکه شوارتز به نکته مشابهی اشاره کرد و اشاره کرد که بیش از یک دهه جنگ هواپیماهای بدون سرنشین نشان داده است که “دقت” بیشتر لزوماً منجر به تلفات کمتر غیرنظامیان نمی شود، زیرا راحتی ایجاد شده توسط این فناوری در واقع آستانه توسل به زور را کاهش می دهد.
ما این سلاحها را داریم که به ما فاصله زیادی میدهد، و با مسافت، کمخطری برای یک طرف به همراه دارد، اما لزوماً برای دیگران به خطر کمتری تبدیل نمیشود – فقط در صورتی که از آنها بهگونهای استفاده کنید که بسیار دقیق باشد، که هرگز در جنگ اتفاق میافتد.» وی با بیان اینکه آثار این امر واضح است، افزود: «برخی از جانها در امان ماندهاند و برخی دیگر نه».
در بحثهای دقیق، هیندز خاطرنشان کرد که در حالی که AWS اغلب با دقیقتر بودن برابری میکند، در دیدگاه ICRC برعکس این موضوع صادق است.
“استفاده از یک سلاح خودگردان، طبق تعریف خود، دقت را کاهش می دهد، زیرا کاربر در واقع هدف خاصی را انتخاب نمی کند – آنها سلاحی را به فضا پرتاب می کنند که به گونه ای طراحی شده است که بر اساس مشخصات هدف تعمیم یافته یا دسته ای از شی مورد استفاده قرار گیرد. ” او گفت.
من فکر میکنم که اشاره به شنیدن دقیق عموماً مربوط به توانایی ضربه زدن بهتر روی یک هدف و شاید استفاده از محموله کوچکتر است، اما این به طور خاص به عملکرد خودکار سلاحها مرتبط نیست.»
مسئولیت پذیری انسانی
لوبل در پاسخ به سوال لردها در مورد اینکه آیا “تفویض” مسئولیت تصمیم گیری به یک سیستم هوش مصنوعی نظامی مناسب است یا نه، گفت که ما در مورد آن صحبت نمی کنیم. نابود کنندهسناریویی به سبک که در آن یک هوش مصنوعی وظایف خود را تعیین می کند و برای دستیابی به آنها پیش می رود و در مورد زبان انسان سازی هشدار داده می شود.
«سیستم هایی که ما در مورد آنها صحبت می کنیم، به این معنا تصمیم نمی گیرند. ما از زبان انسانی برای یک ابزار استفاده میکنیم – این یک تابع را اجرا میکند اما از این نظر تصمیمی نمیگیرد. من شخصا با این ایده که ما حتی چیزی را به آن تفویض می کنیم، راحت نیستم.
“این یک ابزار است درست مانند هر ابزار دیگری، همه سلاح ها ابزار هستند، ما از یک ابزار استفاده می کنیم… راه حل هایی برای مشکل پاسخگویی وجود دارد که مبتنی بر درک این است که اینها ابزار هستند نه عامل.”
موری گفت که در استفاده از کلمه “نماینده” در این زمینه نیز بسیار مردد خواهد بود: “من فکر می کنم ما باید به خاطر داشته باشیم که انسان ها پارامترهای استقرار را تعیین می کنند. بنابراین من فکر می کنم قیاس ابزار واقعاً مهم است.”
هیندز همچنین اضافه کرد که ارزیابیهای حقوق بینالملل، بهویژه ارزیابیهایی که در مورد توازن تناسب با مزیت نظامی پیشبینیشده، بسیار بر قضاوت ارزشی و ملاحظات مربوط به زمینه تکیه میکنند.
وقتی تشخیص میدهید که کسی تسلیم میشود، وقتی باید تناسب را محاسبه کنید، این یک بازی اعداد نیست. این در مورد مزیت نظامی پیش بینی شده است.» او گفت.
الگوریتم ها در ارزیابی زمینه خوب نیستند، در شرایط به سرعت در حال تغییر خوب نیستند و می توانند کاملا شکننده باشند. من فکر میکنم در آن شرایط، وقتی شما سعی میکنید ارزیابیهای کیفی را در کدهای کمی که به خوبی به این عناصر پاسخ نمیدهند، مدون کنید، واقعاً میپرسم چگونه میگوییم نتیجه بهتری برای انطباق IHL وجود دارد.
در نهایت، او گفت که حقوق بین الملل حقوق بشر در مورد «فرایندها، نه نتایج» است و «قضاوت انسانی» هرگز نمی تواند برون سپاری شود.
هوش مصنوعی برای عملیات نظامی عمومی
همه شاهدان موافق بودند که نگاه دقیق به نقش هوش مصنوعی در سیستمهای تسلیحاتی نمیتواند بهطور کامل سایر روشهای استقرار هوش مصنوعی و کمک به استفاده از نیروی کشنده را توضیح دهد، و گفتند که بهویژه در مورد استفاده از هوش مصنوعی برای اهداف هوشمندی و تصمیم گیری
لوبل گفت: “من آن را به سلاح محدود نمی کنم.” هوش مصنوعی میتواند نقش مهمی در مورد هدف قرار گرفتن چه کسی یا چه چیزی، حتی خارج از یک سلاح خاص، ایفا کند.»
لوبل اضافه کرد که او به همان اندازه نگران استفاده از هوش مصنوعی در مراحل اولیه تجزیه و تحلیل اطلاعاتی عملیات نظامی و تأثیر آن بر تصمیم گیری است.
با ذکر مثال از هوش مصنوعی در اجرای قانونلوبل گفت که نشان داده است الگوهای تبعیض موجود در سیستم عدالت کیفری به دلیل استفاده از داده های پلیسی مغرضانه تاریخی را تقویت می کند، لوبل گفت که نگران است «این مشکلات زمانی که از هوش مصنوعی در مراحل تجزیه و تحلیل اطلاعات قبلی استفاده می کنیم، تکرار می شود. [of military planning]”.
لردهای حاضر در جلسه این موضوع را مورد توجه قرار دادند و گفتند که دامنه تحقیقات خود را برای بررسی استفاده از هوش مصنوعی در سراسر ارتش و نه فقط در سیستم های تسلیحاتی به طور خاص گسترش خواهند داد.
لینک منبع