کمیته تسلیحات هوش مصنوعی Lords اولین جلسه شواهد را برگزار می کند

0 0
Read Time:8 Minute, 3 Second

به لردها گفته شده است که مزایای بالقوه استفاده از هوش مصنوعی (AI) در سیستم های تسلیحاتی و عملیات نظامی نباید با رعایت بهتر قوانین بین المللی بشردوستانه (IHL) درآمیخته شود.

تاسیس 31 ژانویه 2023، هوش مصنوعی مجلس اعیان در کمیته سیستم‌های سلاح برای بررسی اخلاقیات توسعه و استقرار سیستم‌های تسلیحاتی خودمختار (AWS)، از جمله نحوه استفاده ایمن و قابل اعتماد از آنها، پتانسیل آنها برای تشدید درگیری و انطباق آنها با قوانین بین‌المللی، راه‌اندازی شد.

اینها همچنین به عنوان سیستم های تسلیحات خودران مرگبار (LAWS) شناخته می شوند، اینها سیستم های تسلیحاتی هستند که می توانند اهداف را با دخالت کم یا بدون دخالت انسان انتخاب، شناسایی و درگیر کنند.

در اولین جلسه شواهد خود در 23 مارس 2023، لردها از شاهدان متخصص در مورد اینکه آیا استفاده از هوش مصنوعی در سیستم های تسلیحاتی باعث بهبود یا بدتر شدن انطباق با IHL می شود، شنید.

برای مثال، داراغ موری، مدرس ارشد و عضو IHSS در دانشکده حقوق دانشگاه کوئین مری لندن، خاطرنشان کرد که “احتمال” وجود دارد که استفاده از هوش مصنوعی در اینجا می تواند انطباق با IHL را بهبود بخشد.

او گفت: “این می تواند اطلاعات بسیار بیشتری را در نظر بگیرد، از خستگی، آدرنالین یا انتقام رنج نمی برد، بنابراین اگر به درستی طراحی شده باشد، نمی دانم چرا در برخی موارد نمی تواند بهتر باشد.”

برای من، مانع بزرگ این است که ما تمایل داریم به سیستم‌های هوش مصنوعی از منظری یک‌اندازه نزدیک شویم، جایی که انتظار داریم همه کارها را انجام دهد، اما اگر آن را در موقعیت‌های خاص خراب کنیم، شاید تانک دشمن را شناسایی کنیم. یا پاسخ به موشک ورودی – یک سیستم هوش مصنوعی ممکن است بسیار بهتر باشد.

با این حال، او واضح بود که هرگونه مسئولیت برای عملیات سیستم های تسلیحاتی مجهز به هوش مصنوعی باید به عهده انسان هایی باشد که پارامترهای استقرار را تعیین می کنند.

جورجیا هیندز، مشاور حقوقی در کمیته بین المللی صلیب سرخ (ICRC)، گفت که در حالی که مزایای نظامی بالقوه ارائه شده توسط AWS – مانند افزایش سرعت عملیاتی را درک می کند – به شدت نسبت به تلفیق این مزایا با انطباق بهبود یافته IHL هشدار می دهد. .

“چیزی مثل [improved operational] سرعت در واقع می تواند خطری واقعی برای انطباق با IHL ایجاد کند. اگر اپراتورهای انسانی توانایی واقعی نظارت و مداخله در فرآیندها را نداشته باشند، اگر فراتر از شناخت انسان شتاب داده شوند، به این معنی است که نمی توانند از یک حمله غیرقانونی یا غیرضروری جلوگیری کنند – و این در واقع یک حمله است. شرط IHL.»

او اضافه کرد که استدلال‌هایی در مورد اینکه AWS در معرض خشم، انتقام، خستگی و موارد مشابه نیست، فاقد شواهد تجربی برای حمایت از آنها است.

او گفت: «در عوض، کاری که ما انجام می‌دهیم درگیر شدن در فرضیه‌ها است، جایی که تصمیم بد یک اپراتور انسانی را با یک نتیجه فرضی خوب که از یک فرآیند ماشینی ناشی می‌شود، مقایسه می‌کنیم.

«من فکر می‌کنم در این بحث مفروضات زیادی وجود دارد، از جمله اینکه انسان‌ها لزوماً تصمیم‌های بدی می‌گیرند. [and] در نهایت این واقعیت را نادیده می گیرد که انسان ها مسئولیت پیروی از IHL را بر عهده دارند.

نوام لوبل، استاد دانشکده حقوق اسکس، با هیندز موافق بود و این سوال را مطرح کرد که مزایای هوش مصنوعی نظامی در کجا حاصل می شود.

برای چه کسی بهتر است؟ طرف نظامی و بخش بشردوستانه ممکن است همیشه یک چیز را بهتر نبینند.» “سرعت ذکر شد، اما دقت، برای مثال، چیزی است که فکر می کنم هر دو طرف معادله – نظامی و بشردوستانه – می توانند استدلال کنند که دقت چیز خوبی است.”

بحث سلاح های دقیق

لوبل خاطرنشان کرد که بحث مشابهی در دهه گذشته در رابطه با استفاده از “سلاح های دقیق” مانند هواپیماهای بدون سرنشین – که استفاده از آنها تحت دولت اوباما به شدت گسترش یافت.

می‌توانید ببینید که از یک طرف، بحثی مطرح می‌شود: «خسارات جانبی کمتری وجود خواهد داشت، بنابراین بهتر است از آنها استفاده کنیم». اما در عین حال، می‌توان استدلال کرد که منجر به انجام حملات نظامی در شرایطی شده است که قبلاً غیرقانونی بوده است زیرا خسارات جانبی بیش از حد وارد می‌شود.»

اکنون شما یک حمله انجام می‌دهید زیرا احساس می‌کنید یک سلاح دقیق دارید، و آسیب‌های جانبی نیز وجود دارد، هرچند قانونی، اما اگر آن سلاح را نداشتید، اصلاً این حمله را انجام نمی‌دادید.»

صحبت با Computer Weekly در مورد اخلاق هوش مصنوعی نظامی، استاد نظریه سیاسی و نویسنده ماشین های مرگ: اخلاق فناوری های خشونت آمیز الکه شوارتز به نکته مشابهی اشاره کرد و اشاره کرد که بیش از یک دهه جنگ هواپیماهای بدون سرنشین نشان داده است که “دقت” بیشتر لزوماً منجر به تلفات کمتر غیرنظامیان نمی شود، زیرا راحتی ایجاد شده توسط این فناوری در واقع آستانه توسل به زور را کاهش می دهد.

ما این سلاح‌ها را داریم که به ما فاصله زیادی می‌دهد، و با مسافت، کم‌خطری برای یک طرف به همراه دارد، اما لزوماً برای دیگران به خطر کمتری تبدیل نمی‌شود – فقط در صورتی که از آنها به‌گونه‌ای استفاده کنید که بسیار دقیق باشد، که هرگز در جنگ اتفاق می‌افتد.» وی با بیان اینکه آثار این امر واضح است، افزود: «برخی از جان‌ها در امان مانده‌اند و برخی دیگر نه».

در بحث‌های دقیق، هیندز خاطرنشان کرد که در حالی که AWS اغلب با دقیق‌تر بودن برابری می‌کند، در دیدگاه ICRC برعکس این موضوع صادق است.

“استفاده از یک سلاح خودگردان، طبق تعریف خود، دقت را کاهش می دهد، زیرا کاربر در واقع هدف خاصی را انتخاب نمی کند – آنها سلاحی را به فضا پرتاب می کنند که به گونه ای طراحی شده است که بر اساس مشخصات هدف تعمیم یافته یا دسته ای از شی مورد استفاده قرار گیرد. ” او گفت.

من فکر می‌کنم که اشاره به شنیدن دقیق عموماً مربوط به توانایی ضربه زدن بهتر روی یک هدف و شاید استفاده از محموله کوچک‌تر است، اما این به طور خاص به عملکرد خودکار سلاح‌ها مرتبط نیست.»

مسئولیت پذیری انسانی

لوبل در پاسخ به سوال لردها در مورد اینکه آیا “تفویض” مسئولیت تصمیم گیری به یک سیستم هوش مصنوعی نظامی مناسب است یا نه، گفت که ما در مورد آن صحبت نمی کنیم. نابود کنندهسناریویی به سبک که در آن یک هوش مصنوعی وظایف خود را تعیین می کند و برای دستیابی به آنها پیش می رود و در مورد زبان انسان سازی هشدار داده می شود.

«سیستم هایی که ما در مورد آنها صحبت می کنیم، به این معنا تصمیم نمی گیرند. ما از زبان انسانی برای یک ابزار استفاده می‌کنیم – این یک تابع را اجرا می‌کند اما از این نظر تصمیمی نمی‌گیرد. من شخصا با این ایده که ما حتی چیزی را به آن تفویض می کنیم، راحت نیستم.

“این یک ابزار است درست مانند هر ابزار دیگری، همه سلاح ها ابزار هستند، ما از یک ابزار استفاده می کنیم… راه حل هایی برای مشکل پاسخگویی وجود دارد که مبتنی بر درک این است که اینها ابزار هستند نه عامل.”

موری گفت که در استفاده از کلمه “نماینده” در این زمینه نیز بسیار مردد خواهد بود: “من فکر می کنم ما باید به خاطر داشته باشیم که انسان ها پارامترهای استقرار را تعیین می کنند. بنابراین من فکر می کنم قیاس ابزار واقعاً مهم است.”

هیندز همچنین اضافه کرد که ارزیابی‌های حقوق بین‌الملل، به‌ویژه ارزیابی‌هایی که در مورد توازن تناسب با مزیت نظامی پیش‌بینی‌شده، بسیار بر قضاوت ارزشی و ملاحظات مربوط به زمینه تکیه می‌کنند.

وقتی تشخیص می‌دهید که کسی تسلیم می‌شود، وقتی باید تناسب را محاسبه کنید، این یک بازی اعداد نیست. این در مورد مزیت نظامی پیش بینی شده است.» او گفت.

الگوریتم ها در ارزیابی زمینه خوب نیستند، در شرایط به سرعت در حال تغییر خوب نیستند و می توانند کاملا شکننده باشند. من فکر می‌کنم در آن شرایط، وقتی شما سعی می‌کنید ارزیابی‌های کیفی را در کدهای کمی که به خوبی به این عناصر پاسخ نمی‌دهند، مدون کنید، واقعاً می‌پرسم چگونه می‌گوییم نتیجه بهتری برای انطباق IHL وجود دارد.

در نهایت، او گفت که حقوق بین الملل حقوق بشر در مورد «فرایندها، نه نتایج» است و «قضاوت انسانی» هرگز نمی تواند برون سپاری شود.

هوش مصنوعی برای عملیات نظامی عمومی

همه شاهدان موافق بودند که نگاه دقیق به نقش هوش مصنوعی در سیستم‌های تسلیحاتی نمی‌تواند به‌طور کامل سایر روش‌های استقرار هوش مصنوعی و کمک به استفاده از نیروی کشنده را توضیح دهد، و گفتند که به‌ویژه در مورد استفاده از هوش مصنوعی برای اهداف هوشمندی و تصمیم گیری

لوبل گفت: “من آن را به سلاح محدود نمی کنم.” هوش مصنوعی می‌تواند نقش مهمی در مورد هدف قرار گرفتن چه کسی یا چه چیزی، حتی خارج از یک سلاح خاص، ایفا کند.»

لوبل اضافه کرد که او به همان اندازه نگران استفاده از هوش مصنوعی در مراحل اولیه تجزیه و تحلیل اطلاعاتی عملیات نظامی و تأثیر آن بر تصمیم گیری است.

با ذکر مثال از هوش مصنوعی در اجرای قانونلوبل گفت که نشان داده است الگوهای تبعیض موجود در سیستم عدالت کیفری به دلیل استفاده از داده های پلیسی مغرضانه تاریخی را تقویت می کند، لوبل گفت که نگران است «این مشکلات زمانی که از هوش مصنوعی در مراحل تجزیه و تحلیل اطلاعات قبلی استفاده می کنیم، تکرار می شود. [of military planning]”.

لردهای حاضر در جلسه این موضوع را مورد توجه قرار دادند و گفتند که دامنه تحقیقات خود را برای بررسی استفاده از هوش مصنوعی در سراسر ارتش و نه فقط در سیستم های تسلیحاتی به طور خاص گسترش خواهند داد.


لینک منبع

Happy
Happy
0 %
Sad
Sad
0 %
Excited
Excited
0 %
Sleepy
Sleepy
0 %
Angry
Angry
0 %
Surprise
Surprise
0 %

نوشته های مشابه

Average Rating

5 Star
0%
4 Star
0%
3 Star
0%
2 Star
0%
1 Star
0%

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا