یوروپل به پلیس ها هشدار می دهد که برای سوء استفاده مخرب هوش مصنوعی آماده شوند
آژانس اجرای قانون اتحادیه اروپا یا یوروپل، مجموعه ای از توصیه ها را به جامعه مجری قانون ارائه کرده است که باید برای تأثیرات مثبت و منفی آن آماده شوند. مدل های زبان بزرگ (LLMs) – مدلهای هوش مصنوعی (AI). محصولات زیربنایی مانند ChatGPT که فرآیند، دستکاری و تولید متن – در چشم انداز جنایی خواهد بود.
در گزارش ChatGPT – تاثیر مدل های زبان بزرگ بر اجرای قانونآزمایشگاه نوآوری یوروپل، یافتههای تعدادی کارگاه و جرمشناسان متخصص را گردآوری کرد تا بررسی کند که چگونه مجرمان – نه فقط مجرمان سایبری – میتوانند از LLM در کار خود سوء استفاده کنند، و چگونه LLM ها ممکن است در آینده به محققان کمک کنند.
یوروپل گفت: “هدف این گزارش افزایش آگاهی در مورد سوء استفاده بالقوه از LLM ها، ایجاد گفتگو با شرکت های هوش مصنوعی برای کمک به آنها در ایجاد پادمان های بهتر و ترویج توسعه سیستم های هوش مصنوعی ایمن و قابل اعتماد است.”
محققان یوروپل چشم انداز بهره برداری بالقوه از LLM ها و AIs توسط مجرمان را “وخیم” توصیف کردند. مشابه سایر محققین که به این فناوری نگاه کرده اند، سه حوزه اصلی نگرانی را پیدا کردند:
- توانایی LLM ها برای بازتولید الگوهای زبان و جعل کردن سبک افراد یا گروه های خاص به این معنی است که می تواند متن بسیار واقعی را در مقیاس تهیه کند تا فریب های فیشینگ قانع کننده ایجاد کند.
- توانایی LLM ها برای تولید متنی با ظاهر معتبر با سرعت و مقیاس، آن را برای بهره برداری برای ایجاد تبلیغات و اطلاعات نادرست مناسب می کند.
- توانایی LLM ها برای تولید کدهای بالقوه قابل استفاده در برنامه نویسی های مختلف، استفاده از آن را برای مجرمان سایبری به عنوان ابزاری در ایجاد بدافزارها و قفل های باج افزار جدید به طور بالقوه جالب می کند. توجه داشته باشید که جامعه امنیت سایبری این تاثیر را به عنوان در این مرحله کمی بلند مدت تر، اگرچه ممکن است با پیشرفت فناوری تغییر کند.
یوروپل تعدادی توصیه برای متخصصان مجری قانون ارائه کرد تا آنها را در تفکر خود بگنجانند تا برای تأثیر LLM آمادگی بهتری داشته باشند:
- با توجه به احتمال آسیب، آژانس ها باید شروع به افزایش آگاهی در مورد مسائل کنند تا اطمینان حاصل شود که خلاءهای بالقوه استفاده برای اهداف مجرمانه پیدا شده و بسته می شود.
- آژانسها همچنین برای پیشبینی، پیشگیری و بررسی انواع مختلف سوءاستفاده از هوش مصنوعی، باید تأثیر LLM را بر تمام حوزههای بالقوه آسیبدیده جرم، نه فقط جرایم دیجیتالی فعال، درک کنند.
- آنها همچنین باید شروع به توسعه مهارت های داخلی مورد نیاز برای استفاده حداکثری از LLM کنند – به دست آوردن درک چگونگی استفاده مفید از چنین سیستم هایی برای ایجاد دانش، گسترش تخصص موجود و استخراج پاسخ های مورد نیاز. افسران پلیس خدمات باید در مورد نحوه ارزیابی محتوای تولید شده توسط LLM از نظر دقت و سوگیری آموزش ببینند.
- آژانسها همچنین باید با ذینفعان خارجی، به عنوان مثال، بخش فناوری تعامل داشته باشند تا مطمئن شوند که مکانیسمهای ایمنی در طول توسعه فناوریهای مبتنی بر LLM در نظر گرفته میشوند و تحت یک فرآیند بهبود مستمر قرار میگیرند.
- در نهایت، آژانسها همچنین ممکن است بخواهند امکانات LLMهای شخصیسازیشده و خصوصی آموزشدیده بر روی دادههایی را که خودشان نگهداری میکنند، کشف کنند، که منجر به موارد استفاده اختصاصیتر و خاصتر میشود. این نیاز به ملاحظات اخلاقی گسترده ای دارد و فرآیندها و تدابیر حفاظتی جدید باید اتخاذ شود تا از سوء استفاده افسران پلیس از LLM جلوگیری شود.
جولیا اوتول، مدیر عامل شرکت راهکارهای امنیتی MyCena، گفت: «جای تعجب نیست که یوروپل این گزارش جدید را منتشر کرده و به سازمان ها و مصرف کنندگان در مورد خطرات مرتبط با ChatGPT هشدار داده است، زیرا این ابزار پتانسیل اصلاح کامل دنیای فیشینگ را به نفع افراد بد دارد.
وقتی مجرمان از ChatGPT استفاده می کنند، هیچ مانع زبان یا فرهنگی وجود ندارد. آنها میتوانند از برنامه بخواهند اطلاعاتی درباره سازمانها، رویدادهایی که در آن شرکت میکنند، شرکتهایی که با آنها کار میکنند، با سرعت فوقالعاده جمعآوری کند.
سپس میتوانند از ChatGPT بخواهند از این اطلاعات برای نوشتن ایمیلهای کلاهبرداری بسیار معتبر استفاده کند. هنگامی که هدف ایمیلی از بانک، مدیر عامل یا تامین کننده “ظاهری” خود دریافت می کند، هیچ نشانه زبانی مبنی بر جعلی بودن ایمیل وجود ندارد.
لحن، زمینه و دلیل انجام انتقال بانکی هیچ مدرکی دال بر کلاهبرداری بودن ایمیل ارائه نمی دهد. این امر باعث میشود که شناسایی ایمیلهای فیشینگ ایجاد شده توسط ChatGPT بسیار دشوار و خطرناک باشد.”
لینک منبع