Аналіз вразливостей великих мовних моделей
Abstrak
Мета роботи: аналіз вразливостей великих мовних моделей (LLM) на основі класифікації OWASP Top 10 для застосунків LLM, проведення оцінки потенційних загроз та розробка рекомендацій щодо підвищення рівня безпеки цих моделей. Метод: кількісні методи, зокрема використання інструменту Garak для ідентифікації та аналізу вразливостей у великих мовних моделях. Результати дослідження: проаналізовано декілька критичних вразливостей, серед яких ін’єкції запитів, небезпечна обробка виводів, отруєння навчальних даних, розкриття конфіденційної інформації та інші. Навіть найсучасніші моделі, зокрема GPT-4, не забезпечують повної захищеності від цих загроз. Теоретична цінність дослідження: дослідження поглиблює розуміння безпекових ризиків, пов’язаних з використанням великих мовних моделей, і пропонує нові підходи до їх аналізу. Це може стати основою для подальших теоретичних розробок у галузі кібербезпеки стосовно LLM. Практична цінність дослідження: дослідження пропонує рекомендації для розробників, науковців і організацій, які використовують LLM. Впровадження безпечних практик розробки та постійний аудит моделей можуть суттєво підвищити захист використання LLM. Цінність дослідження: використано інноваційний підхід для тестування безпеки LLM через імітацію різноманітних атак, зокрема ін’єкції запитів, отруєння даних, галюцинації та витоки інформації, що дозволяє виявити потенційні слабкі місця у функціонуванні моделей. Майбутні дослідження: у подальших дослідженнях планується розширення спектра моделей і методів, що спрямовані на оптимізацію безпеки. Це сприятиме формуванню більш комплексного розуміння проблеми та вдосконаленню стратегій забезпечення безпеки. Тип статті: Концептуальне дослідження.
Topik & Kata Kunci
Penulis (5)
Viktor Kolchenko
Dmytro Sabodashko
Mariia Shved
Yuriy Khoma
Nazar Maksymiv
Akses Cepat
- Tahun Terbit
- 2024
- Sumber Database
- DOAJ
- DOI
- 10.33445/sds.2024.14.5.22
- Akses
- Open Access ✓