REVIEW OF METHODS FOR DEVELOPING SUBSYSTEMS FOR PROTECTION AGAINST PHISHING ATTACKS USING ARTIFICIAL INTELLIGENCE AND MACHINE LEARNING TECHNOLOGIES
Keywords:
Phishing, AI, Machine Learning, SOC, Cybersecurity, Neural Networks, Text Analysis, Automation, Decision Trees, Random Forests, Ensemble Methods, Support Vector Machines (SVM), Logistic Regression, Gradient Boosting, K-means, BERTAbstract
This paper analyzes methods for developing a SOC subsystem to protect against phishing attacks using artificial intelligence (AI) and machine learning (ML). The paper considers the main methods for detecting phishing, provides an overview of commercial protection systems and their functionality. Particular attention is paid to comparing AI models for detecting phishing attacks, assessing their accuracy, speed, and adaptability. It also provides examples of using AI in existing security systems and discusses possible difficulties in implementing such solutions, including configuration and risks of false positives. In conclusion, recommendations are given on choosing appropriate technologies and tools for developing a SOC subsystem that can effectively detect and block phishing attacks using AI.
References
1. Спам и фишинг в 2024 году - https://securelist.ru/spam-and-phishing-report-2024/111743/?utm_source=chatgpt.com (дата обращения 10.01.2025г.)
2. Число фишинговых сайтов, имитирующих финансовые бренды, выросло почти на 50% - https://cybersecurefox.com/ru/rost-fishinga-finansoviy-sektor-2024/ (дата обращения 12.01.2025г.)
3. Актуальные киберугрозы в странах СНГ 2023—2024 - https://www.ptsecurity.com/ru-ru/research/analytics/aktualnye-kiberugrozy-v-stranah-sng-2023-2024/?utm_source=chatgpt.com (дата обращения 15.01.2025г.)
4. ИССЛЕДОВАНИЕ ВОЗМОЖНОСТЕЙ АЛГОРИТМОВ ГЛУБОКОГО ОБУЧЕНИЯ ДЛЯ ЗАЩИТЫ ОТ ФИШИНГОВЫХ АТАК - https://cyberleninka.ru/article/n/issledovanie-vozmozhnostey-algoritmov-glubokogo-obucheniya-dlya-zaschity-ot-fishingovyh-atak?utm_source=chatgpt.com (дата обращения 20.01.2025г.).
5. PhishLabs - https://www.phishlabs.com/ (дата обращения 25.01.2025г.).
6. Cofense - https://cofense.com/ (дата обращения 27.01.2025г.).
7. Barracuda - https://www.barracuda.com/products/email-protection/plans (дата обращения 30.01.2025г.).
8. Proofpoint - https://www.proofpoint.com/us (дата обращения 10.02.2025г.).
9. KnowBe4 - https://www.knowbe4.com/ (дата обращения 12.02.2025г.).
10. Mimecast - https://www.mimecast.com/products/email-security/ (дата обращения 15.02.2025г.).
11. Barracude vs KnowBe4 - https://www.gartner.com/reviews/market/security-awareness-computer-based-training/compare/barracuda-vs-knowbe4?utm_source=chatgpt.com (дата обращения 20.02.2025г.).
12. Barracuda Security Awareness Training Alternatives - https://www.gartner.com/reviews/market/security-awareness-computer-based-training/vendor/barracuda/product/barracuda-security-awareness-training/alternatives (дата обращения 25.02.2025г.).
13. Attention Is All You Need - https://arxiv.org/abs/1706.03762 (дата обращения 28.02.2025г.).
14. RoBERTa: A Robustly Optimized BERT Pretraining Approach - https://arxiv.org/abs/1907.11692 (дата обращения 30.02.2025г.).
15. DistilBERT, a distilled version of BERT: smaller, faster, cheaper and lighter - https://arxiv.org/abs/1910.01108 (дата обращения 05.03.2025г.).
16. XLNet: Generalized Autoregressive Pretraining for Language Understanding - https://arxiv.org/abs/1906.08237 (дата обращения 07.03.2025г.).
17. Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer - https://arxiv.org/abs/1910.10683 (дата обращения 10.03.2025г.).
18. GPT-4 - https://openai.com/index/gpt-4-research/ (дата обращения 12.03.2025г.).
19. Language Models are Few-Shot Learners - https://arxiv.org/abs/2005.14165 (дата обращения 15.03.2025г.).
20. Enriching Word Vectors with Subword Information - https://arxiv.org/abs/1607.04606 (дата обращения 18.03.2025г.).
21. ERNIE: Enhanced Representation through Knowledge Integration - https://arxiv.org/abs/1904.09223 (дата обращения 20.03.2025г.).
22. LightGBM: A Highly Efficient Gradient Boosting Decision Tree - https://proceedings.neurips.cc/paper_files/paper/2017/file/6449f44a102fde848669bdd9eb6b76fa-Paper.pdf (дата обращения 20.03.2025г.).
23. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding - https://arxiv.org/abs/1810.04805(дата обращения 21.03.2025г.).
24. Глубокое обучение в борьбе с фишингом: как ИИ распознает угрозы - https://cisoclub.ru/glubokoe-obuchenie-v-borbe-s-fishingom-kak-ii-raspoznaet-ugrozy/?utm_source=chatgpt.com (дата обращения 22.03.2025г.).
25. Исследование возможностей алгоритмов глубокого обучения для защиты от фишинговых атак - https://www.sberbank.ru/ru/person/kibrary/experts/issledovanie-vozmozhnostej-algoritmov-glubokogo-obucheniya-dlya-zashchity-ot-fishingovykh-atak (дата обращения 23.03.2025г.).
26. AI-Driven Phishing Detection Systems - https://www.researchgate.net/publication/382917933_AI-Driven_Phishing_Detection_Systems (дата обращения 24.03.2025г.).
27. Защита от фишинга с ИИ (искусственного интеллекта) - https://domznaniya.ru/page/zashchita-ot-fishinga-s-ii-iskusstvennogo-intellekta-4972291607/ (дата обращения 26.03.2025г.).
28. Что ChatGPT знает о фишинге? - https://securelist.ru/chatgpt-anti-phishing/107389/(дата обращения 05.03.2025г.). (дата обращения 26.03.2025г.).
29. Зоопарк трансформеров: большой обзор моделей от BERT до Alpaca - https://habr.com/ru/companies/just_ai/articles/733110/ (дата обращения 27.03.2025г.).
30. Роль ИИ в обеспечении ИБ: Яндекс.Толока и модель BERT для выявления фишинговых атак - https://baskobrin.ru/blog/rol-ii-v-obespechenii-ib-yandeks-toloka-i-model-bert-dlya-vyyavleniya-fishingovyh-atak (дата обращения 27.03.2025г.).
31. PhishNet: A Phishing Website Detection Tool using XGBoost - https://arxiv.org/abs/2407.04732 (дата обращения 28.03.2025г.).
32. ChatSpamDetector: Leveraging Large Language Models for Effective Phishing Email Detection - https://arxiv.org/abs/2402.18093(дата обращения 28.03.2025г.).
33. BERT в двух словах: Инновационная языковая модель для NLP - https://habr.com/ru/companies/otus/articles/702838/ (дата обращения 29.03.2025г.).
Downloads
Published
Issue
Section
Categories
License
Copyright (c) 2025 Корякин С.В., В.В. Ким

This work is licensed under a Creative Commons Attribution 4.0 International License.