(P) Mise à jour sur la détection de botnet lot

 (P) Mise à jour sur la détection de botnet lot


Hé tout le monde! J’ai déjà partagé quelques résultats ici, et après vos commentaires, je suis de retour avec des résultats en fonction d’un autre ensemble de données, désormais équilibré (UNSW-NB15). J’ai atteint le point où la classification binaire est solide, mais les performances multiclasse (en particulier sur les classes rares) me causent toujours des problèmes.

Pour un certain contexte: j’utilise XGBOost et Random Forest. L’ensemble de formation pour la classification binaire est équilibré avec SMOTE (45 332 échantillons par classe), tandis que l’ensemble de tests est déséquilibré avec 56 000 séances d’attaque bénignes et 119 341.

La classification multiclasse est plus difficile en raison de la distribution de classe hautement déséquilibrée. L’EV a regroupé des classes rares sous d’autres pour simplifier les choses, mais le rappel pour des classes comme DOS et autres est encore faible. J’ai attaché quelques parcelles.

Pour améliorer la fiabilité des prévisions DOS, j’ai ajouté un modèle binaire XGBOost séparé (One-VS-Rest) en tant que filtre. Il fonctionne en parallèle avec le classificateur multiclasse et n’accepte que les prédictions DOS mais il ne fait aucun changement.

Image avec des rapports de classification:

Tableau 1: Forest aléatoire Tableau 2: XGBOOST Table

Cela semble-t-il acceptable pour un projet de recherche? J’apprécierais vraiment tous les conseils sur la façon de pousser davantage les performances multiclasse, en particulier pour des classes comme DOS et autres. Toute autre rétroaction est également la bienvenue. Merci d’avance!

soumis par / u / no_raspberry_6866
(lien) (Commentaires)



Source link

Related post