Adversarial machine learning: evaluation of attack models & defense mechanisms

 
This item is provided by the institution :

Repository :
Institutional Repository Hellanicus
see the original item page
in the repository's web site and access all digital files if the item*
share





Κακόβουλη μηχανική μάθηση: αξιολόγηση μοντέλων επίθεσης και μηχανισμών άμυνας (EN)
Adversarial machine learning: evaluation of attack models & defense mechanisms (EN)

Perifanis, Vasileios
Περηφάνης, Βασίλειος
Tserpes, Iosif
Τσερπές, Ιωσήφ

aegean

Τα τελευταία χρόνια παρατηρείται ραγδαία αύξηση στην χρήση κινητών πλατφορμών και ιδιαίτερα σε συσκευές που βασίζονται στο λογισμικό σύστημα Android. Η ραγδαία αυτή χρήση των κινητών συσκευών έχει κεντρίσει το ενδιαφέρον κυβερνοεγκληματιών για την ανάπτυξη και διαμοιρασμό κακόβουλου λογισμικού. Οι αλγόριθμοι μηχανικής μάθησης μπορούν να χρησιμοποιηθούν για τον εντοπισμό κακόβουλου λογισμικού, έχοντας εξαιρετικά υψηλές αποδόσεις. Ωστόσο, πολλοί από αυτούς τους αλγορίθμους και ειδικά τα μοντέλα νευρωνικών δικτύων είναι ευάλωτα σε αλλαγές στα δεδομένα εισόδου, γνωστά ως κακόβουλα παραδείγματα, ικανές να οδηγήσουν ένα μοντέλο στην παραγωγή εσφαλμένων ταξινομήσεων. Η αδυναμία αυτή αποτελεί ένα από τα σημαντικότερα προβλήματα που καλείται η ερευνητική κοινότητα να επιλύσει. Η παρούσα διπλωματική εργασία παρουσιάζει την εξέλιξη του κακόβουλου λογισμικού για κινητές συσκευές βασισμένες στο λογισμικό Android με το πέρασμα του χρόνου και γίνεται αναφορά στους τρόπους εξαγωγής χαρακτηριστικών των εφαρμογών με σκοπό την ανίχνευση κακόβουλης δραστηριότητας. Επιπλέον, αναπτύσσονται οι τρόποι ανίχνευσης κακόβουλου λογισμικού μέσω μοντέλων μηχανικής μάθησης, καθώς και οι τρόποι με τους οποίους ένας επιτιθέμενος μπορεί να εξαπατήσει τα μοντέλα αυτά. Η εργασία επικεντρώνεται στην πειραματική απόδειξη της ακρίβειας των μοντέλων μηχανικής μάθησης για τον εντοπισμό κακόβουλου λογισμικού και την αδυναμία των αλγορίθμων έναντι μικρών αλλαγών στα δεδομένα εισόδου. Τέλος, αξιολογούνται μέθοδοι προστασίας των μοντέλων, καθώς και συζητούνται ενδιαφέρουσες ιδιότητες των κακόβουλων παραδειγμάτων.
In recent years, there has been a sharp increase in the use of mobile platforms and particularly devices based on the Android operating system. This rapid use of mobile devices has fueled cybercriminals’ interest in developing and sharing malicious software. Machine learning algorithms can be used to detect malware with extremely high performance. However, many of these algorithms, and mainly neural network models, are vulnerable to changes in the input data, known as adversarial examples, capable of leading a model to produce misclassifications. This weakness is one of the major problems that the research community is called upon to solve. This thesis presents the evolution of malicious software for Android-based devices over time and refers to the extraction of an application’s features to detect malicious activity. In addition, ways of detecting malware through machine learning models are being developed, as well as ways in which an attacker can deceive these models. This work focuses on the experimental demonstration of the efficiency of machine learning models for malware detection and the weakness of these models against small changes in the input data. Finally, methods for defending models are being evaluated and special features of adversarial examples are being discussed.

masterThesis

android (EN)
neural networks (EN)
νευρωνικά δίκτυα (EN)
μηχανική μάθηση (EN)
malware detection (EN)
machine learning (EN)
ανίχνευση κακόβουλου λογισμικού (EN)
adversarial examples (EN)


2020-02


2020-03-26T13:24:16Z

Σάμος




*Institutions are responsible for keeping their URLs functional (digital file, item page in repository site)