BACHECA TESI
Edizione 2017
Alberto Compagno (Dipartimento di informatica, Sapienza Università di Roma)
"Security and Privacy in Information-Centric Networking Architectures"
Alberto Compagno (Dipartimento di informatica, Sapienza Università di Roma)
"Security and Privacy in Information-Centric Networking Architectures"
(Relatore: Luigi Vincenzo Mancini).
The Internet Protocol (IP) is the lifeblood of the modern Internet. Its simplicity and universality have fueled the unprecedented and lasting global success of the current Internet. Nonetheless, some limitations of IP have been emerging in recent years. Its original design envisaged supporting perhaps tens of thousands of static hosts operating in a friendly academic-like setting, mainly in order to facilitate email communication and remote access to scarce computing resources. At present, IP interconnects billions of static and mobile devices (ranging from supercomputers to Internet-of-Things gadgets) with a large and dynamic set of popular applications. Starting in mid-1990s, the advent of mobility, wirelessness and the web substantially shifted Internet usage, highlighting design limitations of the IP-based design and motivated research to explore new architectures. This accentuated long-term concerns about the current Internet architecture and prompted interest in alternative designs.
Information-Centric Networking (ICN) is an emerging networking paradigm being considered as a possible replacement for the current IP-based host-centric Internet infrastructure. In ICN, named content becomes a first-class entity. ICN focuses on content distribution, which dominates current Internet traffic and is arguably not well served by IP. Different projects have embraced the ICN philosophy and aim at proposing a viable future Internet architecture. In order to succeed in their purpose, ICN and its implementing projects must include a prominent requirement in their design: support security and privacy from the outset in order to avoid the long and unhappy history of incremental patching and retrofitting that characterizes the current Internet architecture. This dissertation goes into such direction and focuses on security and privacy issues of the ICN paradigm and its implementing architectures. In particular, this dissertation contributes by: (i) addressing architectural security and privacy issues that are intrinsic to the ICN design; (ii) exploiting the ICN security model to provide additional security services, such as device authentication; and (iii) comparing the security and privacy features in ICN, and in other future Internet architectures, with the features provided by the current Internet architecture.
In the first part of this dissertation, we focus on security and privacy issues of ICN. In particular, we start addressing Interest Flooding Attack (IFA), a Distributed Denial-of-Service (DDoS) attack that exploits key architectural features of ICN. We show that an adversary with limited resources can implement IFA, having a significant impact on network performance. We introduce Poseidon: a framework for detecting and mitigating interest flooding attacks. We further show the efficacy of Poseidon against IFA through an extensive simulation, based on realistic assumptions. Then, we study the adoption of negative acknowledgments (NACKs) at the network layer to mitigating Interest Flooding attacks, as well as for notifying downstream nodes about forwarding failures. We show that network-layer NACKs come with some unpleasant security implications. We consider several types of NACKs and discuss their security design requirements and implications. We also demonstrate that providing secure NACKs triggers the threat of producer-bound flooding attacks. Although we discuss some potential countermeasures to these attacks, we conclude that network-layer NACKs are best avoided, at least for security reasons. Finally, we address a privacy issues in ICN. ICN is widely assumed to provide better consumer privacy than IP due to the former’s lack of source and destination addresses [77]. We show that this assumption does not hold in practice. In particular, we present several algorithms that help locating consumers within the network by leveraging ICN router-side content caching. We use simulations to evaluate these algorithms on large and realistic network topologies, and we discuss how they can be used not only to identify consumers, but also to detect eavesdroppers.
In the second part of this thesis, we focus on authenticating devices in the content-based communication model of ICN. We propose OnboardICNg, the first secure protocol for on-boarding (authenticating and authorizing) Internet-of-Things (IoT) devices in ICN mesh networks. We show that OnboardICNg can securely on-board resource constrained devices into an existing IoT network, outperforming the authentication protocol selected for the ZigBee-IP specification: EAP-PANA, i.e., the Protocol for carrying Authentication for Network Access (PANA) combined with the Extensible Authentication Protocol (EAP). Moreover, OnboardICNg is design to tackle a stronger adversary model than the one consider in the EAP-PANA protocol, thus allowing OnboardICNg to be resilient to both insider and outsider adversaries.
In the third part of this thesis, we take into account the four prominent research projects funded by the U.S. National Science Foundation (NSF) with the Future Internet Architecture (FIA) program: Nebula, Named-Data Networking (NDN), MobilityFirst, and Expressive Internet Architecture (XIA). NSF has been one of the key supporters of efforts to design a set of candidate next-generation Internet archi- tectures, emphasizing “security and privacy†by design and from the outset. Among the four NFS-funded Future Internet Architecture, Named-Data Networking is a specific implementation of ICN. Our contribution aim at providing a comprehensive and neutral analysis and comparison of salient security and privacy features (and issues) in NDN and in the other candidates with the current IP-based architecture.
Matteo Contini (DIEE - Università degli Studi di Cagliari)
"Pharmaguard: studio e sviluppo di un sistema ad apprendimento automatico per la rilevazione delle farmacie illegali online indicizzate dai motori di ricerca"
Link esterno al gruppo di ricerca: http://pralab.diee.unica.it
Matteo Contini (DIEE - Università degli Studi di Cagliari)
"Pharmaguard: studio e sviluppo di un sistema ad apprendimento automatico per la rilevazione delle farmacie illegali online indicizzate dai motori di ricerca"
(Relatore: Giorgio Giacinto).
L'acquisto di merci attraverso la rete Internet fa ormai parte della quotidianità di ognuno di noi. Servizi web come eBay o Amazon ci permettono di acquistare merci o servizi da tutto il mondo in pochi semplici passaggi
portando spesso, a parità di prodotto, ad ingenti risparmi economici rispetto ai tradizionali canali commerciali. Il numero di portali che forniscono servizi di vendita al dettaglio in rete cresce ogni giorno. Esistono portali che vendono diverse categorie di prodotti, come i già citati eBay e Amazon,
oppure altri che vendono categorie specifiche di prodotti: oggi possiamo trovare in rete qualsiasi merce o servizio di cui abbiamo bisogno e questo è sicuramente uno dei tanti benefici che l'Internet ha permesso di portare al mondo. L'enciclopedia Treccani definisce il commercio come "Attività economica che, attraverso operazioni di compravendita, mira a trasferire, nel tempo e nello spazio, beni dal produttore al consumatore, sia direttamente
sia soprattutto attraverso l'opera
d'intermediari". Proprio gli intermediari,
almeno per quanto riguarda il commercio al dettaglio, sono i soggetti su cui ha inciso piu fortemente la ridefinizione del commercio dovuta all'avvento della vendita di beni e servizi in rete: se prima l'intermediario era rappresentato, spesso, da una persona che fisicamente proponeva un prodotto al possibile acquirente, ora la definizione di intermediario assume un aspetto più generale e sicuramente diventa un'entità meno tangibile. In qualsiasi
tipologia di acquisto, che sia effettuato in maniera "tradizionale" oppure in rete, è buona norma per l'acquirente valutare le credenziali del venditore nonché la rispondenza della qualità e delle caratteristiche del prodotto che si intende acquistare rispetto alle proprie necessità . Le modalità di verifica di questi due aspetti diventano, senza dubbio, differenti negli acquisti in rete, soprattutto per la non tangibilità di un negozio virtuale. In mancanza
di verifiche accurate si potrebbero prospettare vari scenari: per esempio, la merce potrebbe non essere effettivamente nella disponibilità del venditore e l'acquirente si potrebbe trovare derubato del compenso economico fornito al rivenditore senza aver effettivamente ottenuto il bene o servizio richiesto oppure, qualora l'acquirente entrasse in possesso del bene, potrebbe scoprire, magari dopo pochi utilizzi, di aver ricevuto un prodotto contraffatto, non rispondente ai canoni qualitativi del prodotto originale. Se una di queste situazioni dovesse verificarsi, ad esempio, per quanto riguarda l'acquisto di
un semplice capo d'abbigliamento, il tutto si ridurrebbe ad una scocciatura per l'acquirente e in una piccola perdita di denaro; diverso il caso in cui tali situazioni dovessero verificarsi in relazione a prodotti relativi alla salute dell'acquirente, come ad esempio l'acquisto di un farmaco. In questo caso l'acquirente si trasforma in un "paziente": oltre all'aspetto relativo alla delicatezza del contesto, l'utilizzo di prodotti farmaceutici contraffatti, non rispondenti quindi ai canoni qualitativi (controlli sui principi attivi, conservazione, dosaggi, ecc.), può portare, e purtroppo in molti casi porta, a gravi danni alla salute del paziente. Risulta dunque evidente la necessità di una rilevazione rapida di servizi di vendita in rete che propongono
particolari tipi di farmaci senza averne i requisiti, a cui ci riferiremo d'ora in poi all'interno di questa tesi come farmacie illegali online, in modo da prevenire danni ad utenti che in modo ignaro, per necessità o, talvolta, irresponsabilmente, effettuano acquisti da queste piattaforme.
Questa tesi di laurea nasce proprio per questo motivo, con lo scopo di realizzare un sistema automatico in grado di aiutare le forze dell'ordine nella rilevazione (e quindi nelle conseguenti attività di indagine) di pagine web
relative a farmacie illegali online in modo da poter applicare rapidamente le contromisure necessarie ad arrestarne l'attività .
Link esterno al gruppo di ricerca: http://pralab.diee.unica.it
Stefano Munari (Dipartimento di Matematica, Università degli Studi di Padova)
"GATE: A Novel Geo-Blocking Protocol for Named Data Networking"
Link esterno al gruppo di ricerca: http://spritz.math.unipd.it/index.html
Stefano Munari (Dipartimento di Matematica, Università degli Studi di Padova)
"GATE: A Novel Geo-Blocking Protocol for Named Data Networking"
(Relatore: Mauro Conti).
The Internet was born from the ARPANET military project with the idea to interconnect networks of networks. Since the first message sent in 1969 using the Interface Message Processor, the Internet architecture has rapidly evolved until becoming the standard for remote communications. Its software basis, posed by Vinton Cerf and Robert Kahn in 1974 with the TCP/IP protocol, was built on the concepts of hosts and gateways. With the development of many content-based services, the Internet traffic has shifted from its original host-centric nature, supported by TCP/IP, towards a content-centric one. Therefore, its usage model has radically changed so that the underlying software stack is not always able to support it. To address this problem, two different schools of thought have been proposed. The first builds a content-centric communication on the top of TCP/IP while the second improves the stack itself by replacing the problematic parts of it. A Content Delivery Network (CDN) is a clear example of the first approach, while Content-Centric Networking (CCN) represents a more radical solution to the problem.
In this work we consider Named-Data Networking (NDN), an instance of CCN. NDN focuses on security and privacy and leverages in-network caching and name aggregation to efficiently distribute the contents within the network. In NDN, the contents are referenced by their name without carrying any information about the hosts: decoupling contents from entities that distribute them. These characteristics enable efficient content distribution. Thus, content providers of video on demand and streaming services such as Netflix, HBO, etc. are one of the most prominent beneficiaries of this new architecture. Nowadays, the distribution of the aforementioned contents has to adhere to copyright and license agreements between the content owner and the content provider in such a way that only specific regions are allowed to consume a well defined set of contents. Nevertheless, a lightweight and easy to deploy protocol which specifically guarantees these properties does not actually exist in NDN.
This thesis focuses on geo-blocking: a mechanism to selectively restrict content distribution to specific network regions from a content provider perspective. We propose the design, implementation and evaluation of GATE (Geo-blocking At The Edge), i.e., two lightweight geo-blocking protocols for NDN. We initially explain the motivations behind our work and analyze the existing solutions in TCP/IP, NDN and SDN. Then, we describe the semantics of the protocols. We perform simulations both on a network simulator and by extending the official NDN stack implementation. Finally, we provide the results of our simulations to prove the feasibility of GATE and evaluate its effectiveness. Furthermore, we estimate the overhead of our solution for the current NDN implementation.
Link esterno al gruppo di ricerca: http://spritz.math.unipd.it/index.html
Giulia Orru (Dipartimento di Ingegneria Elettrica e Elettronica - Università degli Studi di Cagliari)
"Adaptive biometric systems for face recognition"
Link esterno al gruppo di ricerca: http://pralab.diee.unica.it/
Giulia Orru (Dipartimento di Ingegneria Elettrica e Elettronica - Università degli Studi di Cagliari)
"Adaptive biometric systems for face recognition"
(Relatore: Gian Luca Marcialis).
In recent decades, the interest in biometric technologies has grown rapidly due to the increasing public safety requirements and the rapid diffusion in important private and public sectors. The use of these technologies as authentication, even in mobile devices and Internet of Things applications, is also increasing.
Biometric systems for mobile devices need stringent reliability, security, speed and memory storage requirements. On the other hand, the reliability and security requirements in standard biometric systems assume a representative set of templates per user acquired under different environmental conditions, because recognition is performed by comparing the input face data to such templates. However, this is in contrast with the requirements of speed and low memory usage when resources must be saved, as in mobile devices. In addition, the performance of biometric systems is highly influenced by small, medium and long term variations in facial expressions, lighting, pose and time variance, which usually is faced with the addition of more templates as possible per user and over time. This is done by carrying out multiple re-enrollment phases. These are totally supervised and time-consuming for both the system’s users and administrators. Furthermore, they can only partially solve the problem, since it is impossible to select the most significant variations, that is, the most significant templates, even for a human expert.
"Adaptive biometric" systems, which adapt continuously the biometric templates to the variations of the input data, without the need of the human-in-the-loop, are born in response to this limitation. To the best of our knowledge, these systems are characterized by high computational complexity due to the continuous insertion of new templates into the gallery, thus assuming a template set of potentially infinite size for every user. Therefore, they do not fully meet stringent requirements of limiting the use of computational and storing resources. In other words, the number of templates per user should be controlled and very low if these requirements must be met.
The goal of this M.Sc. thesis is to deal with the problem above by introducing two novel approaches, based on the classification-selection paradigm. We hypothesize that the distribution of features extracted from the facial images is mono-modal for samples of the same user and multi-modal for different user samples, which is not usually assumed because of the large environmental variations involving the face traits. However, this simple assumption allows to design some appropriate selection approaches in order to add the best templates, according to different selection criteria. In order to confirm or deny this hypothesis, we develop three well-known clustering and editing algorithms and include them in the selection stage of the adaptation process. Experimental results on three facial datasets, representing strongly different environmental conditions, confirm our hypothesis and lead to a face verification performance competitive or superior to that reported by the state-of-the-art. On the basis of the reported results, we show that the requirement of keeping under control the number of templates per user is met, even if further theoretical and experimental investigations are needed to draw definitive conclusions.
Link esterno al gruppo di ricerca: http://pralab.diee.unica.it/
Dario Pasquini (Department of Computer Science, Sapienza University of Rome)
"Adversarial Neural Cryptography: limiti e fondamenti"
Dario Pasquini (Department of Computer Science, Sapienza University of Rome)
"Adversarial Neural Cryptography: limiti e fondamenti"
(Relatore: Luigi Vincenzo Mancini ).
La tesi discute il tema della Adversarial Neural Cryptography(ANC).
La ANC è l’insieme delle tecniche che mirano alla creazione automatica di primitive crittografiche attraverso l’ausilio di tecniche di machine learning e in particolare del deep learning.
In via generale e intuitiva, possiamo considerare la ANC come il primo tentativo di creazione di funzioni crittografiche interamente sviluppate da intelligenze artificiali.
Essendo quella della ANC un'area della crittografia pressoché inesplorata, nel lavoro di tesi, viene analizzata nella sua interezza con l'intento di chiarire quali siano gli obbiettivi pratici da raggiungere e quali i meccanismi generali che la regolano.
Inoltre, viene presentata e discussa l’idea di ANC security: una variazione del concetto di Computational Security che basa la sua rappresentazione sulla sostituzione del modello basato su Turing Machines con quello basato su Neural Networks.
Oltre all’obbiettivo di permettere un’analisi più granulare e coerente delle funzioni crittografiche prodotte con tecniche ANC, la ANC security ha quello di estendersi naturalmente all'utilizzo di tecniche di crittoanalisi che non richiedono il contributo umano.
Con gli strumenti teorici e pratici prodotti nella prima parte della tesi, si effettua un'analisi delle metodologie proposte dal lavoro di riferimento pubblicato dal gruppo Google Brain nel 2016, Learning to Protect Communications with Adversarial Neural Cryptography di MartÃn Abadi e David G. Andersen.
L'analisi si conclude con la produzione di diverse tecniche di attacco in grado di dimostrare la totale insicurezza delle metodologie utilizzate dai due autori. In particolare, si dimostra che, per un qualunque schema prodotto, è possibile allenare una Neural Network allo scopo di estrarre il 99% della chiave di cifratura da un qualunque ciphertext, disponendo solo di una quantità minima di informazioni sullo schema di cifratura e mantenendo rigorosamente le stesse assunzioni computazionali.
Allo stesso modo, nella tesi viene analizzato il ruolo delle tecniche di allenamento basate su Generative Adversarial Networks(GAN) applicate alla ANC, producendo e analizzando variazioni delle metodologie proposte da MartÃn Abadi e David G. Andersen.
Infine, la tesi presenta una possibile direzione futura della ANC basata sul Deep Reinforcement Learning
Paolo Piredda (Dipartimento di Ingegneria Elettrica ed Elettronica - Università degli studi di Cagliari)
"TYPOSQUATTING: analisi e rilevazione"
Link esterno al gruppo di ricerca: http://pralab.diee.unica.it/
Paolo Piredda (Dipartimento di Ingegneria Elettrica ed Elettronica - Università degli studi di Cagliari)
"TYPOSQUATTING: analisi e rilevazione"
(Relatore: Prof. Giorgio Giacinto, Dott. Ing. Davide Ariu.).
Con più di 326.4 milioni di nomi a dominio registrati fino a oggi, ed un' incremento dell' 11% di registrazioni nell' anno appena trascorso, il Domain Name System (DNS) si è evoluto fino a diventare fondamentale per il funzionamento di Internet. Oggi i nomi di dominio vengono utilizzati da tutti, dai singoli individui per la loro presenza online fino ai grandi marchi per le loro operazioni di business. Purtroppo, accanto agli usi legittimi del sistema, troviamo un infinità di abusi e utilizzi impropri, finalizzati a sostenere attività illecite compiute in rete (phishing, spam, meccanismi di truffa on-line). Spesso, il primo passo verso lo svolgimento di tipo di attività consiste nella registrazione di un dominio somigliante ad uno legittimo e possibilmente molto popolare, in modo da attirare il maggior numero di utenti verso i propri siti web. La tecnica sottesa a questo tipo di attacco prende il nme di typosquatting, e consiste appunto nella registrazione deliberata di un nome di dominio che utilizza varianti tipografiche di altri nomi di dominio popolari, con l'intenzione di catturare il traffico di utenti ignari che commettono errori durante la digitazione di un URL nella barra degli indirizzi del loro browser. Da un lato il typosquatting è dannoso per i legittimi proprietari dei nomi a dominio popolari, che perdono parte del traffico internet a loro destinato, dall' altro lato gli utenti che involontariamente visitano tali domini, oltre a alla perdita di tempo, possono essere esposti a contenuti di dubbia moralità e in alcuni casi malevoli. Per questo motivo il typosquatting fornisce un grande viatico ai cybercriminali per condurre i loro crimini. In questo lavoro di tesi viene presentata un' analisi del fenomeno del typosquatting, mettendo in evidenza i modelli e le tecniche avanzate per la generazione di nomi a dominio typosquatting, le caratteristiche dei typo-domini e dei domini autorevoli target dei typosquatters, nonché le tecniche usate per la loro monetizzazione. Si evidenziano inoltre alcune tecniche di misurazione della similarità tra due nomi, concetto chiave nello studio del fenomeno. Nella seconda parte della tesi viene presentato un' algoritmo di pattern matching, basato su q-gram e tecniche di codifica fonetica, adattato alla ricerca dei domini squatting all' interno di un dataset di nomi di dominio. L'efficacia dell'algoritmo è stata verificata utilizzando le risposte fornite in un periodo di 4 mesi dal rDNS (recursive DNS) di un Internet Service Provider italiano di primaria importanza. I risultati ottenuti sono stati validati attraverso il confronto con i più popolari servizi di blacklist, che ha consentito una valutazione delle performance. Nella sezione finale della tesi è illustrato il report del test di validazione, insieme ad una breve discussione sui risultati ottenuti.
Link esterno al gruppo di ricerca: http://pralab.diee.unica.it/
Fabio Rosato (Dipartimento di Ingegneria Informatica - Sapienza Università di Roma)
"Symbolic Execution of Malicious Software: Countering Sandbox Evasion Techniques"
(Relatore: Camil Demetrescu).
In recent years the complexity of code obfuscations widely employed by malware, along with the trend towards automation motivated by the staggering amount of new samples surfacing every day, have largely favored dynamic analysis techniques over static ones.
Evasive malware samples can, however, elude automated dynamic tools such as sandboxes by checking for the presence of a hostile environment and subsequently hiding their malicious behavior. According to a Symantec Threat Report, in Q4 2016 up to 22% of malware routinely detected when running in a virtual machine environment.
We argue that symbolic execution, a powerful and popular methodology from the software testing domain, is ideally suited for countering trigger-based, anti-analysis behaviors from malicious software. The technique also recently got the attention of the security community as it proved to be the key technology for the autonomous systems for vulnerability detection and patching that competed in the DARPA Cyber Grand Challenge 2016.
In a symbolic execution, an interpreter follows the program code, using symbolic rather than concrete values for inputs. The strength of the technique lies in its ability to potentially cover all possible execution paths, identifying concrete inputs (including the host configuration) that would exercise each path. The completeness property of the analysis can thus reveal all possible malicious behaviors of a sample, even for evasive malware that normally thwarts popular sandboxes and dynamic analysis tools. However, anti-analysis checks should be handled carefully during a symbolic execution, in order to prevent it from exploring uninteresting (i.e., evasive) paths, which can be arbitrarily many and long.
In this thesis we meticulously identified the most widespread malware evasion techniques, proposing a classification scheme based on their high-level features, and then presenting a detailed study of the behavioral patterns of the most common detection techniques, especially in terms of their interaction with the Windows APIs. We then developed an extension for Angr - a state-of-the-art open source framework for binary analysis and symbolic execution - that can guide the symbolic exploration in order to automatically pass the evasive checks, avoiding the expensive overhead from exploring uninteresting paths when the analysis reaches the corresponding branching points.
The way branching instructions over input-derived conditions are handled is crucial for the scalability of symbolic execution. In fact, exploring both outcomes of a branch can double the number of paths to explore at each step, eventually yielding an exponential number of possible symbolic executions. Evasive checks are a particularly critical kind of branching points: if a check detects the presence of a hostile environment, the malware will dissimulate its behavior in order to appear innocuous to the analysis environment, and likely execute a stalling code sequence. This implies that at least half of the paths generated by a single evasive check will not reveal any malicious behavior and are thus useless from an analysis standpoint. Addressing this problem is then essential in order to apply symbolic execution techniques to the malware domain in an effective manner.
The tests we conducted, both on a popular synthetic evasion demonstration tool and on real evasive malware samples, reinforced our observations about the severity of the threat that evasion poses to symbolic execution, and encouragingly confirmed the effectiveness of our proposed solution. We believe the developed extension represents a rather efficient and easily adaptable solution, and can provide a stable basis and support for any future project conjugating malware analysis and symbolic execution.
Link esterno alla tesi: https://github.com/fabros/angr-antievasion/blob/master/thesis/msc_thesis.pdf
Link esterno al gruppo di ricerca: https://season-lab.github.io/
Stefano Sandonà (Università degli Studi di Padova)
"THE BAD VIBRATIONS OF TIP-TAP: Inferring keystrokes on mobile devices from microphone and motion sensors"
Stefano Sandonà (Università degli Studi di Padova)
"THE BAD VIBRATIONS OF TIP-TAP: Inferring keystrokes on mobile devices from microphone and motion sensors"
(Relatore: Mauro Conti).
Modern mobile devices are equipped with various sensors that measure data related to their state, such as data about motion, location and environment. These sensors brought intelligence and awareness to the device, improving the usage experience. Unfortunately, they also opened some backdoors exploitable for malicious intentions. One of the main related threats, as demonstrated in prior works, is the possibility to perform keylogging on smartphones exploiting the inner sensors. Most of existing keyloggers on mobile devices rely on accelerometer and gyroscope as data source. However, such keyloggers suffer from the high sensitivity of sensors, that can detect any slight device movement. State-of-the-art attacks neglect this aspect, ignoring practical real-world settings, which contemplate a non-perfectly stable position maintained during typing. In this thesis we propose an innovative way to increase smartphone keylogging performance on realistic contexts. We present BADVIT (BAD VIbrations of Tip-tap), a framework that addresses a complete keylogging attack. Thanks to its modularity, BADVIT can be used by existing sensor-based keyloggers to increase their performance. In particular, we prove that it is possible to rely on acoustic emanations of the vibration, emitted as feedback by soft-keyboards (a.k.a. Haptic Feedback), to build more robust keyloggers in terms of keystroke detection. Indeed, the sound produced by the vibrating motor have spectral and temporal properties, which allow to detect when the user is typing. Knowing the exact keystrokes timing allows keylog attacks to focus the sensor-based keylogging on effective soft-keyboard usage, avoiding false detection due to other activities. In addition to that, we present a way to strengthen keyloggers based on motion data. Instead of capturing the specific key pressed by the user, it is possible to limit to detect its keyboard portion (i.e., left/right) and refine at the end the results using Natural Language Processing (NLP) techniques. To assess the feasibility and effectiveness of our proposal, we first designed and fully implemented a prototype, and then we run a thorough evaluation on such prototype. With our analysis, we were able to distinguish with an accuracy of 98.66% keystrokes from noise, and with an accuracy of 98.21% character keys from the spacebar. Analyzing gyroscope data, we could understand in which part of the soft-keyboard the key relies on (i.e., left or right) with a 90% accuracy. Performing a complete attack, we were able to detect trigrams typed by the user on 76% of the cases.
Michele Scalas (Dipartimento di Ingegneria Elettrica ed Elettronica - Università degli Studi di Cagliari)
"Study and Development of an Android Application for Automatic Ransomware Detection"
Link esterno al gruppo di ricerca: https://pralab.diee.unica.it/
Michele Scalas (Dipartimento di Ingegneria Elettrica ed Elettronica - Università degli Studi di Cagliari)
"Study and Development of an Android Application for Automatic Ransomware Detection"
(Relatore: Giorgio Giacinto).
Ransomware is becoming a widespread and dangerous phenomenon; the ’WannaCry’ ransomware is a suitable example that has been brought to attention even to general public: it has involved 150 countries across the world and forced the victims to pay 300$ of ransom. The typical behaviour of a ransomware consists in fact in encrypting data on the victim’s device or preventing the victim from accessing it, then demanding money in return for a promise to restore the device. Nowadays ransomware is a serious threat for mobile platforms too, especially for Android. Hence, the need for the development of effective systems to detect them. It’s worth noting that at the present time there is no Android app with the specific purpose of detecting ransomware.
Researchers from University of Cagliari proposed ’R-PackDroid’, a novel methodology for Android ransomware detection, based on machine learning: it leverages information extracted from system API packages to detect ransomware and distinguish it from trusted applications and generic malware.
Starting from this approach, the first goal of the thesis was the implementation of R-PackDroid on the Android platform. The attainment of this purpose raised some challenges: a) the integration of a fully working tool for bytecode analysis on Android b) the development of an algorithm to take advantage of the tool and extract the required features c) the development (on desktop side) of a trained classifier to be inserted in the app. The attained result for the first goal is a simple yet effective Android app capable of classifying an input application as ’ransomware’, ’malware’ or ’trusted’ with high accuracy. All the required operations, such as app analysis, feature extraction and classification (built with the machine learning tool ‘Tensorflow’), are executed without depending on external servers.
The second goal was exploring a possible alternative method, based on the distribution of system API classes. With respect to this second goal, the tests done on class method can be used as a starting point for future developments.
Link esterno al gruppo di ricerca: https://pralab.diee.unica.it/
Alessandra Sibiriu (Dipartimento di Ingegneria Elettrica ed Elettronica - Università di Cagliari)
"Sviluppo di un sistema di identificazione di impronte digitali intrinsecamente sicuro "
Link esterno al gruppo di ricerca: http://pralab.diee.unica.it/
Alessandra Sibiriu (Dipartimento di Ingegneria Elettrica ed Elettronica - Università di Cagliari)
"Sviluppo di un sistema di identificazione di impronte digitali intrinsecamente sicuro "
(Relatore: Gian Luca Marcialis).
Il crescente progresso della digitalizzazione ha portato ad un aumento degli attacchi informatici, minacciando in primis la protezione dei dati sensibili degli utenti.
A questo proposito entra in gioco l'ingegneria, che con una vera e propria rivoluzione ha portato ad un cambiamento del paradigma di progettazione di un sistema informatico, introducendo un nuovo approccio di security-by-design. La sicurezza non viene più messa in secondo piano ma diventa una componente fondamentale nella fase di progettazione in quanto, dal momento in cui si inizia a pianificare la realizzazione di un sistema si cerca di modellare al meglio il livello di protezione, riducendo così le vulnerabilità e il rischio di attacchi da parte di malintenzionati.
Tra i vari sistemi, il lavoro di tesi si concentra sui sistemi di identificazione biometrici di impronte digitali.
L’obiettivo è quello di validare sperimentalmente un modello di un sistema di riconoscimento biometrico progettato attraverso il nuovo approccio e definito quindi “intrinsecamente sicuro†rispetto ad un particolare tipo di attacco: i presentation attack o “attacchi di spoofing†che consistono nella replica di un’impronta digitale con materiali artificiali in modo da raggirare il sistema.
Partendo dallo studio generale della biometria, del sistema biometrico e delle sue vulnerabilità ci si concentra sull’analisi di una possibile progettazione di un sistema di verifica delle impronte digitali “intrinsecamente sicuroâ€, che prevede l’integrazione di un modulo di “liveness detection†fin dalla fase di progetto del sistema nel suo complesso.
Sono stati analizzati singolarmente i due moduli che compongono il sistema, il modulo di “matching†e il modulo di “liveness detectionâ€, che hanno rispettivamente il compito di verificare l’identità e la vitalità dell’impronta digitale presentata al sistema, e definiti vari modelli di integrazione dei due. In particolare è stato presentato un modello teorico sviluppato durante le attività di ricerca della Divisione Biometria che prevede la connessione dei due moduli in serie.
Proprio quest’ultimo è stato analizzato sperimentalmente utilizzando i dati resi disponibili dalla "Fingerprint Liveness Detection Competition 2015"; ciò ha permesso di valutare le prestazioni in termini di affidabilità del progetto, stima degli errori di verifica, e mettere a fuoco vantaggi e svantaggi in presenza e assenza del modulo di “liveness detectionâ€.
Sulla base dei risultati ottenuti si constata che il modello proposto può essere considerato un valido alleato contro gli “attacchi di spoofing†ai sistemi biometrici in quanto, in termini di tassi di accettazione, le performance di un sistema interconnesso serialmente sono migliori rispetto ad un sistema baseline (composto dal solo modulo di “matchingâ€). Inoltre si è appurato che è possibile ricavare l’andamento delle curve prestazionali del sistema integrato utilizzando semplicemente le curve prestazionali dei due singoli moduli. Questo risultato è molto importante a livello progettuale in quanto permette di conoscere il comportamento del sistema, in termini di tassi di accettazione, prima della sua effettiva realizzazione.
Link esterno al gruppo di ricerca: http://pralab.diee.unica.it/
Angelo Sotgiu (Dipartimento di Ingegneria Elettrica ed Elettronica - Università degli Studi di Cagliari)
"IntelliAV. An Intelligent Anti-Malware for Android Devices."
Link esterno al gruppo di ricerca: http://pralab.diee.unica.it/
Angelo Sotgiu (Dipartimento di Ingegneria Elettrica ed Elettronica - Università degli Studi di Cagliari)
"IntelliAV. An Intelligent Anti-Malware for Android Devices."
(Relatore: Giorgio Giacinto).
Al giorno d'oggi la sicurezza dei dispositivi mobile, come smartphone e tablet, è un aspetto particolarmente critico:
essi contengono molte informazioni sensibili e sono usati spesso da utenti non esperti, attirando l'attenzione dei malintenzionati.
Questo vale soprattutto per i dispositivi basati sul sistema operativo Android, il più diffuso, perchè le applicazioni possono essere scaricate, oltre che dallo store ufficiale di Google, anche da altri store alternativi che non eseguono analisi relative alla sicurezza delle applicazioni.
Inoltre, anche all’interno del Google Play Store è possibile trovare alcune applicazioni malevole che riescono a superare i sistemi automatici di rilevazione malware usati, e sono scaricabili dagli utenti per un certo periodo di tempo prima che vengano rilevate e rimosse.
Praticamente tutti gli anti-malware per Android disponibili al momento sono basati esclusivamente sul meccanismo delle “firme†relative a malware noti.
Questi ultimi vengono rilevati efficientemente, ma tale metodo è totalmente inefficace contro le nuove minacce, e il database delle firme ha necessariamente bisogno di frequenti aggiornamenti. Dall'altro lato, diverse tecniche di classificazione basate sul machine learning sono state testate con buoni risultati nel campo della rilevazione dei malware Android. Estraendo le caratteristiche più significative delle applicazioni e usandole per classificarle, è possibile rilevare anche i nuovi malware per i quali non sono ancora disponibili le firme. Quasi tutti gli approcci basati sul machine learning non sono stati implementati direttamente sui dispositivi Android, a causa delle loro limitate risorse computazionali, ma su computer. I pochi approcci proposti per la rilevazione dei malware
sul dispositivo, al meglio delle nostre conoscenze, non sono attualmente disponibili.
In questa tesi viene presentato IntelliAV, un anti-malware per dispositivi Android che fa uso esclusivamente di tecniche di machine learning per la rilevazione dei malware. IntelliAV è basato su TensorFlow, una libreria open source per il machine learning che è portabile su diverse piattaforme, incluso il sistema Android. Il lavoro è stato svolto in due fasi. Nella prima, svolta su computer, sono state accuratamente selezionate ed estratte delle feature significative da un training-set di 20000 applicazioni, etichettate come malevole o benigne. Le feature sono state quindi usate per addestrare un modello ottimizzato di machine learning. Nella seconda fase, è stata sviluppata un'applicazione Android che è in grado di estrarre efficientemente le feature richieste dalle applicazioni e di usare il modello precedentemente addestrato per classificarle, in modo da effettuare la rilevazione dei malware direttamente sul dispositivo. Sono stati effettuati diversi test su IntelliAV, in particolare sulla rilevazione di nuovi malware non presenti nel dataset e sui tempi necessari all'analisi delle applicazioni su dispositivi con diverse caratteristiche, che ne dimostrano l'efficacia e l'efficienza, anche con un confronto con alcuni dei più popolari anti-malware per Android disponibili sul mercato. L'applicazione è stata rilasciata ed è attualmente disponibile nel Google Play Store, e il lavoro è stato presentato alla conferenza CD-MAKE 2017.
Link esterno al gruppo di ricerca: http://pralab.diee.unica.it/
Ylenia Tattoli (Giurisprudenza d'impresa - Università degli studi di Bari Aldo Moro)
"Privacy or Primacy? Oblio della riservatezza e responsabilità "
Ylenia Tattoli (Giurisprudenza d'impresa - Università degli studi di Bari Aldo Moro)
"Privacy or Primacy? Oblio della riservatezza e responsabilità "
(Relatore: Vincenzo Bruno Muscatiello).
“ Esiste un luogo dove il passato è destinato a rivivere?â€
All’interno della sua opera avveniristica “ 1984â€, George Orwell pone un quesito di grande attualità , la quale risposta rimbomba tra le pareti della nostra generazione giuridica e dottrinaria, anche a distanza di quasi ottanta anni. Egli afferma, infatti, che il passato è destinato a rivivere nei documenti, nonché nella memoria collettiva degli uomini; verità che oggi è tenuta a confrontarsi con il cuore del neo nato “Diritto all’oblio†– come afferma un’autorevole dottrina – il “diritto ad essere dimenticati†e che trova il suo legittimo riconoscimento nell’art.17 del Regolamento (UE) 2016/679 in materia di protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati.
“ Privacy or Primacy?â€
Accanto al quesito orwelliano, il presente lavoro di tesi prova a comprendere, ponendo un’ulteriore domanda cardine, cosa possa accadere allorquando digitando il nostro nome all’interno di un motore di ricerca esso venga, a seguito di un meccanismo di indicizzazione, associato a notizie relative a fatti definiti e pubblicati tempo fa, la quale diffusione (legittima ed incontestabile in quel preciso arco temporale) all’odierna reiterata pubblicazione degli stessi e priva di qualunque fondamento e attualità , risulterà idonea a determinare una lesione dell’integrità della sfera personale. Il Diritto all’oblio, quindi, si inserisce in un continuo e difficile bilanciamento tra due diritti costituzionalmente protetti: il “Diritto alla riservatezza†(ex art.2 - art.13 Cost.) – di cui il diritto all’oblio è specificazione (Cass. pen. Sez. V, Sent., 24/11/2009, n. 45051) – e sul fronte opposto la “Libertà di espressione†(ex art.21 Cost.), la quale specificazione è ravvisata nel diritto alla cronaca e all’informazione.
In un contesto così descritto viene inserita, senza poche resistenze, la necessità di una concreta tutela del diritto all’oblio a seguito della rilevante portata offensiva della c.d. “memoria digitale†che appare quasi senza confini nell’analisi caratteristica della sua dimensione temporale e spaziale.
Imprescindibile lo studio del c.d. “Caso Google Spain†(Corte di Giustizia, Sentenza del 13/05/2014, in tema di diritto all'oblio - Google Spain SL, Google Inc. c. Agencia Española de Protección de Datos (AEPD)), che ha conferito per la prima volta riconoscimento giuridico al diritto all’oblio, descritto dettagliatamente dalla stessa Corte nella sua dimensione dinamica all’interno di uno schema che trova i suoi limiti temporali nel T1 (tempo – uno ) e T2 ( tempo – due).
Il primo tempo (T1) sarà caratterizzato dalla pubblicazione di una notizia attuale ed incisiva, capace di plasmare i valori della comunità tutta, pertanto conferendo giustificazione al legittimo esercizio del diritto di cronaca a svantaggio del diritto alla riservatezza, chiamato a restringere i suoi confini in ossequio alla libertà di espressione. Nel corso del tempo, tuttavia, la dimensione temporale subirà dei mutamenti specchio della contemporaneità delle vicissitudini, portando il diritto alla riservatezza a riappropriarsi del suo spazio naturale in termini di giustezza e attualità concedendo all’individuo la possibilità di una concreta ricostruzione della propria integrità personale, del proprio prestigio ed onore, sino a raggiungere il secondo tempo (T2) che interesserà la ripubblicazione della medesima notizia con logica riaccensione mediatica sulla stessa. La Corte analizzerà se e in quali casi sarà possibile procedere ancora una volta all’assottigliamento della sfera personale dell’individuo a favore della collettività , ed individuerà dei “parametri valutativi†al fine di giustificare il legittimo esercizio del diritto di cronaca, permettendo così un’incisione della opinione pubblica all’interno della sfera privata del singolo; in assenza di tali criteri, e solo a seguito di un giudizio ex post, il diritto di cronaca sarà tenuto a rispettare i limiti imposti dal diritto a non essere ricordati che tutela a sua volta l’identità personale (come sancito dal T.U dei doveri del giornalista, approvato dal Consiglio Nazionale nella riunione del 27 gennaio 2016).
Si elencano qui di seguito i maggiori parametri valutativi:
1- Continenza sostanziale
2- Continenza materiale
3- Aggiornamento e veridicità della notizia
4- Analisi del ruolo rivestito dalla persona direttamente interessata
“Oblio della riservatezza e responsabilità â€
In che modo verrà garantito l’esercizio del diritto all’oblio e quali i mezzi per rilevare la responsabilità di una eventuale lesione? L’imposizione di un ulteriore quesito si è reso necessario al fine di chiarificare la portata del neo diritto ed esplicitarne le modalità di esercizio.
Una prima soluzione viene garantita dalla stessa Corte di Giustizia nel caso Google Spain che, tra coraggio e lungimiranza, apre le porte al dialogo tra privati.
In questa sede sarà rilevato un sistema di responsabilità a doppio binario che ricadrà non solo sul singolo gestore del sito Web, ma anche dello stesso motore di ricerca (Google Spain, nel caso specifico) e verrà sancito il diritto di ogni cittadino europeo a rivolgersi direttamente al proprio gestore dei dati privati ed esercitare la c.d. “autodeterminazione informativa†( art. 6 Dichiarazione dei diritti in Internet) avendo così possibilità di accesso e di richiesta di “deindicizzazione†o “ cancellazione†dei dati stessi, dove la pubblicazione sarà ritenuta inadeguata al raggiungimento dello scopo per il quale quella notizia era stata precedentemente diffusa.
Una seconda soluzione sarà garantita dalla possibilità di adire direttamente l’Autorità Garante della Privacy, così come stabilito all’interno del Decreto Legislativo 30 giugno 2003, n. 196, e che nella evidenza dell’inadeguatezza della notizia diffusa, vincolerà il gestore dei dati personali alla rettificazione o integrazione o cancellazione degli stessi.
Una terza garanzia trova il suo fondamento ai sensi dell’art. 2043 - art. 10 c.c., nell’ipotesi in cui la lesione del diritto all’oblio venga definita come “generico danno ingiusto†arrecato all’immagine dell’individuo, trovando giusta tutela dinanzi alla giurisdizione civile.
La quarta garanzia diviene parte preponderante dello studio condotto all’interno del presente lavoro di tesi. La dinamica della ricerca si spinge verso l’individuazione di una tutela dinanzi, non solo alla giurisdizione civile, ma anche a quella penale e trova risposta certa nella decisione della Cass. pen. Sez. V, Sent., 24/11/2009, n. 45051. La eventuale lesione del diritto all’oblio viene ricondotta indiscutibilmente all’interno dell’art.595 c.p. relativo al reato di diffamazione con dettagliata attenzione al suo comma terzo, in particolar modo alla fattispecie di diffamazione aggravata a mezzo stampa o “con qualsiasi altro mezzo di pubblicità †, annoverando, tra questi, giornali on line e i modernissimi social media. La Corte di Cassazione identifica il diritto all’oblio come diritto alla non esposizione a continue lesioni a danno del proprio onore e della propria reputazione a seguito di una reiterata pubblicazione di notizie che negano la reale rappresentazione dell’evoluzione della propria personalità . Ravvisato in tale accezione, il diritto all’oblio – specificazione del diritto alla riservatezza – trova un chiaro riflesso indiretto (poiché non direttamente specificato) nella norma incriminatrice ai sensi dell’art.595, poiché “fortemente connesso alla reputazione dell’individuo†direttamente contemplata , invece, nello stesso articolo; riflesso che troverà giustificazione nella materialità e offensività della lesione arrecata, tali dal superare il generico danno ingiusto.
Unico scriminante del reato di diffamazione sarà ravvisato nel legittimo esercizio del diritto di cronaca in presenza della capacità dei suddetti parametri valutativi, volta a bilanciare l’equilibrio a favore dell’interesse collettivo in virtù di una forza pregante della notizia nella dimensione societaria.
A seguito dello studio condotto diviene evidente denotare come il diritto all’oblio viva in un costante e precario equilibrio tra ciò che non si può non (ri)dire e ciò che non si può (più) dire; tra ciò che occorre (far) sapere e ciò che non occorre; tra privacy dei privati e primacy dei giganti della Rete. Esso si forgia nella violenta dialettica tra informazione e deformazione; libertà di pensiero e libertà informatica ; diritti fondamentali e interessi economici; strategie di indagine e logiche di mercato.
Il pericolo allora è che il diritto all’oblio diventi uno strumento duttile per insabbiare alcune informazioni o lasciarne prive di tutela certe altre, come nel triste caso di Tiziana Cantone ( argomento di forte attualità preso in esame nelle conclusioni del presente lavoro di tesi).
A svolgere la delicata funzione di arbitri degli esorbitanti flussi di informazioni on line, i grandi motori di ricerca, Google su tutti – almeno in Europa, per adesso. E’ proprio il motore di ricerca infatti che deve mettere a disposizione dell’utente il modulo per esercitare il diritto all’oblio: ricevuta la richiesta, esso poi procederà alla valutazione case by case dei contenuti ritenuti lesivi e della loro eventuale rimozione. E’ possibile – in nome della logica della sussidiarietà a tutti i costi – che si giunga a delegare a soggetti privati una tale funzione dotata di assoluta discrezionalità e di spiccato interesse pubblicistico? A quali costi?
Se si modifica la narrazione della storia di un popolo, se ne modifica la storia stessa. E se la storia diventa soggettiva, essa produrrà un presente deformato e un futuro arbitrario; un futuro che non sarà più lo stesso.
Arduo sarà dunque il compito di applicazione del neo nato diritto all’oblio al fine di renderlo reale strumento di tutela della sfera privata del singolo individuo, ma al contempo restando lontani dalla tentazione di cedere al richiamo di un moderno desiderio morboso che mira a rendere il diritto all’oblio un nuovo cavallo di Troia ancillare ad una vanità personale finalizzata al mutamento della propria identità sociale partendo proprio dalla realtà digitale.
Sebastiano Valle (Dipartimento di Matematica, Università degli Studi di Padova)
"Cache Privacy in NDN: A Novel and Proactive Attack "
Link esterno al gruppo di ricerca: http://spritz.math.unipd.it/
Sebastiano Valle (Dipartimento di Matematica, Università degli Studi di Padova)
"Cache Privacy in NDN: A Novel and Proactive Attack "
(Relatore: Mauro Conti).
Despite being born for exchanging messages from one host to another over long distances, the Internet as we know it today is not employed anymore for just this purpose. The current TCP/IP Internet was indeed designed with the old public
telephone system in mind: this factor strongly influenced the development of this network of global dimensions, which interconnects people all around the world. With the advent of Web 2.0 and social networks, normal consumers became full-fledged producers, capable of generating content anytime and anywhere. We could say the fundamental shift from hosts to content started with URLs: in our browsers, we digit the name of what we are interested in and then a naming resolution system takes care of translating that high-level information to a host address. Nevertheless, the TCP/IP model is not suited to this paradigm: each request for a given piece of content corresponds to a single connection to a server, therefore new additional networking layers like Content Distribution Networks (CDNs) have been devised to overcome the
underlying problem. Lastly, new alternative paradigms which completely overturn the TCP/IP stack recently emerged under the name of Information Centric Networking (ICN), since in these models content is identified by its name rather than by its address.
While security in the current TCP/IP Internet was added incrementally as new threats were discovered, ICN instances strive instead to address security and privacy threats before being deployed on a large scale. Nevertheless, several issues are nowadays open problems in ICN: in particular, some privacy attacks exploit fundamental ICN architectural features such as having in-network caching to disclose private information about honest ICN consumers. To the best of our knowledge, all the ICN cache privacy attacks presented so far are reactive, since malicious users act after the victim has already requested sensitive content. This thesis work proposes instead the first proactive cache privacy attack, in which an attacker anticipates the victim actions by laying down a trap in advance. We show the feasibility of the attack via a thorough set of simulation which aim to prove the validity of the single building blocks under different
scenarios. More importantly, we underline a proactive cache privacy attack has unique properties when compared to traditional reactive attacks: in fact, a proactive attack exploits in-network caching differently from a reactive attack, hence being able to bypass many of the state-of-the-art countermeasures currently present in the academic literature.
Link esterno al gruppo di ricerca: http://spritz.math.unipd.it/
BACHECA TESI EDIZIONI PASSATE
Edizione 2023
Edizione 2022
Edizione 2022
Edizione 2021
Edizione 2020
Edizione 2019
Edizione 2018
Edizione 2017
Edizione 2016
Edizione 2015
Edizione 2014
Edizione 2013
Edizione 2012
Edizione 2011
Edizione 2010
Edizione 2009
Edizione 2008
Edizione 2007
Il Premio Tesi è realizzato in collaborazione e con il sostegno di: