BACHECA TESI
Edizione 2014
Marco Aresu (Dipartimento di Ingegneria Elettrica ed Elettronica - Università degli Studi di Cagliari)
"Studio e Sperimentazione di Tecniche Avanzate per l'Evasione di Rilevatori di Malware nel Sistema Operativo Android"
Link esterno al gruppo di ricerca: http://pralab.diee.unica.it
Marco Aresu (Dipartimento di Ingegneria Elettrica ed Elettronica - Università degli Studi di Cagliari)
"Studio e Sperimentazione di Tecniche Avanzate per l'Evasione di Rilevatori di Malware nel Sistema Operativo Android"
(Relatore: Prof. Ing. Giorgio Giacinto).
In questo lavoro di tesi si è dimostrato che applicando delle trasformazioni al codice malevolo presente all'interno di applicazioni per il sistema operativo Android, è possibile eludere gli anti-virus. Attraverso l'utilizzo di tecniche di differente complessità si sono offuscate delle applicazioni malevole note ed è stata misurata la capacità di rilevazione di malware da parte degli anti-virus. Nel corso dell'analisi ci si è avvalsi del software commerciale DexGuard, che utilizzato su due dataset pubblici di malware ha consentito di ottenere, attraverso l'utilizzo di tre tecniche di offuscamento differenti (Reflection, Renaming, Encryption) e di alcune delle loro combinazioni, 7 varianti di ciascuno dei campioni del dataset. Per ottenere una migliore evasione dei campioni malevoli offuscati, si sono offuscati gli entry-points (punti di accesso all'applicazione) e i file di risorse (file eseguibili, file di testo, ecc...) contenuti all'interno dell'applicazione. Le tecniche di offuscamento applicate non pregiudicano il funzionamento delle applicazioni, e quindi la possibilità, per i malware di infettare il dispositivo ed eseguire delle azioni malevole su di esso. Si è dimostrato che gli anti-virus non sono in grado di rilevare dei malware pur datati nel momento in cui questi vengono offuscati. In particolare si è osservato che fra tutte le modifiche applicate, quelle relative agli entry-point dell'applicazione e ai file di risorse risultano essere determinanti e consentono di evadere efficacemente un elevato numero di anti-virus. L'analisi ha anche riguardato la possibilità di compromettere il regolare funzionamento degli anti-virus attraverso la generazione di un elevato numero di falsi positivi. Si è infatti osservato che se all'interno di un file classes.dex benigno vengono inserite delle stringhe malevole ma che non svolgono alcuna operazione dannosa, di frequente il file viene classificato come maligno. Sfruttando questo meccanismo si potrebbe far generare agli anti-virus un numero elevato di falsi avvisi scoraggiando l'utente dall'utilizzare il sistema di rilevazione.
Link esterno al gruppo di ricerca: http://pralab.diee.unica.it
Giuseppe Cascavilla (Dipartimento di Matematica - University of Padova)
"SocialSpy: Browsing (Supposedly) Hidden Information in Online Social Networks"
Link esterno al gruppo di ricerca: http://spritz.math.unipd.it/
Giuseppe Cascavilla (Dipartimento di Matematica - University of Padova)
"SocialSpy: Browsing (Supposedly) Hidden Information in Online Social Networks"
(Relatore: Mauro Conti).
Online Social Networks are becoming the most important "places" where people share information about their lives. With the increasing concern that users have about privacy, most social networks offer ways to control the privacy of the user. Unfortunately, we believe that current privacy settings are not as effective as users might think.
With this study, we highlight this problem focusing on one of the most popular social networks, Facebook. In particular, we show how easy it is to retrieve information that a user might have set as (and hence thought as) "private". As a case study, we focus on retrieving the list of friends for users that did set this information as "hidden" (to non-friends). We propose four different strategies to achieve this goal, and we evaluate them. The results of our thorough experiments show the feasibility of our strategies as well as their effectiveness: our approach is able to retrieve a significant percentage of the names of the "hidden" friends: i.e., some 25% on average, and more than 70% for some users.
The final aim of this work is to present a proof-of-concept approach that demonstrates a significant privacy issue on Facebook. Specifically, we exploited only tools publicly available in order to reveal information that the victim declared private.
The presented technique consists of four strategies, that rely on the above-mentioned tools, with the final aim of rebuilding the list of friends of a victim user (in the event that the victim declared such list private).
For our experiments we used two datasets of Facebook profiles, the Mixed Dataset and the Public Dataset. The first contains user IDs composed of profiles with different types of privacy settings and usually with information not publicly available; the latter contains user IDs profiles that are publicly available.
With our four strategies we can retrieve the friend list of every user with every type of privacy settings. Our percentages demonstrate a real lack of privacy in Facebook. We are now able to raise a real concern against Facebook. On the other hand, from our experiments, we hope to create awareness on Facebook users.
Link esterno al gruppo di ricerca: http://spritz.math.unipd.it/
Andrea Continella (Dipartimento di Elettronica, Informazione e Bioingegneria, Politecnico di Milano)
"Prometheus: A Web-based Platform for Analyzing Banking Trojans"
Andrea Continella (Dipartimento di Elettronica, Informazione e Bioingegneria, Politecnico di Milano)
"Prometheus: A Web-based Platform for Analyzing Banking Trojans"
(Relatore: Federico Maggi).
Nowadays, banking trojans are reaching alarming levels of sophistication. New variants (the most famous examples are ZeuS, SpyEye and Citadel) are constantly being introduced to avoid detection by antivirus software on the victim?s PC and to make it difficult for banks and account holders to spot fraud attempts as they occur. Furthermore, these trojans are sold on underground markets as ?toolkits? that include development kits, web-based administration panels, builders and easy-to-use customization procedures. The main consequence is that anyone, independently on the skill level, can buy a malware builder and create a customized sample.
Banking trojans exploit API hooking techniques to be able to intercept all the data going through the browser even when the connection is encrypted. This kind of malware contains also a WebInject module able to modify web pages. This module is used by the attackers to add new fields in forms in order to steal the target information.
We propose a web based platform, Prometheus, that analyzes banking trojans exploiting the visible DOM modifications that they cause in the HTML pages. Prometheus is able, independently on the trojan?s family or
version, to detect the injections performed by the malware and, through memory forensic techniques, to extract the targets of the WebInject module (the URLs of the web pages monitored and modified by the malware).
The base approach that Prometheus exploits consists in starting two virtual machines, then infecting one of them with the malware, downloading a page from a targeted site on both the machines and then
comparing the two downloaded DOMs. On one hand, this approach is quite simple and has the main advantage to be independent on the specific implementation, on the other hand it is very naive and could lead to high values of false positive rate. In fact there are a lot of cases in which the content of a web page may vary legitimately, for example this could be due to server-side scripts,
advertisement inclusion that may change or include content that varies dynamically. For this reason we run the analyses on multiple machines in order to be able to discard the legitimate differences that occur between two or more clean machines. Moreover, to reduce false positive rate, we designed and implemented four heuristic-based filters.
In conclusion, Prometheus is useful to malware analysts because it significantly reduces the need of manual reverse engineering.
We evaluated Prometheus on 53 ZeuS samples and 62 real banking web-sites showing that our system correctly detects the injections performed by trojans and successfully extracts the WebInject targets.
Matteo Contini (Dipartimento Ingegneria Elettrica ed Elettronica, Universit? degli Studi di Cagliari)
"STUDIO E SVILUPPO DI UN SISTEMA AD APPRENDIMENTO AUTOMATICO PER LA RILEVAZIONE DI ATTACCHI PHISHING"
Link esterno al gruppo di ricerca: http://pralab.diee.unica.it/
Matteo Contini (Dipartimento Ingegneria Elettrica ed Elettronica, Universit? degli Studi di Cagliari)
"STUDIO E SVILUPPO DI UN SISTEMA AD APPRENDIMENTO AUTOMATICO PER LA RILEVAZIONE DI ATTACCHI PHISHING"
(Relatore: Prof. Giorgio Giacinto).
Il phishing, attacco informatico di social engineering che mira al furto di informazioni sensibili, e' un fenomeno in forte crescita ed espansione che porta ogni anno ad ingenti perdite economiche. Il metodo di rilevazione di questi attacchi maggiormente sviluppato e' al momento quello basato sulle
cosiddette blacklist, che consistono essenzialmente in liste di URL malevoli su cui viene sconsigliata o inibita la navigazione agli utenti. Naturalmente queste blacklist sono del tutto
inefficaci per quanto riguarda gli URL di phishing ancora non inseriti in lista. Poiche' ogni giorno il numero di nuovi domini malevoli cresce, il lasso di tempo che passa dalla nascita di una pagina di phishing al suo inserimento in una blacklist tende ad allungarsi sempre di piu'. Si e' reso quindi necessario lo sviluppo di nuovi sistemi di rilevamento del phishing per il mantenimento e lo sviluppo di queste blacklist e lo studio di questi sistemi ha portato anche alla nascita di sistemi di rilevazione del phishing in tempo reale. Gli approcci di rilevamento del phishing sono essenzialmente due. Il primo, somiglianza visuale o visual similarity, e' basato sull'aspetto della pagina web, quindi su cio' che l'utente vede, il secondo, chiamato content-based, e' invece basato sui contenuti della pagina web, anche se nascosti all'utente finale. In questa tesi si procede quindi alla definizione di un insieme di caratteristiche, da estrapolare dal contenuto di una pagina web, per lo sviluppo di un sistema di classificazione delle pagine di phishing, ad apprendimento automatico con approccio content-based, che possa essere utilizzato sia per il mantenimento di una blacklist, sia come cuore di un sistema di rilevamento in tempo reale. Gli studi effettuati sullo stato dell'arte e sulle caratteristiche di un insieme di pagine di phishing collezionate, ha portato alla definizione di nove caratteristiche da estrarre dal contenuto delle pagine web. Mediante l'utilizzo di un dataset realizzato dall'estrazione delle caratteristiche scelte su un insieme di pagine di phishing e pagine legittime collezionate per lo scopo, e' nato quindi Sampei, un classificatore ad apprendimento automatico basato sugli alberi decisionali.
Link esterno al gruppo di ricerca: http://pralab.diee.unica.it/
Vito de Palma (Dipartimento di Informatica e Tecnologie per la Produzione del Software, presso Universit? degli Studi di Bari "Aldo Moro")
"Il Single Sign-On Federato mediante Shibboleth: analisi delle propriet? di un modello Petri-Net"
(Relatore: Prof. Bianchi Alessandro).
La tesi ha l'obiettivo di analizzare nuove tecniche di "Autenticazione". In particolare ? stato esteso il Single Sign-On con il concetto di "Autorizzazione" mediante il middleware Shibboleth. La tesi ? suddivisa in tre parti, nella prima vengono analizzati il contesto, cio? il WEB con ci? che lo circonda ed i pericoli derivanti dal processo di autenticazione, oltre ad analizzare una serie di possibili attacchi che entit? malintenzionate potrebbero attuare con lo scopo di carpire o manomettere informazioni. Nella seconda parte vengono definite delle soluzioni; le prime riguardano metodologie tradizionali, per poi spingersi verso una tecnologia innovativa, ovvero il Single Sign-On mediante Shibboleth. Sempre nella seconda parte viene fatta una approfondita descrizione dell?architettura di tale sistema e gli attori con cui entra in contatto, come SAML2, LDAP e relativi attributi, la Federazione IDEM del consorzio Garr, i COOKIE con i problemi derivanti dall?utilizzo di provider differenti e quelli legati alla privacy. Dopo aver descritto approfonditamente tale sistema distribuito, viene presentato un primo modello STATICO, al fine di unire le varie tecnologie presentate, con le comunicazioni che avvengono tra esse. Nella terza parte vengono approfonditi i processi di comunicazione, che avvengono tra i componenti principali di Shibboelth, tramite la realizzazione di un modello DINAMICO con la tecnologia delle Reti di Petri. Dopo aver realizzato il modello che rappresenta il sistema Shibboleth, sono state effettuate delle simulazioni di tale sistema, al fine di ottenere una serie di propriet? che lo rappresentano. Tali propriet?, ottenute dal modello Petri-Net implementato, hanno permesso di analizzare differenti fattori, tutti relativi la sicurezza ottenuta da tale sistema sul Web, non solo dal punto di vista degli attacchi, ma anche dal punto di vista della efficienza delle comunicazioni, necessarie per portare a termine il processo di ?Autenticazione ed Autorizzazione? di un utente. In particolare, il framework Shibboleth permette di attuare il ?Single Sign-On Federato?, permettendo ad un utente registrato presso una organizzazione partecipante alla Federazione (in questo caso IDEM di Garr), di accedere ad una grande quantit? di servizi offerti da provider differenti. Il tutto avviene tramite un?unica fase di ?Autenticazione e Autorizzazione Decentralizzata?, perch? a prescindere dal luogo in cui si trova l?utente e dal servizio a cui accede, sar? l?organizzazione di appartenenza a dare le garanzie sulla identit? dello stesso. Infine sono state considerate una serie di tecnologie presenti sugli smartphone e tablet di ultima generazione, come il lettore di impronte digitali e la tecnologia NFC. L?utilizzo di tali tecnologie per il processo di autenticazione e autorizzazione tramite Shibboelth, garantirebbero maggiore sicurezza data dall?unicit? delle impronte digitali, oltre ad offrire un livello di accessibilit? estremamente semplificato, perch? gli utenti per autenticarsi dovranno solo effettuare uno swipe col dito sul lettore d? impronte, oppure avvicinare il proprio smartphone ad un tag nfc pre-programmato e senza la necessit? di dover ricordare username e password.
Link esterno alla tesi: https://www.dropbox.com/s/vvzncbw6vpxw9ea/Tesi%20Shibboleth%20Vito%20de%20Palma.pdf?dl=0
Ilenia Falchi (Dipartimento di ingegneria elettrica ed elettronica dell'Universit? degli studi di Cagliari)
"Un modello di analisi della robustezza per sistemi di verifica di impronte digitali"
Link esterno al gruppo di ricerca: http://pralab.diee.unica.it
Ilenia Falchi (Dipartimento di ingegneria elettrica ed elettronica dell'Universit? degli studi di Cagliari)
"Un modello di analisi della robustezza per sistemi di verifica di impronte digitali"
(Relatore: Gian Luca Marcialis e Giorgio Fumera).
Negli ultimi anni, lo sviluppo dei sistemi biometrici basati sul riconoscimento di impronte digitali ha visto una sempre pi? forte crescita, a seguito della diffusione di servizi fondati sulla verifica dell'identit? di un utente e della conseguente ricerca di metodi di autenticazione pi? sicuri ed efficienti.
Proteggere i dati da tutti i possibili attacchi ? diventato il tema centrale in termini di studio della sicurezza di questi sistemi, soggetti a minacce costanti e col tempo significativamente pi? efficaci. Il problema risulta essere la facilit? con cui, attualmente, ? possibile violarli, con tecniche semplici e di facile realizzazione. Attuare misure cautelari volte a prevenire un determinato attacco, risulta essere una soluzione solo parziale al problema, dal momento che ? sempre possibile produrre metodi fraudolenti pi? efficienti e capaci di sfruttare le diverse vulnerabilit? del sistema.
L'obiettivo di questo lavoro ? quello di studiare il comportamento dei sistemi biometrici di impronte digitali sotto un particolare tipo di attacco: l'attacco ?spoof?, che consiste nella produzione di una replica di un'impronta digitale presentata direttamente al sensore. L'evidenza sperimentale ha mostrato come gli effetti prodotti da questo particolare attacco si traducano in un decremento delle prestazioni previste in fase di progetto e un conseguente decremento della sicurezza del sistema.
L'idea ? stata quella di simulare il comportamento del sistema sotto attacco attraverso l'utilizzo di un modello capace di analizzare il rischio connesso ad una determinata minaccia, ovvero valutare i possibili attacchi in termini di probabilit? di successo e del relativo danno potenziale prodotto, individuando degli scenari di attacco specifici per il particolare sensore utilizzato nella fase di acquisizione, della tecnica di fabbricazione delle impronte digitali false adottata, del matcher scelto per valutare la similarit? tra le impronte e del campione di utenti utilizzato.
Verranno mostrati i risultati sperimentali legati a due distinte fasi di sperimentazione ottenute utilizzando diversi materiali, sensori e campioni di utenti, volte a testare la robustezza di questo modello e all'analisi delle sue prestazioni.
L'insieme dei risultati ottenuti in questo lavoro rappresenta, ad oggi, lo stato dell'arte in termini di simulazione del comportamento sotto attacco ?spoof? di un sistema biometrico di impronte digitali.
Link esterno al gruppo di ricerca: http://pralab.diee.unica.it
Renato Ferrua (Dipartimento di informatica / Universit? degli studi di Milano)
"Un Approccio Moderno al Cross-Site Scripting"
Renato Ferrua (Dipartimento di informatica / Universit? degli studi di Milano)
"Un Approccio Moderno al Cross-Site Scripting"
(Relatore: Prof. Paolo Ceravolo).
Il cross-site scripting (XSS) ? una vulnerabilit? molto diffusa nelle applicazioni web dinamiche.
Nonostante la sua pericolosit?, la comunit? scientifica si ? fortemente interessata all?argomento solo per un breve periodo di tempo; la letteratura esistente risulta quindi datata e talvolta riporta nozioni non pi? valide. Sorge quindi la necessit? di contestualizzare il cross-site scripting ai nostri giorni. Questo pu? essere fatto acquisendo una profonda conoscenza dei testi esistenti, verificando tramite esperimenti la validit? delle informazioni contenute ed ideando soluzioni alternative quando necessario.
Esistono tre tipi di vulnerabilit? XSS: non-persistent, persistent e DOM-based. Tutte nascono da un insufficiente controllo dell?input e dell?output, da parte di un?applicazione web, che consente all?attaccante di far eseguire del codice malizioso al browser della vittima. Per riuscire nell?attacco il malintenzionato deve quindi raggirare i filtri predisposti dallo sviluppatore, sfruttando talvolta peculiarit? di plug-in o protocolli.
Gli attacchi permettono l?esecuzione di svariate attivit?. L?attaccante pu? ad esempio ottenere l?elenco dei siti in cui ? autenticata la vittima o la sua cronologia, rubare credenziali o cookie, accedere ai dati personali, modificare i contenuti o il funzionamento di un sito internet, eseguire attacchi ?behind the firewall?, e molto altro?
L?utente non ha molto con cui proteggersi. A parte alcuni comportamenti da tenere, per diminuire la probabilit? di rimanere vittima di un attacco, pu? solo affidarsi ai filtri anti-XSS integrati nei browser di ultima generazione, in grado di mitigare gli attacchi pi? comuni. Alcuni studi per ottenere una maggiore protezione lato client sono in corso, ma ad oggi l?unico vero mezzo per contrastare il cross-site scripting ? un corretto filtraggio dell?input e dell?output da parte delle applicazioni web, attraverso tecniche di validation e sanitation.
La valutazione della sicurezza di una piattaforma contro gli attacchi XSS incomincia da una mappatura delle risorse del sito, che metta in evidenza tutti i punti dove l?utente ? in grado di sottoscrivere dati e tutti i contenuti che sembrano essere creati dinamicamente. Sulla base di questa vengono ideati una serie di test, in grado di evidenziare il funzionamento dei filtri ed i legami tra input ed output. Analizzando i risultati oltre che il file system, i cookie e la gestione degli errori dell?applicazione ? possibile determinare la presenza di vulnerabilit?.
Il metodo descritto viene applicato a ?cdling.com?, il quale non risulta vulnerabile al cross-site scripting; tuttavia durante l?analisi vengono individuati otto bug, uno dei quali in grado di compromettere l?integrit? dei dati dell?applicazione.
Dal lavoro svolto ? emerso che molti degli attacchi presenti in letteratura non sono pi? funzionanti, ma per ognuno di questi ? possibile creare una variante, anche se generalmente meno performante; inoltre i linguaggi di programmazione moderni mettono a disposizione tutto il necessario per la scrittura di codice sicuro, mentre i principali vendor integrano nei loro browser i primi meccanismi di difesa.
Negli anni la situazione ? quindi migliorata, ma il problema ? ben lontano dall?essere risolto.
Sebastiano Gottardo (Dipartimento di Matematica - Universit? degli Studi di Padova)
"MITHYS - Mind The Hand You Shake - Protecting Mobile Devices from SSL Usage Vulnerabilites"
Link esterno al gruppo di ricerca: http://spritz.math.unipd.it/
Sebastiano Gottardo (Dipartimento di Matematica - Universit? degli Studi di Padova)
"MITHYS - Mind The Hand You Shake - Protecting Mobile Devices from SSL Usage Vulnerabilites"
(Relatore: Mauro Conti).
Lo scopo principale di questo studio consiste nell'investigare le vulnerabilit? del protocollo SSL, messe in luce da recenti studi, che affliggono un numero significativo di applicazioni per dispositivi mobili. Nella maggior parte dei casi, queste vulnerabilit? sono attribuibili ad un uso improprio del protocollo SSL (in particolare, nella sua fase chiamata "handshake"), che si traduce in applicazioni esposte ad attacchi di tipo "man-in-the-middle". Molto spesso queste applicazioni gestiscono i dati sensibili degli utenti, come ad esempio dati bancari e credenziali d'accesso. Nel tentativo di risolvere il problema, questo studio presenta MITYHS, un sistema in grado di: (i) individuare applicazioni vulnerabili ad attacchi man-in-the-middle, e (ii) proteggerle da questi attacchi. L'architettura del sistema MITHYS ? stata progettata per essere indipendente dalla piattaforma considerata, permettendo cos? un'implementazione su i pi? famosi sistemi operativi per dispositivi mobili odierni. Al fine di dimostrare la fattibilit? della soluzione MITHYS, questo progetto descrive l'implementazione di un prototipo, chiamato MITHYSApp, per la piattaforma Android. Agendo allo stesso livello delle altre applicazioni, MITHYSApp non richiede nessun permesso speciale di esecuzione n? modifiche al sistema operativo. La validit? della soluzione ? comprovata da un esteso insieme di test che mirano a verificare la capacit? di individuare con successo applicazioni vulnerabili e di proteggerle, senza penalizzare significativamente l'esperienza dell'utente. Queste caratteristiche rendono possibile il rilascio immediato di MITHYSApp ad una base d'utenza molto ampia, garantendo la protezione di milioni di utenti.
Link esterno al gruppo di ricerca: http://spritz.math.unipd.it/
Marco Letizia (Dipartimento di Elettronica - Politecnico di Torino)
"Ingegnerizzazione di un sistema di analisi traffico web cifrato basato su plugin per browser"
Marco Letizia (Dipartimento di Elettronica - Politecnico di Torino)
"Ingegnerizzazione di un sistema di analisi traffico web cifrato basato su plugin per browser"
(Relatore: Prof. Marco Mellia).
L'evoluzione del web, strumento che tutt'oggi si attesta ai primi posti per i servizi offerti alla persona (quali l'ecommerce, i social network), ha implicitamente richiesto un costante aumento della privacy ,proporzionale alla natura dei dati sensibili che l'utente utilizza sulla rete. L'utente medio si personifica direttamente nei dispositivi che lo connettono ad internet, rappresentandolo, ad esempio, in un tessuto sociale quale i social network, nelle comuni azioni di tutti i giorni che, l'utente pre-internet, era solito fare di persona,come acquistare beni , usufruire di servizi offerti da terze parti recandosi in uffici predisposti, e cos? via. Ognuna di queste azioni comporta la presenza di un informazione che l'utente ritiene riservata: contenuti multimediali quali foto/video, dati personali, password,ecc. HTTPS ? la risposta Netscape alle odierne misure di sicurezza web, in quanto garantisce la cifratura del traffico, l'integrit?, l'autenticazione del server e della controparte (utente). Negli ultimi anni si ? osservata una crescita esponenziale del traffico HTTPs che, per?, ha introdotto anche una serie di svantaggi dovutiall'impossibilit? di controllare il traffico web in quanto cifrato: operazioni quali Traffic Monitoring, Traffic Control/Filtering, Parental Control, Malware Filter,o Intrusion Detection Systems sono tecnologie che diventano immediatamente obsolete in presenza di traffico cifrato. Le soluzioni attuate dagli amministratori di rete utilizzano l'approccio del Proxy; realizzano, di fatto, un MITM (Man In The Middle) logico tra il browser ed il server: intercettano le richieste criptate, le decifrano e le reinviano al server, catturando poi le risposte in chiaro prima della consegna (cifrata) al client. L'applicazione di queste soluzioni pu? avere un discreto successo in un ambito aziendale, a seconda delle capacit? informatiche dei singoli dipendenti e della qualit? della configurazione di rete aziendale. Tuttavia, le suddette soluzioni sono molto invasive in generiche applicazioni. I browser sono la categoria di software pi? utilizzati da miliardi di persone ogni giorno e sono i primi responsabili nel trattamento dei dati sensibili sul World Wide Web. Per questo motivo i browser risultano il luogo perfetto per spostare le funzionalit? che non possono pi? essere svolte nella rete a causa della cifratura delle comunicazioni. Infatti, i browser trasmetto (ricevono) i dati prima (dopo) che questi vengano cifrati (decifrati). Per questo abbiamo scelto di sviluppare un applicativo per il browser (plugin) in grado di offrire un sistema di analisi del traffico web cifrato.Mediante l'utilizzo del plugin si ? osservata una totale fiducia in HTTPS da parte degli sviluppatori web,in quanto i dati sensibili quali user name, password, pin, ecc sono tutti mandati in plaintext senza modifica alcuna. Questo fenomeno ? stato osservato su svariati siti quali Facebook, Unicredit, Gmail, Ebay, Linkedin, Twitter, Paypal, Bank of America e altriin cui, osservando i file di log, si sono letti gli stessi dati immessi sull'interfaccia del sito.La fase di testing ha voluto evidenziare quanto si avverta la presenza del plugin in termini di rallentamento della navigazione web. Per stimare questi valori si sono condotti dei test che consistono nel caricare molte volte una pagina web in assenza del plugin e con diversi profili di configurazione dello stesso, quali: FULL CAPTURE, LOW CAPTURE. Nei test si evince che per una connessione 8 Mb/s ADSL Wifialle 3am il profilo Low Caputre ha impiegato il 17% di tempo in pi? rispetto al normale caricamento in assenza del plugin, contro un 24% in pi? del profilo Full Capture. Lo stesso test, effettuato al Politecnico con una connessione 100 Mb/s ADSL Eth alle4pm di un giorno lavorativo, vede 2,93% in pi? per il Low Capture ed un 19,31% per il Full Capture.
Flavio Lombardi (Dipartimento di Matematica e Fisica Universita degli Studi Roma Tre)
"Secure Distributed Computing on a Manycore Cloud"
(Relatore: Roberto Di Pietro).
Computation outsourcing is an increasingly successful paradigm today.
The cloud approach allows outsourcers to offer on-demand scalable services to third parties or to perform large computations without high server farm maintenance costs.
Scientific computing is one of the beneficiaries of such novel scenarios. Stemming from the first in-house built clusters, distributed computing has flourished over the years also thanks to the Internet. Grids before, and later clouds, have enhanced the storage and computation potentiality. At the same time, to overcome Moore's law real-world limitations, multicore and manycore hardware has emerged thus allowing parallel computing on a chip.
In such a novel scenario it is of primary importance to provide adequate security and privacy guarantees to both providers and users of outsourced services.
The problem is complex, as present cloud landscape actors (cloud providers, service providers, and service users) have different requirements and objectives.
This thesis addresses the security issues involved with computation outsourcing over distributed heterogeneous cloud nodes.
It investigates different directions and proposes possible approaches to their solutions in a variety of scenarios.
In this thesis, we present a comprehensive approach for monitoring and protecting computations
hosted on heterogeneous computing nodes out of the client control. There are mainly three
security aspects that need to be considered when ensuring reliable secure computation over
remote heterogeneous cloud nodes.
The first aspect is given by the integrity enforcement of cloud nodes (in particular of VMs). The
problem here is to guarantee that virtual machines behave as expected and do not perform malicious activity. An advanced comprehensive execution monitoring system has been introduced
and evaluated. Further, a novel effective real-time execution control approach based on
Execution Path Analysis has been produced. Such a system allows detecting and reacting
to anomalous code behavior before it can produce damage to the cloud. In addition, a differential analysis approach based on tainting has been devised that helps evaluating applications
in order to asses their behavior and to help classify them as goodware, greyware or malware.
The second aspect is computation reliability aimed at limiting the probability of erroneous or
fake data or computed results. With respect to this relevant problem, we have introduced effective task distribution and result evaluation and node-ranking approaches that minimize the chances that cheating nodes can affect the global computation outcome.
Furthermore, we have investigated and discussed interesting results
on time/action cheating that can help forensic investigations in the cloud.
The third aspect is related to cloud privacy issues. In particular we have shown that present
manycore cloud computing is inherently insecure and we have proposed both new execution
models and practical remedies that prevent one user from accessing or affecting data and
computation of another user on a multitenant GPU cloud.
Link esterno alla tesi: http://ricerca.mat.uniroma3.it/Dottorato/TESI/lombardi/lombardi.pdf
Link esterno al gruppo di ricerca: http://ricerca.mat.uniroma3.it/users/dipietro/gruppoRicerca/index.html
Riccardo Moretti (Universit? degli Studi di Milano, Dipartimento di Informatica)
"Integrit? per join approssimati nel cloud"
Riccardo Moretti (Universit? degli Studi di Milano, Dipartimento di Informatica)
"Integrit? per join approssimati nel cloud"
(Relatore: Sara Foresti).
Negli ultimi anni, il cloud ? diventato il paradigma di riferimento per la realizzazione di servizi computazionali e di memorizzazione di dati su larga scala. Il principale vantaggio dell'uso di risorse fornite da cloud provider ? che questi ultimi possono offrire servizi ad un costo molto inferiore a quello che privati e aziende dovrebbero sostenere se dovessero svolgere le stesse operazioni garantendo la stessa qualit? di servizio. In questa tesi si ? considerato uno scenario caratterizzato dalla presenza sia di fornitori di servizi di memorizzazione, che offrono grande affidabilit? e disponibilit? dei dati, sia di fornitori di servizi computazionali ,che offrono potenza di calcolo a buon mercato. In questo contesto, gli utenti sono interessati ad archiviare i propri dati nei primi e a sfruttare i secondi per svolgere operazioni computazionalmente onerose, in quanto economici.
Scopo di questo lavoro di tesi ? sviluppare una soluzione che offra agli utenti la possibilit? di valutare l'integrit? del risultato di operazioni delegate a fornitori di servizi computazionali. Infatti, seppur estremamente attraente dal punto di vista economico, l'utilizzo di fornitori di servizi computazionali richiede adeguate garanzie sul corretto funzionamento dei servizi offerti. Un'esecuzione ?classica" non permette agli utenti di valutare potenziali comportamenti scorretti, quali manomissione dei dati o omissioni, da parte del server di calcolo. L'approccio proposto in questa tesi, basandosi sulla collaborazione fra l'utente che richiede le query e i server di archiviazione dei dati, consente di controllare l'integrit? di operazioni di join eseguite dal server computazionale. Consente cio? all'utente di controllare che il risultato del join sia corretto (rispetta la condizione di join) e completo (nessuna tupla ? stata omessa).
Il meccanismo analizzato consiste nell'adozione combinata di tre diverse tecniche: 1)cifratura on the fly, 2)marker e 3)twin. Con la cifratura on the fly ogni server di memorizzazione cifra i dati prima di inviarli al server computazionale, che poi li elabora in forma cifrata. I marker sono tuple fittizie" che ciascun server di memorizzazione inserisce nelle relazioni. Queste tuple sono inserite in modo tale da comparire nel risultato senza per? entrare in conflitto con i reali valori degli attributi di join. Ogni server di memorizzazione duplica alcune tuple della sua relazione prima di inviarle al server computazionale. E? importante che, cos? come per i marker, le coppie di tuple duplicate non siano riconoscibili dal provider computazionale. Queste tecniche garantiscono la protezione della confidenzialit? delle informazioni e consentono all'utente di verificare l'integrit? del risultato del join, con un impatto limitato sul tempo di calcolo.
Scopo della tesi ? stato adattare l'applicazione delle tecniche sopra descritte a join approssimati, ovvero join in cui la condizione richiede che la distanza (cio? la differenza in valore assoluto) fra i valori degli attributi di join non superi una certa soglia. Infatti, le tecniche di base sono state proposte per operare con equi-join. A tale scopo la soluzione proposta consiste nell'aggiungere alle relazioni coinvolte un nuovo attributo, che rappresenta la versione ?discretizzata" degli attributi coinvolti nelle condizioni di join. Il join approssimato viene quindi trasformato in un equi-join basato sui nuovi attributi discreti aggiunti alle relazioni. L'applicazione di questo meccanismo pu? introdurre nel risultato tuple che non soddisfano la condizione originale di join (tuple spurie), che l'utente dovr? opportunamente filtrare (individuare ed eliminare). Durante il lavoro di tesi si ? quindi studiato un metodo di discretizzazione che consenta di minimizzare il numero di tuple spurie presenti nel risultato del join, senza per? compromettere la correttezza dello stesso. Per poter valutare l'efficacia ed efficienza delle tecniche proposte ? stato implementato un prototipo che realizza le funzionalit? studiate. I risultati sperimentali ottenuti confermano l'efficacia e l'efficienza delle soluzioni proposte e rendono fiduciosi sul fatto che esse possano essere applicate in scenari reali, offrendo garanzie di protezione chiare al prezzo di un sovraccarico limitato e configurabile.
Giulia Mosca (Department of Mathematics, University of Padova)
"Evaluating possible improvements to Object Level Protection via Attribute Based Encryption"
Giulia Mosca (Department of Mathematics, University of Padova)
"Evaluating possible improvements to Object Level Protection via Attribute Based Encryption"
(Relatore: Mauro Conti).
This thesis consists of two main parts. The first part is a thorough survey on cryptographic techniques in Public-Key Cryptography, such as Paring-Based Cryptography, Identity-Based Cryptography, Attribute-Based Cryptography and Lattice-Based Cryptography. Special attention was also given to Attribute-Based Signature. The mathematical background, regarding elliptic and hyperelliptic curves, pairing and lattices is given along with implementation of relevant algorithms in Mathematica.
The second part introduces the concept of Object Level Protection in NATO operations. In the scenario we consider, Attribute-Based Cryptography is applied to an architecture where Object Level Protection is realised through Content-based Protection and Release. In this thesis, we provide two main contributions. First of all, we propose possible improvements to two basic use cases for controlled information sharing, including the implementation of Attribute-Based Signature. Furthermore, we discuss the possible information leakage with respect to attributes and access structures that is present in current Attribute-Based Encryption schemes, as information leakage is a potentially relevant downside for military applications.
Michele Mura (Dipartimento Di Ingegneria Elettrica ed Elettronica, Universit? degli Studi di Cagliari)
"Analisi e valutazione della sicurezza degli algoritmi di clustering in ambiente ostile"
Link esterno al gruppo di ricerca: http://pralab.diee.unica.it/
Michele Mura (Dipartimento Di Ingegneria Elettrica ed Elettronica, Universit? degli Studi di Cagliari)
"Analisi e valutazione della sicurezza degli algoritmi di clustering in ambiente ostile"
(Relatore: Fabio Roli).
Gli algoritmi di clustering sono fortemente utilizzati nel campo della sicurezza informatica, con il fine di riconoscere attivit? malevole, ci? nonostante poca letteratura ? stata dedicata alla prevenzione di attacchi che abbiano come obbiettivo l?operazione di clustering stessa.
L'intento di questi attacchi ? di sovvertire il risultato del clustering, in modo che l'operazione risulti inutile al fine della rilevazione delle attivit? malevole.
Recenti lavori di ricerca hanno introdotto un metodo per l?analisi della sicurezza del data clustering in ambiente ostile, cos? da evidenziare potenziali debolezze e valutare l?impatto che degli attacchi
concreti possono avere sul risultato del clustering. In questi lavori gli autori si concentrano sul comportamento dell?algoritmo di clustering gerarchico single linkage in ambiente ostile e su come le sue prestazioni possano essere influenzate tramite l?inserzione di un numero relativamente piccolo di attacchi ben progettati.
Il contributo di questa tesi ? duplice.
In prima battuta si ? voluto completare quest?analisi fornendo un confronto tra i risultati ottenuti con le euristiche sviluppate dagli autori e quelli ottenibili con una strategia considerata esaustiva computazionalmente molto onerosa, in modo da mostrare fino a che punto esse siano efficaci in rapporto ad un attacco ottimale.
Inoltre si ? operato nello sviluppo di una strategia di attacco ex-novo che permettesse di mettere in evidenza le debolezze di un altro comune algoritmo di clustering gerarchico: l?algoritmo complete linkage.
Anche in questo caso si sono confrontati i risultati ottenuti con le euristiche sviluppate e quelli ottenibili con una strategia ottimale.
Si verificher? l?efficacia di attacchi concreti apportati durante l?operazione di clustering effettuata su alcuni data set di riferimento, seguendo le linee guida tracciate dai recenti lavori di ricerca, mettendo in evidenza gli effetti rispetto all'operazione di clustering effettuata in assenza degli attacchi.
Link esterno al gruppo di ricerca: http://pralab.diee.unica.it/
Chiara Peretti (Dipartimento di ingegneria navale, elettrica, elettronica e delle telecomunicazioni, DITEN. Universit? degli studi di Genova)
"Side-channel attacks aware elliptic curves cryptography on embedded systems"
Link esterno al gruppo di ricerca: http://www.sealab.dibe.unige.it/
Chiara Peretti (Dipartimento di ingegneria navale, elettrica, elettronica e delle telecomunicazioni, DITEN. Universit? degli studi di Genova)
"Side-channel attacks aware elliptic curves cryptography on embedded systems"
(Relatore: Rodolfo Zunino).
The availability of secure services is becoming an essential requirement in today?s media infrastructures at any level. Although modern cryptography offers a variety of mechanisms to ensure confidentiality and integrity, implementations usually may prove demanding from a computational perspective.
The aim of this thesis is to present different research about cryptosystems based on elliptic curves cryptography implemented on embedded systems or on FPGA. Some interesting results are shown about the performance of the algorithms implementation of the modular arithmetic operation on prime fields. In literature one can find only theoretical study that prove that one inversion corresponds to 100 or 80 or 60 multiplication; but the experiments, that are be done, prove that one inversion is about 6 multiplication. This is a new result that in literature does not exist. About the other modular operation the experimental sessions confirm the same result of the theoretical studies.
About the implementation on embedded systems, the goal of a work shown in the thesis is to analyze, from an applicative point of view, the configuration of a cryptosystems: in particular the family of the elliptic curves (Edwards curves, extend Jacobi quartic curves and Hessian curves) and the coordinate systems. The presented experimental sessions show a few interesting outcomes; first, schemes implemented by using either Edwards curves or extended Jacobi quartic curves or Hessian curves can obtain remarkable performances in terms of computational efficiency also on low-cost, low-resources processors. Second Hessian curves have better performance than Edwards curve in spite of what the theoretical studies said. Third, it is always convenient to perform all the operation in projective coordinates respect to the affine coordinates: in particular, for Edwards curves, inverted coordinates obtain good results.
Another research on embedded system is about the point multiplication algorithm that is the core operation of a system based on elliptic curves. The experiments are be done on Edwards and extended Jacobi quartic curves and on different types of coordinates. The two most used algorithms to perform the multiplication are the binary method and the Montgomery ladder. The first one is implemented with the unified law and the second one with the point addition and the point doubling operations. In literature the theoretical studies show that the binary method is faster than the Montgomery ladder, but also that the point doubling is faster than the unified law. The experiments demonstrate that the speed up introduced by the point doubling operation is not enough to compensate the slowdown of the Montgomery ladder. In fact the binary method has always better performance than the other one.
In the thesis it is presented a work that introduces a novel cryptographic scheme that exploits the homomorphism between elliptic curves and Edwards curves to protect the cryptosystem from side-channel attacks yet preserving the computational advantages of ECC. The work provides a real implementations of the proposed scheme on embedded systems. Experimental evidence shows that the resulting cryptosystem compares favorably with cryptographically-secure 256-bit, 384-bit and 512-bit curves.
About the implementation on FPGA in this thesis there are two type of implementations of a cryptosystem based on elliptic curves: one on prime field and the other on binary field. The research shows the performance of both one and, from the experimental result, it is easy to understand that the system based on binary field has better performance in term of clock frequency and board occupation.
Link esterno al gruppo di ricerca: http://www.sealab.dibe.unige.it/
Andrea Rainini (Universita' degli Studi di Milano - Sede di Crema)
"Vulnerability Patching: un approccio basato sulla Teoria dei Giochi"
Andrea Rainini (Universita' degli Studi di Milano - Sede di Crema)
"Vulnerability Patching: un approccio basato sulla Teoria dei Giochi"
(Relatore: Gabriele Gianini).
I recenti security report pubblicati dalle principali aziende di settore (Symantec, Kaspersky, Microsoft, Cisco, Verizon, etc.) mostrano come attacchi, malware e vulnerabilit? risultino essere in costante evoluzione ed aumento.
Un lavoro di ricerca, condotto nel 2012, ha dimostrato come, sia il sistema di classificazione CVSS (standard-de-facto per la classificazione delle vulnerabilit?) sia i database in cui sono raccolte informazioni sulle vulnerabilit? (National Vulnerability Database, Exploit-DB, OVSDB), non risultino essere molto affidabili ed in linea con gli exploits utilizzati dai criminali informatici.
Obiettivo di questa tesi ? quello di fornire alla comunit? IT uno strumento analitico che possa affiancare i risultati mostrati nel lavoro di ricerca, in maniera tale da poter affrontare il problema del vulnerability patching attraverso metodi di scelta razionali. In particolare vengono adattati alcuni modelli della Teoria dei Giochi al caso di studio, proponendo una metodologia che permetta di elaborare un piano ottimale per la gestione delle vulnerabilit?.
Nella prima parte dell?elaborato, capitolo 1, sono riportate le statistiche dei report annuali di sicurezza in cui viene mostrato come con il passere degli anni, gli attacchi informatici in grado di causare perdite di dati, furto d?identit?, interruzioni di servizi, siano in costante aumento.
Viene presentato il framework tradizionale per la gestione delle vulnerabilit?, la procedura per la raccolta di informazioni in merito alle vulnerabilit? e lo standard-de-facto CVSS, utilizzato durante la fase di classificazione delle vulnerabilit?.
Alla fine del primo capitolo viene sinteticamente esposto il lavoro di ricerca [6].
Di questo lavoro viene mostrato come il sistema di classificazione CVSS, insieme ai database utilizzati per la raccolta delle vulnerabilit?, non siano propriamente un buon punto di riferimento per poter creare un programma di gestione delle vulnerabilit?. I contenuti di questo lavoro, sono un punto di riferimento dal quale dover partire per utilizzare appieno i modelli della teoria dei giochi presentati in questa tesi.
Al capitolo 2, vengono riassunti i principi sui quali si basano gli attuali standard per la gestione del rischio (ISO 31000) e per la sicurezza delle informazioni (ISO 27000), insieme ai framework operativi (CoBit) ed alcune best practices (NIST, SANS).
Vengono menzionati poi alcuni software con i quali ? possibile condurre attivit? di controllo, gestione e rilascio delle patch.
A partire dal capitolo 3, seconda parte dell?elaborato, vengono inizialmente esposti i motivi che hanno dato inizio a questo lavoro di gestione delle vulnerabilit? basato sulla Teoria dei Giochi, dopodich?, viene presentata la teoria utilizzata nei modelli (o giochi) chiamati vulnerability patching.
In questi modelli, gli agenti (giocatori) sono due, Attaccante e Difensore, ed entrambi hanno un target comune: i sistemi vulnerabili di Difensore. Mentre Difensore cercher? di proteggerli installando delle patch, Attaccante cercher? di effettuare degli attacchi ai sistemi. Queste azioni, patch e attacco, costituiscono le strategie che possono essere adottate dai giocatori.
Obiettivo di ogni gioco ? quello di trovare l?equilibrio di Nash, il quale indica l?esistenza di un profilo di strategie per ogni giocatore, tale per cui nessuno dei due giocatori ? in grado di ottenere un vantaggio cambiando la propria strategia. Ogni giocatore sar? in grado di determinare la miglior risposta per ogni strategia adottata dall?avversario sulla base delle probabilit? con cui giocare ogni singola strategia, vedendo massimizzati i propri guadagni.
I giocatori, per poter adottare una strategia, fanno uso di risorse: economiche, temporali e umane, ma essendo limitate, si ? pensato di far uso del concetto di turno per descrivere tale limitazione.
 
Nel capitolo 4 vengono mostrati tre modelli di giochi statici ad informazioni completa, chiamati vulnerability patching ad un turno.
Il primo modello ? composto da due strategie (A-B), nonch? vulnerabilit? presenti nei sistemi di Difensore. A seguire, vi ? il modello a tre strategie (A-B-C), in cui ? possibile vedere come la complessit? di questi giochi, tenda ad aumentare con l?aumento del numero delle strategie.
Nei primi due giochi, vengono determinati ed analizzati i risultati degli equilibri di Nash insieme alle procedure di calcolo.
Infine, viene esposto il caso generico ad n strategie, insieme alle propriet? di strategie pure dominate da strategie miste: una matrice di dimensione n, pu? essere ridotta fino ad un massimo di n-2 volte. Vale a dire, arrivare ad ottenere una matrice a due strategie per ogni giocatore.
Tutti questi modelli possono essere utilizzati per quei casi in cui si hanno risorse limitate e si ha una sola strategia a disposizione.
Nel capitolo 5, viene presentato un modello di gioco dinamico ad informazione completa e perfetta, chiamato vulnerability patching a due turni. Il numero delle strategie a disposizione dei giocatori ? tre (A-B-stop), mentre il numero dei turni di gioco passa da uno a due: il vantaggio di questo modello ? quello di poter accogliere il concetto di tempo.
Questo gioco, nonostante la complessit? risolutiva diventi esponenziale sia al crescere delle strategie sia al crescere dei turni di gioco, offre l?opportunit? di poter effettuare simulazioni pi? accurate ed utilizzabili in casi reali, in cui il lavoro di patching viene suddiviso in pi? sessioni.
Un risultato interessante, ottenuto da questo modello, ? la dimostrazione che, sulla base dei payoff in gioco, un Attaccante potrebbe preferire rimanere fermo anzich? sfruttare una vulnerabilit?.
Al capitolo 6, viene presentato nuovamente un modello di gioco statico ad informazione completa, chiamato multi-vulnerability patching. Esso ? costituito da un solo turno di gioco, ma, rispetto ai modelli vulnerability patching ad un turno, ? stata considerata la necessit? di poter installare pi? patch contemporaneamente da parte di Difensore. Questa specifica nasce dalla necessit? di poter modellare situazioni in cui un Difensore deve installare pi? patch nello stesso istante, a causa di una dipendenza architetturale tra sistemi.
Riccardo Spolaor (Dipartimento di Matematica, Universita degli studi di Padova)
"Can't you hear me knocking: Identification of user actions on Android apps via traffic analysis"
Link esterno al gruppo di ricerca: http://spritz.math.unipd.it/
Riccardo Spolaor (Dipartimento di Matematica, Universita degli studi di Padova)
"Can't you hear me knocking: Identification of user actions on Android apps via traffic analysis"
(Relatore: Mauro Conti).
Smartphones become widely used and pervasive devices. People continuously carry those devices with them and use them for daily communication activities, including not only voice calls and SMS but also emails and social network interaction. In the last years, several concerns have been raised about the capabilities of those portable devices to invade the privacy of the users and actually becoming ?tracking devices?.
Even when the adversary has no actual control of the phone (either physical control or remote via malicious apps) attacks are possible to violate the privacy of the communications. If the network traffic is not encrypted, the task of the eavesdropper is simple, since he can analyze the payload and read the content of each packet.
However, many mobile apps use the Secure Sockets Layer (SSL), and its successor Transport Layer Security (TLS), as a building block for encrypted communications.
While people become more familiar with mobile technologies and their related privacy threats, users start adopting some good practices that better adapt to their privacy feeling and understanding. For examples, solutions to identify and isolate malware running on smartphones, as well as to protect against attacks coming from the network might significantly reduce current threats to user privacy.
Unfortunately, we believe that even adopting such good practices would not close the door to malicious adversaries willing to trace people. In fact, the wireless and
pervasive nature of mobile devices would still leave many practical options for adversarial tracing. In particular, even when such solutions are in place, the adversary can still infer a significant amount of information from the properly encrypted traffic. For example, work leveraging analysis of encrypted traffic already highlighted the possibility of understanding the apps a user has installed on his device, or identify the presence of a specific user within a network.
This work focuses on understanding whether the user profiling made through analyzing encrypted traffic can be pushed up to understand exactly what actions the user is doing on his phone: as concrete examples, we aim at identifying actions such as the user sending an email, browsing someone profile in a social network, rather than publishing a post or a tweet. The underlying issue we leverage in our work is that SSL and TLS protect the content of a packet, while they do not prevent the detection of networks packets patterns that instead may reveal some sensitive information about the user behavior.
In this thesis, we propose a framework to infer which particular actions the user executed on some app installed on his mobile-phone, by only looking at the network traffic that the phone generates. In particular, we assume the traffic is encrypted and the adversary eavesdrops (without modifying them) the messages exchanged between the user?s device and the web services that he uses.
Our framework analyzes the network communications and leverages information available in TCP/IP packets (like IP addresses and ports), together with other information like the size, direction (incoming/outgoing), and timing. By using an approach based on machine learning, each app that is of interest is analyzed independently. To set up our system, for each app we first pre-process a dataset of network packets labeled with the user actions that originated them, we cluster them in flow typologies that represent recurrent network flows, and finally we analyze them in order to create a training set that will be used to feed a classifier. The trained classifier will be then able to classify new traffic traces that have never been seen before. We fully implemented our system, and we run a thorough set of experiments to evaluate our solution considering three very popular apps: Facebook, Gmail, and Twitter. The results shows that it can achieve accuracy and precision higher than 95%, for most of the considered actions.
Link esterno al gruppo di ricerca: http://spritz.math.unipd.it/
Pietro Stroia (Dipartimento di Ingegneria informatica automatica e gestionale Antonio Ruberti - Sapienza Universit? di Roma)
"Securing the IDT and the System Call Table from malicious LKMs"
Pietro Stroia (Dipartimento di Ingegneria informatica automatica e gestionale Antonio Ruberti - Sapienza Universit? di Roma)
"Securing the IDT and the System Call Table from malicious LKMs"
(Relatore: Prof. Francesco Quaglia).
Provided that loadable kernel modules (LKMs) run at ring 0, is it really
possible to prevent kernel-level attacks once the evil code has started its
execution? Without a hypervisor, or some kind of virtualization technology (e.g. VT-x), results in general have not been proved very successful, as
Microsoft?s Patchguard technology has shown in the past years.
My thesis, which provides a patch for the Linux kernel version 3.2.51, aims
at providing a security mechanism against synchronous malicious LKMs,
or, in other words, LKMs that execute their attack in their initialization
phase, without deferring any work. Although the patch code is for an IA-32
compatible Linux system only, there are no major obstacles in porting the
code to other operating systems that support LKMs and run at least on the
80386 architecture. The rationale behind this work is that I personally had
the ?feeling? I could puzzle simple evil LKMs and let them believe they had
successfully executed their attack, without using any kind of virtualization
technology. The work, named the ?YASI patch?, is to be intended as a small
?proof-of-concept? running on top of an already secured system.
Zeno Todeschini (Universit? degli Studi di Verona - Dipartimento di Informatica)
"PacketFence - OpenNAC Security System"
Zeno Todeschini (Universit? degli Studi di Verona - Dipartimento di Informatica)
"PacketFence - OpenNAC Security System"
(Relatore: Prof. Dr. Alessandra Di Pierro Prof. Dr.-Ing. Luca Viganò).
Pensare che l'utilizzo della tecnologia possa risolvere i problemi legati alla sicurezza, implica non avere una giusta concezione di quali siano effettivamente le problematiche e di cosa veramente rappresenti la tecnologia. Con queste poche parole Bruce Schneier, noto esponente mondiale delle tematiche di Security, esprime concretamente l'approccio che la maggior parte delle utenze hanno nell'utilizzo delle tecnologie e della rete in generale. Nonostante i mezzi di informazione pongano una sempre maggiore attenzione alle tematiche riguardanti la Sicurezza informatica, la protezione e la consapevolezza delle persone che utilizzano la rete non pu? dirsi progredire di pari passo. Una scarsa percezione dei possibili rischi che si possono incontrare in una rete, implica strettamente una quasi totalitaria assenza di protezione e prevenzione delle minacce ai quali costantemente gli utilizzatori sono sottoposti. La quantit? di informazioni che ogni giorno ciascuna persona utilizza in rete continua ad aumentare esponenzialmente, ormai la nostra vita ? strettamente collegata allo stato on-line. La nostra identit? ? sempre pi? riconducibile a ci? che facciamo e alle informazioni che trattiamo in rete, fedelmente pu? essere ricostruita e utilizzata in svariati ambiti che possono danneggiare noi stessi e l'infrastruttura di rete con la quale interagiamo.
Il Clusit, l'associazione italiana per la sicurezza informatica, dichiara che tra l'anno 2011 e 2012 gli incidenti informatici nel nostro paese sono cresciuti del 252 per cento. La Sicurezza informatica, nonostante non venga considerata con i dovuti criteri di valutazione e prevenzione, ? una vera propria realt? della nostra vita quotidiana.
Il problema che si pu? ricondurre alle minacce, alle vulnerabilit? e ai rischi associati ad un'infrastruttura di rete non pu? essere sconfitto perch? costantemente in continua evoluzione esponenziale. Non esiste una corretta soluzione che permetta di rendere una rete invulnerabile, perch ́e tale soluzione ? impossibile da prevedere e da implementare. Le soluzioni di security devono essere strettamente collegate alle nuove minacce che quotidianamente si evolvono, consentendo scalabilit? e capacit? di adattamento a nuove implementazioni. Un sistema in sicurezza deve garantire l'affidabilit? dell'intera infrastruttura di rete, proteggendo le informazioni e le persone in essa contenute. Qualsiasi soluzione di Sicurezza, deve prevedere un corretto utilizzo dell'infrastruttura da parte delle persone che interagiscono con il sistema stesso, cercando di sensibilizzare e consapevolizzare l'individuo sugli aspetti pi? importanti riguardanti la sua stessa sicurezza e quella dell'intera organizzazione.
Nei capitoli successivi, verranno analizzate e trattate nello specifico le tematiche riguardanti l'identificazione di un utenza, usufruendo di una soluzione di Network Access Control che gestisca e regoli l'intera security di un'infrastruttura di rete.
Buona lettura,
Zeno Todeschini
Giacomo Zucchelli (Scienze e Tecnologie Applicate - Universit? degli Studi Guglielmo Marconi)
"La Sicurezza lungo la rete - evoluzione dei sistemi di sicurezza informatica e tecniche di protezione perimetrale"
Giacomo Zucchelli (Scienze e Tecnologie Applicate - Universit? degli Studi Guglielmo Marconi)
"La Sicurezza lungo la rete - evoluzione dei sistemi di sicurezza informatica e tecniche di protezione perimetrale"
(Relatore: Prof. Romeo Giuliano).
Vi sono centinaia di libri che trattano l?argomento della sicurezza della rete. Molti di questi lo fanno con esaustivit? e completezza, approfondendo le tematiche descritte in modo chiaro e che non necessiterebbero di ulteriori approfondimenti. Per lo pi? quanto scritto in queste pagine non aggiunge niente a tali libri n? vuole essere una rivisitazione asettica di quanto gi? affrontato. L?obiettivo di questa trattazione ? invece quella di riportare, attraverso un percorso che segua l?evoluzione tecnologica degli ultimi 20 anni, l?esperienza di chi si ? trovato e tutt?ora si trova a gestire la complessit? della sicurezza informatica in un?azienda multinazionale; e di raccontare come questa complessit? sia in continuo aumento negli anni, a dispetto di un disinteresse verso la materia di tutti i non addetti ai lavori. La trattazione segue uno schema classico con una prima parte introduttiva alla materia ed un corpo centrale orientato a raccontare la storia della sicurezza informatica attraverso l?analisi di una realt? aziendale che in questi anni ha vissuto e si ? adattata ai nuovi mercati nati dall?evoluzione tecnologica. Infine, al termine di questo percorso verranno riportate le opportune conclusioni, volte ad ipotizzare un futuro scenario di applicazione della sicurezza informatica per far fronte ad una sempre maggiore integrazione delle connessioni di rete nella realt? di tutti giorni. Riguardo al caso di studio: L?azienda che sar? oggetto di studio ? una realt? multinazionale che ricopre servizi per le aziende che niente hanno a che vedere con la sicurezza informatica. Come ogni altra societ? ha visto negli anni evolvere il proprio business nell?offerta e la gestione di servizi attraverso la rete Internet. Questo ha portato alla creazione di servizi sempre pi? sofisticati sia per il cliente interno (tecnologie mobili, accesso remoto per il lavoro da casa, creazione di servizi ?application-to-application? con outsourcer) che per il cliente esterno (portali web, applicazioni per dispositivi mobili, servizi operati tramite call center). La struttura di rete quindi negli anni ha subito molte modifiche ed alcune riconfigurazioni complete per adattarsi ai nuovi servizi offerti e far fronte alle nuove necessit? aziendali tentando di mantenere al tempo stesso il livello di sicurezza necessario a mitigare il rischio di attacchi informatici. Nei capitoli che seguiranno saranno affrontate le ristrutturazioni principali alle quali l?infrastruttura di rete ? stata sottoposta, con particolare attenzione alle motivazioni che hanno scatenato tali ristrutturazioni, ai punti deboli generati, ed ai risultati ottenuti in termini di sicurezza informatica.
Buona lettura, Giacomo Zucchelli
BACHECA TESI EDIZIONI PASSATE
Edizione 2022
Edizione 2022
Edizione 2021
Edizione 2020
Edizione 2019
Edizione 2018
Edizione 2017
Edizione 2016
Edizione 2015
Edizione 2014
Edizione 2013
Edizione 2012
Edizione 2011
Edizione 2010
Edizione 2009
Edizione 2008
Edizione 2007
Il Premio Tesi è realizzato in collaborazione e con il sostegno di: