BACHECA TESI
Edizione 2018
Simone Berni (Informatica - Scienza e Ingegneria - DISI - Alma Mater Studiorum Bologna)
"CryptoCloud: Cifratura di Dati Sensibili in Cloud"
Link esterno alla tesi: https://github.com/0ssigeno/CryptoCloud
Simone Berni (Informatica - Scienza e Ingegneria - DISI - Alma Mater Studiorum Bologna)
"CryptoCloud: Cifratura di Dati Sensibili in Cloud"
(Relatore: Renzo Davoli).
L'utilizzo del Cloud per la conservazione di informazioni è sempre più diffuso, ma è possibile inserire dati sensibili in maniera sicura? CryptoCloud si pone come intermediario tra l'utente e il cloud provider in modo da criptare tutto ciò che è necessario condividere in cloud nonostante la natura sensibile. Perciò se anche il servizio dovesse subire una violazione, coloro che hanno perpetuato l'attacco non riuscirebbero ad ottenere delle informazioni sul come decriptare i file inseriti grazie all'applicazione. CryptoCloud nasce come software opensource per essere utilizzato da aziende, implementando una gestione dei gruppi e un sistema di notifiche per la comunicazione tra utenti. Tutto ciò è realizzato adoperando esclusivamente il cloud evitando così di dipendere dalle strutture interne all'azienda stessa.
Link esterno alla tesi: https://github.com/0ssigeno/CryptoCloud
Davide Bettinelli (Dipartimento di Informatica - Università degli Studi di Milano)
"SAD - Struttura Autonoma Distribuita: un nuovo modello organizzativo basato su Blockchain"
Davide Bettinelli (Dipartimento di Informatica - Università degli Studi di Milano)
"SAD - Struttura Autonoma Distribuita: un nuovo modello organizzativo basato su Blockchain"
(Relatore: Prof. Stelvio Cimato ).
Oggigiorno l’analisi dell’organizzazione aziendale viene collocata in un contesto in perenne evoluzione dove fattori come sovra-competitività , digitalizzazione, responsabilità sociale e proattività costringono ad un continuo sviluppo mutando costantemente l’ambiente di riferimento. Protagonista di questa rivoluzione è la cosiddetta Digital Transformation che prevede l’utilizzo delle tecnologie digitali per innovare la catena del valore nel settore industriale.
L’obiettivo di questa tesi è quello di fornire un’integrazione di nuove tecnologie all’interno di un possibile modello organizzativo, in risposta all’inesorabile esigenza di progresso della realtà aziendale e a sostegno della digital transformation.
A questo scopo viene proposta una mia elaborazione di struttura organizzativa basata su Blockchain: la Struttura Autonoma Distribuita.
Rispetto alle tradizionali strutture organizzative piramidali, la SAD vede rappresentata ogni funzione e reparto dell’azienda su un sistema circolare come ad indicare l’appartenenza allo stesso ecosistema, il tutto a supporto della cooperatività ed interoperabilità tra le parti coinvolte.
Grazie all’interconnessione di ogni elemento della SAD è possibile risolvere il problema dell’asimmetria informazionale attualmente presente in un elevato numero di aziende permettendo di usufruire di accesso immediato ai dati gestiti da ogni reparto dell’azienda, costantemente disponibili e aggiornati in tempo reale.
La Struttura Autonoma Distribuita offre inoltre la proprietà dell’automazione, proprio perché la Blockchain consente ad un gruppo di parti indipendenti di lavorare con fonti di dati universali riconciliandoli poi automaticamente tra tutti i partecipanti così da impedire eventuali errori e permettere l’adozione della Blockchain anche da parte di un pubblico più vasto e non esperto in tecnologie.
Durante il lavoro di tesi viene ampiamente illustrato come l’adozione della tecnologia Blockchain permetta l’esecuzione di operazioni automatiche tramite l’implementazione di smart contract, qualora l’esecuzione del proprio compito non coinvolga aspetti human-dependent, permettendo alle aziende di guadagnare efficienza operativa, ordine strutturale ed elasticità organizzativa, oltre a permettere un notevole risparmio di denaro, anche nel caso di grandi multinazionali ampiamente strutturate.
In altre parole si può affermare che l’adozione della SAD permetta di disintermediare ruoli e funzioni tradizionali, semplificare processi organizzativi, rendere trasparenti gli apporti e di qualificare funzioni automatiche attraverso gli smart contract. In questo modo un’azienda sarà in grado di operare in maniera più trasversale e integrata: la Blockchain consentirebbe alle organizzazioni una maggiore flessibilità e adattabilità ai cambiamenti esterni, offrendo una garanzia di sicurezza innegabile.
Inoltre in questa tesi viene evidenziato come grazie all’adozione della Struttura Autonoma Distribuita, non ci si limiti ad ottenere vantaggi esclusivamente in ambito strutturale, bensì vengano influenzati altri elementi dell’organizzazione stessa, come ad esempio l’HR, il BPM, la Supply Chain o l’IoT.
Successivamente, viene da me proposta l’implementazione di un reale smart contract a sostegno di come le tecnologie Blockchain possano effettivamente favorire i processi lavorativi in una realtà aziendale. Lo smart contract SpartisciStipendio da me realizzato dimostra come l’operazione del pagamento degli stipendi possa essere gestito in maniera automatica evidenziando la facilità di esecuzione, la velocità di elaborazione e soprattutto la garanzia di una totale assenza di potenziali interventi umani erronei in fase operativa.
Infine, per una completezza d’informazione, vengono esposte le principali criticità che ad oggi influenzano la Blockchain, discutendo le problematiche più comuni, confrontandone le varie tipologie e presentando un’analisi sulla necessità di questa tecnologia da parte di un’azienda.
Andrea Bissoli (Dipartimento di Ingegneria informatica automatica e gestionale Antonio Ruberti (DIAG) - Sapienza Università di Roma)
"Authentication as a service: Shamir Secret Sharing with byzantine components"
Link esterno alla tesi: https://arxiv.org/abs/1806.07291
Andrea Bissoli (Dipartimento di Ingegneria informatica automatica e gestionale Antonio Ruberti (DIAG) - Sapienza Università di Roma)
"Authentication as a service: Shamir Secret Sharing with byzantine components"
(Relatore: Fabrizio d’Amore).
We present a practical methodology for securing the classical password-based authentication scheme, since in many cases this type of authentication is given as a requirement. We propose a solution based on the well-known (k,n) threshold scheme of Shamir for sharing a secret, where in our case the secret is the password itself and (k,n) threshold scheme means that n password-derived secrets (shares) are created and k
Link esterno alla tesi: https://arxiv.org/abs/1806.07291
Emanuele Bosimini (Dipartimento di Matematica e Informatica, Università degli Studi di Perugia - Informatica )
"Analisi di attacchi contro l’Internet of Things tramite honeypot"
Link esterno al gruppo di ricerca: http://cybersecuritylab.unipg.it
Emanuele Bosimini (Dipartimento di Matematica e Informatica, Università degli Studi di Perugia - Informatica )
"Analisi di attacchi contro l’Internet of Things tramite honeypot"
(Relatore: Santini Francesco).
Lo scenario diventa particolarmente interessante quando si parla di dispositivi IoT, che per sua natura sono difficili da categorizzare. Ad esempio,
quando si eseguono certi comandi una lampada reagisce diversamente da una
stampante. Tuttavia esistono alcune tecnologie che accomunano il comportamento di questi dispositivi e che possono essere utilizzate anche in maniera
dannosa. Il protocollo Telnet è una di queste tecnologie, che è stata utilizzata per diffondere il malware Mirai. In virtù di questi avvenimenti, abbiamo
deciso di utilizzare gli honeypot che sono degli strumenti molto efficaci, sia
per la protezione dei sistemi che per la scoperta di nuove forme d’attacco
e di intrusione. La parte iniziale del mio lavoro riguarda l’installazione degli honeypot su Raspberry Pi tramite diverse tecnologie di virtualizzazione
come Docker. Abbiamo voluto analizzare tutti i servizi che potessero interessare i dispositivi IoT. Fortunatamente siamo riusciti a registrare
gli attacchi provenienti dai protocolli maggiormente utilizzati tramite due
honeypot, Cowrie e Dionaea. I due honeypot sono in grado di salvare il malware trasferito nella macchina da infettare, questo ci ha permesso di dedurre informazioni aggiuntive sul
bersaglio e sul tipo di attacco. Cowrie registra nativamente gli eventi su
un file JSON, mentre Dionaea possiede un gestore degli eventi affinché il
formato del file possa essere personalizzabile. Qui sorge il problema di omogeneizzare le informazioni: eseguire delle interrogazioni su file aventi campi
diversi ma con le stesse informazioni è abbastanza faticoso. Il primo approccio infatti, è stato quello di creare uno script in python in grado di interrogare il file che ha prodotto l’honeypot
Dionaea. Il file era in formato SQLite, e di conseguenza le interrogazioni
erano codificate in linguaggio SQL. Il file che produceva Cowrie però era in
formato JSON e quindi non poteva essere interrogato con lo stesso script.
Mi è venuto in soccorso uno stack di applicazioni che si divide in tre progetti open-source. Il primo programma di cui parleremo è Logstash. Grazie ad esso siamo riusciti ad omogeneizzare e memorizzare
le informazioni provenienti da più sorgenti su un database non relazionale.
Tale database si chiama Elasticsearch, grazie al quale abbiamo potuto indicizzare
il contenuto che Logstash ha intelligentemente trasferito. Inoltre abbiamo eseguito un gran numero di query, tra le quali: geolocalizzazione degli attacchi,
numero di comandi più usati, le credenziali più utilizzate. Da queste query
abbiamo dedotto quanti attacchi potevano colpire i dispositivi IoT sulla base di
alcuni parametri come le porte e la compatibilità delle password registrate.
Tuttavia i risultati forniti non erano soddisfacenti, in quanto esistono dei
parametri da prendere in considerazione quando si eseguono determinate
analisi sugli attacchi che sono: Geolocalizzazione degli attacchi, conteggio
degli attacchi giornalieri, indirizzo IP, servizi e comandi più utilizzati. Lo
script non era in grado di fornire tutti i risultati relativi a questi parametri,
inoltre per alcuni di essi la visualizzazione era priva di utilità . Se parliamo
del campo relativo alla geolocalizzazione degli attacchi bisogna associarlo ad
un contesto sensato, come ad esempio una mappa. Per analizzare al
meglio i risultati prodotti abbiamo modellato i risultati con varie tipologie
di diagrammi che Kibana, nonché un’interfaccia grafica per Elasticsearch
fornisce. Tramite una mappa siamo riusciti a dare forma ai dati relativi
alla geolocalizzazione degli attacchi, inoltre siamo riusciti a modellare con
un diagramma a torta le percentuali degli attacchi per stato. Sorprendenti anche i risultati relativi alle password che
l’honeypot Cowrie è riuscito a registrare. Vedremo
anche informazioni più dettagliate sulle password più utilizzate, e scopriremo che sono compatibili con Mirai. Per capire quanti sono gli attacchi per dispositivi
IoT, abbiamo deciso di analizzare prima tutti gli attacchi per ogni tipologia
di porta, dopodiché filtriamo gli eventi distinguendo quelli potenzialmente
presenti da quelli esclusivi per IoT. Per servizi potenzialmente presenti in
tendiamo quelli che non sempre sono attivi su un dispositivo IoT.
I servizi esclusivi per IoT che invece siamo riusciti ad analizzare sono MQTT e XMPP.
Si conclude che la percentuale degli eventi legati ai servizi potenzialmente presenti nei
dispositivi IoT è del 68% circa. Tale percentuale scende drasticamente quando
si parla dei servizi esclusivi per IoT.
Link esterno al gruppo di ricerca: http://cybersecuritylab.unipg.it
NICOLA BUCCIOL (Dipartimento di Ingegneria dell'Informazione / Dipartimento di Matematica - Università degli Studi di Padova)
"Topology Attacks and Defenses in Software-Defined Networks (SDN)"
Link esterno al gruppo di ricerca: https://spritz.math.unipd.it/index.html
NICOLA BUCCIOL (Dipartimento di Ingegneria dell'Informazione / Dipartimento di Matematica - Università degli Studi di Padova)
"Topology Attacks and Defenses in Software-Defined Networks (SDN)"
(Relatore: Mauro Conti).
Il paradigma SDN (Software-Defined Networking) è un innovativo paradigma di rete che prevede di disaccoppiare la funzione di controllo dalla funzione di inoltro dei pacchetti all’interno dei dispositivi della rete. L’intelligenza della rete viene centralizzata in un unico nodo chiamato controllore SDN, il quale istruisce i nodi sottostanti (switch) so come gestire il flusso di pacchetti proveniente dai nodi terminali (host). Questa separazione consente di raggiungere livelli di flessibilità , prestazioni e capacità di controllo non ottenibili su reti di tipo tradizionale. Recenti studi hanno tuttavia dimostrato come il paradigma SDN sia altamente vulnerabile, e le cui potenzialità aprano in realtà la strada a nuove problematiche di sicurezza. Un’importante vulnerabilità consente a dispositivi malevoli nella rete (host e/o switch) di alterare la visione globale del grafo della rete costruita dal controllore. Il controllore deve essere infatti costantemente a conoscenza della topologia della rete, in modo da poter individuare i percorsi più efficienti. Dispositivi malevoli possono facilmente creare link inesistenti o modificare i punti di connessione degli host, consentendo di intercettare informazioni sensibili e di causare pericolosi malfunzionamenti all’interno della rete.
Nella tesi vengono analizzati i principali attacchi alla topologia di reti SDN e i più efficienti sistemi di sicurezza esistenti per prevenirli (TopoGuard, TopoGuard+, SecureBinder e SPV). Su quest’ultimi vengono argomentate alcune importanti limitazioni che possono portare a nuove pericolose vulnerabilità . Viene poi illustrato il successo di nuovi attacchi contro TopoGuard e TopoGuard+. In particolare, viene mostrato come la soluzione di sicurezza introdotta da TopoGuard+ possa essere utilizzata contro la rete stessa per arrecare danni alla topologia. L’analisi complessiva consente di affermare che le soluzioni di sicurezza esistenti sono fragili poiché perlopiù testate su scenari non realistici. A tal proposito viene criticato l’uso di simulatori di rete con assegnazioni in modo statico di valori di latenza, banda, packet-loss ai link della rete.
Nella tesi vengono inoltre proposti due nuovi attacchi al processo di scoperta della topologia implementato nel controllore Floodlight (open source). Il primo, chiamato Reverse Loop Attack, sfrutta un bug all’interno del codice del controllore per creare un loop di pacchetti tra il controllore e la rete che causa un forte consumo di risorse e conseguente DoS (Denial of Service). Il secondo, chiamato Topology Freezing Attack, sfrutta una particolare condizione dei link che impedisce al controllore di aggiornare parte della topologia della rete, causando malfunzionamenti e DoS.
Per ottenere risultati consistenti, vengono valutate le soluzioni di sicurezza esistenti e i nuovi attacchi utilizzando sia un noto simulatore per reti SDN (Mininet), sia utilizzando un testbed SDN composto da 3 Raspberry Pi funzionanti come switch SDN e un controllore installato all’interno di un computer portatile.
In conclusione, vengono indicate alcune possibili direzioni di ricerca al fine di aumentare la sicurezza nel processo di acquisizione della topologia.
Link esterno al gruppo di ricerca: https://spritz.math.unipd.it/index.html
marco buracchi (Università degli studi di Firenze)
"Side-channel attacks ed esecuzione speculativa: analisi ed implementazione"
(Relatore: Michele Boreale).
Il mondo moderno è ormai pervaso dalla crittografia. Quotidianamente e spesso inconsapevolmente utilizziamo funzioni crittografiche per le normali operazioni della vita quotidiana. Controllare il conto
sull’home-banking, scambiarsi messaggi tramite servizi di messaggistica o anche navigare in internet utilizzando il protocollo HTTPS sono azioni che svolgiamo ormai con naturalezza. I sistemi moderni rendono trasparente all’utente l’utilizzo di tali tecnologie, ma ciò non vuol dire che esse non esistano.
Una funzione crittografica è un oggetto matematico astratto che, attraverso l’utilizzo di una chiave,
trasforma un dato in input (plaintext) in una sua rappresentazione diversa (ciphertext) il più possibile non riconducibile al dato originale. Questa funzione deve poi essere implementata in un programma che girerà su un dispositivo crittografico in un certo ambiente, presentando perciò caratteristiche fisiche peculiari.
Esempi di dispositivi crittografici potrebbero essere smartcard, chiavette USB, chip dedicati montati su dispositivi general purpose (smartphone, notebook) o periferiche progettate e costruite apposta per effettuare questo unico compito. In passato si guardava ad un dispositivo crittografico semplicemente come una black-box che riceveva un plaintext e restituiva un ciphertext (encryption) e viceversa (decryption). Gli attacchi erano basati sulla conoscenza del ciphertext (ciphertext-only attacks) o di alcune coppie di entrambi (known plaintext attacks). Con l’accesso al meccanismo di encryption o di decryption, anche solo temporaneo, si possono
attuare anche altri due tipi di attacchi (rispettivamente chosen-plaintext e chosen-ciphertext). Al giorno d’oggi si è consapevoli del fatto che un dispositivo crittografico ha spesso altri input oltre al plaintext e altri output oltre al ciphertext. Gli input differenti dal plaintext possono essere le interazioni col mondo esterno come modifiche al voltaggio della corrente, condizioni atmosferiche particolari o sollecitazioni fisiche. Il nostro interesse sarà però focalizzato sulle informazioni (facilmente misurabili) che vengono lasciate trapelare dai dispositivi stessi oltre al ciphertext come ad esempio il tempo di esecuzione di un programma, le radiazioni emesse, suoni, luci e quant’altro chiamate side-channel informations.
La tesi è organizzata nel seguente modo:
• nel capitolo 1, data l’eterogeneità della letteratura su questo argomento, abbiamo definito una classificazione dei side-channel attacks e abbiamo presentato una panoramica dello stato dell’arte.
• nel capitolo 2 abbiamo focalizzato la nostra attenzione sulla categoria dei timing attacks, una
particolare tipologia di side-channel attack basato sull’osservazione del tempo di esecuzione di un programma. Partendo da alcuni timing attack reali eseguiti su particolari funzioni crittografiche, abbiamo ottenuto una generalizzazione applicabile a qualunque attacco di questo tipo. Abbiamo quindi implementato una piccola funzione crittografica ed effettuato una validazione sperimentale di questa nostra generalizzazione.
• nel capitolo 3 presentiamo i cache attacks, attacchi side-channel (prevalentemente di tipo timing) che colpiscono la memoria cache dei processori.
• nel capitolo 4 abbiamo presentato approfonditamente il progetto SPECTRE, la principale famiglia di timing attacks sulle cache, che affligge tutti i recenti processori AMD, ARM e Intel.
• nel capitolo 5 descriviamo infine SPARK, l’attacco da noi creato. Questo attacco, basato sui concetti del progetto SPECTRE, è in grado di ottenere dati protetti da password senza la conoscenza di quest’ultima.
Link esterno alla tesi: https://github.com/ma-buracchi/Master-thesis/blob/master/thesis.pdf
Fabrizio Cara (Dipartimento di Ingegneria Elettrica ed Elettronica - Università degli Studi di Cagliari)
"Malware Stealth: Studio e Creazione di Attacchi Evasivi Contro Dispositivi Android"
(Relatore: Prof. Giorgio Giacinto).
Android è il sistema operativo per piattaforma mobile più utilizzato al mondo. Tale caratteristica, insieme al fatto che è un software open source e che si possono installare applicazioni da store di terze parti, lo rende il sistema operativo più bersagliato da attacchi informatici.
Per aumentare la sicurezza su questa piattaforma mobile, esistono varie metodologie di rilevazione che possono essere utilizzate col fine di scovare potenziali attacchi, tra cui l’analisi statica e quella dinamica. Queste due tipologie di analisi hanno però dei punti deboli. L’analisi statica dipende fortemente dai software malevoli noti e non dà la possibilità di rilevare software malevoli nuovi (zero-day attacks). L’analisi dinamica, pur essendo più efficace di quella statica sia sui software malevoli noti che su quelli nuovi, richiede però un elevato uso di risorse, cosa non sostenibile a causa delle limitate risorse a disposizione sui dispositivi mobili.
Negli ultimi anni si stanno inserendo nel campo della sicurezza informatica le tecniche di apprendimento automatico tipiche del machine learning. Tra i vari utilizzi, tali tecniche vengono impiegate per la classificazione e la rilevazione di software potenzialmente malevoli.
Gli algoritmi di classificazione propri del machine learning hanno però un problema intrinseco, ossia che non sono stati pensati nell’ambito della sicurezza. Per questo motivo, tali algoritmi possono essere generalmente soggetti a diverse tipologie di attacco. Una tipologia di attacco molto frequente in quest’ambito è l’evasione della rilevazione.
Per quanto riguarda i dispositivi Android, in letteratura esistono diverse metodologie per compiere un attacco di evasione tramite la manipolazione delle feature delle applicazioni. Ciò che non è stato ancora proposto è: un sistema che permetta di generare automaticamente i campioni che, sfruttando tali tecniche, riescano effettivamente a non essere rilevati come software malevoli.
Lo scopo di questo lavoro di tesi è proprio quello di proporre un sistema che, sfruttando delle tecniche di evasione, permetta di generare delle applicazioni malevoli che non siano rilevabili da un particolare sistema di rilevazione che si vuole attaccare.
Per verificare l’effettiva efficacia di tale sistema, le applicazioni malevoli generate verranno testate su due sistemi di classificazione disponibili in ambiente Android.
Link esterno alla tesi: https://drive.google.com/file/d/18zi10r9_NRtnXbOjBEsy86bDxUYMDp8g/view?usp=sharing
Link esterno al gruppo di ricerca: https://pralab.diee.unica.it/
giuseppe cascavilla (Dipartimento di Informatica/Sapienza, Università di Roma)
"Privacy issues in Online Social Networks"
(Relatore: Prof. Luigi Vincenzo Mancini e Prof. Mauro Conti).
Nowadays Online Social Networks (OSN) are the quintessence of the online communications.
OSN like Facebook, Twitter, Instagram, Snapchat and Google Plus are some of the most important "places" where people share information about their private life. According to Facebook statistics, 1.32 billion are the daily active users on average for June 2017; 2.01 billion are the monthly active users as of June 30, 2017; 300 million are the photo uploads per day; every 60
seconds on Facebook: 510,000 comments are posted, 293,000 statuses are updated, and 136,000 photos are uploaded [1]. The OSN information includes personal data like phone number, date of birth, current city, hometown, university and also pictures, videos, interests (through pages and groups), friendships and connections. Due to these big amounts of data, the biggest challenge for the OSN is to ensure privacy and security for the data of their users. Each social network provides a dierent type of "rules" in order to set up the account's privacy.
The aim of my dissertation is to understand the effectiveness of the OSN privacy settings. Hence, the question that leads the whole thesis project is that: to which extent these privacy options protect our data from prying eyes? Unfortunately, we believe that current privacy settings are not as effective as users might think. Therefore, in order to demonstrate our assumption, we
propose three different types of "attacks" to the (supposed) private data of a target user.
The first part of the dissertations provides two types of attacks in order to retrieve basic information from a target user prole that correctly set the privacy options provided by the OSN Facebook. SocialSpy is in charge of retrieving the list of friends for users that did set this information as "hidden" (to non-friend users). SocialSpy retrieves a signicant percentage of the "hidden" friends names: i.e., some 25% on average, and more than 70% for some users. On the other side, OSSINT (Open Source Social-network INTelligence) improves the results of SocialSpy and demonstrates how it is possible to infer real life information such as current city, hometown, university, supposed being private.
The second part of the dissertation go further in extracting private information. We investigate the possibility to retrieve or infer complex information like sentiments in OSN (i.e., Twitter). First we tested the performances of three publicly available word-emotion lexicons NRC, DepecheMood, EmoSenticNet over a set of Facebook and Twitter messages. Hence we evaluated the word-emotion lexicons on different type of emotions according to Plutchik's wheel of emotions. Subsequently, we decided to go deeper in sentiment analysis investigating the effects of shifts in the emotional valence on the spread of information.
The third and final part of the dissertation not only retrieves private information from a target user but also leverage the social network graphs of leaker profiles to identify an anonymized person. In particular, the system focuses on articles published by news pages on Facebook, in which a person's name is censored. Then, we examine whether the person is identiable
(de-censored) by analyzing comments and the social network graphs of the commenters.
[1] Facebook: Facebook q1 2017 earnings (2017), https://investor.fb.com/investor-events/
event-details/2017/Facebook-Q1-2017-Earnings/default.aspx
Link esterno alla tesi: https://drive.google.com/file/d/1vDpbjlH3wnNsWnCN4b2ytu-WIODzc2FV/view
Link esterno al gruppo di ricerca: http://spritz.math.unipd.it/
Francesco Ciclosi (Dipartimento di Informatica 'Giovanni Degli Antoni' - Università degli Studi di Milano)
"UN APPROCCIO UNIFICATO ALLA PROTEZIONE DEI DATI E ALLA GESTIONE DEL RISCHIO NELLA PUBBLICA AMMINISTRAZIONE"
Link esterno al gruppo di ricerca: http://sesar.di.unimi.it/
Francesco Ciclosi (Dipartimento di Informatica 'Giovanni Degli Antoni' - Università degli Studi di Milano)
"UN APPROCCIO UNIFICATO ALLA PROTEZIONE DEI DATI E ALLA GESTIONE DEL RISCHIO NELLA PUBBLICA AMMINISTRAZIONE"
(Relatore: CERAVOLO PAOLO).
L’elaborato trae il suo spunto di indagine dalla consapevolezza che la nostra società vive in un era iperstorica, dove si cessa di utilizzare semplicemente il ciclo di vita dell’informazione per divenirne completamente dipendenti. Da qui la necessità di adoperarsi nell’ottica di garantire una protezione delle infrastrutture critiche della Repubblica, considerando che soltanto una società che vive nell’età dell’iperstoria può essere minacciata da attacchi di tipo cibernetico. La sicurezza cibernetica va garantita ponendo attenzione agli aspetti unici che la caratterizzano, ma anche alle dipendenze da altri domini di sicurezza (sicurezza delle informazioni, delle tecnologie dell’informazione e della comunicazione, delle reti e della protezione delle infrastrutture critiche). L’elaborato si articola in tre parti.rnLa prima, è interamente dedicata al GDPR, di cui si ripercorre la genesi, per poi descriverne l’oggetto, la finalità , i nuovi ambiti di applicazione, il concetto di dato personale, i ruoli e le relative responsabilità . Attenzione è riservata ai diritti degli interessati (diritto di informazione, accesso, rettifica, cancellazione e diritto all’oblio, portabilità , opposizione, nonché di non essere sottoposto a un processo decisionale automatizzato). Sono poi analizzati i principi di protezione del dato (liceità , correttezza, trasparenza, limitazione delle finalità , minimizzazione dei dati, esattezza, limitazione della conservazione, integrità e riservatezza), nonché il nuovo principio di responsabilizzazione. Sono analizzati i principi di protezione dei dati fin dalla progettazione e di protezione dei dati per impostazione predefinita, nonché la tenuta dei registri di trattamento. Viene indagata la figura del DPO, e la nozione di valutazione di impatto sulla protezione dei dati (DPIA), anche in merito alla sua integrazione con il processo di gestione del rischio. Infine, si analizzano gli obblighi di notifica e di comunicazione in caso di violazione dei dati personali e il sistema sanzionatorio.rnUn apposito capitolo è riservato all’analisi degli obblighi relativi alla sicurezza e alla sicurezza-cibernetica. Nello specifico: la Direttiva NIS (evidenziandone anche i rapporti con il GDPR), il sistema di protezione cibernetico della Repubblica Italiana, nonché le misure minime di sicurezza ICT per la PA di AgID.rnLa seconda parte è dedicata all’approfondimento delle principali tecniche sia di protezione dei dati, che di analisi e gestione dei rischi connessi. Si presentano i concetti di dato, big data e data analytics, anonimizzazione, pseudonimizzazione e re-identificazione. Sono analizzate alcune tecniche di anonimizzazione (k-anonymity, l-diversity e t-closeness), illustrando come sia possibile utilizzarle per ottemperare ai dettami del GDPR, piuttosto che per limitarne l’applicabilità (totale o parziale) o per evitare l’applicabilità di specifici obblighi per la protezione dei dati. Quindi, si introduce il concetto di rischio e si analizzano i principali standard ISO utilizzati per la sua gestione (31000:2009, 31000:2018 e 31010:2009), illustrando le differenze tra i metodi qualitativi e quelli quantitativi di analisi. Si descrive il funzionamento del metodo qualitativo delle matrici di rischio, evidenziandone anche alcune criticità . Si presentano alcune metodologie per la valutazione e la gestione del rischio, concentrandosi sulla metodologia Magerit e sullo strumento software Pilar che la implementa. Analogamente si descrive il ruolo delle metriche per la valutazione del rischio, per poi analizzare CVSS. Infine, viene descritto il funzionamento di un sistema di gestione della sicurezza delle informazioni, trattando gli standard ISO utilizzabili nel suo ambito (27000:2018, 27001:2013 e 27002:2013).rnNella terza parte sono presentati due casi di studio. Nel primo viene proposta una possibile check list a supporto del processo decisionale in materia di conformità al GDPR, mediante la realizzazione di una web application in grado di implementare un questionario di autovalutazione di conformità al Regolamento. Nel secondo viene descritto un concreto esempio di approccio integrato mediante la realizzazione di un Sistema di Gestione della Sicurezza delle Informazioni conforme alle prescrizioni sia della ISO 27001:2013, sia delle “Misure minime ICT per la Pubblica Amministrazioneâ€, che del GDPR.
Link esterno al gruppo di ricerca: http://sesar.di.unimi.it/
Andrea De Salve (Università di Pisa - Dipartimento di Informatica)
"Preserving privacy of contents in Decentralized Online Social Networks"
(Relatore: Laura Ricci, Paolo Mori).
Traditional Online Social Networks (OSNs), which are based on a single service provider, suffer several drawbacks, first of all the privacy issues arising from the delegation of user data to a single entity, the OSN provider. In the last years, Distributed Online Social Networks (DOSNs) have been proposed to shift the control over user data from the OSN provider to the users of the DOSN themselves. Indeed, in contrast to centralized OSNs (such as Facebook), DOSNs are not based on centralized storage services which decide the term of service and the contents shared by the users are stored on the devices of the users themselves. However, the lack of a centralized entity introduces new interesting challenges, like that of guaranteeing the availability of user’s contents when the user disconnects from the DOSN and the privacy of the user’s contents.
In this dissertation we investigate the problem of preserving the privacy of the contents shared by users of DOSNs by focusing on two different aspects: i) the need of defining proper privacy policies for content access and ii) the storage (allocation and replication) of these contents on the nodes which build up the DOSN system. When efficiency has to be taken into account, new solutions have to be devised that minimize as much as possible the overhead introduced by the enforcement of the privacy policy and enable a higher contents availability through distribution and replication. Current solutions fall short in meeting the above criteria, while in this dissertation we proposed two approaches which adopt two very different solutions to guarantee the protection of the contents according to the privacy preferences of users and efficiently reduce the overhead introduced by privacy enforcement mechanisms.
The proposed approaches are validated by an experimental campaign based on data obtained from a real OSN which have enabled the definition of a set of simulations
taking into account realistic scenarios. The experimental results obtained from a set of simulations performed on real traces show the effectiveness of our approaches.
Link esterno alla tesi: https://etd.adm.unipi.it/t/etd-10122017-201446/
Link esterno al gruppo di ricerca: https://www.iit.cnr.it/tematiche_ricerca/trustworthy_future_internet
Giorgio Di Tizio (Universitá degli studi di Trento)
"Drive-by Download attacks as a Stackelberg Planning Problem"
Giorgio Di Tizio (Universitá degli studi di Trento)
"Drive-by Download attacks as a Stackelberg Planning Problem"
(Relatore: Fabio Massacci, Robert Künnemann).
The security of a user when browsing the web relies not only on the web site visited but also on a huge amount of different technologies and hosts located all over the World. In almost all the cases, these relations are trusted and no security mechanisms are implemented to secure and protect the users. Incidents like the Chinese Great Cannon attack showed that this situation can be exploited by malicious entities to affect political, economic and social behaviors.
Different proposals have been presented to increase the security of specific protocols and communications, but no one has evaluated how these proposals can be effective on the actual Internet infrastructure, how it is possible to combine different mitigations to increment the overall security of the users on the Internet and what is the economical effort to reduce threats in different scenarios.
In this thesis we propose an analysis based on Stackelberg planning with a formal description of the attacker model and the evaluation of different security mechanisms, from secure protocol (IPsec, DNSsec, and DANE) to end-point level defenses (CSP, HSTS, and SRI). We evaluated attacks and mitigations at different levels of the Internet infrastructure to assess the impact of different kind of attackers. Our goal is to find the best combination of possible mitigations considering the economic effort for the defenders. The threat model developed allows to evaluate the impact of any kind of attacker, from small hacker groups to APT groups sponsored by nations. Analyzing the Internet infrastructure for the most visited domains, we highlight a poor implementation of security mechanisms. Infrastructure providers can affect the security of millions of users and, in some cases, are more dangerous that nation attackers.
The economical effort for reducing the impact of these threats is relatively small with respect to the damage that such attacks can generate to the users. Furthermore, we discover that end-point level defenses like HTTPS, HSTS, SRI and CSP are preferable with respect to infrastructure defenses like DNSsec and IPsec. The implementation of these relatively cheap countermeasures is currently the best economical-driven strategy to protect the users on the Internet.
Giovanni Ferronato (Università degli studi di Trento, DISI)
"Multi-Factor Authentication through Push Notification and NFC-enabled Identity Card"
Giovanni Ferronato (Università degli studi di Trento, DISI)
"Multi-Factor Authentication through Push Notification and NFC-enabled Identity Card"
(Relatore: Silvio Ranise).
In the recent past the European Union (EU) has faced the problem of standardizing the citizen digital identity management across all member states. For instance, the fact that every country has different identification documents makes the work of the border patrol harder. Moreover, these different ID documents also have different level of security and strength against counterfeit. This leads to a huge security problem inside the European borders.
In order to contrast this type of illicit, since 2014, EU has published few regulation (eIDAS Regulation) to establish how member states must handle their citizen electronic identity (eID).
These eID cards have two main purposes: as standard identification documents and as authentication factor for accessing online services. The latter is the case we focus in this thesis.
eID cards carry many personal information saved in their memory and therefore they must be kept totally secure. This need for security solutions opens new technological challenges for developing secure mechanisms in order to use eID cards and interact with them. An instance of security mechanism is multi-factor authentication where eID cards could be used as OTP generator protected with a secret pin, that, combined with classical username and password, gives us a secure second-factor authentication.
In the solution presented in this thesis we analyzed the scenario that involves the CIE 3.0 (new Italian electronic identity card) as the eID card. This has been possible thanks to the collaboration between FBK and IPZS (“Istituto Poligrafico e Zecca dello Statoâ€) who have a joint laboratory for the design, development and security assessment of authentication solutions using the CIE 3.0 card in the mobile context. This laboratory has developed a mobile application (called iDentity) which is able to securely communicate with the CIE card using NFC (Near Field Communication) technology of the user's smartphone.
iDentity is designed to support two scenarios: first it supports authentication requests that come from another application in the same smartphone, second it also accepts authentication requests coming from a web-app in the user's computer browser.
The latter is achieved using push notification technology in order to let the web-app and the iDentity app communicate each others.
Thanks to both these technologies, we have been able to develop an authentication platform that uses CIE 3.0 card as second factor for a multi-factor authentication procedure. Moreover, we have done a security assessment analysis following OWASP guidelines which resulted in a LOW overall risk severity.
Luigi Gallo (DIETI, Università degli studi di Napoli "Federico II")
"Un sistema per la rilevazione di anomalie di rete con tecniche di analisi di Big Data"
(Relatore: Alessio Botta).
Anomaly detection is a very lively research topic. Recent proposals in literature are mainly concerned with the large volume of traffic to be analyzed and with the detection technique to be used. To cope with the problem of a large volume of traffic, flow sampling is seldom used, with the result that part of the information is lost, together with a certain degree of outcome generalizability. In this work, we are aiming at providing two main contributions. The former one is the development of a simple, heuristic-based algorithm, exploiting Apache Spark to reach the high performance needed for detecting anomalies in large volumes of traffic, not recurring to any flow sample technique. The algorithm uses 5 main features: number of inbound and outbound flows; average number of packets per flow; average number of bytes per packet; number of distinct IP addresses contacted; number of the consecutive IP addresses contacted. These features are then weighted and combined, and the combination compared with a threshold. The algorithm has been mainly designed and tuned to detect both Port and Net scan and DOS. In fact, these types of anomalies typically present a larger number of outgoing than incoming connections. To tune and test it, we used real traffic traces taken from the MAWI dataset. Results of the MAWILab project are also used for comparison.
The second contribution we are aiming to is an automated system called SPADA (Spark-based Anomaly Detection Ace), that runs autonomously and compares the results obtained by the algorithm with MAWILab. SPADA is able to automatically perform all the operations needed for the analysis of a traffic trace. When running in cron mode, SPADA downloads every day the last-released MAWI trace, loads it on a private Cloud where SPARK resides, runs the algorithm described before on the trace, downloads Anomalous and Notice files from MAWILab, compares the results, and publishes our results and the ones from the comparison on the website http://spada.comics.unina.it/. Preliminary results obtained on a sample of more than 100 traces from December 2016 to September 2018 show that the system obtains a maximum recall of 0.97 and a maximum precision of 0.99. Moreover, the system can detect more scanning and DOS activities than MAWILab. This reason drove us to consider MAWILab as a gold standard. SPADA allows to: detect anomalies on high-speed networks, carry out longitudinal analysis on the anomalies present in one of the most used trace reports, and provide to the scientific community a reference to compare with since the results are automatically published online every day on the web page of the project. We believe that SPADA represents a missing important contribution to this research field.
Link esterno alla tesi: http://spada.comics.unina.it/tesi_luigigallo
Link esterno al gruppo di ricerca: http://spada.comics.unina.it/
Dorjan Hitaj (Dipartimento di Informatica / Università di Roma "La Sapienza")
"Novel Evasion Attacks Against Ownership-Enforcing Methods for Neural Network Machine Learning Models"
(Relatore: Luigi Vincenzo Mancini).
Deep neural networks have had enormous impact on various domains of computer science, considerably outperforming previous state of the art machine
learning techniques. To achieve this performance, neural networks need large quantities of data and huge computational resources, which heavily increase the construction costs.
The increased cost of building a good deep neural network model gives rise to a need for protecting this investment from potential copyright infringements. Legitimate owners of a machine learning model want to be able to reliably
track and detect a malicious entity that tries to steal the intellectual property related to the model. Recently, this problem was tackled by introducing in deep neural networks the concept of watermarking, which allows a legitimate
owner to embed some secret information (watermark) in a given model. The watermark allows the legitimate owner to detect copyright infringements of his model.
This thesis focuses on verifying the robustness and reliability of state-of-the-art deep neural network watermarking schemes. We show that, a malicious entity, even in scenarios when the watermark is hard to remove, can still
evade the verification from legitimate owners, thus avoiding any doubts on model theft. This dissertation presents two novel evasion attacks against the current watermarking schemes. The first attack relies on the construction
of a voting-mechanism based on several machine learning models, which are trained to solve the same task and are stolen from different providers. This attack makes the watermark verification impossible to the legitimate owners
of any of the stolen machine learning models. The second attack relies on the construction of a detector mechanism based on deep neural networks, that is able to distinguish between clean instances that should normally be queried
to a neural network and possible watermark related instances. This approach improves the first method by reducing the costs to mount the attack and evade the watermark verification.
As such, this thesis raises awareness for the need of constructing reliable model ownership verification mechanisms, which are robust to the presented attacks.
Link esterno alla tesi: https://drive.google.com/open?id=148AhOt3oIdl1gqkNAwQVC2p1MqUlofWF
Ludovico Loreti (Università di Bologna - Informatica per il Management)
"PASS THE HASH ATTACK: Panoramica, sperimentazione ed analisi"
Ludovico Loreti (Università di Bologna - Informatica per il Management)
"PASS THE HASH ATTACK: Panoramica, sperimentazione ed analisi"
(Relatore: Davide Sangiorgi).
La tesi è incentrata sul noto attacco informatico Pass The Hash e sul suo sviluppo all'interno di un sistema Microsoft Active Directory. Viene descritta una panoramica dell'attacco accennando la sua storia ed evoluzione fino ad oggi, alcuni dei tanti attacchi informatici ad esso propedeutici ed un background tecnico in cui vengono spiegate le sue componenti principali: il tool che viene utilizzato oggigiorno per sperimentare questa tecnica (Mimikatz), le funzioni di hash, i sistemi Single Sign-On, la suddivisione in domini, alberi e foreste di Active Directory.
In seguito viene mostrato l'ambiente di test in cui l'attacco è stato sperimentato, specificando i software ed i computer utilizzati.
L'ultima parte della tesi è incentrata sulla realizzazione dell'attacco informatico in modo sperimentale in quanto l'attacco teoricamente si ferma alla versione di Windows 8 e Windows Server 2012. Qui è realizzato su sistemi aventi Windows 10 e Windows Server 2016 aggiornati al momento in cui si scrive.
Nel capitolo conclusivo vengono ripresi i punti salienti dell'attacco realizzato poc'anzi e vengono descritte alcune tecniche pensate ad hoc per la mitigazione del Pass The Hash.
Alessandro Mantovani (Università di Genova/Eurecom)
"Towards the Detection of Low Entropy Packed Malware"
(Relatore: Davide Balzarotti).
For several years now, we have observed thousands of malware which attempt to hide their malicious code through some form of obfuscation. A typical obfuscation technique is packing which is probably the preferred one by malware authors because it masks the code just to make life difficult to malware analysts and Antivirus (AV) software vendors. An open research problem on malware analysis is distinguishing between packed and non-packed executables since a correct separation between the two classes allows AV software to define the right heuristic to use for malware detection. In addition to this, a reliable classification between packed and not-packed binaries is useful for malware analysts and researchers as well, because it can improve the quality of their works creating sound datasets without false positive/negative samples, i.e., avoiding dataset pollution. However, the assumption 'packed implies malicious' is absolutely wrong because a lot of legal software producers adopt packing or other obfuscation techniques in order to protect their code from abuses.
Therefore it is evident how a wrong answer to the question 'is this executable packed?' regarding a malware makes the difference between evasion and detection.
The current state of the art relates entropy and packing, thereby assuming a high entropy of an executable file implies that the same is packed. Moreover, such works use entropy related metrics in order to increase the accuracy of the classification.
Unfortunately, an increasing number of packed malware implement proper schemes to keep their entropy low.
Therefore, a reliable solution to detect low entropy packing schemes is still lacking.
In this work, we try to point out how widespread these samples are and how they work, with the purpose of demonstrating that the problem of a correct classification between packed and non-packed binaries is still open and that it must not be ignored.
Link esterno alla tesi: https://github.com/elManto/MasterThesis
Link esterno al gruppo di ricerca: http://s3.eurecom.fr/
Michele Mazza (Informatica Umanistica - Università di Pisa)
"Modellazione temporale dell\\\'attivita di retweet ed applicazione all\\\'individuazione di comportamenti sospetti"
Michele Mazza (Informatica Umanistica - Università di Pisa)
"Modellazione temporale dell\\\'attivita di retweet ed applicazione all\\\'individuazione di comportamenti sospetti"
(Relatore: Maurizio Tesconi e Dino Pedreschi).
Le potenzialità offerte dai social network come strumenti di comunicazione vengono spesso sfruttate per fini eticamente discutibili, soprattutto attraverso i social bot, ovvero software che controllano un account su un determinato OSN, in grado di eseguire attività come scrivere un messaggio, condividere un contenuto o richiedere una connessione con un altro utente, progettati quindi per comportarsi in modi simili a quelli di una persona in uno spazio sociale (Abokhodair, Yoo e McDonald 2015). Il loro utilizzo ha avuto grande impatto in numerose situazioni e contesti, si veda l’influenza sull’esito delle elezioni politiche degli USA nel 2016 (Bessi e Ferrara 2016), la propaganda attuata durante la Brexit (Howard e Kollanyi 2016) o le campagne di disinformazione lanciate nel corso delle elezioni presidenziali in Francia nel 2017 (Ferrara 2017). Diretta conseguenza del fenomeno è stato lo sviluppo di numerose tecniche e metodologie di bot detection, ovvero di strumenti sviluppati per riuscire a distinguere gli account gestiti da esseri umani da quelli gestiti da software (Karataş e Şahin 2017). In questo lavoro è stato sviluppato uno scraper per raccogliere informazioni riguardo gli utenti italiani di Twitter, in particolare della loro attività di retweet, senza dover sottostare ai limiti imposti dalle Twitter API. Sfruttando la vastità del dataset ottenuto si sono analizzate e modellate temporalmente le attività degli utenti, fino al rilevamento di particolari pattern e anomalie riconducibili all’attività automatizzata di un social bot. È stata sviluppata una particolare visualizzazione, chiamata Retweet-Tweet, in grado di evidenziare la presenza di pattern temporali facilitandone dunque l’identificazione manuale. Tramite l’uso di un autoencoder le attività degli utenti sono state compresse in vettori di lunghezza fissa, ciò ne ha permesso il successivo clustering sulla base della quale è stato determinato un criterio di valutazione in grado di distinguere l’attività di un individuo reale da quella di un social bot. Infine state esplorate manualmente delle social botnet identificate grazie al metodo sviluppato.
Luca Pajola (Informatica - Università di Padova)
"Hate Speech Detection: An Analysis of Existing Architectures"
(Relatore: Mauro Conti).
With the spread of social networks and their unfortunate use for hate speech, au-
tomatic detection of the latter has become a pressing problem. In this paper, we
reproduce seven state-of-the-art hate speech detection models from prior work, and
show that they perform well only when tested on the same type of data they were
trained on. Based on these results, we argue that for successful hate speech detection,
model architecture is less important than the type of data and labelling criteria. We
further show that all proposed detection techniques are brittle against adversaries
who can (automatically) insert typos, change word boundaries or add innocuous
words to the original hate speech. A combination of these methods is also effective
against Google Perspective – a cutting edge solution from industry. Our experiments
demonstrate that adversarial training does not completely mitigate the attacks, and
using character-level features makes the models systematically more attack-resistant
than using word-level features.
Link esterno al gruppo di ricerca: https://spritz.math.unipd.it/index.html
Federico Palmaro (La Sapienza, Ingegneria Informatica)
"Taming Anti-analysis Behavior in Malicious Software"
Federico Palmaro (La Sapienza, Ingegneria Informatica)
"Taming Anti-analysis Behavior in Malicious Software"
(Relatore: Camil Demetrescu).
La quantità di nuovi malware che emergono ogni giorno cresce in modo molto veloce, rendendo il bisogno di strumenti che possano aiutare gli analisti nel loro lavoro più grande che mai. Per ispezionare campioni malevoli in modo rapido ed efficiente sono state sviluppate negli anni soluzioni di sandboxing per la loro analisi dinamica. Una sandbox è un ambiente controllato che gli analisti possono usare per valutare velocemente le caratteristiche dell’esecuzione di un malware, permettendo l’ispezione di molti campioni in un breve lasso di tempo. Non appena le sandbox sono diventate popolari, gli autori di malware hanno cominciato ad analizzarle ed a sviluppare numerose tecniche evasive che consentono ai malware che le adottano di nascondere il loro comportamento malevolo non appena una sandbox cerca di esaminarli, rendendo così inefficace l’analisi.
Per contrastare tali tecniche evasive e avvalendosi di un framework di Dynamic Binary Instrumentation (DBI), in questa tesi proponiamo di costruire un ambiente dove un campione possa rivelare i suoi reali tratti malevoli. L’uso di DBI permette di scendere in profondità nel monitoraggio dell’esecuzione di un binario fino alle singole istruzioni, in modo da ispezionarle e alterarle per evitare che tecniche evasive note abbiano successo, fornendo all’analista il pieno controllo sul comportamento dell’eseguibile incriminato.
In questa tesi integriamo oltre 100 tecniche anti-evasive che vanno dall’hooking di API di alto livello al controllare il trascorrere del tempo o gli accessi a memoria. Partendo dai più famosi executable protectors usati dai malware fino ai campioni più evasivi scoperti fino ad ora, il nostro sistema è capace di eseguire e ispezionare i binari come se essi venissero eseguiti in un ambiente neutro. Per facilitarne l’adozione da parte di analisti e ricercatori, utilizziamo il software di virtualizzazione open source VirtualBox come back-end.
In aggiunta alle estese capacità di analisi dinamica descritte, il sistema offre agli analisti un’interfaccia di debugging per studiare gli ingranaggi di un malware mettendoli al riparo da eventuali evasioni. Inoltre, per trattare le tecniche evasive ancora non scoperte abbiamo integrato un framework di taint analysis: esso consente agli analisti di seguire lungo il corso dell’esecuzione il percorso di un dato originariamente prodotto in una specifica istruzione o chiamata a funzione. Crediamo che queste due caratteristiche unite con la flessibilità di DBI possano aprire nuovi scenari nella battaglia tra i cyber attaccanti e gli analisti di malware.
Presentiamo quindi un’estesa valutazione sperimentale che include l’analisi automatica di 1000 recenti malware altamente evasivi, e l’ispezione manuale di campioni ben noti e dall’alto livello di sofisticazione, usando le nostre feature di debugging e taint analysis. Siamo in grado di intercettare e smantellare una grande varietà di tecniche anti-sandbox e anti-debugging, individuandone di nuove lungo la strada percorsa.
Giulio Pellizzari (Dipartimento di Ingegneria e Scienza dell'Informazione, Università degli Studi di Trento)
"Design and implementation of a tool to detect Login Cross-Site Request Forgery in SAML SSO: G Suite case study"
Giulio Pellizzari (Dipartimento di Ingegneria e Scienza dell'Informazione, Università degli Studi di Trento)
"Design and implementation of a tool to detect Login Cross-Site Request Forgery in SAML SSO: G Suite case study"
(Relatore: Silvio Ranise).
Single Sign-On (SSO) is a service that replaces conventional solution based on a set of credentials for each domain by offering a new technique: through a username and password the user will be able to access multiple services. After authenticating the first time, a user can switch between services without providing his credentials every time.
Among various solutions to implement a SSO service, our focus goes to SAML Web Browser SSO (hereafter called SAML SSO). SAML SSO involves two entities in the communication: a Service Provider (SP) and an Identity Provider (IdP). The SP provides services to users after they have been successfully authenticated to the IdP. SAML SSO is broadly used especially in corporations and institutions like Google and SPID (Public System for Digital Identity). SPID is the solution that allows the Italian citizens to access all online services of the Public Administration with a single Digital Identity.
In these contexts users exchange lot of sensitive data that has to be protected by secure mechanisms, for instance to ensure sensitive data protection, maintain in a session requests and responses associated to the same user and prevent unauthorized accesses.
Among these best practices we decided to analyse the SAML SSO sessions, focusing on the vulnerabilities that can expose user's confidential information to an attack.
The session vulnerability presented in this thesis enables a user to consume the authentication data issued by the IdP in a different session compared to the one where the user has been authenticated to the IdP. This flaw can expose users to a Cross-Site Request Forgery (CSRF) attack. A CSRF attack makes the victim to send a forged request causing unwanted actions on a vulnerable web site. In particular we focused on Login CSRF attacks, a subclass of pre-authentication CSRF attacks.
Usually a malicious user performs an attack in order to impersonate the victim on a web site but, in a Login CSRF attack, is the victim to impersonate the attacker at the vulnerable web site. Even if this attack looks different from the common scenario, a Login CSRF can lead to an relevant impact. For instance, if the attacker is able to log the victim into the attacker's PayPal account, the attacker will be able to see the victim's bank account details.
The first contribution provided by this thesis is a testing strategy for the vulnerability that can lead to a SSO Login CSRF attack. The testing strategy describes the steps that enable the tester to consume the information issued by the IdP in another session. Since the existing tools do not provide any feature to automate these steps, we developed a semi-automatic tool to assist the testers in detecting the session vulnerability.
With these two contributions we also provide few countermeasures that can be implemented to prevent CSRF attacks.
The last contribution of this thesis is a use case where we report a vulnerability discovered on G Suite. We describe all the experiments conducted on this SAML SSO scenario to verify the vulnerability providing also an example of SSO Login CSRF attack on G Suite.
Since this flaw in G Suite was not already mentioned in a scientific paper and neither on Google issue tracker, we decided to report the vulnerability to the vendor. Google recognizes our findings as a SAML Login CSRF attack and gives us the right to report the vulnerability in this thesis without restrictions.
Angelo Pes (Dipartimento di Ingegneria Elettrica ed Elettronica - Università degli Studi di Cagliari)
"Estrazione di informazioni dalla piattaforma Instagram per la ricerca di vulnerabilità ad attacchi di Social Engineering "
(Relatore: Prof. Giorgio Giacinto, Dr. Ing. Davide Ariu).
L'obiettivo della tesi è quello di automatizzare la raccolta di informazioni da Instagram, evitando l'utilizzo delle API ufficiali (ma prendendo spunto da esse).
Lo sviluppo del progetto si è concretizzato in un sistema, scritto in linguaggio python, composto da una serie di funzioni di "web scraping" e di generazione di report contenenti le informazioni trovate.
Si è poi voluto mostrare come queste informazioni possano essere usate sia a scopo offensivo (per esempio per attacchi di spear phishing) o difensivo (valutare la vulnerabilità di soggetti singoli o di aziende ad attacchi di social engineering, in modo da porvi rimedio in modo tempestivo).
L'analisi dei risultati dei test ha evidenziato, inoltre, come un sistema come quello sviluppato possa essere utilizzato anche per rilevare delle vere e proprie reti di profili falsi, creati appositamente allo scopo di truffare gli utenti (numerosi profili rilevati rimandano attraverso uno o più link a delle pagine malevoli o di phishing).
Link esterno alla tesi: https://drive.google.com/file/d/1t_hTorTR_vlLQVJQLWj8yfSUP2YYBAPQ
Link esterno al gruppo di ricerca: http://pralab.diee.unica.it
Cristiano Regni (Dipartimento di Matematica e Informatica, Università degli studi di Perugia)
"Analisi delle metodologie di attacco e possibili contromisure in un Penetration Test: un caso reale"
(Relatore: Osvaldo Gervasi).
La nostra società sta attraversando un periodo molto particolare in cui la tecnologia, e più nello specifico l'informatica, sono in continua e rapida evoluzione. Questo sviluppo è stato reso possibile anche grazie alla repentina espansione di Internet che ha permesso lo scambio di dati ed informazioni con qualsiasi persona in tutto il globo, in modo istantaneo e relativamente gratuito.
Molte aziende hanno abbandonato il cartaceo per passare al digitale risparmiando soldi e soprattutto tempo investendo sul loro sistema informatico piuttosto che in altri ambienti. I nostri telefoni sono diventati "smartphone", con funzioni assimilabili a quelle di un computer ad uso domestico; anche gli oggetti più comuni che utilizziamo ogni giorno stanno diventando sempre più tecnologici: i più recenti elettrodomestici come lavatrici, forni e frigoriferi possono oramai connettersi ad Internet in modo tale da controllarne il loro funzionamento da remoto. Tutto ciò ha portato addirittura alla creazione di neologismi come ad esempio "IoT" (Internet of Things), che si riferisce proprio all'estensione di Internet al mondo degli oggetti come quelli precedentemente descritti.
Necessariamente è stata posta l'attenzione anche sull'analisi dei rischi di questi dispositivi e il loro impatto sulla sicurezza, non solo informatica, ma anche personale. Basti pensare cosa potrebbe succedere se un malintenzionato avesse il controllo completo del nostro sistema d'allarme casalingo o della nostra cucina. Le aziende sono dovute correre ai ripari per proteggere i dati più sensibili dei loro server da attacchi esterni per ridurre così al minimo la fuga di informazioni sul web. Questo però non è stato sufficiente, infatti lo sviluppo di nuove tecnologie potrebbe portare con sé ulteriori problemi di sicurezza poiché non testate sufficientemente oppure con eccessiva superficialità .
Dall'esigenza di verificare la robustezza del proprio sistema informatico stando al passo con lo sviluppo tecnologico nasce il Penetration Test, un servizio molto potente e allo stesso tempo molto sottovalutato dalle aziende, non solo per via del costo a livello economico ma anche per il fatto che la maggior parte dei dirigenti aziendali non considera possibile che la propria azienda possa essere oggetto di un attacco informatico.
Questo documento vuole trattare più nello specifico l'ambiente sopra descritto, in particolare le metodologie di attacco e le possibili contromisure analizzando un caso reale di Penetration Test. Nel primo capitolo viene descritto il Penetration Test, indicando le varie fasi nelle quali si articola e quali sono le principali metodologie adottate. Nel secondo capitolo viene analizzato un Penetration Test realizzato per un'azienda di Perugia, della quale vengono omessi per ovvie ragioni i dettagli ed il relativo report. Nel terzo capitolo vengono descritte le possibili contromisure da adottare per ridurre la probabilità di successo di un attacco informatico. Infine le conclusioni illustrano alcune considerazioni che sono emerse nel corso del progetto di Tesi.
Link esterno alla tesi: https://drive.google.com/file/d/1K1iUa4Ja7jvYhyYuil4Mxtvk4MySalVx/view?usp=sharing
Simone Santacroce (Università la Sapienza)
"Reliable Broadcast on Multihop Networks in presence of Mobile Byzantine attackers"
Simone Santacroce (Università la Sapienza)
"Reliable Broadcast on Multihop Networks in presence of Mobile Byzantine attackers"
(Relatore: Silvia Bonomi).
Ogni giorno gli utenti di Internet fanno uso di un insieme di servizi al fine di svolgere con successo le loro attività professionali e personali.
Le attività svolte nel web, a partire dalle attività di svago fino a quelle di informazione e vendita, sono erogate agli utenti tramite una grande rete di applicazioni e dispositivi capaci di inviare richieste a servizi web e di collezionare le risposte per portare a termine i compiti desiderati. Le applicazioni più famose, come Facebook, Amazon e Twitter, sono composte da servizi web basati su una grande rete di server, su ognuno di questi elementi della rete viene eseguito un protocollo distribuito che permette all'applicazione di esplicare le proprie funzioni in modo corretto per il grande numero di utenti sparsi per il globo. Nell'era dell'IoT, le reti di comunicazione non sono composte solo da grandi server sparsi nel mondo ma anche da dispositivi di piccole dimensioni e potere computazionale, distribuiti nelle nostre case (servizi di domotica), o in aree di interesse geologico per il calcolo della temperatura (reti di sensori), o impersonati da robot durante l'esplorazione di zone pericolose. Quelli elencati sono solo esempi che possano farci capire quanto eterogenee siano oggi le reti di comunicazione. Considerando lo scenario descritto, proponiamo soluzioni di comunicazione sicura che non faccia utilizzo di crittografia, al fine di costruire un modello che funzioni anche per reti in cui la crittografia è assente o compromessa.
I problemi che possono sorgere all’interno delle reti di oggi compongono solo una piccola parte dei problemi che possono affliggere un sistema distribuito. Ogni componente di una rete di comunicazione può fallire o crashare, mettendo a rischio il comportamento corretto dell’intero sistema. Da ciò è possibile capire quanto le reti di comunicazione siano maggiormente vulnerabili all’aumentare della loro dimensione: più dispositivi la compongono e più alta è probabilità di dover gestire fallimenti o il crash di un processo.
Tra i vari tipi di fallimento a cui un processo può andare incontro, il modello Bizantino ne definisce lo scenario nel caso peggiore: i dispositivi che hanno un fallimento possono comportarsi in modo arbitrario e imprevedibile, e/o in modo malevolo, trasmettendo, bloccando e/o alterando i messaggi trasmessi nella rete nel modo più dannoso possibile per la comunicazione dei processi. I comportamenti dannosi coperti dal modello raramente si verificano nella pratica, ma una parte di essi può essere causata e impersonata da un agente che ha l’obbiettivo di distruggere la comunicazione all’interno della rete. Quelle finora descritte sono anche le motivazioni per cui lo studio del modello Bizantino, rappresentando lo scenario nel caso peggiore, giochi un ruolo importante nello studio dei modelli di comunicazione.
Il fallimento di un processo, così come concepito all’interno del modello Bizantino, copre i comportamenti malevoli dei nodi della rete, ma non definisce la diffusione tipica di virus e degli altri attaccanti ‘mobili’ con cui le reti di oggi hanno a che vedere. Per questo, il primo passo dello studio consiste nella definizione di un modello chiamato Bizantino Mobile. Tale modello definisce un nuovo tipo di agente malevolo, che mantiene le caratteristiche permesse dal modello Bizantino, più la possibilità di muoversi e propagarsi all’interno della rete tramite la capacità di infettare i processi vicini.
Lo studio effettuato quantifica il numero di agenti bizantini mobili necessari per forzare una rete di processi densamente connessa a comportarsi in modo non corretto o per bloccare l’intero sistema nell’esplicare le proprie funzioni. E’ intuitivo ed emerge dallo studio, che il numero di agenti bizantini mobili necessari per impedire a una rete scarsamente connessa di funzionare correttamente sia ancora minore.
Da ciò deriva l’importanza nello sviluppo di algoritmi di comunicazione fault-tolerant, ovvero, algoritmi che permettano alla rete di processi di comunicare correttamente nonostante la presenza di fallimenti e crash, senza sapere dove questi siano localizzati. A tal fine vengono analizzati i problemi di Reliable Broadcast dei sistemi distribuiti. Un algoritmo che mira a stabilire una comunicazione di tipo Reliable Broadcast all’interno della rete, nonostante la presenza di fallimenti, ha l’obbiettivo di:
- permettere ai processi corretti di ottenere solamente messaggi autentici da parte di altri processi corretti;
- consegnare a tutti i processi corretti della rete ogni messaggio autentico inviato da un processo corretto.
Questo problema è stato risolto e studiato sia per reti densamente connesse che scarsamente connesse, utilizzando il modello Bizantino. Il problema non è mai stato risolto astraendo gli attaccanti tramite il modello del Bizantino Mobile. E’ importante notare che una rete densamente connessa è in grado di sopportare la presenza di un numero maggiore di processi bizantini, continuando ad esplicare le proprie funzioni correttamente e garantendo Reliable Broadcast, mentre una rete multihop (scarsamente connessa) è in grado di sopportare un numero molto minore di processi bizantini. E’ infatti sufficiente che pochi processi bizantini siano localizzati in posizioni cruciali di una rete multihop per evitare che questa garantisca Reliable Broadcast. In altre parole, il problema del Reliable Broadcast in reti multihop prevede uno studio molto approfondito non solo del modello di attaccante ma anche della topologia della rete che costituisce il nostro sistema.
La tesi ha quindi l’obbiettivo di sviluppare un protocollo che permetta alle reti multihop di garantire Reliable Broadcast in presenza di attaccanti astratti secondo il modello Bizantino Mobile.
Lo studio effettuato definisce formalmente il problema che l’algoritmo si propone di risolvere e il modello del Bizantino Mobile, inoltre, definisce il modello di sistema distribuito su cui l’algoritmo può essere applicato.
Successivamente, viene implementata una soluzione che permette di ottenere Reliable Broadcast su reti di tipo Torus in presenza di un singolo agente bizantino mobile, eseguendo inoltre un’analisi dei vincoli che il sistema deve sostenere. Senza entrare nei dettagli, il sistema distribuito utilizzato è sincrono e permette lo spostamento degli agenti bizantini solamente in momenti precisi di un round computazionale. Per una rete multihop questo è un dettaglio di vitale importanza, poiché il corretto funzionamento della comunicazione dipenderà oltre che dalla posizione e dal numero degli agenti all’interno della rete, anche dai parametri di tempo che dettano gli spostamenti degli agenti malevoli e dalla distanza minima consentita tra due agenti malevoli differenti presenti nella rete. L’analisi volge quindi ai vincoli da imporre su questi parametri affinché l’algoritmo funzioni correttamente.
La tesi continua lo studio del problema ripetendo le analisi appena descritte permettendo la presenza nella rete di più agenti bizantini mobili, completando così l’algoritmo.
Infine, viene prodotta un’analisi del funzionamento dell’algoritmo su reti k-connesse e dei vincoli necessaria per garantire Reliable Broadcast in presenza di attaccanti bizantini mobili al variare di k.
Damiano Sartori (Dipartimento di Ingegneria e Scienza dell'Informazione, Università degli Studi di Trento)
"Attribute Based Access Control over a Hyperledger Fabric network"
Damiano Sartori (Dipartimento di Ingegneria e Scienza dell'Informazione, Università degli Studi di Trento)
"Attribute Based Access Control over a Hyperledger Fabric network"
(Relatore: Silvio Ranise).
The adoption of Electronic Health Record (EHR) systems is one of the key initiatives of the 2009 American Health Information Technology for Economic and Clinical Health (HITECH) Act. The European Institute for Health Record (EuroRec), involved in the promotion of EHR in the European Union, identifies as one of its main missions the identification of limitations and obstacles towards the implementation and use of EHR. In particular, EuroRec emphasizes the importance of communication and interoperation in the development of secure EHR systems. In Italy, the Fascicolo Sanitario Elettronico (FSE) is a system through which citizens are allowed to access and contribute to their own health information. In this scenario, a patient is not depicted as a passive entity; instead, it is actively involved in the process of managing health data. This practice, known as patient empowerment, is adopted also in the Cartella Clinica del Cittadino (TreC) promoted by the province of Trento; furthermore, the TreC solution introduces the concept of delegation, through which a patient should be able to grant another patient access to its personal health record.
Even though a great number of initiatives and projects are pushing towards wider use of EHRs, their support by both public and private institutions have been undermined by legal constraints, excessive costs and the complexities introduced to securely share such data, in particular over the Internet. Meanwhile, there is a shift towards decentralized infrastructures, where data is replicated and handled according to specific shared responsibility models. Although the access policies will still be determined by the data subject, i.e., the patient whose data belongs to, there is a need for an architecture able to enforce those policies in a distributed environment. These, among the others, paved the way for blockchain and Distributed Ledger Technologies (DLT).
Since EHRs contain sensitive information, it is of paramount importance to ensure the confidentiality, integrity, and availability of patients’ data, and to protect their privacy with adequate security measures. One of the most important security mechanisms to do this is access control.
The main contribution of this thesis is to present a system for supporting the storage and the sharing of sensitive data, such as EHRs, through the implementation of a fine-grained Attribute-Based Access Control (ABAC) mechanism on top of Hyperledger Fabric, a private and permissioned DLT. Authentication is managed through the certificate-based Fabric infrastructure, while authorisation is granted by a smart contract, i.e., shared computer code executed in a distributed environment, which intercepts clients’ requests and evaluates their attributes with respect to applicable policies.
Although developed to support EHR data sharing, the use of ABAC allows this solution to be tailored to any use case where access to sensitive data must be evaluated based on attributes of the requester, the details of the resource, and possible environmental conditions.
Emanuele Silvani (Dipartimento di Scienze Aziendali, Economiche e Metodi Quantitativi - Università degli Studi di Bergamo)
"IL CYBER RISK E LA RISPOSTA ASSICURATIVA AL FENOMENO"
Emanuele Silvani (Dipartimento di Scienze Aziendali, Economiche e Metodi Quantitativi - Università degli Studi di Bergamo)
"IL CYBER RISK E LA RISPOSTA ASSICURATIVA AL FENOMENO"
(Relatore: Laura Viganò).
In questa tesi si è tratto spunto dall'esperienza di tirocinio in ambito assicurativo, per intraprendere uno studio articolato sul fenomeno del cyber risk, analizzato nelle sue sfaccettature molteplici.
La ricerca è stata focalizzata sulla comprensione del ruolo assicurativo, in termini di sensibilizzazione e tutela del rischio.
I dati raccolti da report specialistici confermano che i pericoli sono in costante crescita e in continuo mutamento, comportando un adeguamento incessante delle soluzioni per arginare il fenomeno.
Per evitare che le violazioni cyber diventino una fonte di instabilità sistemica, occorre introdurre strumenti normativi, che indirizzino le aziende a considerare la security come un elemento strutturale.
Le tipologie di attacco più utilizzate dagli hacker sfruttano le vulnerabilità tecnologiche e organizzative, unite agli errori umani.
Il crescente utilizzo dei pagamenti digitali, l’esplosione delle criptovalute e i pagamenti da mobile, determinano un aumento della superficie attaccabile.
Le interferenze hacker nel voto americano e il più recente caso di Facebook, dimostrano che le conseguenze del cyber risk, possono travalicare l’aspetto economico.
Dai convegni specialistici risulta che, nonostante l’aumento significativo della consapevolezza dei rischi, le azioni per contrastarli risultano ancora poco incisive.
La collaborazione è ritenuta fondamentale per supportare aziende, istituzioni e società civile, nell'affrontare le complessità della cybersecurity.
La diffusione massiva di strumenti tecnologici ha determinato una vulnerabilità incontrollata, che richiede soluzioni di non facile adozione.
La componente umana può cadere inconsapevolmente nelle trappole informatiche, compromettendo anche sistemi di sicurezza ben congegnati, perciò bisogna intervenire a livello strutturale, per tendere ad una sicurezza che difficilmente, può essere totale.
Il mondo assicurativo si inserisce nella problematica per offrire strumenti di contenimento dei potenziali danni, solo dopo una accurata valutazione dei rischi a cui è esposta un’azienda, effettuata da esperti del settore.
Nonostante le difficoltà , i dati e le stime future dimostrano un grande interesse per la cyber insurance. Caratteristica interessante della Cyber Risk Policy di UnipolSai è la gestione dei sinistri strutturata secondo fasi definite, per garantire l’intervento tempestivo, in grado di limitare le perdite.
L’assicurazione, sensibilizzando i soggetti meno consapevoli, proponendo una attenta valutazione delle minacce e assistendo le aziende nella gestione degli incidenti, assume un ruolo chiave nel quadro del contenimento dei danni.
Se le compagnie assicurative sapranno far fronte alle mutevoli necessità , che quotidianamente si manifestano, promuoveranno significativamente il loro sviluppo.
Riccardo Spolaor (Università degli Studi di Padova)
"Security and Privacy Threats on Mobile Devices through Side-Channels Analysis"
(Relatore: Mauro Conti).
In recent years, mobile devices (such as smartphones and tablets) have become essential tools in everyday life for billions of people all around the world. Users continuously carry such devices with them and use them for daily communication activities and social network interactions. Hence, such devices contain a huge amount of private and sensitive information. For this reason, mobile devices become popular targets of attacks. In most attack settings, the adversary aims to take local or remote control of a device to access user sensitive information. However, such violations are not easy to carry out since they need to leverage a vulnerability of the system or a careless user (i.e., install a malware app from an unreliable source). A different approach that does not have these shortcomings is the side-channel analysis. In fact, side-channels are a physical phenomenon that can be measured from both inside or outside a device. They are mostly due to the user interaction with a mobile device, but also to the context in which the device is used, hence they can reveal sensitive user information such as identity and habits, environment, and the operating system itself. Hence, this approach consists of inferring private information that is leaked by a mobile device through a side-channel. Besides, side-channel information is also extremely valuable to enforce security mechanisms such as user authentication, intrusion and information leaks detection.
This dissertation investigates novel security and privacy challenges on the analysis of side-channels of mobile devices.
This thesis is composed of three parts, each focused on a different side-channel:
(i) the usage of network traffic analysis to infer user private information;
(ii) the energy consumption of mobile devices during battery recharge as a way to identify a user and as a covert channel to exfiltrate data; and
(iii) the possible security application of data collected from built-in sensors in mobile devices to authenticate the user and to evade sandbox detection by malware.
In the first part of this dissertation, we consider an adversary who is able to eavesdrop the network traffic of the device on the network side (e.g., controlling a WiFi access point). The fact that the network traffic is often encrypted makes the attack even more challenging. Our work proves that it is possible to leverage machine learning techniques to identify user activity and apps installed on mobile devices analyzing the encrypted network traffic they produce. Such insights are becoming a very attractive data gathering technique for adversaries, network administrators, investigators, and marketing agencies.
In the second part of this thesis, we investigate the analysis of electric energy consumption. In this case, an adversary is able to measure with a power monitor the amount of energy supplied to a mobile device. In fact, we observed that the usage of mobile device resources (e.g., CPU, network capabilities) directly impacts the amount of energy retrieved from the supplier, i.e., USB port for smartphones, wall-socket for laptops. Leveraging energy traces, we are able to recognize a specific laptop user among a group and detect intruders (i.e., a user not belonging to the group). Moreover, we show the feasibility of a covert channel to exfiltrate user data which relies on temporized energy consumption bursts.
In the last part of this dissertation, we present a side-channel that can be measured within the mobile device itself. Such channel consists of data collected from the sensors a mobile device is equipped with (e.g., accelerometer, gyroscope). First, we present DELTA, a novel tool that collects data from such sensors, and logs user and operating system events. Then, we develop MIRAGE, a framework that relies on sensors data to enhance sandboxes against malware analysis evasion.
Link esterno alla tesi: http://paduaresearch.cab.unipd.it/10600/1/tesi_Riccardo_Spolaor_final.pdf
Link esterno al gruppo di ricerca: https://spritz.math.unipd.it/
BACHECA TESI EDIZIONI PASSATE
Edizione 2022
Edizione 2022
Edizione 2021
Edizione 2020
Edizione 2019
Edizione 2018
Edizione 2017
Edizione 2016
Edizione 2015
Edizione 2014
Edizione 2013
Edizione 2012
Edizione 2011
Edizione 2010
Edizione 2009
Edizione 2008
Edizione 2007
Il Premio Tesi è realizzato in collaborazione e con il sostegno di: