BACHECA TESI
Edizione 2007
Marco Caimi (DEI/Politecnico di Milano)
"Un sistema per la manipolazione dei flussi di rete in userspace"
Marco Caimi (DEI/Politecnico di Milano)
"Un sistema per la manipolazione dei flussi di rete in userspace"
(Relatore: Ing. Stefano Zanero).
In questo documento viene trattato un sistema che segue un approccio ibrido al monitoraggio di rete.
In anni recenti, il moltiplicarsi di protocolli e applicativi, e l'inesorabile aumento dell'ampiezza di banda delle connessioni ha reso più difficile il lavori delgi addetti alla sicurezza dei sistemi. La rete ha perso coesione, la stragrande maggioranza degli applicativi opera su protocolli non standard e molto spesso scevri di qualsiasi misura di sicurezza delle informazioni.
E' chiaro che ormai un semplice firewall a difesa di una rete non è più sufficiente, così come uno sniffer è di poca utilità oggigiorno, a causa del suo approccio tipicamente passivo al controllo.
In questo documento viene presentata una soluzione userspace a questo problema, introducendo un sistema di controllo attivo/passivo che permette di analizzare i flussi di rete e di modificarli on-the-fly a seconda delle esigenze degli amministratori di sistema.
L'applicativo descritto offre la massima espandibilità grazie ad un design modulare in ongi sua parte ed un certo grado di "protocol independence" in quanto lavora subito sopra il kernel di Linux.
Valeria Carretto (Università degli Studi di Torino, Dipartimento di Informatica)
"Sviluppo di un applicativo per l'analisi biometrica di messaggi elettronici"
Valeria Carretto (Università degli Studi di Torino, Dipartimento di Informatica)
"Sviluppo di un applicativo per l'analisi biometrica di messaggi elettronici"
(Relatore: Daniele Gunetti).
Questa dissertazione si inquadra nell’ambito della biometria: illustra l'uso di
sistemi biometrici al fine della sicurezza informatica. In particolare, si occupa
dello studio di un nuovo tipo di misura biometrica comportamentale: l’analisi
dei messaggi elettronici, con l’obiettivo di poter identificarne gli autori.
Attraverso Internet è possibile per chiunque divulgare messaggi senza l'attestazione
dell'identità dell'utente; l'anonimato crea notevoli difficoltà nell'identificazione
degli autori dei messaggi elettronici e rappresenta uno dei
punti critici delle indagini investigative contro i crimini perpetrati attraverso
la rete. Sebbene per questo tipo di reati non sia possibile rintracciare indizi
fisiologici, è possibile trovare un particolare tipo di impronte: le impronte di
scrittura, dette writeprints. Le writeprints sono un insieme di caratteristiche
in grado di rappresentare lo stile di scrittura di un individuo e che possono
permetterne l’identificazione.
Durante lo stage è stato progettato e realizzato il prototipo Text Analyzer
1.0, un applicativo sviluppato per studiare alcune tra le differenze strutturali,
lessicali, sintattiche degli elaborati elettronici. L'applicativo può confrontare
due messaggi sulla base dell'insieme di caratteristiche dello stile di scrittura
selezionate dall'utente e calcolare il livello di somiglianza tra i due testi.
Il livello di similitudine tra due campioni viene definito distanza: gli algoritmi
di calcolo della distanza sono stati definiti in fase di progettazione e
implementati dal software.
Il progetto è attualmente in fase di sperimentazione. I risultati calcolati
da Text Analyzer verranno testati e attraverso gli esperimenti si arriverà a
definire nuovi algoritmi di calcolo della distanza tra due campioni e introdurre
nuove caratteristiche dello stile di scrittura che rappresentano le writeprints.
Paolo Cencioni (Dipartimento di Informatica / Università "Sapienza")
"Definizione, analisi ed implementazione di protocolli per l'anonimato in reti veicolari"
Paolo Cencioni (Dipartimento di Informatica / Università "Sapienza")
"Definizione, analisi ed implementazione di protocolli per l'anonimato in reti veicolari"
(Relatore: Roberto Di Pietro).
La diffusione delle reti veicolari nel mercato automobilistico coinvolgerà, nei prossimi anni, milioni di automobili in tutto il mondo, rendendo tali reti tra le più diffuse ed importanti reti mobili ad-hoc. Affinché la società accetti la diffusione di tali reti e non veda in loro una minaccia per la sua privacy è fondamentale che l’anonimato dei veicoli (e dei loro proprietari) sia protetto durante le comunicazioni.
La tesi ha avuto lo scopo di studiare lo stato dell’arte per quanto riguarda l’anonimato su Internet e nelle VANET, e di definire, progettare e valutare il funzionamento di un protocollo per la protezione dell’anonimato nelle reti veicolari. Tale protocollo è stato denominato VIPER (Vehicle-to-Infrastructure Privacy Enhancement pRotocol), ed utilizza alcune tecniche crittografiche che lo rendono resistente ai più comuni attacchi contro l’anonimato. Grazie ad una campagna di simulazioni, il protocollo è stato testato avere delle buone prestazioni per quanto riguarda il riempimento delle code dei veicoli, il tempo di consegna dei messaggi e la frazione dei messaggi che vengono scartati a causa della totale occupazione delle code.
andrea cirulli (Sapienza)
"Protocolli efficienti per la sicurezza di comunicazioni multicast"
andrea cirulli (Sapienza)
"Protocolli efficienti per la sicurezza di comunicazioni multicast"
(Relatore: Roberto Di Pietro).
Il presente lavoro di tesi, presenta in prima istanza uno studio completo concernente lo stato dell'arte dei protocolli di autenticazione nelle comunicazioni multicast. Da questa prima fase di analisi è stato individuato un protocollo esistente in letteratura, sul quale è stato fornito un attacco di tipo teorico. I risultati teorici sono stati confermati dai risultati sperimentali. Sulla base di questo attacco è stato ridefinito un nuovo protocollo che è stato dimostrato probabilisticamente sicuro. Tale protocollo prende il nome di SynPARM, e adempisce a tutti i requisiti necessari in protocolli di sicurezza per le comunicazioni multicast. In ultima istanza, questo lavoro di tesi presenta un nuovo schema di firma digitale basato sulla computazione di radici quadrate in un'aritmetica modulare. Tale schema, che prende il nome di SSQ, risulta più efficiente dell'impiego standard delle radici modulari in schemi di firma digitale. Inoltre, SSQ presenta una nuova caratteristica è indipendente computazionalmente dalla funzione hash impiegata. Quest'ultima proprietà è di fondamentale importanza considerando l'evoluzione dell'impiego delle funzioni hash negli schemi crittografici.
Giorgio Davanzo (DEEI - Università degli Studi di Trieste)
"Valutazione di algoritmy di anomaly detection per la rilevazione automatica delle intruzioni in siti web"
Giorgio Davanzo (DEEI - Università degli Studi di Trieste)
"Valutazione di algoritmy di anomaly detection per la rilevazione automatica delle intruzioni in siti web"
(Relatore: Prof. Alberto Bartoli).
Il defacement dei siti web è ormai un fenomeno comune, paragonabile come diffusione e criticità a phishing, worms, denial of service e similari, contando nel solo 2005 ben 480.000 attacchi.
Lo scopo di questo studio è verificare la possibilità di applicare dei generici algoritmi di anomaly detection ad uno strumento che sia in grado di rilevare automaticamente i defacement; i risultati ottenuti sono stati incoraggianti: nei test tutti gli attacchi vengono rilevati e il tasso dei falsi positivi si attesta al di sotto dello 1%.
Allo stesso tempo è stata condotta un'analisi atta a valutare le reazioni prese in seguito ad un attacco, statistica finora mancante in letteratura; si è quindi proceduto a monitorare circa 42.000 siti attaccati, misurandone il tempo di guarigione.
stefano de crescenzo (Dipartimento di elettronica ed informazione - Politecnico di Milano /ENST Paris/ COM Technical University od Denmark)
"Performance Analysis of a Quantum Key Distribution Network"
stefano de crescenzo (Dipartimento di elettronica ed informazione - Politecnico di Milano /ENST Paris/ COM Technical University od Denmark)
"Performance Analysis of a Quantum Key Distribution Network"
(Relatore: Maurizio Decina).
Quantum Key Distribution is an alternative key distribution technique that, unlike
the classical approaches, can provide unconditionally secure keys for data communi-
cations. Although the basic system is mainly limited by the distance, different QKD
systems can be arranged together to form a QKD network. The SEcure COmmu-
nications based on Quantum Cryptography (SECOQC) project aims at providing
a full infrastructure based on quantum cryptography services. The SECOQC NET
subgroup is in charge of proposing the architecture and the new protocols stack
for the SECOQC QKD network. This network, also called "network of secrets",
can be used to deliver a small secret, e.g. a session key, to an arbitrary distant
point, keeping it unconditionally secure. The secret is forwarded by encrypting it
in hop-by-hop fashion with dierent local keys produced by QKD techniques and
stored in classical memory called key store. Thus, like the link capacity in classical
network, the availability of local keys constitutes the network scarce resource. The
objective is here to use as eciently as possible the available keys to answer to the
session keys traffic requests.
In this thesis I studied and simulated the behavior of network layer protocols
proposed for the SECOQCC QKD network. Firstly, a simulation environment for
the QKD network has been implemented by the use of OPNET software. The
main QKD network components have been modeled with particular regard to their
network layer functionalities. Secondly, the possibility to enhance the performance
of the proposed routing protocol, namely OSPFv2, with respect to a better use
of the key materials, has been discussed. This can be done by adapting classical
techniques to the QKD network context. The impact of the routing protocol on the
consumption of key material is measured. Two aspects have been considered: the
impact of the routing decision and the impact of the routing signalling overhead.
Different routing schemes have been tested and the results have shown that, by
properly setting the OSPF weights it is possible to improve the network performance
with respect to the availability of local keys. In the best case the gap to the optimal
solution is halved when compared to other methods for the weights setting. As
far as the signalling overhead impact is concerned, the results have shown that, in
standard cases, it can be estimated and mainly depend on the value of an internal
OSPF timer, namely the hello timer. By properly tuning this timer is possible to
control the impact of the signalling overhead.
Tommaso De Marchi (Università degli studi di Milano-Dipartimento di tecnologie dell'informazione)
"Realizzazione di uno strumento di analisi del traffico IP conforme con il D.Lgs. 196/2003: Prestazioni ed Aggregazione"
Tommaso De Marchi (Università degli studi di Milano-Dipartimento di tecnologie dell'informazione)
"Realizzazione di uno strumento di analisi del traffico IP conforme con il D.Lgs. 196/2003: Prestazioni ed Aggregazione"
(Relatore: Pierangela Samarati).
Al giorno d’oggi un’azienda che vuole sapere come lavora la sua rete dal punto di vista del traffico Ethernet, delle prestazioni e scoprire eventuali anomalie, può affidarsi ad uno strumento di natura hardware o software chiamato sniffer.
Un comune sniffer analizza però l'intero traffico che risulta essere una violazione del decreto legge 196/200 che tratta in materia di protezione dei dati personali.
Lo scopo di questo progetto è dunque la creazione di uno strumento che analizzi la rete senza però reperire dati sensibili dell’utente.
Tale scopo è stato raggiunto innanzitutto non trattando il contenuto dei pacchetti in transito, a solo i loro header.
Anche gli header sono però stati trattati in modo particolare, di modo da non permettere all'utente finale nessuna associazione in grado di risalire a nessun tipo di informazione considerata personale, come orientamento sessuale o credo religioso.
Il secondo scopo di tale progetto è inoltre di garantire a tale software alte prestazioni, cioè la possibilità di resistere a grandi moli di traffico, e di dotarlo di capacità di aggregazione dei dati, cioè la possibilità di catturare traffico da più interfacce in contemporanea.
Per far ciò è stata messa a punto l'architettura del programma, dotandolo di un buffer a livello kernel per ogni interfaccia utilizzata e di uno generale a livello utente.
Per garantire una maggiore scalabilità delle sue funzioni sono stati inoltre introdotti alcuni thread in grado di eseguire le operazioni più onerose ed importanti, per non appesantire le zone critiche del software.
Per arrivare a tale soluzione sono stati eseguiti numerosi tentativi valutando per ognuno di essi i punti critici e le eventuali migliorie apportate rispetto alle precedenti versioni, adattando di volta in volta le caratteristiche peculiari del programma.
Di esempio può essere il lavoro svolto per la parte grafica: essa grava notevolmente sul processore, e per risolvere tale situazioni sono state apportate numerose modifiche per far si che la grafica non sia aggiornata in real-time ma solamente ogni alcuni secondi, impostabili dall'utente
Tutti questi miglioramenti a livello di architettura hanno permesso un incremento considerevole delle prestazioni, sempre però continuando ad usare librerie ed unit liberamente scaricabili sul web.
Il software difatti inizialmente era in grado di intercettare traffico da una sola interfaccia e a fatica arrivava a supportare 90Kbps, allo stato attuale delle cose cattura traffico da due interfacce in contemporanea e la capacità di traffico supportata è duplicata.
In conclusione grazie a questo progetto è stato creato uno sniffer in grado di garantire discrete prestazioni e che possa essere usato nelle aziende italiane senza andare contro le attuali leggi vigenti.
Sembra inoltre essere l'unico software di questo tipo appositamente ideato per essere conforme alle leggi italiane.
Sergio Decherchi (DIBE, Università degli studi di Genova)
"Teoria dei numeri e aspetti analitici nella fattorizzazione di numeri grandi"
Link esterno al gruppo di ricerca: http://www.sealab.dibe.unige.it
Sergio Decherchi (DIBE, Università degli studi di Genova)
"Teoria dei numeri e aspetti analitici nella fattorizzazione di numeri grandi"
(Relatore: Prof. Rodolfo Zunino).
La scienza della sicurezza informatica individua fondamentalmente due modi per violare un sistema crittografico di protezione delle informazioni: gli attacchi ai protocolli usano metodi indiretti e sfruttano debolezze dell’utilizzatore, sia questi umano od automatico, degli algoritmi cittografici; gli attacchi diretti si basano invece su considerazioni teorico-matematiche e quindi computazionali.
La Tesi si pone nel quadro di quest’ultima metodologia e utilizza gli strumenti matematici della teoria dei numeri; l'algoritmo crittografico in esame è il Rivest-Shamir-Adleman (RSA), la cui sicurezza si basa sulla difficoltà di fattorizzare grandi numeri. Questo algoritmo è ben noto e rappresenta uno standard di fatto nella cifratura delle informaizni a livello economico (e-commerce) e istituzionale (firma digitale).
Lo specifico lavoro esposto nella Tesi esplora, analizza e realizza in software due metodi: il cosiddetto “Pollard Rho” ed il Crivello Quadratico (Quadratic Sieve) nelle sue varianti. Nella sezione conclusiva è anche discusso il Crivello di Campo Generale (General Number Field Sieve), che sfrutta il settore altamente specialistico della teoria algebrica dei numeri. Questi tre approcci costituiscono lo stato dell'arte su ciò che è pubblicamente noto nell'attaccare il problema della fattorizzazione di grandi numeri. L'interesse di ricerca su questi algoritmi risiede nel fatto che, pur essendo i migliori disponibili, sono al più di complessità sub-esponenziale e comunque non polinomiale, e quindi molto impegnativi dal punto di vista computazionale.
La Tesi illustra alcuni risultati teorici nati dall'analisi di RSA e degli algoritmi di fattorizzazione. Uno di questi risultati apre peraltro diversi scenari di studio crittanalitco, a tutt’oggi inesplorati in letteratura. La Tesi imposta infatti un sistema dinamico non lineare a tempo discreto perfettamente equivalente ad RSA, di cui propone anche una prima analisi. Il sistema definisce una mappa che di fatto è una versione della mappa di Bernoulli ma più generale di quest’ultima in quanto definita sul campo degli interi. Questo metodo di analisi apre interessanti prospettive crittanalitche, le cui conseguenze potrebbero portare ad una nuova visione della crittanalisi di RSA rispetto all’attacco diretto tramite fattorizzazione.
Link esterno al gruppo di ricerca: http://www.sealab.dibe.unige.it
Chiara Galfrè (Facoltà di ingegneria dell'Informazione, Corso di Laurea in Ingegneria delle Telecomunicazioni - Politecnico di Milano)
"PROTOCOLLI PER LA SICUREZZA DEL VoIP - Stato dell'arte e scenari futuri"
Chiara Galfrè (Facoltà di ingegneria dell'Informazione, Corso di Laurea in Ingegneria delle Telecomunicazioni - Politecnico di Milano)
"PROTOCOLLI PER LA SICUREZZA DEL VoIP - Stato dell'arte e scenari futuri"
(Relatore: Giacomo Verticale).
La tesi si propone di analizzare gli attacchi e le misure di difesa che riguardano il VoIP e cerca
di trovare delle linee guida per installare reti sicure. Per far questo, non si occupa soltanto dei
protocolli di sicurezza già noti, ma anche di quelli creati da poco, che rappresentano una possibile
risorsa per migliorare la sicurezza della comunicazione via Internet.
Carmela Gambardella (Federico II)
"Upgrade di un firewall per la protezione di una intranet complessa"
Carmela Gambardella (Federico II)
"Upgrade di un firewall per la protezione di una intranet complessa"
(Relatore: A.Esposito - P. Bonatti).
Il presente lavoro si propone di presentare un esempio di configurazione di un firewall posto a protezione di una intranet complessa. In questa trattazione, ci si soffermerà sulle fasi che precedono la sostituzione fisica di un firewall preesistente con un nuovo firewall: si analizzeranno, perciò, le
politiche di sicurezza dell’ azienda e si insisterà sui fattori e sui rischi che vanno
considerati, prima di effettuare un’ operazione del genere all’ interno di una
intranet. Ci si soffermerà sulla pianificazione delle operazioni da
effettuare per raggiungere gli obiettivi che ci si prefigge e, talvolta, si farà
riferimento anche alle attività pratiche che scaturiscono da tali considerazioni,
fornendo, ove possibile, documentazione a supporto.
Giancarlo Goretti (Dipartimento di Ingegneria dell'Informazione / Università di Pisa)
"Sistemi VoIP: profili di sicurezza e impatto sulla qualità del servizio"
Link esterno al gruppo di ricerca: http://wwwtlc.iet.unipi.it/
Giancarlo Goretti (Dipartimento di Ingegneria dell'Informazione / Università di Pisa)
"Sistemi VoIP: profili di sicurezza e impatto sulla qualità del servizio"
(Relatore: Michele Pagano).
Nell’ambito del protocollo SIP le problematiche di sicurezza sono affrontate in maniera ancora vaga. Si fa riferimento ad una serie di protocolli di sicurezza già affermati in ambito Internet, sia per il piano di segnalazione (HTTP Digest, TLS, IPsec, S/MIME) che per il piano dati (SRTP), ma non se ne definisce l’uso in profili di sicurezza organici come è stato fatto nella definizione di H.323.
Obiettivo della mia tesi è la definizione di profili di sicurezza anche per SIP, che descrivano livelli di sicurezza incrementali. In corrispondenza ad ogni livello si sono elencati i protocolli di sicurezza adatti a fornire le funzioni richieste e le ricadute sulle Qualità del Servizio dovute all’introduzione di tali protocolli.
Per ottenere questo scopo si è partiti dalla strutturazione di una tassonomia generale degli attacchi al VoIP per poi effettuare un’analisi dettagliata della complessità computazionale e delle prestazioni dei protocolli di sicurezza esistenti. Inoltre è stato necessario svolgere prove sperimentali e attacchi simulati su un testbed di laboratorio sviluppato ad-hoc.
Link esterno al gruppo di ricerca: http://wwwtlc.iet.unipi.it/
Paolo Guarda (Dipartimento di Scienze Giuridiche - Università degli Studi di Trento)
"Privacy e misure tecniche di sicurezza. Un'analisi comparata"
Paolo Guarda (Dipartimento di Scienze Giuridiche - Università degli Studi di Trento)
"Privacy e misure tecniche di sicurezza. Un'analisi comparata"
(Relatore: Prof. Giovanni Pascuzzi).
La tesi ha come tema l'analisi comparata del rapporto tra le misure tecniche di sicurezza e la privacy. Il tema delle misure tecniche di sicurezza è di evidente attualità (basti pensare ai problemi relativi all’implementazione del documento programmatico della sicurezza e delle misure tecniche previste dal c.d. Codice della privacy emanato nel 2003). La tematica offre, poi, l’occasione per interessanti riflessioni relative alla modalità di formazione delle regole tecniche sempre meno caratterizzate da un processo di formazione di carattere democratico e sempre più opera di pochi esperti della materia, con un controllo politico e democratico che opera solo in via indiretta. L’approccio improntato al metodo comparatistico porterà ad analizzare la normativa italiana in tema di trattamento e protezione dei dati personali inquadrata nella cornice del diritto comunitario cercando di tratteggiare somiglianze e divergenze con la disciplina adottata nell’ordinamento statunitense e soprattutto con le diverse impostazioni dogmatiche sostenute dalle diverse correnti dottrinarie.
Alessandro Gubbioli (Dipartimento di Elettronica e Informazione - Politecnico di Milano)
"UN SIMULATORE DELLA DIFFUSIONE DI WORM IN UN AMBIENTE INFORMATICO"
Link esterno al gruppo di ricerca: http://www.esat.terre.defense.gouv.fr/
Alessandro Gubbioli (Dipartimento di Elettronica e Informazione - Politecnico di Milano)
"UN SIMULATORE DELLA DIFFUSIONE DI WORM IN UN AMBIENTE INFORMATICO"
(Relatore: prof. Giuseppe Serazzi).
Gli attacchi alle reti informatiche sono divenuti, recentemente, più articolati
e specializzati. Questo genere di minacce costituiscono un grosso rischio per
le aziende come per i privati, dati gli ingenti danni economici che possono
causare.
Nel presente lavoro di tesi viene a
Link esterno al gruppo di ricerca: http://www.esat.terre.defense.gouv.fr/
Matteo Ignaccolo (Politecnico di Milano)
"Fusione e correlazione di allarmi di tipo misuse e anomaly."
Matteo Ignaccolo (Politecnico di Milano)
"Fusione e correlazione di allarmi di tipo misuse e anomaly."
(Relatore: Stefano Zanero).
In una rete informatica generalmente sono presenti diversi sistemi in grado di rilevare tracce evidenti di intrusione. Gestire manualmente gli allarmi prodotti da questi sistemi non è un’operazione semplice e sempre possibile, si rendono necessari dei framework e delle metriche in grado di analizzare tali allarmi, ridurne il numero e trovare delle relazioni tra essi. Tale filone di ricerca in letteratura è noto con il nome di Alert Correlation. La tesi analizza lo stato dell’arte e propone delle condizioni di fusione e delle metriche di correlazione in grado di lavorare con allarmi generati da IDS di tipo “misuse” e “anomaly”. Per valutare tali condizioni e metriche è stato realizzato un prototipo di sistema di Alert Correlation. Le valutazioni sono state effettuate utilizzando il dataset IDEVAL 2000. Si è resa necessaria anche una fase di analisi del dataset, poiché poco documentato e analizzato a differenza della precedente versione.
Davide Leoncini (Dipartimento di Ingegneria Biofisica ed Elettronica (DIBE) Università degli Studi di Genova)
"Tecniche di Apprendimento Induttivo per Intrusion Detection System"
(Relatore: Chiar.mo Prof. Ing. Sandro Ridella, Chiar.mo Prof. Ing. Rodolfo Zunino).
La sicurezza delle reti di calcolatori è un tema di fondamentale importanza nell'attuale scenario della Information Technology. Infatti lo sviluppo pervasivo delle reti e la versatilità dei dispositivi ad esse interconnessi determina un continuo aumento del volume e del valore delle informazioni scambiate. Nasce pertanto la necessità di controllare in modo efficace, accurato ed automatico suddetto traffico, soprattutto quando sia impossibile una supervisione umana diretta.
I sistemi di Intrusion Detection rappresentano un efficace strumento di controllo del traffico di rete, essendo in grado di rilevare e segnalare anomalie nel flusso di dati. Nell'attuale scenario tecnologico tali anomalie sono specificate tramite regole (o firme); anomalie non rappresentate o rappresentabili tramite regole non vengono rilevate.
Per ovviare a tale problema la ricerca si è orientata verso lo studio di sistemi di Intrusion Detection basati su metodologie intelligenti per una rilevazione adattiva delle anomalie: in tali metodologie si modella il comportamento normale del traffico e si rileva come anomalo un comportamento che si discosta da quello modellato.
La Tesi presenta una metodologia basata su tecniche di clustering non supervisionato per il rilevamento di traffico anomalo in reti di grandi dimensioni. Dal punto di vista scientifico la novità introdotta da questa Tesi risiede nell'utilizzo dell'algoritmo ‘Plastic Neural Gas’ per realizzare il processo di quantizzazione vettoriale. I vantaggi di tale algoritmo sono duplici: da un lato esso garantisce una efficiente rappresentazione dello spazio dei dati e dall'altro determina automaticamente il numero di neuroni necessari a suddividerlo.
Le tecniche sviluppate sono valutate sperimentalmente utilizzando come dataset KDD1999, un benchmark riconosciuto nel settore della ricerca sulla sicurezza delle reti.
I risultati ottenuti dimostrano l'efficacia dell'approccio proposto: infatti le prestazioni dello IDS così realizzato sul dataset KDD1999 superano quelle di ogni altro sistema basato su tecniche non supervisionate.
Ciò dimostra che approcci basati su clustering non supervisionato possono portare ad una notevole flessibilità ed accuratezza nella classificazione di traffico di rete, anche quando la distribuzione del traffico stesso, in fase di esercizio, muta dalla situazione originale a causa di nuovi schemi di attacco.
Link esterno alla tesi: http://www.elettronica.ingegneria.unige.it/CdS/Dati/TesiS/T2670142.PDF
Link esterno al gruppo di ricerca: http://www.sealab.dibe.unige.it/
Luca Longo (Università Insubria Varese - Dicom & TCD)
"Security Through Collaboration in Global Computing: a Computational Trust Model Based on Temporal Factors to Evaluate Trustworthiness of Virtual Identities"
Luca Longo (Università Insubria Varese - Dicom & TCD)
"Security Through Collaboration in Global Computing: a Computational Trust Model Based on Temporal Factors to Evaluate Trustworthiness of Virtual Identities"
(Relatore: Prof. Marco Benini).
Computer Science is moving from the paradigm of isolated machines to that of networks and distributed computing. Similarly, Artificial Intelligence is quickly moving from the paradigm of isolated intelligence to that of situated,
social and collective intelligence. This evolution has several implications in the security models, policies and mechanisms needed to protect users' information and resources.
Computational Trust started more than a decade ago when S. Marsh formalised Trust as a computational concept. His formalism can be embedded in an artificial agent enabling the agent to make trust-based decisions. Computational Trust wants to apply the human notion of trust into the digital world, that is seen as malicious rather than cooperative. The expected benefits, according to Marsh et al., result in an exploitation of others' ability through delegation and in an achievement of more cooperation in an open and less protected environment. The scientific research in the area of computational mechanism for trust and reputation in virtual societies is oriented to increase the reliability and performance of electronic communities. This thesis wants to investigate a set of rarely considered trust evidences, defining a proper Trust model for collecting these evidences and computing a Trust value over them. Furthermore, it is explained how temporal factors, that is, factors computed by considering the time-distribution of interactions, can be used as an evidence of an entity's trustworthiness.
The problem of identifying trustworthy information on the World Wide Web is becoming increasingly acute as new tools like wikis and blogs simplify and democratise publications. Wikipedia is the prominent example of this phenomenon and, although a few mechanism have been adopted to improve the quality of contributions, trust in the quality of Wikipedia's contents has been seriously questioned. This is why the Wikipedia context has been chosen as the environment to evaluate the temporal model presented in this thesis. After defining the formal model and the main temporal factors - activity, presence, regularity, frequency - an evaluation has been performed
over the Wikipedia project, considering more than 12,000 users and 94,000 articles. The encouraging results show how plausible trust decisions can be reached solely by temporal factors. In this scenario, it has been tested if temporal factors could help us to identify reliable and trustworthy virtual authors and articles, on the basis of their editing activity over time.
Luca Mayer (DICO Università degli studi)
"Analisi e studio di modelli per il rilevamento delle intrusioni di worm polimorfici"
Link esterno alla tesi: http://www.mayeronline.it
Luca Mayer (DICO Università degli studi)
"Analisi e studio di modelli per il rilevamento delle intrusioni di worm polimorfici"
(Relatore: Dott. Mattia MONGA).
Lo scopo di questo lavoro di tesi è lo studio di alcuni dei modelli di generazione automatica delle signature per worm polimorfici disponibili oggi e basati sull'analisi del traffico in transito in una rete, al fine di valutarne l'efficacia, l'efficienza e la resistenza alle tecniche che i worm possono implementare nel tentativo di evadere tali sistemi. Sulla base degli studi condotti e delle debolezze individuate nei sistemi analizzati, proporre poi un nuovo modello in grado di migliorare alcuni aspetti di quelli esistenti.
La fase di analisi è stata incentrata in particolare su Hamsa, il sistema per la generazione automatica di signature che al momento rappresenta lo stato dell'arte.
Per poter verificare le considerazioni fatte e testare nella pratica il modello, è stato realizzato WINDS, un prototipo che implementa Hamsa e nel quale sono state introdotte alcune delle migliorie che potrebbero essere applicate al sistema originale.
Lo stesso prototipo è stato poi utilizzato per verificare l'effettiva vulnerabilità di Hamsa nei confronti di un nuovo attacco, individuato durante lo studio degli algoritmi eseguiti dal generatore nella fase di creazione delle signature, che mira a rendere inefficaci le signature prodotte dal sistema.
Come introdotto poco sopra, la fase di studio e implementazione di Hamsa è stata seguita dalla stesura di un nuovo modello. Gli obiettivi principali che si volevano raggiungere con il nuovo generatore riguardavano principalmente una maggiore resistenza agli attacchi e una più elevata velocità di generazione delle signature. Per aumentare la robustezza del sistema, l'approccio utilizzato e stato quello di rendere minimo l'insieme delle assunzioni, riguardanti il comportamento mantenuto dall'attaccante, sulle quali basare il generatore.
Anche in questo caso, per verificare nella pratica la bontà della nuova proposta, la fase di progettazione è stata seguita da un'attività di implementazione, mediante la quale il nuovo modello è stato integrato nell'infrastruttura di WINDS.
I test eseguiti sul prototipo hanno provato che, al contrario di Hamsa, il nuovo modello è in grado di generare signature efficaci anche in presenza di un insieme di attacchi più ampio rispetto a quanto tollerato dal primo, che si è anche dimostrato effettivamente vulnerabile nei confronti del nuovo attacco individuato. Inoltre, anche sul piano dell'efficienza, l'implementazione del nuovo modello si è rivelata più veloce della rispettiva di Hamsa e, in particolare, si è dimostrata meno sensibile all'aumento della quantità di traffico di rete considerato dal sistema durante lo svolgimento delle fasi necessarie alla generazione delle signature.
Link esterno alla tesi: http://www.mayeronline.it
Mario Mazzolini (Facoltà di Ingegneria dell'Informazione Corso di Laurea in Ingegneria delle Telecomunicazioni)
"PROTOCOLLI PER LA SICUREZZA DEL VoIP:stato dell'arte e scenari futuri."
Mario Mazzolini (Facoltà di Ingegneria dell'Informazione Corso di Laurea in Ingegneria delle Telecomunicazioni)
"PROTOCOLLI PER LA SICUREZZA DEL VoIP:stato dell'arte e scenari futuri."
(Relatore: Giacomo Verticale).
La tesi si occupa degli attacchi e delle misure di difesa che riguardano il VOIP e cerca di trovare delle linee guida per installare reti sicure. Per far questo, non si occupa soltanto dei protocolli di sicurezza già noti, ma anche di quelli creati da poco, che rappresentano una possibile risorsa per migliorare la sicurezza della comunicazione via Internet.
Andrea Modica (Dipartimento di Informatica, Università degli Studi di Torino)
"Web Service Security: Applicazione di soluzioni proprietarie e approcci Open Source"
Andrea Modica (Dipartimento di Informatica, Università degli Studi di Torino)
"Web Service Security: Applicazione di soluzioni proprietarie e approcci Open Source"
(Relatore: Prof.ssa Giovanna Petrone).
La tesi, frutto della collaborazione con l’azienda Blue Reply S.r.l. , prevede un progetto finalizzato all’applicazione di approcci di sicurezza legati al mondo Web Service.
Lo scopo è quello di comparare il prodotto IBM Tivoli Access Manager con l’utilizzo delle specifiche WS-Security.
Le due tecnologie seppur sostanzialmente differenti contribuiscono entrambe a garantire affidabilità alla comunicazione basata su messaggi SOAP.
TAM rappresenta la soluzione WAM (Web Access Management) per il controllo di accesso alle risorse di tipo Web (Web Service, JSP ,Servlet, pagine HTML...).
Il concetto alla base dello strumento TAM è quello dell’utilizzo delle policy, che vengono assegnate a gruppi, singole persone o risorse.
Uno dei vantaggi di TAM è la possibilità di supportare molteplici metodi di autenticazione tra cui metodi di Strong Authentication.
L’altro approccio analizzato è quello che si avvale delle specifiche WS-Security le quali, al fine di garantire autenticazione, riservatezza e integrità di un messaggio SOAP, spiegano come utilizzare gli strumenti opportuni: token di sicurezza, XML Signature e XML Encryption .
valentino pacifici (Ingegneria dell'informazione - Politecnico di Milano)
"Uno strumento per il fuzzing dei Web Services"
valentino pacifici (Ingegneria dell'informazione - Politecnico di Milano)
"Uno strumento per il fuzzing dei Web Services"
(Relatore: Stefano Zanero).
L'elaborato si propone di fornire uno strumento valido e di semplice utilizzo per il testing dei Web Service. Attraverso la manipolazione dei parametri richiesti in ingresso dalle funzioni implementate dal servizio, si è cercato di simulare diversi tipi di attacco,così da consentire agli sviluppatori di tali web applications un approccio diretto al problema che permetta di individuare ed eliminare eventuali debolezze in fase di pre-testing. L'applicativo è fornito di tutto il necessario per interrogare il servizio web partendo dal documento WSDL. Guida l'utente nell'enumerazione e nella scelta delle funzioni fornite dal servizio. Il programma, implementato dopo una fase di documentazione dettagliata sulle più o meno diffuse vulnerabilità dei Web Services, è inoltre in grado di rilevare in modo automatico l'efficacia degli attacchi lanciati, permettendo di eseguire quindi un'intera analisi preliminare completamente automatica.
Roberto Paleari (Università degli Studi di Milano, Dipartimento di Informatica e Comunicazione)
"Analisi dinamica di codice binario"
(Relatore: Mattia Monga).
Il lavoro di tesi consiste nello studio delle principali tecniche di program analysis e della loro applicabilità al codice binario. In particolare, è stata progettata un'infrastruttura per l'analisi di codice binario allo scopo di individuare in modo completamente automatico le vulnerabilità presenti in un'applicazione software.
Il metodo di analisi proposto dal lavoro di tesi prende il nome di "smart fuzzing", in quando costituisce un'evoluzione del fuzz testing tradizionale. Le normali tecniche fuzzy agiscono eseguendo il programma in esame su input casuali, interpretando il verificarsi di situazioni anomale come sintomo della presenza di un difetto nell'applicazione. Il programma è analizzato "a scatola chiusa", senza alcuna informazione circa il suo comportamento interno. Un approccio di questo tipo consente di individuare un numero sorprendente di difetti, ma nulla può nei confronti di problematiche la cui manifestazione dipende dal verificarsi di una rete di condizioni sui dati di input. Il metodo "smart fuzzing" prevede invece di utilizzare tecniche di program analysis per dedurre alcune informazioni circa il comportamento dell'applicazione. In questo modo è possibile generare un insieme di input in grado di condurre il flusso di esecuzione verso stati potenzialmente pericolosi, in cui è più probabile che una vulnerabilità si manifesti.
Link esterno alla tesi: http://security.dico.unimi.it/~roberto/stuff/thesis.pdf
Link esterno al gruppo di ricerca: http://security.dico.unimi.it
stefano paniga (Ingegneria dell'informazione - Politecnico di Milano)
"Uno strumento per il fuzzing dei Web Services"
stefano paniga (Ingegneria dell'informazione - Politecnico di Milano)
"Uno strumento per il fuzzing dei Web Services"
(Relatore: Stefano Zanero).
L'elaborato si propone di fornire uno strumento valido e di semplice utilizzo per il testing dei Web Service. Attraverso la manipolazione dei parametri richiesti in ingresso dalle funzioni implementate dal servizio, si è cercato di simulare diversi tipi di attacco,così da consentire agli sviluppatori di tali web applications un approccio diretto al problema che permetta di individuare ed eliminare eventuali debolezze in fase di pre-testing. L'applicativo è fornito di tutto il necessario per interrogare il servizio web partendo dal documento WSDL. Guida l'utente nell'enumerazione e nella scelta delle funzioni fornite dal servizio. Il programma, implementato dopo una fase di documentazione dettagliata sulle più o meno diffuse vulnerabilità dei Web Services, è inoltre in grado di rilevare in modo automatico l'efficacia degli attacchi lanciati, permettendo di eseguire quindi un'intera analisi preliminare completamente automatica.
Andrea Ratto (Dipartimento di Informatica, Facoltà di Scienze M.F.N)
"Sicurezza intranet e auditing per aziende ad alto rischio operativo"
Andrea Ratto (Dipartimento di Informatica, Facoltà di Scienze M.F.N)
"Sicurezza intranet e auditing per aziende ad alto rischio operativo"
(Relatore: Francesco Bergadano).
Il rischio operativo è legato a possibili conseguenze negative che un'impresa può subire nello svolgimento della sua attività ordinaria, derivanti da eventi come fughe di informazioni, frodi, malfunzionamenti, danneggiamenti o sabotaggi di infrastrutture ed altri.
In molti casi il sistema informatico, per via delle sue funzioni di comunicazione, controllo computerizzato di apparecchiature e soprattutto di supporto al sistema informativo aziendale, è dove si concentra gran parte di tale rischio. In ambienti in cui esso è particolarmente rilevante si hanno situazioni definibili “ad alto rischio operativo”, caratterizzate da un'esigenza di sicurezza informatica molto forte.
Minacce di diversi tipi interessano il sistema informatico di un'organizzazione, sia dall'esterno che dall'interno della rete aziendale, che può utilizzare degli standard internazionali ed altri “framework” per realizzare un sistema di gestione della sicurezza informatica efficiente e conforme alla legislazione.
L'aspetto interno della sicurezza è stato tuttavia relativamente ignorato e solo negli ultimi tempi ci si comincia a rendere conto di come esso costituisca un fronte altrettanto importante nella difesa dei sistemi. I dati che emergono da alcune ricerche individuano come provenienti dall'interno della rete la metà degli attacchi informatici. Risulta che le imprese stanno spendendo poco per difendersi da minacce di questo tipo, sebbene ne stiano già subendo dannose conseguenze.
La consapevolezza di questo fenomeno si sta diffondendo e nei prossimi anni è verosimile aspettarsi una maggiore attenzione alla sicurezza intranet, sia con maggiori investimenti da parte delle compagnie che con nuovi prodotti e soluzioni dagli operatori del settore IT.
Si individuano tre categorie di minacce poste da membri interni all'azienda, o “insider threat”: frode, furto di informazioni e sabotaggio informatico dall'interno.
Per difendersi da questi attacchi sono necessari numerosi accorgimenti, che mirano ad ottenere una rete sicura e monitorabile, su cui poter effettuare l'auditing, ovvero la verifica della correttezza delle azioni dei suoi utenti.
Tivoli Compliance Insight Manager è una suite per facilitare questo processo che può raccogliere le informazioni contenute nei log di sistemi ed applicazioni, mettendole in relazione tra loro e verificandone l'ammissibilità in base ad una politica definita globale e centralizzata. Questo software, seppur con alcuni difetti, svolge un ruolo rilevante nella sicurezza intranet, per il quale poche altre soluzioni sono disponibili.
Diego Ruotolo (Università degli Studi di Bologna)
"Sistemi non supervisionati per il rilevamento di intrusioni - Un approccio basato sul data mining"
Diego Ruotolo (Università degli Studi di Bologna)
"Sistemi non supervisionati per il rilevamento di intrusioni - Un approccio basato sul data mining"
(Relatore: Prof. Claudio Sartori).
Le reti di calcolatori costituiscono un'importantissima risorsa per un'azienda moderna: esse consentono lo scambio di grandi quantità di informazioni con chiunque in pochissimo tempo, permettendo, così, di espandere enormemente il modello di business di un'impresa. Vi è, però, una seconda faccia della medaglia: quanto più le reti di calcolatori diventano pervasive (specialmente grazie ad internet), tanto più le informazioni che attraverso esse viaggiano sono il bersaglio di attacchi mirati al furto, alla corruzione o alla falsificazione dei dati.
Da ciò si capisce come l'informazione sia un bene che necessita di essere protetto alla pari di un bene materiale: è quindi importante rivedere il proprio sistema di sicurezza al fine di impedire intrusioni nella propria rete.
Gli Intrusion Detection System (IDS) sono stati realizzati proprio per tale fine: proteggere la propria rete, e quindi le proprie informazioni, da tentativi di intrusione. Lo sviluppo di tali sistemi, realizzati sia in software che in hardware, va di pari passo con l'evoluzione della tecnologia: nuove soluzioni comportano nuovi problemi, e dunque nuove misure di difesa. Gli IDS sono infatti fra i sistemi più all'avanguardia perchè, per operare, necessitano dei più moderni algoritmi e delle più moderne tecnologie; sono, inoltre, continuamente in aggiornamento per far fronte a cambiamenti del dominio su cui operano (ad esempio per individuare un nuovo tipo di intrusione).
Il processo di manutenzione ed aggiornamento di un IDS è dunque continuo e laborioso: sarebbe auspicabile realizzare un sistema che impari autonomamente a riconoscere nuovi problemi e ad adattarsi all'ambiente in cui opera, un sistema, cioè, che sfrutti la conoscenza acquisita nel corso del suo funzionamento, in modo da far fronte a nuove situazioni, potenzialmente molto dannose, richiedendo interventi minimi da parte di amministratori di rete e sviluppatori.
Il processo evolutivo di Knowledge Discovery in Databases (KDD), iniziato negli anni '80, ha permesso di sviluppare algoritmi di data mining capaci di acquisire autonomamente della conoscenza sul loro dominio, e di operare applicando tale conoscenza. In particolare gli algoritmi non supervisionati partono da una conoscenza minima dei dati su cui operano, fornendo come output delle importanti regolarità e pattern presenti in tali dati. Con tali algoritmi ci si pone quindi su di un piano concettuale decisamente superiore alla norma, in cui si genera molta conoscenza partendo praticamente da zero.
Considerando il fatto che gli algoritmi di data mining sono stati sviluppati per trattare grandi quantità di dati, ecco che in essi si trova la risposta al problema precedentemente posto sugli IDS: un sistema per il rilevamento di intrusioni che utilizzi tecniche di data mining può imparare da solo a riconoscere nuovi tipi di intrusione, sfruttando la conoscenza acquisita sul dominio per migliorare la qualità dei suoi risultati. Grandi sforzi accademici si stanno facendo in tale campo, ma la complessità del problema ha permesso finora di giungere solo allo sviluppo di prototipi non ancora pronti per il commercio.
Riccardo Satta (Dip. di Ing. Elettrica ed Elettronica, Facoltà di Ingegneria, Università di Cagliari)
"Metodi e Algoritmi per il Filtraggio dell'Image Spam"
Link esterno al gruppo di ricerca: http://prag.diee.unica.it
Riccardo Satta (Dip. di Ing. Elettrica ed Elettronica, Facoltà di Ingegneria, Università di Cagliari)
"Metodi e Algoritmi per il Filtraggio dell'Image Spam"
(Relatore: Prof. Ing. Fabio Roli, Ing. Giorgio Fumera).
Questa tesi si occupa del problema del filtraggio delle e-mail di spam, e in particolare del cosiddetto image spam. In questa tecnica di spamming, il messaggio è inserito in una immagine allegata, in modo che sia invisibile per i filtri tradizionali, che analizzano il testo nel corpo dell’e-mail. In aggiunta, spesso il testo è reso illeggibile per un OCR mediante varie tecniche di oscuramento (sfondi non omogenei, caratteri distorti, etc.).
Uno dei principali problemi nello sviluppo di tecniche anti-spam, e in particolare nel caso dello image spam, è la raccolta di data set rappresentativi per la valutazione di tali tecniche. Attualmente non esistono data set di riferimento.
In questa tesi è stato sviluppato un generatore di immagini di spam , basato sia sulle principali tecniche di oscuramento usate attualmente dagli spammer, che su tecniche usate per la realizzazione di CAPTCHA potenzialmente applicabili anche dagli spammer. Il generatore è in grado di fornire immagini contenenti testo “pulito” (leggibile da un OCR) oppure con un livello di oscuramento desiderato.La misura del “livello di oscuramento” è stata definita in base all’analisi dell’effetto dei vari parametri di ogni tecnica di oscuramento sulla accuratezza di un software OCR.
Il generatore di immagini di spam è stato successivamente applicato a un’analisi sistematica dell’efficacia dello image spam nell’evadere gli attuali filtri. Per questo scopo si è considerato un filtro anti-spam open-source molto diffuso, SpamAssassin. L’analisi svolta costituisce una novità nella letteratura del settore, e ha fornito utili suggerimenti per lo sviluppo di tecniche contro l’image spam.
Link esterno al gruppo di ricerca: http://prag.diee.unica.it
Yuri Vannini (D.T.I. - Polo di Crema - Università statale di Milano)
"Analisi degli aspetti di sicurezza di un ambiente distribuito virtuale"
Yuri Vannini (D.T.I. - Polo di Crema - Università statale di Milano)
"Analisi degli aspetti di sicurezza di un ambiente distribuito virtuale"
(Relatore: prof. Marco Cremonini).
Analisi degli aspetti di sicurezza degli ambienti distribuiti virtuali, alla luce dei loro possibili impieghi, come lo studio delle vulnerabilità sfotware e dei sistemi oppure come alternative negli ambienti reali di produzione.
Federico Vietti (Dipartimento di Informatica - Facoltà di Scienze Matematiche, Fisiche e Naturali - Università degli Studi di Torino)
"Sicurezza IT: Auditing,Compliance e Risk Management. IBM Tivoli Compliance Insight Manager come strumento di centralizzazione dell'IT Governance"
Federico Vietti (Dipartimento di Informatica - Facoltà di Scienze Matematiche, Fisiche e Naturali - Università degli Studi di Torino)
"Sicurezza IT: Auditing,Compliance e Risk Management. IBM Tivoli Compliance Insight Manager come strumento di centralizzazione dell'IT Governance"
(Relatore: Prof. Matteo Baldoni).
La sicurezza in ambito informatico è parte del più ampio scenario in ambito di sicurezza di cui una qualsiasi organizzazione deve tenere sotto controllo. Una definizione di sicurezza informatica è la seguente: “Sicurezza informatica è quella branca dell'informatica che si occupa della salvaguardia dei sistemi informatici da potenziali rischi e/o violazioni dei dati. I principali aspetti di protezione del dato sono la confidenzialità, l'integrità e la disponibilità. La protezione dagli attacchi informatici viene ottenuta agendo su più livelli: innanzitutto a livello fisico e materiale, ponendo i server in luoghi il più possibile sicuri, dotati di sorveglianza e/o di controllo degli accessi; anche se questo accorgimento fa parte della sicurezza normale e non della ‘sicurezza informatica’ è sempre il caso di far notare come spesso il fatto di adottare le tecniche più sofisticate generi un falso senso di sicurezza che può portare a trascurare quelle semplici. Il secondo livello è normalmente quello logico che prevede l'autenticazione e l'autorizzazione di un entità che rappresenta l'utente nel sistema. Successivamente al processo di autenticazione, le operazioni effettuate dall'utente sono tracciate in file di log. Questo processo di monitoraggio delle attività è detto audit o accountability” Negli ultimi decenni, anche a causa di eventi negativi accaduti nella gestione delle grandi organizzazioni (siano esse società, cooperative o qualunque altra forma di aggregazione), il problema della gestione della sicurezza è diventato uno dei primi obiettivi del quale un buon amministratore deve essere cosciente e deve, attraverso tutti gli sforzi possibili, voler raggiungere. Contemporaneamente è aumentata l’importanza del settore IT di ogni organizzazione, tanto da diventare uno dei fattori determinanti per la raggiunta degli obiettivi per l’accrescimento in termini di fatturato e di margine. Questi due trend, fortemente intrecciati e legati l’un l’altro, hanno fatto sì che la sicurezza del settore IT fosse uno dei requisiti fondamentali per un’azienda di successo. In questo senso si sono sviluppate teorie e sistemi al fine di incrementare la protezione di dati, sistemi e applicazioni. Lo sviluppo di questi elementi ha anche favorito il sorgere di vari standard per la certificazione della bontà del lavoro fatto da parte delle organizzazioni nel campo della sicurezza, al fine di garantire dei livelli di qualità misurabili a tutti gli stakeholder coinvolti nei cicli produttivi. Nella definizione di sicurezza informatica data in precedenza sono sottolineati due aspetti importanti: - L’uso di tecniche all’avanguardia nella gestione non deve far dimenticare quelle che sono basilari (definite “tecniche semplici”), perchè il processo di protezione va curato da ogni punto di vista; La protezione è ottenuta su più livelli ed è quindi la scomposizione in più aree di uno scenario complesso, composto di numerosi sotto-scenari. Il contenuto di questa tesi si focalizza su gli aspetti di auditing ed in particolare di come, attraverso un corretto ed oculato metodo di log management, si possano ottenere risultati su vari fronti, in particolare su quello delle certificazioni e sulla protezione/reazione rispetto ad attacchi (volontari o meno) interni, attraverso il controllo delle attività degli utenti, in modo particolare quelli privilegiati.
Nino Vincenzo Verde (Dipartimento di Informatica. Università di Roma "La Sapienza")
"Analisi ed implementazione di uno schema di firma digitale distribuita per reti ad-hoc di grandi dimensioni"
Nino Vincenzo Verde (Dipartimento di Informatica. Università di Roma "La Sapienza")
"Analisi ed implementazione di uno schema di firma digitale distribuita per reti ad-hoc di grandi dimensioni"
(Relatore: Roberto Di Pietro).
I multi signature scheme fanno in modo che il servizio di firma digitale funzioni in maniera completamente distribuita. In questi schemi una parte dei membri del gruppo collaborano per generare una firma, comportandosi, nel complesso, come un Certification Authority. Ogni cofirmatario firma lo stesso messaggio separatamente e indipendentemente dagli altri; successivamente queste firme individuali, anche dette parziali, vengono combinate per generare la firma vera e propria del messaggio. Essa può essere verificata usando la singola chiave pubblica corrispondente a quella privata condivisa, ed inoltre, la dimensione della firma non dipende dal numero di cofirmatari partecipanti.
A seconda dello specifico schema è anche possibile scovare i cofirmatari maliziosi e prendere i giusti provvedimenti. Nelle reti ad-hoc, per garantire l'ubiquità del servizio, ogni singolo nodo deve essere in grado di generare firme parziali, assumendo il ruolo, quindi, di cofirmatario. Fondamentalmente uno schema multi-signature è costruito su uno schema di firma classico, come RSA o ElGamal, ed un secret sharing scheme. Un secret sharing scheme permette di condividere un segreto e di ricostruirlo mediante la collaborazione di più utenti. I (t,n)-threshold schemes sono particolari secret sharing scheme in cui ogni utente è dotato generalmente di uno share; questi schemi permettono di ricostruire il segreto condiviso da n utenti soltanto tramite la combinazione di un numero di shares maggiore o uguale a t. Spesso la robustezza di questi schemi non è scalabile rispetto al numero di nodi che compone la rete.
In questa tesi abbiamo studiato la possibilità di distribuire le funzionalità di un CA, prendendo in considerazione il componente fondamentale su cui ogni PKI distribuito si basa: gli schemi di firma distribuita.
Abbiamo presentato e analizzato uno schema di firma digitale distribuita basato su RSA, adatto a reti ad-hoc molto grandi e che hanno una durata di vita molto elevata, abbiamo sviluppato un simulatore per questo protocollo e analizzato i risultati dalle simulazioni. Lo sviluppo del simulatore ci ha permesso di provare sperimentalmente l'efficienza e le peculiarità del protocollo considerato ed anche di comprendere meglio le dinamiche cui sono soggetti questo tipo di schemi.
La gran parte degli schemi conosciuti in letteratura ammette la presenza di un numero massimo fisso di nodi corrotti oltre il quale non è più possibile continuare a fornire il servizio di firma correttamente. Questa forte limitazione comporta la non scalabilità di questi protocolli. Il protocollo presentato, invece, è in grado di resistere ad un avversario molto più potente, capace di corrompere un numero crescente di nodi man mano che la rete si popola. Nel lavoro abbiamo affrontato tutte le tematiche e gli aspetti degli schemi di firma distribuiti, i quali ci hanno permesso di sviluppare un simulatore estremamente flessibile, in grado di eseguire misurazioni di diversi parametri in diversi scenari. Dopo un'approfondita analisi del protocollo presentato abbiamo selezionato le simulazioni più significative e successivamente ne abbiamo analizzato i risultati, confrontandoli, volta per volta, con quelli attesi dalla teoria. Avendo a disposizione una panoramica completa delle prestazioni del protocollo abbiamo potuto affermare con certezza la sua predisposizione all'utilizzo in reti ad-hoc di grandi dimensioni e con una lunga durata di vita.
Il protocollo discusso si basa su RSA e permette di incrementare la robustezza in modo molto efficiente, come abbiamo dimostrato analiticamente e confermato con le simulazioni presentate. Dalle simulazioni risulta, per esempio, che sotto determinate ipotesi e considerando la presenza dell'1% di nodi corrotti, con delle semplici operazioni ed un limitato scambio di messaggi tra una parte di membri, si può aumentare la robustezza del protocollo con una probabilità del 96%. Questa caratteristica candida il protocollo ad essere largamente utilizzato in reti ad-hoc molto grandi, in cui un attaccante può corrompere un numero sempre maggiore di membri. Lo schema è sostanzialmente un (t,t)-threshold scheme, in cui ogni share è replicato per aumentare la disponiblità del servizio. Per aumentare la robustezza viene incrementato il valore della soglia t necessaria a generare un messaggio tramite una procedura che coinvolge soltanto un piccolo numero di nodi appartenenti alla rete. Dal momento che ogni nodo può fungere da cofirmatario e che gli share sono distribuiti in maniera uniforme tra i nodi il servizio di firma distribuita può essere considerato ubiquo, caratteristica confermata anche dalle simulazioni eseguite. Dai risultati delle simulazioni emerge, inoltre, che il protocollo è completamente scalabile all'aumentare del numero di nodi che compongono la rete. Infatti, l'overhead per una firma rimane costante anche se il numero di nodi presenti continua ad aumentare.
Tutte le simulazioni concordano nel definire il protocollo robusto, adattivo, efficiente ed ubiquo, candidandolo come protocollo ideale per le reti mobili ad-hoc composte anche da dispositivi con risorse particolarmente limitate.
BACHECA TESI EDIZIONI PASSATE
Edizione 2022
Edizione 2022
Edizione 2021
Edizione 2020
Edizione 2019
Edizione 2018
Edizione 2017
Edizione 2016
Edizione 2015
Edizione 2014
Edizione 2013
Edizione 2012
Edizione 2011
Edizione 2010
Edizione 2009
Edizione 2008
Edizione 2007
Il Premio Tesi è realizzato in collaborazione e con il sostegno di: