BACHECA TESI
Edizione 2011
Francesco Carpine (Dipartimento di Informatica e Sistemistica / Universit? degli Studi di Napoli "Federico II")
"Rilevamento Online di Botnet basate su IRC: un approccio non supervisionato"
Francesco Carpine (Dipartimento di Informatica e Sistemistica / Universit? degli Studi di Napoli "Federico II")
"Rilevamento Online di Botnet basate su IRC: un approccio non supervisionato"
(Relatore: Sansone Carlo).
Le botnet basate su IRC sono in enorme crescita, sia per la loro numerosit?, sia per le infezioni propagate, sia soprattutto per il numero e il tipo di danni causati. Vi ? dunque la necessit? di una soluzione di rilevamento che sia, allo stesso tempo, pi? rapida ed accurata possibile. La tesi si concentra, in particolare, su due indici prestazionali di un buon rilevatore: il tempo di calcolo e la precisione nei risultati. Alcuni recenti lavori scientifici sul rilevamento di botnet non pongono sufficiente attenzione alle prestazioni temporali e non fanno uso di moderne tecniche di machine learning. Il particolare approccio qui presentato considera, tra l'altro, problematiche come il contesto online e il consumo di tempo per il rilevamento. Si adopera un insieme di attributi (alcuni statistici, basati su IRC e non; altri basati sui digrammi) come modello comportamentale a due classi del generico canale IRC. I test eseguiti su dati reali hanno dimostrato l'efficacia della soluzione proposta.
fabio carraro (Dip. Informatica Sistemistica e Telematica (DIST) / Facolt? di Ingegneria Informatica, Universit? degli Studi di Genova)
"Modellazione ed analisi della sicurezza di un'infrastruttura per il Single Sign-On di complessit? industriale"
fabio carraro (Dip. Informatica Sistemistica e Telematica (DIST) / Facolt? di Ingegneria Informatica, Universit? degli Studi di Genova)
"Modellazione ed analisi della sicurezza di un'infrastruttura per il Single Sign-On di complessit? industriale"
(Relatore: Alessandro Armando).
Il Single Sign-On (SSO) ? un meccanismo per il controllo degli accessi, grazie al quale un utente porta a termine un'autenticazione unica ed accede alle risorse ed ai servizi messi a disposizione dall'insieme dei sistemi differenti che fanno parte della medesima "federazione".La crescente diffusione di tali sistemi, soprattutto in ambito web, impone una maggiore attenzione verso una corretta gestione della loro sicurezza, che diventa fondamentale quando essi siano posti a protezione di dati "sensibili". Anche a tale scopo il linguaggio SAML ? stato creato, nel tentativo di proporre uno standard unificato per la gestione delle politiche di sicurezza, anche connesse al SSO.
In questa trattazione descriviamo il lavoro svolto per conto di Datasiel S.p.A., al fine di analizzare un'infrastruttura per il SSO(facente uso di software Novell per l'implementazione delle politiche di SAML), ed evidenziare "falle" in grado di compromettere la sicurezza degli utenti finali e dei loro dati.
Francesco Corbanese (Scienze MM.FF.NN dell'Universita degli Studi Di Udine)
"Una metodologia di Vulnerability Assessment per la realta Enterprise"
Francesco Corbanese (Scienze MM.FF.NN dell'Universita degli Studi Di Udine)
"Una metodologia di Vulnerability Assessment per la realta Enterprise"
(Relatore: Prof. Marino Miculan. Correlatore: Prof. Paolo Dal Cin).
Al giorno d?oggi sempre piu realta erogano il loro business (B2C, B2B) attraverso reti e sistemi informatici (ad es. casin? online, internet banking, e-commerce) e per questo motivo devono garantire la validit? legale attraverso la firma elettronica o la PEC, ma anche la consistenza e la sicurezza dei dati, i quali hanno assunto sempre pi? valore e sono diventati l?obiettivo principale del cyber crime che ? divenuto un fenomeno world wide.
In quest?ottica viene presentata la mia tesi, che ha come obiettivo descrivere una metodologia completa di security assessment per la realt? Enterprise che, in aggiunta alle metodologie NIST e OSSTMM, descrive tutte le fasi preliminari di formazione del team e fornisce una panoramica delle diverse tipologie di rete target. Successivamente, verranno descritte in dettaglio tutte le fasi di analisi e di test dei diversi sistemi informatici, verranno presentati i tool pi? conosciuti e aggiornati, il tutto con l?ausilio di screenshot da me creati per dimostrare la reale fattibilit? delle procedure, le quali possono essere replicate da ogni sistemista. Interessante ? l?aggiunta di un report di un caso di studio reale da me svolto.
Giuseppe Di Francesco (Universit? degli Studi di Pisa)
"Sicurezza delle Informazioni nell'Internet of Things: meccanismi di protezione nelle DHT"
Giuseppe Di Francesco (Universit? degli Studi di Pisa)
"Sicurezza delle Informazioni nell'Internet of Things: meccanismi di protezione nelle DHT"
(Relatore: Prof. Maurizio Bonuccelli).
La diffusione delle tecnologie di informazione e comunicazione (ICT) consentira' nel futuro il miglioramento della qualita' della vita per gli individui, specialmente per le persone anziane o con disabilita', consentendo loro una maggiore effcienza e produttivita' grazie a una aumentata autonomia, autostima e mobilita'.
Vi e' la necessita' di una nuova struttura per l'Internet del futuro, un nuovo paradigma focalizzato sull'informazione. Nel 2020, secondo l'Economist, passeremo dai 2 miliardi di persone connesse oggi a 50 miliardi di devices connessi, che scambieranno informazioni con la Rete.
In questo contesto un aspetto di particolare rilevanza e quello della sicurezza, la tesi consiste nella realizzazione di software per rendere sicuro l'uso di oggetti nella futura Internet of Things, in cui gli agenti finali non saranno piu' esseri umani, ma oggetti di varia natura, in particolare legando integrita', confidenzialita', ed autenticita' non agli utenti, ma ai nomi degli oggetti.
Sergio gaeta (Laurea magistrale in marketing e comunicazione per le aziende, Facolt? di Economia presso Universit? degli Studi di Urbino "Carlo Bo")
"Cloud Computing: un fenomeno che potrebbe cambiare il mondo Il caso dell?Universit? di Urbino "
Sergio gaeta (Laurea magistrale in marketing e comunicazione per le aziende, Facolt? di Economia presso Universit? degli Studi di Urbino "Carlo Bo")
"Cloud Computing: un fenomeno che potrebbe cambiare il mondo Il caso dell?Universit? di Urbino "
(Relatore: Laerte Sorini).
Questo lavoro di tesi pone l?attenzione su una nuova tecnologia, il cloud computing, che da un punto di vista economico-occupazionale potrebbe apportare un beneficio notevole a molti Stati, Italia compresa.
La tesi si compone di sei capitoli dove vengono analizzati i benefici economici su aziende (piccole e grandi), pubblica amministrazione e singoli privati. Nel sesto quinto, di interesse particolare per questo concorso, vengono analizzati quelle che sono le minacce ed i rischi per la sicurezza della nuvola. Rischi che minacciano anche la sicurezza stessa delle aziende che immettono i propri dati sensibili nella cloud. Tutto ci? perch? non esiste ancora una normativa che sia, in prima istanza la stessa per tutta l?Europa, Uguale per il vecchio continente e gli Stati Uniti, come fase intermedia, e adottata, infine, a livello mondiale.
Nell?augurio che sia di gradimento per la commissione
In fede
Gaeta Sergio
Mariano Graziano (Computer and Network Security Group - Politecnico di Torino)
"Mozzie: a normalization environment for malware execution"
Mariano Graziano (Computer and Network Security Group - Politecnico di Torino)
"Mozzie: a normalization environment for malware execution"
(Relatore: Andrea Atzeni).
Nowadays an important challenge in sandbox-based execution consists in ensuring the repeatability of the analysis process: we need to ensure that the analysis of a specific malware sample or
variant leads to the same results once executed at different moments in time. For instance, we
need to ensure that the execution of two different instances of the same polymorphic variant leads indeed to similar behaviors that lead the network analyst (or a behavior-based clustering technique) to attribute correctly the two samples. This apparently simple task is complicated by the dependency of a large amount of samples on conditions that are external to the sandbox environment, namely the network context. For instance, in the case of botnets (a big network of compromised computers), the malware sample attempts to connect to an external command
and control server (C&C) to receive instructions from the botmaster on the current task to be
executed. When executing the sample at different points in time the problem appears, the C&C command may vary, or the C&C server may become unresponsive. Normally, sandbox environments do not have control on these external factors.
This project aims at addressing this limitation by studying a ?normalization environment? for
malware execution. Only by controlling the network environment it is possible to compare
malware executions at different points in time, and understand the effect of the external factors
on the malware behavior.
This work is based on ScriptGen by Corrado Leita. ScriptGen is a set of protocol learning
techniques for the automated generation of protocol interaction models. Such techniques aim
at achieving automatically what is normally considered a tedious and time intensive manual
task, especially when dealing with complex protocols or close-specification ones. In order to
reach the desired goal, it is important to have a good set of network traces that essentially
provide intelligence on the network behaviour of the malware. Mozzie is based on the concept
?know your enemy? for the repeatability of the analysis and to create a theoretical containment
system on the long-term, this knowledge is gained with the network traces.
In this thesis Mozzie will be presented, it is a real normalization environment for malware
execution and for the sake of semplicity it has been divided in three logic blocks: Ant, Chameleon
and Dog. The key point is the repeatability of the analysis process. Ant is responsible to create
the different finite state machines for each endpoint (an endpoint is defined as destination IP
and destination port) found in the pcap files. Chameleon routes the packets by changing the IP
addresses and the ports from the source to the fake destination and from the fake destination
to the source. Dog is the block responsible to follow the payload in the finite
state machine and to find, when it is possible, the correct answer, otherwise it tries to contact
the real server. The concept of repeatability is strictly related to the concept of learning. It
is fundamental to learn the protocols used by the malware to be able to repeat the analysis
from a networks point of view. The models generated by ScriptGen are a fundamental part
of the project. They have to be designed properly, the more is accurate the model, the more
the repeatability will have success. An important feature of Mozzie that has been tested and
that gives good results is the so called incremental learning. This is a real weapon for Mozzie in fact, with this functionality, it is possible to learn all the protocol and its relative semantics on the long term. In this way at every new run, and at every new submitted sample the model will be more accurate and thus the malware might be totally contained. This feature makes Mozzie a long term full containment system and this is an important aim for all the companies dealing with the dynamic analysis of malware.
Mozzie has been gradually tested first recreating potential malicious behaviours and just later
with real malware case scenarios. The first set of experiments have been simple, they are
necessary to test the feasibility of the idea. Due to this, the testing process involved simple
IRC and HTTP scenarios. The two protocols have been chosen because they are very common
protocol for the C&C servers. The second set of experiments have tested Mozzie in all its
components. Here the first test has been simple, in fact we modelled an IRC network adopting
a common IRC client (XChat), then we modelled a requests to a web page.
Finally it has been the turn of an email client that used the Internet Message Access
Protocol (IMAP) protocol. This set of experiments is meaningful especially for the IRC and the IMAP
ones because it will be proved that the authentication is handled properly.
In the last example a real case of malware has been analyzed. The malware has been searched carefully to summarize
all the main features of Mozzie. The malware that has been chosen is a web malware known as
PBot.
In conclusion, it has been possible to reproduce the original behaviour over
the time, thus proving the efficiency of the system. In addition Mozzie is a novel approach to
completely master the network context and hence it can be adopted as an auxiliary tool for a
sandbox to develop a real containment system.
Mozzie has been developed at Institut Eurecom in Sophia-Antipolis (France) in the Network
and Security department with the help and the suggestions of Corrado Leita, under supervision
of prof Davide Balzarotti and in cooperation with Symantec Research Labs as final project for
my graduation at Politecnico di Torino.
Vincenzo Iozzo (Politecnico di Milano)
"Detecting aliased stale pointers via static analysis: An architecture independent practical application of pointer analysis and graph theory to find bugs in binary code"
Vincenzo Iozzo (Politecnico di Milano)
"Detecting aliased stale pointers via static analysis: An architecture independent practical application of pointer analysis and graph theory to find bugs in binary code"
(Relatore: Stefano Zanero).
Memory corruption bugs such as dangling pointers, double frees and uninitialized memory are some of the open issues in application security.
Finding dangling pointers and similar vulnerabilities in large code bases it's arguably more difficult than overflows because of
the complexity and heterogeneity of applications memory management. Fuzzing has been proved to be an effective method for finding such bugs
in browsers and other similar COTS applications, nonetheless it's not uncommon to see bugs found by fuzzers burned after a short period of time because of
multiple rediscovery of the same vulnerabilities. In this thesis the challenges of finding such bugs with static analysis and the results we got will be discussed,
specifically we will explore the algorithms and techniques borrowed from program analysis and graph theory that can be employed to achieve our goal. We will
also dissect what improvements can be made in order to increase precision and reduce the number of false positives.
Mario Marcovecchio (Dipartimento di elettronica e telecomunicazioni/Universit? degli Studi di Firenze)
"Tecnica di oscuramento del segnale radio con chiave crittografica basata su coordinate spaziali"
Mario Marcovecchio (Dipartimento di elettronica e telecomunicazioni/Universit? degli Studi di Firenze)
"Tecnica di oscuramento del segnale radio con chiave crittografica basata su coordinate spaziali"
(Relatore: Lorenzo Mucchi).
Il sistema ?Advanced Noise Loop? ? una proposta di sicurezza intrinseca che utilizza il rumore termico, elemento univoco di un dispositivo e non riproducibile, per trasferire l?informazione.
Esso si compone di tre stazioni fisse Alice che comunicano con un terminale mobile Bob, la cui posizione ? univocamente determinata dai tempi di propagazione dei segnali provenienti dalle stazioni. Questo lo rende l?unico destinatario dell?informazione poich? la chiave per la decodifica dei messaggi risiede nella specifica posizione di Bob.
Gli studi in caso di attacco rivelano che la presenza di un ascoltatore indesiderato non impedisce la corretta ricezione dell?informazione sui terminali autorizzati, n? egli pu? in alcun modo ottenere l?informazione per intercettazione. In rari casi pu? provocare un Denial of Service, ma non ne verrebbe a conoscenza. Essendo totalmente immune dall?intercettazione il sistema risulta ottimale in scenari dove avviene lo scambio di chiavi di sicurezza.
Davide Paltrinieri (Dipartimento di Informatica, Sapienza Universita' di Roma)
"DDoS mitigation through a collaborative trust-based request prioritization"
(Relatore: Prof. Massimo Bernaschi, Prof. Neeraj Suri. Correlatore: Ing. Mirco Marchetti).
Abbiamo formulato un nuovo modello di mitagazione degli attacchi DDoS focalizzato sulla mitigazione di attacchi al livello applicativo, perfettamente "legittimi" ovvero generati tramite browser comuni da diversi bot in contemporanea. L'obiettivo di tali attacchi e' l'esasperazione delle risorse hardware della server farm, e non la saturazione della bandwidth. Il loro punto di forza sta proprio nel fatto che e' molto difficile distinguerli dal traffico generato dai client legittimi.
Tuttavia la nostra soluzione offre validi strumenti per identificare, classificare e mitigare le richieste generate da questo tipo di attacco.
Un modello semplificato della nostra soluzione e' stato implementato nell'ambiente di emulazione DETERlab e testato su larga scala. I test dimostrano l'efficacia della soluzione proposta, che garantisce miglioramenti nei tempi di risposta e nei QoS dei client legitimi anche quando il server e' sotto l'attacco di una botnet di 150 calcolatori.
Link esterno alla tesi: http://uniroma1.academia.edu/DavidePaltrinieri/Books/1236587/DDoS_mitigation_through_a_collaborative_trust-based_request_prioritization
Link esterno al gruppo di ricerca: http://www.deeds.informatik.tu-darmstadt.de/
Gabriele Piga (Universit? di Pisa)
"Simulazione di attacchi contro infrastrutture informatiche"
Gabriele Piga (Universit? di Pisa)
"Simulazione di attacchi contro infrastrutture informatiche"
(Relatore: Prof. Fabrizio Baiardi).
La crescente complessit? delle infrastrutture ICT ha reso evidenti i limiti degli approcci attuali all?analisi del rischio. Oggi gli analisti sono interessati a conoscere quali fra le possibili configurazioni di una rete ? pi? sicura o se i costi di adozione di una contromisura sono effettivamente giustificati da una maggiore sicurezza. La difficolt? di ottenere misure di efficacia delle varie configurazioni e delle varie
contromisure suggerisce l'adozione di un approccio basato sul metodo Montecarlo.
In questa tesi ? descritta l?implementazione di Haruspex, un simulatore che produce statistiche che permettono di valutare il livello di sicurezza di un sistema con simulazioni ripetute degli attacchi implementati da un insieme di agenti intelligenti, goal oriented. Le statistiche prodotte permettono la valutazione del rischio dovuto a fattori quali la probabilit? di scoprire una vulnerabilit?, le risorse e le informazioni
disponibili agli agenti e la strategia utilizzata per ottenere il goal. Il simulatore utilizza gli attack graph, un formalismo che permette di descrivere attacchi complessi contro un?infrastruttura informatica. L'adozione di attack graph ? dovuta alla complessit? delle infrastrutture IT odierne dove un attaccante pu?
definire diversi piani di attacco, combinando pi? attacchi elementari, per ottenere il controllo dei componenti del sistema. L?aumento del numero degli attacchi evidenzia l?importanza degli attack graph e dei tool che forniscono statistiche d?interesse per l?analisi del rischio.
antonio pirozzi (Dipartimento di Ingegneria Informatica dell' Universit? Degli Studi Del Sannio)
"SISTEMA PER L?IDENTIFICAZIONE DI SITI MALICIOUS USANDO TECNICHE EURISTICHE"
Link esterno alla tesi: http://orhos.org
Link esterno al gruppo di ricerca: http://www.iswat.it
antonio pirozzi (Dipartimento di Ingegneria Informatica dell' Universit? Degli Studi Del Sannio)
"SISTEMA PER L?IDENTIFICAZIONE DI SITI MALICIOUS USANDO TECNICHE EURISTICHE"
(Relatore: Aaron Corrado Visaggio).
La grande sfida del web filtering e` aperta ma il settore dell' Information Security
al tempo stesso ha bisogno di nuovi modelli di Detection delle minacce, i vecchi modelli tendono ad essere fallibili.
C' e` bisogno di nuovi "Score di Goodness" per le risorse e per i domini.
Il lavoro di Tesi Sperimentale svolto si pone l'obiettivo di sviluppare un nuovo modello Heuristic-based per la Detection
di web malware ,basato su modelli semantici e relazionali attraverso la realizzazione di un "Concept Framework" chiamato "Sentinh3ll" pensato come soluzione di ISP-based filtering.
La ricerca effettuata ha portato alla definizione di nuove "Funzioni di Goodness" sulle risorse e sui contenuti.
Dalle sperimentazioni effettuate e dai risultati ottenuti in relazione anche a test effettuati confrontando Sentinh3ll con altri sistemi di
Detection leader nel settore e` emerso che l'euristica adottata ha una migliore Effectiveness rispetto ad altre soluzioni di Detection.
Link esterno alla tesi: http://orhos.org
Link esterno al gruppo di ricerca: http://www.iswat.it
Andrea Rainini (Universit? degli Studi di Milano - Polo di Crema)
"Security in Virtual Environment & Implementation of a Virtual Network"
Andrea Rainini (Universit? degli Studi di Milano - Polo di Crema)
"Security in Virtual Environment & Implementation of a Virtual Network"
(Relatore: Gabriele Gianini).
La tesi vuole portare alla luce la virtualizzazione. Nonostante abbia gi? una fama ben nota sin dagli anni 60, questo tema ? concretamente entrato nell?ambito aziendale pochi anni fa. E? evidente che il consolidamento di server porti un notevole vantaggio da un punto di vista economico; che i ruoli di gestione siano semplificati grazie alla possibilit? di avere una visione globale in maniera pi? compatta. Ma quali sono gli aspetti relativi alla security da tenere in considerazione? I costi sono realmente inferiori? Se s?, com?? possibile realizzare un ambiente che sia in grado di ospitare questa tecnologia e allo stesso tempo sicuro?
Nel primo capitolo sono descritti i requisiti principali per realizzare un ambiente virtualizzato. Nel secondo vi ? una semplice e breve descrizione delle principali tecniche di virtualizzazione. Nel terzo una raccolta di problemi riguardanti gli ambienti virtualizzati. Il quarto riguarda una proposta d?implementazione di una rete virtualizzata.
Matteo Ratini (Dipartimento di Elettronica Applicata, Universita' degli Studi Roma Tre)
"Protocolli di sicurezza per sistemi di Mobile Payment"
(Relatore: Prof. Alessandro Neri).
I sistemi di pagamento in mobilita? rappresentano il futuro dei sistemi di pagamento tradizionali, ponendosi come obiettivi la riduzione delle frodi e dei costi associati, un incremento della facilita? d?utilizzo e una maggiore pervasivita?; ad oggi pero? risultano ancora limitati a causa della mancanza di fiducia da parte degli utilizzatori, fortemente correlata con il livello di sicurezza da essi percepito. Al fine di porre rimedio a tale punto di criticita? e? stato deciso di analizzare formalmente la sicurezza dei protocolli crittografici, i quali nel caso di sistemi di Mobile Payment devono rispettare vincoli stringenti cosi? da sottostare alle limitazioni imposte dall?hardware su cui sono eseguiti: nasce percio? la necessita? di ottimizzare le poche risorse a disposizione. Per raggiungere questi obiettivi ho utilizzato AVISPA e SPAN, due software per la validazione automatica dei protocolli basati sul linguaggio HLPSL e in grado di verificare senza ambiguita? e in modo rigoroso determinati requisiti di sicurezza (da me definiti con riferimento alle Best Practices in termini di protocolli di sicurezza); per garantire la correttezza dei risultati di questi strumenti ho analizzato innanzitutto alcuni protocolli rinomati per essere vulnerabili e ho verificato che gli esiti ottenuti confermassero tali vulnerabilita?. Dopo aver redatto lo stato dell?arte dei protocolli crittografici per Mobile Payment e averne determinato il piu? efficace, ho tradotto le sue specifiche in una logica temporale delle azioni di Lamport e sono passato alla sua implementazione, definendo cosi? una metodologia di analisi che puo? essere usata come riferimento per altri studi dello stesso tipo; a tal proposito i risultati del mio lavoro sono stati pubblicati nel sito web del progetto AVISPA. Grazie alla qualita? e riproducibilita? dei risultati ottenuti durante la realizzazione di questo lavoro sara? possibile arrivare, in futuro, a uno standard in materia di Mobile Payment basato su protocolli crittografici formalmente sicuri.
Link esterno alla tesi: http://www.slideshare.net/matteoratini/protocolli-di-sicurezza-per-sistemi-di-mobile-payment-8197054
Link esterno al gruppo di ricerca: http://www.fub.it/it/aree/sicurezzaict
Daniele Venturi (SAPIENZA University of Rome)
"Tampering in Wonderland"
(Relatore: Prof. Andrea Baiocchi).
Cryptography (originally meaning ``the art of secret communication'') is an ancient discipline born in the past to satisfy some needs of the human being.
Today the world ``cryptography'' has a much broader meaning. In fact, the development of the digital era (mainly due to the introduction of the digital calculators) and later on of the Internet have created new scenarios of communications, generating intriguing challenges for modern cryptographers.
In the past (say before the 80's) the development of a ``secure'' system was mostly based on intuition and experience. This approach led to a cut-and-mouse game in which new schemes were proposed and (immediately after) new attacks against them were found. A milestone in the development of a solid mathematical theory---turning cryptography from an art into a real science---is an approach due to Goldwasser and Micali called ``provable security''. The goal of this approach is to state rigorous definitions of what ``secure'' means in a given context and build cryptographic primitives able to satisfy these definitions in a provable way. This is indeed a very strong guarantee.
It should be clear that the way one defines security is crucial for the results being meaningful. In particular our mathematical model of reality should be as close as possible to the real world, catching all possible attacks out there. Unfortunately, it turned out that this is not always the case. There are in fact attacks---so called side-channel attacks---which can be applied to an actual implementation of a device and not to its mathematical abstraction. These attacks have been shown to be very powerful, completely compromising security of otherwise provably secure schemes.
A modern trend in theoretical cryptography is to try filling this gap between theory and practice, building primitives which maintain their provably secure guarantees even in the presence of a powerful adversary able to apply side-channels. This area of research is evolving continuously and very quickly.
The thesis you are reading deals with some of these challenges and summarizes recent achievements in this topic.
Link esterno al gruppo di ricerca: http://net.infocom.uniroma1.it/~venturi/index.shtml
BACHECA TESI EDIZIONI PASSATE
Edizione 2022
Edizione 2022
Edizione 2021
Edizione 2020
Edizione 2019
Edizione 2018
Edizione 2017
Edizione 2016
Edizione 2015
Edizione 2014
Edizione 2013
Edizione 2012
Edizione 2011
Edizione 2010
Edizione 2009
Edizione 2008
Edizione 2007
Il Premio Tesi è realizzato in collaborazione e con il sostegno di: