
Dans le cadre de leurs études, les étudiants en sciences informatiques et en ingénierie informatique de l’UCL apprennent le fonctionnement des réseaux informatiques et d’Internet en particulier.
Le premier cours de ce domaine, Computer networks (LINGI1341), leur donne les bases pour comprendre le fonctionnement de services Internet. Dans le cadre de ce cours, chaque étudiant analyse en détails le fonctionnement d’un site web réel . Cette année, plus de 200 sites web différents ont été analysés par les étudiants suivant ce cours. En réalisant cette analyse, les étudiants mobilisent les connaissances qu’ils ont acquis durant le cours et sont amenés à se poser de nombreux questions sur la façon dont les systèmes réels fonctionnent. Très souvent, ils “découvrent” à l’occasion de ce travail des améliorations ou extensions aux protocoles standards qui sont décrits dans le cours.
L’analyse détaillée d’un site web est une excellente occasion pour permettre aux étudiants de comprendre ce qui se cache derrière un site web qu’ils utilisent parfois fréquemment. Très souvent, l’analyse du site montre aux étudiants que :
- un site web est rarement composé d’un serveur unique. Généralement l’information fournie par un site web vient de nombreux serveurs différents, parfois plusieurs dizaines
- les grands acteurs du web (google, Facebook, twitter, …) sont omniprésents et de très nombreux sites web comprennent des modules qui interagissent avec ces acteurs à chaque consultation du site web
- de nombreux sites web utilisent des extensions peu ou mal documentées aux protocoles standardisés
- de nombreux sites web incluent des web bugs ou images de un pixel qui permettent de tracker les utilisateurs.
Voici quelques exemples de travaux réalisés en 2015 par les étudiants après leur premier cours de réseaux.
- En analysant le site http://sopitas.com, Sergio Alejandro ChavezCardenas a détecté l’utilisation de Keep-Alives dans TCP (Rapport)
- L’analyse du site http://belgianrail.be par Mehdi Dumoulin a montré que les serveurs web utilisaient de nombreuses entêtes HTTP, parfois non-standardisées (Rapport)
- Pour analyser http://foxnews.com, Hanieh Hajighasemi Dehaghi a utilisé d’autres outils informatiques que ceux qui ont été vus au cours, dont netstat ou nmap (Rapport)
- Michaël Heraly a détecté de nombreuses entêtes HTTP non-standard sur le site http://www.bbc.com (Rapport)
- David Sarkozi a montré que le site http://hirado.hu utilisait également des entêtes HTTP non-standardisées (Rapport)
- Robin Ballarini a fournit une analyse détaillée du fonctionnement du site http://dictionary.cambrige.org (Rapport)
- Anne-Sophie Branders a utilisé tcptrace pour analyser le comportement de TCP sur le site http://www.lavenir.net (Rapport)
- Rémi Chauvenne a regardé comment le site webhttp://www.lanouvellegazette.be <http://%20http://www.lanouvellegazette.be> réagissait en présence d’un logiciel bloquant les publicités et a montré qu’il rafraichissait les résultats des matches de football toutes les 64 secondes, même lorsqu’aucun match n’est en cours. (Rapport)
- Cyril de Vogelaere a détecté des entêtes HTTP non-standard ainsi que le tracking des utilisateurs sur le site http://www.newgrounds.com (Rapport)
- Mattieu Detaille a analysé les cookies et entêtes HTTP utilisées par le site http://lefigaro.fr (Rapport)
- Arnaud Dethise a présenté une analyse très détaillée du site http://www.reddit.com (Rapport)
- Sundeep Dhillon a analysé en détails le fonctionnement du site http://www.theverge.com (Rapport)
- Romain Dizier a décrit l’utilisation de l’entête timing-allow-originsur le site http://www.commentcamarche.net (Rapport)
- Simon Hardy a analysé comment le site http://www.9gag.com réagissait à différents scénarios d'utilisation (Rapport)
- Alexandre Hauet a comparé comment trois navigateurs différents interagissaient avec le site http://www.imdb.com (Rapport)
- Florimond Houssiau a montré en détails le fonctionnement du site http://www.explosm.net (Rapport)
- Léonard Julémont a présenté les techniques de tracking des utilisateurs du site http://www.businessinsider.com (Rapport)
- Alexandre Kühn a montré que plus de deux requêtes étaient effectuées lors d’un accès au site http://www.polygon.com (Rapport)
- Sue Lambot a présenté les optimisations utilisées sur le site http://www.oreilly.com (Rapport)
- Benoit Legat a montré comment le site http://www.engadget.com suivait ses utilisateurs (Rapport)
- Caroline Sautelet a analysé comment le site http://www.lemonde.fr était optimisé et suivait ses utilisateurs (Rapport)
- Florian Thuin a montré que lors de son analyse du site http://7sur7.be que google testait de nouveaux protocoles tels que QUIC (Rapport)
- Gregory Vander Schueren a détecté sur le site http://www.techcrunch.com l’entête HTTP non standard "X-hacker: If you’re reading this, you should visit automat- tic.com/jobs and apply tojoin the fun, mention this header. " (Rapport)