D’ici à 2025, le volume total de données à analyser devrait être multiplié par plus de huit selon le cabinet d'analystes IDC, pour atteindre 163 Zettaoctets  (soit 1 000 milliards de gigaoctets). Explosion, tsunami ou déluge de données : les hyperboles ne manquent pas pour exprimer ce phénomène. Les individus, menacés d’infobésité, interconnectés et interagissant avec les objets, sont générateurs d'une quantité exponentielle de données et de traces numériques via ordinateurs, smartphones, tablettes, caméras, capteurs, implants, compteurs électriques, voitures autonomes, jouets connectés, cryptomonnaies... Les campagnes de numérisation de sources patrimoniales (archives papiers, photographiques, cinématographiques, radiophoniques…) contribuent à cet essor.

Les « centres de traitement de données » ou datacenters se répandent aux quatre coins du monde et proposent diverses solutions de stockage et de gestion. Ces mastodontes accueillent des milliers de serveurs. Leur capacité de stockage et donc leur taille ne cessent de croître pour atteindre des dizaines de milliers de mètres carrés. La consommation électrique de datacenters tels que ceux de Google ou Facebook (alimentation électrique des serveurs et du système de refroidissement des locaux) est comparable à celle de grandes villes. Une consommation qui peut atteindre 100 millions de watts, soit un dixième de la production d’une centrale thermique. L'implantation de ces hangars de serveurs est soumise à de multiples contraintes. Leur consommation électrique requiert une alimentation colossale avec un service continu, sans interruption. Ils sont également soumis aux risques naturels (séisme, inondation,...) et autres ; la perte des données subséquente peut être désastreuse pour les entreprises et autres institutions qui en dépendent.

La règlementation en vigueur quant à l'utilisation des données dépend du territoire sur lequel les datacenters s'implantent : ainsi, certaines entreprises étrangères choisissent d'installer leur datacenter en France pour satisfaire leurs clients français.


Sources et compléments

Internet Live Stats
http://www.internetlivestats.com/

Numérique : le grand gachis énergétique / CNRS le journal, 2018
https://lejournal.cnrs.fr/articles/numerique-le-grand-gachis-energetique

Projet Natick de Microsoft : un datacenter sous-marin au large de l'Écosse / Futura Tech, 2018
https://www.futura-sciences.com/tech/actualites/informatique-projet-natick-microsoft-datacenter-sous-marin-large-ecosse-61458/

Les cryptomonnaies pourraient paralyser internet, selon la BRI / Bilan, 2018
http://www.bilan.ch/argent-finances/cryptomonnaies-pourraient-paralyser-internet-selon-bri

L'explosion du volume de données fait saliver l'industrie du stockage / lesechos.fr, 2017
https://www.lesechos.fr/04/04/2017/lesechos.fr/0211941994405_l-explosion-du-volume-de-donnees-fait-saliver-l-industrie-du-stockage.htm

Les données des objets connectés sont-elles des "données clients" comme les autres ? / Diabolocom. 2017
https://blog.diabolocom.com/les-donn%C3%A9es-des-objets-connect%C3%A9s-sont-elles-des-donn%C3%A9es-clients-comme-les-autres

Impact environnemental du numérique : il est temps de renouveler Internet / Greenpeace, 2017
https://www.greenpeace.fr/il-est-temps-de-renouveler-internet/

2013-2020 : le volume de données de l'univers digital multiplié par 10 - #BigDataBx / CCI Bordeaux, 2014
https://echangeurba.wordpress.com/...

Où implanter son datacenter en toute sécurité ? / Lemondeinformatique.fr, 2013
http://www.lemondeinformatique.fr/actualites/lire-ou-implanter-son-datacenter-en-toute-securite-53759.html

Datacenters : l'Amérique qui fait peur / silicon.fr, 2013
http://www.silicon.fr/datacenter-amerique-cartes-risques-82608.html

Crédits

© Bibliothèque des Sciences et de l'Industrie/universcience. Paris | Date de mise à jour : avril 2017 - Création : 2013 | Réalisation du dossier documentaire : Thibaut Boyer, Christine Monmarthe | Relecture/Contrôle qualité : Sonia Christon/Marie-Claude Philippe | Crédits image : Fotolia.com.