Passant de 2 zettaoctets en 2010 à 64 en 2020, selon IDC/Seagate/Statista le volume total de données à analyser devrait dépasser 180 zettaoctets en 2025 (1 zettaoctet = 1021 octets). Explosion, tsunami ou déluge de données : les hyperboles ne manquent pas pour exprimer ce phénomène. Les individus, menacés d’infobésité, interconnectés et interagissant avec les objets, sont générateurs d'une quantité exponentielle de données et de traces numériques via ordinateurs, smartphones, tablettes, caméras, capteurs, implants, compteurs électriques, voitures autonomes, jouets connectés, cryptomonnaies... Les campagnes de numérisation de sources patrimoniales (archives papiers, photographiques, cinématographiques, radiophoniques…) contribuent à cet essor.

Les « centres de traitement de données » ou datacenters se répandent aux quatre coins du monde et proposent diverses solutions de stockage et de gestion. Ces mastodontes accueillent des milliers de serveurs. Leur capacité de stockage et donc leur taille ne cessent de croître pour atteindre des dizaines de milliers de mètres carrés. La consommation électrique de datacenters tels que ceux de Google ou Facebook (alimentation électrique des serveurs et du système de refroidissement des locaux) est comparable à celle de grandes villes. Une consommation qui peut atteindre 100 millions de watts, soit un dixième de la production d’une centrale thermique. L'implantation de ces hangars de serveurs est soumise à de multiples contraintes. Leur consommation électrique requiert une alimentation colossale avec un service continu, sans interruption. Ils sont également soumis aux risques naturels (séisme, inondation,...) et autres ; la perte des données subséquente peut être désastreuse pour les entreprises et autres institutions qui en dépendent.

La règlementation en vigueur quant à l'utilisation des données dépend du territoire sur lequel les datacenters s'implantent : ainsi, certaines entreprises étrangères choisissent d'installer leur datacenter en France pour satisfaire leurs clients français.

 

À voir

Sources et compléments

Le big bang du big data / Statista, 2021
https://fr.statista.com/infographie/17800/big-data-evolution-volume-donnees-numeriques-genere-dans-le-monde/

Data centers dans l'espace : Thales sélectionné pour mener l'expérimentation / L'Usine digitale, 2022
https://www.usine-digitale.fr/article/data-centers-dans-l-espace-thales-selectionne-pour-mener-l-experimentation.N2067027

La lourde facture environnementale des data centers / Capital.fr, 2022
https://www.capital.fr/entreprises-marches/la-lourde-facture-environnementale-des-data-centers-1424800

Sous l’eau depuis deux ans, le data center sous-marin de Microsoft a tenu / numerama.fr, 2020
https://www.numerama.com/tech/648236-sous-leau-depuis-deux-ans-le-data-center-sous-marin-de-microsoft-a-tenu.html

Projet Natick de Microsoft : un datacenter sous-marin au large de l'Écosse / Futura Tech, 2018
https://www.futura-sciences.com/tech/actualites/informatique-projet-natick-microsoft-datacenter-sous-marin-large-ecosse-61458/

Numérique : le grand gachis énergétique / CNRS le journal, 2018
https://lejournal.cnrs.fr/articles/numerique-le-grand-gachis-energetique

L'explosion du volume de données fait saliver l'industrie du stockage / lesechos.fr, 2017
https://www.lesechos.fr/04/04/2017/lesechos.fr/0211941994405_l-explosion-du-volume-de-donnees-fait-saliver-l-industrie-du-stockage.htm

La pollution numérique qu'est-ce que c'est / Greenpeace, 2020
https://www.greenpeace.fr/la-pollution-numerique/

Où implanter son datacenter en toute sécurité ? / Lemondeinformatique.fr, 2013
http://www.lemondeinformatique.fr/actualites/lire-ou-implanter-son-datacenter-en-toute-securite-53759.html

Datacenters : l'Amérique qui fait peur / silicon.fr, 2013
http://www.silicon.fr/datacenter-amerique-cartes-risques-82608.html