‍Une brève histoire de la data : Partie 2 - les analyses

A quand remonte l’analyse de données ? Cet article va vous permettre de remonter dans le temps et de découvrir l’évolution de l’analyse de données. Cet article est le second d’une série d’articles. Retrouvez le premier article sur les infrastructures de données.

Commençons plutôt loin : 2000 ans avant notre ère. 

-2000 : Invention de la base de données

Nous analysons des données depuis la naissance de la civilisation. Les plus anciennes traces d'écriture conservées ne sont pas des choses éthérées comme des poèmes, des grands discours, des lettres d'amour ou des romans, mais plutôt des exemples d'analyse de données. 

Chez les Sumériens, les scribes dressaient des listes de laboureurs employés par l'État et préservaient ces données sur des tablettes d'argile, constituant ainsi la première base de données. Ces inscriptions permettaient alors de calculer les salaires et donc les premières analyses de données. 

1663

John Graunt introduit l'analyse des données statistiques avec la peste bubonique. Ce mercier londonien a publié la première collection d'archives de santé publique lorsqu'il a enregistré les taux de mortalité et leurs variations pendant la peste bubonique en Angleterre.

XXème siècle

Commençons par cette anecdote : en 1926, Nikola Tesla prédit que l'homme aura un jour accès à de grandes quantités de données grâce à un instrument qui pourra être transporté “dans la poche d'un gilet".

Les années 60-70

Faisons ensuite directement un saut dans les années 60, où l’analyse de données s’est structurée sous une formule plus proche que celle que nous connaissons. Les capacités de calcul des ordinateurs ont commencé à augmenter, les premières bases de données ont commencé à être informatisées par opposition aux bases précédentes qui étaient purement en version papier. 

Peu de calculs étaient effectués via ces données, on pouvait donc fouiller dans une base, en étant limité par la taille de l’écran. Ainsi, lorsque les quantités de données ont commencé à se multiplier, des problèmes de maintenance ont commencé à se poser. Et vous savez quoi ? 60 ans plus tard, ce problème de maintenance existe encore dans de nombreuses organisations. 

Un besoin de structuration de la donnée s’est alors fait sentir. Le SQL (Structured Query Language) est apparu dans les années 70. C’est à cette époque que les premiers métiers d’analystes des données sont apparus.

En 1965, les États-Unis prévoient de construire les premiers bâtiments de centres de données pour stocker des millions de déclarations d'impôts et d'empreintes digitales sur bande magnétique. C'est le début de la numérisation de l’administration. 

Les années 80-90

C’est à cette époque qu'apparaît la business intelligence. Comment voir des données à différents niveaux d’agrégation ? Plutôt que de voir la donnée à un niveau ville, on veut être en capacité de les voir à un niveau ville, mais aussi région, puis pays. C’est l’apparition du “drill up and down”. A partir de là, les exigences ont commencé à croître. Peut-on voir une évolution temporelle ? Pour les gens qui s'appellent Jacques ? 

Il a alors fallu dénormaliser la donnée pour apporter de la flexibilité dans leurs compréhensions. Les cadres de l’entreprise peuvent donc être en possession de rapports sophistiqués pour aider à prendre les décisions dans la bonne direction. La démocratisation d’internet dans les années 90 a commencé à démultiplier les sources de données, les outils n’étaient alors plus suffisants. 

Selon R.J.T. Morris et B.J. Truskowski dans “The Evolution of Storage Systems."(2003), ce ne serait qu’en 1996 qu’il serait devenu moins coûteux de stocker les données sur un support numérique plutôt que papier. 

Le XXIème siècle

L’explosion des données a fait exploser le nombre d’analyses autour d’elles. Il a fallu la stocker, être en capacité de l’analyser. C’est l’apparition du Big Data. Des outils comme Hadoop sont apparus pour favoriser l’analyse de données à fort volume. Nous reviendrons sur ce sujet dans la partie 3 de cette histoire de la data. 

Dans les années 2000, le Cloud est apparu, permettant de centraliser à travers une organisation, le stockage de données. 

En 2010, la Data science a fait surface, permettant d’améliorer en profondeur l’analyse et de faire des prédictions. Nous reviendrons sur ce sujet dans la partie 4 de cette histoire de la data...

Et le futur de l’analyse des données ? L’analyse “Edge” en fait partie pour les données dites sensibles. Comment décentraliser l’analyse de données directement sur les appareils ? Un autre sujet d’extension est l’IoT (Internet of Things) qui va permettre à la collecte de données de passer à une nouvelle étape. De quoi occuper les data analysts et autres métiers de la data pendant encore de nombreuses années !

Plus d'articles du même genre ◆◆

Inscris-toi à notre newsletter

Je veux connaître l'actualité de l'école ◆◆

Nous avons bien reçu vos informations !
Vous voilà inscrit à notre newsletter !
Oops! Something went wrong while submitting the form.

Let's meet ◆◆

Tu veux en savoir plus sur ALBERT SCHOOL ? L'équipe est dispo pour répondre à toutes tes questions.