Retour

Événements clés de l’histoire de l’informatique

🎲 Quiz GRATUIT

📝 Mini-cours GRATUIT

De l’algorithme à la notion de programme

Les algorithmes ne sont pas nés avec l’informatique.

L’algorithme d’Euclide pour calculer le PGCD de deux entiers est vieux de plus de 2000 ans !
Des descriptions précises d’algorithmes sont présents dans la Chine ancienne.
(Par exemple, pour extraire des racines carrées à partir de divisions effectuées sur une « surface à calculer »)

L’origine du mot « algorithme » est lié au nom du savant persan du IXe siècle : Al-Khwarizmi.
Ce savant persan a publié plusieurs méthodes pour le calcul effectif de racines d’une équation du second degré et grâce à lui les chiffres arabes ont pu se diffuser en Occident.

L’algorithmique est la science de l’organisation des opérations à effectuer.
C’est la réalisation d’une opération abstraite comme par exemple l’addition de deux nombres.

Pour passer à une réalisation concrète, il faut traduire l'algorithme de façon bien précise sous la forme d’un programme, écrit dans un langage de programmation.

C'est le mathématicien Leibniz qui a introduit en Europe le calcul binaire vers 1697.
C’est à partir du calcul binaire que seront développés les premiers ordinateurs.

Ada Lovelace, mathématicienne du XIXe siècle a fortement contribué à la création du premier ordinateur appelé la machine analytique par Charles Babbage.
Cette machine analytique avait pour but d’exécuter des opérations numériques et symboliques.

De la mécanisation des calculs au logiciel

En 1801, le métier à tisser de Jacquard est considéré comme la première machine programmable utilisant une programmation binaire.
Une machine mécanique n'est conçue que pour exécuter un programme donné défini à l'avance.
Au contraire, l’ordinateur peut exécuter un nombre quelconque de programmes et devient une machine universelle.

Alan Turing a créé en 1936 l’article fondateur de la science informatique. Il a compris comment quelques opérations élémentaires de calcul pouvaient être combinées pour exécuter tous les algorithmes du monde, donnant le coup d’envoi à la création des calculateurs universels programmables.

En 1943, pendant la seconde guerre mondiale, Alan Turing a contribué au décryptage des messages codés par les nazis avec la machine Enigma.

Le premier ordinateur numérique entièrement automatique est l'œuvre d’IBM : le Harvard Mark I.
Il a été mis au point par une militaire américaine Grace Hopper qui est aussi à l’origine du premier compilateur, et a participé la conception de plusieurs langages de programmation très importants, dont le COBOL. 

Un compilateur est un logiciel qui permet de traduire en langage machine les éléments de l’algorithme écrit dans un langage informatique compréhensible par tous les ingénieurs.
Les premiers ordinateurs naîtront vers 1940.

En 1944, le physicien théoricien John von Neumann décrit la première architecture matérielle qui a triomphé et reste celle de l’immense majorité des ordinateurs aujourd’hui.

Du codage de l’information à l’objet numérique

Un message contient une quantité précise d'informations.

Tous les objets (images, sons, textes, données) ont un reflet numérique qui permet de mémoriser l’information, de la transmettre, de la reproduire à l’infini et de la manipuler de manière spécifique grâce à différents algorithmes.

Le physicien Shannon a défini la quantité d’informations de manière mathématique avec la théorie des probabilités mises en équations par Kolmogorov.

La démocratisation de l’informatique

Au début du XXI$^e$ siècle, les interfaces entre les ordinateurs et les cerveaux n’en étaient qu’à leurs balbutiements. 

En 1968, Douglas Engelbart présente un environnement graphique avec des fenêtres que l’on peut ouvrir et fermer à l’aide d’un pointeur relié à l’ordinateur : la souris.

Entre 1969 et 1983, l’interface homme-machine est minimale : le clavier sert à envoyer de l’information retranscrite par l’écran.
Les ordinateurs sont à l’époque réservés à des élites dans le milieu professionnel.

Entre 1984 et aujourd’hui, le confort de l’utilisateur entre en jeu.
Le contenu à l’écran est présenté sous la forme « What You See Is What You Get » (WYSIWYG).
Cette expression est popularisée par Apple et son fameux Macintosh. L’interaction devient symbolique avec les fenêtres, les icônes, les menus et les dispositifs de pointage et l’apprentissage est facilité pour le grand public.
C’est la naissance de l’informatique grand public.

Tim Berners-Lee informaticien du CERN à Genève est le principal inventeur du World Wide Web au début des années 1990 qui permet d'échanger des contenus à travers le réseau mondial Internet.

Voici deux graphiques illustrant l'évolution du nombre d'utilisateurs d'internet dans le monde entre 1995 et 2018.

Voici un autre graphique donnant l'évolution du nombre de sites internet depuis 1991 jusqu'à 2018 (avec une échelle logarithmique) :

Pour effectuer des recherches pertinentes sur Internet, Larry Page et Sergey Brin deux informaticiens californiens créent le moteur de recherche Google Search.

En novembre 2016, le nombre de pages indexées par le moteur de recherche Google était de $1,3 \times 10^{14}$ (130 mille milliards).

Les médias sociaux

En 2004, Mark Zuckerberg fonde le réseau le réseau social Facebook dans l'université de Harvard.

Au 31 janvier 2019, Facebook 2,3 milliards d'utilisateurs actifs dans le monde.

De nombreux autres médias sociaux se sont développés après FaceBook.
On peut citer entre autres :

  •  LinkedIn (réseau social professionnel);
  • Twitter (réseau social de micro-publication);
  • YouTube (partage de vidéos);
  • Deezer (partage de musique);
  • Instagram (partage de photos);
  • Wikipedia (encyclopédie libre);
  • GitHub (partages de code source).

Ainsi le Web au fil des années a évolué depuis :

  • Le Web 1.0 qui était focalisé sur la documentation.
    On utilisait alors les e-mails et les portails de contenu au travers de sites statiques.
  • Vers le Web 2.0 qui est focalisé sur les utilisateurs.
    On utilise les réseaux sociaux, des espaces créés par les utilisateurs pour partager des contenus, le commerce en ligne
  • Vers le Web 3.0 focalisé sur les données et utilisant l'intelligence artificielle.
    Les informations sont partagées en temps réel (exemple : les twittos).

Le Web 3.0 fonctionnera avec des agents intelligents intégrés à des objets connectés.

📄 Annale PREMIUM

PREMIUM

Sujet zéro — Numérique et sciences informatiques

Nomad+, Le pass illimité vers la réussite 🔥

NOMAD EDUCATION

L’app unique pour réussir !