L'histoire de l'informatique
L'informatique est la science du traitement rationnel, notamment à l'aide de machines automatiques, de l'information considérée comme le support des connaissances humaines et des communications dans les domaines techniques, économiques et sociaux.
Les origines de l'informatique
Le mot informatique fut inventé par Philippe Dreyfus, qui était le directeur du Centre national de calcul électronique de la société Bull, en 1962. C'est en fait un néologisme de la langue française qui résulte de la contraction des deux mots "automatique" et "information" pour parler du traitement automatique de l'information.
L'informatique s'est déployé sur les 19ème et 20ème siècles et est lié à l'apparition des premiers automates. Charles Babbage est considéré comme le grand-père des ordinateurs modernes en inventant, en 1834, la machine analytique. C'est une machine à calculer programmable. Babbage ne verra malheureusement jamais la machine de son vivant car la Courrone Britannique fut lassé des longues recherches et retira son soutien financier.
L'ENIAC, un des premier ordinateur fabriqué.
L’évolution des langages de programmation
Vis-à-vis des générations d’ordinateurs, il est possible de mettre en parallèle des types de logiciels. Ainsi, à la première génération d’ordinateurs correspond le codage machine direct en binaire ; à la deuxième, le langage assembleur ; à la troisième, les langages évolués (Fortran, Cobol, Simula, APL, etc.) ; à la quatrième, les langages évolués de deuxième génération comme Pascal et C++, dit « structurés », ainsi que des langages "Objets" et des langages d’interrogation de très haut niveau comme SQL. Un projet de cinquième génération japonais avait été lancé par le MITI au tout début des années 1980 et devait être articulé autour des moteurs d’inférence et du langage Prolog, mais en dépit de budgets importants, le projet n’a jamais abouti.
Un peu de chronologie
- Première génération : des relais aux lampes
- Deuxième génération : les transistors
- Troisième génération : les circuits intégrés
- Quatrième génération : les micro-ordinateurs
- Cinquième génération : interface graphique et réseaux
Les premiers usages
Au départ, l’informatique a principalement deux usages, le calcul scientifique (pour des usages aussi bien civils que militaires, stimulés par la Guerre Froide) et l’aide à la gestion des entreprises, en prenant la relève de la mécanographie. En anglais on distingue deux domaines : Computer Science et Information Systems.
La fin des années 1960 est marquée par une bulle spéculative sur les sociétés d'électronique découlant de l'apparition des circuits intégrés produits à grande échelle, et surtout de nouveaux modes d'utilisation de l'ordinateur, notamment en temps partagé sur des terminaux distants.
De nouvelles machines permettent d'automatiser des calculs faits précédemment par des pools de calculateurs humains dans les entreprises, les universités, les organismes de recherche. Le ministère de la Défense aux États-Unis a subventionné de gros programmes de recherche en programmation, en reconnaissance des formes et intelligence artificielle, en codage et cryptographie, en traduction automatique des langues, qui ont permis le décollage des applications informatiques.
En France, à plus petite échelle, au milieu des années 1960, la diversification des applications se combine avec l'attrait de l'ordinateur pour divers projets scientifiques (de la logique à la linguistique). Mais il faudra plus de dix ans pour que les grandes institutions scientifiques admettent officiellement l'idée que l’informatique est une nouvelle science.
Il est à noter que dès 1968, l'artiste Vera Molnár utilise l'ordinateur et l'art algorithmique dans ses créations artistiques.
L'introduction dans la société
Avec les développements en puissance et en fiabilité des ordinateurs, toutes les pratiques sociales de recherche, de conception, de fabrication, de commercialisation, de publication, de communication ont été envahies et transformées par l’informatique. La micro-informatique a permis une grande diffusion des composants informatiques à base de microprocesseurs dans les systèmes techniques et la création des micro-ordinateurs. Les réseaux font communiquer les machines, permettent la décentralisation des machines près des postes de travail et les premières communications à travers les machines. Les constructeurs conçoivent des architectures pour les connecter, comme la DSA (CII-Honeywell-Bull), Decnet, de DEC, et SNA d'IBM.
Sources : - archinfo01.hypotheses.org
- wikipedia.org