Définition
Informatique : c’est Science du traitement automatique et rationnel de l’information considérée comme le support des connaissances et des communications.
2. Ensemble des applications de cette science, mettant en œuvre des matériels (ordinateurs) et des logiciels.
Importance
Depuis la découverte de l’informatique, de nombreuses activités de la vie courante ont été simplifiés. Actuellement les individus peuvent facilement traiter des informations en se servant des logiciels et des réseaux informatiques. Compte tenu de son évolution, ce système caractérise la majorité des grandes entreprises quel que soit le secteur d’activité.
reseaux-informatiques.jpg
Pour les étudiants, il leur est alors capital d’avoir certaines connaissances dans ce domaine pour pouvoir réussir dans le domaine professionnel.
L’informatique est un secteur d’activité qui possède une évolution constante et de nombreuses personnes s’interroge sur ce que cette technologie peut représenter dans l’avenir.
A quelles fins est utilisée l’informatique aujourd’hui
Aujourd’hui, les ordinateurs remplacent les papiers, les calculatrices, les radios, les boites aux lettres, etc. En fait l’objectif des informaticiens est de développer cette technologie dans tous les domaines de la vie de la population. L’informatique se sert de nombreux outils pour pouvoir transmettre les informations, c’est en effet un moyen de recherche à la fois simple et rapide permettant aux professionnels et aux étudiants d’obtenir des informations sur divers sujets.
systeme-dalarme.jpg
Grâce à l’informatique, nous avons aujourd’hui la possibilité de manipuler des objets tels qu’un climatiseur, un thermostat, un système d’alarme, les portes des maisons… à partir d’un appareil connecté tel qu’un ordinateur, un téléphone ou une tablette.
Quels sont les utilisations futures possibles de l’informatique
Ne serait-ce que ces dix dernières années on a constaté une grande évolution de l’informatique qui s’est caractérisé par la création de nouveaux appareils en substitution ou en complément de ceux qui existent déjà. Ces nouveaux appareils se caractérisent par leur aspect pratique et possède une capacité de stockage et de traitement de données plus efficace.
En analysant ces changements, les spécialistes peuvent anticiper les utilisations futures possibles de l’informatique et nombreux parmi eux soutiennent l’idée que dans un avenir proche la curation des données s’imposera comme une tendance plus globale et que la collecte d’informations sera encore plus importante

Ordinateur
Page d’aide sur l’homonymie
Ne doit pas être confondu avec Appareil informatique ou Système de traitement de l’information.
Un ordinateur est un système de traitement de l’information programmable tel que défini par Alan Turing et qui fonctionne par la lecture séquentielle d’un ensemble d’instructions, organisées en programmes, qui lui font exécuter des opérations logiques et arithmétiques. Sa structure physique actuelle fait que toutes les opérations reposent sur la logique binaire et sur des nombres formés à partir de chiffres binaires. Dès sa mise sous tension, un ordinateur exécute, l’une après l’autre, des instructions qui lui font lire, manipuler, puis réécrire un ensemble de données déterminées par une mémoire morte d’amorçage. Des tests et des sauts conditionnels permettent de passer à l’instruction suivante et donc d’agir différemment en fonction des données ou des nécessités du moment ou de l’environnement.
Les données à manipuler sont acquises soit par la lecture de mémoires, soit en provenance de périphériques internes ou externes (déplacement d’une souris, touche appuyée sur un clavier, déplacement d’un stylet sur une tablette, température et autres mesures physiques…). Une fois utilisés, ou manipulés, les résultats sont écrits soit dans des mémoires, soit dans des composants qui peuvent transformer une valeur binaire en une action physique (écriture sur une imprimante ou sur un moniteur, accélération ou freinage d’un véhicule, changement de température d’un four…). L’ordinateur peut aussi répondre à des interruptions qui lui permettent d’exécuter des programmes de réponses spécifiques à chacune, puis de reprendre l’exécution séquentielle du programme interrompu.
L’histoire des ordinateurs remonte au XIXe siècle avec des concepts tels que la machine à différences de Charles Babbage, sans suite directe. Alan Turing formalise mathématiquement la notion d’ordinateur en 1931. Les premières implémentations commencent à émerger au milieu du XXe siècle, notamment grâce aux travaux de von Neumann en 1945, et se développe rapidement avec l’avènement des transistors et des circuits intégrés, ce qui a permis la fabrication de machines plus petites, plus rapides et moins chères. Les années 1970 ont vu l’émergence des ordinateurs personnels, tandis que les années 1990 ont été marquées par l’essor d’Internet et de la communication en réseau.
Acer Aspire 8920 Gemstone.jpgColumbia Supercomputer – NASA Advanced Supercomputing Facility.jpgIntertec Superbrain.jpg
2010-01-26-technikkrempel-by-RalfR-05.jpgThinking Machines Connection Machine CM-5 Frostburg 2.jpgG5 supplying Wikipedia via Gigabit at the Lange Nacht der Wissenschaften 2006 in Dresden.JPG
DM IBM S360.jpgAcorn BBC Master Series Microcomputer.jpgDell PowerEdge Servers.jpg
Différents modèles d’ordinateurs
(
Historique
Henry Babbage construit une version extrêmement simplifiée de l’unité centrale de la « machine analytique » de son père et l’utilise en 1906, pour calculer et imprimer automatiquement les quarante premiers multiples du nombre Pi avec une précision de vingt-neuf décimales[12], démontrant sans ambiguïté que le principe de la machine analytique était viable et réalisable. En 1886, sa plus grande contribution fut de donner un ensemble mécanique de démonstration d’une des machines de son père à l’université Harvard[13]. C’est cinquante ans plus tard, après avoir entendu la présentation de Howard Aiken sur son super calculateur, qu’un technicien de Harvard, Carmello Lanza, lui fit savoir qu’une machine similaire avait déjà été développée et qu’il lui montra l’ensemble mécanique de démonstration donné par Henry Babbage qui se trouvait dans un des greniers de l’université ; c’est ainsi qu’il découvrit les travaux de Babbage et qu’il les incorpora dans la machine qu’il présenta à IBM en 1937[14]. C’était la troisième fois qu’il essayait de trouver un sponsor pour le développement de sa machine car son projet avait déjà été rejeté deux fois avant l’intégration des travaux de Babbage dans l’architecture de sa machine (une fois par la Monroe Calculating Company[15] et une fois par l’université Harvard[14]).
Leonardo Torres Quevedo remplaça toutes les fonctions mécaniques de Babbage par des fonctions électromécaniques (addition, soustraction, multiplication et division mais aussi la lecture de cartes et les mémoires). En 1914 et en 1920, Il construisit deux machines analytiques, non programmable, extrêmement simplifiées[16] mais qui montraient que des relais électromécaniques pouvaient être utilisés dans une machine à calculer qu’elle soit programmable ou non. Sa machine de 1914 avait une petite mémoire électromécanique et son arithmomètre de 1920, qu’il développa pour célébrer le centième anniversaire de l’invention de l’arithmomètre, était commandé par une machine à écrire qui était aussi utilisée pour imprimer ses résultats.
Percy Ludgate améliora et simplifia les fonctions mécaniques de Babbage mais ne construisit pas de machine. Et enfin, Louis Couffignal essaya au début des années 1930[17], de construire une machine analytique « purement mécanique, comme celle de Babbage, mais sensiblement plus simple », mais sans succès. C’est cent ans après la conceptualisation de l’ordinateur par Charles Babbage que le premier projet basé sur l’architecture de sa machine analytique aboutira. En effet, c’est en 1937 qu’Howard Aiken présenta à IBM un projet de machine à calculer programmable qui sera le premier projet qui finira par une machine qui puisse être, et qui sera utilisée, et dont les caractéristiques en font presque un ordinateur moderne. Et donc, bien que le premier ordinateur ne sera jamais déterminé à l’unanimité, le début de l’ère de l’informatique moderne peut être considéré comme la présentation d’Aiken à IBM, en 1937, qui aboutira par l’ASCC.
Calculatrices
xixe siècle, pour achever les recensements aux États-Unis, la mécanisation de la cryptographie au début du xxe siècle, pour chiffrer puis déchiffrer automatiquement des messages, le développement des réseaux téléphoniques (à base de relais électromécaniques), sont aussi à prendre en compte pour comprendre l’avènement de ce nouveau genre de machine qui ne calculent pas (comme font/faisaient les calculatrices), mais lisent et interprètent des programmes qui -eux- calculent. Pour le monde des idées, avant l’invention de ces nouvelles machines, l’élément fondateur de la science informatique est en 1936, la publication de l’article On Computable Numbers with an Application to the Entscheidungsproblem[20] par Alan Turing qui allait déplacer le centre de préoccupation de certains scientifiques (mathématiciens et logiciens) de l’époque, du sujet de la calculabilité (ou décidabilité) ouvert par Hilbert, malmené par Gödel, éclairci par Church, vers le sujet de la mécanisation du calcul (ou calculabilité effective). Dans ce texte de 36 pages, Turing expose une machine théorique capable d’effectuer tout calcul ; il démontre que cette machine est aussi puissante, au niveau du calcul, que tout être humain. Autrement dit, un problème mathématique possède une solution, si et seulement si, il existe une machine de Turing capable de résoudre ce problème. Par la suite, il expose une machine de Turing universelle apte à reproduire toute machine de Turing, il s’agit des concepts d’ordinateur, de programmation et de programme. Il termine en démontrant qu’il existe au moins un problème mathématique formellement insoluble, le problème de l’arrêt.
Peu avant la Seconde Guerre mondiale, apparurent les premières calculatrices électromécaniques, construites selon les idées d’Alan Turing. Les machines furent vite supplantées par les premiers calculateurs électroniques, nettement plus performants.
Années 1930
La fin des années 1930 virent, pour la première fois dans l’histoire de l’informatique, le début de la construction de deux machines à calculer programmables. Elles utilisaient des relais et étaient programmées par la lecture de rouleaux perforés et donc, pour certains, étaient déjà des ordinateurs. Elles ne furent mises en service qu’au début des années 1940, faisant ainsi de 1940 la première décennie dans laquelle on trouve des ordinateurs et des machines à calculer programmables totalement fonctionnels. C’est d’abord en 1937 que Howard Aiken, qui avait réalisé que la machine analytique de Babbage était le type de machine à calculer qu’il voulait développer[21], proposa à IBM de la créer et de la construire ; après une étude de faisabilité, Thomas J. Watson accepta de la construire en 1939 ; elle fut testée en 1943 dans les locaux d’IBM et fut donnée et déménagée à l’université Harvard en 1944, changeant son nom de ASCC à Harvard Mark I ou Mark I.
Mais c’est aussi Konrad Zuse qui commença le développement de son Zuse 3, en secret, en 1939, et qui le finira en 1941. Parce que le Zuse 3 resta inconnu du grand public jusqu’après la fin de la Seconde Guerre mondiale (sauf des services secrets américains qui le détruisirent dans un bombardement en 1943), ses solutions très inventives ne furent pas utilisées dans les efforts communs mondiaux de développement de l’ordinateur.
