ARK NETWORK reference.ch · populus.ch    
 
  
Mbuyi-Moise 
 
 
Rubriques

Liens

 Home  | Livre d'Or  | Album-Photo  | Contact

Historique de l'informatique

Une très brève histoire de l'informatique 
Ceci est une traduction (aimablement autorisée par l'auteur) de A Very Brief History of Computer Science, texte écrit en 1995 (et revu en 1999) par Jeffrey Shallit pour ses étudiants de l'Université de Waterloo (Canada).  
La plupart des notices biographiques obtenues en cliquant sur les noms cités font partie de l'excellente base de données MacTutor History of Mathematics archive, développée et gérée par John O'Connor et Edmund Robertson à l'Université de St Andrews (Ecosse).  
Avant 1900  
Les machines à calculer sont utilisées depuis des milliers d'années : on trouvait probablement des abaques à Babylone en 3000 avant notre ère. Les Grecs ont fabriqué des calculateurs analogiques très perfectionnés. En 1901, au large de l'île d'Antikythera, on a découvert une épave dans laquelle se trouvait, encroûté de sel, un assemblage d'engrenages rouillés (le mécanisme d'Antikythera), daté d'environ 80 avant notre ère, que l'on a reconstruit : il servait à prédire les mouvements des astres.  
L'Ecossais John Napier (1550-1617), l'inventeur des logarithmes, fabriqua vers 1610 les règles de Napier pour simplifier la multiplication.  
En 1641, Blaise Pascal (1623-1662) construisit une machine à additionner. Un travail analogue fut réalisé par Gottfried Wilhelm Leibniz (1646-1716), qui préconisa l'utilisation du système binaire pour les calculs. On a récemment découvert que Wilhelm Schickard (1592-1635), professeur à l'Université de Tübingen, avait construit une machine de ce genre vers 1623 ou 1624 (avant Pascal et Leibniz), qu'il décrivit brièvement dans deux lettres à Johannes Kepler. Malheureusement, la machine brûla dans un incendie, et Schickard lui-même mourut de la peste bubonique en 1635, durant la Guerre de Trente Ans.  
Joseph-Marie Jacquard (1752-1834) inventa un métier à tisser dont les motifs était indiqués par des cartons perforés. Charles Babbage (1792-1871) construisit deux machines : la machine différentielle (exposée au Science Museum de Londres) et la machine analytique, beaucoup plus ambitieuse (un précurseur de l'ordinateur), mais aucune des deux ne marchait correctement. (Babbage, que l'un de ses biographes traite de « génie irascible », était un peu bizarre. On ignore généralement qu'il est l'inventeur de la dendrochronologie, ou datation des arbres; il ne poursuivit pas ses recherches à ce sujet. Devenu vieux, il consacra une grande partie de son temps à persécuter les joueurs d'orgue de Barbarie.)  
Une amie de Babbage, Ada Byron, comtesse de Lovelace (1815-1852), est parfois considérée comme le premier programmeur de l'Histoire, en raison d'un rapport qu'elle écrivit sur la machine de Babbage. (Le langage de programmation Ada a été nommé en son honneur.)  
L'économiste et logicien anglais William Jevons (1835-1882) construisit en 1869 une machine à résoudre des problèmes de logique : « la première machine suffisamment puissante pour résoudre un problème compliqué plus rapidement qu'à la main » (Martin Gardner). La machine se trouve actuellement au Museum of the History of Science d'Oxford.  
Le statisticien américain Herman Hollerith (1860-1929) inventa la carte perforée moderne pour l'utiliser dans une machine destinée à analyser les résultats du recensement de 1890.  
1900 - 1939: l'avancée mathématique  
L'étude des machines à calculer se poursuivait. On construisit des machines destinées à une utilisation particulière: ainsi, en 1919, le lieutenant d'infanterie E. Carissan (1880-1925) conçut et réalisa une merveilleuse machine à factoriser les entiers. L'Espagnol Leonardo Torres y Quevedo (1852-1936) construisit plusieurs machines électromécaniques, dont l'une qui jouait des fins de parties d'échecs.  
En 1928, le mathématicien David Hilbert (1862-1943) posa trois questions au Congrès International des Mathématiciens : (1) Les mathématiques sont-elles complètes ? (tout énoncé mathématique peut-il être soit prouvé, soit réfuté ?) (2) Les mathématiques sont-elles cohérentes ? (peut-on être sûr que des raisonnements valides ne conduiront pas à des absurdités ?) (3) Les mathématiques sont-elles décidables ? (existe-t-il un algorithme pouvant dire de n'importe quel énoncé mathématique s'il est vrai ou faux ?) Cette dernière question est connue sous le nom de Entscheidungsproblem.  
En 1931, Kurt Gödel (1906-1978) répondit à deux de ces questions. Il démontra que tout système formel suffisamment puissant est soit incohérent, soit incomplet. De plus, si un système d'axiomes est cohérent, cette cohérence ne peut être prouvée en n'utilisant que les axiomes. La troisième question restait ouverte, en remplaçant « vrai » par « prouvable » (existe-t-il un algorithme pour dire si une assertion peut être prouvée ?)  
En 1936, Alan Turing (1912-1954) résolut l'Entscheidungsproblem en construisant un modèle formel de calculateur - la machine de Turing - et en prouvant qu'une telle machine ne pouvait pas résoudre certains problèmes, en particulier le problème d'arrêt : étant donné un programme, peut-on dire s'il termine pour n'importe quelle valeur des données ?  
Les années 1940 : la guerre fait naître l'ordinateur électronique 
La complication des calculs balistiques, durant la seconde guerre mondiale, aiguillonna le développement de l'ordinateur électronique. En 1944, à Harvard, Howard Aiken (1900-1973) construisit le calculateur électromécanique Mark I, avec l'aide d'IBM.  
Le décryptage militaire conduisit aussi à des projets d'ordinateur. Alan Turing, en Angleterre, travaillait à décoder la machine allemande Enigma; les Anglais construisirent un calculateur, le Colossus, pour aider au décryptage.  
En 1939, à l'Université d'Iowa, John Atanasoff (1904-1995) et Clifford Berry conçurent et réalisèrent l'ABC, un calculateur électronique pour résoudre des systèmes d'équations linéaires, mais il ne fonctionna jamais correctement.  
Atanasoff discuta de son invention avec John Mauchly (1907-1980), qui, plus tard, avec John Eckert (1919-1995), conçut et réalisa l' ENIAC, un calculateur électronique destiné à l'origine aux calculs balistiques. On ne sait pas très bien quelles idées Atanasoff transmit à Mauchly; le mérite d'avoir inventé le premier ordinateur revient-il à Atanasoff ou à Mauchly et Eckert ? Ce fut le sujet de batailles juridiques, c'est encore celui d'un débat historique. L'ENIAC fut construit à l'Université de Pennsylvanie, et terminé en 1946.  
En 1944, Mauchly, Eckert, et John von Neumann (1903-1957) travaillaient à la conception d'un ordinateur électronique, l'EDVAC. Le premier rapport de Von Neumann sur l'EDVAC eut beaucoup d'influence; on y trouve de nombreuses idées encore utilisées dans les ordinateurs les plus modernes, dont une routine de tri par fusion. Eckert et Mauchly reprirent ces idées pour construire l'UNIVAC.  
Pendant ce temps, en Allemagne, Konrad Zuse (1910-1995) construisait le premier calculateur programmable universel (non spécialisé), le Z3 (1941).  
En 1945, Vannevar Bush publia As We May Think, un article étonnamment prophétique sur le traitement de l'information, et ses effets sur la société dans les temps à venir.  
En Angleterre, Maurice Wilkes (né en 1913) construisit l'EDSAC (à partir de l'EDVAC). F. Williams (né en 1911) et son équipe construisirent le Manchester Mark I, dont une version fut opérationnelle dès juin 1948. Certains considèrent cette machine comme le premier ordinateur à programme en mémoire (architecture dite de Von Neumann).  
L'invention du transistor en 1947 par John Bardeen, Walter Brattain et William Shockley transforma l'ordinateur, et permit la révolution du microprocesseur. Pour cette découverte, ils reçurent le Prix Nobel de Physique en 1956. (Par la suite, Shockley se rendit célèbre pour ses points de vue racistes.)  
Jay Forrester (né en 1918) inventa vers 1949 la mémoire à noyau magnétique.  
Les années 50  
Grace Hopper (1906-1992) inventa la notion de compilateur (1951). (Quelques années plus tôt, elle avait trouvé le premier bug de l'histoire de l'informatique, une phalène entrée dans le Mark II de Harvard.)  
John Backus et son équipe écrivirent le premier compilateur FORTRAN en avril 1957. LISP (List Processing), un langage de traitement de listes pour l'intelligence artificielle, fut inventé par John McCarthy vers 1958. Alan Perlis, John Backus, Peter Naur et leurs associés développèrent Algol (Algorithmic Language) en 1959. Jack Kilby (Texas Instruments) et Robert Noyce (Fairchild Semiconductor) inventèrent les circuits intégrés en 1959.  
Edsger Dijkstra (1930-2002) trouva un algorithme efficace pour résoudre le problème des plus courts chemins dans un graphe, à titre de démonstration pour l'ARMAC en 1956. Il trouva aussi un algorithme efficace de recherche d'un arbre recouvrant de poids minimal, afin de minimiser le câblage du X1. (Dijkstra est célèbre pour ses déclarations caustiques et péremptoires; voir par exemple son avis sur quelques langages de programmation).  
Dans un célèbre article de la revue Mind, en 1950, Alan Turing décrivit le test de Turing, l'une des premières avancées en intelligence artificielle. Il proposait une définition de la « pensée » ou de la « conscience » relative à un jeu : un examinateur pose des questions par écrit à un interlocuteur situé dans la pièce voisine, et doit décider, au vu des réponses, si son interlocuteur est une machine ou un être humain.  
S'il est incapable de répondre, on peut raisonnablement dire que l'ordinateur « pense ». En 1952, Alan Turing fut arrêté pour outrage aux bonnes moeurs après qu'une plainte pour cambriolage eut révélé sa liaison avec Arnold Murray. L'homosexualité affichée était tabou dans l'Angleterre des années 1950, et on obligea Turing à suivre un « traitement » hormonal qui le rendit impuissant et lui fit pousser des seins. Le 7 juin 1954, Turing se suicida en mangeant une pomme enrobée de cyanure.  
Les années 1960 
Dans les années 1960, l'informatique devint une discipline à part entière. Le premier département d'informatique fut créé en 1962 à l'Université de Purdue; le premier Ph.D. d'informatique fut délivré à Richard Wexelblat par l'Université de Pennsylvanie, en décembre 1965.  
Il y eut une percée dans les systèmes d'exploitation. Fred Brooks (IBM) conçut System/360, une série d'ordinateurs de tailles variées, avec la même architecture et le même ensemble d'instructions. Edsger Dijkstra, à Eindhoven, conçut le système multiprogramme THE.  
De nombreux langages de programmation virent le jour, tels que BASIC, développé vers 1964 par John Kemeny (1926-1992) et Thomas Kurtz (né en 1928).  
Les années 1960 virent émerger la théorie des automates et des langages formels : on peut notamment citer Noam Chomsky (qui se fit plus tard remarquer par la théorie suivant laquelle le langage est «câblé » dans le cerveau, et pour sa critique de la politique étrangère des Etats-Unis) et Michael Rabin.  
On commença aussi à utiliser des méthodes formelles pour prouver la correction des programmes. Les travaux de Tony Hoare (l'inventeur de Quicksort) jouèrent un rôle important.  
Vers la fin de la décennie, on commença à construire ARPAnet, le précurseur d'Internet. Ted Hoff (né en 1937) et Federico Faggin (Intel) conçurent le premier microprocesseur en 1969-1971.  
Donald Knuth (né en 1938), auteur du traité The Art of Computer Programming, posa des fondements mathématiques rigoureux pour l'analyse des algorithmes.  
Les années 1970 
Les travaux d'Edgar Codd (1924-2003) sur les bases de données relationnelles permirent une avancée majeure dans la théorie des bases de données. Codd reçut le Turing Award en 1961. Le système d'exploitation Unix fut développé aux Bell Laboratories par Ken Thompson (né en 1943) et Dennis Ritchie (né en 1941). Brian Kernighan et Ritchie développèrent C, un important langage de programmation.  
On vit apparaître de nouveaux langages, tels que Pascal (inventé par Niklaus Wirth) et Ada (réalisé par une équipe dirigée par Jean Ichbiah). La première architecture RISC fut commencée par John Cocke en 1975, chez IBM. Vers cette époque, des projets analogues démarrèrent à Berkeley et Stanford. Les années 1970 virent aussi naître les super-ordinateurs. Seymour Cray (né en 1925) conçut le CRAY-1, qui apparut en mars 1976; il pouvait exécuter 160 millions d'opérations par seconde. Le Cray XMP sortit en 1982. Cray Research (à présent repris par Silicon Graphics) continue à construire des ordinateurs géants.  
Il y eut aussi des progrès importants en algorithmique et en théorie de la complexité. En 1971, Steve Cook publia son article fondamental sur la NP-complétude, et, peu après, Richard Karp montra que de nombreux problèmes combinatoires naturels étaient NP-complets.  
Whit Diffie et Martin Hellman publièrent un article fondant la théorie de cryptographie à clef publique; le système de cryptage RSA fut inventé par Ronald Rivest, Adi Shamir, et Leonard Adleman.  
En 1979, trois étudiants de Caroline du Nord développèrent un serveur de nouvelles distribué qui finalement devint Usenet.  
Les années 1980 
Cette décennie vit apparaître le micro-ordinateur personnel, grâce à Steve Wozniak et Steve Jobs, fondateurs de Apple Computer. Les premiers virus informatiques apparurent en 1981 (leur nom est dû à Leonard Adleman).  
En 1981, l'Osborne I, le premier ordinateur vraiment portable, fut mis sur le marché. En 1984, Apple commercialisa le Macintosh. En 1987, l'US National Science Foundation démarra NSFnet, qui devait devenir une partie de l'Internet actuel.  
Les années 1990 et au-delà 
On continue à développer des ordinateurs parallèles.  
L'informatique biologique, avec les récents travaux de Leonard Adleman sur l'utilisation de l'ADN comme calculateur non déterministe, ouvre de grandes perspectives. Le projet Génome Humain cherche à séquencer tout l'ADN d'un individu.  
Peter Shor découvre que l'on peut efficacement factoriser des entiers sur un ordinateur quantique (théorique), ce qui ouvre la voie à la programmation quantique.  
Les autoroutes de l'information relient de plus en plus les ordinateurs du monde entier.  
Les ordinateurs sont de plus en plus petits; naissance de la nano-technologie.  
Historique de l'ordinateur et de l'informatique  
L'Académie française définit l'informatique comme la science du traitement rationnel, notamment par machines automatiques, de l'information considérée comme le support des connaissances et des communications, dans les domaines technique, économique et social.  
L'informatique est donc faite pour traiter de l'information, par le biais de calculs formels. Pour effectuer des calculs, on utilise des outils divers, donc le plus évolué est l'ordinateur. Mais on utilise depuis la nuit des temps des outils moins évolués, à commencer par les bouliers, les abaques, ... L'ordinateur hérite aujourd'hui des caractéristiques de tous ces outils.  
Il faut savoir qu'il y a plusieurs manières de calculer. Nous connaissons aujourd'hui principalement le calcul décimal, mais ce n'est pas la seule base de calcul. Les ordinateurs comptent par exemple en base 2 (binaire). Certaines civilisations utilisaient couramment d'autres bases telles que la base 12 jusqu'à ce que la civilisation occidentale européenne n'impose ses conventions.  
Pour comprendre l'architecture d'un ordinateur d'aujourd'hui, il faut comprendre comment ont fonctionné ses ancêtres, et par quels évolutions on est parvenu à l'architecture moderne des ordinateurs.  
Jusqu'à Babbage  
Les premiers instruments de calcul utilisent des techniques naturelles. Par exemple l'utilisation de petits cailloux où chaque caillou représente un objet ou un ensemble d'objets. Le mot calcul dérive d'ailleurs de calculus, mot latin pour caillou. Ou alors l'utilisation des doigts de la main pour calculer en base 5.  
Plus formelles, les tables de calcul. Le plus ancien appareil à calculer est une table de marbre trouvée sur dans l'île de Saramine. La table est striée de manière verticale et horizontale. On place des cailloux ou des pièces et de leur position dépend leur valeur.  
C'est un des ancêtres des bouliers, qui ont survécu jusqu'à maintenant (ou presque !). Expliquer le principe des bouliers. Le boulier est toujours très utilisé en Asie et au Japon. En novembre 1946, une compétition a eu lieu entre un employé du service des communications du Japon muni d'un boulier et un G.I. muni d'une calculatrice moderne de l'époque (avec les 4 signes mathématiques). Dans un concours de vitesse, c'est le boulier qui a gagné.  
Jusqu'au XVIIe siècle, rien d'intéressant dans les machines à calculer. Neper (mathématicien Écossais) invente un jeu de réglettes (les « bâtons de Neper ») qui permet de faire des multiplications.  
En 1642, la Pascaline. Blaise Pascal (19 ans) réalise la première machine à calculer qui permet de faire des additions et des soustractions (avec un engrenage on peut faire une retenue). Mais aucun succès, même améliorée (ajout des multiplications) par Leibniz 50 ans plus tard.  
Jusqu'au XIXe, des machines à calculer sont inventées par plusieurs scientifiques (De Poleni, Caze, Lépine, Hileron De Boistissandeau), mais restent sur les principes des machines du XVIIe siècle.  
Vaucanson (1750) réalise des automates à base de bandes perforées, de cames et de mécanismes d'engrenage. Invention fondamentale : description de manière formelle des étapes nécessaires à l'accomplissement d'un but. Notion de règle de fonctionnement  
Falcon (mécanicien tisserand) utilise vers 1750 les perforations dans le métier à tisser. Mais Jacquard industrialise l'invention. Par un mouvement sans fin, des cartons perforés passent devant des aiguilles, et qui peuvent ainsi effectuer un tissage précis.  
En 1812, grosse révolution : la machine de Babbage. Charles Babbage, mathématicien à l'université de Cambridge définit une nouvelle architecture de machine, très proche des machines électroniques actuelles  
• des périphériques d'entrée ;  
• une unité centrale ;  
• des périphériques de sortie.  
Le baron de Prony, ingénieur des Ponts et Chaussées, est responsable du cadastre (1791) qui nécessite des calculs très importants. Il a l'idée de séparer le travail en tâches élémentaires (organisation du travail moderne), où il embauche 80 calculateurs séparés en deux bâtiments (problème des erreurs). Le but était d'écrire des tables trigonométriques et de logarithmes à 14 décimales.  
En 1760, on avait des tables portatives à 6 décimales imprimées et reliées (Jérôme de la Lande). Problème des fautes et des réimpressions (nouvelles fautes à chaque fois). On demandait à l'utilisateur de signaler les fautes à l'imprimeur. En 1805, le procédé du stéréotype (Firmin Didot) permet de conserver les pages d'une édition à l'autre. Du coup on n'introduit plus de fautes mais on les corrige d'une édition à l'autre.  
Babbage rend visite au baron en 1819, et est impressionné par l'ampleur du travail et les tâches répétitives. Il décide d'automatiser tout ça, et de concevoir un calculateur entièrement dédié à ce travail (mais était intéressé par cette machine dès 1813). Il conçoit sa « Difference Engine » en 1820. Le but du jeu est de se servir des l'invention de Didot pour imprimer les tables de calcul (estampage des tables de plomb, pas d'impression directe).  
Il commence à réaliser sa machine en 1823. Le but est de lire des cartes perforées, et en sortie de poinçonner des cartes, estamper des plaques de plomb, ou afficher des nombres sur des molettes. Mais la technologie de l'époque est insuffisante pour la réaliser. En plus, problèmes d'organisation : arnaques, contrats mal rédigés, ... Babbage meurt en 1838, au moment d'assembler les pièces. La machine est inachevée, et cédée à la Couronne britannique en 1843 (exposée aujourd'hui dans un musée).  
La machine n'a jamais été finie, mais elle pose les bases de l'architecture moderne des calculateurs. Plus important, Babbage a prévu les utilisations modernes de l'automatisation des tâches administratives.  
Jusqu'à l'ENIAC  
En 1882, Tchebichef construit sa machine à calculer qui effectue une multiplication par additions successives. Mais c'est Léon Bollée qui réalise la première machine à multiplier directement deux opérandes  
En 1885, Herman Hollerith invente la première machine à calculer à imprimer ses résultats (il était déjà l'inventeur du premier frein électromagnétique, mais le frein à vapeur lui fut préféré). Particularité, sa machine est électrique et non mécanique. Il s'en sert pour le recensement de la population des États-Unis (ce qui prit 6 mois et économisa 5 millions de dollars). Hollerith fonda la Tabulating Machine Corporation en 1885, qui devient en 1924 l'International Machine Corporation (IBM).  
En 1924, Bull (ingénieur norvégien) dépose un brevet sur un système analogue à celui d'Hollerith. Il meurt d'un cancer en 1926 et lègue ses brevets à l'Institut du cancer d'Oslo. Ils sont rachetés et revendus à une société Française, la Compagnie des Machines Bull et passeront en 1964 sous la tutelle de la General Electric.  
En 1938, le Howard Aiken et la Compagnie Bell Telephone commencent à construire une machine mathématique. En 1943, le Mark I à l'université de Harvard, et en 1946 le Mark II. Machines électroniques, addition en 1/3 de seconde, multiplication en 4 secondes, division en 11. Mark II comporte 10 000 tubes électroniques. Les données en entrée et en sortie sont stockées sur des bandes perforées. Prix de revient 400.000$, soit moins que le Z3, mais les performances étaient 3 à 4 fois moins grandes. 51 pieds de long, 5 tonnes, 750.000 pièces.  
En 1942, le Z3, que certains considèrent comme le premier ordinateur. Il n'avait que 1.500 lampes. En 1943, le Z3, utilisé pour calculer des plans d'avion. C'est la première machine à calculer électronique. Malheureusement pour Zuse et Schreyer, les concepteurs, le ministère de la guerre refusa d'accorder des crédits à l'invention, et on les envoya au front par deux fois, en 1939 et en 1942, d'autant plus que le Z3 fut détruit dans un bombardement. Pour la petite histoire, Zuse était un ami de Von Braun, et avait appelé ses machines V1, V2, ... puis les a renommées Zx après la guerre.  
En 1944, le premier prototype des calculateurs électroniques, l'ENIAC (Electronic Numerical Integrator and Computer). 5.000 addition par seconde (calcule la trajectoire d'un obus avant qu'il n'arrive à destination). 1.000 fois plus rapide que les autres machines de son époque. Mais utilise 18.000 tubes électronique. L'aération nécessite des ventilateurs de 24 CV. La consommation électrique est de 150 kW (plusieurs rames de métro). 30 tonnes sur 1.000 mètres carrés. Multiplication en 3 millisecondes, fréquence d'horloge : 100kHz. Construit par Eckert et Mauchly, pour le compte de l'US army (calculateur balistique). Divulguée deux ans plus tard, avec un relookage de la machine pour le marketing (panneau lumineux).  
En 1947, un papillon (bug) commet l'imprudence d'aller voler dans les circuits du Mark II et crame une lampe. Un technicien note « le premier exemple connu de bug réel » sur le cahier des bugs en y épinglant le pauvre insecte. 
Les calculateurs électroniques  
Puis en 1947, on décide de construire l'EDVAC (Electronic Discute Variable Automatic Computer), amélioration de l'ENIAC, par John Von Neumann. Utilisation de la bande magnétique (comment ça marche ?). Et surtout intégration du programme dans la mémoire de la calculatrice. C'est grâce cette amélioration qu'on impute souvent à Von Neumann l'invention de l'ordinateur.  
Newman, Freddie C. Williams achèvent le premier prototype de ce qu'ils appellent le « Mark I » (ou Manchester Mark I) est le premier ordinateur à être reconnu comme tel quel par tout le monde, car c'est le premier à avoir vraiment la possibilité de contenir un programme entier en mémoire en lecture/écriture. Le programme est écrit en binaire sur un clavier. Plus tard, Türing joindra le développement de la machine et écrira un des premiers assembleurs primitifs au monde.  
En 1950, le Z4 est terminé et peut effectuer des branchements conditionnels. Le Z4 servira encore 10 ans (en Suisse puis en France). Zuse décidera plus tarde de vendre des machines de manière commerciale et en vendra 300 avant d'être racheté par Siemens  
En 1950, Douglas Hartree, un expert en nouvelles technologies estime que les trois calculateurs existants en Angleterre suffiront à couvrir tous les besoins présents et futurs du pays, et conseille à Ferranti Ltd. de Manchester de ne pas vendre d'ordinateurs. Mais en 1951 Ferranti construit le premier ordinateur commercial au monde, le Manchester Mark II.  
En 1951, le premier calculateur commercial US est réalisé par Eckert et Mauchly (Univac I). Le premier client est le service du recensement Américain.  
En 1952, l'EDVAC est enfin terminé. Fréquence d'horloge 1MHz  
En 1958, le premier ordinateur à transistors (inventé en 1948), le TX-0 (Transistorized Experimental Computer) au MIT.  
En 1958, chez Texas Instruments, Jack St. Clair Kilby développe le premier circuit intégré (pièce électronique sur une seule puce de silicium).  
En 1963, Douglas Engelbart invente la souris.  
En 1965, Gordon Moore, PDG d'Intel suggère que les CPU doubleront en complexité tous les 18 mois. C'est la loi de Moore, qu'on applique à la vitesse des CPU.  
En 1970, Intel crée le premier micro-processeur 4004. 60.000 opérations pas seconde, 2.300 transistor  
Par la suite, l'histoire de l'informatique est très foisonnante, et l'architecture des ordinateurs évolue très peu par rapport à l'architecture actuelle. Quelques faits cependant :  
En 1972, IBM invente la disquette, une disquette de 8 pouces en plastique recouvert d'oxide de fer.  
En 1973, le premier ordinateur en kit vendu pas Scelbi Computer Consulting Company, basé sur l'Intel 8008. Motorola construit le 6800.  
En 1976, Steve Wozniak et Steve Jobs créent l'Apple I. Apple est fondé le premier avril. Intel crée le 8085 (5 MHz).  
En 1977, l'Apple II, avec 4K de RAM, vendu pour 1300$. C'est le premier ordinateur personnel en couleur.  
En 1978, le processeur 6068 d'In 
L'informatique, à quoi ça sert ?  
On a vu que l'informatique a subit une évolution exponentielle. Si les transports avaient fait pareil, on pourrait dès la fin des années 40 traverser les États-Unis en 30 secondes pour 50 cents. Ordinateur machines à calculer, mais pourquoi ? Pour traiter de l'information (donc besoin de la coder sous forme de nombres). Que peut-on en faire de cette information ?  
• bureautique (traitement de texte, tableur) ? C'est une utilisation très simple de l'informatique (l'ordinateur devient une machine à écrire perfectionnée) ;  
• mathématiques : balistique, prévisions d'élections (jfd), météo, fractales (Pierre Audibert) ;  
• jeux : IA (Feat, Bernard, Cazenave, Abchiche, Dumeur, ...), graphisme, son (Goossens), fiction interactive et génération de textes (Clément), ...  
• communication : Internet (cours de réseau), Intranet, télétravail  
• graphisme : CAO/PAO, reconnaissance de forme (Jaime Lopez-Krahe), météo (Pacale Pousset), reconnaissance de code postal, génération d'images (JJ Bourdin, Vincent Boyer) ;  
• cinéma : image numérique, montage, dessin animé ;  
• physique : simulation (centrale nucléaire, bombe atomique) (jfd), mécanique des fluides (cours d'eau, profil d'aile d'avion) (whygee), résistance des matériaux, train, voiture (déformations programmées) ;  
• médecine : génome humain, imagerie médicale, opérations guidées par ordinateur, apprentissage ;  
• gestion des flux : arrivées départs dans les aéroports (Renaud Dumeur), les gares, périphérique (jfd) ;  
• robotique : robot autonome (robot sur Mars, footballeurs) (Ali Chérif), semi-autonome, télécommandé ;  
• calculs massifs : clusters, machines parallèles (silicons de la NASA), ...  
• ...  
Ce ne sont que des exemples ont peut faire énormément de choses avec un ordinateur, à partir du moment où on arrive à formaliser une information sous forme de nombre. Là où on a encore des problèmes c'est pour la reconnaissance de parole et de contenu (car c'est difficile de comprendre et de formaliser la grammaire, le sens plaqué aux mots, ...).  
tel.  
 
Je viens de m'appercevoir que j'ai oublié de parler des générations d'ordinateurs 
Historique de l'Informatique  
Si l'on considère que l'informaticien utilise un système ayant comme caractéristiques principales un état et un mécanisme de transition d'état et qui à une séquence d'entrée calcule une séquence de sortie tout en modifiant son état, alors on peut affirmer que l'informatique n'est pas toute récente. En effet, dès l'antiquité, de tels systèmes furent mis au points en matière de résolution de calculs.  
Antiquité 
Si l'on remonte au troisième siècle avant J.-C., on peut déjà distinguer celui qui à écrit les ouvrages de mathématiques les plus célèbres au monde : Euclide. Ce mathématicien sans le savoir était en quelque sorte un informaticien. Effectivement, il a décrit des algorithmes de calculs (aujourd'hui câblés dans pratiquement tous les microprocesseurs), en notamment l'algorithme de la division entière (celui que nous apprenons à la petite école dès le CE1).  
Moyen âge et renaissance 
On doit la première machine arithmétique à Blaise Pascal (1642, il avait alors 19 ans) : la Pascaline. Son fonctionnement était simple : des molettes, divisées en cellules représentant chacune un chiffre, permettaient de composer les nombres, sur lesquels des opération pouvait être faites.  
Si l'on examine cet algorithme de plus près on peut remarquer qu'à chaque étape de son déroulement, on est dans un état particulier caractérisé par le diviseur, le quotient et le reste. De même l'algorithme utilise une fonction de transition définie par l'ensemble des tables de multiplications. L'algorithme est de plus totalement déterministe (le résultat sera toujours le même quelques soient les données d'entrées).  
Mais pouvait-on alors parler d'un ordinateur? Pas réellement, dans le sens ou tout le système était totalement mécanique. Il fallu donc attendre encore quelques siècles avant de voir ce que l'on considère comme le premier ordinateur.  
Epoque contemporaine 
Ce n'est qu'en 1944 que ce qui est considéré comme le premier ordinateur fut mis en fonctionnement : l'Eniac. Il est clair, que l'Eniac était loin de ressembler à ceux que l'on utilise couramment de nos jours. En effet, fort de ces 30 tonnes, il était constitué de 18 000 tubes électroniques et occupait une salle entière. Sa consommation électrique était telle qu'il fallait perpétuellement le refroidir. En 1946, on était capable de faire calculer 50 000 opérations à la seconde.  
Vers les années 50, le transistor fut inventé. Les conséquences en furent prodigieuses : le volume de ces machines diminua considérablement, tandis que la rapidité de calcul, elle, augmenta prodigieusement (200 000 opérations à la seconde). Dès les années 60, les circuits intégrées firent leur apparition, accentuant ainsi la tendance précédente (1 millions d'opérations à la seconde). De nos jours, le milliards d'opérations par seconde est très largement dépassé et cette augmentation de puissance ne semble absolument pas vouloir se freiner, bien au contraire.  
Mais l'ordinateur ne fait l'Informatique à lui tout seul. De nombreuses personnes ont aussi, durant l'époque contemporaine, contribuées à faire évoluer cette science vers ce qu'elle est aujourd'hui. Nous pourrions entre autre citer Hilbert, John Von Neumann, Allan Matison Turing, Alonzo Church, et beaucoup d'autres.  
 
Historique de l'informatique  
o Un besoin constant : calculer, comprendre 
o Historique de l'informatique  
o L'informatique dans les soins infirmiers 
 
 
L'ENIAC occupait un immeuble entier et calculait 10 000 fois moins vite qu'un PC d'aujourd'hui. 
 
 
UN BESOIN CONSTANT, CALCULER, COMPRENDRE  
De tout temps l'homme a essayé de concevoir des machines capables d'effectuer des taches seules. Dans l'antiquité, les Grecs inventent un mécanisme capable de mesurer le temps : la clepsydre. On retrouve ce désir d'automatisation au travers des âges ; d'un côté des chercheurs essaient de concevoir des automates, de l'autre des mathématiciens cherchent à mécaniser les calculs (Blaise PASCAL, 1642) Au travers ce besoin constant d'automatisation des taches, l'homme cherche à comprendre les phénomènes qui l'entourent, le gain de temps dégagé par cette automatisation permet de ce consacrer à d'autres activités (recherche, développement des relations humaines...) 
 
 
La machine à calcul de Pascal : la Pascaline  
NAISSANCE DE L'INFORMATIQUE MODERNE  
Le premier ordinateur, l'Electronic Numérical Intégrator and Computer (ENIC) naît en 1945. Son concepteur, le physicien John MAUCHLY étudie alors la trajectoire des obus. L'ENIC occupait un immeuble entier, sa vitesse de travail était 10000 fois moins rapide qu'un ordinateur domestique d'aujourd'hui. Très rapidement, l'industrie et l'armée s'intéressent à cette nouvelle technologie. International Business Machines Corporation (IBM) développe sa recherche en informatique et domine rapidement le marché des ordinateurs.  
Trois découvertes fondamentales vont permettre de réduire à la fois le coût et la taille de l'ordinateur :  
• le transistor (1948);  
• le circuit intégré (1959);  
• la puce qui intègre plusieurs circuits intégrés (1971 par Intel).  
En 1954, IBM-France cherche un nom pour ce que l'on appelle le calculateur. Le Professeur J. PERRET propose " ordinateur ", mot oublié qui appartient en fait au vocabulaire théologique. Le terme informatique est introduit en 1962 par Philippe DREYFUS, il regroupe en fait les mots " informations " et " automatique ". L'Académie Française en donne une définition en 1966 : " la science du traitement rationnel, notamment par machines automatiques de l'information considérée comme le support des connaissances humaines et des communications dans les domaines techniques, économiques et sociaux ".  
Toutefois, la véritable micro-informatique naît dans un garage en 1977. Steve JOBS et Steve WORZNIAK conçoivent l'Apple II, cet ordinateur comporte des logiciels, un clavier, un lecteur de disquettes et peut se brancher sur un écran. Apple devient la première société micro-informatique. Réagissant à cette formidable expansion, IBM sort le Personnel Computer (PC) en 1981. Microsoft rachète les droits d'édition du logiciel permettant de faire fonctionner le PC, devenant ainsi une puissance inégalée sur le marché de l'informatique. A ce jour, les systèmes d'exploitation rendent l'utilisation de l'ordinateur beaucoup plus conviviale, Windows 98 qui sera commercialisé dans le courant de l'année 1998 est une interface sophistiquée qui intègre un module de communication. Ici, nous pouvons nous interroger sur le "monopole" d'un système d'exploitation et des conséquences qui pourraient en découler dans l'avenir. La procédure du gouvernement Américain à l'encontre de Microsoft nous apportera surement des éléments de reflexion sur cet aspect non négligeable de la dépendance aux concepteurs de systèmes informatiques. 
L'ordinateur se tourne donc vers l'extérieur, ce qui représente un apport important au niveau des échanges de données, des sources de l'information. L'Internet est un système de communication (utilisant le réseau téléphonique) qui permet à l'utilisateur d'avoir accès à une multitude de données, mais là n'est pas son seul intérêt. Il existe également des groupes de discussion auxquels nous pouvons nous abonner et qui nous entraînent à devenir acteurs de l'information transitant sur Internet. Une autre application non négligeable consiste en la création de sites Web : moyennant un minimum de formation, nous pouvons créer notre propre source d'information sur Internet et la partager avec d'autres infirmièr(e)s.  
L'INFORMATIQUE "INFIRMIERE" A L'HOPITAL  
Bien que les applications de l'informatique dans le domaine hospitalier soient considérables et touchent de nombreux secteurs, nous traiterons plus spécialement de l'informatique " infirmière ". L'implantation de l'informatique à l'hôpital débute dans les années soixante-dix, le rôle de l'ordinateur consistait alors à gérer des taches répétitives telles que (paie du personnel, comptabilité, ...). La notion d'information n'existait pas encore et il semblait improbable que l'informatique puisse permettre de gérer l'activité infirmière et médicale.  
Une des premières expériences est faite par les Hôpitaux de l'Assistance Publique de Paris avec le système G.A.M.M. (Gestion administrative et médicale des malades), un centre de calcul gérait les données de trente neuf hôpitaux périphériques, la saisie des données dans les services se faisait alors par des infirmières et des techniciens au moyen de cartes mécanographiques. A la même époque, l'apport de l'informatique dans des secteurs spécialisés tels que laboratoire ou imagerie médicale est considérable. Les progrès effectués dans ces domaines contribuent déjà à une meilleure approche du diagnostic médical, mais l'outil informatique n'est toujours pas présent dans l'activité infirmière. Cependant, on peut noter que dès 1863, Florence NIGHTINGALE recommandait déjà l'enregistrement des données de l'activité hospitalière, aux Etats-Unis, le recueil systématique des données médicales commence après la deuxième guerre mondiale. 
En France, c'est à partir des années 1980 que le besoin d'une gestion plus efficace des dépenses de santé incitent les hôpitaux publics à se doter d'un système informatique plus adapté. La mise en place du P.M.S.I. " doit permettre une plus grande maîtrise des dépenses de santé et le regroupement des informations nécessaires à l'évaluation de la qualité des soins ". Cependant, le coût élevé et la difficulté de la mise en place de ces systèmes freinent l'implantation d'un système d'information véritablement efficace. En terme infirmier, la première expérience d'informatisation des soins infirmiers eut lieu à Bordeaux en 1984 (Hôpital Cardiologique). Le premier colloque sur " informatique et soins infirmiers " s'est tenu à Dijon en Mars 1985. En 1988, le guide du service infirmier traite pour la première fois du sujet.  
Deux événements orientent de façon plus précise l'informatisation des soins infirmiers :  
• La loi n° 91-748 du 31 Juillet 1991 qui oblige les Etablissements de Santé à mettre en place un système d'information ;  
• Le décret n° 93-345 du 15 Mars 1993 qui rappel et confirme que " l'infirmier est responsable de l'élaboration, de l'utilisation et de la gestion du dossier de soins infirmier ", ce qui implique que la nature de l'outil utilisé (en l'occurence le logiciel de soins infirmiers) n'est pas limité au crayon et à la gomme, mais peut être repensé et adapté en fonction des nouveaux besoins définis par les soignants.  
La création d'un Services de Soins Infirmiers dans chaque établissement (loi hospitalière du 31 Juillet 1991) permet alors une véritable réflexion sur les besoins infirmiers en terme d'informatique.  
Le CHU de Rouen est l'un des premiers hôpitaux français à s'être connecté à l'Internet (depuis novembre 1994, à partir d'un micro-ordinateur situé à la bibliothèque médicale) et le premier en France à avoir créé un site Web, en février 1995. Actuellement, certains services " pilotes " expérimentent de nouveaux systèmes informatiques spécifiquement " infirmiers " dont l'intérêt majeur est leur intégration dans le P.M.S.I.. Nous pouvons citer l'expérience de l'hôpital de Perpignan avec le logiciel PASSION, ainsi que celle de la Clinique de Pessac avec le projet ACTIPIDOS. 
 
Historique de l'informatique  
 
 
Ancêtres des ordinateurs 
Babylone Abaque.  
 
- 3000 Période de l'empereur Chinois Fou-Hi dont le symbole magique, l'octogone à trigramme contient les 8 premiers nombres représentés sous forme binaire par des traits interrompus ou non : 000 001 010 011 etc...  
- 500 Apparition au Moyen Orient du premier "outil" de calcul: le boulier. 
 
- 300 Aristote (philosophe grec) définit dans son oeuvre ce qu'est la logique.  
1580 John NAPIER de MARCHESTON (notable écossais) invente les logarithmes. 
 
1623 Wilhelm SCHICKARD (professeur à l'Université d'Heidelberg en Allemagne) invente ce qu'il appelle une horloge calculante. Elle calculait mécaniquement grâce à des roues dentées et pouvait réaliser additions, soustractions, multiplications et mémorisation des résultats intermédiaires. Elle était capable de faire "gling!" en cas de problème (dépassement de capacité). 
1642 Blaise PASCAL (mathématicien et philosophe français) invente la Pascaline, machine composée d'engrenages effectuant uniquement des additions et des soustractions. A l'intérieur du coffret en laiton, une série de roues, numérotées de un à neuf, sont reliées entre elles. Lorsque, l'une d'elles effectue un tour complet, la roue suivante tourne d'une unité. 
1694 G.W. LEIBNIZ (mathématicien allemand) met au point la première calculatrice du monde capable de réaliser les 4 opérations. Elle divise, multiplie et extrait même les racines carrées sous forme d'additions et de soustractions répétées en tournant une manivelle. 
1804 Joseph-Marie JACQUARD (mécanicien français) réalise le premier métier à tisser programmable (cartes perforées constituant la mémoire de la machine). D'abord ouvrier dans une entreprise textile, il travaillera ensuite au Conservatoire des arts et métiers de Paris. 
1822 Charles-Xavier Thomas de COLMAR invente l'arithmomètre. Grâce à son poids et son faible encombrement cette machine remporte la médaille d'or a l'Exposition Universelle de Paris en 1855. C'est la première machine à calculer utile. En 30 ans, plus de 1 500 machines auront été vendues.  
1833 Charles BABBAGE (mathématicien anglais) imagine et tente de réaliser une machine à différences puis une machine analytique qui contient les concepts de ce que sera l'ordinateur moderne : unité de calcul, mémoire, registre et entrée des données par carte perforée. Ada LOVELACE (mathématicienne anglaise), collaboratrice de BABBAGE, définit le processus logique d'exécution d'un programme : l'algorithme.  
 
1841 ROTH invente la machine à calculer circulaire. 
 
1854 Georges BOOLE (mathématicien anglais) décrit comment toute la logique peut être définie par un principe simple: le binaire. 
 
1886 Don E. FELT de Chicago lance le Comptometer. Il s'agit de la première calculatrice dont on se servait en appuyant sur des touches. Il inventa en 1889 la première calculatrice de bureau avec imprimante.  
1888 Léon BOLLEE crée une machine à multiplication directe à plusieurs chiffres. Elle pouvait également effectuer les addition/soustractions/divisions par itération/racines carrées/calculs d'intérêt. Cette machine permettait un gain de temps de 80 ar rapport aux précédentes.  
1890 Herman HOLLERITH (statisticien américain) met au point une machine à cartes perforées pour le recensement de la population. En 1924, la firme créée par lui en 1896, Tabulating Machine Corporation, est renommée en International Business Machine ou IBM. 
1922 Frédéric BULL (ingénieur norvégien) invente une imprimante rotative. 
 
Avènement des ordinateurs 
1941 John ATANASOFF et Clifford BERRY créent le calculateur binaire ABC. La machine utilise des lampes et comporte une mémoire et des circuits logiques. Ce fût le premier calculateur à système binaire (équations à 29 variables). La mémoire, constituée de 2 tambours et pouvait stocker 60 mots de 50 bits. La machine tournait à 60 Hz et pouvait réaliser une addition en une seconde. 
1943 Howard H. AIKEN (savant américain) conçoit et réalise, grâce à l'aide d'IBM, 4 gros calculateurs à relais. En particulier, l'ASCC (ou Harvard Mark I) , Il s'agit d'une première machine mécanique capable de stocker des données et de réaliser sur ces données de longues séries d'opérations arithmétiques, sans intervention humaine. C'est un énorme calculateur avec 3 000 relais et 800 km de câbles, 
1945 John VON NEUMAN suggère d'incorporer les instructions de traitement (le programme) dans la mémoire de l'appareil, en même temps que les données à traiter et de permettre à l'ordinateur de modifier, sur commande, ces instructions. Il publie le premier rapport décrivant ce que devrait être un ordinateur à programme enregistré. 
1946 John P. ECKERT et John W. MAUCHLY conçoivent le premier calculateur électronique: l'ENIAC (Electronic Numerical Integrator and Computer) . Il est construit sur le principe du binaire (0 et 1) et contient 19 000 lampes (allumées ou éteintes). Il pèse 30 tonnes, occupe une surface de 72 m2. Sa vitesse est d'environ 330 multiplications par seconde. Cet appareil encombrant atteint la puissance d'une simple calculette de poche actuelle. 
1947 EDVAC (Electronic Discret Variable Computer). Il est le premier calculateur à programme enregistré de VON NEUMAN. Il est issu d'une amélioration de l'ENIAC, Sa capacité est de 1 024 mots de 44 bits. 
1948 IBM construit un ordinateur composé de 12 000 tubes, le SSEC (Selective Sequence Electronic Calculator). Il est considéré comme le premier vrai ordinateur.  
Caractéristiques des ordinateurs de première génération (1955) 
Ordinateurs composés de tubes électroniques à vide (lampes). Ils sont donc de ce fait excessivement volumineux, peu performants et consomment beaucoup d'énergie pour l'indispensable chauffage des lampes. 
1947 Bradford SHOCKLEY, Walter H. BRATTAIN et John BARDEEN inventent le transistor dans les laboratoires de Bell Telephone. 
Caractéristiques des ordinateurs de deuxième génération (1959) 
Ordinateurs composés de circuits imprimés à transistors. Leur rôle est identique à celui des lampes, mais leur encombrement est réduit et ils sont cent fois plus rapides et plus fiables. En outre, la consommation électrique chute radicalement. 
1956 IBM commercialise le premier disque dur, le RAMAC 305 (Random Access Method of Accounting and Control). Il est constitué de 50 disques de 61 cm de diamètre et peut stocker 5 Mo. 
1958 Jack KILBY et Robert W. NOYCE font la démonstration du premier circuit intégré crée par Texas Instruments. 
Caractéristiques des ordinateurs de troisième génération (1963) 
Ordinateurs composés de circuits intégrés ou à micromodules. Ces circuits sont des ensembles électroniques complets gravés en une seule pièce sur de petits carrés de silicium de 1,5 mm de côté et montés dans un boîtier. On les dénomme "puces" ou "chips". Grâce à eux les ordinateurs deviennent plus rapides, moins onéreux et d'une capacité de mémoire plus importante. Ils permettent une réduction de volume de 10 à 1. La technologie des micromodules a permis, par ses performances, la réalisation du premier ordinateur réellement universel. 
 
1967 IBM construit le premier lecteur de disquettes. 
1968 Douglas C. ENGELBART de la Stanford Research Institute fait une démonstration d'un environnement graphique avec des fenêtres à manipuler avec une souris. 
 
1969 Création de la norme de connexion série RS232.  
1970 Première puce mémoire crée par Intel et contenant l'équivalent de 1024 tores de ferrite très encombrants sur un carré de 0,5 mm de côté (capacité : 1 kBit soit 128 octets). 
1971 Gary STARKWEATHER met au point la première imprimante laser.  
Ted HOFF et Federico FAGGIN inventent le microprocesseur chez Intel. Il s'agit du 4004. C'était un processeur 4 bits. 
Caractéristiques des ordinateurs de quatrième génération (1971) 
Ordinateurs composés de microprocesseurs; circuits intégrés complexes constituant à eux-seuls de petites unités fonctionnelles de traitement. La voie du micro-ordinateur était ouverte, comme celle du concept qui influence encore l'informatique de nos jours. 
1972 Apparition du premier lecteur de disquettes 5" 1/4.  
1973 Dick SHOUP met au point une machine dotée de la première carte graphique couleur capable d'afficher une image de 640 x 486 en 256 couleurs et aussi de numériser un signal vidéo.  
1975 Naissance du premier traitement de texte WYSIWYG (What You See Is What You Get). 
Bill GATES et Paul ALLEN renomment leur compagnie Traf-O-Data en Micro-Soft (le tiret disparaîtra plus tard).  
Michael SHRAYER écrit le premier logiciel de traitement de texte pour micro ordinateur: Electric Pencil.  
1976 Steve JOBS (21 ans) et Steve WOZNIAK (26 ans) finalisent leur ordinateur qu'ils baptisent Apple Computer. Ils fondent la société Apple le 1er avril 1976. Le micro-ordinateur personnel est né. 
 
1978 John BARNABY et John RUBINSTEIN écrivent le premier logiciel de traitement de texte commercial pour micro ordinateur: WordStar.  
1979 Software Arts présente le premier logiciel tableur: Visicalc. 
1980 Un contrat est signé entre Microsoft et IBM pour que Microsoft porte son Basic et un OS pour le futur micro ordinateur de chez IBM. Microsoft recevra le premier prototype un mois plus tard.  
Wayne RATLIFF, ingénieur à la NASA écrit le premier logiciel de bases de données pour micro ordinateur: dBase II. 
1981 Charles SIMONYI qui avait développé le premier traitement de textes WYSIWYG rejoint Microsoft ou il dirigera la réalisation de plusieurs logiciels dont MS Word.  
IBM lance son 5150 Personal Computer équipé d'un processeur Intel 8088 à 4,77 MHz, de 64 Ko de Ram, de 40 Ko de Rom, d'un lecteur de disquettes 5"25 et du système d'exploitation PC-DOS 1.0. 
1982 Microsoft signe un accord avec Apple pour le développement de logiciels sur ce qui deviendra le Macintosh.  
Sony présente un prototype du premier lecteur de disquettes 3" 1/2.  
Microsoft commercialise un logiciel tableur Multiplan pour IBM PC.  
1985 Sony et Philips annoncent un nouveau support numérique à haute capacité permettant de stocker de la musique, le CD Audio ou des données informatiques: le CD-ROM. 
Microsoft met Microsoft Windows 1.0 sur le marché, deux ans après son annonce, au prix de 100 $.  
Microsoft lance la première version de son nouveau tableur graphique Excel pour Macintosh. 
Actuel Nous sommes entrés résolument dans la cinquième génération d'ordinateurs, celle des lasers, des fibres optiques et du matériel biochimique. Les récentes découvertes sur la supraconductivité et les nombreux travaux de recherche sur de nouveaux composants électroniques ont pour but de donner naissance à de supercalculateurs.  
On exploite notamment les propriétés de certains types de polymères organiques traités (matières plastiques) qui peuvent être rendus aussi bons conducteurs (électron = électricité) que le cuivre et qui peuvent de surcroît avoir une haute réponse optique non linéaire (photon = lumière). 
Chapitre 1 : Historique de l’informatique  
 
 
 
 
Sommaire | Version imprimable | Télécharger en PDF | Page suivante 
 
Ordinateur : Machine automatique de traitement de l’information permettant de conserver, d’élaborer et de restituer des données sans intervention humaine en effectuant sous le contrôle de programmes enregistrés des opérations arithmétiques et logiques.  
L’informatique que l’on connaît à ce jour est la synthèse des inventions et créations, commencées au XVIéme siècle. Les pages suivantes donnent les grandes inventions qui ont permis en cinq siècles à partir des logarithmes et de la première règle à calcul d’arriver au processeur moderne. 
 
1.1. LA PETITE HISTOIRE DE L’ORDINATEUR 
 
 
Le tout premier ordinateur programmable fut inventé par un mathématicien anglais Charles Babbage (1792-1871), qui en trouva l’idée en construisant, en 1823, une machine à calculer entièrement métallique nommée moteur différentiel. A cette époque, la technologie n’était pas assez évoluée pour permettre la réalisation de tels projets. Mais l’idée qui les sous-tendait (un appareil capable d’exécuter des calculs en fonction d’un programme inséré à l’aide de cartes perforées) comprenait la plupart des principes qui seront utilisés plus tard dans la conception des ordinateurs modernes.  
Les Origines :  
En 1904, l’invention du tube à vide électronique permit la construction du premier élément indispensable à la fabrication d’un ordinateur.  
 
Carte perforée 
D’abord utilisé comme amplificateurs, ces tubes en 1940 virent leur fonction de commutateur symboliser le codage binaire. Les données étaient introduites à l’aide de cartes perforées et les différentes parties du système étaient connectées manuellement à l’aide de câbles. Leur programmation était très lente : il fallait parfois plusieurs jours pour seulement 5 minutes de fonctionnement.  
Du tube à vide électronique au transistor :  
Les militaires ont été les premiers à utiliser ces ordinateurs à tubes comme l’ENIAC (un ordinateur de 30 tonnes contenant 18 000 tubes, 6 000 commutateurs, 70 000 résistances ...) car la Seconde Guerre mondiale multiplia les innovations, et quand elle fut terminée, les autorités trouvèrent d’autres usages aux ordinateurs.  
Les systèmes utilisants les tubes étaient volumineux, peu fiables. Ils étaient aussi limités en puissance de calcul. Tous ces problèmes furent résolus en 1947, lorsque John Bardeen, Walter Brattain et William Shockley travaillant chez Bell inventèrent le transistor qui a les mêmes fonctions que les tubes mais qui n’est constitué que d’un petit morceau de matériau semi-conducteur tel que le silicium pour agir comme de commutateur.  
Sources documentaires : Les grandes inventions (Larousse) et Le Multimédia (Gallimard)  
Les ordinateurs centraux :  
Avec des transistors petits, fiables et sans échauffement, les ordinateurs deviennent plus petits, plus puissant et plus économiques. Les nouvelles machines furent utilisées dans les années 60 par les banques où leur puissance de calcul était équivalente à celle d’un PC moderne.  
Par rapport aux standards d’aujourd’hui, ils étaient énormes. Ils occupaient souvent plusieurs salles. Leurs programmes étaient introduits à l’aide de cartes perforées et les données étaient stockées sur des bobines de bandes magnétiques (l’équivalent des disques durs).  
Descente au niveau des puces :  
En 1959, une société américaine, Texas Instruments, prouva qu’il était possible de graver plusieurs processeurs sur un seul morceau de silicium en faisant appel aux techniques photographiques. Ces transistors pouvaient ensuite être reliés par des pistes métalliques gravées également sur silicium. Cette combinaison prit le nom de circuit intégré ou de puce de silicium. A partir de ce moment, la technologie eut pour seule ambition de placer le plus grand nombre de transistors sur la plus petite surface de silicium possible. En 1971, un fabricant de circuits intégrés, Intel, inventera le premier microprocesseur, le 4004. Cette invention permit le développement des micro-ordinateurs.  
L’arrivée d’Apple sur le marché :  
Trois entreprises modifièrent radicalement l’informatique personnelle. La première, Commodore, construisit un système complet avec un clavier, un écran, un système de stockage sur cassette, appelé le PET. La seconde fut Tandy Radio Shack, avec son TRS-80. Mais la plus influente s’appelle Apple Computer : Après la sortie du troisième microprocesseur d’Intel, le 8080, un jeune employé de Hewlett-Packard, Wozniak construisit dans un garage de Cupertino le premier ordinateur personnel populaire qu’il baptisa Apple I en 1976.  
Le PC d’IBM :  
En 1980, le fabricant d’ordinateurs centraux, IBM, décida de créer un ordinateur individuel qui fut commercialisé en 1981. C’était le PC (Personnel Computer)  
Le microprocesseur :  
Inventé en 1971 par l’ingénieur Ted Hoff de la société américaine Intel, le microprocesseur réalise la miniaturisation totale des fonctions logiques dans une machine électronique. C’est l’invention la plus importante de l’électronique moderne, après le transistor et le circuit intégré.  
Le premier fut le 4004, annoncé le 15 novembre 1971. Ce processeur fonctionnait sur 4 bits, c’est à dire qu’il était capable de traiter 4 chiffres binaires à la fois. Ce premier processeur intégrait 2 250 éléments répartis sur une plaquette de 4,2 mm sur 3,2 mm.  
Le second microprocesseur sera le premier a avoir des capacités de calculs et de fonctions de contrôle élevées, c’est le 8008, un processeur 8 bits qui sera commercialisé par Intel en 1972. Il sera suivi en 1974 du 8080, puis en 1978 du 8086 (16 bits) qui sera intégré dans le premier micro-ordinateur d’IBM, le PC en 1981. 
 
1.2. CHRONOLOGIE 
 
 
XVIè siècle :  
• 1580 Napier (Ecosse) : mise en oeuvre des logarithmes.  
XVIIè siècle :  
• 1632 Oughtred (Angleterre) : création de la règle à calcul.  
• 1642 Pascal (France) : fabrication de la première machine à calculer permettant l’addition et la soustraction par complément.  
• 1666 Moreland (Anglais) : multiplication par additions successives.  
XVIIIè siècle :  
• 1762 France : contrôle de métiers à tisser par carton perforé.  
• 1770 Hahn (Allemagne) : première machine à calculer exécutant directement les 4 opérations (fondée sur le cylindre denté inventé par Liebniz en 1671).  
XIXè siècle :  
• 1833 Babbage (Angleterre) : définit les grands principes des calculatrices électroniques.  
• 1854 Boole (Angleterre) : calcul binaire.  
• 1880-90 Hollrith Powers (USA) première machine à carte perforées utilisée pour le recensement américain de 1890. H Burroughs, Scheuts, Wiberg (Suède), Odhnen (Allemagne), Bollée (France), Kelvin (Angleterre), Jahns (Suisse) : mise au point de plusieurs machines à calculer avec ou sans clavier, imprimantes ou non, et de machines « comptables ».  
XXè siècle :  
• 1906 De Forrest et J. Bryce (USA) : industrialisation des tubes à vide.  
• 1919 Eccles-Jordan (USA) : première bascule électronique.  
• 1924 Tabulating Machine Corporation fondée par Hollerith devient IBM.  
• 1944 Aiken et IBM (USA) : calculateur automatique Mark 1 (Université Harvard ).  
• 1946 Un "Electronic Numerical Integrator and Computer" (ENIAC) est réalisé par une équipe de la More Schoolk de l’université de Pennsylvannie qui est dirigée par Prosper Eckert et John Mauchly. Il pèse 30 tonnes, comprend 17468 tubes électroniques, 70000 résistances, 10000 capacités, 1500 relais, 6000 commutateurs. Il faut tourner à la main le commutateur et brancher pour chaque opérations des centaines de câbles ; il consomme 150000 Watts (il est 1000 fois plus rapide que le Mark 1), les relais électromécaniques sont remplacés par des circuits électroniques et pour la première fois des impulsions électriques sont utilisées pour mettre les lampes à vide en position allumée ou éteinte, ouverte ou fermée. Le système de code binaire est inventé par Von Neumann, la première construction est l’Electronic Discrete Variable Computer (EDVAC).  
• 1947 Eckert et Mauchly (USA) fondent une petite société qui devient Univac.  
• 1948 Bardeen-Frattain et Schockey (USA) industrialisent le transistor.  
• 1949 Wilkes (Angleterre) fabrique le premier calculateur auto-électronique à programme enregistré EDSAC. 
IBM (USA) commercialise le CPC, calculateur automatique ) carte-programme.  
• 1951 Aux Etats-Unis, la première machine à usage civil Univac 1 est mise au point par Eckert et Mauchly ; elle est refusée par IBM mais acceptée par Remington qui de 1952 à 1954 contrôle tout le marché civil. 
Premier calculateur électronique de la société Bull.  
• 1952 Von Neumann présente son architecture qui est encore utilisée comme modèle à ce jour ; Le calculateur est composé d’une Unité arithmétique et logique avec des accumulateurs, qui accède à la mémoire de la machine et à l’unité de commande, communique grâce à des unités d’entrées et de sorties. Le prototype comprend 4096 mots qui peuvent contenir deux instructions chacun. 
IBM vend 701 calculateurs automatiques.  
• 1964 IBM 360, premier ordinateur à circuit intégré. 
General Electric prend le contrôle de base de Bull.  
• 1970 Début de la révolution de la mini informatique. General Electric vend ses participations dans Bull.  
• 1972 Généralisation de la mémoire virtuelle.  
• 1973 Réalisation expérimentale de mémoires à bulle magnétiques et de circuits à jonction Josephson (effet tunnel) Arrivée de la mémoire virtuelle, de la multiplication et du multitraitement. 
Création d’Unidata, premier groupement européen, comprenant CII (France), Siemens (Allemagne), Philips (Pays Bas)  
• 1987 IBM commercialise son PS/2.  
• 1991 La révolution de la micro-informatique arrive en Europe. Les grandes surfaces commencent à commercialiser des PC.  
• 1995 Le son et la vidéo sont gérés en standard par le système d’exploitation Windows 95.  
• 1998 Windows 98 intègre en standard la communication sur le réseau Internet.  
• à suivre... 
 
1.3. LES GÉNÉRATIONS D’ORDINATEURS 
 
 
Génération zéro :  
C’est l’ère des calculateurs mécaniques (1642-1945).  
Première génération :  
Les calculateurs sont munis de tubes à vide (1945-1955).  
Deuxième génération :  
Les transistors marquent cette génération (1955-1965). Ils remplacent les tubes et permettent une miniaturisation des calculateurs qui possèdent des performances beaucoup plus élevées.  
Troisième génération :  
Des micromodules microscopiques rassemblent sur quelques mm2 des circuits transistorisés complets. Ces circuits miniatures possèdent deux niveaux d’intégration : soit LSI (Large Scale Integration) ou VLSI (Very Large Scale Integration) qui améliorent les capacités et la rapidité. Les avantages sont essentiellement un temps de conception et de mise au point réduit, un prix de revient inférieur, une plus grande surface d’aptitude aux modifications, une meilleure fiabilité et un entretien plus facile. Cette génération permet l’emploi de nouveaux langages simplifiés. 
Les premiers microprocesseurs (1965-1971)  
Quatrième génération : Les puces contiennent plusieurs milliers de transistors (1971- ? ? ? ?). Une seule peut avoir la puissance de calcul d’un ordinateur moyen des années 60 qui occupait une pièce entière. La répartition des coûts machine/logiciel d’une organisation subit une énorme modification ; en effet en 1970 elle était la suivante : matériel 50ogiciel 50En 1994, elle devient : matériel 5ogiciel 950D 
 
 
 
 
 
 
Chapitre 2 : Architecture des ordinateurs  
 
 
 
 
Page précédente | Sommaire | Version imprimable | Télécharger en PDF | Page suivante 
 
2.1. INTRODUCTION 
 
 
En première approche, un ordinateur est constitué d’un processeur qui effectue les traitements, d’une mémoire centrale où ce processeur range les données et les résultats de ces traitements et de périphériques permettant l’échange d’informations avec l’extérieur. Tous ces constituants sont reliés entre eux par l’intermédiaire d’un bus, qui est l’artère centrale et leur permet de s’échanger des données. Pratiquement, tous les ordinateurs actuels ont cette architecture, que ce soient les micro-ordinateurs personnels ou les gros ordinateurs des entreprises. Les différences résident essentiellement dans les performances des constituants.  
L’ensemble des communications à l’intérieur de l’ordinateur s’effectue en langage binaire.  
La plupart des systèmes supportent les mêmes types de périphériques ; leur nombre dépend de la taille et des performances de l’unité centrale.  
Les matériels à vocation scientifique ou industrielle sont également dotés de périphériques particuliers spécifiques des fonctions qui leur sont demandées. 
 
2.2. CODAGE DE L’INFORMATION (QU’EST CE QUE LE SYSTÈME BINAIRE ?) 
 
 
Le microprocesseur et tous les composants qui l’entourent doivent traiter les nombres usuels (0, 1, 2...8, 9) dont la représentation au moyen d’états électriques est très complexe. C’est la raison pour laquelle les ordinateurs travaillent sur des nombres "binaires", et n’utilisent que les chiffres 1 ("allumé") et 0 (« éteint »). Chaque 0 ou 1 d’un nombre binaire constitue un bit. C’est la plus petite unité envisageable (un périphérique qui ne serait capable que de stocker des zéros ne pourrait pas être utilisé comme mémoire, il faut pouvoir distinguer au moins deux valeurs).  
Il faut, par exemple, 4 bits pour représenter un chiffre ordinaire tel que "8" (qui s’écrit 1000 en représentation binaire).  
Une lettre majuscule telle que "A" est codée 01000001. Un groupe de huit bits est appelé octet, chaque octet correspondant ainsi à un caractère. Les PC disposent de microprocesseurs très puissants qui peuvent manipuler des nombres de 32 bits (4 octets à la fois). Pour toutes les opérations portant sur des nombres plus importants, le microprocesseur doit travailler sur des portions réduites, puis reconstituer le résultat sous forme d’un nombre unique. 
2.2.1. Un code Universel 
Si mystérieux que paraissent les ordinateurs, ils ne font qu’allumer et éteindre des milliers de minuscules interrupteurs. En combinant un grand nombre de ces interrupteurs, on peut créer une grande variété d’instructions pour diriger l’ordinateur.  
On dit toujours qu’on utilise en informatique l’arithmétique binaire parce que c’est la plus efficace. Cela veut dire qu’une information numérique peut être stockée en distinguant plusieurs valeurs d’un phénomène physique continu comme une tension ou une intensité. Plus on distinguera de valeurs, plus l’espace entre les valeurs sera petit et moins le dispositif de mémorisation sera fiable. Avec la numération binaire, il suffit de savoir distinguer deux états, c’est en ce sens que c’est la méthode la plus fiable pour coder l’information numérique.  
Deux autres systemes, l’octal (base 8) et le l’hexadecimal (base 16) sont très souvent employés, car ils facilitent le dialogue entre informaticiens. Difficile en effet d’exprimer oralement une adresse mémoire avec les seuls 0 et 1 du binaire !  
DECIMAL BINAIRE OCTAL HEXADECIMAL  
0 0 0 0  
1 01 1 1  
2 10 2 2  
3 11 3 3  
4 100 4 4  
5 101 5 5  
6 110 6 6  
7 111 7 7  
8 1000 10 8  
9 1001 11 9  
10 1010 12 A  
11 1011 13 B  
12 1100 14 C  
13 1101 15 D  
14 1110 16 E  
15 1111 17 F  
16 10000 20 10  
17 10001 21 11  
Comment coder le nombre 1944 avec seulement nos deux digits, 0 et 1 ?  
On peut coder chacun de ses chiffres séparément (minimum 4 bits par chiffre) : 0001 1001 0100 0100  
On peut coder la valeur 1944 entièrement en binaire : 0000011110011000  
Avec 16 bits, on peut représenter les nombres de 0 à 9999 en format décimal, ce qui nous donne 10000 combinaisons, alors qu’avec 16 bits en binaire pur, on peut représenter 65536 nombres différents. C’est pour cela aussi qu’on dit que le binaire est plus efficace.  
Ainsi un groupement de p éléments binaires successifs assure la représentation de 2p caractères distincts. Réciproquement, pour représenter 2p caractères distincts il faut p éléments binaires successifs choisis parmi deux signes (0,1). 
2.2.2. Quelques exemples de conversions 
Binaire Hexadécimal Décimal  
1001 9 9  
101101 2D 45  
11110111 F7 247  
2.2.3. Les unités de mesure 
Devant l’augmentation croissante des volumes de données mis en jeu, de nouvelles unités apparaissent pour caractériser les nouveaux supports de stockage. Aujourd’hui, un disque dur fait couramment une taille de 2 Go, la mémoire centrale 32 Mo et une disquette 1,44 Mo.  
1 octet = 8 bits  
1000 octets (1024 octets pour être précis...) = 1 Ko (Kilo-octets)  
1 000 000 octets = 1000 Ko = 1 Mo (méga-octets)  
1 000 000 000 octets = 1000 Mo = 1 Go (Giga-octets)  
1 000 000 000 000 octets = 1000 Go = 1 To (Téra-octets)  
1 000 000 000 000 000 octets = 1000 To = 1 Po (Péta-octets)  
2.2.4. Données non numériques 
Pour permettre la manipulation, l’échange et le stockage de fichier texte, il faut les coder sous un format universel qui peut être reconnu par tous les ordinateurs. Le codage des caractères alphanumériques se fait par une table de correspondance propre à chaque code utilisé :  
• BCD (Binary Coded Decimal) : le caractère est codé sur 6 bits  
• ASCII (American Standard Code for Information Interchange) : le caractère est codé sur 7 bits  
• EBCDIC (Extended Binary Coded Decimal Internal Code) : le caractère est codé sur 8 bits  
• UNICODE : Le caractère est codé sur 16 bits (soit 65536 combinaisons possible) ; il permet de traiter des textes écrits aussi bien en hiéroglyphes qu’en français. 
2.2.5. Nombres entiers 
Entier positif :  
Conversion d’une base à l’autre :  
Décimal à binaire :  
La conversion se fait par divisions entières successives par 2. L’arrêt se fait à un quotient nul. Le nombre binaire est obtenu en lisant le reste, du dernier au premier.  
Exemple : 25 
25 / 2 = 12 reste 1 
12 / 2 = 6 reste 0 
6 / 2 = 3 reste 0 
3 / 2 = 1 reste 1 
1 / 2 = 0 reste 1 
donc 25(10) = 11001 (2) (NB : 25 en base 10 équivaut a 11001 en base 2)  
Octal à décimal :  
La conversion se réduit à une addition de puissance de 8 (ou 16).  
Décimal à octal :  
La conversion se fait par divisions entières successives par 8 (ou 16). L’arrêt se fait à un quotient nul. Le nombre binaire est obtenu en lisant le reste, du dernier au premier.  
Octal (ou hexadécimal) à binaire  
La conversion correspond à un éclatement de chaque chiffre octal (ou hexa) en son équivalent binaire sur 3 (ou 4) bits.  
Exemple : 
7(8) = 111(2) car 1(8) = 001(2) et 7(8) = 111(2) 
A(16) = 1010(2) car 2(16) = 10(2) et A(16) = 1010(2) 
Binaire à octal (ou hexadécimal)  
On effectue un remplacement de droite à gauche de 3(ou 4) bits par le chiffre octal (hexa) correspondant. Si le nombre de bits n’est pas multiple de 3(ou 4), il faut compléter à gauche avec des 0.  
Exemple : 
01101(2) = 55(8) = 2D(16)  
Entier négatif :  
Il existe quatre façons de représenter les nombres négatifs en machine. La première, la valeur signée, consiste à réserver tout simplement un bit pour le signe (le bit le plus à gauche avec 0 pour et 1 pour -), les autres bits servant à représenter la valeur absolue du nombre. Dans la deuxième méthode, le complément à 1 (ou complément restreint), on a également un bit de signe qui vaut 0 pour et 1 pour -. Pour effectuer la négation d’un nombre, on remplace tous les bits (y compris le bit de signe) qui sont à 0 par 1 et tous les bits qui sont à 1 par 0. La troisième méthode, le complément à 2 (ou complément vrai), a elle aussi un bit de signe avec 0 pour et 1 pour -. On effectue la négation d’un nombre en deux étapes : on remplace d’abord tous les 1 par 0 et tous les 0 par 1, comme dans le complément à 1. Puis on additionne 1 au résultat ainsi obtenu. L’addition binaire ressemble fort à l’addition décimale à ceci près qu’on engendre une retenue si la somme et supérieure à 1 au lieu de 9.  
Essayons de convertir 6 en complément à deux. Il faut deux étapes :  
00000110 ( 6) 
11111001 (-6 en complément à 1) 
1 (on additionne 1) 
11111010 (-6 en complément à 2) 
Si une retenue est engendrée au niveau du bit le plus à gauche, elle est ignorée. La quatrième méthode, le codage par excédent, consiste, pour les nombres de m bits, à stocker la somme du nombre et de 2,n-1. Par exemple, pour les nombres sur 8 bits, on stocke la valeur du nombre plus 128. C’est ainsi que -3 devient -3 128 = 125, soit en binaire 0 1 1 1 1 1 0 1. On mappe ainsi sur l’intervalle O..255, les nombres de l’intervalle -128,..., 127. On peut remarquer que cette méthode donne un résultat identique à celle du complément à 2, au bit de signe près qui est inversé. Les deux premières méthodes (valeur signée et complément à 1) autorisent deux représentations distinctes de la valeur 0 : un « zéro positif » ( O) et un « zéro négatif » (-O). C’est un inconvénient important. La méthode du complément à 2 n’engendre pas de problème de ce côté-là car le complément à 2 de 0, c’est encore 0. En revanche, on doit noter qu’une configuration binaire formée d’un 1 suivi de 0 est son propre complément à 2 ; l’intervalle dans lequel les nombres négatifs prennent leur valeur n’est pas le symétrique de celui des nombres positifs : il y a un nombre négatif qui n’a pas de contrepartie positive. Le même problème survient avec la quatrième méthode. 
2.2.6. Les nombres fractionnaires 
Nombres fractionnaires :  
Changement de base :  
Binaire à décimal  
On additionne les puissances de 2. 
Exemple : 0,01 (2) = 0 * 2e - 1 1 * 2e - 2 = 0,25(10)  
Décimal à binaire  
La conversion s’effectue par des multiplications successives par 2, de nombres purement fractionnaires. On s’arrête dès que l’on obtient une partie fractionnaire nulle. Le résultat est obtenu en lisant les parties entières de la première vers la dernière.  
Exemple : 0,125 * 2 = 0,250 = 0 0,250 0,25 * 2 = 0,50 = 0 0,50 0,5 * 2 = 1,0 = 1 0,0 on lit donc de haut en bas 0,125(10) = 0,001(2)  
Nombres fractionnaires à virgule fixe :  
Les nombres sont traités comme des entiers avec une virgule virtuelle gérée par le programmeur ; le problème est la gestion de la place de la virgule au cours des opérations ce qui rend son traitement très difficile et le résultat peu précis. 
2.2.7. Protection contre les erreurs 
Avec l’augmentation constante des vitesses et des taux de transfert, il a fallut sans cesse perfectionner les algorithmes de vérification de l’intégrité des données transmises. On recense plusieurs type de codes vérificateurs mais les principaux sont les suivants :  
Codes autovérificateurs :  
Le contrôle de parité est le plus simple ; le mot se compose de m 1 bits ; la valeur est telle que le nombre total de bit à 1 (calculé sur m 1) est pair ou impair. Si la parité n’est plus respectée, l’erreur est détectée, mais s’il y a double erreur, la parité est aussi respectée et alors l’erreur n’est plus détectée.  
Codes autocorrecteurs :  
La double parité est un contrôle double du code mais seul un nombre impair d’erreur est possible à détecter.  
Le code de Hamming est basé sur les tests de parité et ne permet de corriger qu’un bit en erreur. On peut aussi l’utiliser dans le cas d’erreurs multiples sur une séquence de bits en arrangeant le message de façon matricielle.  
Détection d’erreurs groupées :  
CRC (Cyclique Redondancy Check) ou méthode des codes polynomiaux qui consiste avant la transmission à ajouter des bits de contrôle. Une information de n bits peut être considérée comme la liste des coefficients binaires d’un polynôme de n termes et donc de degré n-1.  
101101 = 1 x2 x3 x5  
Ce sont ces types de détection d’erreur que l’on utilise aujourd’hui car ce sont de loin les plus performantes. 
 
2.3. ÉLÉMENTS DE LOGIQUE 
 
 
Certaines des fonctions accomplies par l’ordinateur peuvent être obtenues avec d’autres circuits. Cette technique s’appelle la "logique cablee". 
2.3.1. Les opérateurs 
Le micro-ordinateur, ou plus exactement l’un de ses composants, l’UC (unité centrale) peut accomplir aussi bien des opérations arithmétiques que des opérations logiques.  
Les opérations sont surtout utilisées pour comparer des données entre elles et déclencher, à partir du résultat, une transaction particulière.  
Par exemple, on peut insérer dans un programme calculant la feuille de paie, un système de contrôle du nom qui se présente ; Si ce nom est FIN, la machine doit en aviser l’opérateur et mettre fin au programme.  
Dans l’éxécution d’un calcul arithmétique normal, nous pouvons distinguer trois entités fondamentales :  
1. Les opérandes : nombres sur lesquels on effectue l’opération.  
2. L’opérateur : symbole indiquant l’opération à accomplir  
3. Le résultat : nombre associé par l’opérateur aux opérandes.  
On connaît les opérateurs correspondant aux opérations arithmétiques ordinaires mais il existe aussi une série d’operateurs appelée : les opérateurs logiques. Ces opérateurs obéissent à des règles spécifiques, parfois très complexes. 
2.3.2. Les opérateurs logiques 
Prenons l’exemple des feux de circulation. Il y a quatre situations possibles :  
1. feux éteints  
2. feu rouge  
3. feu orange  
4. feu vert  
A la question : "Quel est l’état des feux de circulation ?", la réponse est nécessairement l’une des quatre situations énumérées plus haut.  
Soit : éteint OU rouge OU orange OU vert  
Le mot OU est un opérateur logique. Le symbole est OU. On peut donc exprimer les quatre situations possibles de la façon suivante : état des feux de circulation : 1 OU 2 OU 3 OU 4  
Question : "Quand une voiture a-t-elle le droit de passer ?"  
Réponse : "Feux éteints OU feu vert."  
On peut traduire symboliquement la réponse par : PASSEZ = 1 OU 4  
En réalité, l’expression 1 OU 4 n’est pas suffisante puisque si les feux sont éteints, il faut encore s’assurer que la voie est libre.  
La réponse complète est donc : PASSEZ = feu vert OU feux éteints ET voie libre  
Considérons cette dernière condition. Le mot ET signifie qu’on doit avoir simultanément les deux situations : feux éteints et voie libre  
C’est un nouvel opérateur logique que l’on symbolise par ET. En attribuant le chiffre 5 à la condition voie libre, on aura : PASSEZ = 4 OU 1 ET 5  
Mais cette expression est susceptible de deux interprétations :  
a) PASSEZ = (4 OU 1) ET 5 
b) PASSEZ = 4 OU (1 ET 5)  
L’expression a) signifie que le passage est autorisé si l’on a (4 OU 1) et en même temps 5. C’est une interprétation erronée contrairement à l’expression b) qui est correcte.  
Il est donc indispensable d’utiliser correctement les parenthèses, exactement comme dans les formules algébriques. 
Les opérateurs ET / OU s’appliquent à deux éléments d’un ensemble quelconque.  
Considérons un exemple à deux chiffres binaires A et B. Ces deux éléments peuvent prendre la valeur 0 ou 1. Il s’ensuit que les diverses combinaisons entre les valeurs A et B sont les suivantes :  




0 B 




En faisant appel aux opérateurs ET/OU, nous obtenons :  
A B 
1 1 
1 0 
0 1 
0 0 A ET B 



0 A OU B 



0  
Introduisons maintenant un nouvel opérateur : OU exclusif, OUX (XOR en anglais). cet opérateur est équivalent à OU sauf dans le cas où A=1 et B=1 où il donne 0 comme résultat. 
En d’autres termes, OUX n’équivaut à 1 que si l’un seulement de A ou de B a pour valeur 1. La table de vérité de cet opérateur est par conséquent :  
A B 
1 1 
1 0 
0 1 
0 0 B OUX B 




Le dernier des opérateurs est le NON (NOT en anglais). Il s’applique à un seul opérateur avec un sens complémentaire. Il remplace donc le symbole 1 par 0 et réciproquement.  


0 NON A 


On peut également appliquer les opérateurs logiques à des nombres binaires à plusieurs chiffres.  
Si nous prenons :  
A = 01101 
B = 10011 
on a :  
NON A = 10010 
NON B = 01100 
A ET B = 00001 
A OU B = 11111 A OUX B = 11110 
2.3.3. La logique cablée 
Les opérateurs logiques peuvent s’appliquer aux signaux électriques de la même manière qu’ils s’appliquent aux symboles 0 et 1 (signaux électriques numériques).  
L’opération qui permet d’obtenir le signal A ET B est effectué par des circuits numériques spécialisés que l’on appelle les circuits logiques.  
Chacun de ces circuits a une fonction qui lui est propre. A chaque opérateur logique correspond un circuit spécifique. 
Il faut donc construire un appareil particulier renfermant un circuit pour chacune des fonctions logiques dont on a besoin. Concevoir un circuit, c’est relier électriquement entre eux un certain nombre de composants. On obtient ainsi un circuit intégré. Cette opération de connexion s’appelle un câblage et le circuit prend alors le nom de logique cablée.  
Les opérateurs logiques peuvent s’appliquer sur des nombres quelque soit la base concernée. 
 
 

 

(c) moise mbuyi - Créé à l'aide de Populus.
Modifié en dernier lieu le 22.08.2004
- Déjà 2016 visites sur ce site!