Cours magistral d'informatique du troisième semestre d'AES

Elle représente la signification et les interprétations qui peuvent être tirées de l'
examen ou du traitement d'une ou plusieurs données. Il existe différentes
informatiques : industrielle .... Cette dernière est évaluée par la fréquence de l'
horloge se mesurant aujourd'hui en GHz (gigahertz). Le premier processeur d'
Intel dans les ...

Part of the document


Cours magistral d'informatique du troisième semestre d'AES PARTIE I : Généralités Première section : Définitions I. Informatique Ce terme résulte du rapprochement de deux mots : INFORMATION + AUTOMATIQUE Définition : Science du traitement logique et automatique du support des
connaissances et des communications humaines, à savoir : l'INFORMATION. Science du traitement rationnel, notamment par machines automatiques, de
l'information considérée comme le support des connaissances humaines et des
communications dans les domaines techniques, économiques et sociaux. Une information est un élément de connaissance apporté par un message
inscrit sur un support physique. Elle représente la signification et les interprétations qui peuvent être
tirées de l'examen ou du traitement d'une ou plusieurs données. Il existe différentes informatiques : industrielle, de gestion.... Dans ce cours, nous ne verrons que l'informatique de gestion. L'informatique ne se résume as à la réalisation de programmes avec un
ordinateur.
Les informaticiens ne sont pas tous des programmeurs : il existe par
exemple des analyste, concepteur, architectes réseaux... Schématiquement, La réalisation d'une application informatique (un
logiciel) est un processus qui débute par une phase d'analyse des besoins
et des problèmes, se poursuit avec une phase de conception dans laquelle on
construit des modèles de données et des modèles de traitement et se termine
par une phase de réalisation et de mise en ?uvre : on fabrique des
programmes et on les installe. Une dernière phase existe : la maintenance qui commence quand l'application
fonctionne normalement. Toutes les phases en amont de la programmation représentent 70 % du travail
dans l'informatique.
II. Ordinateur Définitions : Ensemble de composants électriques reliés les uns aux autres
de manière à constituer un système cohérent de l'information quelque soit
le type de traitement envisagé et quelle que soit la nature de
l'information traitée. Tous les ordinateurs utilisent les mêmes principes de fonctionnement qui
ont été posés en 1945 par Von Neumann. La machine de von Neumann John von Neumann (1903-1957), mathématicien
américain d'origine hongroise, est l'un des plus brillants scientifiques du
XXe siècle. Pendant la Seconde Guerre mondiale, von Neumann participe,
entre autres, aux calculs nécessaires à la mise au point de la bombe
atomique américaine (projet Manhattan). Pour faire ces calculs, il cherche
à utiliser les calculateurs disponibles aux États-Unis. En 1944, il
rencontre à l'université de Pennsylvanie J. P. Eckert et J. W. Mauchly qui
construisent un très gros calculateur: l'ENIAC (Electronic Numerical
Integrator, Analyser and Computer). Bien que très puissante, cette machine
n'est pas encore un ordinateur. Son usage est très fastidieux et Von
Neumann cherche à améliorer sa conception. Avec Eckert, Mauchly et une
équipe d'ingénieurs, il conçoit les plans d'une nouvelle machine qu'il
appelle l'EDVAC (Electronic Discrete Variable Automatic Computer). Cette
machine est fondamentalement nouvelle dans son architecture. L'innovation
fondamentale est que dans sa mémoire centrale sont placés non seulement les
données mais aussi le programme. Une unité de commande interne permet
d'organiser le travail de la machine et les échanges avec l'extérieur. C'est le principe de base de l'architecture des ordinateurs classiques
(séquentiels). Seules les machines parallèles d'avant-garde actuelles
sortent des limites de ce modèle. Quelque soit son type, un ordinateur a trois fonctions principales : - Le calcul : effectué en appliquant des opérateurs de natures diverses
à des données situées en mémoire centrale. Les opérateurs sont mis en
?uvre grâce à des programmes, de procédures ou de fonctions qui
représentent des unités de traitement. - La gestion des données (création, stockage, consultation, mise à jour
et suppression) consiste à organiser les données en mémoire centrale
et en mémoire périphérique. Certaines données sont calculées à partir
d'autres mais la plupart sont saisies.
- Communication et réseaux par l'intermédiaire de nombreux réseaux
(notamment le net), les ordinateurs peuvent communiquer entre eux et
permettent aux utilisateurs d'échanger des informations mêmes à des
distances très importantes.
III. Données Définition : Une donnée est une caractéristique, une propriété, un
comportement concernant un objet du monde réel. Exemple : nom d'un client.... Quelque soit leurs types (sons, caractères, images...), toutes les données
sont codées dans les ordinateurs par l'intermédiaire de système binaires. Le langage binaire est donc le langage des machines. Le codage de l'information Pour traiter les données, le système informatique doit être capable de
«comprendre» cette information. Les systèmes informatiques actuels
comportent des circuits intégrés qui rassemblent sur une puce de silicium
quelques centaines de milliers de transistors. Ils ne peuvent donc
fonctionner que selon une logique dite binaire déterminée par deux états
logiques correspondant à deux niveaux électroniques, conventionnellement
notés 0 et 1. Le passage d'une information, d'un langage compréhensible par l'homme à un
langage compréhensible par le système informatique se nomme codage. Les informations que doivent traiter les systèmes informatiques sont
composées de lettres, de chiffres et de symboles particuliers (points
d'exclamation, guillemets...). On est donc amené à coder l'information pour
qu'elle soit assimilée par le système. Les codes utilisés en informatique Le code ASCII (American Standard Code for Information Interchange) est l'un
des codes les plus utilisés en informatique. Défini en 1963 aux États-Unis,
il a été repris par les organismes de normalisation des transmissions
internationales de données, qui en ont fait le code ISO à 7 bits
(International Standard Organization). Il est souvent assimilé à un code à
8 bits, car on ajoute 1 bit de contrôle, le bit de parité. Tous les caractères du clavier sont ainsi codés par l'intermédiaire d'un
octet qui est une combinaison de 8 positions binaires également appelé
bits. L'ensemble des codes des 256 caractères est connu sous le nom de code «
ASCII » pour : American Standard Code Information Interchange Les données peuvent être des variables ou des constantes de type numérique,
textes, dates, logiques (vrai ou faux), sons, images... Elles sont regroupées dans des fichiers qui ne contiennent que des données
de même nature et qui sont organisées de manière à faciliter l'exploitation
par des programmes. Un fichier de données est structuré sous la forme d'une suite
d'enregistrement. Un enregistrement correspond à l'ensemble des données disponibles pour un
individu ou un objet donné. L'ensemble des fichiers de données d'une entreprise constitue sa base de
données.
Pour exploiter les données, on réalise des programmes qui sont des suites
finies d'instruction dont le début et la fin sont parfaitement identifiés. Fichiers et base de données : Une base de données est un ensemble structuré
et organisé de données qui représente un système d'informations
sélectionnées de telle sorte qu'elles puissent être consultées par des
utilisateurs ou par des programmes. Ainsi, dans une grande institution
comme la Bibliothèque nationale, il s'agit de l'ensemble formé par les
références des ouvrages, des auteurs, des éditeurs, etc. Dans une
entreprise, la base de données contient l'ensemble des données concernant
les clients, les fournisseurs, les employés, les références des produits
fabriqués... et permet d'établir des relations entre ces différentes
entités. Chaque instruction correspond à une action, une opération effectuée par le
microprocesseur sur une ou plusieurs données. Deuxième section : Le matériel Un micro-ordinateur = Une unité centrale + périphérique (éléments matériels divers qui lui sont
reliés) Aujourd'hui la distinction est souvent fonctionnelle puisqu'il arrive que
des périphériques soient physiquement à l'intérieur de l'unité centrale. Attention : L'unité centrale ? tour L'unité centrale désigne la carte mère autour de laquelle les périphériques
sont centralisés. I. L'unité centrale La carte mère est constituée de deux unités distinctes A. L'unité de traitement Il s'agit d'un seul circuit intégré appelé microprocesseur. C'est le c?ur
et le cerveau de l'ordinateur. Il se divise lui-même en :
- unité de commande qui gère le bon déroulement des programmes en
prenant en compte les instructions les unes après les autres en les
décodant et en lançant les ordres aux différents composants
participants à la réalisation du programme.
- Unité arithmétique et logique (UAL) composées de circuits spécialisés
réalisant les calculs et des registres de travail permettant de
stocker les valeurs intermédiaires. 80 % des processeurs sur le marché sont de marques INTEL (Pentium et
Celeron).
Ses concurrents sont AMD (Athlon et Duron) et Cyrix. La performance des processeurs est évaluée en MIPS (millions d'instructions
par secondes).
Cette dernière est évaluée par la fréquence de l'horloge se mesurant
aujourd'hui en GHz (gigahertz). Le premier processeur d'Intel dans les années 80 avait une fréquence de
4,77 MHz.
Aujourd'hui : Pentium 4 cadencé à plus de 4 GHz. B. L'unité de mémoire Unité de mémoire = mémoire centrale. 1) Mémoire vive Appelée communément