วันอาทิตย์ที่ 16 มีนาคม พ.ศ. 2551

MPEG-1/2 Audio Layer 3

Le MPEG-1/2 Audio Layer 3, plus connu sous son abréviation de MP3, est la spécification sonore du standard MPEG-1, du Moving Picture Experts Group (MPEG). C'est un algorithme de compression audio (voir aussi codec) capable de réduire drastiquement la quantité de données nécessaire pour restituer de l'audio, mais qui, pour l'auditeur, ressemble à une reproduction du son original non compressé, c'est-à-dire avec perte de qualité sonore significative mais acceptable pour l'oreille humaine. L'extension de nom de fichier est .mp3 et le type MIME est audio/mpeg[1]. Ce type de fichier est appelé « fichier MP3 ».
Un fichier MP3 n'est soumis à aucune
mesure technique de protection (cf. gestion numérique des droits).

Historique

Le codage MPEG-1/2 Layer 2 est né avec le projet Digital Audio Broadcasting (radio numérique DAB) qui fut lancé par le Deutsche Luft und Raumfahrt. Ce projet a été financé par l'Union européenne, et faisait partie du programme de recherche EUREKA, plus connu sous le nom de EU-147.
Le projet EU-147 exista de
1987 à 1994. En 1991, deux formats étaient disponibles :
-
MUSICAM (Masking pattern adapted Universal Subband Coding And Multiplexing), basé sur un pur codage psycho-acoustique et un banc de filtres adaptés aux sons de type percussifs ;
-
ASPEC (Adaptive Spectral Perceptual Entropy Coding), qui introduisait la technologie de codage entropique.
Le format Musicam conçu par le
CCETT, Philips et l'IRT fut choisi par l'ISO MPEG Audio dirigé par Hans-Georg Mussman en raison de sa structuration modulaire en plusieurs couches de codage [Layers], sa simplicité de mise en œuvre côté décodeur et sa grande tolérance aux erreurs de transmission.
À la demande de Hans-Georg Mussman, un groupe de travail regroupant
Leon Van de Kerkhof (Philips), Yves-François Dehery (TDF-CCETT), Karlheinz Brandenburg (Fraunhofer-Gesellschaft) reprit des idées de Musicam et d'ASPEC, ajouta de nouveaux outils technologiques et créa le format MP3 (Layer III ou couche III), conçu pour être de même qualité à 128 kbit/s que le MP2 à 192 kbit/s.
La norme ISO MPEG Audio avec ses trois couches de codage Layer I, Layer II (Musicam), Layer III (.MP3) fut achevée officiellement en
1992 et constitua la première partie du MPEG-1, le premier travail du groupe MPEG, groupe à l'origine de la norme internationale ISO/CEI 11172-3, publiée en 1993. Le travail sur l'audio MPEG se termina en 1994 et constitua la seconde partie (MPEG-2) de la norme internationale ISO/CEI 13818-3, publiée pour la première fois en 1995.
Les équipes de normalisation procédèrent à de nombreux tests subjectifs en double aveugle sur de nombreux matériaux sonores pour déterminer le niveau de compression approprié pour les diverses couches de l'algorithme. On a notamment utilisé Tom's Diner, la chanson de
Suzanne Vega comme séquence de test pour l'algorithme de compression du MP3. Cette chanson a été choisie à cause de sa finesse et de sa simplicité, qui facilite la détection des imperfections du codec.

Utilisation

Ce format populaire de compression audio permet une compression approximative de 1:4 à 1:12. Un fichier audio occupe ainsi quatre à douze fois moins d'espace une fois compressé au format MP3. La réduction de taille facilite le téléchargement et le stockage de données musicales sur un support numérique, tel qu'un disque dur ou une mémoire flash.
Il a également été largement mis en oeuvre en diffusion numérique dans les récepteurs
T-DMB Radio dont la spécification a été adoptée par l'ETSI en 2005. En effet le MP3 appartient à la même famille de norme MPEG Audio que le MP2 utilisé en radiodiffusion numérique (TNT et T-DMB Radio). Un simple transcodage binaire du format MP2 audio diffusé au format MP3 enregistré est réalisé dans les terminaux T-DMB, autorisant ainsi la mise sur le marché de terminaux baladeurs/récepteurs audionumériques.

Étiquettes

Outre le fait de stocker la musique de façon très compacte tout en conservant une qualité acceptable, le MP3 apporte une fonctionnalité rarement présente sur les formats audio qui l'ont précédé : les métadonnées (données sur les données). En clair, le fichier MP3 ne contient pas seulement la musique mais peut également apporter des informations sur celles-ci (telles que l'interprète, le titre, le nom de l'album, la pochette, les paroles ou du karaoké). Ces informations sont stockées sous forme d’étiquettes (tag en anglais) dont il existe plusieurs versions.
Le format MP3 initial ne permettait pas de stocker des étiquettes, tout au plus, il permettait de préciser certains paramètres
binaires comme le fait que le morceau soit protégé ou non par copyright ou le fait qu'il s'agisse d'un original ou d'une copie.
Les étiquettes MP3 sont enregistrées au format
ID3 (version 1 ou 2).

Licence

Bien que le MP3 soit souvent perçu par l'utilisateur final comme une technologie gratuite (car il peut en effet coder ou décoder sa musique de manière tout à fait légale pour peu que l'enregistrement original lui appartienne ou qu'il soit une copie à usage privé), cette technologie fait l'objet d'une licence.
L'algorithme « MPEG-1 Layer 3 » décrit dans les standards
ISO/CEI IS 11172-3 et ISO/CEI IS 13818-3 est soumis à des redevances (droits commerciaux) à Philips (entreprise néerlandaise), TDF (entreprise française), France Télécom (entreprise française), IRT (entreprise allemande), Fraunhofer IIS (entreprise allemande) et Thomson pour toute utilisation ou implantation physique (notamment sur les baladeurs MP3).

Environnement Windows

Lorsqu'on dispose d'un CD audio et d'un lecteur CD sur un ordinateur sous Windows, il suffit d'insérer le CD et de le lire avec le Lecteur Windows Media intégré au système d'exploitation. En cliquant sur l'onglet "Extraire", on peut très facilement transformer les fichiers audio du CD. Néanmoins, le Lecteur Windows Media est réglé par défaut pour extraire les fichiers dans WMA. Sous les premières versions de lecteur, il fallait installer un codec externe pour encoder en MP3. Depuis la version pour Windows XP, l'encodeur est intégré au lecteur, mais il faut le forcer dans le menu Outils/Options, onglet Extraire la musique, et passer outre le message d'avertissement sur les défauts de l'encodage MP3 !
Il existe des logiciels plus spécialisés offrant plus d'options et une meilleure qualité (grâce à l'encodeur
LAME) tels que CDex ou EAC. Le logiciel iTunes offre de nombreuses possibilités de conversion d'un format à un autre.

วันศุกร์ที่ 7 มีนาคม พ.ศ. 2551

Ordinateur

Un ordinateur est une machine informatique. C'est un ensemble de circuits électroniques permettant de manipuler des données sous forme binaire, ou bits. Cette machine permet de traiter des informations selon des séquences d'instructions prédéfinies ou programmes. Elle interagit avec l'environnement grâce à des périphériques (écran, clavier, modem...).
Historique
Le mot ordinateur fut introduit par IBM France en 1955. François Girard, alors responsable du service publicité de l'entreprise, eut l'idée de consulter son ancien professeur de lettres à Paris, Jacques Perret, afin de lui demander de proposer un mot caractérisant le mieux possible ce que l'on appelait vulgairement un calculateur (traduction littérale du mot anglais « computer »). Ce dernier proposa « ordinateur », un mot tombé en désuétude désignant anciennement un ordonnateur, voire la notion d'ordre ecclésiastique dans l'église catholique (ordinant). Notons que le professeur suggéra plus précisément « ordinatrice électronique », le féminin ayant pu permettre, selon lui, de mieux distinguer l'usage religieux de l'usage comptable du mot.Peu avant la seconde guerre mondiale apparurent les premières calculatrices électromécaniques, construites selon des idées de Babbage. Les machines furent vite supplantées par les premiers calculateurs électroniques, nettement plus performants.
Le premier ordinateur fonctionnant en langage binaire fut le
Colossus, conçu lors de la 2e guerre mondiale. A la fin de la guerre, il fut démonté et caché à cause de son importance stratégique. L'ENIAC, son homologue américain créé en 1945, fut donc considéré pendant plusieurs années comme le premier ordinateur, avant
que l'existence du vieillissant Colossus fut révélée.
Fonctionnement d’un ordinateur
Parmi toutes les machines inventées par l'homme, l'ordinateur est celle qui se rapproche le plus du concept anthropologique suivant :
Organe d'entrée. Organe de traitement de l'information. Organe de sortie
Chez l'homme les organes d'entrée sont les cinq sens, l'organe de traitement est l'esprit (le cerveau) dont les logiciels sont l'apprentissage avec des mises à jour constantes en cours de vie, puis les organes de sortie sont les membres (action physique et/ou la parole, l'écriture, les réflexes, etc. (pour les ordinateurs modernes il va de soi que les organes d'entrée sont divers (tactile, reconnaissance vocale etc.) cela ne change rien à l'anthropomorphisme de ces matériels tant la possibilité de recueil de l'information par l'homme est immense (avec un avantage non négligeable) « l'auto » pensée.

Éclaté d'un ordinateur.
Les
techniques utilisées pour fabriquer ces machines ont énormément changé depuis les années 1940 et sont devenues une technologie (c’est-à-dire un ensemble industriel organisé autour de techniques) à part entière depuis les années 70. Beaucoup utilisent encore les concepts définis par John von Neumann, bien que cette architecture soit en régression : les programmes ne se modifient plus guère eux-mêmes (ce qui serait considéré comme une mauvaise pratique de programmation), et le matériel prend en compte cette nouvelle donne en séparant aujourd'hui nettement le stockage des instructions et des données, y compris dans les caches.
UAL et UC
L’unité arithmétique et logique ou UAL est l’élément qui réalise les opérations élémentaires (additions, soustractions, etc.), les opérateurs logiques (ET, OU, NI, etc.) et les opérations de comparaison (par exemple la comparaison d’égalité entre deux zones de mémoire). C’est l’UAL qui effectue les calculs de l’ordinateur.
L’unité de contrôle prend ses instructions dans la mémoire. Celles-ci lui indiquent ce qu’elle doit ordonner à l’UAL et, comment elle devra éventuellement agir selon les résultats que celle-ci lui fournira. Une fois l’opération terminée, l’unité de contrôle passe soit à l’instruction suivante, soit à une autre instruction à laquelle le programme lui ordonne de se brancher.
L'unité de contrôle facilite la communication entre l'unité arithmétique et logique, la mémoire ainsi que les périphériques. Il gère la plupart de l'exécution des instructions dans l'ordinateur.
Mémoire
Au sein du système, la mémoire peut être décrite comme une suite de cellules numérotées contenant chacune une petite quantité d’informations. Cette information peut servir à indiquer à l’ordinateur ce qu’il doit faire (instructions) ou contenir des données à traiter. Dans la plupart des architectures, c'est la même mémoire qui est utilisée pour les deux fonctions. Dans les calculateurs massivement parallèles, on admet même que des instructions de programmes soient substituées à d’autres en cours d’opération lorsque cela se traduit par une plus grande efficacité. Cette pratique était jadis courante, mais les impératifs de lisibilité du génie logiciel l'ont fait régresser, hormis dans ce cas particulier, depuis plusieurs décennies.
Cette mémoire peut être récrite autant de fois que nécessaire. La taille de chacun des blocs de mémoire ainsi que la technologie utilisée ont varié selon les coûts et les besoins : 8 bits pour les télécommunications, 12 bits pour l’instrumentation (DEC) et 60 bits pour de gros calculateurs scientifiques (Control Data). Un consensus a fini par se réaliser autour de l’
octet comme unité adressable et d’instructions sur format de 4 ou 8 octets.
Dans tous les cas de figure, l'
octet reste adressable, ce qui simplifie l'écriture des programmes.
Les techniques utilisées pour la réalisation des mémoires ont compris des relais électromécaniques, des tubes au mercure au sein desquels étaient générées des ondes acoustiques, des
transistors individuels, des tores de ferrite et enfin des circuits intégrés incluant des millions de transistors.
Entrées-Sorties
Les dispositifs d’entrée/sortie permettent à l’ordinateur de communiquer avec l’extérieur. Le nombre de ces dispositifs est très important, du clavier à l’écran.
Le point commun entre tous les
périphériques d’entrée est qu’ils convertissent l’information qu’ils récupèrent de l’extérieur en données compréhensibles par l’ordinateur. À l’inverse, les périphériques de sortie décodent l’information fournie par l’ordinateur afin de la rendre utilisable par l’utilisateur.
Instructions
Les instructions que l’ordinateur peut comprendre ne sont pas celles du langage humain. Le matériel sait juste exécuter un nombre limité d’instructions bien définies. Des instructions typiques comprises par un ordinateur sont « copier le contenu de la cellule 123 et le placer dans la cellule 456 », « ajouter le contenu de la cellule 321 à celui de la cellule 654 et placer le résultat dans la cellule 777 » et « si le contenu de la cellule 999 vaut 0, exécuter l’instruction à la cellule 345 ». Mais la plupart des instructions se composent de deux zones : l’une indiquant quoi faire, qu’on nomme le code opération, et l’autre indiquant où le faire, qu’on nomme opérande.
Au sein de l’ordinateur, les instructions correspondent à des codes - le code pour une copie étant par exemple 001. L’ensemble d’instructions qu’un ordinateur supporte se nomme son langage machine, langage qui est une succession de chiffres
binaires, car les instructions et données qui sont comprises par le CPU sont constituées uniquement de 0 (zéro) et de 1 (un). 0 = Le courant électrique ne passe pas. 1 = Le courant électrique passe.
En général, les programmeurs n’utilisent plus ce type de langage, mais passent par ce que l’on appelle un
langage de haut niveau qui est ensuite transformé en langage binaire par un programme dédié (interpréteur ou compilateur selon les besoins). Les programmes ainsi obtenus sont des programmes compilés compréhensibles par l'ordinateur dans son langage natif.
Certains
langages de programmation, comme l’assembleur sont dits langages de bas niveau car les instructions qu’ils utilisent sont très proches de celles de l’ordinateur. Les programmes écrits dans ces langages sont ainsi très dépendants de la plateforme pour laquelle ils ont été développés. Le langage C, beaucoup plus facile à relire que l’assembleur, permet donc aux programmeurs d’être plus productifs. Pour cette raison, on l’a vu de plus en plus utilisé à mesure que les coûts du matériel diminuaient et que les salaires horaires des programmeurs augmentaient.
Logiciels
Les logiciels informatiques sont de larges listes d’instructions données à un ordinateur. De nombreux programmes contiennent des millions d’instructions, effectuées pour certaines de manière répétitive. Un ordinateur personnel de 2006 exécute plusieurs milliards d’instructions par seconde.
Depuis le milieu des
années 1960, des ordinateurs et des systèmes conçus à cette fin permettaient d’exécuter plusieurs programmes simultanément. Cette possibilité est appelée multitâche. C’est le cas de tous les ordinateurs et systèmes aujourd’hui.
En réalité, le processeur n’exécute qu’un programme à la fois, passant de l’un à l’autre chaque fois que nécessaire. Si la rapidité du processeur est suffisamment grande par rapport au nombre de tâches à exécuter, l’utilisateur aura l’impression d’une exécution simultanée des programmes. Les priorités associées aux différents programmes sont, en général, gérées par le
système d'exploitation.