Il y a bien une représentation par des 0 et des 1, mais ces symboles sont assemblés comme une suite de 0 et de 1. Ces suites représentent des nombres. Par exemple, 10010 en binaire vaut 18 en décimal.

L’informatique utilise ces nombres pour coder d’autres informations. Par exemple, 1000001 vaut 65 en décimal et représente ‘A’ dans la codification des caractères ASCII (http://fr.wikipedia.org/wiki/Ascii).

Un grand principe de l’informatique est que toute information peut être codée par un nombre. Ceci est valable pour les textes, les images, le son, la vidéo, Et c’est aussi valable pour les traitements appliqués à cette même information !

La recherche informatique a étudié les codages pour qu’ils soient « justes », c’est à dire pour que l’information ne soit pas perdue et qu’elle puisse être traitée efficacement.

Exemples :

- Le format MP3 représente des sons et permet une écoute correcte avec une taille de données minimale (http://fr.wikipedia.org/wiki/Mp3)

- La même chose est valable pour le format JPEG pour les images.

Dans tous ces cas des algorithmes de modification sont applicables sans être trop couteux.