Peut-être trouvez-vous évident qu'une machine informatique soit capable de gérer efficacement vos données, quelles qu'elles soient, y compris le texte ?
Avez-vous pensé un seul instant que, pour puissant qu'il soit, votre merveilleux ordinateur n'a qu'un doigt pour compter ?
Et pourtant, ça marche. Nous allons voir comment.
Par la même occasion, nous verrons aussi pourquoi, quelquefois, il y a des petites « curiosités » dans l'affichage du texte, principalement sur les lettres accentuées et certains symboles.
S'il est assez naturel de transformer un nombre « humain » (en base 10) dans n'importe quelle autre base de calcul, y compris la base 2 (et réciproquement), c'est un peu plus compliqué de coder en binaire les symboles d'écriture.
Pourquoi ?
Parce qu'il n'y a pas réellement d'algorithme mathématique pour le faire et qu'il faudra donc travailler sur des conventions. Vous savez ce que valent les conventions, elles sont adoptées jusqu'à ce qu'elles ne le soient plus. De plus, les limites d'une convention sont bien connues :
Nous allons ici essayer de passer en revue les principales conventions adoptées pour le codage des symboles d'écriture, en ayant à l'esprit que nous sommes dans un contexte mondial, avec plusieurs langues, plusieurs alphabets et, pour compliquer encore le problème, plusieurs systèmes d'information.