L'ordinateur ne peut fonctionner qu'au travers des données transmises. Pour ce qui est du clavier, il envoie des signaux qui sont codés pour être compris : si l'on tape A, le code envoyé en décimal est 65.
À chaque caractère correspond un code.
En anglais ou en américain les choses sont simples en absence de caractères diacritiques : 128 codes suffisent.
En français et dans d'autres langues s'ajoutent ces caractères diacritiques :
Pour la plupart des langues européennes latines, il faut donc ajouter des codes. Pour atteindre l'octet, 128 codes supplémentaires sont possibles : 256 caractères sont ainsi codés.
La standardisation n'est pas parfaite… La feuille de calcul le montre en comparant son exécution sous MacOS et Windows !(voir https://fr.wikipedia.org/wiki/MacRoman
Pour l'ensemble des langues mondiales il en faut plus : deux octets sont utilisés et 65536 caractères sont ainsi codés. Exemples : 炗 شـــــشـــــش କୗ བྐྵ
Le premier code est le fameux code ASCII, qui fut complété ensuite, et enfin transformé en UNICODE.
Le but de la feuille de calcul présentée est de réaliser des tables de ces caractères à l'aide des fonctions décrites.
Téléchargement : https://techmicrobio.com/ftp/informatique_feuilles/table_ascii.xlsx
Lire avec beaucoup de patience les articles de wikipedia, car les codages sont d'une très grande complexité :
Remarquer que wikipedia affiche tous les caractères d'autres langues (y compris chinois, thaïlandais,…)