Le sam 06/03/2004 à 23:56, Denis Barbier a écrit : > Quand le codage peut > être spécifié, ce qui est le cas dans l'immense majorité des cas (le > contre-exemple flagrant étant le nommage des fichiers), on n'a pas > besoin d'imposer un codage unique. Nous sommes bien d'accord (à part pour « immense majorité des cas »). Mais un codage en particulier ne peut pas tout décrire. Si j'envoie un mail ne contenant que des caractères pouvant être décrits en iso8859, il sera encodé ainsi par evolution (cf. les autres mails de cette discussion). Maintenant, si je mets des kanji (日本), il va être encodé en utf-8. On en revient au même point. Et c'est pareil pour le web : si tu veux une page avec à la fois du Français et du Japonais dessus, tu auras du mal sans utiliser utf-8. Quand bien même c'est possible d'avoir l'information sur l'encodage, ça ne suffit pas toujours. Je suis encore tombé sur un exemple à la con : les signets à paramètres de galeon (ou autre). Quand tu vas sur google.fr et que tu cherches un mot avec des accents, il se démerde avec l'encodage en envoyant le formulaire, car la page de départ contient un encodage (iso8859-1 ici). Mais quand tu veux faire une recherche en utilisant directement un signet, tu n'as pas l'information sur l'encodage dans lequel le site à l'autre bout veut ses informations. Et, corrigez-moi si je me trompe, autant HTTP précise un encodage pour ce que le serveur envoie, autant le client ne peut pas préciser en quoi son URL est encodée, et doit donc présupposer qu'elle est en utf-8. Et ma recherche sur Rémi se transforme en Rémi. Alors oui, généraliser les méta-données sur l'encodage est une bonne chose, mais ça ne suffit pas, et c'est de toute façon inutile si tu veux un système vraiment multilingue. -- .''`. Josselin Mouette /\./\ : :' : josselin.mouette@ens-lyon.org `. `' joss@debian.org `- Debian GNU/Linux -- The power of freedom
Attachment:
signature.asc
Description: Ceci est une partie de message =?ISO-8859-1?Q?num=E9riquement?= =?ISO-8859-1?Q?_sign=E9e=2E?=