Re: Svenska tecken i menu-menyn
Wednesday 19 April 2006 18:59 skrev Sven Arvidsson:
> Torbjörn Svensson wrote:
> > ISO är det som av tradition används inom *NIX ett bra tag, dock ser det
> > ut som UTF-8 är det som kommer att vara dominerande under den kommande
> > framtiden vilket borde vara själv nog till att använda det om man kan.
> > Jag vet att bla Fedora och Suse har UTF-8 som default.
>
> Debian Etch kommer troligtvis också använda UTF-8 som default.
> http://article.gmane.org/gmane.linux.debian.devel.announce/747
Några synpunkter från en Etch/KDE-brukare:
Ja, det är nog så att Etch levereras med UTF-8 som default och det var så även
när jag installerade en Sarge via nät-ISO för snart ett år sedan. Jag tolkar
det som om att man nu beslutat att inleda övergången till UTF-8 så generellt
som möjligt. Men det är inte problemfritt.
Det som jag funnit vara besvärligast är att läsa plain-text i Windowsfiler.
Visserligen är editorer som Kate och hennes 'föräldrar' fantastiskt utrustade
för att kunna visa alla sorts textkodning, men mitt äventyr med UTF-8 slutade
med att jag hade mina filer i olika format (UTF-8 respektive ISO-8859) helt
utan kontroll.
Jag kunde aldrig få i funktion någon slags halvautomatisk, lagom transparent
konvertering. Själva idén i KDE med hur textfiler hanteras i det avseendet
kom jag egentligen aldrig underfund med. Min blandning av UTF/ISO på
Linux/Windows blev mig övermäktig. Jag har ingen dator med både Linux och
Windows utan kör Samba på en Linux. Även Sambaservern sätts upp med UTF-8 som
default.
Efter moget övertestande ominstallerade jag alla system med ISO-8859-1 som
locale och Samba med Unix charset ISO-8859-1.
Jag insåg att det var enklast att göra så, eftersom väldigt mycket i systemet
sätts upp direkt med default-teckenkodning, så man ändrar i själva verket
bara en del på ytan om man bara ändrar locale på ett redan installerat
system.
Med ISO-8859-1 är det nästan aldrig några problem med ÅÄÖåäö (det är ju det
som oftast blir fel). Windowstextfiler är alltid rätt kodade (det är väl så
att ANSI är ungefär ISO-8859?) och blandade filer finns inte längre.
Å andra sidan, den dag man inte behöver Windows, eller den dag då Microsoft
fullt ut går över till UTF-8 som standard, är det väl dags att acceptera
UTF-8 som standardkodning. Men jag tror att det återstår många små
(tillsammans ganska stora) problem som måste lösas.
Tänk till exempel på alla program som bygger på att ett tecken = en byte! Det
behövs ett totalt nytänkande på många områden innan UTF-8 med variabelt antal
bytes per tecken kan bli dominerande standard, tror jag. Räkna tecken och
räkna bytes blir alldeles olika saker.
Men borsett från det så är nog UTF-8 i alla fall bäst på lång sikt, kan man
tro, eftersom alla(?) språk kan innefattas i en enda kodstandard. -- Vad
säger ni, var jag oklok som inte tog tillfället i akt att övergå till UTF-8
när jag inledde min linucifiering?
Bästa hälsningar
Tore
Reply to: