[Date Prev][Date Next] [Thread Prev][Thread Next] [Date Index] [Thread Index]

Re: 64 bit si, 64 bit no



Il giorno gio, 31/05/2007 alle 08.17 +0200, AletrilogY ha scritto:
> L'argomento è molto interessante, sopratutto per me che volevo passare
> ad una architettura a 64bit, ma la domanda mi sorge spontanea....
> perchè c'è stata questa corsa alla tecnologia 64bit se nemmeno la sua
> stessa tecnologia( vedi cache ) riesce a sfruttarne in pieno le
> capacità? perchè oramai le cpu nuove che escono sono a 64bit quando
> non è neanche possibile sfruttarla, i driver sono pochi o nulli i
> programi idem? 

Io sono un po' controcorrente, e ti rispondo: per fortuna che il
marketing questa volta ha fatto qualcosa di buono! :)

Ha ragione Roberto quando dice che il passaggio a 16 e 32 bit e` stato
molto vantaggioso, ma IMHO solo perche` l'architettura precedente era
sottodimensionata di molto quando e` stato fatto il passaggio, mentre
coi 32 bit si sarebbe potuto vivere bene ancora 1-2 anni da adesso, poi
sarebbero iniziati i problemi. Sto parlando dell'utente comune. Sui
server i 64 bit ci sono da molto tempo e sono necessari.

Sul C64 (8 bit) la memoria era 64 Kb, e gia` ne servivano 16 per
indirizzarla. Come vedi era gia` strozzato in partenza.

Poi e` arrivato il tempo dei PC a 16 bit e dell'Amiga 1000/500/2000 (e
Atari ST 512 e 1024 e altre macchine), che avevano processori a 16/24
bit (il 68000): 16 bit per i dati, 24 per l'indirizzamento. Nascevano
con 512 Kb di RAM, ed il massimo che potevano indirizzare erano 16 Mb.
Infatti sono corsi ai ripari usando il 68020 e i 386 per avere i 32 bit
e indirizzare 4 Gb. Naturalmente sui 386 giravano ancora S.O. a 16 bit
(DOS e Windows fino al 95), quindi i vantaggi dei 32 bit sono arrivati
dopo. Infatti gli x86 (anche il P4) hanno diverse modalita` di
funzionamento, e di default partono a 16 bit. E` il S.O. che switcha a
32 bit appena viene caricato.

4 Gb di memoria, sui desktop, non vengono ancora usati quasi da nessuno,
ma iniziano, soprattutto tra i gamers, le macchine con 2 Gb. Se aggiungi
la swap, arrivi tranquillamente a 4 Gb, quindi siamo al limite della
tecnologia. Nel giro di 2 anni, la quantita` di memoria base su un PC
sara` di almeno 2 Gb (Vista ne richiede gia` almeno 1), e molti ne
useranno 4. Aggiunta la swap, vedi che si sfora.

Per questo dico: per fortuna ci sono gia`, e sono diffusi i processori
64 bit, cosi` gli sviluppatori hanno la possibilita` di essere pronti
quando saranno necessari. E se non lo saranno, sara` colpa loro.

Il problema attuale, infatti, e` che la maggior parte delle applicazioni
usano algoritmi studiati per funzionare bene su 32 bit, e i compilatori
possono fare poco in questi casi (vedi l'esempio postato qui del lame,
evidentemente a 32 bit, e dell'oggenc, quasi sicuramente a 64. Non mi
meraviglierei se l'oggenc riuscisse a dare anche una qualita` migliore
aumentando i bit con cui fa i calcoli).

Se vai su applicazioni server, tipo i database o i programmi di calcolo
molecolare, sono gia` studiati a 64 bit (e 128 in virgola mobile),
quindi avrai prestazioni migliori.

Insomma, e` questione di tempo, e probabilmente le applicazioni Linux
saranno pronte per i 64 bit prima di quelle Windows, vista la storica
immobilita` di quella piattaforma (i driver Epson credo siano ancora a
16 bit...), ma i vantaggi si vedranno principalmente sul calcolo pesante
e che richiede precisione o grandi numeri.

Bye.




-- 
Alessandro Pellizzari




Reply to: