[trashware] (senza oggetto)
Giorgio Zucchetti
jorginhotestone@hotmail.com
Dom 5 Giu 2005 18:45:34 CEST
Ciao,
sto cercando di laurearmi per il 23 giugno ma sono un po indietro con le
conclusioni della mia tesi.
L'argomento è la legge formulata da Moore nella quale prevedeva che il
numero di transistor per circuito integrato sarebbe raddoppiato ogni 18
mesi.
Mi preoccupo di analizzare le implicazioni di questa vision nella struttura
dei vari mercati degli hardware che seguono questa evoluzione: RAM,
microprocessori ...... insomma l'idea di base è che sistematicamente abbiamo
strumenti hardware più veloci e meno costosi.
Dopo una lunga revisione della storia dei semiconduttori, delle varie
versioni della Legge di Moore e una analisi empirica di confronto con
l'effettivo andamento dei semiconduttori, nella fase conclusiva mi
piacerebbe analizzare le implicazioni di questa evoluzione dell'hardware nel
software: partendo con l'analisi della strategia di Microsoft di sprecare i
transistor, mi piacerebbe concludere con il confronto tra due casi di
software che hanno seguito evoluzioni diverse. Mi piacerebbe vedere come
l'inefficenza nella programmazione dei programmi sia molto diversa se
mettiamo a confronto le diverse versioni di un videogioco come Quake per
esempio o quelle di un programma con caratteristiche di mercato molto
diverse come word, excel ...
Non sono un esperto ma cerco sostanzialmente un indice di "efficienza di
programmazione" (che al limite potrebbe anche essere il numero di righe di
programmazione anche se immagino che sia una misura un po impropria ..) che
possa mettere in evidenza l'andamento della programmazione rispetto
all'andamento delle potenzialità dischiuse dall'hardware.
Una evidenza empirica NON TROPPO SOFISTICATA che possa supportare la mia
tesi
Mi aspetto che il rapporto tra evoluzione delle potenzialità offerte
dall'hardware e lunghezza dei codici vadano nella stessa direzione, più ho
PC potenti più i programmatori possono fare software "pesanti" col fatto che
non sempre tale pesantezza è giustificata da un effettivo incremento delle
funzioni offerte.
Oltre a fare considerazioni generali mi piacerebbe proprio trovare il modo
di supportare questa analisi con dei dati (almeno un po) empirici
sull'evoluzione dei codici di programmazione rispetto alla rilevanza dei
benefici offerti dalle nuove versioni.
Vi allego un pezzo di quanto ho già iniziato a scrivere sulla conclusione
per cercare di chiarirvi un po le idee.
Grazie mille
Giorgio Zucchetti
P.S.
Commenti, suggerimenti etc ..... sono molto ben accetti
I software mettono in luce la dimensione non tecnica della legge di Moore.
Nella prima era dei computer, quando la memoria interna era una risorsa
scarsa, i software di sistema dovevano confrontarsi con questo problema con
un uso molto efficiente dei codici di programmazione. Con l’avvento della
tecnologia MOS (metal oxide semiconductor), le memorie interne oggi
sottostanno alla legge di Moore e quindi la dimensione media della memoria
dei PC cresce a un tasso esponenziale. La diretta conseguenza è che il
software non è più obbligato a ottimizzare lo spazio, sono subito comparse
così milioni di stringhe di codice.
Nathan Myhrvold, Direttore dell’Advance Technology Group di Microsoft,
condusse uno studio sui prodotti Microsoft contando le linee di codici delle
release degli stessi pacchetti software. Basic aveva 4000 linee di codici
nel 1975 e più di mezzo milione venti anni dopo. Microsoft Word aveva 27000
linee di codice nella prima versione del 1982 e nei venti anni successivi è
cresciuto di circa 2 milioni. Myhrvold ha fatto un parallelo con la legge di
Moore: “So we have increased the size and complexity of software even faster
than Moore’s Law. In fact, this is why there is a market for faster
processor. Software people have always consumed new capability as fast, or
faster, than the chip people could make it available”.
Software sempre più complessi richiedono anche maggiore memoria e più
capacità, questo è un caso di network reinforcement multiplier effect che è
osservabile nel settore dei computer e nei prodotti connessi. In tali
settori è fortemente enfatizzato questo effetto perché i soli computer
rappresentano circa il 60% della domanda di semiconduttori, seguiti dalla
telefonia 10% (Hutcheson and Hutcheson 1996, Economist 1996). Come abbiamo
già visto nei software, così come nei semiconduttori, anche la complessità
sta crescendo esponenzialmente; il tasso con il quale aumenta la complessità
del software sembra superare quello dell’hardware che supporta il software.
Gilder nel 1995 formulò due nuove leggi di Parkinson per i software:”il
software si espande per sfruttare la memoria disponibile” e “il Software
diventa più lento più velocemente di quanto l’hardware diventa più veloce”.
Quindi i nuovi programmi vanno più lentamente delle loro precedenti versioni
(ES: WordPerfect 6.0 per Windows rispetto a WordPerfect 5.1 per DOS).
Microsoft, soprattutto con Windows e Wintel, standard de facto, deve gran
parte del suo successo alla scaltrezza con la quale sfrutta le nuove
potenzialità dell’hardware (Gilder 1995, 1989). “[Bill] Gates travels in the
slipstream behind Moore’s Law, following a key rule of the microcosm: Waste
transistors ... Every time Andy [Grove] makes a faster chip, Bill uses all
of it. Wasting transistors is the law of thrift in microcosm, and Gates has
been its most brilliant and resourceful exponent.” (Gilder, 1995).
_________________________________________________________________
Blocca le pop-up pubblicitarie con MSN Toolbar! http://toolbar.msn.it/
Maggiori informazioni sulla lista
trashware