<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.0 Transitional//EN">
<HTML><HEAD>
<META http-equiv=Content-Type content="text/html; charset=iso-8859-1">
<META content="MSHTML 6.00.2800.1400" name=GENERATOR>
<STYLE></STYLE>
</HEAD>
<BODY bgColor=#ffffff>
<DIV><FONT face=Arial size=2><FONT face="Courier New" size=3>Ciao, <BR>sto
cercando di laurearmi per il 23 giugno ma sono un po indietro con le conclusioni
della mia tesi. <BR>L'argomento è la legge formulata da Moore nella quale
prevedeva che il numero di transistor per circuito integrato sarebbe raddoppiato
ogni 18 mesi. <BR>Mi preoccupo di analizzare le implicazioni di questa vision
nella struttura dei vari mercati degli hardware che seguono questa evoluzione:
RAM, microprocessori ...... insomma l'idea di base è che sistematicamente
abbiamo strumenti hardware più veloci e meno costosi. <BR><BR>Dopo una lunga
revisione della storia dei semiconduttori, delle varie versioni della Legge di
Moore e una analisi empirica di confronto con l'effettivo andamento dei
semiconduttori, nella fase conclusiva mi piacerebbe analizzare le implicazioni
di questa evoluzione dell'hardware nel software: partendo con l'analisi della
strategia di Microsoft di sprecare i transistor, mi piacerebbe concludere con il
confronto tra due casi di software che hanno seguito evoluzioni diverse. Mi
piacerebbe vedere come l'inefficenza nella programmazione dei programmi sia
molto diversa se mettiamo a confronto le diverse versioni di un videogioco come
Quake per esempio o quelle di un programma con caratteristiche di mercato molto
diverse come word, excel ... <BR><BR>Non sono un esperto ma cerco
sostanzialmente un indice di "efficienza di programmazione" (che al limite
potrebbe anche essere il numero di righe di programmazione anche se immagino che
sia una misura un po impropria ..) che possa mettere in evidenza l'andamento
della programmazione rispetto all'andamento delle potenzialità dischiuse
dall'hardware. <BR>Una evidenza empirica NON TROPPO SOFISTICATA che possa
supportare la mia tesi <BR><BR>Mi aspetto che il rapporto tra evoluzione delle
potenzialità offerte dall'hardware e lunghezza dei codici vadano nella stessa
direzione, più ho PC potenti più i programmatori possono fare software "pesanti"
col fatto che non sempre tale pesantezza è giustificata da un effettivo
incremento delle funzioni offerte. <BR><BR>Oltre a fare considerazioni generali
mi piacerebbe proprio trovare il modo di supportare questa analisi con dei dati
(almeno un po) empirici sull'evoluzione dei codici di programmazione rispetto
alla rilevanza dei benefici offerti dalle nuove versioni. <BR><BR>Vi allego un
pezzo di quanto ho già iniziato a scrivere sulla conclusione per cercare di
chiarirvi un po le idee. <BR>Grazie mille <BR>Giorgio Zucchetti <BR><BR><BR>P.S.
<BR>Commenti, suggerimenti etc ..... sono molto ben accetti
<BR><BR><BR><BR><BR><BR><BR><BR><BR><BR>I software mettono in luce la dimensione
non tecnica della legge di Moore. Nella prima era dei computer, quando la
memoria interna era una risorsa scarsa, i software di sistema dovevano
confrontarsi con questo problema con un uso molto efficiente dei codici di
programmazione. Con l’avvento della tecnologia MOS (metal oxide semiconductor),
le memorie interne oggi sottostanno alla legge di Moore e quindi la dimensione
media della memoria dei PC cresce a un tasso esponenziale. La diretta
conseguenza è che il software non è più obbligato a ottimizzare lo spazio, sono
subito comparse così milioni di stringhe di codice. <BR><BR>Nathan Myhrvold,
Direttore dell’Advance Technology Group di Microsoft, condusse uno studio sui
prodotti Microsoft contando le linee di codici delle release degli stessi
pacchetti software. Basic aveva 4000 linee di codici nel 1975 e più di mezzo
milione venti anni dopo. Microsoft Word aveva 27000 linee di codice nella prima
versione del 1982 e nei venti anni successivi è cresciuto di circa 2 milioni.
Myhrvold ha fatto un parallelo con la legge di Moore: “So we have increased the
size and complexity of software even faster than Moore’s Law. In fact, this is
why there is a market for faster processor. Software people have always consumed
new capability as fast, or faster, than the chip people could make it
available”. <BR><BR><BR><BR>Software sempre più complessi richiedono anche
maggiore memoria e più capacità, questo è un caso di network reinforcement
multiplier effect che è osservabile nel settore dei computer e nei prodotti
connessi. In tali settori è fortemente enfatizzato questo effetto perché i soli
computer rappresentano circa il 60% della domanda di semiconduttori, seguiti
dalla telefonia 10% (Hutcheson and Hutcheson 1996, Economist 1996). Come abbiamo
già visto nei software, così come nei semiconduttori, anche la complessità sta
crescendo esponenzialmente; il tasso con il quale aumenta la complessità del
software sembra superare quello dell’hardware che supporta il software. Gilder
nel 1995 formulò due nuove leggi di Parkinson per i software:”il software si
espande per sfruttare la memoria disponibile” e “il Software diventa più lento
più velocemente di quanto l’hardware diventa più veloce”. Quindi i nuovi
programmi vanno più lentamente delle loro precedenti versioni (ES: WordPerfect
6.0 per Windows rispetto a WordPerfect 5.1 per DOS). Microsoft, soprattutto con
Windows e Wintel, standard de facto, deve gran parte del suo successo alla
scaltrezza con la quale sfrutta le nuove potenzialità dell’hardware (Gilder
1995, 1989). “[Bill] Gates travels in the slipstream behind Moore’s Law,
following a key rule of the microcosm: Waste transistors ... Every time Andy
[Grove] makes a faster chip, Bill uses all of it. Wasting transistors is the law
of thrift in microcosm, and Gates has been its most brilliant and resourceful
exponent.” (Gilder, 1995). </FONT><BR></FONT></DIV></BODY></HTML>