<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.0 Transitional//EN">
<HTML><HEAD>
<META http-equiv=Content-Type content="text/html; charset=iso-8859-1">
<META content="MSHTML 6.00.2800.1400" name=GENERATOR>
<STYLE></STYLE>
</HEAD>
<BODY bgColor=#ffffff>
<DIV><FONT face=Arial size=2><FONT face="Courier New" size=3>Ciao, <BR>sto 
cercando di laurearmi per il 23 giugno ma sono un po indietro con le conclusioni 
della mia tesi. <BR>L'argomento è la legge formulata da Moore nella quale 
prevedeva che il numero di transistor per circuito integrato sarebbe raddoppiato 
ogni 18 mesi. <BR>Mi preoccupo di analizzare le implicazioni di questa vision 
nella struttura dei vari mercati degli hardware che seguono questa evoluzione: 
RAM, microprocessori ...... insomma l'idea di base è che sistematicamente 
abbiamo strumenti hardware più veloci e meno costosi. <BR><BR>Dopo una lunga 
revisione della storia dei semiconduttori, delle varie versioni della Legge di 
Moore e una analisi empirica di confronto con l'effettivo andamento dei 
semiconduttori, nella fase conclusiva mi piacerebbe analizzare le implicazioni 
di questa evoluzione dell'hardware nel software: partendo con l'analisi della 
strategia di Microsoft di sprecare i transistor, mi piacerebbe concludere con il 
confronto tra due casi di software che hanno seguito evoluzioni diverse. Mi 
piacerebbe vedere come l'inefficenza nella programmazione dei programmi sia 
molto diversa se mettiamo a confronto le diverse versioni di un videogioco come 
Quake per esempio o quelle di un programma con caratteristiche di mercato molto 
diverse come word, excel ... <BR><BR>Non sono un esperto ma cerco 
sostanzialmente un indice di "efficienza di programmazione" (che al limite 
potrebbe anche essere il numero di righe di programmazione anche se immagino che 
sia una misura un po impropria ..) che possa mettere in evidenza l'andamento 
della programmazione rispetto all'andamento delle potenzialità dischiuse 
dall'hardware. <BR>Una evidenza empirica NON TROPPO SOFISTICATA che possa 
supportare la mia tesi <BR><BR>Mi aspetto che il rapporto tra evoluzione delle 
potenzialità offerte dall'hardware e lunghezza dei codici vadano nella stessa 
direzione, più ho PC potenti più i programmatori possono fare software "pesanti" 
col fatto che non sempre tale pesantezza è giustificata da un effettivo 
incremento delle funzioni offerte. <BR><BR>Oltre a fare considerazioni generali 
mi piacerebbe proprio trovare il modo di supportare questa analisi con dei dati 
(almeno un po) empirici sull'evoluzione dei codici di programmazione rispetto 
alla rilevanza dei benefici offerti dalle nuove versioni. <BR><BR>Vi allego un 
pezzo di quanto ho già iniziato a scrivere sulla conclusione per cercare di 
chiarirvi un po le idee. <BR>Grazie mille <BR>Giorgio Zucchetti <BR><BR><BR>P.S. 
<BR>Commenti, suggerimenti etc ..... sono molto ben accetti 
<BR><BR><BR><BR><BR><BR><BR><BR><BR><BR>I software mettono in luce la dimensione 
non tecnica della legge di Moore. Nella prima era dei computer, quando la 
memoria interna era una risorsa scarsa, i software di sistema dovevano 
confrontarsi con questo problema con un uso molto efficiente dei codici di 
programmazione. Con l’avvento della tecnologia MOS (metal oxide semiconductor), 
le memorie interne oggi sottostanno alla legge di Moore e quindi la dimensione 
media della memoria dei PC cresce a un tasso esponenziale. La diretta 
conseguenza è che il software non è più obbligato a ottimizzare lo spazio, sono 
subito comparse così milioni di stringhe di codice. <BR><BR>Nathan Myhrvold, 
Direttore dell’Advance Technology Group di Microsoft, condusse uno studio sui 
prodotti Microsoft contando le linee di codici delle release degli stessi 
pacchetti software. Basic aveva 4000 linee di codici nel 1975 e più di mezzo 
milione venti anni dopo. Microsoft Word aveva 27000 linee di codice nella prima 
versione del 1982 e nei venti anni successivi è cresciuto di circa 2 milioni. 
Myhrvold ha fatto un parallelo con la legge di Moore: “So we have increased the 
size and complexity of software even faster than Moore’s Law. In fact, this is 
why there is a market for faster processor. Software people have always consumed 
new capability as fast, or faster, than the chip people could make it 
available”. <BR><BR><BR><BR>Software sempre più complessi richiedono anche 
maggiore memoria e più capacità, questo è un caso di network reinforcement 
multiplier effect che è osservabile nel settore dei computer e nei prodotti 
connessi. In tali settori è fortemente enfatizzato questo effetto perché i soli 
computer rappresentano circa il 60% della domanda di semiconduttori, seguiti 
dalla telefonia 10% (Hutcheson and Hutcheson 1996, Economist 1996). Come abbiamo 
già visto nei software, così come nei semiconduttori, anche la complessità sta 
crescendo esponenzialmente; il tasso con il quale aumenta la complessità del 
software sembra superare quello dell’hardware che supporta il software. Gilder 
nel 1995 formulò due nuove leggi di Parkinson per i software:”il software si 
espande per sfruttare la memoria disponibile” e “il Software diventa più lento 
più velocemente di quanto l’hardware diventa più veloce”. Quindi i nuovi 
programmi vanno più lentamente delle loro precedenti versioni (ES: WordPerfect 
6.0 per Windows rispetto a WordPerfect 5.1 per DOS). Microsoft, soprattutto con 
Windows e Wintel, standard de facto, deve gran parte del suo successo alla 
scaltrezza con la quale sfrutta le nuove potenzialità dell’hardware (Gilder 
1995, 1989). “[Bill] Gates travels in the slipstream behind Moore’s Law, 
following a key rule of the microcosm: Waste transistors ... Every time Andy 
[Grove] makes a faster chip, Bill uses all of it. Wasting transistors is the law 
of thrift in microcosm, and Gates has been its most brilliant and resourceful 
exponent.” (Gilder, 1995). </FONT><BR></FONT></DIV></BODY></HTML>