Materie: | Appunti |
Categoria: | Informatica |
Download: | 76 |
Data: | 03.11.2000 |
Numero di pagine: | 2 |
Formato di file: | .doc (Microsoft Word) |
Download
Anteprima
entropia-comunicazione_1.zip (Dimensione: 2.05 Kb)
readme.txt 59 Bytes
trucheck.it_entropia-e-comunicazione.doc 10 Kb
Testo
Nell'approccio sistematico allo studio dei sistemi relazionali informatici e telematici in genere, in termini di segni e quindi, di riflesso, in termini simbolici, assume notevole importanza il concetto di "funzione entropia" intesa come misura dell'incertezza nell'ambito della conoscenza dello stato di un generico sistema. Esistono almeno tre distinte interpretazioni del concetto di entropia: 1. Interpretazione termodinamica. In questa interpretazione l'entropia descrive lo stato di "uniformita'" del sistema ed e' una funzione sempre crescente allo scorrere del tempo; il sistema si evolve verso lo stato piu' probabile raggiungendo l'equilibrio termodinamico: uno stato indifferenziato. 2. Interpretazione nella teoria della comunicazione. La forma matematica che descrive il flusso di informazioni in presenza di rumore corrisponde alla forma matematica che descrive l'entropia termodinamica; si e' portati quindi per analogia ad assimilare questi due concetti. In questo caso pero' l'informazione e' tanto piu' significativa quanto piu' e' improbabile; il messaggio statisticamente piu' probabile, massimo di entropia, e' privo di significato. Il messaggio puo' essere trasmesso con precisione grande a piacere, anche in presenza di errori casuali, ripetendo il messaggio stesso. Anche in questo caso il messaggio degrada da uno stato di massima significativita' ad uno stato indifferenziato a causa degli errori casuali di trasmissione. 3. Interpretazione in relazione alla conoscenza del sistema. In questa interpretazione l'entropia diviene una misura del grado di conoscenza che abbiamo di un determinato sistema. La conoscenza massima possibile corrisponde alla conoscenza degli stati particolari tra quelli possibili in cui si trova il sistema. La probabilita' di questo stato collassa da un valore infinitesimo al valore uno corrispondente alla realta' ovvero allo stato che effettivamente si realizza in natura. Informazioni mancanti fanno crescere l'entropia intesa come mancata conoscenza del sistema. Tanto piu' e' complesso il sistema tanto maggiore e' l'entropia. L'entropia viene anche utilizzata come misura del disordine di un sistema, nel senso che uno stato ordinato (semplice) e' maggiormente comprensibile (e quindi comunicabile) che uno stato disordinato. Ora di pari passo con le considerazioni appena svolte, viene alla luce il fondamentale "compromesso" tra ricevente ed emittente del messaggio stesso, che in ambito informatico si traduce in una comune scelta di codici di trasmissione, quindi, in ultima analisi la socialita'che sta alla base di comunicazione e cultura. In questo contesto si innesta la teoria dell'evoluzione che, in presenza di riproduzione e mutazione, e' in grado di selezionare informazioni sempre piu' lontane dall'equilibrio statistico, massimo di entropia, per ottenere un messaggio sempre piu' significativo: estrae dal disordine un ordine. La presenza di eventi stocastici alla base del processo evolutivo porta pero' ad una sempre maggiore complessita' relativa ad uno scorrere del tempo senza limiti. Effetti di amplificazione e retroazione possono portare alla affermazione di fluttuazioni casuali che diventano la regola per le generazioni successive.