L' Elaborazione dell' Entropia

Come suggeriva De Crescenzo, in uno dei suoi libri, per frenare l'entropia, sarebbe opportuno non agitare col cucchiaino lo zucchero immerso nel caffè ma aspettare che questo si sciolga da solo. Un bel suggerimento per garantire la segretezza!

Cos'è l'entropia ? Nell'ambito della teoria dell'informazione, l'entropia misura l'informazione generata dall'alterazione di uno stato d'ordine di una sorgente. Più precisamente, data una variabile aleatoria che descrive un fenomeno, l'entropia è il valore atteso delle autoinformazioni (o quantità di incertezza) di tutti gli eventi in cui può manifestarsi il fenomeno.

E' una definizione tanto complessa quanto affascinante, ma si può spiegare con un esempio banale:

Se una moneta è posta su un tavolo ed è ferma, noi la vediamo in ordine e con una faccia ben nota rivolta verso l'alto e l'altra in contatto col tavolo. Non aggiungiamo quindi nulla di nuovo a quello che sappiamo già e cioè non aggiungiamo informazione al nostro stato di consapevolezza del fenomeno osservato.

Ma se una moneta la lanciamo in aria, durante il volo creiamo uno stato di disordine che comporta nell'osservatore uno stato di inconsapevolezza del fenomeno, infatti sia durante il volo, sia quando prendiamo al volo la moneta e la teniamo stretta e nascosta tra le mani, ci porremo la domanda: Sarà testa o sarà croce?

Questa informazione generata dal passaggio di uno stato d'ordine ad uno di disordine, cioè da uno stato di simmetria spaziale noto ad uno di casualità ed indeterminazione, è il bit che trasporta con se l'incertezza della faccia (testa/0 o croce/1). Fin quando non apriremo le mani, noi possiamo solo limitarci ad allocare un bit come misura del disordine generato.

Questa è l'informazione secondo l'intuizione del teorico Shannon : la misura della grandezza dell'entropia.

Lascia un commento