Quando una cellula si riproduce, le cellule della nuova generazione vengono
fornite dell'informazione genetica necessaria alla sintesi di tutte le sostanze
che sono loro proprie e alla realizzazione di tutte le strutture. Quando un'ape
operaia ritorna all'alveare carica di bottino, trasmette alle consorelle
l'informazione necessaria per raggiungere il luogo dove ha fatto provvista. Le
lucciole comunicano tra loro in vista dell'accoppiamento mediante il lampeggiare
delle luci di cui sono munite. Una cellula batterica sopravvive se è informata
sulle condizioni più o meno propizie che vigono nell'ambiente esterno al fine di
regolare il proprio comportamento: muoversi verso la fonte del nutrimento, o incistidarsi nell'attesa
di condizioni ambientali migliori. Sono questi esempi dei molteplici ruoli che l'informazione svolge presso tutti i viventi.
La misura dell'informazione
Dell'opportunità di studiare il flusso informativo nei viventi i biologi erano convinti da tempo, ma lo strumento adatto per misurare in modo concreto l'informazione è diventato disponibile solo nel 1948 grazie agli studi di Shannon e a quelli di Wiener.
La formula che esprime la quantità di informazione (I), secondo questi due studiosi, è la seguente:
n
I = - ∑ p k ° log 2 p k
k=1
In questa formula p esprime la probabilità di scegliere (casualmente) l'elemento k nell'insieme di elementi entro il quale va operata la scelta.
Possiamo fare un esempio molto semplice: se disponiamo di un albero di scelte
binarie con cinque successive diramazioni la probabilità di raggiungere senza errore l'obiettivo desiderato tra i 32 possibili è data dal logaritmo in base 2 di 32
che, preso col segno negativo, diventa -5.
- 5 = -log2 32 = colog2
32
Adottando come unità di misura il bit, cioè la quantità d'informazione che permette di scegliere tra due eventi equiprobabili quello giusto (scelta binaria), si dirà che in questo caso l'informazione occorrente per arrivare senza errori all'obiettivo è di 5 bit
(1).
Quanto detto sopra riguarda l'informazione come grandezza definita sulla base
delle operazioni che si compiono per misurarla. Cerchiamo ora di dare al
concetto una concretezza maggiore. Per comunicare, bisogna che la fonte
dell'informazione sia in qualche modo collegata al ricevitore che utilizza l'informazione.
Tale collegamento può essere rappresentato come un canale che convoglia fino al ricevitore i segnali emessi dalla fonte.