Informazione

Da Wikipedia, l'enciclopedia libera.
Se riscontri problemi nella visualizzazione dei caratteri, clicca qui.
bussola Disambiguazione – Se stai cercando il quotidiano, vedi Informazione (quotidiano).

L'informazione è lo scambio di conoscenza tra due o più persone, all'interno di una comunità o nella società, nonché il significato che le persone coinvolte attribuiscono a tale conoscenza. È ciò che, per un osservatore o un recettore posto in una situazione in cui si hanno almeno due occorrenze possibili, supera un'incertezza e risolve un'alternativa, cioè sostituisce il noto all'ignoto, il certo all'incerto. In altre parole essa riguarda il contesto in cui i dati sono raccolti, la loro codifica in forma intelligibile ed in definitiva il significato attribuito a tali dati.

L'informazione è oggetto di studio e applicazione in vari settori della conoscenza e dell'agire umano: sul fronte tecnico è oggetto di studio dell'ingegneria dell'informazione; sul fronte delle scienze sociali l'informazione è oggetto d'indagine delle scienze della comunicazione e in generale della sociologia con particolare riguardo agli aspetti legati alla diffusione dei mezzi di comunicazione di massa nell'attuale Società dell'informazione o Era dell'informazione.

Etimologia[modifica | modifica sorgente]

La parola deriva dal sostantivo latino informatio(-nis) (dal verbo informare, nel significato di "dare forma alla mente", "disciplinare", "istruire", "insegnare"). Già in latino la parola veniva usata per indicare un "concetto" o un'"idea", ma non è chiaro se questa parola possa avere influenzato lo sviluppo della parola informazione.

Inoltre la parola greca corrispondente era "μορφή" (morfè, da cui il latino forma per metatesi), oppure "εἶδος" (éidos, da cui il latino idea), cioè "idea", "concetto" o "forma", "immagine"; la seconda parola fu notoriamente usata tecnicamente in ambito filosofico da Platone e Aristotele per indicare l'identità ideale o essenza di qualcosa (vedi Teoria delle idee). Eidos si può anche associare a "pensiero", "asserzione" o "concetto".[1]

Descrizione[modifica | modifica sorgente]

In generale un'informazione ha valore in quanto potenzialmente utile al fruitore per i suoi molteplici scopi: nell'informazione infatti è spesso contenuta conoscenza o esperienza di fatti reali vissuti da altri soggetti e che possono risultare utili senza dover necessariamente attendere di sperimentare ognuno ogni determinata situazione. Sotto questo punto di vista il concetto utile di informazione e la parallela necessità di comunicare o scambiare informazione tra individui nasce, nella storia dell'umanità, con l'elaborazione del linguaggio da parte della mente umana e si sviluppa con la successiva invenzione della scrittura come mezzo per tramandare l'informazione ai posteri. Secondo quest'ottica la storia e l'evoluzione della società umana sono frutto dell'accumulazione di conoscenza sotto forma di informazione. Nell'informazione ad esempio è contenuto know how utile per eseguire una determinata attività o compito, cosa che la rende ad esempio una risorsa strategica in ambito economico dell'economia aziendale.

Col progredire delle conoscenze umane il concetto di informazione si è evoluto divenendo via via più vasto e differenziato: informazione è in generale qualunque notizia o racconto, inoltre qualunque comunicazione scritta o orale contiene informazione. I dati in un archivio sono informazioni, ma anche la configurazione degli atomi di un gas può venire considerata informazione. L'informazione può essere quindi misurata come le altre entità fisiche ed è sempre esistita, anche se la sua importanza è stata riconosciuta solo nel XX secolo.

Per esempio, la fondamentale scoperta della “doppia elica” del DNA nel 1953 da parte di James Watson e Francis Crick ha posto le basi biologiche per la comprensione della struttura degli esseri viventi da un punto di vista informativo. La doppia elica è costituita da due filamenti accoppiati e avvolti su se stessi, a formare una struttura elicoidale tridimensionale. Ciascun filamento può essere ricondotto a una sequenza di acidi nucleici (adenina, citosina, guanina, timina). Per rappresentarlo, si usa un alfabeto finito come nei calcolatori, quaternario invece che binario, dove le lettere sono scelte tra A, C, G e T, le iniziali delle quattro componenti fondamentali. Il DNA rappresenta quindi il contenuto informativo delle funzionalità e della struttura degli esseri viventi.

L'informazione e la sua elaborazione attraverso i computer hanno avuto certamente un impatto notevole nella nostra attuale vita quotidiana. L’importanza è testimoniata, ad esempio, dai sistemi di protezione escogitati mediante la crittografia e dal valore commerciale della borsa tecnologica. L’uso appropriato dell’informazione pone anche problemi etici di rilievo, come nel caso della riservatezza riguardo alle informazioni cliniche che potrebbero altrimenti avvantaggiare le compagnie di assicurazioni mediche e danneggiare i pazienti.

L'importanza e la diffusione dell'informazione nella società moderna è tale che a questa spesso ci si riferisce come la Società dell'Informazione.

Aspetti tecnici[modifica | modifica sorgente]

Tipologie di informazione[modifica | modifica sorgente]

In generale esistono tre diverse tipologie di informazioni, secondo una classificazione molto usata nelle telecomunicazioni:

Queste sono spesso associate a segnali trasmessi all'interno di un sistema di telecomunicazioni oppure memorizzate su supporti di memorizzazione o in alcuni casi in formato cartaceo.

Misura dell'informazione[modifica | modifica sorgente]

Secondo la Teoria dell'Informazione in una comunicazione, che avviene attraverso un dato alfabeto di simboli, l'informazione viene associata a ciascun simbolo trasmesso e viene definita come la riduzione di incertezza che si poteva avere a priori sul simbolo trasmesso.

In particolare, la quantità di informazione collegata ad un simbolo è definita come

 \operatorname I = -log_2 P_i


dove P_i è la probabilità di trasmissione di quel simbolo. La quantità di informazione associata ad un simbolo è misurata in bit. La quantità di informazione così definita è una variabile aleatoria discreta, il cui valor medio, tipicamente riferito alla sorgente di simboli, è detto entropia della sorgente, misurata in bit/simbolo. La velocità di informazione di una sorgente, che non coincide con la frequenza di emissione dei simboli, dato che non è detto che ogni simbolo trasporti un bit di informazione "utile", è il prodotto dell'entropia dei simboli emessi dalla sorgente per la frequenza di emissione di tali simboli (velocità di segnalazione). Quanto sopra può essere generalizzato considerando che non è assolutamente obbligatorio che ogni simbolo sia codificato in maniera binaria (anche se questo è ciò che accade più spesso). Quindi l'informazione collegata ad un simbolo codificato in base a è per definizione pari a

 \operatorname I_a = -log_a P_i


con P_i pari alla probabilità di trasmissione associata a quel simbolo. L'entropia della sorgente è per definizione pari alla sommatoria, estesa a tutti i simboli della sorgente, dei prodotti tra la probabilità di ciascun simbolo e il suo contenuto informativo. Nei casi particolari in cui a sia 10 l'entropia della sorgente è misurata in hartley, se invece a è pari al Numero di Eulero e si misura in nat. Dalla formula si evince che se la probabilità Pi di trasmettere il simbolo è pari ad uno, la quantità di informazione associata è nulla; viceversa se nel caso limite ideale di Pi=0 la quantità di informazione sarebbe infinita. Ciò vuol dire in sostanza che tanto più un simbolo è probabile tanto meno informazione esso trasporta e viceversa: un segnale costante o uguale a se stesso non porta con sé alcuna nuova informazione essendo sempre il medesimo: si dice allora che l'informazione viaggia sotto forma di Innovazione. I segnali che trasportano informazione non sono dunque segnali deterministici, ma processi stocastici. Nella teoria dei segnali e della trasmissione questa informazione affidata a processi aleatori è la modulante (in ampiezza, fase o frequenza) di portanti fisiche tipicamente sinusoidali che traslano poi in banda il segnale informativo.

Informazione e portata[modifica | modifica sorgente]

Il concetto di informazione trasportato su un canale di comunicazione può essere messo in analogia con quello della portata in idrodinamica, mentre la velocità del flusso rappresenta la velocità di propagazione del segnale trasportante l'informazione sulla linea. Al riguardo ogni linea di trasmissione o mezzo trasmissivo ha un sua massimo quantitativo di informazione trasportabile espresso dalla velocità di trasmissione della linea stessa secondo il Teorema di Shannon.

Codifica dell'informazione[modifica | modifica sorgente]

La codifica dell'informazione consiste nel trasformare una informazione generica in una informazione comprensibile da un dispositivo o che sia adatta alla successiva elaborazione.

Il primo problema da affrontare nei processi di elaborazione dell'informazione è la rappresentazione dell'informazione. L'informazione consiste nella ricezione di un messaggio tra un insieme di possibili messaggi. La definizione esatta è che l'informazione si rappresenta usando un numero finito di simboli affidabili e facilmente distinguibili.

All'interno delle apparecchiature digitali l'informazione è rappresentata mediante livelli di tensione o mediante magnetizzazione di dispositivi appropriati. Le esigenze di affidabilità impongono che tali simboli, per una maggiore efficienza, siano due o al massimo tre: nel primo caso si hanno solo 0 e 1, corrispondenti a 2 livelli di tensione (standard TTL: 0/5 V; standard RS-232: +12/-12 V) che vanno a formare la numerazione binaria; nel secondo caso si può avere un terzo stadio, indicato come HiZ (alta impedenza), che rappresenta un livello indeterminato, causato ad esempio dal filo "scollegato".

Note[modifica | modifica sorgente]

  1. ^ Il termine indicava originariamente "ciò che appare alla vista", derivando dalla radice indoeuropea *weid-/wid-/woid-, "vedere" (confronta il latino video). Esso venne però ad assumere in seguito una grande molteplicità di significati (per esempio, in Isocrate esso indica il "modello teorico" di un'orazione).

Bibliografia[modifica | modifica sorgente]

Voci correlate[modifica | modifica sorgente]

Altri progetti[modifica | modifica sorgente]

Collegamenti esterni[modifica | modifica sorgente]

informatica Portale Informatica: accedi alle voci di Wikipedia che trattano di informatica