Menu
coscienza

SCIENZA E COSCIENZA

LA TEORIA DELL’INFORMAZIONE INTEGRATA

di Lorenzo Lodde (keyword: coscienza)

Di che colore vedrei il nulla se ce l’avessi davanti? O meglio siamo sicuri che vedrei un colore? In fondo stiamo parlando del nulla e se avesse un colore sarebbe qualcosa e non più nulla…

Da bambino ho passato parecchi pomeriggi a pormi questa ed altre strane domande, arrivando a risposte ancore più strane (ero un bambino strano? Con tutta probabilità sì). Adesso a tanti anni e tante altre domande di distanza, mi sono imbattuto in un problema che i filosofi definiscono “the hard problem”: il problema della coscienza. Vorrei raccontarvi di come la scienza e la teoria delle informazioni potrebbero risolvere un dilemma a lungo messo in soffitta dalla filosofia moderna. E di come ho trovato alcune risposte a quelle strane domande, come quella sul colore del nulla. Il colore è….alla fine dell’articolo.

COSCIENZA…?

Innanzitutto è buona prassi se si parla di qualcosa, capire di cosa si sta parlando. Che cosa intendo per coscienza? Niente grilli parlanti né mini angeli/demoni sulle spalle. La coscienza è lo stato di consapevolezza delle percezioni soggettive che costituiscono la nostra esperienza in ogni istante. Se stai leggendo queste righe, stai avendo un’esperienza cosciente. Magari hai caldo. O prurito. E parlandone puoi indurre altre persone a immaginare cosa stai provando, ma nessuno (eccetto te) può capire fino in fondo com’è essere te in questo momento. La tua esperienza è solo e soltanto tua. In un certo senso, è la cosa più “reale” che tu possa immaginare.

Per essere più chiaro, farò due brevi esempi:

ESEMPIO 1:

Marta è una neuroscienziata esperta di visione e colori. Sa tutto sull’argomento: il modo in cui le frequenze d’onda della luce vengono riflesse dagli oggetti e sul modo in cui queste onde eccitano i fotorecettori sulla retina dell’occhio che poi trasmetteranno un impulso alla corteccia cerebrale posteriore e così via. C’è solo un problema: Marta dalla nascita è segregata nel suo laboratorio in bianco e nero e… non ha mai visto un colore. Che cosa sa Marta davvero dei colori? Cambierebbe qualcosa se Marta riuscisse a uscire dalla stanza per trovarsi finalmente di fronte a un caleidoscopico mondo in Technicolor?

ESEMPIO 2:

Supponi di ritrovarti cavia da laboratorio in un progetto scientifico in cui creano una copia esatta di te. La tua copia è in grado di comportarsi esattamente come ti comporti tu in tutto e per tutto, al punto da essere indistinguibile dall’originale, tuttavia non è cosciente: reagisce semplicemente in modo automatico agli stimoli esterni, ma le fa esattamente come faresti tu. Se alla fine ci fosse bisogno di distruggere la copia, che diresti agli scienziati per distinguerti da essa, per far capire loro che sei tu il vero tu e scampare alla morte?

Credo che adesso incomincerai a intuire dove stiamo andando a parare. Oggi si ritiene che la coscienza sia una qualità esclusiva del cervello umano e animale. Ma è davvero così? Fu una delle intuizioni che ebbe Alan Turing nel suo “gioco dell’imitazione”: c’è differenza fra una macchina in grado di sembrare cosciente e una macchina davvero cosciente? Le due caratteristiche sono indipendenti? O sono indistricabilmente intrecciate l’una con l’altra?

UNA NUOVA LUCE: L’INFORMAZIONE

Ritorniamo a quella cosa di capire di cosa stiamo parlando: cos’è un’informazione? Tralasciando il fatto che si tratta di una domanda di complessità infinita, se volessimo ultrasemplificare e mandare al macero tutti i libri di teoria dell’informazione, potremmo dire che l’informazione è ciò che distingue fra delle opzioni predefinite. Qual è il numero minimo di opzioni fra cui è possibile distinguere (cioè qual è la quantità minima di informazione)? Due: sì/no, bianco/nero, vero/falso, 0/1. Nel significato stesso del differenziare è già implicito che le opzioni sono minimo due (come faresti a differenziare fra…una cosa sola?). Quando differenziamo fra due opzioni, la quantità di informazione generata è detta bit. 1 bit distingue fra 2 opzioni. E 2 bit? In 2 bit avremo le informazioni di ogni singolo bit sommate nelle loro varie combinazioni, in tutto 4 opzioni: 1)si-si 2)si-no 3)no-si 4)no-no. Quindi con questi 2 bit posso selezionare in maniera univoca una di queste quattro. E 3 bit? 8 opzioni: 1)si-si-si 2)si-si-no 3)si-no-si 4) no-si-si 5) si-no-no 6)no-si-no 7)no-no-si 8)no-no-no. 4 bit? 16 opzioni. 5 bit? 32 opzioni.

Ma in che modo aumentano le opzioni rispetto ai bit? Le opzioni sono esattamente 2n, dove 2 rappresenta le opzioni che distingue il singolo bit e n il numero di bit che consideriamo. E in un gigabyte (GB)? Se un GB è un miliardo di byte e un byte equivale a 8 bit, le opzioni sarebbero 28000000000, cioè…beh parecchie. Le macchine che noi utilizziamo tutti i giorni operano con i bit grazie ai transistor, circuiti elettrici piccolissimi che si aprono o si chiudono configurando il bit “aperto/chiuso” o, come viene denominato oggi, in codice binario (che utilizza chiuso=0 e aperto=1).

C’è un altro aspetto che risulta fondamentale nell’informazione: il caos (o, per meglio dire, ciò che in fisica chiamano l’entropia).

Che diavolo c’entra il caos o il disordine con l’informazione? Immaginate di voler trasmettere un’informazione ad un amico: l’informazione è 222222222222222. Ora, tralasciando per un attimo le motivazioni che potrebbero spingervi a mandare un messaggio così assurdo ad un amico (noia? Un principio di disturbo delirante? Dirgli quanto gli volete bene da 1 a 10?), proviamo a pensare ai modi con cui potrei scrivere questa informazione: 1) il modo più banale (e più lungo) è semplicemente scriverlo come “222222222222222”; 2) potrei scriverlo più brevemente come “15 due”. Nel caso 2) io ho scritto la stessa informazione impiegando molti meno caratteri (cioè molti meno bit!). Che sta succedendo? Questo piccolo trucchetto viene utilizzata da milioni di persone quando hanno necessità di inviare file pesanti per email: la compressione. Ma non solo. Avete mai provato fastidio a leggere sms con taratura letteraria del calibro di “We tt bn? Cm va”? Stavate assistendo ad una efficientissima eliminazione di lettere ridondanti: una compressione. In realtà essa non è altro che la semplificazione dell’informazione attraverso la creazione di un algoritmo che successivamente permetta di ripristinare l’informazione originale. Per creare l’algoritmo basta identificare un pattern di ripetizione o una caratteristica prevedibile del tassello successivo del messaggio e il gioco è fatto. Così se devo inviare “222222222222222” scriverò “15 due” e il ricevente sarà in grado di risalire di nuovo a “222222222222222”. Quindi, a rifletterci un attimo, se la quantità di informazione corrisponde alla quantità di bit necessari per generarla, questo messaggio contiene molta meno informazione di quanto non appaia. Ma che succede se adesso il messaggio è “938592709172518”? È possibile comprimerlo in un algoritmo? E domanda ancora più importante: che caratteristiche deve avere un’informazione per essere comprimibile? Qui entrano in gioco “ordine” e “caos” (o “entropia”): perché un messaggio sia comprimibile è necessaria una certa prevedibilità, cioè deve essere “ordinato” o (detto in informatichese) a bassa entropia. Questo tipo di messaggi a bassa entropia e ad alta prevedibilità in realtà contengono poca informazione e sono detti ridondanti. Un po’ come quando parlate con qualcuno e non si arriva mai al nocciolo della questione… “Arriva al punto!”. Vi irritate perché anziché parlare per tre ore di cose ridondanti avreste potuto conversare per 10 minuti scambiandovi le stesse informazioni.

Ma allora quali messaggi contengono molta informazione? Colpo di scena: i messaggi random. Qualcosa come “kadfjblafbkajvkidfbi” contiene molta più informazione di “precipitevolissimevolmente”. Vi chiederete “ma come è possibile visto che precipitevolissimevolmente ha un significato mentre kadfjblafbkajvkidfbi non vuol dire un tubo?”. In realtà informazione e significato non sono la stessa cosa: il significato sembra richiedere informazione, tuttavia ci può essere informazione senza significato. Ma questa è un’altra storia.

Una sequenza random contiene più informazione perché ad ogni nuovo carattere c’è molta più “novità” di una sequenza non random, cioè seleziona fra un gran numero di possibilità in modo difficilmente prevedibile. Pensate di dover indovinare una password di una persona che conoscete, ma sapendo già i primi caratteri della password: se vi dicessi che quei caratteri sono “precipitevolissimev_______” suppongo che potreste facilmente individuarne gli ultimi (perché in realtà questi ultimi sono ridondanti e non contengono informazione nuova), mentre se fossero “kadfjblafbka______”  avreste qualche difficoltà in più a indovinare come finisce (cioè avreste bisogno di qualche informazione in più, contenuta nei caratteri successivi).

Adesso che abbiamo questa strana associazione fra informazione e disordine, vi consiglio di tenerla a mente perché ci sarà utile più avanti.

CERVELLO E TRANSISTOR

Ora sappiamo a grandi linee come funziona un computer: una serie di piccolissimi circuiti chiamati transistor si aprono e si chiudono generando un codice in bit che trasporta l’informazione. Potreste obbiettare “si ok ma mica il cervello umano, l’oggetto più misterioso e complesso dell’universo, lavora grazie a transistor come i computer…giusto?”. Beh…pare non ci siano poi delle differenze così sostanziali. Il nostro cervello è composto da svariati tipi di cellule, ma quelle più importanti (i neuroni) lavorano in modo molto simile ai transistor. La cosa che più ci interessa è che anche i neuroni, come i transistor, hanno solamente due stati possibili: polarizzato (spento) o depolarizzato (acceso). Vi viene in mente qualcosa? Esattamente, un neurone genera una quantità di informazione corrispondente a un bit. Oh mio Dio! Scenari apocalittici di macchine che alla fine sono come noi ma senza pietà, robot assassini, cazzotti, proiettili, esplosioni, fine del mondo e titoli di coda “Directed by Micheal Bay”. Si va bene, bel film, ci siamo sparati un po’ di adrenalina…ma torniamo a noi: un neurone e un transistor non sono poi così diversi, ma la corteccia cerebrale e un computer lo sono eccome. Ma perché? Perché se costruissi un computer con tanti transistor quanti sono i neuroni in un cervello umano otterrei qualcosa di così diverso?

A livello di informazione, la differenza sta nel COME sono cablate e connesse le unità che producono informazione (siano esse neuroni o transistor): in poche parole il nostro cervello è così difficile da replicare perché ogni neurone è connesso con moltissimi altri neuroni costituendo un complicato sistema a feedback in cui ogni neurone ne influenza molti altri e a sua volta è influenzato da molti altri. Quando un neurone è in uno stato (depolarizzato/polarizzato) genera un bit che andrà a “costringere” la configurazione di bit dei neuroni ad esso collegati. Potremmo immaginare un certo schema istantaneo di attivazione neuronale e i suoi bit associati come un’immagine mentale. Alcuni anni fa i neuroscienziati pensavano che ad ogni immagine mentale, concetto ecc. corrispondesse un neurone.

Stavano trovando neuroni per cose abbastanza particolari come il “neurone Jennifer Aniston”: un neurone che ogni volta che il soggetto studiato vedeva Jennifer Aniston, pensava a Jennifer Aniston o chissà che altro riguardasse Jennifer Aniston, eccolo lì: DING, il neurone Jennifer Aniston si accende come una lampadina. Bingo! Quindi se ogni neurone rappresentasse un’immagine o un concetto avremmo un neurone per ogni amico, parente, idea, ecc. E qui spunta il problema: gli scienziati incominciarono a rendersi conto che…beh si in effetti i volti, le idee e i concetti sono veramente tantissimi e i neuroni (sebbene molti) non sono sufficienti per rappresentarli tutti uno per uno. Infatti la natura, profonda conoscitrice della teoria delle informazioni, ha trovato un metodo di gran lunga più efficiente: assegnare a ogni volto, idea o concetto una certa configurazione di un gruppo di neuroni (per esempio di 10 particolari neuroni, 4 spenti e 6 accesi sono l’immagine di vostra madre). Notate che ogni neurone non fa parte sempre obbligatoriamente di QUEL gruppo, esattamente come voi non fate parte sempre e costantemente dello stesso gruppo di amici: siete un punto all’interno di un “network”. Tenete a mente questa parola perché ci tornerà utile. Facendo parte di un network, un neurone può trovarsi in diversi schemi di attivazione in cui lui svolge un diverso ruolo informativo. In questo modo il nostro cervello può utilizzare lo stesso neurone per un enorme numero di concetti (e volti)! Un ottimo esempio di efficienza e di ottimizzazione dello spazio (avremmo bisogno di un cranio grande con una mongolfiera con il metodo “1neurone x 1concetto”, il che creerebbe alcuni problemi logistici come passare attraverso le porte o grattarsi la nuca).

Quindi ricapitolando, i neuroni fanno parte di queste reti o “network” in cui diversi gruppi hanno diversi pattern di attivazione, generando immagini, concetti, idee diversi. Un po’ come l’alfabeto morse, dove con la combinazione di solo 2 simboli, riesco a ottenere tutte le parole conosciute e in diverse lingue. Con solo 2 simboli. Tutte. In diverse lingue.

Vi lascio un attimo perché tutto ciò si depositi negli anfratti della vostra mente (che forse, chissà, piano piano intuisce qualcosa di se stessa) e quando sarete pronti, ci vediamo al prossimo paragrafo.

L’INFORMAZIONE INTEGRATA

Informazione di servizio: alla base del vostro cervello esiste una piccola struttura che prende il nome (molto poco fantasioso) di cervelletto. A volte per questioni di natura medica (come tumori o compressioni) è necessario asportare completamente questa struttura. Le conseguenze saranno problemi nei movimenti fini e dell’equilibrio, che, tradotto nella vita reale, vi faranno sembrare un po’ come se foste ubriachi (non a caso l’alcol causa nello stato di ebbrezza un malfunzionamento del cervelletto). Tuttavia la vostra coscienza sarà perfettamente intatta. Stessa cosa se si dovesse verificare un infarto (ictus) del cervelletto. Sempre l’equivalente di alcuni whisky, ma purtroppo irreversibile. Ora invece prendiamo in considerazione ciò che avviene quando perdiamo parti di corteccia cerebrale (la parte più nobile del cervello) quando avviene un ictus in queste zone: incredibili alterazioni dell’esperienza cosciente come il non poter più riconoscere parti del proprio corpo, non vedere più certi colori, non capire più la lingua parlata o quella scritta, non riconoscere più i volti umani, cambiare radicalmente personalità. Forse ora non vi sorprenderà la notizia che nel cervelletto (nonostante le più piccole dimensioni) ci sono PIÙ neuroni che nel cervello, perché in realtà la differenza non la fa il numero di neuroni in sé, ma COME sono collegati, come si parlano l’uno con l’altro: nel cervelletto ogni neurone è collegato in una sequenza semplice, in cui riceve segnali da pochi altri neuroni, quindi banalmente riceve poche istruzioni su cosa fare, è tutto piuttosto lineare (o ordinato); nella corteccia cerebrale invece ogni neurone è inserito all’interno di vari network in cui tantissimi altri neuroni gli inviano moltissime informazioni. Ma perché questo dovrebbe fare differenza? Per capirlo dobbiamo ritirare fuori quei concetti di “ordine” e “caos”: vi ricordate che c’è più informazione quando è più difficile stabilire il bit successivo (quando c’è più caos)? Qui funziona allo stesso modo: nel cervelletto, nonostante i maggiori neuroni, i pattern di attivazione sono standard, sempre quelli (i suoi network di neuroni sono come, per esempio, studenti poco studiosi che avendo a disposizione poche informazioni riescono a fare poche cose piuttosto semplici, stereotipate); nel cervello invece i pattern di attivazione possono avere miliardi di miliardi di combinazioni complicatissime, abbastanza numerose da poter costruire una rappresentazione informativa di un ambiente circostante e un ambiente interno (per non parlare di tutte le idee più o meno strambe che ci inventiamo). Ecco perché non pensiamo con il cervelletto. Ecco perché non pensiamo col sistema cardiovascolare. Ed ecco perché i maschi non pensano con il…si va bene ok, in effetti a volte sembra come se lo facessero.

CONCLUSIONI

Quella che è illustrata in questo articolo è la “Teoria dell’Informazione Integrata” (Integrated Information Theory – IIT) formulata dal neuroscienziato Giulio Tononi. Essendo una teoria, non risolve definitivamente il cosiddetto “hard problem”, ma può dare importanti contributi ad alcune problematiche mediche, come ad esempio stabilire con più certezza la morte cerebrale negli stati vegetativi (a volte un paziente può sembrare in coma, ma in realtà è perfettamente sveglio ma non riesce a muovere neanche un muscolo per interagire col mondo, stato chiamato locked-in syndrome). E potrebbe essere un nuovo punto di partenza per nuove scoperte e teorie che ci porteranno sempre più vicini a decifrare uno dei più grandi misteri dell’universo: la coscienza.

Ah stavo quasi dimenticando! Di che colore vedreste il nulla? Semplice: lo vedreste nero! Anche se il nulla non è effettivamente di colore nero, il nero è il modo in cui il cervello codifica la semplice assenza totale di luce, la quale, ovviamente, manca nel nulla.

BIBLIOGRAFIA
  • Gleick, James The Information: A History, a Theory, a Flood. New York: Pantheon Books, 2011
  • Koch, Christof Consciousness: Confessions of a Romantic Reductionist, The MIT Press, 2012
  • Tononi, Giulio Un viaggio dal cervello all’anima, Torino, Codice edizioni, 2014
  • (G. Tononi, 2004) An Information Integration Theory of Consciousness

 

 

A cura di Lorenzo Lodde. Revisionato da Luca Malinverno.

 

 

Licenza Creative Commons
Quest’opera di Biochronicles A.P.S. è distribuita con Licenza Creative Commons Attribuzione – Condividi allo stesso modo 4.0 Internazionale.


About the Author : Biochronicles

Associazione di Promozione Sociale per la divulgazione scientifica.

0 Comment

Leave a Comment

Your email address will not be published.

Related post

  TOP