Se mi senti batti un colpo.

Come si misura la coscienza?

Il contributo filosofico allo studio della coscienza – e della discussione ancora più antica sulla natura dell’anima – è un tema che intercetta le grandi domande dell’uomo. Cos’è un uomo. Come funziona. Quanto è diverso dagli altri esseri viventi, dalle piante, dagli altri animali?

Il contributo della neurofisiologia invece, che per qualche aspetto imbocca la scorciatoia del riduzionismo biologico, definisce coscienza la “capacità di esperire” – buttando nel medesimo calderone i fenomeni sensoriali, la programmazione motoria e i processi cognitivi di alto livello – e si concentra invece sul perfezionamento della tecnica, alla ricerca degli strumenti e degli indici che permettono di distinguere le caratteristiche essenziali che permettono di affermare che un uomo “è cosciente” oppure no. La semplificazione è palese ma è ovviamente strumentale: definire secondo standard precisi lo stato di coscienza attuale in un organismo che lo è in potenza è necessario ai fini della diagnosi e dell’orientamento della pratica clinica per tutti quei soggetti in cui si sospetta che tale equilibrio sia compromesso o disturbato.

Per farlo, il mezzo più semplice ed immediato è (come avviene per ciascun ambito di ricerca della psicologia sperimentale, ancora prima che in psicofisiologia) l’osservazione della risposta comportamentale. Se un sistema riceve uno stimolo ed è in possesso della capacità di processarlo e delle istruzioni e dei mezzi necessari ad organizzare una risposta coerente, si può inferire che tale sistema sia consapevole della presenza dello stimolo e delle sue qualità: la Coma Recovery Scale traduce perfettamente questo tipo di approccio nell’ambito clinico, andando a sondare il livello della capacità elaborativa e delle risposte autonome e programmate. Oppure ci si può affidare a testimonianze self-report o ancora si può istruire un soggetto umano o un animale di laboratorio a premere un pulsante se l’immagine mostrata a schermo raffigura un volto oppure no.

Il problema delle scale comportamentali è che può capitare che il “sistema” (non si parla quasi mai di “persona”, soprattutto in questi ambiti di ricerca fa poca differenza se i processi cognitivi interessati siano umani o animali) riceva e comprenda bene la natura dello stimolo, ma non sia in grado di rispondere perché danneggiato in qualche punto localizzato più a valle rispetto al sistema centrale dell’elaborazione cosciente. L’esempio clinico è palese nel caso della differenza tra i pazienti in stato di minima coscienza e quelli invece in stato vegetativo, non coscienti. Viceversa, capita che i soggetti affermino di non avere avuto esperienza di uno stimolo, ma sottoposti a test specifici dimostrino risposte positive in percentuale superiore rispetto alla soglia del caso (come avviene nel caso del blindsight).

Per questo, parte della ricerca psicofisiologica ha lavorato per produrre soluzioni alternative alla “semplice” osservazione clinica, nel tentativo di bypassare il proxy della risposta comportamentale (che è il prodotto di una catena lunga e complessa e che può essere compromessa in molti modi).

Nella review di Koch e Tononi pubblicata su Nature lo scorso maggio si parla appunto di questi indici alternativi, di quali sono stati usati fino ad adesso e dell’efficacia predittiva di ciascuno.
Il problema più grande sollevato da K e T è riferito all’equilibrio delicato tra sensibilità e specificità, alla necessità di identificare dei segnali inequivocabili e precisi che correlino con lo stato di coscienza e che mantengano il minimo margine di sovrapposizione possibile con stati attinenti o simili (ad esempio, con tutto ciò che riguarda l’attivazione attentiva di qualsiasi livello, dalla vigilanza ai processi di elaborazione task-related). Per questo è difficile tracciare una neuroanatomia degli stati di coscienza: buona parte delle zone che sembravano candidabili sembrano non reggere alla prova neuropsicologica: non esiste un’area specifica che, danneggiata, porta inevitabilmente alla perdita di coscienza. Lesioni alla corteccia frontoparietale (l’area corticale più attiva durante la veglia) non inducono a stati di coma. La letteratura è piena di casi di soggetti privi di ampie zone corticali o cerebellari che vivono benissimo. Lo stesso tronco encefalico, nel quale troviamo la sostanza reticolare attivante e che in questo senso sembra la struttura neurale più promettente, si è dimostrato comunque insufficiente al mantenimento dell’attività cosciente. La coscienza, in questo senso, si confermerebbe più come la proprietà emergente che nasce dall’attività combinata di una serie di aree e strutture cerebrali che il risultato di un unico “interruttore” centrale.

Un discorso del tutto simile si applica agli indici utilizzati per la registrazione degli stati di coscienza. La registrazione in EEG dell’attività sincronizzata delle aree visive nell’area di frequenza delle onde gamma (30-70 Hz) in gatti svegli o anestetizzati sembrava un buon predittore dell’avvenuto riconoscimento di uno stimolo visivo (e quindi della produzione di un’esperienza visiva), ma in studi successivi si è visto che l’attività gamma correla più con lo stato dei processi attentivi che con l’attività cosciente. Oltretutto si è registrata attività gamma anche in situazioni nelle quali il soggetto cosciente non è (sonno non-REM, durante anestesia) quindi niente. Idem per l’onda P3b registrata coi potenziali evocati, che correla più con la detezione di uno stimolo rilevante (e quindi con l’attività della memoria di lavoro) che con l’esperienza cosciente. E se la ricerca di marcatori EEG specifici non ha avuto grande fortuna, nemmeno il tentativo di estrarre dei pattern globali di attivazione ha funzionato granché bene: è vero che l’attività desincronizzata (bassa ampiezza, alta frequenza almeno nel range delle onde theta) correla piuttosto bene con lo stato di coscienza, se confrontata coi pattern sincronizzati a bassa frequenza, ma purtroppo non abbastanza visto che si sono registrate onde alpha (quelle che “da manuale” descrivono gli stati di veglia rilassata) anche in pazienti in stati di grave coma.

Quindi sembra non esistere una ricetta “facile” (alla faccia del riduzionismo biologico) per inferire lo stato di coscienza. Aree differenti contribuiscono in misura differente (per esempio le aree sensoriali di basso e medio livello per l’esperienza di stimoli modalità-specifici, l’area frontale che è specializzata nell’allocazione delle risorse attentive e nella gestione esecutiva, o anche la hot zone temporo-occipito-parietale che si adatta più specificamente al modello ma che si è visto comunque non essere sufficiente). L’unica soluzione possibile, secondo Koch e Tononi, considera l’intera gamma delle attivazioni corticali: un sistema neurale si trova in uno stato di coscienza quando esprime pattern di attivazione differenziati (cioè produce risposte differenti in base agli stimoli che percepisce) e integrati (cioè si “muove” secondo schemi coerenti). In questo senso la “coscienza” sarebbe il prodotto di un sistema ordinato nel quale l’entropia è limitata e le risorse ben distribuite. Questo stato di organizzazione si può misurare: l’indice PCI, che quantifica lo stato di integrazione complessivo dell’attivazione corticale, registrato in EEG in seguito a stimolazione con TMS, è alto quando il sistema esibisce una buona risposta all’interferenza (e quindi cosciente e difficilmente influenzabile).

 

Il primo studio, pubblicato su Science Translational Medicine, ad usare introdurre l’uso dell’indice PCI è del 2013, e il nome di alcuni degli autori ricorre in molti dei lavori citati in letteratura. A posteriori, viene da pensare che forse sarebbe stato ancora più interessante se la review fosse stata scritta da un team completamente differente di ricerca, magari con qualche insight a proposito della reliability dell’indice PCI. Ma va bene così, adesso che se ne è parlato su una testata forte come Nature, magari si può sperare in una metanalisi.

 


Koch, C., Massimini, M., Boly, M., & Tononi, G. (2016). Neural correlates of consciousness: Progress and problems. Nature Reviews Neuroscience Nat Rev Neurosci, 17(5), 307-321. doi:10.1038/nrn.2016.22
http://www.nature.com/nrn/journal/v17/n5/abs/nrn.2016.22.html

Annunci

La memoria è organizzata per contiguità temporale?

No. O meglio: non solo.

Pavlov che lega il cane, suona il campanello e dà il cibo al cane. E dopo un po’ di volte, il cane associa campanello e cibo e comincia a salivare.

Il principio secondo il quale i meccanismi di apprendimento funzionano (o comunque sono permessi) da logiche di tipo associazionista (http://plato.stanford.edu/entries/associationist-thought/) stimolo/stimolo (cueing) o stimolo/azione (condizionamento) esistono quasi da quando esiste la psicologia scientifica. L’immagine di una memoria rappresentata come una linea, o anche una catena che si allunga man mano che vengono aggiunte nuove informazioni e che possiamo navigare avanti e indietro si ritrova in un certo numero di lavori classici e ha sempre funzionato piuttosto bene. L’immagine della catena poi è piuttosto versatile, perché rende bene l’idea di quanto due anelli possano essere in sezioni vicine o meno della catena, e in un ordine ben preciso per cui c’è un prima e un dopo, e un anello è collegato man mano ad altri. Possiamo distinguere informazioni più recenti o più remote, sia in periodi di tempo lunghi che in singoli esercizi di laboratorio.

Alcuni lavori piuttosto recenti (Farrell, Lewandowsky 2008, Kahana 1996-2005) sembrano aggiungere conferme al modello “seriale” del richiamo. Data una lista di parole sarebbe infatti più semplice ricordare stimoli più vicini tra loro (il grafico della funzione lag CRP che si usa per quantificare l’effetto di prossimità infatti ha tipicamente una forma a campana: stimoli contigui sono riconosciuti con una buona efficienza, man mano che la distanza aumenta la performance cala).

Senonché una revisione pubblicata lo scorso novembre su Memory & Cognition prova a rivedere l’importanza dell’effetto della contiguità temporale, andando ad esaminare le evidenze empiriche a supporto della temporal contiguity theory. Per ciascuno dei paradigmi tipici della ricerca su memoria e serial retrieval (rievocazione libera su liste di parole, memoria autobiografica, richiamo guidato da cues, esercizi di manipolazione mentale di serie di elementi – ad esempio giudizio di posizione entro una o più liste di parole, giudizio di distanza tra due stimoli, effetto di recenza) Hintzman recupera quei paradigmi che supportano una spiegazione squisitamente time-based.

Ad ogni modo, la fotografia che ne viene fuori non è in completa antitesi con un modello di contiguità temporale, però solleva un tema interessante: è vero che esistono effetti di contiguità quando ci sono stimoli presentati in serie (con le differenze del caso tra i diversi paradigmi).

Ma questa prossimità non sarebbe esclusivamente temporale. Perché generalmente i test utilizzati in questo tipo di esperimenti sono piuttosto difficili, perché non è possibile scotomizzare l’influenza della memoria episodica, nemmeno quando l’esperimento richiedere di leggere parole (per l’effetto che possono provocare sul soggetto alcune parole anche apparentemente neutre, perché in una lista di parole è possibile creare in modo più o meno consapevole associazioni tra le diverse parole) e perché nel tentativo di aiutarsi i soggetti tendono inevitabilmente ad utilizzare e a perfezionare strategie, per esempio cercando regolarità e correlazioni di tipo semantico tra gli elementi di una lista (ad es. in Hintzmann, Summers, Block 1975, che dimostrano la presenza dell’effetto di continuità solo tra parole correlate o identiche. Nelle parole non correlate, la performance non migliora nemmeno per stimoli ravvicinati e quindi il grafico si appiattisce) oppure confrontando le liste viste in un test con le risposte date magari a un test precedente. Tutte queste strategie e mnemotecniche possono funzionare in modo più o meno efficace ma inevitabilmente tolgono forza all’analogia un po’ meccanica basata esclusivamente sulla contiguità temporale.

Per ciascuno degli esperimenti trattati Hintzman porta delle evidenze empiriche che ne ridimensionano un po’ i risultati. L’idea di Hintzmann è che è vero che il tempo influisce sulla performance dei soggetti in test di serial recall, ma solo perché nel tempo cambia il contesto soggettivo, si creano relazioni tra gli stimoli ed eventualmente si incorporano stimoli nuovi ambientali o artificiali (tra le mnemotecniche, una che pare funzionare piuttosto bene è la creazione di storie per unire le parole della lista). Insomma, succedono delle cose. E queste “cose”, che Hintzmann elenca come “fallacie” metodologiche (assumere che durante un esercizio di encoding il soggetto non faccia mai retrieval e viceversa, l’effetto di apprendimento in esperimenti composti da più trial, l’aspettativa e la credenza del soggetto su quale sia il metodo per rispondere nel modo migliore e quindi il tipo di strategie utilizzate, consapevoli e non), sono quanto viene aggiunto dal soggetto che si adatta e cambia anche nei pochi minuti necessari per leggere una lista di parole. E che forse sono più facili da vedere a posteriori durante una revisione, ma che sarebbe utile riuscire a considerare quando si progetta un esperimento.

 


Hintzman, D. L. (2015). Is memory organized by temporal contiguity? Mem Cogn Memory & Cognition, 44(3), 365-375. doi:10.3758/s13421-015-0573-8
http://link.springer.com/article/10.3758/s13421-015-0573-8

A cosa servono i transienti colinergici? E soprattutto, cosa cavolo sono?

TL;DR: sono variazioni della concentrazione di acetilcolina. Nei topi, mediano i processi di detezione della risposta (che comprendono l’orientamento verso il segnale ma anche l’attivazione della risposta). Nell’uomo forse, ma è ancora presto per dirlo.

La funzione neuromodulatoria “classica” dei sistemi colinergici cerebrali è quella di supporto ai processi attentivi, dell’ apprendimento e della memoria (Everitt, 1999. Nei pazienti malati di Alzheimer, le strutture alimentate ad acetilcolina sono quelle che mostrano una degenerazione più marcata, l’uso continuato dei farmaci antidepressivi anticolinergici correla con il peggioramento della performance mnesica globale).

Le proiezioni colinergiche raggiungono praticamente ogni area e strato corticale. Esistono revisioni decisamente dettagliate sull’anatomia, la distribuzione e l’espressione delle trasmissioni colinergiche centrali (Mesulam 1988), mentre le informazioni riguardo la fisiologia dei processi attentivi non sembrano altrettanto particolareggiate. La revisione di Sarter è interessante perché, rispetto al genericissimo “sistema reticolare ascendente” colinergico (Mesulam 1995), ne considera un singolo sottosistema anatomo-funzionale. Perlopiù disinteressandosi dei processi classici di mediazione neurochimica dei processi mnesici ed attentivi, per concentrarsi su un fenomeno specifico e particolare. Quello dei transienti appunto.

Che sarebbero dei picchi rilevabili nel livello di acetilcolina prodotta dai neuroni con origine nel prosencefalo basale (basal forebrain, BF). Mentre l’attività colinergica tonica garantisce i processi utili all’attenzione sostenuta e più in generale al controllo attentivo, questi sarebbero processi squisitamente fasici, attivati solo per quei pochi secondi necessari al riconoscimento di uno stimolo e alla generazione di una risposta, per poi esaurirsi e ritornare al livello di partenza. La definizione di detezione (detection) a cui Sarter si affida comprende infatti sia la fase di acquisizione del segnale (orienting), che quella successiva di risposta ed azione.

Ecco come fa Sarter a dimostrare l’esistenza dei transienti. In una serie di esperimenti, sottopone dei topi ad un compito di attenzione sostenuta (sustained attention task, SAT), distingue una variabile indipendente (presenza/assenza dello stimolo) ed una dipendente (presenza della risposta o falso allarme – hit/assenza di risposta o mancata detezione – miss) e nota che:

– i topi del gruppo di controllo riconoscono abbastanza bene il segnale e rispondono coerentemente

– i topi con lesione artificiale delle proiezioni colinergiche BF – corteccia non rispondono quasi mai

– i topi con inibizione artificiale selettiva della risposta colinergica (per attivazione optogenetica) durante la presentazione degli stimoli idem

– se più trial consecutivi presentano lo stimolo, durante i successivi al primo la risposta cala. Registrando il livello di acetilcolina si vede che è alto solo nel primo trial, poi diminuisce. In generale sembra che il transiente preveda una sorta di inibizione di ritorno, perché se invece si aumenta il tempo tra i trial questo effetto si annulla

– stimolando artificialmente i neuroni colinergici (transienti evocati optogeneticamente) si provoca una risposta, sia se il segnale c’è sia che non c’è.

Per quanto riguarda la funzione dei transienti, secondo Sarter servono per mediare tra la fase di orienting e quella di generazione dell’azione. I segnali in ingresso più salienti infatti produrrebbero comunque un’attivazione glutammatergica a livello del talamo. I transienti servirebbero in questo caso per sincronizzare l’output corticale, a partire da questi stimoli salienti, una specie di “filtro” nel processo di conversione stimolo-azione.

E negli umani? Nel paper di Sarter il paragrafo dedicato ai correlati anatomo-fisiologici negli umani è un po’ striminzito, in generale si tenta di far risalire l’attività dell’area 10, registrata in fMRI, al meccanismo dei transienti visto nei topi. Che però per ammissione degli stessi autori è un tentativo un po’ così, perché è difficile distinguere in risonanza l’effetto delle singole proiezioni colinergiche da tutto quello che succede nella corteccia frontale. Idem per le registrazioni EEG in area frontale (per esempio la p300a. Ci sono delle evidenze in letteratura che indicherebbero una correlazione inversa tra l’ampiezza della p300a e inibizione colinergica, ad esempio indotta farmacologicamente) però Sarter qui non si sbilancia più di tanto.

 


Sarter, M., Lustig, C., Berry, A. S., Gritton, H., Howe, W. M., & Parikh, V. (2016). What do phasic cholinergic signals do? Neurobiology of Learning and Memory, 130, 135-141. doi:10.1016/j.nlm.2016.02.008
http://www.sciencedirect.com/science/article/pii/S1074742716000459

Il pappagallo come fa?

La corteccia cerebrale regola le funzioni cognitive di ordine superiore. Gli uccelli non hanno corteccia, eppure si scopre che alcune specie sanno svolgere comunque diversi compiti complessi. E noi che pensavamo di essere dei privilegiati.

everybody-knows-that-the-bird-is-the-word_o_782823

La ghiandaia occidentale è una specie di corvo bianco e blu. Quando la ghiandaia nasconde il cibo per l’inverno si ricorda dove e quando l’ha nascosto (memoria episodica), organizza i nascondigli per giorni successivi (pianificazione), finge indifferenza quando c’è qualche altro uccello nei dintorni che potrebbe scoprire dove è stato nascosto il cibo e rubarglielo (mentalizzazione). Se si accorge di essere stata scoperta aspetta (ritardo della gratificazione) che l’intruso se ne sia andato poi sposta il cibo in un altro nascondiglio.

Si tratta ovviamente di strategie furbissime e decisamente adattive. La ghiandaia, conservando in modo accorto il cibo che riesce a trovare, si garantisce una “dispensa” sufficiente per sopravvivere fino alla primavera successiva. Perché la strategia funzioni, è necessario che la ghiandaia sappia gestire ogni passaggio del suo piano, dalla ricerca del cibo e dei nascondigli fino al ritrovamento. E quando il piano A non basta bisogna ricorrere a trucchi e sotterfugi ed eventualmente avere a disposizione uno o più piani alternativi.

La revisione dei compiti a cui vengono sottoposti corvi e pappagalli pubblicata su Trends in Cognitive Sciences è sorprendente per varietà e complessità: questi uccelli, testati secondo le procedure standard a cui sono sottoposti i primati (permanenza dell’oggetto, ragionamento inferenziale, auto-riconoscimento allo specchio, apprendimento vocale), sarebbero infatti in grado di fornire prestazioni comparabili a quelle dei mammiferi. Che è sorprendente, appunto, dal momento che questo livello di specializzazione è tipica dell’uomo e dei primati e si è perfezionata con l’evoluzione. Uomini e primati che però hanno un cervello molto grande ed estremamente organizzato. Nel cervello umano l’informazione “sale” gradualmente di livello, e passa dall’elaborazione sensoriale pura all’integrazione tra più sensi, al confronto tra informazioni in ingresso e quelle già organizzate in memoria fino alle fasi più alte dell’elaborazione cognitiva e del “pensiero”. Per ciascuno di questi passaggi c’è una struttura cerebrale apposta che riceve un certo tipo di informazioni e le ricalcola, e ogni parte è essenziale ed integrata.

Negli uccelli no. A differenza dei mammiferi, gli uccelli non hanno corteccia cerebrale.

Non esistono “aree” ben disegnate sulla superficie della sostanza grigia né strati corticali che si occupino di ricevere, integrare “verticalmente” e rinviare il segnale. Tuttavia, è possibile riconoscere negli uccelli nuclei di neuroni che svolgono le medesime funzioni tipiche delle strutture corticali e subcorticali già conosciute nei modelli neuroanatomici perfezionati sui mammiferi. Lo standard attuale prevede, oltre alla presenza di amigdala striato ed ippocampo, la presenza di un’ampia area associativa (l’NCL, o nidopallio caudolaterale) in grado di svolgere le medesime funzioni della corteccia prefrontale pur con un’organizzazione completamente differente. L’NCL sarebbe infatti divisibile in sotto-nuclei, funzionalmente omologhi dei ai strati corticali tipici della PFC. Sarebbe inoltre nnervata di fibre dopaminergiche, come la PFC. Dotata di recettori D1 e capace di working memory, come la PFC.

La somiglianza tra NCL negli uccelli e PFC nei mammiferi sarebbe quindi il risultato di un processo di evoluzione convergente, che avrebbe portato organismi completamente differenti ad adottare strategie analoghe, pur disponendo di sistemi cerebrali fondalmentalmente differenti. Per ottenere risultati comparabili, il substrato anatomico si sarebbe plasmato nel tempo, finendo per adottare soluzioni comuni: una struttura in nuclei che però somiglia alla distribuzione corticale per livelli, canali di connessione “verticali” tra questi livelli del tutto analoghi all’organizzazione in colonne della corteccia. Questa ipotesi sembra ben risolta a livello macroscopico, ma la stessa revisione ammette l’assenza di evidenze sufficienti per confermare una simile analogia anche a livello neuronale.

 


Güntürkün, O., & Bugnyar, T. (2016). Cognition without Cortex. Trends in Cognitive Sciences, 20(4), 291-303. doi:10.1016/j.tics.2016.02.001
http://www.cell.com/trends/cognitive-sciences/fulltext/S1364-6613(16)00042-5

La mia pazienza ha un limite. Forse.

La forza di volontà come energia da consumare: i (quasi) vent’anni di fortuna di un modello psicologico perfetto e qualche considerazione sul casino che sta succedendo adesso.

58731476
Anche il meme è vecchio come il cucco. Scusate.

 

1998, Case Western Reverse University, Cleveland.

È passato mezzogiorno da poco e nei corridoi del Dipartimento di ricerca in Psicologia non c’è praticamente nessuno. Forse sono tutti ancora a pranzo perché tutto il piano dei laboratori è silenziosissimo e quasi deserto.

C’è uno studente del primo anno che aspetta di poter entrare in uno dei laboratori. Gli è stato detto che potrà partecipare ad un breve esperimento in cambio di crediti universitari. Le istruzioni che ha ricevuto parlano di una prova di “memoria sensoriale”. Bisogna assaggiare del cibo, poi ripresentarsi il giorno successivo, ripetere la prova e confrontare la prima con la seconda volta (o qualcosa del genere. Lui è lì per i crediti ma dell’esperimento, probabilmente, non gli interessa poi granché). Le istruzioni dicevano anche di presentarsi digiuni, per non “compromettere la performance” durante l’esperimento. E quindi lo studente è anche piuttosto affamato. Qualcuno poi deve aver avuto l’idea di preparare un dolce nel fornetto del Dipartimento e adesso su tutto il piano si sente un buon profumo di torta, o di biscotti. Sì, l’odore è senz’altro quello dei biscotti al cioccolato.

A questo punto compare un dottorando che si presenta allo studente e lo accoglie nel lab. Gli ripete le istruzioni e lo fa accomodare ad un tavolo su cui ci sono due piatti identici. Su uno dei due piatti ci sono dei biscotti appena fatti (ta-dan!), mentre sull’altro piatto ci sono dei ravanelli.

“Biscotti e ravanelli sono sapori standard. Chiunque ne conosce il sapore e sa cosa aspettarsi, quindi è più facile concentrarsi sull’analisi delle piccole differenze” spiega il dottorando “e lei è stato selezionato casualmente per la prova di assaggio dei… ravanelli! Resterà da solo per tutto il tempo della prova, ci vediamo tra cinque minuti”.

Terminata questa prima parte della prova, allo studente sono somministrati due questionari (un BMI – Brief Mood Introspection e una Restraint Scale) e nell’attesa “che la memoria sensoriale” svanisca viene coinvolto in un secondo esperimento. Questa seconda prova prevede la soluzione di alcuni puzzle geometrici, da risolvere disegnando su una particolare griglia di punti in modo da riprodurre alcune figure geometriche senza ripassare alcun segmento né sollevare la matita dal foglio. Finiti gli enigmi, anche questa parte del test termina e lo studente è libero di uscire.

Quello che lo studente non sa è che gli enigmi geometrici sono impossibili da risolvere. Sono studiati in modo da sembrare semplicemente “molto difficili”, quando invece ad un certo punto lo studente si troverà necessariamente a corto di soluzioni e sarà obbligato ad “arrendersi”. E che questo tempo di “resistenza alla resa” da parte dello studente è esattamente la variabile centrale di tutto l’esperimento, biscotti, ravanelli e profumo di cioccolato compresi.

 

Quello raccontato non è altro che il primo di una serie di quattro esperimenti consecutivi, organizzata da Baumeister et al. (1998) per indagare le “funzioni esecutive”, intese come quell’aspetto del sé che genera e controlla i comportamenti autoindotti: la capacità di iniziare un’attività volontaria e cosciente, di verificarne gli effetti e di registrare i cambiamenti dell’ambiente, fare scelte ragionate. Tutto il paper di Baumeister si costruisce attorno al concetto di ego (traducibile in italiano con quell’Io freudiano evocato dallo stesso Baumeister, che fatica e combatte contro la pressione interna esercitata dall’Es). L’ipotesi avanzata è che l’ego, per funzionare, abbia bisogno di recuperare energia (da dove? Baumeister non lo spiega), che viene “consumata” nel momento in cui l’azione dell’ego è richiesta. Ogni compito che comprende l’inibizione cosciente di un comportamento, o viceversa che richiede un input attivo, consuma una frazione piccola o grande dell’energia a disposizione, che però è finita (perché? Nemmeno questo è spiegato direttamente, ma è riferito alla letteratura contemporanea secondo la quale la “forza” a disposizione dell’ego – sotto forma di autocontrollo – si rigenera dopo un certo periodo di riposo) e quindi tende a diminuire nel tempo. Se l’ego è interpellato più volte consecutivamente, risponderà quindi in maniera sempre meno efficiente. Mangiare ravanelli evitando la tentazione di lanciarsi sui biscotti (fun fact: durante i cinque minuti della “prova” di assaggio, lo sperimentatore usciva dalla stanza ma controllava i soggetti di nascosto. Per registrare che alcuni di questi effettivamente indugiavano sui biscotti – guardandoli più da vicino o addirittura prendendone uno per annusarlo) rappresenta uno sforzo di autocontrollo che nell’esercizio successivo è nuovamente richiesto ma che stavolta non è più disponibile.

Nell’ipotesi di Baumeister, questi soggetti si sarebbero arresi prima nell’esercizio dei puzzle, a differenza di quelli a cui invece veniva chiesto di assaggiare i biscotti o anche di quelli che saltavano in toto la prova di assaggio e passavano direttamente alla seconda parte del test. Ed è esattamente quello che l’esperimento rileva, sia nel tempo di resistenza, sia nel numero di tentativi. Il confronto di campioni appaiati tra gli studenti che assaggiano i ravanelli e gli altri due gruppi – tra i quali peraltro non si rilevano differenze sostanziali – mostra un risultato alla prova comportamentale orientato nella direzione prevista dalle ipotesi di partenza e decisamente significativo (anche se Baumeister qui calcola un’Anova a una coda, perché?).

Nei tre esperimenti successivi l’ipotesi viene ulteriormente generalizzata e confermata: non è solo la frustrazione prodotta da eventi esterni a sottrarre energia all’ego, ma qualsiasi tipo di attività anche endogena (scegliere un tipo di discorso da fare vs. ricevere un tema già scelto (Esperimento 2), sforzarsi di nascondere l’espressione di un’emozione di fronte ad un video (Esperimento 3), scegliere un’opzione che comporta un’azione attiva “premere il pulsante per cambiare la risposta mostrata a schermo” vs. un’alternativa che ne prevede una passiva “non premere il pulsante e tenere la risposta di default” (Esperimento 4)) interviene sugli stessi meccanismi esecutivi ed è quindi possibile rilevarne il carico durante le prove successive.

L’ipotesi energetica del funzionamento dell’ego non ha avuto grandissimo successo negli ultimi vent’anni, ma è sopravvissuta abbastanza bene. Baumeister e colleghi hanno provveduto ad arricchire la dimostrazione perfezionando una serie di task (alcuni dei quali computerizzati – Sripada 2014 – che oltre ad essere molto generalizzabili in quanto task di “basso livello”, basati su meccanismi semplici sembrano anche piuttosto versatili, distribuibili e riproducibili direttamente da pc) e arricchendo il modello iniziale con degli studi successivi che individuano nella variazione della concentrazione di zuccheri (glucosio, Gailliot 2007) le basi fisiologiche del meccanismo di alimentazione dell’ego. Il paper originale ha raccolto un buon numero di citazioni (in questo momento Google Scholar ne conta 3323) e sembra sia comparso anche in qualche manuale di pratica psicoterapeutica. Una metanalisi del 2010 che raccoglie gli esperimenti svolti sui task In generale non sembra essere diventato un modello “fondativo”, ma comunque ha avuto il seguito che una scoperta così interessante meritava.

Finché nel luglio 2016 non viene pubblicato su Perspectives on Psychological Science il risultato del lavoro di replicazione coordinato da Hagger e sviluppato proprio sui task standardizzati messi a punto da Sripada nel 2014, che valuta l’effetto protettivo dell’uso di metilfenidato (un farmaco psicostimolante usato spesso nel trattamento dell’ADHD nei bambini) sull’abbassamento delle performance durante compiti di autocontrollo presentati in successione (ma questa è un’altra storia. Quello che ci interessa qui è sapere che Hagger utilizza lo stesso task creato e validato da Sripada, che è uno dei tre inventori della teoria dell’ego depletion).

Il task funziona così: nel primo dei due esercizi (letter-e task) i soggetti vengono divisi in due gruppi. Entrambi devono leggere alcune parole a schermo premere un pulsante. Il gruppo di controllo preme il pulsante se la parola letta contiene la lettera “e” (regola semplice). Il gruppo sperimentale preme il pulsante se la parola letta contiene la lettera “e”, e se questa è distante almeno due lettere da un’altra vocale (regola difficile). Il secondo task invece è un compito di attenzione interferente (funziona un po’ “alla Stroop”), ci sono tre pulsanti numerati e a schermo vengono presentati dei numeri, due uguali uno diverso. Bisogna premere il pulsante corrispondente al tipo di numero, ignorandone la posizione. Si tratta in entrambi i casi di compiti cognitivamente molto impegnativi: nell’ipotesi verificata da Sripada, i soggetti partecipanti di entrambi i campioni faticano durante la seconda prova, ma la prestazione cala ulteriormente in base a quale compito i soggetti hanno svolto in precedenza.

f2-large

L’analisi sui dati raccolti (23 laboratori, n = 2141) risulta non significativa (d = 0.04, 95% CI [-0.07, 0.14] per entrambe le variabili dipendenti). La variabile RT – reaction time ottiene risultati significativi solo in tre casi su 23, uno dei quali addirittura in senso contrario (il campione di controllo performa peggio di quello sperimentale con il compito più difficile). Questo nonostante lo studio fosse condotto utilizzando i test – secondo la descrizione portata dallo stesso Hagger – più facilmente replicabili di tutta la letteratura disponibile sull’ego depletion, nonostante le procedure seguite fossero del tutto fedeli alle originali, e nonostante i team di ricercatori coinvolti non avessero dimostrato bias nelle aspettative (i ricercatori dei diversi team si aspettavano che il task restituisse un effetto positivo di media entità, si trattava di “scettici”). L’intera procedura è stata preregistrata e depositata in anticipo (su https://osf.io/jymhe/, assieme ai materiali e ai dati).

Il sospetto a cui arriva Hagger, alla luce della differenza tra gli effect size proposti dalle metanalisi sulla letteratura e i dati aggregati del progetto di replicazione, è che l’evidenza dei risultati precedenti non sia altro il prodotto di un caso eclatante di publication bias. Una letteratura troppo “ottimista”, in cui i risultati degli esperimenti falliti non sarebbero stati resi disponibili, avrebbe semplicemente alterato la possibilità di replicare gli stessi risultati.

A rispondere alle “punzecchiature” di Hagger è lo stesso Baumeister. Nella stessa edizione di Perspectives fa pubblicare un commento in risposta ai dubbi sollevati dal progetto di replicazione. Rifiuta di considerare il task computerizzato usato come valido per la sollecitazione di fenomeni di ego depletion (che sarebbe scarsamente “ecologico” e privo dei fattori contestuali che nei primi modelli proposti erano così importanti – e un po’ qui sembrerebbe avere pure ragione, Baumeister, che dalla vicenda non ne esce benissimo. Ma allora ci si potrebbe chiedere perché Sripada avrebbe dovuto usarlo in prima battuta), e in più non trattandosi di un compito “classico” non ci sarebbero sufficienti evidenze per poterne confermare la validità di costrutto. In chiusura, Baumeister promette un proprio progetto di replicazione, svolto con task migliori e più efficaci.

Verrebbe da dire “vedremo”. Senonché pochi giorni dopo Hagger e Chatzisarantis hanno reagito commento di Baumeister, pubblicandone uno su Frontiers in Psychology. Al contrario di quanto sostenuto da Baumeister (che il task scelto faccia schifo nell’elicitare un fenomeno puro di ego depletion, in quanto nel letter-e task mancherebbe di una fase preventiva fondamentale di training in cui il soggetto ha tempo per familiarizzare con le regole del test. Senza questa prima parte, il task non sarebbe più concentrato sulla “fatica” che il soggetto fa quando deve trattenersi dal premere il pulsante, ma rischierebbe di trasformarsi in un compito di apprendimento semplice) Hagger difende la scelta del test e sostiene che il task, anche senza training, richiede comunque da subito tutto l’impegno del soggetto nei trial che richiedono l’inibizione della risposta (quelli in cui non ci sono “e”, oppure ci sono ma non sono abbastanza distanti). E in generale Hagger supporta la procedura utilizzata per la replicazione e difende i dati rilevati, considerando come “fisiologica” e non significativa la variabilità rilevata tra i risultati provenienti dai diversi team di ricerca.

Intanto diversi blog si sono occupati di seguire la vicenda. Replication Index (https://replicationindex.wordpress.com/2016/04/18/is-replicability-report-ego-depletionreplicability-report-of-165-ego-depletion-articles/) ha scritto un post molto tecnico in cui stima la portata del publication bias a partire dal corpus di studi presenti in letteratura, il quale sarebbe particolarmente evidente (la distribuzione dei risultati degli studi mostra un’enorme disparità tra la frequenza degli studi che riportano risultati significativi e quelli che invece non superano la soglia di significatività statistica. Soprattutto, molti di questi risultati sarebbero solo “marginalmente significativi” (ad es. con un p-value di 0.1 sui test a due code). Anche Neuroskeptic ha scritto un post sullo avvenuto tra Hagger e Baumeister (http://blogs.discovermagazine.com/neuroskeptic/2016/07/31/end-of-ego-depletion/). Il post non è particolarmente interessante in sé, ma la sezione dei commenti merita sempre e sarà da tenere d’occhio per i prossimi sviluppi.

 

AGGIORNAMENTO: il 12 settembre Baumeister commenta i risultati della replicazione durante un meeting presso l’Università di Colonia (qui il testo intero della trascrizione). Ovviamente non vengono aggiunte nuove evidenze, al momento pare limitarsi ad una cauta difesa delle critiche già esposte sul commento scritto su Perspectives.

 


Baumeister, R. F., Bratslavsky, E., Muraven, M., & Tice, D. M. (1998). Ego depletion: Is the active self a limited resource? Journal of Personality and Social Psychology, 74(5), 1252-1265. doi:10.1037/0022-3514.74.5.1252
https://faculty.washington.edu/jdb/345/345%20Articles/Baumeister%20et%20al.%20(1998).pdf

Douglas W. Woods , Jonathan W. Kanter , Roberto Anchisi , Stefano Stefanini (2016). Disturbi psicologici e terapia cognitivo-comportamentale. Modelli e interventi clinici di terza generazione
https://books.google.it/books?id=YtLoCwAAQBAJ&printsec=frontcover#v=onepage&q=ego%20depletion&f=false

Hagger, M. S., & Chatzisarantis, N. L. (2016). A Multilab Preregistered Replication of the Ego-Depletion Effect. Perspectives on Psychological Science, 11(4), 546-573. doi:10.1177/1745691616652873
http://pps.sagepub.com/content/11/4/546.full

Sripada, C., Kessler, D., & Jonides, J. (2014). Methylphenidate Blocks Effort-Induced Depletion of Regulatory Control in Healthy Volunteers. Psychological Science, 25(6), 1227-1234. doi:10.1177/0956797614526415
http://pss.sagepub.com/content/early/2014/04/22/0956797614526415

Hagger, M. S., & Chatzisarantis, N. L. (2016). Commentary: Misguided Effort with Elusive Implications, and Sifting Signal from Noise with Replication Science. Frontiers in Psychology Front. Psychol., 7. doi:10.3389/fpsyg.2016.00621
http://journal.frontiersin.org/article/10.3389/fpsyg.2016.00621/full