Reinterpretare l'elaborazione della musica

In un editoriale congiunto, i ricercatori dell'Istituto Max Planck per l'Estetica Empirica, dell'Università di Aix-Marseille, dell'Università di New York e dell'Università di Ginevra invitano a rivedere le precedenti teorie sui meccanismi neuronali di elaborazione temporale della musica e del linguaggio.

Scanner MEG. Foto: NIMH (vedi sotto)/wikimedia commons,SMPV

Il team presenta un approccio teorico che integra in modo completo l'interazione di diverse regioni cerebrali nei modelli di elaborazione esistenti. Questo approccio permette per la prima volta di spiegare le previsioni temporali sia periodiche che aperiodiche.

Riconoscere le strutture temporali e prevedere la tempistica di un segnale sono abilità fondamentali del cervello umano. Sono ancora più essenziali per la comprensione del parlato o l'elaborazione della musica, che vanno oltre il semplice udito. Le ricerche precedenti si sono concentrate principalmente sui meccanismi neuronali che ci permettono di elaborare segnali periodici, cioè che si ripetono regolarmente, e di fare previsioni temporali sulla base di essi. In precedenza si ipotizzava che ciò avvenisse attraverso le oscillazioni neuronali che seguono un segnale ripetitivo nel cervello.

I risultati delle ricerche attuali dimostrano che il cervello umano è anche in grado di fare previsioni temporali aperiodiche, cioè non regolari. Questo fatto non può essere spiegato adeguatamente dalla sola teoria delle oscillazioni. Attraverso le previsioni aperiodiche, il cervello è in grado, ad esempio, di stimare il corso di un movimento o di giudicare la dinamica di una conversazione. Ciò suggerisce che i processi aperiodici non sono meno importanti di quelli periodici per orientarci nella vita quotidiana e dovrebbero quindi essere studiati a fondo, con il supporto di un modello teorico ben fondato.

I modelli precedenti si basano sull'ipotesi di meccanismi diversi per le previsioni periodiche e aperiodiche: da un lato stimolo-driven, cioè oscillazioni causate da un segnale, e dall'altro un meccanismo guidato dalla nostra memoria. Al contrario, la ricerca attuale dimostra che le oscillazioni neuronali nel cervello sono influenzate da fasi di elaborazione di livello superiore che includono anche processi aperiodici. Diverse aree del cervello sono attive contemporaneamente. "È probabile che esista un meccanismo unificato basato sulle oscillazioni neuronali, ma non puramente guidato dagli stimoli", spiega l'autrice principale Johanna Rimmele dell'Istituto Max Planck per l'Estetica Empirica. "Le oscillazioni sembrano ancora svolgere un ruolo centrale nei processi di elaborazione neuronale, ma le previsioni temporali possono essere spiegate in modo esauriente solo attraverso una considerazione più complessa di diverse aree cerebrali corrispondenti", continua la neuroscienziata.

L'editoriale si conclude con domande aperte su possibili approcci di ricerca basati sul modello. L'obiettivo deve essere quello di perfezionare ulteriormente le nuove scoperte a livello teorico e di corroborarle sperimentalmente.

Pubblicazione originale:
Rimmele, J. M., Morillon, B., Poeppel, D., & Arnal, L. H. (2018). Rilevamento proattivo di modelli uditivi periodici e aperiodici. Trends in Cognitive Sciences. https://doi.org/10.1016/j.tics.2018.08.003

 

Foto: Istituto Nazionale di Salute Mentale, Istituti Nazionali di Sanità, Dipartimento della Salute e dei Servizi Umani 

 

Anche lei può essere interessato