Suoni perduti, suoni sognati. Musica ed emozioni tra scienza e mito

Musica ed emozioni tra scienza e mito
Domande sulla musica

Che cos’è la musica? Qual è la sua origine? Che relazione c’è tra musica e linguaggio? Nel corso dei secoli si è tentato di rispondere a queste domande in modi diversi, senza giungere però a conclusioni definitive[1]. Spesso, nonostante l’uso corrente di espressioni quali “il linguaggio musicale” o “la frase musicale”, la musica è stata contrapposta al linguaggio.

Infatti, se ci si concentra sulle partiture musicali, da una parte, e sul linguaggio scritto, dall’altra, è immediato sottolineare la specificità del linguaggio in quanto portatore di una semantica, in quanto modalità privilegiata di comunicazione di contenuti. In questo confronto, la musica viene caratterizzata in negativo, perché è evidentemente priva di una semantica altrettanto definita.

Consideriamo invece la percezione del linguaggio parlato e della musica eseguita. L’ascoltatore riceve dal linguaggio prevalentemente informazioni, mentre riceve prevalentemente emozioni dalla musica. Questo non esclude, però, che il contenuto di un messaggio linguistico possa risultare emozionante, o che un particolare tono di voce possa emozionare chi ascolta. A sua volta, la musica può comunicare informazioni in diversi modi. Ciò accade, in particolare, quando essa comprende un testo cantato, o quando certi caratteri stilistici (come ad esempio certe cadenze armoniche) di una composizione rimandano a una determinata epoca o addirittura a uno specifico compositore. Queste informazioni possono anche non suscitare emozioni nell’ascoltatore, e fornirgli semplicemente una conoscenza sulle intenzioni del compositore e sulle caratteristiche del suo tempo.

La percezione del linguaggio e quella della musica, pur restando fondamentalmente diverse, appaiono dunque almeno parzialmente sovrapponibili, perché nel linguaggio può venire percepita anche una dimensione emotiva, così come nella musica una dimensione semantica, sia pur limitata.

Ci chiediamo, a questo punto, se gli studi di neurofisiologia ci possono aiutare nello sviluppo ulteriore di queste considerazioni. La prospettiva psicologica e quella neurofisiologica sono diverse e irriducibili; questo non esclude però che esse possano reciprocamente illuminarsi e arricchirsi. Avvicinandoci ai risultati della neurofisiologia, dobbiamo avere ben presente il mistero che avvolge la relazione tra la materialità del sistema nervoso e del cervello e l’immaterialità del pensiero e delle emozioni. Ma, con le parole di un neurologo famoso,  “passiamo ad altri la patata bollente” del rapporto mente-corpo[2]. Nel presente contesto, ci limiteremo a considerare i processi neurologici e cerebrali come correlati fisiologici delle cognizioni e delle emozioni, che possono quindi fornire informazioni su queste ultime.

 

La percezione acustica

Il linguaggio parlato e la musica eseguita, quando si presentano alla percezione, hanno la stessa natura: sono stimoli fisici.  Come è noto, si tratta di vibrazioni dell’aria, ossia di movimenti di oscillazione delle molecole intorno alla loro posizione di equilibrio, movimenti che vengono trasmessi alle molecole vicine. Ogni vibrazione è caratterizzata da una frequenza (numero di oscillazioni in un secondo), e in generale uno stimolo acustico è costituito da un fascio di vibrazioni con frequenze diverse. Quelli che vengono abitualmente considerati suoni musicali, così come le vocali del linguaggio parlato, contengono vibrazioni le cui frequenze sono multiple di una frequenza fondamentale. La stessa regolarità, invece, non è presente in quelli che abitualmente vengono definiti rumori (in particolare nella struttura sonora delle consonanti, anche se questa è una semplificazione che andrebbe meglio articolata)[3]. I rumori, infatti, sono caratterizzati dalla presenza di un fascio di frequenze prive di una relazione numerica semplice tra di loro, o addirittura da una distribuzione continua di frequenze in un certo intervallo.

All’orecchio giungono dunque tutte queste vibrazioni, che sono mescolate tra loro e quasi confuse, tanto più quando (come generalmente accade) esse sono prodotte contemporaneamente da più sorgenti indipendenti.  Il processo di analisi di questo mondo sonoro ha luogo nell’orecchio interno: una complessa struttura – chiamata anche chiocciola o coclea – che (attraverso una catena di ossicini) viene stimolata dalle vibrazioni del timpano e invia informazioni al sistema nervoso[4].

L’orecchio interno, grazie alla sua particolare struttura, è in grado di separare tra loro le frequenze presenti e inviare le relative informazioni al cervello. La chiocciola è un organo arrotolato, delle dimensioni di una biglia di vetro, che immaginata distesa ha una lunghezza di pochi centimetri. È’ cava e chiusa, è riempita da un fluido ed è divisa in due parti in senso longitudinale da una struttura molto complessa: la membrana basilare, deputata alla rilevazione delle vibrazioni acustiche. Essa contiene migliaia di cellule specializzate, distribuite lungo tutta la sua lunghezza, che rilevano le vibrazioni della membrana stessa  e trasmettono i loro segnali al sistema nervoso centrale[5].

La membrana basilare non è uniforme: essa è più rigida e spessa dalla parte degli ossicini  e più flessibile, sottile e larga all’altra estremità. Di conseguenza, al variare della frequenza delle vibrazioni incidenti l’ampiezza di vibrazione della membrana ha un massimo in corrispondenza  di regioni diverse: per gli stimoli a frequenza più elevata dalla parte degli ossicini, per gli stimoli a frequenza inferiore all’altra estremità. Ogni particolare frequenza, dunque, coinvolge solo una particolare regione della membrana, e quindi solo alcune terminazioni nervose.

Dalle cellule che rilevano le vibrazioni giungono al sistema nervoso centrale informazioni distinte per ogni frequenza. A partire da queste informazioni completamente disaggregate, il compito dell’elaborazione cerebrale è quello di costruire un mondo di suoni, un paesaggio sonoro. Si tratta di un compito assai complesso, che però il cervello impara a svolgere con grande efficacia e rapidità, così che abitualmente non ci sorprendiamo di questa nostra straordinaria competenza.

Gli studi neurologici – appoggiati sia su esperimenti, sia sullo studio delle conseguenze di lesioni cerebrali – hanno permesso di costruire un’immagine affascinante e plausibile dei processi di elaborazione dei segnali uditivi a partire dai nervi acustici, i quali trasferiscono al sistema nervoso centrale le informazioni provenienti dall’orecchio interno.

I segnali provenienti da ogni orecchio salgono bilateralmente verso il cervello: l’elaborazione cerebrale porterà poi alla costruzione delle caratteristiche dei singoli suoni e del loro collegamento temporale[6].

Questa elaborazione si può definire non solo ricostruttiva, ma addirittura creativa. Ad esempio, l’altezza dei suoni (cioè il fatto che vengano percepiti come più acuti o più gravi) e la loro intensità sono costruzioni percettive che nascono dalla elaborazione dei segnali provenienti dall’orecchio interno. Così anche il timbro, così la separazione o la fusione delle voci in un intreccio polifonico sono costruzioni creative che possono rispecchiare la struttura e la molteplicità delle sorgenti sonore, ma possono anche dare origine a un mondo sonoro virtuale: a quelle costruzioni che a volte vengono definite “illusioni acustiche”.[7]

 

Percezione ed emozione

Fin qui, si è fatto riferimento a una elaborazione dei segnali acustici che possiamo definire cognitiva. Ma tutti sappiamo che anche un semplice suono può suscitare emozioni intense: emozioni di paura se è un suono intenso e improvviso, di sorpresa se il suo timbro è sconosciuto, di nostalgia se evoca un ricordo, e tante altre ancora. A maggior ragione la musica, che è costituita da una sequenza e da un intreccio di suoni, è in grado di suscitare processi emotivi, e non semplicemente emozioni statiche.

Le emozioni si possono studiare in diversi modi e a livelli diversi: attraverso i loro correlati fisiologici (accelerazione del battito cardiaco, variazione della pressione sanguigna, ecc.), attraverso le espressioni del viso, e soprattutto – per le emozioni più complesse, legate anche a elementi cognitivi – attraverso le parole con cui i soggetti descrivono le loro esperienza emotive. Questo è stato fatto fin dai tempi di Charles Darwin, per giungere a identificare alcune emozioni fondamentali[8]. Nel caso delle emozioni suscitate dal linguaggio, sono state proposte come fondamentali la rabbia, il timore, la felicità, la tristezza, la tenerezza. Ma vengono considerate anche emozioni diverse, come la contemplazione serena, la nostalgia, l’attesa, la spiritualità[9].  La ricerca delle emozioni suscitate dalla musica è giunta a risultati simili[10]. La tavolozza delle emozioni evocate dalla musica è però più ampia, e comprende anche esperienze di incanto, ammirazione, estasi: esperienze, insomma, di una emozionante bellezza[11].

Ma come mai nel caso del linguaggio parlato queste emozioni sono così marginali da non venire considerate? Riprenderemo questo punto più avanti, collegandolo ai diversi possibili atteggiamenti di ascolto.

 

L’elaborazione delle emozioni

La neurofisiologia ha permesso di iniziare a comprendere il legame tra percezione acustica e risposta emotiva al linguaggio e alla musica. In questa sede non è necessaria una analisi dettagliata della struttura cerebrale e delle funzioni individuate per le sue diverse aree. Ci limiteremo quindi a una descrizione semplificata, con riferimento ad alcuni nuclei fondamentali del complesso sistema cerebrale.

I segnali che – bilateralmente – provengono dall’orecchio interno e si dirigono alla corteccia cerebrale incontrano una prima struttura di elaborazione, il talamo uditivo. Esso ha una connessione diretta con  l’amigdala: la regione cerebrale appartenente al sistema limbico che è considerata il centro che gestisce le emozioni e il loro ricordo implicito[12]. Dall’amigdala partono segnali per attivare le risposte emotive immediate del corpo, ma anche per influenzare i processi cognitivi (ad esempio, per far sì che  l’attenzione si concentri sul messaggio fornito da uno specifico segnale sonoro). Dal talamo uditivo i segnali neurologici proseguono verso la corteccia cerebrale, che è la sede preposta all’elaborazione dell’esperienza pr,esente e al suo collegamento con i ricordi, anche con i ricordi di emozioni passate. Alla corteccia cerebrale giungono anche i segnali legati all’espressione delle emozioni immediate provenienti dal corpo. La corteccia ha una connessione di ritorno verso l’amigdala (più indiretta, e quindi più lenta di quella che giunge all’amigdala dal talamo uditivo). Essa quindi promuove emozioni  complesse e coscienti (in particolare, quelle evocate dalla prosodia e dall’ascolto musicale) che sono più lente ma – per quanto si è detto – non sono indipendenti dalle reazioni emotive immediate. Il termine prosodia si riferisce qui, come nel seguito, a quella che possiamo definire la dimensione musicale del linguaggio parlato: in particolare all’intonazione, al profilo melodico, al ritmo, agli accenti.

Come si vede, ci sono connessioni bidirezionali tra aree cerebrali deputate a elaborazioni di tipo diverso, il che rende impossibile – tranne che nel caso di lesioni – una separazione netta tra elaborazioni cognitive ed emotive. In particolare, la corteccia cerebrale è sempre coinvolta nella elaborazione delle emozioni coscienti, oltre che nelle elaborazioni cognitive[13].

L’emozione cosciente si sviluppa dopo la reazione emotiva immediata e dopo una complessa elaborazione inconscia, ed esprime il risultato complessivo di questo processo. L’intervallo di tempo necessario per questa elaborazione, dell’ordine di una frazione di secondo, risulta impercettibile alla coscienza, ma è quello che rende possibile, appunto, la complessità delle emozioni[14]. Infatti, da un certo punto di vista si potrebbe affermare che le emozioni coscienti dipendono dalla reazioni fisiologiche che le precedono temporalmente: dunque, non piangeremmo perché siamo tristi, ma saremmo tristi perché piangiamo. Ma è vero anche il contrario: la corteccia cerebrale è in grado non solo di elaborare e arricchire le  reazioni emotive immediate, ma anche di inibirle o almeno di ridurne l’intensità[15]. Pensiamo ad esempio a un paracadutista che si getta nel vuoto o a un bambino che entra in una stanza buia.

Più in generale, il vissuto delle emozioni può venire influenzato dall’atteggiamento che si ha nei riguardi di esse. Riprenderemo tra breve questo punto a proposito dell’ascolto musicale.

 

Musica e linguaggio

Tra la musica e il linguaggio ci sono aspetti comuni per quanto riguarda l’impiego dei suoni. Il primo aspetto comune è l’esistenza di una specifica organizzazione dei timbri, pur diversa nei due casi. Nel linguaggio ci sono  vocali e consonanti, e nella musica (o almeno in gran parte della musica) ci sono  le note, gli accordi, la varietà di timbri degli strumenti musicali. Questa organizzazione implica anche una categorizzazione: ad esempio, il nostro apparato cognitivo riconosce una certa vocale anche se il suo timbro varia notevolmente, così come può riconoscere un intervallo musicale anche se non è perfettamente intonato[16]. Inoltre, sia nel linguaggio che nella musica, i suoni sono organizzati in flussi sonori: nel linguaggio un flusso sonoro corrisponde a una parola o a una frase; nella musica a un motivo musicale, a un intreccio di frasi, a una sequenza ritmica.

C’è però un’importante differenza, già accennata: la musica comunica informazioni solo in piccola parte. Contrariamente al linguaggio, essa non ha una semantica definita. Ma può suscitare emozioni anche molto intense. Afferma Jean-Pierre Changeux:

“E’ come se avessimo nel nostro cervello, registrata a lungo termine, una sorta di «tastiera d’organo», i cui tasti sono in grado di richiamare un repertorio immenso di memorie sonore specifiche, di tonalità emozionali definite. Una parte importante di questa tastiera è probabilmente innata, mentre ci si  aggiungono, intrecciandosi alle precedenti, molteplici ricordi acquisiti nel corso dello sviluppo e della vita del soggetto. Ciascun ricordo può a sua volta essere collegato a reti più ampie di  memorie individuali”[17].

Nemmeno il linguaggio, d’altra parte, può venire ridotto a pura semantica. Resta fuori infatti tutto il campo delle vocalizzazioni emozionali (non solo la prosodia, ma anche i toni di voce, le risate, gli sbuffi, e tanto altro ancora). Pensiamo ad esempio alle sfumature emotive che è possibile cogliere in una conversazione telefonica, senza alcun riferimento visivo.

Nel linguaggio, comunque, la percezione di aspetti cognitivi e di aspetti emotivi è strettamente intrecciata. Facendo ancora riferimento all’ascolto telefonico, tutti sappiamo che il timbro e le inflessioni della voce non hanno soltanto una valenza emozionale ma forniscono anche informazioni sul contenuto del messaggio (permettono, ad esempio, di distinguere una frase affermativa da una interrogativa), oltre che sul parlante (in particolare sesso, età, grado di istruzione, lingua madre).

Oggi sappiamo che l’elaborazione degli aspetti emotivi del linguaggio parlato coinvolge una rete distribuita di aree corticali (soprattutto frontali e temporali, prevalentemente nell’emisfero destro). Questa specializzazione cerebrale è stata messa in evidenza anche dallo studio di pazienti con lesioni: la valutazione emozionale dei toni di voce può sussistere anche indipendentemente dalla valutazione emozionale dei visi, così come il riconoscimento degli elementi vocali che sono significativi in termini emozionali può sussistere anche indipendentemente dal riconoscimento degli elementi semanticamente rilevanti[18].

Non ci sono evidenze che permettano di differenziare nettamente i circuiti di elaborazione delle emozioni del parlato da quelli che elaborano le emozioni musicali. Ciò rende plausibile l’affascinante ipotesi che la musica sia un’invenzione culturale dell’umanità che ha potuto giovarsi del sistema deputato a cogliere la valenza emotiva delle vocalizzazioni: un sistema, questo, definito a livello genetico.

Assumendo che la valenza emozionale della musica sia elaborata dagli stessi circuiti neurali che hanno questa funzione per il linguaggio, si può immaginare che nella primissima infanzia i due mondi siano strettamente intrecciati. Per il bambino, il linguaggio (soprattutto quello così particolare usato dalle mamme di tutto il mondo nella comunicazione con i bambini) – che egli ancora non interpreta come linguaggio – è una “proto.musica”, e la musica, a sua volta, viene vissuta come “un linguaggio super-espressivo”, la cui relazione con il linguaggio in senso stretto assomiglia a quella tra una maschera e un viso, tra una caricatura e una fotografia[19].

In questa prospettiva, risulta particolarmente chiaro il motivo per cui la melodia ha un’importanza così centrale nella musica. Un ulteriore elemento a favore di questa ipotesi è costituito dalle ricerche che dimostrano come lo studio della musica migliori la capacità di cogliere le emozioni associate al linguaggio parlato[20].

Sviluppando ulteriormente questo legame tra musica e linguaggio, si può affermare che storicamente la musica ha introdotto, rispetto al linguaggio parlato, alcune semplificazioni. Innanzitutto ha privilegiato i suoni simili alle vocali (quelli del flauto di Pan e della lira di Orfeo), separandoli dai suoni più simili alle consonanti, affidati alle percussioni. A proposito delle percussioni, notiamo una seconda semplificazione: la musica ha privilegiato i ritmi periodici (presenti anche nella poesia), che sono più favorevoli alla danza e all’esecuzione musicale collettiva. Nella musica contemporanea la differenza tra la musica propriamente e la musica del linguaggio parlato è più sfumata: anche agli strumenti tradizionali (come i flauti) viene richiesto di produrre suoni di tipo consonantico (come sbuffi, schiocchi, frullati); inoltre, si impiegano anche suoni tradizionalmente non musicali, e i ritmi non sono soltanto periodici[21].

 

L’ascolto della musica

Immaginiamo di ascoltare un dialogo tra due persone in una lingua che conosciamo. Nell’ascolto dedicheremo prevalentemente la nostra attenzione al contenuto semantico della conversazione: a ciò che le persone comunicano con le parole e con le frasi. E’ vero che, in alcune lingue, anche l’intonazione e il profilo temporale (che per analogia possiamo definire melodico) delle frasi contribuiscono alla semantica[22]. Ma, per semplificare l’esposizione, lasciamo da parte questo aspetto.

Supponiamo ora di essere così lontani da chi parla da non poter comprenderne le parole, oppure che la conversazione si svolga in una lingua a noi sconosciuta. Può accadere allora che il nostro ascolto si modifichi: l’attenzione al significato delle parole verrà sostituita dall’apertura alla dimensione emotiva che i toni di voce, le sequenze e i contrasti timbrici, i contorni delle frasi, la maggiore o minore velocità del parlato, i silenzi comunicano.  Perché ciò accada, è necessario mettere da parte l’ansia, il fastidio di non cogliere il contenuto semantico della conversazione. Questo esempio ci fa capire che è possibile spostare intenzionalmente l’attenzione da una modalità all’altra, dalla modalità semantica alla modalità emozionale: dall’ascolto di informazioni all’ascolto di quella che potremmo definire una “musica di timbri”[23]. Nel linguaggio, infatti, la dinamica timbrica è generalmente più importante della dinamica di altezze, come del resto accade anche in molta musica contemporanea[24].

Una ulteriore conferma della effettiva possibilità di privilegiare una di queste due modalità estreme di ascolto è fornita dalle esperienze eseguite con il cosiddetto sine-wave speech (che si ottiene semplificando drasticamente per via digitale la struttura delle vocali). Un ascolto non informato, infatti, coglie in una frase così costruita semplicemente una sequenza di suoni, una sorta di bizzarra musica. Se invece a chi ascolta viene fornita l’informazione che si tratta di vocalizzazioni linguistiche, una diversa modalità di ascolto – un ascolto semantico anziché emozionale – permette di comprendere le parole e il senso complessivo del messaggio[25].

I due atteggiamenti estremi di ascolto sono spesso compresenti nell’interazione verbale: il secondo, allora, arricchisce il primo, perché permette di cogliere qualcosa che viene comunicato al di là delle parole. Come si è già accennato, si può supporre che l’ascolto emozionale della “proto-musica” del linguaggio e del mondo nasca già nella prima infanzia, in connessione con emozioni fondamentali come la paura o il piacere, arricchendosi in seguito di ricordi, fantasie, stati d’animo, desideri, attese che contribuiscono alla varietà e alla complessità delle emozioni coscienti.

La musica, in generale, non ha informazioni da comunicare: è inutile, addirittura frustrante ascoltarla cercando di cogliere i suoi messaggi. Certo, come si è detto, è possibile rilevare elementi strutturali e stilistici: pensiamo ad esempio alla struttura complessiva di una composizione. In certi casi, questi elementi possono comunicare un sentimento di ordine, di compiutezza, di bellezza formale: aspetti che sono stati a lungo considerati come l’essenza stessa della musica[26]. Si tratta di un’essenza prevalentemente intellettuale, cognitiva, che può però anche suscitare specifiche emozioni proprio perché evoca un mondo ordinato, perfetto.

La musica, comunque, richiede fondamentalmente un ascolto non semantico, un ascolto aperto alle emozioni: quelle emozioni che, al contrario, un ascolto strettamente semantico può mettere da parte, può inibire come un intralcio alla comprensione. Tornando a un’immagine precedente, si può affermare che la musica richiede di venire ascoltata come se fosse una conversazione che si svolge molto lontano, o in una lingua straniera, della quale è impossibile comprendere le parole, ma rimane la possibilità di cogliere la dimensione emotiva: in particolare, le emozioni associate alla bellezza di un timbro di voce, o alla dolcezza del profilo melodico di una frase.

 

L’origine della musica

A un certo punto, nella storia di tutte le culture nasce la musica. La musica, come si è detto, è già presente nel linguaggio, nella sua prosodia, nella poesia. Non sappiamo come la musica si sia resa autonoma dal linguaggio, non sappiamo come questa straordinaria invenzione culturale sia nata e si sia affermata: ma possiamo fantasticare sulla sua misteriosa origine.

Ovidio, nelle Metamorfosi, ci racconta l’invenzione della musica ad opera di Pan. Il dio stava inseguendo una ninfa di nome Siringa, votata alla castità, che per sfuggirgli ottenne di trasformarsi in un fascio di canne.

“[Restava da riferire] come Pan, quando credeva ormai di averla presa, stringesse, al posto del corpo di Siringa, un ciuffo di canne palustri, e si mettesse a sospirare. E allora l’aria, vibrando dentro le canne, produsse un suono delicato, simile a un lamento, e il dio, incantato dalla dolcezza di quella musica mai prima udita, disse: «Ecco come continuerò a stare in tua compagnia!» e, saldate tra loro con cera alcune canne di disuguale lunghezza, mantenne allo strumento il nome della fanciulla: Siringa.”[27]

Pan gioisce perché la musica (una musica strumentale, senza parole) può permettergli di restare per sempre in contatto con Siringa. La musica, dunque, sembra nascere qui dalla nostalgia: nostalgia del mondo di ciò che si è perduto (l’amore, la gioventù, la bellezza…), ma forse anche di un più remoto mondo di suoni, addirittura quello dell’immersione nell’universo sonoro della vita uterina.[28]

La musica appare dunque come una elaborazione del lutto attraverso un ritorno alle molteplici esperienze sonore della vita: a suoni rassicuranti o paurosi, delicati o aggressivi… Suoni, anche, organizzati in sequenze (pensiamo, in particolare, al linguaggio materno, quando ancora il bambino non ne capisce il significato), suoni intrecciati, suoni effimeri e suoni ripetitivi: pulsazioni, battiti del cuore che possono accelerare o rallentare, avere soprassalti improvvisi o sorprendenti pause. Sequenze sonore che nella memoria (conscia o inconscia) possono essere emotivamente associate a situazioni significative per il compositore, per l’interprete, per l’ascoltatore. O meglio, per tutti loro, pur con accenti diversi.

La musica può favorire non soltanto il ritrovamento di un mondo perduto, ma anche il sogno di un mondo nuovo in cui non ci sarà più perdita. Infatti, come precisa Ovidio, è una “musica mai prima udita” quella che fa esclamare a Pan che con l’aiuto della musica starà per sempre in compagnia di Siringa. La musica dunque non porta con sé soltanto un ricordo (in particolare, un ricordo uditivo, come potrebbe essere la voce di Siringa, associata forse alle espressioni del suo viso), ma propone anche suoni nuovi e nuove organizzazioni sonore che, attraverso le emozioni che suscitano, favoriscono il sogno di un tempo al di là del tempo dove nessuna perdita ci sarà più. Oppure, come accade in molta musica contemporanea, propone la ricerca di questo nuovo mondo, l’avventura di questa ricerca, la speranza o lo scoramento che possono accompagnarla.[29]

 

Bibliografia

[1] S.Davies, Emotions expressed and aroused by music, In P.N.Juslin, J.A.Sloboda, Handbook of music and emotion. Theory, research, applications, Oxford University Press, New York, 2010, pp.16-43; P.Boulez, J.-P.Changeux, P.Manoury, I neuroni magici, Carocci, Roma, 2016.

[2] J.LeDoux,  Il cervello emotivo, Baldini& Castoldi, Milano, 1998.

[3] A.P.Patel, Music, language and brain, Oxford University Press, New York, 2008.

[4] G.Zanarini, Il suono, in Enclclopedia della musica, Einaudi, Torino, vol. II, pp. 5-23.

[5] A.Frova, Fisica nella musica, Zanichelli, Bologna, 1999.

[6] T.E.Cope et al., The functional anatomy of central auditory processing, in “Pract. Neurol.”, 13 (2015), pp.302-308.

[7] A.Bregman, Auditory scene analysis. The perceptual organization of sound, MIT Press, Cambridge 1990; G.Zanarini, Invenzioni a due voci, Carocci, Roma, 2015.

[8] C.Darwin,L’espressione delle emozioni nell’uomo e negli animali (1872), Newton Compton, Roma, 2006.

[9] A.P.Patel, Music, language and brain, Oxford University Press, New York, 2008, p.346.

[10] P.N.Juslin et al., How does music evoke emotions? in P.N.Juslin, J.A.Sloboda, Handbook of music and emotion. Theory, research, applications, Oxford University Press, New York, 2010, pp.605-644.

[11] J.A.Sloboda, Music in everyday life, in P.N.Juslin, J.A.Sloboda, Handbook of music and emotion. Theory, research, applications, Oxford University Press, New York, 2010, pp.493-514.

[12] T.E.Cope et al., The functional anatomy of central auditory processing, in “Pract. Neurol.”, 13 (2015), pp.302-308.

[13]   E.Kandel. L’età dell’inconscio. Arte, mente e cervello dalla grande Vienna ai nostri giorni, Cortina, Milano, 2012.

[14] E,Boncinelli, Mi ritorno in mente, Longanesi, Milano, 2010, p.61.

[15] J.LeDoux,  Il cervello emotivo, Baldini& Castoldi, Milano, 1998.

[16] A.P.Patel, Music, language and brain, Oxford University Press, New York, 2008.

[17] P.Boulez,  J.-P.Changeux, P.Manoury, I neuroni magici, Carocci, Roma, 2016.

[18] I.Peretz, Towards a neurobiology of musical emotions, in  P.N.Juslin, J.A.Sloboda, Handbook of music and emotion. Theory, research, applications, Oxford University Press, New York, 2010, pp.99-126.

[19] Id.

[20] A.P.Patel, Music, language and brain, Oxford University Press, New York, 2008.

[21] G.Zanarini, Invenzioni a due voci, Carocci, Roma, 2015.

[22] A.D.Patel, Music, language and brain, Oxford University Press, New York, 2008.

[23] A,Schoenberg, Manuale di armonia, Il Saggiatore, Milano, 1963; G.Zanarini, Klangfarbenmelodien. Il mondo dei suoni tra musica e scienza, in P.Greco (a cura di), Armonicamente. Arte e scienza a confronto, Mimesis, Milano, 2013, pp.271-288.

[24] G.Zanarini, Invenzioni a due voci, Carocci, Roma, 2015.

[25] A.D.Patel, Music, language and brain, Oxford University Press, New York, 2008.

[26] ,Hanslick, Il bello musicale, Aesthetica, Palermo, 2001.

[27] Ovidio, Le metamorfosi, I, 705-712, trad. it. di P.Bernardini Mazzolla, Einaudi, Torino, 1994.

[28] R.Parncutt, Prenatal and infant conditioning, the mother schema and the origin of music and religion, in Musicae Scientiae 13 (2009), pp.119-150.

[29] M,Mancia, Psicoanalisi e forme musicali, in V.Volterra (a cura di), Melancolia e musica, Il Cardo, Venezia, 1995, pp.51-58; M.Imberty, Musica e metamorfosi del tempo, LIM, Lucca, 2014.