Download - Musica e Pubblicità - Un' Ipotesi Retorica
Università degli Studi di Modena e Reggio EmiliaFacoltà di Scienze della Comunicazione e dell’Economia
Corso di Laurea Specialistica inComunicazione Pubblicitaria e Istituzionale
Tesi di Laurea
MUSICA E PUBBLICITÀ: UN’IPOTESI RETORICA
Relatore: Prof. Stefano Calabrese Laureando: Alessandro Miani(matr. 40951)
a.a. 2009/2010
Indice
Introduzione 7
1. ESPOSIZIONE 91.1. Elementi di musica 12
1.1.1. Sull’importanza della musica 141.1.2. Gli universali in musica 161.1.3. Musica e linguaggio 171.1.4. Il sistema musicale 191.1.5. Dissonanza 22
1.2. Psicologia della musica 281.2.1. Esperienza prenatale 281.2.2. Risposte fisiologiche alla stimolazione musicale 301.2.3. Percezione musicale 321.2.4. Sensoriale vs cognitivo 34
1.3. Estetica dell’imitazione 37
1.4. Retorica musicale 401.4.1. Storia della retorica musicale 401.4.2. I madrigalismi 431.4.3. La trattatistica barocca 45
1.5. La Pubblicità 491.5.1. Musica come attrazione 491.5.2. Musica nella pubblicità 501.5.3. Il jingle 551.5.4. Musica nei luoghi di consumo 57
1.6. Risoluzione 59
2. SVILUPPO 61
2.1. Semiologia della musica 642.1.1. Il significato in musica 652.1.2. Gli intervalli e il loro significato 702.1.3. La melodia e il suo significato 792.1.4. La strumentazione e il suo significato 84
3
2.1.5. Musica come espressione 872.1.5.2. Espressioni vocali 91
2.1.6. Musica e movimento 932.1.6.1. Il mickey-mousing 96
2.1.7. Tipologia di segni musicali 982.1.7.1. Anafonie 992.1.7.2. Sineddoche di genere 1002.1.7.3. Marcatori di episodi e indicatori di stile 101
2.2 Un approccio linguistico 1022.2.1. Fonologia 1032.2.2. Morfologia 1052.2.3. Sulla scrittura 1092.2.4. Musica come forma di argomentazione 1132.2.5. Sintassi 1142.2.6. Significato 119
2.2.6.1. Il percorso generativo del senso 1202.2.6.2. Modello percettivo della significazione musicale 1232.2.6.3. Prime conclusioni sul significato musicale 127
2.2.7. Il segno musicale 1282.2.8. Conclusioni: un linguaggio poetico 135
2.3 Tassonomia delle figure imitative 1382.3.1. Metafora 1392.3.2. Onomatopea 1432.3.3. Luc Ferrari e John Cage 1492.3.4. Prime conclusioni 152
3. RIPRESA 155
3.1. Gli spot pubblicitari 1583.1.1. Alcuni casi 1583.1.2. Il caso Calzedonia 162
3.1.2.1. Ontogenesi e filogenesi 164
3.2. Conclusioni 173
Bibliografia 181
4
Introduzione
La canzone del sole di Battisti e Smoke on the water dei Deep
Purple eseguita in maniera semplificata con una sola corda non sono i
primi brani che vengono eseguiti sulla chitarra? Durante l’esperienza con
le nostre prime canzoni, non ci si è forse accorti che gli accordi minori
sono tristi mentre quelli maggiori allegri? E continuando, non è forse vero
che la nostra musica viene influenzata da quelle che più ci piacciono?
Quante volte nel negozio di strumenti musicali al commesso si chiedono il
plettro, la chitarra, l’amplificatore di particolari musicisti per avere quel
determinato suono usato in quel disco del 1978? Tutto questo rientra in
quella pratica naturale e diffusa che è l’imitazione. Imitazione ad ogni
livello: imitazione di persone, imitazione di canzoni, imitazione del
materiale musicale all’interno di una canzone e imitazione di un qualcosa
che si trova al di fuori della musica. È proprio questo l’oggetto di studio
della nostra tesi.
7
Si prenderà in esame un particolare tipo di musica, studiata
attraverso differenti approcci e sotto diversi punti di vista, che è finalizzata
a uno scopo, vale a dire quello di accompagnare le immagini nel
messaggio pubblicitario. Il nostro obiettivo è portare dati a favore della tesi
che una musica di carattere imitativo, più precisamente che mima le
caratteristiche semantiche, fisiche e tattili di un prodotto, sia più efficace di
una musica che viene associata ad esso in modo casuale, in altre parole,
si ritiene che le associazioni basate sull’imitazione di caratteristiche fisiche
possano in qualche modo facilitare la memorizzazione del prodotto stesso,
una tesi avvalorata da dati provenienti dalla psicologia cognitiva e dalla
linguistica.
Questo lavoro sarà strutturato seguendo lo schema formale della
forma sonata bitematica tripartita, suddivisa in esposizione, sviluppo e
ripresa. È stata scelta questa strutturazione in quanto si pensa che
l’argomentazione debba seguire un percorso in cui, se in un primo tempo
si espongono i temi da discutere, successivamente essi vengono
sviluppati per essere infine ripresi traendone delle conclusioni.
Nell’esposizione verranno presentati gli approcci disciplinari che saranno
utilizzati, in particolar modo quello linguistico, di cui ci serviremo per
mettere a punto un modello del segno musicale. Un’ultima parte, la
ripresa, sarà dedicata all’applicazione dei nostri modelli e alle conclusioni.
Come la forma sonata è bitematica, anche nel nostro lavoro si rintraccia
bitematismo, più precisamente nella psicologia e nella linguistica che ci
permettono di mettere a punto i nostri modelli.
8
Questa sezione mira a fornire gli strumenti adatti a comprendere il
nostro lavoro. In una prima parte ci occuperemo della musica, dal
generale al particolare. Partendo da alcune domande generali, tra le quali
“a cosa serve la musica?”, giungeremo a dare una breve illustrazione delle
“regole della musica”, intese come quelle pratiche che si insegnano nei
conservatori sulle quali la letteratura appare sterminata e che vengono
perpetrate da quasi quattro secoli. A momenti in cui verranno comprese le
caratteristiche biologiche delle musica e la sua affinità col linguaggio,
saranno alternate parti tese a rafforzare l’idea che la musica sia un’attività
naturale e fondamentale. Un breve ritaglio dedicato alle dissonanze
chiuderà la parte dedicata alla musica.
In una seconda parte, dedicata alla psicologia dell’ascolto musicale,
intraprenderemo un percorso che dall’esperienza prenatale ci porterà fino
a quella culturale: un viaggio, in altri termini, che procede dal “crudo al
cotto”. Attraverso vari studi, cercheremo di comprendere gli elementi che
caratterizzano il nostro sistema musicale e le risposte fisiologiche ad esso
associate. Si concluderà con una brevissima descrizione del sistema
percettivo umano, per giungere alla suddivisione dell’ascolto tra cognitivo
e sensoriale.
La terza parte, di carattere estetico, riguarda la musica come
imitazione, partendo da Aristotele si arriva ai giorni nostri. Nella quarta
parte esporremo una breve panoramica della storia della retorica
musicale, passando attraverso i madrigalismi, toccando i trattati che più
hanno influito sul pensiero musicale. Un’ultima parte, infine, è dedicata
alla pubblicità, ai jingle e ad alcuni studi che hanno approfondito il rapporto
tra musica e pubblicità.
11
1.1. Elementi di musica
In molti si domandano che cosa spinga l’uomo a creare e ascoltare
musica e perché l’uomo risponda emozionalmente ad essa (Roedered
1984), anche in ragione del fatto che per l’uomo non ha alcuna rilevanza
biologica o comunque non è in alcun modo legata alla sopravvivenza,
come ad esempio avviene per uccelli (Porzionato 1980). Ma se la musica
è inutile da un punto di vista adattivo (Pinker 1997), perché tutte le società
“hanno la musica” (Titon e Slobin 1996), o meglio, ogni società possiede
quello che i musicologi allenati riconoscono come musica (Blacking 1995)1? Cross (1999) fa notare che la musica può avere differenti funzioni e
diversi significati. Sorge allora una domanda: che cos’è la musica?
Per tentare di rispondere a questo quesito, converrà confrontarci con
gli animali. La musica, anzi, il suono, è per entrambi una forma di
comunicazione. Sembra ovvio, ma si è osservato che i comportamenti
acustici degli animali non lo sono affatto, infatti, questi agiscono per
modificare l’ambiente fisico e sociale e alcune specie interpretano i segnali
di altre inferendo dalle caratteristiche acustiche del suono le caratteristiche
fisiche dell’emittente2 (Owings e Morton 1998). Secondo Cross (2009), le
emissioni “musicali” umane possiedono due caratteristiche che le
distinguono da quelle animali: i) sono un segnale onesto, nel senso che,
come nel gioco, l’emittente dice qualcosa di pertinente alla situazione
comunicativa; ii) il loro scopo è l’intrattenimento. In breve, la musica viene
prodotta da pochi e fruita da molti, e pare dunque fondarsi sul piacere.
Essendo basata sull’intrattenimento, sembra allora che proprio questo
12
1 Viene lasciata aperta la questione su che cosa sia la musica.2 Un suono grave implica un animale grande. Aggiungiamo che questo ragionamento è uno dei pilastri del pensiero di Schaeffer (1966): il suono è indice della sua fonte (Cfr. Chion 2001).
carattere di “inutilità” le permetta di garantire la cooperatività tra gli
individui, evidenziando azioni e intenzioni comuni; la musica viene elevata
ad aggregante sociale3. Il carattere intenzionale sembra quindi il registro
fondamentale che differenzia le emissioni sonore dell’uomo da quelle degli
animali.
La musica allora è una forma di comunicazione onesta, socialmente
condivisa e intenzionale: per definire “musica” risulta indispensabile
rintracciare un’intenzionalità organizzativa [e] si ha musica quando vi è una presa di coscienza del materiale e una consapevolezza nelle azioni compiute (Biasutti 1999, 4).
La struttura della musica è un modo per organizzare il disordine, la
musica evolve dalla sua esistenza di voce dell’emozione a condizione di
arte in forza della «determinatezza delle note e della loro aggregazione
[…] in rapporti numerici» (Dahlhaus e Eggebrecht 1985, 24), un incontro-
scontro tra emozione e matematica. Sono questi i problemi che
caratterizzano da secoli il pensiero sulla musica, ossia la duplice natura
matematica e sensibile della stessa, oltre chiaramente al rapporto di
autonomia da altre forme di espressione come ad esempio il linguaggio.
13
3 Come fanno notare alcuni, musicisti e ascoltatori spendono buona parte della giornata ed energie sociali per parlare di musica (Feld 1994), e in tutto questo parlare, l’aspetto valutativo sembra giocare un ruolo importantissimo; ad esempio negli studi di registrazione, l’aspetto valutativo viene usato per determinare i confini della solidarietà stilistica e a stabilire un sodalizio lavorativo (Porcello 1996).
1.1.1. Sull’importanza della musica
La musica risulta essere importante per l’uomo. Molte civiltà vedono
nel suono l’origine del mondo (Schneider 1960), tanto che alcune
pensavano addirittura a un mondo pre-umano costituito prevalentemente
da suoni. I Maya e gli Atzechi ritenevano che col suono si potessero
tagliare le pietre e nell’antica Grecia, ad ogni suono emesso da uno
strumento musicale corrispondeva una divinità (Biasutti 1999). Darwin
ipotizza che la musica si sia sviluppata dalle vocalizzazioni dei primati
sub-umani e che il suo potere affettivo provenga dall’uso nei processi di
selezione del partner con cui riprodursi (Darwin 1871). Rousseau, nel suo
saggio sull’origine delle lingue del 1781, ritiene che l’origine della musica
sia da rintracciare nell’imitazione dell’armonia come fenomeno naturale
nella sua primordiale complicità col linguaggio, ma non da un punto di
vista grammaticale, piuttosto nei suoi aspetti emozionali. La parola
secondo Rousseau è nata dall’amore, dall’odio, dalla pietà e dalla collera,
le prime lingue perciò furono canti e voci appassionate, prima d’essere
discorsi semplici e metodici. Sembra quindi che la musica addirittura
preceda il linguaggio.
Lo psicologo cognitivo John Sloboda (1985) la rapporta al sesso: la
mancanza di sesso ad esempio non produce effetti dannosi alla vita di un
individuo come può essere la mancanza di sonno, ma la mancanza di
sesso da parte di tutti gli individui compromette certamente la specie
umana. Allo stesso modo la musica, ha probabilmente un beneficio per la
società:
la musica fornisce forse una cornice mnemonica unica entro cui le persone possono esprimere, con l’organizzazione temporale di suoni e gesti, la struttura
14
delle loro conoscenze e delle relazioni sociali (Sloboda 1985, 407).
Similmente a Sloboda, Baumann (1997) associa la musica alla
funzione di accompagnare i riti di passaggio, come ad esempio cerimonie
nuziali, lamentazioni funebri e processi lavorativi; tuttavia, mantiene
sempre la sua componente estetico-ludica (Sloterdijk 1993).
Rintracciamo principalmente diverse funzioni svolte dalla musica:
una sociale e una individuale. Nella funzione sociale collochiamo in primo
luogo la capacità di promuovere la coesione di gruppo (Peretz 2001;
Cross 2009), di contrassegnare i gruppi tra loro e di creare sottogruppi
sociali prevenendo l’isolamento (Krumhansl 1992); fare musica significa
entrare in contatto con altri individui, condividere scopi ed aumentare la
fiducia inter-individuale, nonché creare empatia con il potere di ridurre
rabbia o depressione (Koelsch 2010). Viene fatto notare anche il
vantaggio che porta a livello sessuale: chi suona o balla o comunque ha a
che a fare con l’arte, diventa leader e questo apporta dei vantaggi anche a
livello sociale, aumentando il prestigio ed elevando la probabilità
riproduttiva (Peretz 2001).
A livello individuale si rintracciano le proprietà di agire sulle emozioni
e di migliorare l’umore nella vita quotidiana (Sloboda 1985; Juslin e
Sloboda 2001). Fare musica richiede capacità di sincronizzazione con una
fonte ritmica esterna; si riscontra anche uno sviluppo a livello emozionale,
sociale e cognitivo (Koelsch 2010). Sono due i principi secondo i quali la
musica produce piacere: secondo il principio «allopatico» (Privitera 2004,
297), come nel caso di Elisabetta I d’Inghilterra che suonava una musica
allegra per allontanare la malinconia; secondo il principio omeopatico
invece, una musica triste scaccia la malinconia secondo il principio della
catarsi.
15
1.1.2. Gli universali in musica
Tutte le culture sono caratterizzate da forme di espressione che
utilizzano il suono. In molti sostengono che la musica sia senza dubbio un
linguaggio universale e come tale venga declinato in base alla cultura in
cui viene utilizzato (Meyer 1956). La musica è una predisposizione innata
dell’uomo (Trehub 2003) e ciò sembra vero alla luce di uno studio in cui
vengono misurate le capacità percettive tra musicisti e non, da cui è
emerso che, se si esclude l’alfabetizzazione dei primi, tra i due gruppi non
appaiono sostanziali differenze (Bigand e Poulin 2006). Anche Baumann
(1997) sostiene che la musica esiste in tutte le civiltà; ciò che non è
universalmente condiviso per lui, è il significato e il senso del sistema
sonoro. Se la musica appare essere un universale, di conseguenza
esisteranno delle matrici comuni tra le varie culture musicali che saranno
quasi certamente di carattere fisiologico e, in quanto pre-culturali,
condivise da tutti gli uomini.
Comune a tutti gli uomini sono le strategie di raggruppamento
uditivo4 che permettono di suddividere la scena ambientale, ma anche di
distinguere i suoni all’interno di un sistema quale può essere un brano
musicale. Altro dato rintracciabile in molte culture è l’intervallo di ottava5
(Carterette e Kendall, 1999). In molte musiche6 si rintraccia che la
costruzione delle scale avviene sempre a partire da un numero piuttosto
limitato di elementi, di solito dai cinque ai nove (Sloboda 1985) e ciò
16
4 cfr. Wertheimer (1923) e Koffka (1935), ma soprattutto Deutsch (1999a).5 Il termine “ottava” come fa notare Sloboda (1985) si riferisce a un sistema musicale basato su sette suoni, riteniamo più giusto in questo contesto inter-culturale usare il termine “rapporto doppio di frequenza”.6 Il plurale “musiche” è un termine preso da Biasutti, il quale sostiene che «considerata la varietà e le notevoli differenze delle produzioni sonore degli uomini, risulta più consono parlare di “musiche” al plurale, piuttosto che utilizzare il termine al singolare» (Biasutti 1999, 12).
dipende dal numero di items che la memoria a breve termine riesce a
memorizzare, quello che è stato definito dallo psicologo Miller (1956) il
celebre “magic number”, cioè 7±2. Altro dato interessante è che questi
intervalli non sono quasi mai equidistanti; ciò genera tra di essi rapporti
gerarchici7 avvalorando quindi la tesi della musica come linguaggio.
1.1.3. Musica e linguaggio
L’uomo ha scelto il suono per comunicare. Esso offre numerosi
vantaggi come ad esempio il poter comunicare al buio o il poter articolare
una serie di parole attraverso rapidi movimenti dei muscoli con grande
velocità, un privilegio impensabile ad esempio con la comunicazione visiva
dei gesti. Inoltre il linguaggio (o meglio la lingua), come la musica,
«rafforza la socialità, ingrandisce il gruppo e ne sottolinea la
coerenza» (Trabant 2002, 602). Nella nostra società ci comportiamo con
la musica come se fosse una lingua materna, un linguaggio a tutti gli effetti
(Stefani, Marconi e Ferrari 1990); senza ombra di dubbio la musica
condivide numerosi aspetti con il linguaggio, primo tra tutti il suono.
In un contesto neuro-evolutivo Steven Brown (2000) ipotizza che
musica e linguaggio siano funzioni omologhe evolute da un comune
antenato che chiama “sistema musilinguistico” (Musilanguage system),
caratterizzato dall’uso di un limitato e discreto numero di blocchi combinati
per generare frasi strutturate modulate da meccanismi espressivi. Brown
17
7 Possiamo immaginare una musica senza rapporti gerarchici come quella basata sulla scala esatonale di Debussy che suddivide l’ottava in sei parti equidistanti o quella basata sulla dodecafonia di Schönberg in cui ognuno dei dodici toni non può esser ripetuto se prima non è stata conclusa la serie dodecafonica preordinata. Queste sono musiche che da un punto di vista sintattico appaiono sospese, non vi è un punto saldo da cui partire e a cui giungere. Sono musiche senza direzione, appunto senza un “percorso armonico”. Quindi diremo gerarchia come conditio sine qua non di sintassi.
sostiene che, se negli ominidi questo sistema risiedeva in una precisa
area cerebrale, oggi attraverso l’evoluzione, tra i due domini ci sono
alcune caratteristiche condivise, altre parallele e altre ancora distinte.
Secondo l’autore le caratteristiche condivise sono quelle identiche tra
musica e linguaggio come la vocalizzazione e la prosodia affettiva, le
caratteristiche parallele sono quelle analoghe ma non identiche come la
discretezza, la combinatorietà e la formazione delle frasi, mentre le
caratteristiche distinte sono specifiche del dominio di appartenenza per cui
in musica si hanno ritmi isometrici e una sintassi per la combinazioni dei
suoni, mentre per il linguaggio si hanno le parole e una sintassi
proposizionale.
Sia musica che linguaggio utilizzano elementi discreti e
gerarchicamente ordinati secondo determinati principi di combinazione
che, come abbiamo visto, sono caratteristici di ogni cultura: il modo in cui
viene segmentata l’ottava ad esempio si può affiancare alla suddivisione
del continuum sonoro in fonemi. La costruzione e il concatenamento degli
accordi ci appare come la formazione delle parole attraverso l’unione di
fonemi e morfemi, quindi il loro accostamento secondo le regole di un altro
sistema gerarchico: la sintassi.
Nel campo delle neuroscienze cognitive musicali si dimostra che da
un punto di vista sintattico, la sintassi musicale verrebbe elaborata in una
delle due principali aree corticali deputate all’elaborazione del materiale
linguistico, l’area di Broca (Maess et al. 2001; Koelsch et al. 2002). In un
celebre studio si ipotizzata un’area cerebrale che disponga di risorse per
l’integrazione sintattica condivisa di musica e linguaggio8 (Patel 2003) e
18
8 Shared Syntactic Integration Resource Hypothesis (SSIRH).
successivamente viene evidenziato che le due sintassi, a livello
neuronale, interagiscono (Koelsch et al. 2005).
Da un punto di vista semantico, Koelsch e collaboratori (2004)
partono dal fatto che intuitivamente a certi passaggi musicali di Beethoven
si associano più facilmente parole come “eroe” piuttosto che “pulce”; si
pongono allora l’obiettivo di investigare l’effetto di preparazione semantico
che una frase verbale o un passaggio musicale possono fornire a una
parola. Gli autori riscontrano che la componente negativa N4009, misurata
sulla presentazione di un target verbale incongruente col prime10, viene
elicitata sia da un contesto verbale che da un contesto musicale,
suggerendo che i meccanismi di elaborazione del significato musicale
potrebbero essere analoghi a quelli del significato verbale. Nella
discussione, alla luce del fatto che la musica influenza l’elaborazione
semantica delle parole, gli autori ipotizzano che i partecipanti generino
sub-vocalmente delle parole durante l’ascolto e che queste siano
sottoposte ad analisi semantica11.
1.1.4. Il sistema musicale
Ogni sistema musicale sceglie i suoni dal mondo dell’udibile12
attraverso il temperamento, che consiste nel suddividere l’ottava13 in
determinati intervalli. Nella cultura occidentale prevale un sistema
19
9 N400 è l’indice elettrofisiologico dell’elaborazione semantica.10 Per il paradigma del priming cfr. Meyer e Schvaneveldt (1971).11 Si ricorda che l’elaborazione di uno stimolo può avvenire anche se questo viene presentato sotto il limite della coscienza (Marcel 1983; Cheesman e Merikle 1986).12 I limiti dell’udibile nell’uomo vanno da 20Hz a 20Khz. Nella nostra cultura tuttavia, le fondamentali dei suoni musicali non superano i 5Khz (Pierce 1988).13 L’ottava da un punto di vista fisico corrisponde a un rapporto frequenziale doppio: così se un la è tale a 440Hz, un la all’ottava sopra si avrà a 880Hz.
musicale basato su dodici note equidistanti14, organizzate in un sub-set di
sette note chiamato sistema diatonico. Verrà preso in esame il sistema
tonale, nato attorno al XVI secolo con Monteverdi (1567–1643)15 e ancora
in uso, specie in contesti easy listening come rock e pop o nella musica
per la pubblicità.
Una triade isolata è assolutamente indefinita nel suo significato armonico: può essere tonica di una tonalità, o un grado di diverse altre tonalità (Schönberg 1967, 25).
Esordisce così il padre della dodecafonia Arnold Schönberg (1874–
1951) nel suo celebre Funzioni strutturali dell’armonia, e già ci fa intuire la
natura funzionale del sistema tonale. La tonalità è una matrice applicabile
su ognuna delle dodici note, è composta da sette gradi, ognuno con una
sua funzione armonica; questi gradi conferiscono al sistema stesso «un
particolare senso topologico e relazionale» (Vinay 1994, 44). Prende il
nome da “tono”, come conseguenza del fatto che essere in tonalità di DO
maggiore significa che la nota DO è la tonica, cioè la più importante, quella
a cui tutte le altre si riferiscono e a cui il percorso armonico deve tendere
per raggiungere uno stato di riposo16.
Un accordo è la sovrapposizione di tre o più note disposte per
intervalli di terza dalla nota principale chiamata radice. Una coppia di
accordi suona “bene” quando sono in relazione tonale che è una
20
14 Il temperamento equabile di Werckmeister, 1691, celebrato da Joahnn Sebastian Bach (1685–1750) nel Clavicembalo ben Temperato in cui si dimostra che “ora” (XVII secolo) è possibile fare musica in tutte le tonalità. Ci sarebbe molto da dire al riguardo, al momento è importante ricordare che il sistema odierno è un compromesso tra naturalità e possibilità modulare da una tonalità a un’altra. Niccolò Vicentino prima di Werckmeister progettò l’archicembalo che suddivideva l’ottava in 36 intervalli; sfortunatamente non fu mai realizzato.15 Monteverdi è stato il primo a utilizzare l’accordo di settima di dominante con funzione risolutiva.16 L’ambiguità armonica aggiungiamo, è stata studiata in psicologia per misurare le aspettative musicali mediante il paradigma del priming armonico.
combinazione di relazioni armoniche e melodiche; accordi in sequenza
generalmente suonano bene se condividono voci o se queste voci si
muovono per piccoli intervalli. La struttura che accoglie le successioni di
accordi viene chiamata tonalità. Quando la tonalità della progressione
cambia, avviene una modulazione. Come in un percorso in cui si è indotti
a continuare nella direzione presa, anche nella musica, analogamente, si
cerca di avere un buon compromesso tra percorso dritto perciò sicuro ma
noioso e percorso tortuoso che risulta interessante ma pericoloso (Meyer
1956).
L’armonia funzionale vede ricondurre le funzioni musicali a un
costante giro armonico in cui si susseguono gli accordi costruiti sul primo
quarto e quinto grado (d’ora in poi i gradi della scala/tonalità verranno
indicati in numero romano). Il I grado è il punto di massimo riposo, il IV
grado è “in movimento” e tende al V grado che è il punto di massima
tensione. Attorno a questi gradi principali ruotano quelli secondari:
nell’area del I si trova il VI che condivide due note, in quella del IV è
presente il II, in quella del V si includono III e VII, entrambe includono la
nota sul VII grado che nell’accordo di dominante, quello costruito sul V
grado, viene chiamata sensibile per evidenziare la sua tendenza a
proiettarsi verso la tonica.
Importante ora è una breve descrizione degli intervalli musicali17. Gli
intervalli misurano la distanza tra due note e possono essere melodici o
armonici, ascendenti o discendenti: un intervallo melodico è la distanza tra
due note suonate in due tempi diversi cioè la melodia che è la dimensione
orizzontale; un intervallo armonico è la distanza tra due note suonate
contemporaneamente cioè l’armonia che è la dimensione verticale); un
21
17 Per un’analisi più dettagliata sugli intervalli musicali si veda Karolyi (1980).
intervallo ascendente, che si può avere solo in una melodia, viene così
chiamato quando il primo suono è più basso del secondo; viceversa si ha
l’intervallo discendente. Cosicché dal I grado al II si ha un intervallo di
seconda, dal I al III una terza, dal V al VI ancora una seconda, dal IV al VII
avremo una quarta e così via. I gradi prendono il nome e la “qualità” (ossia
maggiore, minore, diminuito o eccedente) ad imitazione delle distanze dal
I grado della tonalità maggiore, pertanto avremo: unisono, seconda
maggiore, terza maggiore, quarta giusta, quinta giusta, sesta maggiore,
settima maggiore, ottava giusta. Gli intervalli si possono invertire,
abbassando di un’ottava il suono più alto: si ottiene così il rivolto. Un
intervallo di seconda rivoltato darà una settima, una sesta darà una terza
e così via, la somma deve sempre dare nove. L’intervallo tra DO e SOL# è
una quinta eccedente, ma tra DO e LAb18 si ha una sesta minore, questo
accade perché il nostro sistema è diatonico (di-a-tonico, non due toni),
cioè che ogni grado può e deve avere un solo nome.
1.1.5. Dissonanza
La dissonanza è «tutto ciò che si discosta dalle regole in vigore in un
certo periodo o per un certo genere musicale» (Rudzinski 1993, 125);
pertanto ha valore storico e culturale. Per dissonanza intendiamo quelle
forme armoniche, ritmiche e strumentali che escono dalla sfera della
normale prassi musicale in uso nella musica del periodo tonale19 e nella
musica leggera, pop e rock. In generale, in tutta la musica che è solita
commentare gli spot pubblicitari.
22
18 Che nel nostro temperamento ha lo stesso suono, ma in armonia un ruolo armonico differente.19 Dal XVII fino al XIX secolo.
Sulla dissonanza armonica si sono versati fiumi di inchiostro,
cerchiamo quindi di riassumerla attraverso i punti principali. Piston, nel
1941, dice che due suoni sono consonanti quando la sonorità risulta
stabile e compiuta, mentre quelli dissonanti risultano instabili e tendono a
risolvere verso quelli consonanti. Per quanto riguarda la consonanza,
l’autore distingue quella perfetta con intervalli giusti (ottava, quarta e
quinta) e quella imperfetta con terze e seste, tutti gli altri intervalli sono
dissonanti (eccedenti, diminuiti, seconde, settime e none). Riportiamo un
passo che riteniamo molto significativo ai fini del nostro lavoro:
Una musica priva di intervalli dissonanti è, molto spesso, priva di vita e di interesse, perché proprio l’elemento dissonante fornisce alla musica buona parte dell’energia ritmica e del senso di movimento. […] la caratteristica principale della dissonanza è il suo senso di movimento e non, […] il suo grado di “sgradevolezza” per l’orecchio (Piston 1941, 14-15).
Riguardo alla sgradevolezza, possiamo pensare all’accordo di sesta
napoletana20. Confrontato con i suoni di cui è composto, esso risulta
essere fuori tonalità, al contrario è un potente strumento cadenzale per il
suo forte senso di sottodominante ed il suo ampio utilizzo, che viene
legittimato anche da dati scientifici21. Leggermente diverso è il parere del
compositore Nicolaj Rimsky-Korsakoff che nel suo trattato di armonia
(1885) vede l’accordo minore come una consonanza imperfetta e quello
maggiore come consonanza perfetta. Il teorico Teodoro Dubois (1923)
23
20 Primo rivolto dell’accordo maggiore costruito sul II grado abbassato della tonalità maggiore, anticipa spesso quello di dominante. Appartiene a una tonalità che dista quattro passi nel circolo delle quinte (due note fuori tonalità).21 Esperimento sul priming armonico: questo accordo, benché disti sei passi dalla dominante nel circolo delle quinte, risulta più atteso di un altro accordo che ne dista altrettanti dalla tonica (Atalay e coll. 2006).
aggiunge che le dissonanze si dividono in naturali, cioè il tetracordo22 di
dominante, e artificiali, tutti gli altri tetracordi.
Da un punto di vista meno “normativo” e più empirico, Pitagora studia
il rapporto tra la lunghezza di una corda vibrante e il suono che produce.
La lunghezza di una corda vibrante è inversamente proporzionale alla sua
frequenza, per cui se una corda lunga x vibra a una frequenza y, una
corda lunga 1/2x vibra a una frequenza 2y. Questo ragionamento lo ha
condotto a formulare già nel VI sec. a.C. una teoria degli armonici: i primi
armonici, che hanno rapporti semplici, sono quelli più graditi all’orecchio23.
Il pensiero di Pitagora è tutto sommato alla base dell’estetica e, di
conseguenza, dell’armonia occidentale24.
Per dissonanza ritmica si intende un conflitto ritmico che può essere
generato dall’uso di poliritmia, polimetria e multimetria25. Definiamo
innanzitutto ritmo e metro: il ritmo è il ripetersi di determinati eventi, come
ad esempio il celebre tema del primo movimento della Sinfonia n. 40 di
Mozart (1756-1791) composto, salvo qualche raro momento, dalla cellula
ritmica croma-croma-semiminima. Il metro è un movimento costante e
lineare su cui il ritmo si appoggia, in altre parole è il nostro “battere il piede
a ritmo di musica”. Con il prefisso “multi” si intende una diversità a livello
temporale, cioè lungo la dimensione orizzontale; con il termine “poli” si
24
22 Accordo formato da quattro suoni: prima, terza, quinta e settima.23 Nell’intervallo di ottava si ha tra i due suoni un rapporto di 1/2, nella quinta di 2/3, nella quarta di 3/4 e così via.24 Un’illuminante pagina che spiega l’evoluzione della musica comparata agli intervalli musicali si trova nell’introduzione del compositore saggista Cowell (1930). L’evoluzione musicale secondo l’autore ha seguito lo spettro armonico del suono naturale, dai canti gregoriani che preferivano un raddoppio all’unisono, alle prime forme di polifonia raddoppiate alla quinta quindi alla quarta, fino al microtonalismo del Novecento.25 Non terremo in considerazione la multiritmia in quanto è un procedimento ritmico molto usato in musica.
indica invece una diversità su due linee melodiche differenti, ossia in una
dimensione verticale.
La poliritmia è la stratificazione di ritmi differenti. Ritroviamo molti
esempi nella musica di György Ligeti (1923-2006), che sulla poliritmia ha
fondato il suo linguaggio; in alcuni passaggi de Le sacre du printemps di
Igor Stravinsky (1882-1971), specie nelle scale ascendenti veloci; in molta
musica contemporanea; in Trout mask replica di Captain Beefheart
(1941-2010). Se sapientemente usata (come in Ligeti), può far perdere
traccia del metro, creando l’impressione di una texture sonora. Si tratta
pertanto di un effetto particolare, decisamente poco convenzionale.
La polimetria è la stratificazione di metri differenti; non è impossibile
trovarla, ma raramente viene esplicitamente indicata, specie nella musica
contemporanea. È un procedimento abbastanza naturale che, se
esasperato, può produrre effetti interessanti (come ad esempio nel gruppo
svedese dei Meshuggah).
La multimetria è l’accostamento di metri differenti; celebre è il
movimento Jeux des cités rivales, tratto da Le sacre du printemps di
Stravinsky, in cui su 72 battute vi sono ben 36 cambi di metro. Esempi più
vicini a noi si trovano nel progressive rock degli anni Settanta o nella più
recente produzione del gruppo Elio e le storie tese. L’effetto che
scaturisce, ovviamente se paragonato a una musica più easy listening, è
uno sfasamento tra quello che ascoltiamo e quello che vorremmo
ascoltare; la nostra attenzione viene costantemente messa sotto
pressione, siamo costretti a formulare e riformulare continuamente il metro
(la griglia).
Concludiamo con un esempio di dissonanza particolare: la
dissonanza strumentale. Chiamiamo in causa il compositore messicano
Esquivel, la cui opera è caratterizzata da ri-orchestrazioni insolite al limite
25
della provocazione, che nell’economia del brano si risolvono in
interessanti quanto unici esempi di easy listening. Esemplare è il caso
dell’ultimo movimento della Sonata per pianoforte n°11 di Mozart
(conosciuto come Rondò alla turca), che viene orchestrato e ri-arrangiato
con l’uso della chitarra elettrica e accostamenti orchestrali piuttosto insoliti.
Esquivel decide di mantenere la forma del rondò26, ma aggiungendovi
l’effetto di senso della marcia, grazie al ritmo dei rullanti della sezione
centrale (infatti è conosciuto anche come Turkish march). Altro elemento
interessante è l’uso del clavicembalo in apertura, che annuncia con tipico
fare di trombe l’inizio della celebre melodia; una partitura decisamente
insolita per questo strumento, perciò una dissonanza strumentale. Chi
ascolta questo lavoro percepisce una sorta di dissonanza in quanto la
forma musicale non è coerente con la strumentazione adottata, o in altri
termini, non è convenzionale.
Facciamo rientrare nella dissonanza strumentale anche il caso di
Coro scritto da Luciano Berio (1925-2003) per coro e solisti, entrambi
accompagnati da strumenti. I testi utilizzati sono di due tipi: testi collettivi,
vale a dire di tradizione popolare e testi di un singolo individuo, cioè il
poeta Pablo Neruda. I testi popolari sono cantati dal solista, mentre quelli
di Neruda esplodono in un tutti orchestrale e corale. Lo stravolgimento
strumentale qui appare in una sorta di chiasmo tra collettivo/individuale e
tutti/solista. Sembra che Berio abbia voluto creare due ossimori: il
patrimonio culturale della collettività espresso da un singolo e il testo del
singolo espresso dalla collettività.
Possiamo concludere questa breve parte sulle dissonanze
affermando che, se la dissonanza può essere considerata un contrasto,
26
26 Lo schema formale del rondò corrisponde a ABACADA e così via.
allora esistono due tipi di contrasto: contrasto intra-opera e contrasto
extra-opera. Il primo si ha nella coerenza interna, ovvero quando gli
elementi all’interno dell’opera si trovano in contrapposizione tra loro, ad
esempio nel momento in cui un accordo dissonante tende a uno
consonante. Il secondo si ha quando l’opera – o un frammento – è in
contrasto con un’opera o qualcos’altro esterni ad essa. Si tratta pertanto di
conoscere sia il testo di partenza che quello di arrivo affinché vi sia questo
tipo di dissonanza, come nel caso del Rondò rifatto da Esquivel.
27
1.2. Psicologia della musica
Abbiamo appena visto che la musica è una pratica importante sia per
l’uomo, a cui migliora l’umore nella vita quotidiana, sia per la società, in
quanto incentiva l’aggregazione e la cooperazione. Di ipotetica natura pre-
linguistica e condividendo numerose caratteristiche con il linguaggio, essa
sembra essersi così radicata, che molte delle metafore e dei termini
utilizzati nella teoria musicale vengono mutuati dal dominio linguistico.
Nel Novecento, con la nascita della psicologia sperimentale, la
curiosità di comprendere i meccanismi fisici e cognitivi che sottostanno
alla musica ha stimolato l’avvio di numerose ricerche. In queste prime due
sottosezioni affronteremo questioni di carattere fisiologico: in un primo
momento verrà toccato l’argomento sull’ascolto pre-natale, in un secondo
momento si riassumeranno alcuni studi che hanno esplorato l’effetto della
musica a livello somatico. Nelle successive due sezioni si esporranno
alcune ricerche e teorie in ambito cognitivo: verrà presentato il modello di
percezione musicale e verrà approfondito il problema della percezione
della musica a livello sia sensoriale che cognitivo.
1.2.1. Esperienza prenatale
Colpito dalle “Madonne con bambino” che pervadono la storia
dell’arte occidentale e dal fatto che quattro bambini su cinque vengono
tenuti dalla Madonna sul lato sinistro, Salk (1973) intraprende uno studio
per esplorare il ruolo che ha il battito cardiaco nei rapporti tra madre e
figlio. La nascita corrisponde all’esposizione del neonato a un ambiente
sonoro completamente sconosciuto, pertanto la madre lo tiene sul lato
sinistro per avvicinarlo al cuore, esponendolo in tal modo a una fonte
28
sonora (ritmica) familiare. L’autore arriva alla conclusione che più una
cultura è primitiva, più il ritmo della musica prodotta da quella cultura si
avvicina al suono del cuore. Con un ulteriore esperimento, egli sottopone
un gruppo di neonati al suono del battito cardiaco a 72 bpm27 (cioè quello
standard per un adulto) e un altro gruppo allo stesso suono ma
velocizzato a 128 bpm: il gruppo sottoposto al battito velocizzato
dimostrava un significativo aumento del pianto e dell’irrequietezza.
L’autore conclude che i neonati preferiscono i ritmi che richiamano il battito
del cuore della madre28 e suggerisce che probabilmente l’esperienza intra-
uterina è fondamentale nel formare la nostra struttura percettiva.
Sull’esperienza intra-uterina hanno riflettuto anche Lerdahl e
Jackendoff (1983a) ipotizzando che la percezione del ritmo viene
condizionata dalla posizione asimmetrica del feto in quanto, data la
vicinanza di questo a una gamba della madre piuttosto che a un’altra,
mentre ella cammina, il feto sentirà un passo più forte dell’altro; è
probabile secondo gli autori, che l’uomo formi la propria struttura
percettiva grazie a questa esperienza29. Parncutt (1989) osserva che nel
nostro sistema musicale occidentale vi è la tendenza a far procedere il
basso quasi sempre sul tempo forte, con movimenti regolari, quasi mai di
carattere virtuosistico. La melodia dal canto suo, si muove
prevalentemente sul tempo debole, è più ornata e soprattutto meno
regolare. Anche questo fenomeno viene spiegato dalla vita intra-uterina: il
camminare della madre e il battito del cuore sono per il feto i suoni gravi e
29
27 Battiti per minuto.28 Aggiungiamo che risultati analoghi sono stati ottenuti da Lockard e colleghi (1979).29 L’esperienza uditiva prenatale per noi è anche alla base del fatto che, in una serie di impulsi della stessa intensità, ne viene di norma percepito uno più forte: le lancette dell’orologio emettono lo stesso suono, ma di norma si percepisce “tic tac” piuttosto che “tic tic”.
regolari, la voce invece corrisponde ai suoni più acuti (ovviamente nei
limiti della conducibilità attraverso i liquidi) e molto meno regolari.
Révész (1953), nell’analogia tra melodia e parlato, fa notare che il
parlato viene spesso interrotto dalla respirazione; al contrario non è
necessario interrompere l’atto di camminare per respirare, per questo è
più regolare. L’analogia con il parlato si osserva in due situazioni: nella
melodia si assiste spesso a delle pause molto simili a quelle del parlato,
benché queste melodie non siano eseguite da strumenti a fiato.
Continuando, la tipica forma ad arco della melodia richiama il ritmo della
respirazione con ascese e discese paragonabili all’inspirazione ed
espirazione; assomiglia inoltre, nelle sue varie forme, alla prosodia del
parlato.
Riguardo al ritmo, la musica può fare da tramite tra la realtà esterna
e la realtà interna all’individuo. Lo stato di trance, esperito nei suoni di
tamburi di popolazioni primitive o certe musiche occidentali quali la
techno, richiama sostanzialmente l’esperienza che il bambino fa con la
madre prima e subito dopo la nascita (Mancia 1998). La musica è
collegata ai «suoni primordiali» della vita pre-natale: essa contiene suoni
simili in molti modi a quelli ascoltati nell’esperienza prenatale (Grimaldi
1993). Questo spiega il suo ampio utilizzo a scopo terapeutico: può ridurre
il battito cardiaco, la pressione, ma soprattutto può alleviare problemi di
carattere psicosomatico (Hanser 1985).
1.2.2. Risposte fisiologiche alla stimolazione musicale
Nel celebre Istitutioni harmoniche, Zarlino (1558), riferendosi alle
caratteristiche musicali che inducono l’uomo ad esperire diverse passioni,
afferma che oltre all’armonia, al metro e al parlare ci deve essere un’altra
30
caratteristica, non legata all’oggetto ma al soggetto che deve essere «ben
disposto, [e] atto a ricevere alcuna passione». Vediamo che già nel XVI
secolo la questione musicale iniziava ad orientarsi verso il soggetto.
In un pionieristico studio, Ferrari (1896) riporta il caso di una signora
il cui battito cardiaco si era sincronizzato con il ritmo della musica di una
mazurca. Nello stesso periodo è stato trovato che in un ascolto musicale
attento, il ritmo del polso e della respirazione accelerano, mentre in un
ascolto disattento rallentano; si aggiunge il fatto che la consonanza,
rispetto alla dissonanza, produce un rallentamento del battito cardiaco
(Mentz 1897) e che i passaggi in modo maggiore accelerano il respiro
rispetto a quelli in minore (Foster e Gamble 1906).
Fraisse e collaboratori (1953) studiano le reazioni muscolari in
risposta a musiche di differente carattere ritmico: l’effetto dinamico della
musica è proporzionale al grado di ritmicità della stessa e inversamente
proporzionale alla complessità ritmica30; inoltre si riscontra che i musicisti
rispetto ai non-musicisti sembrano essere più sensibili all’effetto dinamico
della musica (Oleron e Euric Silver 1963).
Zimny e Weidenfeller (1963) misurano il riflesso psicogalvanico31
durante l’ascolto di musiche differenti: l’ultimo movimento della sinfonia
Dal nuovo mondo di Dvorak, Les Sylphides su musica di Chopin e la
celebre Aria sulla quarta corda di Bach, rispettivamente considerate da un
campione di persone come eccitante, neutrale e calmo. I risultati hanno
mostrato un significativo aumento dello stato emotivo per il brano
considerato eccitante. Una musica veloce ed eccitante come La Gaité
Parisienne di Offenbach piuttosto che una lenta e calma come l’Aria sulla
31
30 Un dato per noi interessante che spiega l’effetto motorio di certe musiche come il rock o techno che inducono al movimento (cfr. Spaziante 2007).31 Il riflesso psicogalvanico corrisponde alla diminuzione della resistenza elettrica somatica determinata dalla insorgenza di fenomeni emotivi.
quarta corda di Bach inducono bambini di 5-6 anni ad incrementare
l’attività ludica (Rieber 1965). Sempre sulla distinzione tra ritmo lento e
veloce, l’italiano Pisani con la sua equipe (1969) trovano per mezzo
dell’elettromiografia32 che la musica lenta riduce la durata della
contrazione elettrica muscolare.
Infine, ritornando alla dichiarazione di Zarlino, attraverso la
misurazione degli indici del sistema nervoso autonomo33, Harrer e Harrer
(1979) hanno riscontrato che è determinante l’importanza che la musica
assume per il soggetto, ma soprattutto il modo in cui si fruisce. In altri
termini, un ascolto critico, come può essere quello dei musicisti, fornisce
risposte fisiologiche diverse da un ascolto in cui ci si lascia pervadere,
tipico dei non-musicisti. Una musica di danza, concludono gli autori,
produce maggiori risposte motorie rispetto ad altri generi; tutte queste
risposte dipendono da sesso, costituzione ed età, come pure fattori
temporanei quali alcool e fatica.
1.2.3. Percezione musicale
Il nostro sistema cognitivo può essere immaginato come un
computer nel quale ogni componente ha una sua funzione ed interagisce
con gli altri. Alla base in ingresso, vi sono i dati che giungono dal mondo
esterno attraverso i sensi che, tramite livelli progressivamente più alti di
elaborazione, arrivano al magazzino delle nostre conoscenze. Il percorso
di elaborazione dell’informazione perciò viene diviso in processi di basso e
alto livello: nei primi stadi vi sarà una precedenza ad elaborare lo stimolo
32
32 L’elettromiografia misura i fenomeni elettrici che accompagnano la contrazione dei muscoli.33 Il sistema nervoso autonomo è in relazione ai fenomeni involontari.
per “quello che è” cioè sulle sue caratteristiche fisiche, successivamente
per “quello che sappiamo” di esso confrontandolo con la nostra
esperienza immagazzinata nella memoria e quindi il significato.
Allo stesso modo, possiamo immaginare la percezione acustica/
musicale come il percorso dell’informazione sonora che dagli organi di
senso (orecchie) giunge, attraverso zone intermedie di elaborazione, a
quelle esterne di astrazione. In questo percorso le vibrazioni acustiche
sono tradotte dapprima in impulsi elettrochimici, successivamente in
“eventi”, cioè rappresentazioni cognitive della scena uditiva (Koelsch e
Siebel 2005).
Come affermano nell’ambito delle neuroscienze Peretz e Coltheart
(2003), l’elaborazione cognitiva della musica non è un’entità monolitica,
piuttosto, è un’architettura divisa in più parti, in cui ognuna di queste è
specializzata nel suo compito. Lo spettro acustico che giunge alle nostre
orecchie, cioè un insieme di suoni generati da diverse fonti, viene in un
primo momento analizzato negli attributi acustici come altezza, intensità e
timbro, in un secondo momento viene elaborato, attraverso principi che
permettono di aggregare o segmentare gli elementi del campo percettivo
estraendone le relazioni e dar loro significato34, in quei processi di
raggruppamento e di segregazione che involvono melodia, ritmo e timbro
(Deutsch 1999a). In un terzo momento, si compiono quelle operazioni di
astrazione che riguardano la sintassi musicale (Deutsch 1999b). Queste
regole agiscono seguendo diversi indizi che sono influenzati dalla nostra
esperienza (McAdams 1996). La nostra esperienza – o come la chiamano
Koelsch e Siebel (2005) il significato – interagisce con ogni livello di
33
34 L’organizzazione percettiva avviene attraverso le regole di raggruppamento della Gestalt teorizzato da Wertheimer (1923) e Koffka (1935).
analisi, ma soprattutto con l’emozione, dunque questa è presente in ogni
stadio percettivo.
1.2.4. Sensoriale vs cognitivo
Argomento molto dibattuto nella psicologia della musica è la
discussione tra innato/acquisito o meglio l’inquadramento delle
componenti musicali in sensoriali e cognitive. Con sensoriale si intende
una componente musicale elaborata nei primi stadi della percezione
uditiva, con cognitiva invece quelle caratteristiche legate alla cultura35. Per
esempio DeWitt e Crowder (1987) associano al sensoriale le teorie
musicali razionali che si basano sulle leggi della natura (come rapporti di
frequenza semplici e serie armonica) al cognitivo le teorie empiriche
basate sul contesto e sull’apprendimento (come ad esempio il contesto
tonale). Per Parncutt (1989) le componenti sensoriali sono quelle legate al
nostro sistema nervoso e al nostro sistema sensoriale, sono dunque
innate e universali (soglie uditive, discriminazioni di altezza, spazialità,
timbro); le componenti cognitive sono quelle acquisite attraverso la
familiarità con le regolarità dell’ambiente umano, subentra la memoria
semantica e dunque si parla di culturale (aspettative musicali,
consonanza). I due approcci, che in letteratura non sono perfettamente
delineati, si distinguono tra psicoacustico e cognitivo; entrambi concorrono
all’analisi e alla comprensione dell’ambiente uditivo/musicale36 in un
singolo sistema integrato (Gibson 1966; 1979).
34
35 Sullo schema della percezione uditiva/musicale si può confrontare in termini neurocognitivi e di intervalli temporali Koelsch e Siebel (2005), in termini di elaborazione dell’informazione musicale McAdams (1996).36 Già la distinzione uditivo/musicale sottintende la distinzione tra sensoriale e cognitivo: uditivo è tutto ciò che ha a che fare con il senso dell’udito, musicale è solo una parte di questo ed implica l’intervento della cultura.
A differenza del linguaggio parlato, la componente sensoriale nella
musica sembra essere maggiormente coinvolta37 in quanto solitamente
accordi in relazione armonica condividono porzioni di spettro armonico
(Bharucha e Stoeckig 1987; Parncutt 1989), tuttavia dagli anni ottanta si
sono avviate una serie di ricerche con il fine di rintracciare nella musica la
componente cognitiva perciò culturale. Il primo studio che cerca di
confermare tale ipotesi è un illuminante esperimento condotto da
Bharucha e Stoeckig (1987) sul priming armonico. Il priming armonico
misura l’aspettativa musicale attraverso tempi di risposta forniti da soggetti
su dei target che corrispondono ad accordi. Esso si basa sul modello
psicolinguistico di priming semantico in cui le parole che sono in relazione
semantica, come ad esempio “dottore” e “infermiera”, vengono elaborate
più velocemente di quelle che non lo sono, come “dottore” e
“pane” (Meyer e Schvaneveldt 1971). Bharucha e Stoeckig (1987) trovano
che, benché vi sia stata eliminata qualsiasi sovrapposizione di toni
(esperimento A) o frequenze (esperimento B: overlapping frequency
spectra), dunque una facilitazione a livello sensoriale, un accordo in
relazione armonica col precedente viene elaborato meglio in quanto segue
le ormai ben codificate regole della sintassi tonale che sono state
acquisite implicitamente con l’esperienza e nell’esposizione all’ambiente
musicale. Vengono condotti altri studi: esperimenti sul corso temporale
(Tekman e Bharucha 1992), sulla variazione del contesto armonico
(Bigand et al. 1999), sulla ripetizione di uno stesso target (Bigand et al.
2005), con la misurazione degli indici encefalici (Koelsch et al. 2004; Patel
2003); tutti questi studi confermano l’ipotesi che la musica viene elaborata
a un livello cognitivo.
35
37 Per il fatto che la musica tonale utilizzi rapporti in qualche modo dettati dalla struttura del suono stesso, in altri termini, le regole dell’armonia tonale sono parzialmente correlate con la struttura psicoacustica del suono; vedi Parncutt (1989).
Concludiamo che, proprio grazie al carattere esclusivamente
cognitivo-semantico, la componente affettiva nella musica gioca un ruolo
determinante. Ricordiamo la teoria di Davies (1978) chiamata
scherzosamente “Tesoro, stanno suonando la nostra canzone”: le nostre
passioni nella musica sono richiamate dal ricordo in cui la musica viene
ascoltata, ricordo che riaffiora in termini di stile, frasi musicali, suoni e
quant’altro. La componente affettiva ha dunque radici profondissime che,
come abbiamo visto, vengono manifestate nelle risposte fisiologiche, e
riemerge nella struttura della musica stessa che richiama la tipologia di
suoni del mondo prenatale. Il fare musica per l’uomo, sembra quasi un
voler ricreare, dunque imitare, una situazione che paradossalmente non
ricorda e non conosce e verso la quale non potrà mai accedere.
36
1.3. Estetica dell’imitazione
Riportiamo un passo della voce “imitazione” dal dizionario di estetica:
l’italiano imitazione deriva dal latino imitatio […], ma viene spesso usato come sinonimo di ‘mimesi’ […], cioè di una nozione che secondo alcuni, la filosofia classica erediterebbe dalla teoria musicale del V sec a.C. e che avrebbe il suo centro significativo originario nella danza; così che ‘imitazione’ sarebbe un sinonimo assai imperfetto - perché semanticamente più ristretto […] – di mimesi (Velotti 1999, 146).
Aristotele dice che imitare è connaturato agli uomini fin dalla
fanciullezza, e che la musica procura sollievo rasserenatore e prepara
all’effetto di catarsi (Wulf 2002). L’imitazione che tratteremo noi tuttavia, da
un punto di vista musicale, non sarà imitazione come copia o
duplicazione, bensì imitazione come «presentazione di qualcosa su un
altro piano» (Velotti 1999, 147). Aristotele sostiene che la musica, insieme
alla danza e alla poesia, non viene esclusa da questo gioco di rimandi in
quanto l’imitazione avviene con mezzi diversi e in maniera differente
attraverso oggetti distinti istruendo perché «induce a scoprire il nesso tra
rappresentazione e rappresentato, [quindi] diletta» (ibidem). La musica in
particolar modo è imitazione dell’ethos perché genera un movimento
interno che esprime un carattere, la musica dunque ha effetti etici ed è
molto importante nella formazione dei giovani
Fino al Settecento l’imitazione ha rappresentato il principio a cui si
sono ricondotte le belle arti, ma è con il romanticismo che non è più a
fondamento dell’arte: arte e natura sono entrambe forze generatrici e
l’artista tanto quanto la natura insiste sull’attività creativa. Tuttavia c’è chi
come Schopenhauer è di tutt’altro pensiero:
37
Come l’essenza dell’uomo sta nel fatto, che la sua volontà aspira, viene appagata e torna ad aspirare, e sempre così continua; [...] così l’essenza della melodia è un perenne discostarsi, peregrinar lontano dal tono fondamentale per mille vie; […] eppur sempre succede da ultimo un ritorno al tono fondamentale. Per tutte codeste vie esprime la melodia il multiforme aspirar della volontà; ma col ritrovare infine un grado armonico, o meglio ancora il tono fondamentale, esprime l’appagamento (Schopenhauer 1819, 349).
Confrontando la musica alla pittura Biasutti afferma che, mentre l’arte
figurativa aveva dei modelli già compiuti da imitare, nell’arte del suono, i
modelli del mondo reale sono presi solo come spunto «e poi elaborati e
modificati in base a vari principi, senza ricercare una stretta
analogia» (Biasutti 1999, 8). Gradualmente, il fare musicale ha lasciato la
mera imitazione sensoriale per lasciare spazio a un approccio più
ragionato (con intervalli, accordi, temperamenti e accordature). Si è
avviata in altre parole un tipo di imitazione sonora addomesticata dalle
regole della combinazione musicale dei suoni.
Commentiamo brevemente il saggio di Favaro (2010) sul camouflage
cercando di declinarlo ai nostri scopi, ovvero all’imitazione musicale. Fin
dai primissimi stadi musicali le note musicali perdono la loro identità per
divenire un qualcos’altro che si va a misurare con la costruzione di una
nuova rappresentazione sonora che implica altri contenuti, forme ed
emozioni (Dufourt 1997). Ci sembra di capire dunque che la musica è
prima di tutto rappresentazione. Rappresentazione di cosa? Se
rappresenta qualcosa significa che in qualche elemento vi sarà allora
imitazione. Prosegue e afferma che in musica vi sono cinque tipi di
imitazione: i) quella in senso stretto, usata anche nel gergo musicale che
corrisponde alla fuga; ii) l’imitazione nel tema e nelle sue variazioni, dove
38
le variazioni non sono altro che il tema principale imitato in maniere
diverse; iii) imitazione come travestimento musicale come nel caso delle
parafrasi lisztiane; iv) l’imitazione di nomi come nel caso di Bach che si
firma sullo spartito in notazione anglosassone; v) l’imitazione di elementi
extra-musicali come nel caso del poema sinfonico e della musica a
programma.
Salvo l’ultimo punto, tutti questi casi di imitazione elencati da Favaro
ci sembrano squisitamente di carattere grammaticale (o meglio formale), e
poco toccano il problema della musica come imitazione di un mondo
extra-musicale. In altri termini, ci sembra che i primi quattro punti siano
casi in cui l’imitazione avviene nel dominio del discorso, cioè con il
referente interno all’opera, mentre l’ultimo punto, il solo caso citato da
Favaro, avviene nel dominio del pensiero, ossia dove il referente è esterno
all’opera, addirittura esterno al sistema musicale.
39
1.4. Retorica musicale
1.4.1. Storia della retorica musicale
Verrà ampliato ora il percorso sull’imitazione, adottando in questo
caso il punto di vista della retorica musicale. Imitazione e
rappresentazione sono qui intimamente connesse, la musica infatti imita il
mondo extra-musicale attraverso la rappresentazione della parola. Quanto
anticipato da Favaro (2010), in merito all’imitazione, è stato approfondito e
dettagliatamente organizzato in diverse figure dalla retorica musicale.
Musica e linguaggio per molti versi si abbracciano, la connessione tra
retorica e musica appare dunque molto stretta e i principi della retorica
hanno profondamente influito sulla composizione musicale, ciò in ragion
del fatto che la musica è stata sin dai primi tempi principalmente vocale,
dunque legata alle parole.
Dall’antichità fino al Medioevo, la musica humana, cioè quella suonata
dagli uomini, era proporzione che doveva rispecchiare, secondo le dottrine
pitagoriche, la musica mundana, cioè quella dei corpi celesti, attraverso
semplici rapporti numerici quali la quinta e la quarta (Macey 2004) –
rispettivamente 3/2 e 4/3. Con l’Umanesimo l’attenzione degli umanisti si
sposta verso l’uomo, fagocitando anche le teorie sulla musica, in cui
trattatisti e compositori, catturati dalla Poetica di Aristotele e dal pensiero
che l’arte viene vista come imitazione della natura, iniziano ad interessarsi
al potere che la musica esercita sulle emozioni. Una duplice mutualità che
vede attivi musicisti e poeti. Per fare un esempio, nel testo della
Deploration per la morte di Binchois, Johannes Ockeghem (1410-1497)
scrive che sia la retorica che la musica piangono per la scomparsa del
40
musicista (il quale era anche l’autore di molti testi da lui intonati). Ecco
come Gallo commenta il ricorso alla retorica da parte dei musicisti:
Questa instancabile ricerca dell’artificio, questa perenne esibizione di virtuosismo tecnico caratterizzano tanto la musica dei “fiamminghi” quanto la poesia rhetoriqueurs. Era probabilmente l’unica possibilità per gli artisti di sfuggire alle costrizioni dell’ambiente di corte. (Gallo 1991, 114)
Un primo significativo segno di interazione tra retorica e musica si ha
con Heinrich Isaac (1450-1517) e Josquin Desprez (1450-1521),
l’abbandono delle forme fisse38 permette ora ai compositori di essere più
liberi di muoversi e quindi esplorare più intimamente la relazione tra testo
e musica.
È interessante da questo punto di vista Clement Janequin (1485-1558)
che trasforma la chanson francese in quella che viene chiamata dai
musicologi “chanson a programma”39 per il rapporto imitativo che la
musica intrattiene con il testo (Brown e Freedman 2001; Ulrich 1977).
Janequin, come molti francesi del suo tempo, è molto attento a far aderire
la melodia al ritmo delle parole attraverso un un flusso ritmico
estremamente flessibile che esce dalla misura. L’aspetto più importante,
tuttavia, è la presenza di effetti onomatopeici quali fanfare, canto d’uccelli
e urla da strada come ad esempio nella chanson Le chant des oyseaulx il
cui testo racconta del risveglio primaverile dove si riproduce il canto degli
uccelli, anticipando di quattrocento anni quello che avrebbe fatto
l’ornitologo Messiaen per pianoforte nel suo Catalogue d’oiseaux.
41
38 Le forme fisse sono le strutture tipiche delle musiche da ballo del Trecento in cui la sezione musicale e quella testuale si univano rispettando precise regole fisse proprie di quella forma (rondeau, virelai, ballade, chanson).39 Il termine “a programma” viene preso in prestito dalla musica strumentale romantica.
Durante il Cinquecento l’attenzione per la parola cresce anche per un
altro motivo storico, e cioè in seguito all’affissione delle 95 tesi di Lutero
nel 1517, che mirava, con l’utilizzo della lingua volgare nei riti religiosi, a
una maggiore partecipazione da parte dell’assemblea. La chiesa romana
convoca il Concilio di Trento nel 1543, dal quale emergono tra i tanti
anche criteri di carattere musicale: i) esclusione di musiche profane nel
servizio liturgico; ii) chiarezza del testo che oltre a suggerire norme di
corretta accentazione latina; iii) l’uso della monodia accompagnata al fine
di sostituire la polifonia che ostacola la perfetta comprensione del testo. La
chiesa dunque vuole tenere ben separati i repertori profani e liturgici e
mira a una musica che non deve essere composta «per un vacuo diletto
delle orecchie», ma per conquistare i cuori degli ascoltatori nella
«contemplazione dei beati» (Spanu 1999, 592). Il testo allora acquista una
posizione centrale, viene eliminata la polifonia dal culto e si prescrive
l’integrità dei testi liturgici in quanto anche una sola parola può fare la
differenza tra un cattolico e un protestante.
La parola occupa allora nel Cinquecento, un ruolo centrale e
dev’essere immediatamente accessibile; l’arte musicale diviene, con
parole di Monteverdi, quella seconda prattica dove «l’oratione sia padrona
dell’armonia e non serva»40. Nell’incontro tra parola e musica occupa un
posto di rilievo, sia per qualità sia per quantità, il madrigale italiano
(Hammerstein 1988), che è la forma musicale perlopiù profana più diffusa
del XVI secolo. Dagli anni ‘30 fino alla fine del Cinquecento il testo
acquista talmente tanta importanza che i compositori si misurano nella sua
interpretazione e nel rappresentare la parola.
Nel Madrigale l’aderenza alla parola può avere diversi gradi:
42
40 In contrasto con la prima pratica in cui la musica dominava la parola.
osservanza della struttura tecnica e prosodica; illusione visiva e pittura sonora dei riferimenti naturalistici; illustrazione d’affetti; espressione di contenuti psicologici e moti sentimentali (Gallico 1978, 85).
Se è vero che, come scrisse Liberati in una lettera del 1685, «la
musica sia servile alle parole, e non le parole alla musica» si auspicherà
una retorica musicale opposta al contrappunto41, un ritorno alla purezza
della melodia in favore di una maggior intelligibilità del testo.
1.4.2. I madrigalismi
Come già detto, di notevole importanza per la musica occidentale è il
madrigale italiano, la cui novità consiste proprio nel rivedere il rapporto tra
musica e testo (Privitera 2004), anzi, il madrigale «rappresenta dunque la
fine di un rapporto di indifferenza tra il testo e la musica» (Ponzio 2009,
126). Questo fenomeno è stato reso possibile dall’abbandono della forma
strofica che permette al compositore di aderire ai contenuti semantici della
parola o del testo senza più ricorrere alla forma fissa che si ripete: ad ogni
verso corrisponde una frase musicale.
Il madrigalismo42 è lo strumento prediletto dei compositori di
madrigali e consiste nella «rappresentazione pittorica delle
parole» (Macey 2004, 318) che può avvenire sia in veste sonora che in
veste grafica. Il caso più semplice di madrigalismo può essere inquadrato
nell’onomatopea, ossia nel mimare musicalmente i suoni del mondo extra
musicale come ad esempio una battaglia, il canto degli uccelli o le onde
del mare. Corrisponde a una precisa figura retorica cioè all’ipotiposi – così
43
41 Che ha caratterizzato l’epoca precedente, tanto che il Quattrocento viene spesso designato come “epoca d’oro della polifonia”.42 Nel Grove lo troviamo alla voce “Word painting” (cfr. Carter 2001).
importante che Burmeister nel 1606 la inserisce nel suo trattato di retorica
– che comprende una vasta sottoclasse di figure retoriche, molte senza
nome, che servono ad illustrare parole o idee (Wilson et al. 2001). Alcuni
esempi di ipotiposi tratti da Kircher si rintracciano nell’anabasis e nella
catabasis che rappresentano musicalmente la salita e la discesa, o nella
circulatio che corrisponde alla descrizione del “girare” attraverso una
melodia di otto note congiunte che partono e arrivano da/allo stesso
punto.
Un’eccessiva aderenza al testo tuttavia rischia di diventare una sterile
e vacua espressione manierista. Vincenzo Galilei ad esempio, nel suo
Dialogo della musica antica del 1581, considerava le rappresentazioni
pittoriche dei compositori di madrigali capaci di suscitare solamente ilarità,
anziché una seria reazione emotiva, egli appoggiava l’idea che una nuova
musica dovesse basarsi sulla monodia accompagnata piuttosto che
sull’escogitare nuovi mezzi per rappresentare la parola (Macey 2004,
331). In questo modo si apre la via al Barocco e ritornando alla purezza
della monodia.
Non tutto però viene percepito uditivamente, il madrigalismo può
essere anche visivo43, ed è il caso di quelle musiche in cui il significato
della parola viene rappresentato visivamente attraverso la simbologia
musicale sulla partitura. Grazie al sistema di scrittura musicale occidentale
semi-simbolico, per cui non totalmente arbitrario, molti madrigalismi visivi
sono anche sonori: ad esempio, il metodo più elementare per
rappresentare il “salire” è quello di utilizzare una scala ascendente, e ciò
corrisponde sia sul piano visivo che su quello uditivo.
44
43 Nel Grove lo troviamo alla voce “Eye music” (cfr. Dart 2001).
Un caso abbastanza comune nei compositori tra XVI e XVII secolo
era quello di sfruttare i colori delle note, come avviene nel madrigale
cromatico in cui le note nere44 potevano richiamare concetti come “notte”,
“cecità”, “morte” e così via (Dart 2001). Vi sono altri esempi: una croce
viene rappresentata da una nota col diesis45; cinque perle vengono
rappresentate da cinque note bianche (Carter 2001). Un esempio molto
noto è “l’autografo melodico” di Bach sulla partitura: grazie alla notazione
anglosassone è possibile utilizzare le lettere dell’alfabeto fino alla “H”46.
Orlando di Lasso, seppur di origine fiamminga, preferiva la pronuncia del
suo nome italiana allo scopo di inserirsi nella partitura con la successione
melodica LA-SOL. Un esempio attuale di madrigalismo visivo lo troviamo
negli Elio e le storie tese, nella canzone Burattino senza fichi: la melodia
che il burattino Pinocchio canta è composta sulle note FA-RE-MI-DO
esattamente mentre il testo recita “quanto da fare mi do”.
1.4.3. La trattatistica barocca
Come conseguenza della stretta relazione tra retorica e musica,
l’estetica della musica barocca si basa sugli affetti47 (Butler 2004):
attraverso la retorica bisogna prima di tutto suscitare gli affetti
dell’ascoltatore. Come dice Zarlino (1558), la musica deve commuovere
l’anima e disporla per i vari affetti, i compositori ora pianificano
razionalmente il contenuto affettivo dell’opera e si attendono determinate
risposte emotive dal pubblico. Mentre nel Cinquecento italiano i
45
44 Le più brevi, siamo nella notazione mensurale bianca (Vedi Apel 1962).45 In tedesco il diesis è kreuz, ossia “croce” in italiano.46 Nel caso specifico si avrà che B: SIb; A: LA; C: DO; H: SI naturale.47 Dal latino affectus, l’equivalente al greco pathos.
procedimenti retorici erano impiegati per lo più nell’aderenza tra testo e
musica, ora nel Seicento tedesco il motivo principale è muovere l’affetto.
Nasce in Germania e si codifica la Affektenlehre, ossia la teoria che
applica alla musica barocca le regole della retorica classica, che produce
e mantiene per quasi due secoli una lunga serie di trattatisti.
Il primo vero trattato di retorica musicale appartiene a Joachim
Burmeister, il quale, nel suo Musica poetica del 1606, supera l’approccio
abbastanza intuitivo dei suoi predecessori che affidavano ai modi
ecclesiastici il potere di veicolare determinate emozioni. Secondo Zarlino
ad esempio i modi con la terza maggiore (DO-FA-SOL) sono vivaci e allegri,
mentre quelli con la terza minore (RE-MI-LA) sono tristi e dolci (Macey
2004). Burmeister (1606) ritiene che la figura retorica è più efficace
dell’ethos modale nel muovere gli affetti. L’applicazione dei principi retorici
per lui dev’essere un allontanamento dal classico modo di comporre
basato fino a d’ora sulle normali regole del contrappunto. Appare
significativo che, sebbene la normale prassi rinascimentale vedesse nei
procedimenti imitativi una pratica da usare con parsimonia, se non
addirittura da evitare48, di ventisei figure elencate nel suo trattato, ben due
terzi riguardino l’imitazione. La sua suddivisione è di carattere, diremmo
noi oggi, sintattico o grammaticale: vi si trova infatti una ripartizione in
figure che riguardano la melodia, l’armonia o entrambe. Tuttavia per
questo motivo è stato oggetto di critica per non aver dato il giusto spazio
agli affetti e di aver semplicemente elencato una serie di artifici volti alla
composizione musicale.
Ereditando il pensiero di Burmeister, Johannes Nucius pubblica nel
1620 il Musices Poeticae trovando un’originale analogia tra i colori del
46
48 cfr. analisi del miserere di Josquin in Macey (2004).
pittore e la retorica per i compositori, in assenza della quale l’opera
musicale è priva d’arte e risulta noiosa. Egli incita i compositori a imitare le
figure retoriche dell’oratoria affinché anche la musica possa acquisire
varietà ed eleganza. Sempre a Nucius si deve la suddivisione gerarchica
tra figure principali e secondarie. Christoph Bernhard, nel Tractatus
compostionis augmentatus del 1657, seguendo il pensiero di Nucius sulla
suddivisione tra figurae principali e secondarie facendo, fa derivare le
prime dalla retorica classica e le seconde dalla prassi esecutiva che
chiama figurae superficiales. Con la metà del Seicento le discussioni
teoriche si concentrano sulla potenza affettiva delle figure e sulle emozioni
che esse suscitano nell’ascoltatore come ad esempio si osserva nel
Musurgia universalis sive ars magna consoni et dissoni di Kircher del
1650, in cui si sostiene che le figure di ripetizione servono ad esprimere
emozioni come la ferocia e lo sprezzo.
Col Settecento si inizia a sentire l’influsso dell’Illuminismo e le figure
iniziano ad essere catalogate sotto la tendenza alla classificazione della
conoscenza in generale. Nei Musicalische Sommer-Gespräche di Ahle
(1698), si indica al compositore che in un primo tempo deve analizzare il
testo da mettere in musica, successivamente musicarlo piegando la
musica in modo da rendere più evidente la figura retorica impiegata nel
testo; si consiglia inoltre di utilizzare in musica le stesse figure retoriche
dell’oratoria usate nel testo. Nella lunga trattatistica sulla retorica musicale
non manca nemmeno chi come Vogt, nel 1719, consiglia l’uso di alcool
per stimolare la fantasia del compositore per l’inventio musicale. Di forte
influsso illuminista, appare l’opera di Johann Mattheson, Der vollkommene
Kapellmeister del 1739, che estende la retorica a tutti i parametri della
musica e propone al compositore di formarsi un quadro completo di tutte
le emozioni e di comporre la musica di conseguenza. Suggerisce una
47
distinzione tra passioni semplici e passioni complesse che combinano più
passioni semplici: il compositore deve tenere conto di questo e
comportarsi di conseguenza adottando una figura per ogni passione. Ad
esempio raggruppa orgoglio altezzosità arroganza e consiglia di utilizzare
per queste passioni tempi lenti, figure musicali che richiedono serietà e
sempre ascendenti. Nel suo impianto teorico trova spazio anche per
organizzare le sezioni della retorica classica come dispositio, confutatio,
narratio ed esclamatio e metterle in relazione alla forma musicale. Ad
esempio l’esclamatio viene suddivisa in tre categorie: la prima vede
dominare la gioia, la seconda il desiderio e la terza le grida di
disperazione. Mattheson infine proseguendo nel pensiero di Vincenzo
Galilei, disapprova l’abuso da parte degli esecutori di tali figure retoriche
perché gli appare che le usino in eccesso e nei luoghi sbagliati.
Mentre nel corso del Seicento si comincia ad abbandonare la parola in
favore di una musica strumentale, che culminerà nella musica assoluta
dell’Ottocento, molto più illuminista di Mattheson appare il Der critischer
musicus del suo contemporaneo Scheibe (1745) in cui si propone al
compositore di non imitare semplicemente le figure retoriche dell’orazione,
ma di scegliere quelle che sono naturali per la musica in quanto le prime
appartengono a un dominio estraneo a essa.
Verso l’Ottocento si va a perdere quasi totalmente la nozione di
espressione retorico-musicale, tanto che, nel suo compendio storico
redatto tra il 1788 e il 1801, Johann Nikolaus Forkel ammette che la
conoscenza della retorica musicale è andata perduta. Tuttavia qualche
traccia della retorica degli affetti rimane: alcuni autori appoggiano l’idea di
dover creare un contrasto attraverso la varietà degli affetti, in quanto
questa rispecchia meglio di quelli singoli la psicologia mutevole dell’uomo.
48
1.5. La Pubblicità
1.5.1. Musica come attrazione
Si conclude questo percorso introduttivo delineando una breve storia
della musica utilizzata nella pubblicità. Si proseguirà con alcuni pensieri ad
essa rivolti: sulla sua influenza, sulla sua struttura e sulle sue funzioni.
Verranno toccati brevemente anche il jingle e la musica nei luoghi di
consumo. La preistoria della pubblicità risale al medioevo, più
precisamente al tempo in cui i venditori cantavano le qualità del proprio
prodotto per catturare l’attenzione dei passanti. Questi canti vengono
chiamati street cries (Stilwell 2001), letteralmente “urla da strada”. Il più
antico esempio conosciuto, che è un mottetto a tre voci, ci è rimasto nel
Codice di Montpellier n. 319 del XIII secolo. Delle prime forme di street
cries non si sa molto: la voce era accompagnata da strumenti rumorosi
quali trombe e tamburi allo scopo di attirare l’attenzione.
La storia della musica per pubblicità, ha in ogni modo inizio solo da
quando la stampa è diventata economica. Durante il XIX secolo le urla da
strada si tramutano in jingle stampati su cartoline, riviste e giornali, ma
non muoiono completamente: nei grandi magazzini della costa orientale
degli Stati uniti vengono allestite orchestre per allietare il consumatore
negli acquisti. Già all’indomani della prima guerra mondiale le musiche
utilizzate per i grandi magazzini segmentavano la clientela. Le urla da
strada scompaiono definitivamente in favore delle registrazioni con la
possibilità di fissare il suono su un supporto.
La musica è entrata nella pubblicità radiofonica per rendere meno
sgradevoli i comunicati pubblicitari parlati (Julien 1989). È una
49
componente privilegiata dello spot in quanto attiva «associazioni affettive,
emozioni, [e] desideri irrazionali» (Simeon 1995, 81). Anche quando il
prodotto pubblicizzato non ha nulla di pregiato da vantare come nel caso
della margarina, l’accostamento con una musica “barocca” lo eleva
(Motte-Haber 1982).
In linea generale la musica negli spot deve essere corta,
accattivante, ritmica e che presenti analogie con il testo verbale (se
presente); non si escludono doppi sensi di carattere sessuale. Diversi
sono i procedimenti per cui viene scelta una musica esistente: i) si sceglie
una canzone per una parola che nel testo si intona al prodotto come nel
caso di True colors di Cyndi Lauper per la Kodak; ii) si cambia parte del
testo di una celebre canzone per declinarlo ai contenuti del prodotto da
pubblicizzare, ad esempio You’re givin’ me good vibrations dei Beach
Boys diventa Sunkist’s giving me good vibration; iii) si sceglie una musica
per un particolare contenuto testuale ed è il caso della famosa apertura di
Einstein on the beach di Philip Glass (1947-) usata dalla Orange
Communication (Stilwell 2001).
1.5.2. Musica nella pubblicità
Nel 1982 Gerald Gorn pubblica un pionieristico articolo con l’intento
di dimostrare che la musica di sottofondo in una pubblicità influenza
l’acquisto da parte dei consumatori del prodotto pubblicizzato.
Nell’esperimento, due gruppi di soggetti vengono esposti a semplici
immagini di penne accompagnate da musiche considerate dai
partecipanti, attraverso un pre-test, come piacevoli o non-piacevoli;
successivamente si presenta un’opportunità di acquisto. Dai risultati
emerge che i soggetti preferiscono le penne pubblicizzate con la musica
50
che essi ritengono più piacevole. Le ipotesi di Gorn vengono dunque
confermate: un affetto positivo verso la musica influenza la scelta
all’acquisto.
Benché la musica appaia importante ai fini della memorizzazione e
del riconoscimento del prodotto, oltre al fatto che contribuisca alla
costruzione dell’identità e ai processi di aggregazione giovanile, Ala e
Ghezzi (1983) si domandano come mai in Italia la ricerca trascuri il potere
degli elementi musicali nella pubblicità. La musica nella pubblicità ha un
ruolo fondamentale che spesso si sostituisce al parlato: attrae e seduce
con atmosfere sapori e sensazioni (Spaziante 2005). Come sottolinea
Cinzia Bianchi, la pubblicità in questi ultimi anni lascia sempre meno
spazio alla narratività per concentrarsi sulle passioni e sulle emozioni
«basando la propria efficacia sulla presentazione di sensazioni collegate
al prodotto o alla marca» (Bianchi 2005, 15-16).
Linda Scott (1990) sostiene però che gli studi sulla musica in
pubblicità debbano avere una concettualizzazione più complessa della
semplice dicotomia basata sul piacere. D’accordo con Dowling e Harwood
(1986), che il riconoscimento e la comprensione della musica si acquisisca
attraverso gli anni di acculturazione personale e che venga attivata dalla
memoria49, Scott appoggia l’idea che le implicazioni culturali nella fruizione
della musica in pubblicità siano enormi. Come un segno può svolgere
diverse funzioni o può essere sostituito da un sinonimo e come in musica
il tono (altezza tonale, pitch) non ha significato in sé, ma lo acquisisce solo
in un contesto armonico, allora il significato di un segno può essere
estrapolato solo dal contesto in cui compare. Analogamente la musica
nella pubblicità può essere compresa solo nella relazione con le altre
51
49 Sull’apprendimento implicito cfr. Tillmann e collaboratori (2000).
componenti quali immagini e parole. Commentando Langer (1942), Scott
afferma che il significato di una pubblicità è una speciale costellazione di
tutte le connotazioni implicate. Si viene a creare una struttura
grammaticale che non è un simbolo, ma ha una missione “simbolifica”,
ovvero lega diversi simboli, ciascuno con almeno una connotazione
frammentaria, per dare vita a un termine complesso. Ogni singola
componente (parole, voce, musica, colori e forma) dunque interagisce
dinamicamente con le altre al fine di creare una rete di significati, che
vengono interpretati utilizzando un’esperienza culturale condivisa.
Per Ala e Ghezzi (1983), la musica ha il potere, grazie a quella sorta
di “ingegneria genetica”, di manipolare i nostri sogni e i nostri desideri, di
riassemblare «secondo la logica propria di questo apparato, archetipi e
riserve collettive di simboli» (Lombardi Satriani 1973; Ala e Ghezzi 1983,
104-5). La musica nella pubblicità è popular music, musica di massa per le
sue caratteristiche estetiche, sociologiche e commerciali, è una “musica
d’uso” alla Erik Satie o una “musica d’ambiente” alla Brian Eno50. La
pubblicità attinge alla letteratura musicale a piene mani, si appropria
senza attenzioni di simboli, di associazioni e di attributi di valore. Opta per
messaggi musicali stereotipati per ridurre al minimo l’incertezza alla
ricerca dell’efficienza e della persuasività del messaggio.
Simeon (1995) ritrova nella musica per la pubblicità tre principi
associativi: i) una musica diegetica, dove svolge un ruolo narrativo come
nel caso in cui si rappresenti un party; ii) una musica che risponde a criteri
analogici sottili, come ad esempio se si vuole reclamizzare un olio si
opterà per «un suono morbido e delicato, ancora abbastanza vicino
all’oggetto» (Motte-Haber 1982, 103); iii) una musica scelta secondo criteri
52
50 cfr. Muzak in Marconi (2001b).
apparentemente arbitrari. Simeon fa notare che in quest’ultimo caso,
sebbene la scelta musicale appaia arbitraria, la musica viene utilizzata per
veicolare concetti quali «bellezza, pulizia, felicità e potenza» (Simeon
1995, 82).
Per Marconi (2001b) invece, la musica nello spot assolve
principalmente due funzioni: spettacolarizzare e sorprendere. Per
“spettacolarizzazione”, esso vede che il messaggio pubblicitario non
appare più come forma di argomentazione critica, piuttosto come uno
spettacolo da fruire esteticamente «sulla base di opposizioni quali bello/
brutto, piacevole/spiacevole, divertente/noioso o coinvolgente/straniante
(Delalande 1993)» (Marconi 2001b, 684). Per quanto riguarda il
“sorprendere” la musica nella pubblicità ha il fine di attirare l’attenzione,
sfruttando accostamenti insoliti tra parola immagini e musica piuttosto che
attraverso l’utilizzo di musiche sconosciute:
famosi creativi […] hanno sempre cercato di suscitare sorprese e meraviglie […]; hanno sempre stimolato l’immaginazione del pubblico, captandone l’attenzione c o n a r g o m e n t i l o n t a n i d a l p r o d o t t o pubblicizzato» (Gazzara 1993, 98).
Secondo Eco (1968), nel registro visivo la figura retorica
predominante in pubblicità è l’antonomasia. Riprendendo Eco, Marconi
(2001b) ritrova che analogamente l’incipit della Sinfonia n. 40 di Mozart
rappresenta la specie “Musica di Mozart”, un riff di chitarra rappresenta il
rock, una settima e nona stanno alla dissonanza come un accordo
maggiore alla consonanza. Per attribuire un certo valore a questi
frammenti egli ritiene che è necessario ricorrere ad associazioni
stereotipate. A tal proposito, Ala e Ghezzi (1983) presentano il caso
dell’aspirina Bayer. In questo spot si osservano diversi primi piani di
53
persone rappresentano il bacino di utenza del prodotto, ad ogni persona
corrisponde una fascia d’età che viene rappresentata da uno strumento
preciso. Ai bambini ad esempio è associato il pianoforte che sembra un
carrillon, agli adolescenti il flauto, ai ventenni le chitarre elettriche, ai
trentenni l’armonica a bocca e ai quarantenni i violini. Viene sfruttato
dunque il potere dell’associazione tra genere musicale e fascia d’età.
Elogiando il mondo rumoristico delle casalinghe riprodotto dai
pubblicitari, gli autori, elevano la musica a “bene di lusso” per via della sua
“inutilità”. Il mondo delle pulizie è solitamente rumoroso e privo di musica,
individuano un’equazione secondo la quale se il rumore è uguale alla
sporcizia e il silenzio al pulito, in uno spot con commento sonoro, la
musica si oppone al rumore e quindi viene associata al pulito. In merito al
target giovanile sostengono che è il sound ad attrarre i giovani: portano ad
esempio il blues utilizzato dalla Brooklyn e dalla Levi’s o la canzone
d’autore italiana per i gelati Algida. Sempre in merito al sound la musica
elettronica ha il potere di connotare il “futuro”, quindi la tecnologia51,
prodotti tradizionali nobilitati e ridefiniti, “precisione”52.
Da un punto di vista strutturale, essi osservano che per rispettare un
tempo che va dai quindici ai sessanta secondi, si ricorre a un’economia di
elementi, in cui il più delle volte risulta necessario suddividere la forma
musicale in due parti. Vi sono allora due temi che non sempre compaiono
in una dimensione prettamente musicale: questa bipartizione va più
54
51 Si tenga presente l’articolo di Ala e Ghezzi è del 1983, probabilmente oggigiorno le cose sono diverse.52 Se la realizzazione musicale appare molto difficile o addirittura impossibile da eseguire per un musicista si connota un maggior senso di tecnologia.
interpretata come una domanda-risposta53, il cui intento si individua nel
tentativo di evitare la ridondanza.
Secondo Marconi, solitamente, la canzone pubblicitaria
è di breve durata, e ha una linea melodica e un profilo ritmico molto semplici ed evidenti, con un’articolazione fluida, una velocità media, gradi in prevalenza congiunti, ambito non troppo ampio, regime tonale-modale normale, qualità timbriche familiari e una certa semplicità nell’organizzazione strutturale discorsiva. (Marconi 2001b, 688)
1.5.3. Il jingle
Il termine jingle rivela origini antichissime il cui significato oscilla tra il
suono onomatopeico di gingilli e la composizione orale caratterizzata da
ripetizioni e alliterazioni. In ogni modo, il termine si riferisce a un’emissione
sonora “primordiale” che «ha la particolarità di porsi come segnale
acustico percussivo e di attrarre immediatamente l’attenzione di chi
ascolta» (Gazzara 1993, 93).
Alla voce “Jingle” nel dizionario della musica e dei musicisti, Grove,
si trova che il jingle è una composizione musicale destinata allo scopo di
promuovere un prodotto; spesso cantato, ma anche strumentale, se
cantato è composto da due versi uniti da una rima (Miranda-Pérez 2001).
Come nel caso della musica negli spot anche il jingle vede le sue prime
apparizioni nel XIX secolo in forma di “musica a stampa” in figurine e
periodici, ma è con l’avvento della radio che diventa un efficace strumento
nelle mani dei pubblicitari. Il primo jingle della storia della pubblicità di
55
53 Negli spot, la forma musicale bipartita si rintraccia solitamente nella contrapposizione musica/parlato, voce maschile/femminile e così via.
massa risale al 24 dicembre 1929; a testimoniare l’eredità dalle street
cries, sta il fatto che è stato inciso dai proprietari stessi dell’attività che
veniva pubblicizzata (Gazzara 1993).
Secondo Burner (1990) un messaggio cantato viene memorizzato
più facilmente di uno parlato anche se accompagnato musicalmente, per
questa ragione i pubblicitari preferiscono i jingle cantati. Si usano spesso
canzoni famose su cui viene adattato un testo che elogia il prodotto,
oppure si ricorre ad associazioni stereotipate come una musica irlandese
per un whisky e una sudamericana per il caffè. Per Spaziante il jingle
«ricopre, da un certo punto di vista, il ruolo che il logo ricopre nella
comunicazione visiva: un elemento minimale che riassume in poco spazio-
tempo un’alta densità semantica» (Spaziante 2005, 158).
Nello spot dev’essere riconoscibile in pochi tratti, proprio come il logo
o la headline rispettivamente nel dominio del visivo e del verbale. Sul
piano uditivo lo contrapponiamo al commento sonoro dello spot come il
logo nel visivo al visual: entrambi non devono necessariamente essere
coerenti con i rispettivi visual e sonoro che variano di spot in spot, ma lo
devono essere con l’immagine di marca. Il jingle dev’essere ricordato, per
questo motivo lo troviamo il più delle volte in rime baciate e ridondanze sia
melodiche che fonetiche e dev’essere il più semplice e familiare possibile
(Marconi 2001b). Spesso le parole chiave vengono ripetute per ottenere
una maggiore interazione con il consumatore, nella speranza che il jingle
venga citato anche in situazioni estranee al mondo della pubblicità
(Gazzara 1993).
56
Buona parte dei jingle si basano sulla scala pentatonica54, in termini
semiologici si ipotizza un restringimento di codici, perciò è una che viene
scelta in nome di una facile memorizzabilità (Ala e Ghezzi 1983). Le
melodie basate sulla pentatonica non hanno un percorso ben delineato a
differenza della scala diatonica e in un certo modo viene a mancare
l’elemento temporale. Citando Mellers (1981), i due autori affermano che
l’utilizzo della pentatonica porta a un processo di identificazione più che di
ricerca dell’identità. La pentatonica comporta l’identificazione con la
musica e di conseguenza con il prodotto, è un «dimenticare il nostro
mondo per immergerci in quest’altro, una venerazione di carattere
religioso» (Ala e Ghezzi 1983, 116).
1.5.4. Musica nei luoghi di consumo
Marconi (2001b) fa notare che la musica viene sfruttata anche nei
luoghi di consumo al fine di combattere il silenzio, coprire i rumori di fondo
e quindi distogliere l’attenzione, ma soprattutto per rendere confortevole
l’ambiente. Si preferiscono musiche euforiche per invogliare l’acquirente e
metterlo in un atteggiamento favorevole all’acquisto. La melodicità non
dev’essere troppo coinvolgente per non attirare troppo l’attenzione, ma
dev’essere sufficiente a far sentire la presenza di una voce amica (Stefani
e Marconi 1992). La velocità della musica in questi luoghi dev’essere
moderata, evitando la lentezza che toglie motivazione, e l’eccessiva
velocità che lo induce a concludere rapidamente l’esperienza di
57
54 La pentatonica è la scala composta da cinque suoni di origine africana che è alla base del blues e del jazz. Oggi si ricava dalla scala maggiore diatonica privata del IV e VII grado, cioè il tritono (la dissonanza per antonomasia), ciò la rende abbastanza ambigua da essere utilizzata in più contesti armonici (oltre alla tonalità a cui appartiene anche le due tonalità adiacenti nel circolo delle quinte) ed estremamente cantabile, quindi memorizzabile.
consumo55. Con la dinamica si spinge ad eccitarlo quando nel mattino è
assonnato, e a calmarlo nel tardo pomeriggio dopo una giornata di lavoro.
Molto importante è il fatto che per ogni tipologia di consumatore si sceglie
una musica adatta, così una musica per giovani favorisce la loro
identificazione e una correlazione tra l’essere giovani ed essere acquirenti.
58
55 Riguardo al tempo, Tagg (1981) fa notare che si cerca di sincronizzare i movimenti del consumatore al ritmo della musica.
1.6. Risoluzione
In questo breve percorso sono stati portati dati a favore della tesi che
la musica presenta forti analogie con il linguaggio naturale e sembra
essere un’esperienza molto importante per l’uomo. È stato osservato, da
un punto di vista estetico, che l’imitazione è un’attività connaturata
all’uomo ed è molto presente in musica. La retorica musicale, che si
adagia su quella oratoria, nel caso dei madrigalismi ha lo scopo di
rappresentare, dunque imitare, un mondo extra-musicale.
Tra tutte le arti la musica ci appare – e ci scusiamo per il “musico-
centrismo” – quella più vicina all’uomo, quella più naturale, per due motivi:
in primo luogo utilizza il suono, medium preferenziale del linguaggio, in
secondo luogo, come abbiamo visto con Rousseau e Darwin, sembra
essere antecedente a quest’ultimo. La musica inoltre sembra essere
strutturata secondo una grammatica che per molti versi, e che tra poco
approfondiremo, è simile a quella del linguaggio.
L’importanza della musica non solo è nota agli psicologi che la
studiano, ma anche all’uomo della strada, in particolar modo al titolare del
grande magazzino, che vuole rendere confortevole l’esperienza di
acquisto dei suoi consumatori. Da quando è stato possibile fissare il suono
su un supporto stabile, ma soprattutto diffonderlo ad altre persone in tempi
e spazi differenti dall’hic et nunc, la musica non ha più abbandonato la
pubblicità. La musica negli spot attiva associazioni affettive, aiuta a
memorizzare un testo verbale, attrae e seduce, può raccontare e
sorprendere, nonché farsi venerare. In che modo si attivano questi
processi? Come è possibile che una serie di soli sette suoni riesca a
produrre determinati effetti di senso? Qual è allora il significato della
musica?
59
Lo sviluppo, la parte centrale della forma sonata, consiste nel far
interagire i temi musicali. In questa sezione del nostro lavoro si tenterà di
sviluppare e far dialogare tra loro i concetti precedentemente esposti, in
particolar modo il capitolo è stato diviso in tre parti, la prima dedicata alla
semiologia musicale, la seconda in cui si analizza la musica con gli
strumenti forniti dalla linguistica, e un’ultima sezione in cui le figure
retoriche dell’imitazione vengono disposte in un continuum di analogia.
Per quanto riguarda la semiologia della musica si farà riferimento alle
ricerche condotte sui significati evocati dagli intervalli, dalla melodia e
dalla strumentazione utilizzata. Saranno decisive al fine della nostra
argomentazione le parti dedicate alla musica come imitazione di un
qualcosa di esterno ad essa come ad esempio le espressioni vocali e i
movimenti spaziali in cui si approfondirà la tecnica cinematografica del
mickey-mousing.
La nostra ipotesi è relativa alla possibilità che il sistema musicale e
quello linguistico condividano numerosi aspetti. In particolare si
prenderanno in esame gli elementi fonologici, morfologici e sintattici e
saranno prese in esame le differenze tra le culture orali e quelle basate
sulla scrittura. Porremo particolare attenzione sulla semantica musicale
tentando di conciliare le teorie sul significato musicale proposte dalla
psicologia cognitiva e dalla semiotica. Utilizzando l’implementazione del
modello di percezione dei suoni al fine di delineare una struttura del segno
musicale che possa abbracciare le varietà musicali del Novecento
concluderemo che la musica è un linguaggio poetico.
Nell’ultima parte si proporrà un tassonomia delle figure musicali di
imitazione postulando un continuum che va dall’arbitrarietà all’imitazione
secondo un criterio che, ancora una volta, scaturisce dal modello cognitivo
della percezione musicale.
63
2.1. Semiologia della musica
La semiologia studia il segno, nella sua struttura e nel modo in cui
viene interpretato. Pioniere di questa disciplina è il linguista ginevrino
Ferdinand De Saussure che nel suo corso di linguistica (1916) studia il
segno linguistico come una correlazione di due piani: quello del significato
e quello del significante, dove al primo corrisponde un concetto e al
secondo un’immagine acustica. Il segno per De Saussure, allora, unisce
un’immagine acustica cioè il significante, a un concetto che è il significato:
la parola scritta o pronunciata “albero” è il significante, mentre l’albero in
sé è il significato. Laddove il significato risiede fuori dalla lingua, il
significante invece si trova all’interno. La semiotica musicale appare negli
anni Settanta come l’applicazione della linguistica alla musica (Tarasti
2002). Nessun oggetto per l’uomo ha un’esistenza se non rappresenta o
significa per questo qualcosa; è compito della semiotica della musica
studiare il segno musicale nella sua struttura e nel rapporto che intrattiene
con chi lo ascolta.
Per introdurre questa parte di lavoro, si richiama il celebre lavoro di
Deryck Cooke del 1959, The Language of Music, lavoro che con la
semiotica condivide poco, ma ci sembra il punto di partenza
nell’intenzione di rintracciare un significato a un preciso segno musicale.
Cooke utilizza l’espressione “termini musicali” per intendere dei vocaboli
rintracciabili in «combinazioni di due o più note [che formano] brevi frasi
che sono i termini di base del vocabolario musicale» (Cooke 1959, 301), e
associa perciò a determinate condotte musicali determinati significati.
L’accordo di tonica ad esempio, viene considerato come il punto di riposo,
il punto dal quale si parte e verso il quale si ritorna, mentre quello di
dominante è visto come il punto intermedio, verso il quale si parte e dal
64
quale si ritorna. Si distingue la tragicità evocata dalla terza minore dalla
gioia della terza maggiore, la nota che vede il lato buono delle cose, quella
del piacere. A livello di contorno melodico, si osserva nell’ascesa
l ’ es te r io r i zzaz ione d i un ’emoz ione , ment re ne l la d iscesa
un’interiorizzazione, cosicché a un andamento ascendente in minore si
avrà un’esteriorizzazione di un sentimento di pena. In un andamento
discendente in maggiore si avrà un sentimento passivo di gioia, verranno
accolti dei benefici e si avranno conforto, consolazione e rassicurazione,
se poi questo percorso termina sulla tonica si avrà come la sensazione di
essere tornati a casa. Un arpeggio ascendente in minore (I-IIIm-V)
risulterà come un’asserzione di dolore, un compianto, una protesta contro
la sfortuna, se a questo segue una scala in maggiore, si avrà un momento
glorioso, il conforto dopo il turbamento.
Ci sembra dunque di capire che questi singoli “vocaboli” se
giustapposti interagiscano tra loro: ogni brano è un tutt’uno entro il quale
gli effetti dei vari frammenti già codificati si interpretano e si condizionano
l’un l’altro di nota in nota, di battuta in battuta, di movimento in movimento;
ogni frammento immerge nuovamente la propria identità all’interno di una
nuova espressione complessiva.
2.1.1. Il significato in musica
Nella nostra società consideriamo la musica come se fosse una
lingua materna, si nota tuttavia che per quel che riguarda
l’alfabetizzazione, e cioè l’acculturazione attraverso i manuali, l’accento
viene sempre posto sull’aspetto sintattico, tralasciando quello semantico
con significati e significanti (Stefani, Marconi e Ferrari 1990). Questo
probabilmente a causa della classica definizione sulla differenza tra
65
musica e linguaggio esposta da Hanslick a metà ottocento nel suo Il bello
musicale56 in cui la differenza consiste nel fatto che
nel linguaggio il suono è solo segno, cioè un mezzo per lo scopo di esprimere qualcosa di completamente estraneo a questo mezzo; nella musica il suono ha un importanza in sé, cioè scopo a se stesso (Hanslick 1854).
Ma è indubbio che la musica condivida numerosi altri aspetti oltre a
quello sintattico col linguaggio, e appurato che la musica abbia una
propria sintassi, è possibile parlare di significato?
Zuckerkandl (1956) afferma che non tutte le serie di toni formano una
melodia: quando sentiamo un gatto che cammina sul pianoforte di certo
non percepiamo una melodia, perché questa è senza senso. La melodia è
dunque per l’autore una serie di toni che produce senso. Chiarisce con un
esempio: prendendo la parola “art” e mescolando le lettere si ottengono
diverse parole composte da suoni articolati che hanno senso come “rat” e
“tar”, ma anche altre senza senso come può essere “tra” (l’autore si
riferisce ovviamente alla lingua inglese), questo ad esempio del fatto che
per creare senso non è sufficiente giustapporre fonemi. Continua
richiamando il caso di chi soffre di disturbi della percezione dei toni (tune
deafness): chi soffre di questa patologia percepisce sì i singoli toni,
tuttavia non riesce a ricondurli a una melodia, quello che queste persone
sentono è per molti versi paragonabile a una lingua sconosciuta dove si
sentono vocali e consonanti, ma non si riesce a ricondurle a parole57. Sul
piano musicale queste melodie per queste persone sembrano al gatto che
cammina sul pianoforte.
66
56 Hanslick E. 1854, Vom Musikalisch-Schoen. Ein Beitrag zur Revision der Aesthetik der Tonkust, Leipzig, tr. it. Il bello Musicale, 1978, Firenze: Giunti (Marconi 2001a).57 Molti esempi di pazienti con disturbi a livello cerebrale si trovano in Sacks (2008).
Il significato musicale ha una duplice natura: Meyer (1973) individua
in primo luogo un significato “incorporato” che risiede nelle strutture
musicali stesse, che riguarda la dinamica di tensioni e risoluzioni, attese
soddisfatte o deluse, in secondo luogo individua un significato
“designativo”, cioè che rimanda a qualcosa di estraneo al linguaggio
musicale. Analogamente Middleton (1990) distingue la “significazione
primaria” che è interna alla musica e che ha a che fare con la relazione tra
le note e la struttura formale, dalla “significazione secondaria” che
riguarda le emozioni e le immagini che la musica stessa evoca. Il
musicologo Hanslick e il compositore Stravinsky, in un’ottica formalista,
affermano che il significato musicale non può che essere interno alla
musica, a partire dalle categorie di Middleton avrebbero perciò detto che
nella musica si ha solo significazione primaria.
Koelsch e collaboratori (2004) nel loro celebre studio pubblicato sulla
rivista Nature Neuroscience riassumono quattro differenti tipi di significato
musicale: i) un significato che emerge dalle connessioni attraverso frame
of reference suggeriti da pattern o forme comuni (pattern in termini di
altezza, tempo, dinamiche e timbro); ii) un significato che emerge
dall’interazione di strutture formali che creano pattern di tensione e
risoluzione; iii) un significato che emerge dalla suggestione di un
particolare stato emotivo; iv) un significato che emerge da associazioni
extra-musicali (come ad esempio possono essere gli inni di stato). I primi
due punti ci sembrano essere quelli della significazione primaria di
Middleton, mentre gli altri due quelli della significazione secondaria o il
significato designativo di Meyer.
Sempre in un’ottica formalista, sono in molti a sostenere che la
musica esprima solo se stessa e che sia autoreferenziale, specialmente
nell’ambito della psicologia cognitiva. Il significato musicale sarebbe
67
sintattico piuttosto che semantico (Booth 1981). Kraut (1992), per
esempio, considera il significato musicale l’esperienza correlata a uno
stimolo musicale, mentre Raffman (1992) lo associa alle sensazioni che la
musica scaturisce, Sloboda (1992) invece, attraverso dei questionari,
cerca una correlazione tra determinati passaggi musicali e le reazioni
fisiche emozionali quali occhi lucidi e brividi o “pelle d’oca”. Ma l’ascolto
non è sempre di carattere emozionale. Kivy (1989) afferma che
l’ascoltatore sceglie se concentrarsi sulle «qualità espressive della
musica, oppure su altre qualità» (Kivy 1989, 59), mentre Davies (1994) fa
notare che l’ascolto è una questione di atteggiamento, dove Delalande
(1993) parla di “ascolti-tipo” indicando che l’ascolto solfeggistico, la cui
finalità consiste nel riconoscere i tratti grammaticali, esclude l’ascolto
emozionale. Il significato musicale infine, secondo Smith (1987), dipende
dal grado di alfabetizzazione musicale: i musicisti a differenza dei non-
musicisti sono sintatticamente orientati, questo significa che traggono
piacere da una buona forma e da una buona condotta sintattica.
Ci sono autori che attribuiscono il significato musicale direttamente al
modo in cui il messaggio musicale viene veicolato, in particolar modo
Zuckerkandl (1956) nega che il significato musicale faccia riferimento a
qualcosa di esterno alla musica sostenendo che invece si rivolge alla
musica stessa, vale a dire che il significato non è la cosa indicata, ma il
modo in cui questa cosa viene indicata dove il modo è ciò che Meyer
(1956) chiama stile, comprensibile solo in un contesto sociale.
Infatti, in una prospettiva antropologica Cross (2009) afferma che il
significato della musica non può essere scisso dal contesto culturale entro
il quale la musica viene fruita, questo emerge da processi inter e intra-
68
personali ed è formato dalla matrice culturale58. Se un tempo la musica
era soggetta a scopi quali riti messe o danze, la musica “assoluta” e cioè
autosufficiente e autoreferenziale è un qualcosa di più recente (Romano
1998). Questa musica è, secondo Wackenroder, un linguaggio che noi non
conosciamo nella vita corrente, che si può riconoscere solo come il
linguaggio degli angeli; non è comunicazione inter-umana, ma intra-
umana e cioè alla ricerca dell’ignoto, dall’esterno all’interno (Dahlhaus
1978).
In opposizione ai formalisti, da un punto di vista psicanalitico, Mancia
(1998) afferma che il linguaggio musicale è un linguaggio metaforico con
potere superiore a quello del parlato in quanto è in diretta connessione
con emozioni e sentimenti. Nello stesso ambito Giannatasio (1994)
supporta l’idea che la musica interviene laddove il linguaggio si rivela
insufficiente, per esprimere un campo della vita mentale che esula dalle
potenzialità della parola. Per Fubini, la semanticità della musica non
deriva da “termini” precedentemente fissati e confermati, ma è
indeterminata, nel senso che il significato musicale ha una plurivalenza
contestuale: «Solo in un complesso contesto sintattico i suoni, o meglio i
gruppi di suoni, acquistano un significato» (Fubini 1973). Anche il
linguaggio utilizzato per “parlare di musica” è metaforico, infatti Antovic
(2009) ci ricorda che la musica è astrazione, e l’unica via per avvicinarsi
ad essa è quella della metaforizzazione, cioè la mappatura del concreto
sonoro attraverso l’astratto spaziale come ad esempio l’associazione di
categorie tipo alto/basso a suoni acuti/gravi.
La musica è una realtà a forte impatto emotivo, ma al tempo stesso
misteriosa e non descrivibile (Romano 1998) perciò non può essere
69
58 Per la musica vista in una prospettiva evoluzionistica cfr. Cross (2005; 2010).
organizzata secondo la dicotomia del significante e del significato perché
a causa della sua asemanticità le strutture sonore non sono inventariabili
in un vocabolario (Cano 1994). Tuttavia, come abbiamo visto, essendo la
musica collegata ai suoni prenatali, il significato musicale starebbe nella
sua causa, nell’unione simbiotica con la madre; sarebbe quindi questa
stessa esperienza travestita. Si reintroduce quindi a livello di esperienza la
corrispondenza tra un significante, cioè la musica, e un significato, ossia il
primordiale rapporto con la madre (Romano 1998).
2.1.2. Gli intervalli e il loro significato
Partendo dalle idee del letterato Pietro Bembo, il quale nel suo Prose
della volgar lingua del 152559 afferma che il suono delle parole produce
particolari reazioni emotive negli ascoltatori, Zarlino (1558) indaga, con un
approccio decisamente innovativo per il suo tempo, la dimensione affettiva
della musica. Il trattatista cerca una correlazione tra gli intervalli musicali e
le emozioni che questi suscitano, trovando ad esempio che gli intervalli
maggiori di terza e sesta suscitano sentimenti aspri, mentre quelli minori
sono espressione di tristezza (Macey 2004). Analogamente, ma attraverso
i recenti strumenti della semiotica, Gino Stefani con Luca Marconi e
Franca Ferrari (1990) intraprendono una ricerca60 sul significato degli
intervalli musicali – sia da un punto di vista linguistico che da quello socio-
semiotico – per dar voce “attraverso i canali del sapere” il punto di vista
della gente, ossia la competenza comune che è certo diversa da quella
70
59 Bembo P. 1525, Prose della volgar lingua, a cura di C. Dionisotti, in Prose e rime di Pietro Bembo, Torino: UTET, 1966 (Macey 2004).60 La cui metodologia viene ampiamente discussa.
dei musicologi o dei semiotici. Qui, per facilità espositiva, illustreremo tali
intervalli in ordine crescente, dal più piccolo al più grande.
L’intervallo di seconda è, secondo i tre autori, il “passo della scala”, la
distanza minima nello spazio organizzato musicale. A dare l’effetto di
scala, infatti, sono necessari almeno due intervalli consecutivi che danno
vita a una melodia che neutralizza le funzioni tonali. L’ascoltatore
percepisce ogni gradino come il più piccolo frammento della scala, che
quindi non è più il semitono, ma l’intervallo di seconda che può essere sia
di un semitono che di un tono intero, a seconda che sia una seconda
minore o maggiore. L’intervallo di seconda diventa perciò il grado zero
della melodia.
Viene portato ad esempio il celebre motivo dell’ultimo movimento
della Nona sinfonia di Beethoven (1770–1827), l’Inno alla gioia: il senso
che se ne trae è di melodia elementare, di movimento continuo. In canzoni
come I am the walrus dei Beatles e in Centro di gravità permanente di
Battiato la voce si tiene su una corda di recita alternando seconde
ascendenti e discendenti ad ogni sillaba. Il passo della scala si trova
spesso negli ornamenti che caratterizzano da sempre la storia della
musica61, virtuosismi e decorazioni vocali che di norma non vengono
scritti, ed è proprio questo che induce gli autori ad affermare che per
spiegare il senso di questo intervallo bisogna partire dalle radici orali e dai
codici paralinguistici. Gli autori concludono l’analisi di questo intervallo
mostrandoci un frammento dal preludio per pianoforte Voiles di Debussy:
lo stile esatonale62 suggerisce un senso di esotismo orientaleggiante, una
71
61 Sugli ornamenti cfr. Karolyi (1980, 46).62 La scala esatonale viene anche chiamata “scala a toni interi”, infatti suddivide l’ottava in sei toni uguali anziché sette.
scala “distorta” e sospesa, armonicamente non definita come le pennellate
impressioniste.
Un caso particolare di seconda si rintraccia nella seconda minore
discendente che viene chiamata dagli autori la “nota dolente”. L’esempio
che ci viene mostrato è tratto dal Trovatore di Verdi ed è la parte di una
zingara che sta bruciando al rogo ed esclama “Ah!”: siamo in tonalità di LA
minore, l’esclamazione avviene sulle note FA-MI, prima sul V grado, poi sul
I. Il senso osservato è quello del lamento, che appunto, secondo loro
«l’espressione orale del lamento è una emissione breve, appena
discendente, abitualmente ripetuta» (Stefani et al. 1990, 126). Aggiungono
che tale percezione di lamento non deriva dal solo intervallo di semitono,
ma soprattutto dalla funzione cadenzale che, toccando VI e V grado della
scala minore, porta con sé il senso di “minore” malinconico e instabile. Si
fa notare che il senso di lamento non viene annullato nemmeno in un
contesto “post-tonale” come può essere l’exaudi della Sinfonia dei salmi di
Stravinsky.
La seconda cromatica è per Stefani Marconi e Ferrari (1990) il
“suono di mezzo”, la nota tra due note della scala diatonica; conferisce
alla melodia un tono sentimentale e languido. Gli autori costruiscono il
senso del cromatismo in opposizione a quello del diatonismo portando
alcuni esempi: se una scala diatonica viene usata in una situazione
normale, il cromatismo la altera, la rende disturbata, sofisticata. Il
cromatismo conferisce un senso di rallentamento: se il passo diatonico è
una marcia o una corsa, col cromatismo si scivola, si striscia, si vola. Il
cromatismo dà tensione e instabilità, incertezza, emotività e disequilibrio
rispetto alla stabilità, sicurezza, decisione ed equilibrio del diatonismo. La
trasformazione avviene anche sul piano sintattico in quanto si passa da un
regime a sette note a uno a dodici. Quando il cromatismo viene percepito
72
come nota di mezzo, e cioè quando l’armonia rimane ferma, il percorso
melodico risulta sinuoso, morbido, sfumato e rallentato come nel caso
della canzone Il clarinetto di Arbore. Un altro esempio di cromatismo è in
Bianco Natale dove si percepisce un senso sfumato, vago, confuso,
offuscato e rallentato.
Come è stato visto per i madrigalisti, anche i nostri autori sono
dell’idea che il cromatismo è sinestesico: nel tema principale del film Il
terzo uomo di Orson Welles, Harry Lime theme, vi è un cromatismo che
suggerisce l’ondeggiare di cui parla la canzone, un movimento minimo,
morbido e slittante. E ancora: Il volo del calabrone di Rimsky-Korsakoff
non viene forse evocato grazie ai cromatismi? Il cromatismo contribuisce
in alcuni casi a dare un senso di vivacità, allegria e grazia come in Com’è
bella la città di Gaber, e aggiungiamo che il linguaggio di Mozart è pieno di
cromatismi di questo genere. In altri casi si presenta anche come
virtuosismo nel “belcanto”, artificioso, spettacolare e sofisticato come la
scala cromatica discendente in terzine nella Lucia di Lammermoor di
Donizetti. Infine, tale intervallo, può come nei casi di Wagner, o ancor più
Schönberg portare a disagio, ansia, a uno spaesamento che dà vertigine:
non a caso gli autori, riferendosi a Schönberg e Webern, parlano anche di
“intervallo della crisi”.
L’intervallo di terza viene considerato da Stefani e collaboratori come
l’intervallo del “primo canto”, quello della nostra infanzia, delle cantilene e
delle filastrocche: Giro giro tondo, Din don campanon. Non richiede un
particolare sforzo fisiologico, è facile piacevole semplice e immediato,
piccolo e bello, in una parola è primordiale. La terza minore dondola, culla
e ondeggia, questo lo sanno le nostre mamme che ci cantavano la ninna
nanna usando la terza minore. Dal punto di vista sintattico questo
intervallo combina piccole dimensioni con un’alta densità melodica, non è
73
in tensione verso altri gradi e come la sesta è melodico perché dichiara se
il modo è maggiore o minore. Procedere per terze, continuano gli autori,
dà un senso di cantilena, che a differenza del procedere per seconde e
cioè puntare l’attenzione sul passo più breve che si può fare, ci si focalizza
sul primo canto. Le terze, che come già detto hanno un sapore infantile,
sono adatte ai saltelli al cavalluccio e a tutti i giochi che si fanno durante la
fanciullezza. Riguardo alla cadenza di terza si scrive che «non è, come
quelle di 4ª e 5ª, ‘tonale’, logico-sintattica, decisa e perentoria; […] si
potrebbe dire [che è] una cadenza ‘femminile’ opposta a una
‘maschile’» (Stefani et al. 1990, 33). Nella pubblicità l’intervallo di terza
addolcisce e intenerisce, cosicché la caciotta Baika diventa, per mezzo
dell’intervallo di terza, la dolce “caciottina”. La terza discendente inoltre,
imita anche un certo tipo di comportamento orale, è il caso della
canzonatura “Scemo!”, di un richiamo come in Hey Jude dei Beatles, Heidi
e il richiamo iniziale “Ooh!” nel A-ronne di Berio. Si aggiunge che, essendo
gli accordi sovrapposizioni di terze, cantarle in successione dà sempre un
effetto di facilità, semplicità, ma il risultato non è più infantile, ricorda più la
musica strumentale ed è il caso di Rock around the clock di Bill Haley;
«cantare scopertamente sulle 3ᵉ degli accordi è una sorta di ‘cantar
musicando’ […] filastrocca per adulti» (Stefani et al. 1990, 42-43), una
presa di distanza che possiamo osservare in canzoni come Ob-la-di ob-la-
da dei Beatles e Ma la notte no di Arbore.
Gli intervalli di quarta e di quinta corrispondono per gli autori al
segnale d’inizio, all’intonazione, ma anche alla conclusione e
all’affermazione; sono le due facce della stessa medaglia, l’uno il rivolto63
dell’altro e possiedono un’identità assai simile. Sono intervalli che
74
63 Il rivolto consiste nell’inversione degli intervalli che si ottiene abbassando di un’ottava la nota più alta cosicché rivoltando re-la che è un intervallo di quinta si ottiene la-re che è un intervallo di quarta.
potremmo chiamare primordiali per una serie di motivi: in primo luogo
sono i primi intervalli, esclusa l’ottava, che si trovano nella serie armonica
prodotta da una corda vibrante64; in secondo luogo, in una prospettiva
storica, sono gli intervalli da sempre associati a trombe e corni come
segnali di attacco65; in terzo luogo, come affermano gli autori,
costi tuiscono […] i r i ferimenti più consueti e, verosimilmente, più agevoli dal punto di vista dell’emissione, per i percorsi melodici vocali, come confermano i repertori di tradizione orale, anche pre-tonale (Stefani et al. 1990, 61).
Gli intervalli di quarta e quinta, proprio per il loro senso di attacco e
conclusione, spesso compaiono nella melodia quando si tratta di
affermare la configurazione di una struttura, cioè negli attacchi e nelle
cadenze: stabiliscono con vigore e chiarezza il senso tonale della melodia.
Si rintraccia spesso un senso un senso di popolare, specialmente nel caso
degli accompagnamenti al basso: è il caso della musica da ballo e nel
liscio dove il basso procede ininterrottamente dalla tonica alla dominante
dell’accordo che accompagna.
Il senso di slancio della quarta viene percepito in particolar modo
quando la dominante precede la tonica in posizione ritmica di anacrusi,
cioè quando la tonica si trova all’inizio della battuta ed è spiegabile, anche
questo fenomeno, con la struttura del suono armonico: ogni suono
armonico in sé produce una serie armonica che forma un “accordo” di
dominante e che in maniera del tutto naturale tende a risolvere verso un
suono che dista una quarta ascendente, venendo a realizzare perciò una
75
64 La serie armonica produce intervalli che vanno dal più grande al più piccolo: ottava, quinta, quarta, terza maggiore, terza minore e seconda (Pierce 1988).65 Gli strumenti di avviso o di attacco, un tempo sprovvisti di pistoni, potevano riprodurre solamente i suoni armonici della tonalità in cui lo strumento era accordato (Cfr. Rimsky-Korsakoff 1992).
specie di micro cadenza perfetta. Dello stesso effetto ma per motivi
differenti è la quarta che dalla dominante scende alla tonica: tale
movimento, secondo gli autori, viene associato all’abbassamento
prosodico che corrisponde all’estinguersi del fiato e funziona come un
segno di interpunzione, come una virgola. La quinta può assumere anche
un certo sapore di “passato”. In molta musica è possibile ritrovare la
matrice orale arcaica del recitativo in cui, a seguito di un’intonazione di
quinta, la voce si stabilisce su una corda di recita sulla dominante per poi
ritornare alla tonica (Stefani 1982). Questo movimento melodico assume
un senso di passato e di arcaico o di cantastorie come nel caso della
canzone di Guccini Il vecchio e il bambino.
Gli intervalli evocano grandi spazi e grandi distanze: sono gli
intervalli delle praterie musicate da Ennio Morricone (1928-), o di quelle
distanze che ci separano dalla terra promessa nel tema musicale del
colossal Exodus. Il potere di evocare grandi spazi è noto anche ai
pubblicitari che lo hanno utilizzato nello spot Pino Silvestre nel quale alle
immagini di un cavallo che galoppa in vasti spazi si associa una musica
costruita interamente sull’intervallo di quarta. Con le quarte è possibile,
seguendo la lezione di Scriabin, comporre armonie che, al pari di quelle
esatonali di Debussy, sono statiche e adatte ad atmosfere tranquille per
via della mancanza di semitoni che caratterizzano l’armonia diatonica
(Brindle 1992).
Secondo Stefani e i suoi collaboratori, gli intervalli di quinta diminuita
o quarta eccedente66 rappresentano un movimento strano, alterato,
anomalo, che richiama chi è in preda a emozioni talmente forti che non
riesce a controllare la voce, sono dunque gli intervalli dei gesti incontrollati
76
66 Gli intervalli di quarta eccedente o quinta diminuita sono caratterizzati dalla stessa ampiezza, tuttavia, essendo in un contesto diatonico, il loro nome cambia in base alle note che li compongono; sono due intervalli enarmonici.
e inconsueti. Per verificare il senso di pertinenza di tale intervallo, provano
a sostituirlo con quelli di quinta o quarta giusta e riscontrano che questi
gesti diventano normali e misurati. Da un punto di vista vocale
articolatorio, tale intervallo dista un semitono dalle quarte o quinte giuste,
è difficile da intonare in quanto è più di una quarta (è una quarta
aumentata) e meno di una quinta (una quinta diminuita). Da un punto di
vista strutturale tale intervallo si trova sul IV e VII grado, cioè secondari,
che per loro natura tenderanno a muoversi verso il III e il VIII, perciò è un
intervallo carico di tensione, il fulcro della settima di dominante. Questo è
un «intervallo medio che si oppone a quelli giusti, è o eccedente o
insufficiente, non comune, scorretto» (Stefani et al. 1990, 88). La sua
instabilità si riscontra anche quando, in un momento di slancio, la melodia
non giunge alla sua meta, cioè la quinta, ma si ferma prima, un semitono
sotto. Il passo successivo appare dunque come il raggiungimento della
meta prefissata, per cui, raggiungere la quinta giusta, sembra la
correzione di questo “errore” che è uno slancio insufficiente. La più
celebre espressione per definire tale intervallo è “Diabolus in musica”, che
connota una serie di caratteristiche negative quali morte male e peccato,
che gli permettono di essere usato in situazioni oscure e funeste.
L’intervallo di sesta per gli autori è l’intervallo del cuore perché
corrisponde a una voce dolce e profonda. Queste caratteristiche si
rintracciano nel parlato emotivo in Uno su mille di Gianni Morandi e
nell’affettuosa profondità di Buonanotte fiorellino di De Gregori. Tale
intervallo viene considerato dagli autori il più melodico tra tutti: è ampio ma
non eccessivo, piacevole, tenero, emotivo e gratificante. Inoltre, non
svolgendo funzioni armoniche come l’intervallo di quarta o di quinta,
sembra che la sua natura sia spiccatamente melodica, mostrandosi
dunque adatto ad investimenti simbolici quali volo e sogno. Il tema del
77
sogno si ritrova ne Il sogno d’amore di Liszt e nella disneyana I sogni son
desideri cantata da Cenerentola, nonché nell’Op. 68 di Schumann, tutti
casi in cui appare il tema del sogno e la sesta appare come l’intervallo
caratteristico della melodia. Nel celebre Libiamo dalla Traviata di
Giuseppe Verdi (1813–1901) diviene un gesto orale esclamativo di tono
euforico che sottolinea la voglia di vivere e nella pubblicità per esempio,
rappresenta il cuore di panna del cornetto Algida, nondimeno l’intimità dei
baci Perugina, e il brindisi ascoltato nella traviata viene declinato per la più
recente Coca Cola.
L’intervallo di settima è invece un grande sbalzo in alto non
conclusivo che veicola un senso di grande enfasi. Come nell’intervallo di
quarta eccedente, questo è un ampio gesto di una persona in preda a forti
emozioni incontrollabili, un gesto eccessivo. Da un punto di vista
articolatorio, la settima è un grande intervallo dissonante e difficile da
intonare, è «’qualcosa in più’ rispetto alla ‘giusta misura’ di 6a e ‘qualcosa
in meno’ rispetto alla ‘totalità’ di 8va» (Stefani et al. 1990, 99) e per sua
natura non potrà mai essere conclusivo. Appare, rispetto al movimento
armonioso dell’intervallo di sesta, come storto e scorretto, disarmonico e
squilibrato. In pubblicità tale intervallo viene utilizzato in contrapposizione
a quello di sesta come nel caso dell’amaro Averna, dove funge da
appoggiatura per la sesta: un ampio salto dissonante che crea tensione e
che si risolve sulla sesta, per poi successivamente dissiparla e produrre
un rilassamento.
L’ottava per i nostri autori (Stefani, Marconi e Ferrari 1990) è
l’intervallo potente che ci viene illustrato con l’inizio del secondo
movimento della “nona” di Beethoven: un gesto semplice e grandioso,
energico. Si ha lo stesso suono ad altezze diverse, ubiquità, ma anche
movimento tra gli estremi, andare “a tutto gas” ma senza forzare.
78
Caratteristiche di questo intervallo sono la decisione, la sicurezza, la
semplicità e la stabilità; sulla tonica si aggiunge affermazione e
conclusività. Si fa notare notare che l’ottava enfatizza il grado in cui viene
collocata, per cui se si trova su un grado che svolge una funzione ben
precisa la sottolineerà, in caso contrario assumerà una dimensione più
melodica (come ad esempio avviene su una terza o su una sesta).
L’ottava discendente è anche la stilizzazione del grido, uno sfogo
improvviso e grande, seguito da una caduta a picco che a seconda dei
casi – analizzati dagli autori nel Trovatore di Verdi, l’”opera del grido” –
può essere: i) un richiamo di attenzione se sul V grado; ii) una
proclamazione solenne, rituale, priva di emozioni se sul I grado; iii)
un’espressione carica di violenza drammatica se sul VII grado; iv)
un’intonazione ampia, ma dolce, con sfumature emotive affettuose se sul
III grado.
Ma l’ottava non è solo identità, può essere utile anche per separare:
nella canzone Love me or leave me di Donaldson, le parole “love” e
“leave” appaiono su due ottave differenti; inoltre può essere usata anche
come effetto straniante, spersonalizzazione espressiva ad esempio in
Centro di gravità permanente di Battiato in cui l’ultima sillaba della parola
“imperatori” viene alzata di un’ottava.
2.1.3. La melodia e il suo significato
Stefani e Marconi (1992), sempre in un’ottica semiotica, sviluppano il
precedente lavoro sugli intervalli musicali, tentando di rintracciare un
senso dalle melodie nel loro insieme di elementi. Se prima si è cercato il
significato di determinati tratti musicali, ora, convinti che questi possano
79
solo convergere e non essere il senso stesso della melodia, ipotizzano un
senso melodico e vi fanno coincidere una serie di tratti musicali.
Iniziamo con il tema del sogno in cui secondo gli autori esso
scaturisce da melodie la quale articolazione è fluida e legata, il movimento
è lento e la melodia si sviluppa in un ambito che supera l’ottava. Portano
ad esempio il Träumerei di Franz Schubert (1797–1828): qui si percepisce
un andare libero da regole e limiti, quasi un volo, e questo viene
certamente suggerito dall’ambito molto dilatato della melodia, si parte dal
DO centrale per arrivare in poco più di una battuta al FA di un’ottava sopra.
Per quanto riguarda il flusso ritmico Stefani e Marconi fanno notare che in
queste melodie è praticamente assente, non vi sono accentazioni
particolari, la melodia è legata e le durate sono più o meno uniformi.
Analogamente, per rappresentare il sogno, gli autori osservano che il
movimento lento viene usato anche nel cinema attraverso il ralenti.
I temi del desiderio e della tenerezza condividono con quelli del
sogno e del volo i tempi lenti, la scarsa ritmicità e i movimenti legati. Due
caratteristiche appaiono salienti per gli autori: cromatismi e appoggiatura.
Il cromatismo, come precedentemente spiegato, è il “suono di mezzo”, è il
fuori tonalità che conferisce alla melodia un carattere languido e
sentimentale, mentre l’appoggiatura è una nota estranea all’armonia67 che
sta sul tempo forte e che si “appoggia”, cioè risolve, nel tempo debole su
una nota che fa parte dell’accordo. Questi due tratti si trovano ad agire
insieme nel motivo conduttore del film Cenerentola di Walt Disney in cui
compare un’appoggiatura cromatica. L’appoggiatura, in quanto ritardo,
provoca un piacere differito, dunque un desiderio, e appare anche come
80
67 Distinguiamo che, in un contesto tonale, una nota “fuori tonalità” non fa parte del sistema diatonico di sette note, mentre una nota che “non fa parte dell’armonia” è semplicemente estranea all’accordo che viene suonato in quel momento e può essere sia diatonica che cromatica.
un’amplificazione melodica, un’enfasi, che gli autori vedono come
traduzione di una pressione emotiva, affettiva, e che richiama il ritardando
del comportamento orale della voce tenera desiderante (Fonagy 1981,
1983). Il cromatismo, allo stesso modo, dilata e rallenta il movimento
accentuando l’emotività. Sempre in questo brano disneyano si osserva
che, a seguito di questa appoggiatura cromatica, compare un salto di un
intervallo di sesta, quello che come abbiamo visto sopra appare essere
l’intervallo “del cuore” (Stefani et al. 1990) e non a caso il testo in queste
quattro battute recita: «A wish is a dream your heart makes».
Con la melodia è possibile veicolare un effetto di senso di un
qualcosa di super, come super-uomini, super-eventi o una super-music
attraverso l’uso di intervalli di quarta, quinta e ottava e marcando gli
accenti ritmici. Tutti questi tratti convergono nel motivo conduttore del film
Star Wars che si apre con una terzina di RE in anacrusi e due minime sulla
nuova battuta rispettivamente SOL e RE un’ottava sopra. Tali intervalli in
questi contesti esprimono due effetti di senso: il primo riguarda gli intervalli
presi per sé stessi cosicché quarta e quinta appaiono come mossa sicura
e decisa e l’ottava come affermatività e totalità; il secondo significato è di
carattere spaziale e riguarda la conquista di grandi spazi in poco tempo,
una grande impresa dunque, condotta da grandi uomini. La scansione
ritmica è ben marcata e pulsante, non vi sono sincopi, sono passi sicuri e
ben scanditi, non vi sono incertezze, le terzine non fanno altro che
marcare il flusso ritmico venendo a creare un senso di solidità e stabilità.
Gli autori vedono in questo tipo di melodie un fare diametralmente opposto
a quelle che abbiamo visto riguardare i sogni, i desideri e la tenerezza; le
caratteristiche musicali dei “super-uomini” riguardano il pensiero e l’azione
piuttosto che la melodia e il sentimento, inoltre, gli intervalli di quarta,
quinta e ottava sono funzionali anziché melodici, i “super-uomini” devono
81
agire e non perdere tempo a sognare. Spesso in queste melodie non vi
sono nemmeno sfumature espressive, nemmeno crescendo o diminuendo
e dal punto di vista ritmico si rintraccia che questi accenti così marcati
corrispondono ad impulsi di energia: i nostri super-uomini non hanno
momenti di debolezza.
Specie nella musica cantautoriale, Stefani e Marconi (1992)
individuano che la melodia serve principalmente a supportare un testo che
è la parte fondamentale della canzone il cui scopo è raccontare qualcosa.
Queste melodie sono caratterizzate da una scarsa melodicità, ma
soprattutto da un’altezza melodica ed intensità relativamente costanti. A
spiegare questo fatto gli autori richiamano una situazione molto comune:
gli annunci, come quelli che si possono ascoltare in stazione, devono
essere privi di inflessioni d’altezza e variazioni di intensità al fine di
convogliare l’attenzione direttamente sul messaggio (Fonagy 1981, 1983).
Allo stesso modo i cantautori utilizzano la musica per accompagnarsi e
preferiscono risparmiare sulla melodicità al fine di porre l’attenzione sulle
parole. Questo genere di melodia vocale appartiene a una tradizione
musicale prettamente orale come è appunto quella dei cantautori, ma la
ritroviamo anche in generi come rap o heavy metal, dove nel primo caso si
invita a focalizzarsi sul testo, nel secondo sull’arrangiamento. Queste
musiche “parlate” si rintracciano fin dai tempi in cui i cantastorie dovevano
raccontare le loro storie senza l’ausilio di microfoni o amplificatori, e
quando da supporto mnemonico non era stata ancora inventata la scrittura
musicale: la linea melodica doveva essere perciò il più lineare possibile
per essere sia compresa a distanza che facile da ricordare per il
cantastorie. Un comportamento analogo si trova nel repertorio liturgico
gregoriano, anch’esso quasi esclusivamente orale, in cui a seguito di
82
un’intonazione la voce si stabilizza su una sola nota, il tenor, per poi
discendere, analogamente all’intonazione, nella cadenza (Stefani 1982).
Una melodia può portare con sé anche il significato di un
determinato periodo storico; non è necessario un musicologo per
distinguere un canto gregoriano da una canzone pop, ogni melodia perciò
può veicolare significati abbastanza stereotipati di luogo e tempo. Da un
punto di vista armonico per esempio, la successione dei gradi I-IV-V in
dominante connoteranno il significato di blues, come una melodia in ritmo
binario con ritmo sincopato denoterà quello di tango, una melodia che si
apre salendo e prosegue per un determinato tempo sulla stessa nota per
poi discendere, verrà associata a un periodo storico remoto, così come le
sincopi che caratterizzano la musica dell’ars nova del Trecento francese.
Stefani e Marconi presentano il caso della melodia della Lambada come
un racconto passionale, nostalgico e lontano dove la lontananza viene
suggerita dalla condotta modale – il regime musicale che in occidente ha
regnato dai greci fino sistema tonale –, la nostalgia viene rintracciata nella
progressione discendente e la passione nell’uso di intervalli di sesta e
settima sia ascendenti che discendenti. La melodia viene descritta anche
in termini di “racconto” in quanto la melodia si muove per gradi congiunti in
un andamento ritmico sillabico che conferisce appunto il senso di arcaica
intonazione recitativa che si può ascoltare ne La canzone di Marinella di
De André.
83
2.1.4. La strumentazione e il suo significato
Dal punto di vista della fisica del suono, il timbro dipende dalla
combinazione dei diversi suoni parziali che formano l’onda complessa
prodotta dallo strumento musicale, così, i timbri degli strumenti musicali
differiscono grazie alla diversa combinazione delle componenti armoniche
del suono. Cogan e Escot (1976) analizzano attraverso lo spettrogramma i
timbri di vari strumenti e arrivano a stilare una lista degli effetti che le
componenti spettrali del suono hanno sul timbro. Cosicché secondo gli
autori, il secondo parziale aggiungerebbe chiarezza e brillantezza, il terzo
una certa qualità nasale, il quarto stridore e il quinto darebbe un suono
simile al corno.
Fino al XVII secolo, il tipo di strumentazione da utilizzare per
eseguire una partitura non veniva, salvo pochi casi, nemmeno
menzionato, non aveva importanza, in altre parole, una fuga di Bach
poteva venire eseguita sia al clavicembalo che all’organo o al liuto.
Tuttavia noi riteniamo che nel nostro lavoro un piccolo spazio debba
essere dedicato anche alla strumentazione che si sceglie per orchestrare
una musica. Il compositore russo Rimsky-Korsakoff, insegnante di
orchestrazione tra i tanti di Prokofiev e Mussorgsky, elabora un trattato di
orchestrazione adottato da intere generazioni di studenti in tutto
l’occidente e ancora in uso presso i conservatori, in cui, oltre a dare
indicazioni su come orchestrare le singole voci dell’armonia, elenca una
serie di caratteristiche timbriche dei vari strumenti che si utilizzano in
orchestra e che ora, a titolo esemplificativo, in parte riproponiamo. Lo
stesso autore sottolinea che quelle che lui elenca sono esclusivamente
impressioni personali prive di qualsiasi validità scientifica o metodologica e
rammenta in ogni modo, che è compito assai arduo definire con le parole
84
qualcosa come il “timbro” che tocca solamente il senso dell’udito e per far
ciò ci si deve aiutare con termini mutuati da tutti i sensi.
Rimsky-Korsakoff (1891) inizia la sua trattazione partendo dalla
sezione degli archi, più precisamente dal carattere delle singole corde: le
corde più acute hanno nel violino carattere brillante, nella viola sono
mordenti e nasali, mentre la corda più acuta del violoncello possiede una
certa “voce di petto”. Le due corde centrali sono dolci e delicate nel
violino, mentre la più bassa risulta piuttosto stridente e dal suono
leggermente smorzato. L’autore sconsiglia di usare le corde a vuoto se
non per creare effetti particolari in quanto, se non premute, perdono calore
e nobiltà di suono: benché posseggano un suono più chiaro e potente
risultano decisamente meno espressive di quelle premute. Gli armonici
alterano il timbro degli archi in maniera considerevole, risultano freddi e
trasparenti nei passaggi delicati, gelidi e brillanti in quelli in forte. Anche la
posizione dell’archetto incide sul suono, suonare sul ponte dà un suono
metallico, sulla tastiera si ottiene un effetto flautato, velato.
Nella sezione dei legni si rintraccia che il flauto è freddo nella qualità
del suono, è adatto più alle tonalità maggiori che a quelle minori; nelle
prime è indicato per melodie dal carattere allegro e aggraziato, nelle
seconde per melodie tristi, inoltre nel registro basso è freddo e monotono,
mentre in quello alto brillante. L’oboe è allegro, goffo, ingenuo e gaio nelle
tonalità maggiori, triste, patetico e poetico in quelle minori, agitato nel
registro basso e aspro e preciso in quello alto. Il clarinetto nelle tonalità
maggiori viene indicato per melodie allegre e contemplative perché è
plastico ed espressivo, in quelle minori viene scelto per brani appassionati
e drammatici in quanto è indicato per melodie tristi o riflessive. Nel registro
basso è squillante e minaccioso, in quello alto penetrante. Il fagotto nelle
tonalità maggiori è ironico e suggerisce un’atmosfera di allegria, in quelle
85
minori è triste e di sconforto, inoltre nei registri bassi è sinistro, in quelli alti
teso.
In generale, nella sezione degli ottoni, tanto più si tocca il registro
acuto dello strumento tanto più appare brillante, se i piano sono dolci, i
fortissimo sono deflagranti. Le trombe in SIb e la sono incisive e brillanti
nei passaggi in forte, mentre in quelli in piano le note acute sono
argentine, nel registro grave risultano allarmanti e presagenti una
situazione di pericolo. Le cornette sono molto simili alle trombe, ma più
dolci e sensibili. I corni in FA sono strumenti dolci e poetici, nel registro
grave sono cupi e brillanti mentre in quello acuto sono rotondi e pieni. Il
trombone è scuro e minaccioso nel registro grave, brillante e trionfale in
quello acuto. In merito alla sordina l’autore suggerisce che se adoperata
negli ottoni produce un effetto di distanza, tuttavia sacrificando il suono
argentino che contraddistingue tale sezione.
Le impressioni di Rimsky-Korsakoff qui delineate, non devono essere
prese come un trattato sul significato timbrico degli strumenti musicali,
piuttosto come un consiglio da parte dello stesso autore che si eleva, a
ragion della sua esperienza, a fonte senza alcun dubbio autorevole.
Consiglia pertanto al compositore di tenere conto dei suoi consigli e di
agire di conseguenza, ma senza per forza vincolarsi a quanto viene
consigliato:
vi sono quindi anche momenti in cui il sentimento artistico di un compositore gli suggerisce di impiegare strumenti il cui carattere è in contrasto con la melodia, al fine di ottenere effetti grotteschi, eccentrici ecc. (Rimsky-Korsakoff 1891, 25).
86
2.1.5. Musica come espressione
Kivy (1989) osserva che quando si chiede a delle persone di
descrivere un brano musicale queste rispondono “questa musica è…”
aggiungendo nomi di emozioni come può essere ad esempio “questa
musica è triste”. Come ha fatto notare Tormey (1971) un’opera d’arte non
esprime un’emozione, piuttosto è espressione di un’emozione: ad
esempio la dinamica, l’armonia e la melodia di Pavane pour une infante
défunte di Maurice Ravel (1875–1937) non sono i criteri per sostenere che
il brano trasmette tenerezza, piuttosto sono i costituenti di tale tenerezza.
Luca Marconi (2001a) chiarisce questo caso con l’esempio del muso del
San Bernardo che è espressivo della tristezza perché alcuni suoi “tratti”
assomigliano a quelli delle espressioni emotive umane della tristezza.
Chiarisce ulteriormente con un esempio tratto dal Lamento di Arianna di
Monteverdi: il brano è espressivo di una certa emozione perché alcune
caratteristiche in esso contenute sono strutturalmente simili a quelle della
nostra voce. Ascoltando un brano quindi non si percepirebbe l’emozione
espressa dell’emittente, ma un qualcosa di simile a ciò che si percepisce
di fronte a chi esprime tale emozione. Questo, anche per il fatto che di
fronte a un’immagine ambigua l’uomo tende a percepire volti o
configurazioni di esseri animati piuttosto che inanimati; Heinz Werner
parla di percezione fisiognomica: «gli oggetti sono sperimentati soprattutto
attraverso l’atteggiamento affettivo e motorio del soggetto» (Werner 1970,
71).
Si può parlare a tal riguardo di “proiezione metaforica” (Johnson
1987). Se volessimo descrivere il concetto di equilibrio, ad esempio, lo
faremmo partendo dall’esperienza personale con il nostro corpo e cioè
penseremo a mantenerci in una postura eretta e ben bilanciata,
87
caratteristiche che definiscono lo schema di equilibrio. Applicando lo
schema “equilibrio” a una persona, o meglio alla sua personalità,
riconosceremmo in questa certamente la dimensione della simmetria,
presente anche in quella di equilibrio: questa persona possiede delle
caratteristiche tra loro simmetriche e bilanciate. Seguendo Johnson,
Aksnes (1998) applica lo schema equilibrio in ambito musicale a seguito
dell’affermazione del musicologo Jeppesen (1956) il quale sostiene che
gran parte delle melodie di Palestrina (c. 1525–1594) sono ben
equilibrate. Questo equilibrio secondo il musicologo – che prende in
esame l’incipit del primo Agnus Dei della Missa papae Marcelli – è dato
dal fatto che rispetto a un ipotetico punto centrale le parti acute e quelle
gravi sono più o meno equidistanti, egli dunque vede la simmetria.
Aggiunge Marconi (2001a) che all’attivazione dello schema equilibrio
durante l’ascolto del brano di Palestrina contribuisce la percezione cinetica
secondo la quale dopo un grande intervallo, percepibile cineticamente
come grande salto, seguono dei passaggi per gradi congiunti, percepibili
come piccoli passi, «dopo un grande salto, se si cerca di continuare,
senza interruzione, con altri salti, ci si può sbilanciare fino a
cadere» (Marconi 2001a, 28). Vista l’importanza della musica negli stadi
prenatali, Stefani e Guerra Lisi (1999) suggeriscono che la base corporea
di questi schemi può essere rintracciata in «un corpo, prenatale, che
dall’inconscio ci invia i suoi messaggi archetipici (Stefani e Guerra Lisi
1999, 43).
Marconi ci fa notare che nell’enunciato “questa musica è triste” oltre
a una proiezione metaforica assistiamo a un processo metonimico in cui il
prodotto sostituisce il produttore: quello che le persone vogliono dire in
realtà è “questa musica è un’espressione di una persona triste”. Ma su
che basi? Marconi ipotizza che una musica a cui viene associata
88
un’emozione in realtà è l’imitazione dell’espressione vocale di tale
emozione. Benché l’imitazione delle intonazioni vocali non contribuisca a
creare il “bello musicale”, secondo Hanslick,
chi è in preda alla passione sale con la voce, mentre la voce di chi va calmandosi discende; le frasi che hanno un peso particolare vengono pronunciate lentamente, mentre cose secondarie e indifferenti si dicono rapidamente: questi e simili, sono fatti dei quali il compositore di musica vocale, specialmente se drammatica, non può non tener conto (Hanslick 1854, 69).
Dunque ritorna ancora un pensiero di una musica che imita le
espressioni vocali.
Infatti, Fònagy e Magdics (1972) dimostrano che nella musica tonale
le emozioni vengono espresse attraverso caratteristiche melodiche simili a
quelle del parlato, mentre Rudzinski (1993) osserva che l’inflessione
emozionale influisce sensibilmente sul flusso ritmico rendendolo poco
regolare. Imberty (1986) decide allora di verificare l’ipotesi dell’influenza
sulla musica delle inflessioni vocali attraverso un esperimento: a dei
soggetti vengono fatte ascoltare parole cantate con diversi profili intonativi
– ascendente, discendente e sinuoso – e diversi accompagnamenti
armonici – dominante-tonica e due accordi di settima diminuita.
Successivamente è stata fornita una lista di otto parole – affermazione,
contentezza-gioia, interrogazione, esclamazione, inquietudine, sorpresa,
rassegnazione, semplice constatazione – su cui andava scelta la parola
più appropriata al tipo di stimolo ricevuto. Imberty trova che le parole
scelte dalla lista corrispondono al significato base dei profili intonativi e
successivamente che l’armonia può rafforzare o sfumare il significato
base.
89
Un caso particolare di espressione del suono viene rintracciato nella
capacità di essere associato ad altri canali sensoriali come nel caso della
sinestesia, che è appunto un’associazione cross-modale. In musica,
sembra che solo i possessori dell’orecchio assoluto siano in grado di
associare colori a determinate note musicali (Ward 1999). Tra le persone
“comuni” non sembra esserci alcuna correlazione tra colori e frequenze,
infatti, la sinestesia, è un processo che avviene in una sfera individuale e
che varia da caso a caso. In uno, tuttavia, sembra esserci una certa
correlazione tra altezza tonale e chiarezza di colore (Simpson et al. 1956):
995 bambini associano suoni acuti a colori chiari (giallo) e suoni gravi a
colori scuri (blu e violetto). Per mezzo dell’effetto Stroop68 associato a dei
“suoni colorati”, Ward e collaboratori (2006) dimostrano che le persone
sinestesiche si comportano analogamente a quelle normali, mostrando
tempi di risposta maggiori per “colori” visivi e uditivi incongruenti, inoltre,
se sembrano confermate le associazioni dove il colore chiaro sta a un
suono acuto come un colore scuro sta a un suono grave, sembrano anche
confermate certe ricorrenze, all’interno dei sinestesici, tra i “suoni colorati”.
I suoni, inoltre, elicitano sensazioni tattili come ad esempio suoni acuti si
associano a impressioni di freddo, mentre quelli bassi a impressioni di
caldo (Antonietti 2006). Sempre in ambito tattile, si può facilmente
comprendere come il timbro del violino, nella sua “grana”, venga percepito
più liscio di quello ruvido del fagotto.
90
68 L’effetto Stroop (Stroop 1935) consiste nel presentare il nome di un colore (ad esempio “rosso”) stampato con un colore differente da quello nominato (ad esempio in blu). I soggetti devono indicare il colore con cui è stampata la parola rappresentata. Se vi è incongruenza tra il significato della scritta e il colore di stampa, i tempi di risposta risultano più lunghi.
2.1.5.2. Espressioni vocali
Le affinità sopra accennate tra la musica e il linguaggio ci portano a
commentare brevemente alcuni illustri personaggi che si sono occupati del
rapporto tra musica e “verbo”. Darwin ipotizza che la musica si sia
sviluppata dalle vocalizzazioni dei primati sub-umani e che il suo potere
affettivo provenga dal suo uso nei processi di selezione del partner con cui
riprodursi (Darwin 1871)69. Rousseau, nel suo saggio sull’origine del
linguaggio, ritiene che l’origine della musica sia da rintracciare
nell’imitazione dell’armonia come fenomeno naturale nella sua primordiale
complicità col linguaggio, ma non da un punto di vista grammaticale,
piuttosto nei suoi aspetti emozionali. La parola, secondo lui, è nata
dall’amore, dall’odio, dalla pietà e dalla collera, le prime lingue perciò
furono canti e voci appassionate prima d’essere discorsi semplici e
metodici. Ci appare sempre più valida la tesi che la musica sia imitazione
di qualcosa, in questo caso di espressioni vocali.
In Marconi (2001a) si trova un’ampia analisi di frammenti musicali
messi in rapporto alle espressioni vocali di determinati stati d’animo, cioè
si ricerca il modo in cui una musica proietta lo schema di un’espressione
vocale di un’emozione. Quando si è in preda a uno stato emozionale la
prosodia vocale subisce un’alterazione: quando si è tristi, ad esempio, si
tende a parlare a bassa voce senza eccessivi sbalzi di intonazione a una
velocità piuttosto bassa. Riassumiamo alcune delle espressioni vocali
rintracciate da Marconi.
91
69 La tesi di Darwin viene confutata da Sloboda (1985), in primo luogo perché le vocalizzazioni dei primati appaiono involontarie, mentre la musica è un atto volontario, in secondo luogo perché non sembrano avere un’organizzazione interna come può essere quella della musica nell’uomo.
L’espressione vocale della tristezza si riconosce in musica quando il
registro è piuttosto basso, con poche variazioni di altezza, con intervalli
piccoli e un profilo leggermente discendente. L’intensità è limitata e tende
a scendere così come vi si ritrova un’ampio uso di pause. Come abbiamo
visto sopra, a un grande intervallo corrispondono grandi spazi e grandi
sforzi, l’autore allora ipotizza che in un simile stato emozionale non ci sia
tanta energia da spendere, o forse è già stata tutta spesa, quindi la voce
singhiozza e si mantiene bassa, sia di tono che di intensità, e via via perde
forza. Diversamente, all’espressione vocale della gioia corrispondono in
musica grandi intervalli in profili melodici ascendenti, spesso la velocità è
sostenuta e l’intensità alta a cui si aggiunge un ampio uso di suoni
accentati con frequenza non regolare. Nella gioia si hanno tante energie
da spendere.
Un profilo melodico curvo, lineare e regolare corrisponderà
all’espressione vocale della tenerezza. Questa emozione si rappresenta in
musica con intensità e velocità misurate, dove le frasi musicali
corrispondono al tempo che solitamente intercorre tra una presa di fiato e
un’altra, l’articolazione è chiara, fluida e precisa. Si preferisce la
consonanza alla dissonanza.
La collera viene rappresentata dalla ripetizione di una stessa altezza
con improvvisi salti verso note molto acute a cui seguono cadute
simmetriche verso il punto di partenza, quindi un profilo melodico
spigoloso. Intensità e velocità sono generalmente elevate, con un
andamento metrico rigido in cui le pause sono brevi e limitate. Lo scatto di
rabbia invece coincide, il più delle volte, con un improvviso accento
vigoroso verso l’alto per rientrare successivamente al livello base.
Allo stesso modo del trattato di Johann Mattheson, in cui le passioni
venivano raggruppate in semplici o complesse a seconda che siano
92
singole o composte, Marconi (2001a) suddivide le espressioni vocali
individuate da Scherer (1986). In quella che Scherer chiama “voce stretta”,
ossia una costrizione muscolare in seguito a stimoli spiacevoli, Marconi
ritrova che in musica a tale espressione corrisponde una piccola discesa
continua sia sul piano dell’intonazione che in quello della dinamica. Per la
“voce tesa”, cioè quando vi è uno stimolo disatteso, i suoni sono acuti,
molto forti e vengono ripetuti a lungo. All’opposto della voce tesa, Scherer
individua la “voce lassa”, cioè l’espressione di uno stato in cui ci si trova
fuori dal controllo del proprio organismo. Marconi riconosce che questa
espressione viene rappresentata in musica attraverso suoni deboli e bassi
di registro. L’ultimo caso che trattiamo è “la voce rotta dall’emozione”,
quando ad esempio il pianto o la respirazione improvvisa interrompe il
flusso articolatorio; in musicatale espressione viene rappresentata
attraverso l’uso ripetuto di pause.
2.1.6. Musica e movimento
Il suono, possiede in sé il movimento, «implica necessariamente, per
propria natura, uno spostamento anche minimo, un’azione» (Chion 2001,
16), senza movimento non vi è suono. Un’onda possiede per sua natura
energia cinetica, è spostamento d’aria. L’idea del movimento ci viene
anche da un termine tecnico dell’informatica musicale, più precisamente
dal protocollo MIDI70: il termine velocity indica la velocità con cui il tasto
della tastiera viene pigiato dove la dinamica è proporzionale alla velocità
con cui il tasto viene premuto. Quindi ancora movimento, sia nella natura
del suono che nell’esecuzione.
93
70 Acronimo di musical instrument digital interface, un’interfaccia digitale standardizzata per interconnettere strumenti musicali e computer.
Non solo il suono, ma anche la musica è naturalmente collegata al
movimento, più precisamente quello corporeo, tanto che in molte culture
non esistono termini che separino il concetto di musica da quello di danza
(Luccio 1993). Per fare un esempio sulla relazione tra musica e
movimento, gli uccelli hanno sviluppato la capacità melodica sacrificando
quella ritmica, questo perché il loro canto è svincolato dal movimento.
Diversamente negli uomini, il ritmo è molto sviluppato soprattutto grazie al
fatto che la musica è legata al movimento, sia nel momento in cui viene
prodotta quindi nel suonare, sia nel momento in cui viene fruita quindi
nella danza (Von Balthasar 1925). La musica quindi, o più precisamente il
ritmo, si basa sull’alternanza del gesto come ad esempio il succedersi dei
passi nel camminare o le due fasi della respirazione (Antonietti 2006).
La relazione tra musica e movimento è rintracciabile anche nel
modello neurocognitivo della percezione musicale proposto da Koelsch e
Siebel (2005) dove appare un’interazione, e quindi una sovrapposizione di
attività neuronale, tra gli ultimi stadi della percezione e i primi stadi
dell’azione, come ad esempio la funzione premotoria in relazione alla
pianificazione dell’azione (che avviene principalmente tra i musicisti).
Il suono è ovviamente anche spazio. In uno studio si riscontra che la
rappresentazione mentale delle note musicale, analogamente a quanto
avviene per i numeri, avverrebbe lungo una dimensione orizzontale che va
da sinistra per i suoni gravi a destra per i suoni acuti (Rusconi et al. 2005).
Tuttavia l’idea di Meidner (1985) è quella che ci soddisfa maggiormente:
l’ascoltatore crea uno spazio virtuale bidimensionale nel quale colloca le
altezze sull’asse verticale e le relazioni temporali sull’asse orizzontale: due
suoni dello stesso timbro ma di diversa altezza tonale vengono percepiti
come lo stesso suono che si sposta da un punto all’altro. Questo
fenomeno percettivo viene spiegato in ambito visivo da Wertheimer (1923)
94
71, e successivamente ripreso da Diana Deutsch in una teoria più ampia e
che suddivide i fenomeni percettivi di basso livello (Deutsch 1999a) da
quelli di alto livello (Deutsch 1999b).
Delalande e collaboratori (1982) analizzano le produzioni sonore dei
bambini mentre giocano con oggetti inanimati. Hanno notato che i “brrrr”,
“vrrrr” e “bsccc” che questi emettono svolgono la funzione di sonorizzare e
punteggiare a livello sonoro ciò che avviene a livello cinetico secondo un
simbolismo meccanico e cinematico (Chion 2001). Ad esempio, quando
un bambino fa rallentare la macchinina giocattolo contemporaneamente
produce un suono in glissando discendente: intuitivamente i bambini
sonorizzano il movimento più che il rumore proveniente dall’oggetto. Ci
appare interessante l’analogia con i madrigali visivi visti sopra, in quanto la
somiglianza non avviene su un piano strettamente sonoro, quanto sulla
sua rappresentazione; ci sembra quindi che un certo grado di astrazione
sia presente fin dalla tenera età e ipotizziamo che sia un processo
piuttosto naturale. Un procedimento naturale ed intuitivo, usato da molti
compositori che si sono cimentati nella sonorizzazione musicale nel
cinema.
95
71 Esempi di principi di raggruppamento percettivo: secondo il principio di vicinanza si tende a unire figure che sono vicine; secondo il principio di somiglianza le figure uguali o simili vengono raggruppate in uno stesso gruppo; il principio di continuità o di buona forma tende a unire elementi che sembrano avere la stessa direzione; secondo il principio del destino comune si tende a raggruppare elementi che cambiano nello stesso modo; inoltre, secondo il principio di familiarità tendiamo a mettere insieme figure dal significato noto, rispetto a quelle che non conosciamo; il principio di chiusura tende a unire bordi vicini l’un l’altro.
2.1.6.1. Il mickey-mousing
Il termine mickey-mousing viene coniato dal regista russo Sergej
Ejženštejn a seguito della sua ammirazione per Walt Disney per designare
la perfetta sincronia tra immagini e musica (Cooke 2001). Con parole di
Chion, il mickey-mousing è
il tipico procedimento di accoppiamento musica/immagine […] che consiste nel seguire in sincrono il filo dell’azione visiva tramite traiettorie musicali (tratti ascendenti e discendenti come montagne russe) e punteggiature strumentali dell’azione (colpi, cadute, porte che si chiudono) ecc (Chion 2001, 105).
Consiste nel dare spessore di realtà attraverso un commento
musicale nel quale la musica “mima” ogni piccola cosa come nei primi film
appunto di Topolino di Walt Disney (Davis 1999). Della stessa idea appare
anche Simeon (1995) precisando che «la tecnica del mickey-mousing
prende veramente in considerazione più i movimenti delle figure in sé che
non il loro referente» (Simeon 1995, 63). A differenza del leitmotiv, che
associa un tema alla psicologia di un personaggio, la tecnica del mickey-
mousing è molto più legata alla dimensione fisica: analogamente a quanto
abbiamo visto riguardo alla fisiognomica in Marconi (2001a), questa
tecnica associa suoni a immagini in movimento, mima attraverso la
musica (cioè suoni discreti e organizzati) il suono che certe azioni o
movimenti possono produrre.
I compositori che hanno definito tale genere e che sono rimasti tra i
più importanti sono Scott Bradley (1891-1977), l’autore della maggior
parte delle musiche di Tom and Jerry, e Carl Stalling (1891-1972) della
Warner Bros. Non è facile rapportarsi a questo tipo di musica che
comporta alcune difficoltà: le azioni compiute dai personaggi sono
96
irregolari in termini di battiti al minuto, è necessario creare una linea
melodica distesa lungo tutta la sequenza ed è inoltre necessario che i
“colpi” vengano inseriti nell’accompagnamento. La musica è un tappeto
costante e non smette mai, il problema per chi scrive questi commenti non
è quando farla partire o quando farla smettere, piuttosto quale azione si
deve enfatizzare e come; in merito, Richard Stone (in Davis 1999) afferma
che bisogna cercare di stare il più possibile sincronizzati con il maggior
numero di eventi. Questi eventi ormai sono ben codificati ed anzi,
corrispondono a cliché: una camminata di un personaggio sarà musicata
da fagotti e violoncelli in pizzicato, un macigno che cade da un glissando
di piano e ad ogni battito di ciglia corrisponderà un colpo di xilofono.
Un esempio di mickey-mousing su musica preesistente lo offre
Charlie Chaplin nel film Il grande dittatore nella sequenza in cui il giovane
barbiere rade un cliente danzando sulla celebre Danza ungherese n.5 di
Brahms (1833-1897). Un altro esempio, questa volta di musica arrangiata
in post produzione, è il caso della serie televisiva degli anni sessanta
Batman, in cui nei combattimenti ad ogni pugno corrispondeva uno
“strappato” di ottoni o un suono di campana. Un altro esempio lo troviamo
nell’arrangiamento della Rapsodia ungherese n.2 di Liszt per la pellicola
The cat concerto, del 1946, in cui si vedono Tom e Jerry, eterni rivali,
rincorrersi a ritmo di musica.
Un caso del tutto particolare, perché a metà via tra mimo e leitmotiv,
è presente nel film Il traditore di John Ford, del 1935, musicato da Max
Steiner (1888-1971). Gypo è un uomo rozzo che consegna alla polizia il
suo amico Frankie per ricevere una ricompensa; a seguito di questa si
ritrova in un bar a ordinare un whiskey per dimenticare (Chion 2001, 48).
Mentre Gypo beve si ascolta una scala discendente di cinque note che
rappresentano il bicchiere che si sta svuotando, ma a ben vedere queste
97
note sono le prime cinque del tema di Gypo, alle quali segue la
stilizzazione musicale delle monete che cadono, che per tutto il film verrà
ripreso come il tema del tradimento. Dunque ci sembra che Steiner abbia
voluto sì imitare e quindi stilizzare in sincrono ciò che si vede sullo
schermo, ma è anche vero che questi frammenti musicali portano
all’interno del film significati psicologici da associare ai personaggi.
Esattamente agli antipodi del mickey-mousing troviamo l’a-
sincronismo del poeta regista Cocteau sulle musiche del compositore
George Auric (1899-1983) al quale si chiedeva, secondo la normale
prassi, di scrivere le partiture per determinate scene del film. Tuttavia
Coucteau, molto legato alla poetica del surrealismo, era solito modificare
la sequenza delle parti musicali stravolgendo completamente
l’accostamento originale pensato dal compositore (Simeon 1995). Il
compositore ciò nonostante accettava di buon grado l’operare del regista
in quanto oppositore accanito del mickey-mousing:
sottolineare in maniera diretta tutto quello che presenta lo schermo è un errore. Se si vede qualcuno salire le scale niente è più stupido che voler accompagnare ogni passo, ogni movimento con un rumore qualsiasi in orchestra (Auric 1978, 67).
2.1.7. Tipologia di segni musicali
Proponiamo qui di seguito la classificazione delle tipologie di segni
musicali proposta da Philipp Tagg in un convegno tenuto all’Università
degli Studi di Trento nel 1990. Il suo approccio alla musica è di tipo
semiotico, le strutture musicali per lui sono una sorta di sistema simbolico
costruito culturalmente, per questo motivo l’analisi musicale non può
secondo lui prescindere da un’analisi sociale. Propone l’unione
98
dell’approccio musicologico con quello semiotico: è necessario
considerare il significato sociale in quanto la relazione tra le strutture
musicali e le formazioni sociali è molto stretta. È impossibile, secondo
l’autore, parlare di strutture musicali senza definirle attraverso il loro valore
pragmatico come percezione simbolica, perciò propone una tipologia di
segni musicali che include l’anafonia, la sineddoche di genere, il
marcatore di episodi e l’indicatore di stile (Tagg 1990).
2.1.7.1. Anafonie
Nell’anafonia (anaphone) si trova l’imitazione di un modello esistente
che può essere sonoro, cinetico o tattile, e in base a queste caratteristiche
Tagg crea tre tipi di anafonie. L’anafonia sonora è la stilizzazione
onomatopeica di suoni non musicali come ad esempio lo scorrere del
ruscello di Schubert, il tuono nella Pastorale di Beethoven o il B52 di Jimi
Hendrix (1942-1970). Come fa notare Rosing (1977), in quanto questi
esempi presentano una stilizzazione vi è una bassissima relazione
acustica tra i due suoni (quello imitato reale e quello che imita musicale),
questa relazione è basata semplicemente su una convenzione culturale.
Lo stesso si può dire per i suoni che hanno a che fare con la relazione tra
il corpo umano e lo spazio ed il tempo, che rientrano in quelle anafonie
che Tagg chiama cinetiche come ad esempio il cavalcare e il camminare,
movimenti che vengono stilizzati nella marcia o nel galoppo (nomi peraltro
inclusi nel vocabolario musicale). Questa relazione con lo spazio ed il
tempo può esistere anche con gli animali (vedi il volo del calabrone o uno
sciame di locuste) e oggetti (ancora il B52 o il treno), nonché movimenti
soggettivi o impressioni (come le onde del mare). Analogamente si
comportano le anafonie tattili e a tale proposito Tagg porta l’esempio del
99
tappeto d’archi tanto usato nelle scene d’amore a Hollywood che, grazie
alle proprie caratteristiche sonore (attacco e coda lenti, spesso molto
riverberati), produce un effetto di omogeneità, spessore e ricchezza i quali
tradotti in una sinestesia tattile scaturiscono il senso di lusso, comfort e
levigatezza.
2.1.7.2. Sineddoche di genere
Nel linguaggio verbale la sineddoche è una parte che sostituisce il
tutto. Per Tagg la sineddoche di genere è un set di strutture musicali
ritenute caratteristiche di un dato stile musicale e che vengono inserite in
un altro stile musicale. Continua con un esempio musicale tratto dalla
celebre scena della doccia dal film Psycho (1960) scritta da Bernard
Herrmann (1911-1975): ascoltando questo frammento alla radio, cioè
slegato dalle immagini, viene associato più facilmente, per via delle sue
caratteristiche strutturali, a un pezzo di Penderecki (1933-) piuttosto che a
uno degli Abba o a Brian Adams, denotando con sé il significato di
“composizione moderna atonale” e connotando quelli di “difficoltà”,
“problemi seri”, “angoscia”72. Molto simile all’anafonia anche la sineddoche
di genere connota un campo semantico esterno alla musica, ma questo
non avviene attraverso una diretta omologia sinestetica o strutturale, ma
avviene attraverso la mediazione di uno stile musicale.
La sineddoche di genere contiene due stadi di referenza: un primo
che va da quei pochi elementi di uno stile alla totalità dello stile, un
secondo che va da questo stile in toto verso la cultura alla quale
100
72 Come fanno notare Owings e Morton (1998), le caratteristiche acustiche dei suoni ripetuti sulle note alte – come quelli che commentano la celebre scena di Psycho – sono molto simili al suono prodotto dagli animali in stati di intensa paura e aggressività, per cui non vi è solo una sineddoche di genere, ma vi si ritrova anche un’anafonia sonora.
appartiene. Per fare un esempio un riff di chitarra con distorsione molto
esagerata può richiamare sia il genere Heavy Metal, che la cultura
giovanile che fruisce tale genere musicale.
2.1.7.3. Marcatori di episodi e indicatori di stile
Si farà qualche accenno ai marcatori di episodi e agli indicatori di
stile che, ai fini della nostra discussione, non riteniamo interessanti. I
marcatori di episodi sono dei frammenti corti, il quale significato ha un
analogo linguistico in “dopo di ciò, “dopo un lungo tempo”, “sta per
accadere”, “condurre a”, sono dei “connettori musicali”, che ci conducono
a un nuovo materiale linguistico come nel caso dell’inizio del ritornello di
Fernando degli Abba: sei ottavi in anacrusi che puntano “a qualcos’altro”,
cioè al ritornello.
Gli indicatori di stile per Tagg, sono una sineddoche di genere
particolare. L’autore ci ricorda che la musica basa le sue regole su un
ridottissimo set di elementi, ma attraverso questi riusciamo a distinguere
un blues da un brano di Mozart. La steel guitar che siamo abituati ad
ascoltare nel genere country, è dello stesso genere una parte, se inserita
in un altro contesto, agisce da indicatore di “esotismo”.
101
2.2 Un approccio linguistico
Come le lingue naturali, anche la musica è un sistema articolato su
più livelli. È nostra intenzione tentare di analizzare, in una prospettiva
strutturalista, il sistema musicale con gli strumenti della linguistica poiché,
come già spiegato, tra linguaggio e musica vi sono diverse
sovrapposizioni, inoltre perché tra tutte le arti, la musica riflettere maggiori
affinità con il linguaggio naturale.
Ferdinand De Saussure nel suo Corso di linguistica generale (1916)
propone una serie di punti chiave per lo studio moderno del linguaggio,
gettando le basi per la nascente semiologia. De Saussure parte
inizialmente dalla distinzione tra langue e parole cioè l’aspetto sociale e
l’aspetto individuale del linguaggio, in altri termini quelle che Chomsky
(1965) chiamerà competenza e prestazione ossia cosa un parlante sa
della propria lingua e cosa in pratica realizza. Il segno linguistico, per De
Saussure, è un’entità a due facce in cui un concetto si lega a un’immagine
acustica mediante un rapporto arbitrario, come dimostra la differenze tra le
diverse lingue nel mondo. Altro punto fondamentale dell’impianto teorico
saussuriano è la distinzione tra una linguistica diacronica che studia
l’evoluzione della lingua e una linguistica sincronica che “congela” la
lingua e si sofferma su un momento studiandone gli stati. Da una
prospettiva, De Saussure evidenzia che le variazioni foniche prodotte dai
singoli parlanti, come la cadenza o l’intonazione, escludono l’identità totale
della parola che tuttavia rimane riconoscibile; l’identità delle parole per De
Saussure è data dal valore, cioè «dalle relazioni che [alcuni elementi]
intrattengono con altri elementi del sistema, dalle posizioni che ricoprono,
dalle differenze che li caratterizzano» (Traini 2006, 41). Appare dunque
importante, nella definizione di valore, distinguere i rapporti che gli
102
elementi linguistici intrattengono tra loro riconoscendo un asse orizzontale
che viene definito sintagmatico in cui il rapporto tra questi è in praesentia
e un asse verticale definito associativo dove il rapporto è in absentia.
In ambito musicale, in merito alla competenza ad esempio, è stato
rintracciato che è possibile percepire le relazioni tra elementi strutturali
quali tono e ritmo sviluppando delle aspettative anche per melodie mai
sentite (Butler 1992), ma questo, a patto che siano comprese in un
sistema musicale familiare all’ascoltatore (Jones 1976). Sulla distinzione
saussuriana di diatopia, cioè quando una lingua varia nello spazio, e
diacronia, cioè quando una lingua varia nel tempo, è possibile portare due
esempi dove il primo si rintraccia nel canto gregoriano che, benché legato
alla liturgia73 e, in quanto forma musicale prettamente orale, variava da
monastero a monastero (Cattin 1991); il secondo caso si rintraccia nella
musica rock che pur utilizzando un unico sistema musicale si scorgono
notevoli differenze tra quello grintoso statunitense e quello più melodico
inglese. Procediamo ora con l’analisi del sistema musicale attraverso gli
strumenti linguistici.
2.2.1. Fonologia
Ogni linguaggio naturale seleziona, per costruire le parole, una serie
di suoni che si chiamano “fonemi”, l’italiano per esempio, ne possiede
circa una trentina divisi fra sette vocali e ventitré consonanti. Da un punto
di vista fisico, i fonemi sono porzioni di spettro acustico che possiedono
idealmente determinati parametri di frequenza e durata, entro i quali le
varianti individuali non dovrebbero produrre differenza a livello di
103
73 Il canto gregoriano non poteva essere modificato, era opera di Dio trascritta da San Gregorio (590-604).
comprensione. In altri termini, ogni linguaggio pertinentizza il continuum
sonoro, ossia tutto quello che con la voce si può fare, in una gamma di
suoni, cioè in determinate classi entro le quali è possibile discriminare un
suono rispetto a un altro.
Secondo Sloboda il fonema in musica corrisponde alla nota musicale
in quanto è caratterizzata da una frequenza e una durata. La fonologia dei
toni riguarda «il modo in cui le scale sono suddivise», vale a dire «il
sottoinsieme (o sottoinsiemi) di altezze che una cultura sceglie costituisce
la scala (o le scale) di tale cultura» (Sloboda 1985, 59). Sloboda porta ad
esempio uno studio psicologico condotto da Locke e Kellar (1973) in cui si
chiede a dei soggetti di discriminare l’altezza tonale di una nota – nello
specifico la terza di una triade che poteva essere o maggiore o minore –
cioè trovare i confini tra le categorie di note da cui è emerso che
l’ascoltatore ha la competenza di segmentare, come per il linguaggio, il
continuum sonoro e dare perciò giudizi di intonazione su una determinata
nota. Per quanto riguarda la durata, Sloboda si riferisce in primo luogo
all’inviluppo del suono74 e in secondo luogo alla categorizzazione del
tempo. Riguardo a quest’ultima si è fatto notare che in musica vi sono due
tempi: uno relativo e uno assoluto, il primo è strettamente musicale,
mentre il secondo è di carattere individuale. In merito al tempo relativo si
riscontra che gli ascoltatori tendono a categorizzare ciò che ascoltano in
un tempo musicale relativo cioè viene creata una struttura ritmica che
segmenta il tempo in più parti, generalmente due o tre, mentre, per quanto
riguarda il tempo assoluto, si trova che è impossibile riprodurre con
esattezza ciò che un musicista esegue allo stesso modo in cui è
impossibile riprodurre esattamente la pronuncia di una parola.
104
74 L’inviluppo del suono è lo sviluppo nel tempo della forma d’onda e viene definito attraverso quattro parametri: attacco, decadimento, sostegno e rilascio (cfr. Lombardo e Valle 2002).
Appare, tuttavia, che quanto illustrato da Sloboda nel capitolo sulla
fonologia musicale riguardi principalmente la competenza dell’ascoltatore
a riconoscere delle categorie già formate e definite. Si ritiene qui invece,
che analogamente al linguaggio, la fonologia musicale debba studiare in
primo luogo il temperamento, cioè il modo in cui viene pertinentizzato il
continuum sonoro, e successivamente studiare il modo in cui dall’insieme
di suoni trovati si arrivi a creare, come appunto afferma Sloboda, dei
sottogruppi di suoni che diventano note musicali. L’autore, pur parlando di
diverse culture musicali e del modo in cui le scale vengono suddivise, non
utilizza il termine “temperamento”. Qui si ritiene che costruire una scala sia
un passo successivo a quello di segmentare lo spazio sonoro: nella
cultura musicale odierna, ad esempio, si suddivide lo spazio d’ottava in
dodici suoni equidistanti, dai quali per ogni scala se ne estrapolano sette.
Costruire la scala dunque ci sembra che corrisponda nel dominio del
linguaggio non a scegliere i suoni, quanto piuttosto stabilire quali suoni,
una volta trovati, possono giustapporsi e quali non lo possono fare per
formare le parole.
2.2.2. Morfologia
La morfologia nelle lingue naturali studia la forma delle parole, vale a
dire il modo in cui delle unità minime, chiamate morfemi, si legano tra loro
per formare parole. Nell’italiano ad esempio, il morfema “ragazz-” significa
in generale essere umano di giovane età a cui si aggiungono i morfemi “-
o”, “-a”, “-i” e “-e” che definiscono genere e numero. Per formare le parole
vi sono delle regole specifiche per ogni lingua, per esempio la parola
slovena “Trst”, che significa in italiano “Trieste”, nella nostra lingua non
può esistere in quanto vengono violate le regole per la formazione delle
105
parole, le quali stabiliscono che ogni nucleo sillabico debba contenere
almeno una vocale.
Nella musica, la componente morfologica si rintraccia proprio nella
formazione degli accordi che nel sistema tonale non sono una mera
giustapposizione di suoni, ma piuttosto una sovrapposizione di note a
intervallo di terza75 cosicché l’accordo di DO maggiore si costruisce
attraverso le note di DO-MI-SOL. Vi troviamo tre modi per modificare
morfologicamente un accordo che consistono nel cambiarne lo stato, nel
colorarlo o nel cambiarlo di modo (nei limiti dell’armonia funzionale). Così
come si può dire che tra “ragazz-o” e “ragazz-a” non vi è differenza di
significato se non nel genere, allo stesso modo un accordo rimane tale
nelle sue “declinazioni”. Abbiamo detto che il DO è composto dalle note
DO-MI-SOL, l’armonia funzionale ci dice che, anche se rivoltato76, non
cambia funzione, cosicché DO-MI-SOL avrà lo stesso significato armonico di
MI-SOL-DO variando tuttavia, per la diversa organizzazione interna dei
suoni, la tensione e quindi la propensione al movimento. Un accordo può
essere anche colorato, cioè vi si aggiungono voci al fine di conferirgli un
sapore o un colore particolare, pur senza sacrificarne la funzione
armonica. In italiano, per esempio, è possibile unire a una radice
morfologica dei morfemi che aggiungono significato, come nel caso di
106
75 Sembra utile a tal proposito portare l’esempio della musica jazz e dei cosiddetti voicing. Come nella musica tonale, anche nel jazz sovrapporre terze può portare a un accordo comprensivo di sette voci cioè tonica, terza, quinta, settima, nona, undicesima e tredicesima dove a livello teorico non si può avere una nona senza settima o una tredicesima senza undicesima. Il voicing è la riduzione a quattro voci di accordi che potrebbero averne anche sette (perciò tutto il “materiale” diatonico) finalizzata ad agevolare il pianista nell’esecuzione con la mano sinistra in quanto quella destra è occupata nella melodia per cui vanno omesse delle voci che sono spesso la fondamentale e la dominante in quanto realizzate dal contrabbasso, mai la terza e la settima per via della loro importanza nel definire il ruolo dell’accordo (cfr. Santorsola 2000). Questo è molto importante secondo noi perché, benché il jazz sia una musica molto diversa da quella tonale, questo approccio rispecchia l’impostazione cognitiva della sovrapposizione per terze.76 Il rivolto di un accordo consiste nel mettere al basso una nota diversa dalla tonica.
“ragazzino” che significa uomo di giovane età di sesso maschile a cui si
aggiunge la connotazione “piccolo” (”ragazz-” + “-in-” + “-o”). Allo stesso
modo in armonia è possibile aggiungere a una triade delle voci al fine di
modificare il colore lasciando intatta la funzione: DO-MI-SOL-SI-RE ha la
stessa funzione dell’accordo DO-MI-SOL, tuttavia la settima e la nona
aggiungono una particolare sfumatura restringendo in un certo senso il
campo semantico. Infatti, come “ragazzo” è più indefinito di “ragazzino”
così un accordo a tre voci risulta più indefinito e ambiguo di uno a cinque
voci77. Sempre nelle varianti morfologiche facciamo rientrare il
procedimento di cambiare la tonalità a un brano che dalla tonalità
maggiore passa a quella minore o viceversa. È possibile, data una
melodia armonizzata, cambiare sia il modo della melodia che quello
dell’armonia mantenendo intatti i rapporti e le gerarchie tra i gradi. È
sufficiente, a livello generale, alterare le note che interessano la struttura
della tonalità cosicché passare da DO maggiore a DO minore comporterà
l’abbassamento di un semitono tutti i SI, i MI e i LA oppure se si vuole
passare da LA minore a LA maggiore verranno alzati di un semitono i FA, i
DO e i SOL e la melodia manterrà intatta la sua identità ma con un sapore
diverso. I procedimenti appena delineati sono alla base del “fare
musicale”, ogni compositore infatti si trova costantemente a variare i
percorsi armonici colorando le armonie o variando il modo come avviene
ad esempio nella parte centrale della forma sonata, dove sono sviluppati i
temi esposti e dove il compositore può dare libero sfogo alla sua fantasia.
Esistono parole nel linguaggio verbale che possono avere più
significati che vengono attivati a seconda del contesto, ma esistono dei
107
77 Sulla base dell’ambiguità funzionale di un accordo si costruisce il sistema modale del jazz. Per esempio, mentre sull’accordo DO-MI-SOL è possibile suonare sia una scala ionica che una misolidia in quanto differiscono per il VII grado, su quello di DO-MI-SOL-SIb si è vincolati a suonare la scala misolidia escludendo quindi la ionica.
casi in cui una parola assume contemporaneamente più significati, come
nella frase «Milano pulita è l’aspirazione di tutti», dove “aspirazione” è sia
desiderio di vedere Milano pulita che il “lavorare da parte di tutti” per
renderla pulita, e rientra nella figura retorica dell’anfibologia (Calabrese
2008) interessando principalmente l’area semantica della parola. Anche in
musica un accordo può avere più significati che emergono dal contesto
armonico come ad esempio l’accordo di DO maggiore è I grado in tonalità
di DO maggiore, V grado in FA maggiore, IV in SOL maggiore e così via.
Possiamo dire che l’anfibologia musicale è rintracciabile nelle
modulazioni78, più precisamente nei passaggi modulanti, in cui degli
accordi “perno”79 comuni alle due tonalità assumono allo stesso tempo
due significati armonici fino a ché la modulazione non viene conclusa: tutti
i DO prima della modulazione sono I grado di DO, successivamente
diventano IV grado di SOL ma durante la modulazione sono parte di
entrambe le tonalità.
Le parole nel linguaggio si susseguono formando delle frasi, lo
stesso avviene per il materiale musicale dove le frasi vengono
inframmezzate dalla punteggiatura musicale, quella che gran parte dei
manuali associano alle cadenze. La cadenza perfetta (V-I) spesso viene
associata al punto, ma se l’accordo che precede la tonica è una settima di
dominante (V7-I) la cadenza diventa molto più di un punto e assomiglia a
una chiusura di paragrafo, mentre la cadenza plagale (IV-I) e la cadenza
imperfetta (V-I6)80, per il loro carattere poco conclusivo, assomigliano più a
108
78 Tarasti (2002) vede l’ambiguità nell’enarmonia che è il rapporto tra due suoni diversi nella notazione, ma di altezza identica come per esempio tra DO# e REb.79 cfr. Piston (1941)80 Il numero “6” in alto significa che l’accordo è in stato di primo rivolto (in merito alla cifratura degli accordi cfr. Piston 1941).
delle virgole laddove la cadenza sospesa (I-V) si può rintracciare nei tre
puntini di sospensione.
2.2.3. Sulla scrittura
Walter Ong (1982), nel suo celebre lavoro sulle tecnologie della
parola, evidenzia che il pensiero e l’espressione dei parlanti che fanno
parte di una cultura che non conosce la scrittura sono profondamente
diversi da quelli cresciuti nella scrittura, perché la tecnologia della scrittura
pone il parlante in una condizione di non ritorno, da cui non è possibile
pensare le parole senza vederle rappresentate. Il pensiero delle persone
che non conoscono la scrittura risulta per Ong aggregativo e paratattico,
cioè è basato su frasi coordinate piuttosto che subordinate, in cui la
ridondanza risulta fondamentale al fine della memorizzazione del discorso
che non può scindersi dai parlanti quindi dal contesto. Per questo motivo, i
parlanti analfabeti, appaiono tradizionalisti e conservatori, il sapere è
vincolato dalle persone e deve essere vicino all’esperienza umana e alla
vita quotidiana da cui deriva anche una certa difficoltà nell’astrazione.
Parimenti Sloboda (1985)81 evidenzia soprattutto gli svantaggi che la
scrittura può portare e che consistono in primo luogo all’allontanamento
del pensiero dal parlante, successivamente a un impoverimento della
comunicazione in quanto scrivere significa preservare solo le informazioni
fonetiche tralasciandone altre quali gesti, toni, ritmo e intonazioni. Nella
musica allo stesso modo la notazione ha portato sia vantaggi che
svantaggi.
109
81 Gli esempi di Sloboda (1985) in merito alla diversità tra culture orali e culture scritte sono tratti dalla musica tonale occidentale e dai canti dei Venda del sud Africa, culture musicali molto distanti tra loro.
Analogamente alla scrittura per il linguaggio, la notazione permette al
pensiero melodico di divenire più complesso perché non più legato alla
memoria, senza scrittura sarebbe difficile pensare alla polifonia del
Cinquecento, ma soprattutto alla complessa architettura del contrappunto
bachiano nell’Arte della fuga, nonché alle melodie “infinite” di Wagner. La
scrittura, dunque, rende il pensiero musicale più lungo e articolato, ne
consente una composizione ragionata perché permette di ponderare i
rapporti tra le parti ma soprattutto rende possibile la progettazione e quindi
la costruzione di forme complesse e lunghe impensabili per una cultura
orale. Le culture musicali orali, a dispetto di quelle basate sulla scrittura,
sono prevalentemente conservatrici: i canti gregoriani dell’ultimo periodo,
quello antecedente alla scrittura, sono ad esempio un assemblaggio di
frammenti melodici pre-esistenti, allo stesso modo nel blues l’impianto
armonico, salvo micro-cambiamenti, è sempre lo stesso tanto che la
progressione armonica viene definita standard proprio per sottolineare la
sua struttura fissa e invariabile (una definizione usata anche nel jazz, il
quale possiede la stessa natura orale). Ciò che nel blues varia è la
melodia affidata all’improvvisazione che avviene, analogamente ai poemi
omerici descritti da Ong, secondo cliché fissi che vengono chiamati
pattern, cioè “campioni”. Quello che rende un brano diverso dall’altro nel
blues è la scelta e l’accostamento dei pattern, ma soprattutto il tocco
dell’esecutore che coincide con l’autore.
Se si riprende il discorso di Sloboda sugli svantaggi della scrittura
che, come già anticipato «può portare a un impoverimento della
comunicazione» (Sloboda 1985, 375), è assolutamente vero, in luce di
quanto detto riguardo al fatto che il blues sia basato sull’improvvisazione,
che esso deve la sua sopravvivenza ai supporti di registrazione.
Fortunatamente nel Novecento, gli apparecchi fonografici hanno reso
110
possibile fissare e riprodurre la musica improvvisata; del blues allora non
rimarrebbe nulla e si perderebbe ogni traccia come è successo con le
improvvisazioni Chopin82. Il supporto fonografico permette non solo di
uscire dall’hic et nunc83 ma anche di poter registrare tutte le informazioni
di cui la notazione non può tenere conto84. Nel blues ad esempio – ma
anche nel rock e in genere in tutte le musiche in cui compare la chitarra –
si usa spesso il cosiddetto bending, che consiste nel “tirare” la corda della
chitarra alzando l’intonazione di un quarto di tono, sfumatura che nella
nostra notazione convenzionale non è possibile registrare; lo stesso si può
dire per quei fraseggi che, benché siano estremamente semplici e intuitivi
da suonare, risultano molto complessi da trascrivere a livello ritmico. La
notazione, inoltre, non riesce a tenere conto del timbro, se non fornendo
un’indicazione dello strumento da utilizzare, sistema che rimane sempre
molto approssimativo. Si può allora concludere che, analogamente al
linguaggio, la notazione cristallizza il modo in cui la musica viene pensata,
non solo nella limitatezza delle informazioni che veicola, ma anche perché
condiziona il compositore facendo che si muova solo entro i soli parametri
di cui essa tiene conto.
Scrivere la musica significa operare una traduzione inter-
dimensionale, ossia lavorare tra materiali differenti85, che consiste nel
rappresentare sul piano visivo un qualcosa che avviene sul piano
111
82 «Purtroppo le improvvisazioni di Chopin sono un libro chiuso per sempre. Non avremo mai idea di quello che furono» (Iwaszkiewicz 1991, 80). Lo stesso vale per Bach e Beethoven, dei quali si parla in termini di formidabili improvvisatori.83 Non ci riferiamo alla perdita dell’aura tracciata da Walter Benjamin (1936), piuttosto vogliamo evidenziare la possibilità di ascoltare un brano in un tempo e in uno spazio che sono diversi da quelli dell’esecuzione.84 Senza supporti fonografici aggiungiamo che non sarebbe nemmeno possibile registrare quelle che nella prossima sezione chiameremo “onomatopee extra-linguistiche”.85 Ci sembra quanto mai vera l’espressione di Frank Zappa: «Parlare di musica è come ballare di architettura» (Zappa e Occhiogrosso 1990)
sonoro86. Fortunatamente entrambi i piani sono bidimensionali: il piano
visivo è composto da due assi, quello orizzontale e quello verticale, il
piano sonoro da quelli della frequenza e del tempo87. Fin dai primi sistemi
di scrittura, cioè i neumi apparsi attorno al IX secolo, l’uomo si è
rapportato allo spazio associando intuitivamente alla dimensione verticale
l’altezza del suono rappresentando i suoni acuti più in alto rispetto a quelli
gravi. Nel XIII secolo è stata introdotta, con la notazione quadrata, la
possibilità di indicare anche il tempo, molto importante in vista dell’avvento
delle grandi composizioni polifoniche del XV secolo che portano allo
sviluppo della notazione mensurale bianca – il prototipo della notazione
moderna codificata verso il XVII secolo – dove altezze e durate vengono
definite attraverso un sistema semi-simbolico88.
Il modo in cui l’uomo si è rapportato intuitivamente alla notazione
della musica rispetto alla scrittura per la parola riflette il carattere spaziale
della musica rispetto all’arbitrarietà della parola. Il linguaggio verbale
utilizza dei segni che vengono scelti arbitrariamente, per cui il segno “a”
non ha nulla a che fare con il suono /a/, allo stesso modo la parola
“albero” non ha alcuna relazione di somiglianza con il concetto di albero. Il
sistema di notazione sviluppato in occidente invece, come abbiamo
appena visto, seppur astratto mantiene sempre un livello di analogia con
lo spazio, un ulteriore dato che supporta in primo luogo la tesi di Meidner
(1985) secondo il quale l’ascoltatore rappresenta mentalmente uno spazio
112
86 Ci affascina il fatto che se scrivere è rappresentare nel visivo ciò che avviene nel sonoro, il madrigalismo consiste nel rappresentare nel piano sonoro ciò che avviene nel piano visivo.87 Ci sembra interessante far notare che già la frequenza in sé implichi il tempo; quello che l’uomo definisce “suono” altro non è che “colpi” così ravvicinati che permettono di percepire un “suono” la cui altezza tonale è in rapporto alla quantità di colpi che avvengono in un secondo.88 Sulla notazione musicale cfr. Cattin (1991), Lanza (1984) e Apel (1962).
virtuale bidimensionale dove colloca tempo e altezza tonale, in secondo
luogo la tesi che la musica è rappresentazione di qualcosa di extra-
musicale (come abbiamo visto a proposito dei madrigalismi e nella parte
dedicata alla semiologia della musica).
2.2.4. Musica come forma di argomentazione
Da quando si è affermata la forma sonata si è compresa l’importanza
che lo sviluppo del materiale tematico svolge al suo interno. Come stiamo
tentando di dimostrare in questo lavoro, in un’argomentazione, in genere,
è importante esporre i temi di cui si vuole parlare, svilupparli per riprenderli
successivamente al fine di trarne delle conclusioni. Nella parte introduttiva
si espongono gli argomenti, anche multidisciplinari, che verranno trattati,
nella parte centrale si sviluppano questi argomenti cercando di collegare
tra loro le teorie, nella parte finale, riprendendo gli argomenti, si traggono
le conclusioni alla luce della trattazione appena compiuta. Allo stesso
modo si comporta la forma sonata classica89 che è tripartita – in quanto
comprende esposizione, sviluppo e ripresa – e bitematica – perché utilizza
due temi, il primo costruito sull’impianto di tonica e dal carattere
movimentato, il secondo costruito prevalentemente su quello della
dominante o sulla relativa maggiore ed è più disteso90. Nell’esposizione si
mostrano i due temi che nello sviluppo andranno fatti interagire al fine di
coglierne ogni sfumatura armonica attraverso contrasti, sovrapposizioni e
sviluppi in senso stretto (tema della variazione), mentre nella ripresa i due
113
89 Quella sviluppata da Haydn, Mozart, Beethoven durante il classicismo viennese che si è protratta fino a metà del XIX secolo.90 Sulla natura dei due temi della forma sonata bisogna ricordare che, benché codificata, ogni compositore si comporta come crede. Qui tuttavia ci rifacciamo alla teoria della forma così come è stata codificata durante il classicismo viennese.
temi originali vengono recuperati, i quali, dopo il lungo e tortuoso percorso
dello sviluppo, appariranno più chiari e finalmente, dopo l’indagine
psicologica condotta nello sviluppo, verranno conosciuti nel profondo;
spesso i compositori decidono di anteporre una breve introduzione o
concludere con una codetta91.
Un caso specifico di argomentazione musicale è rappresentato dal
Miserere di Josquin Des Prez (1450-1521) il quale decide di seguire le
raccomandazioni dei trattati di retorica sulla dispositio che è quella parte
della retorica che determina l’organizzazione del materiale. Quintiliano92 in
merito raccomanda che davanti a un giudice conviene aprire l’orazione,
cioè l’exordium, presentandosi deboli allo scopo di suscitare pietà per
scatenarsi successivamente nella peroratio in «un fiume di eloquenza per
riuscire a far appello alle emozioni del giudice nel modo più
efficace» (Macey 2004, 326). Analogamente Josquin affida l’exordium al
secondo tenore che implora pietà su una singola nota molto debole che
viene seguito dal basso che lo imita. Successivamente, nella peroratio
(misura 19), tutte le voci entrano generando un energico senso di climax
(Macey 2004).
2.2.5. Sintassi
La sintassi del linguaggio musicale condivide con quella del
linguaggio naturale caratteristiche come la discretezza, la linearità e la
ricorsività. Il discreto è l’opposto del continuo, nel senso che l’informazione
viaggia attraverso pacchetti e tra questi non vi è nulla e per linearità si
114
91 Sulla forma sonata cfr. Bellisario (1981), Azzaroni (1997) e Ulrich (1977).92 Quintiliano, Institutio oratoria, ed. con testo a fronte a cura di A. Pennacini, 2 voll., Torino: Einaudi (Macey 2004).
intende che questi pacchetti vengono disposti in fila l’uno dopo l’altro
mentre con ricorsività «s’intende […] la capacità di iterare all’infinito un
processo sulla stessa struttura» (Moro 2006, 77), in altre parole è la
capacità di produrre strutture potenzialmente infinite attraverso la
combinazione gerarchica ma lineare di elementi discreti.
Una pionieristica analisi della sintassi musicale, che anticipa di
vent’anni le idee di Chomsky nell’ambito della linguistica, lo rintracciamo
nel musicologo Heinrich Schenker (1935), il quale crede che la
comprensione musicale consista nella costruzione mentale del sistema di
rapporti tra i suoni musicali. Alla base di ogni buona composizione
musicale c’è sempre una stessa struttura di base, l’Ursatz, che poi viene
sviluppata a livello superficiale dal compositore, l’Urlinie per cui secondo
Schenker una buona composizione musicale si manifesterebbe nei tratti
superficiali cioè nell’atto individuale, riflettendo una struttura di base
comune. Questo processo, per molti versi, sembra simile alla distinzione
saussuriana tra langue e parole, vale a dire tra la parte sociale e la parte
individuale. Nella musica tonale i percorsi armonici partono da uno stato di
equilibrio iniziale, ossia la tonica, procedono verso la dominante che
introduce la tensione e quindi ritornano all’equilibrio, cioè alla tonica. A
livello superficiale, per creare interesse, questo percorso non è così
lineare, ma viene, con parole di Schenker, “prolungato” cioè concretizzato
attraverso lo “s-volgimento” (aus-komponierung): una progressione
armonica come I-I6-V-I non sarebbe che il prolungamento della struttura di
base I-V-I. Come Schenker, anche il linguista Noam Chomsky (1957)93
afferma che tutti i linguaggi naturali hanno a livello profondo la stessa
struttura. Consideriamo ad esempio la frase “Giovanni ama Maria” che
115
93 Sloboda (1985) respinge l’idea che Chomsky abbia conosciuto l’opera di Schenker, semplicemente afferma che è un caso di due menti creative che in assoluta indipendenza hanno affrontato nella stessa maniera due argomenti differenti.
rispecchia una struttura di base composta da sintagma nominale
(Giovanni) e sintagma verbale (ama Maria). Un’altra frase come “il cane
rincorre il gatto” rispecchia a livello base la stessa struttura, come anche “il
tuo deforme cane randagio rincorre il mio amato gatto”; entrambe sono
costituite da un sintagma nominale (il cane; il tuo deforme cane randagio)
e uno verbale (rincorre il gatto; rincorre il mio amato gatto).
Sviluppando le idee della riduzione di Schenker e della sintassi
generativa di Chomsky, il musicologo Fred Lerdahl e il linguista Ray
Jackendoff pubblicano nel 1983, nell’ambito della psicologia cognitiva, un
lavoro che risulta di notevole importanza per lo studio della sintassi
musicale e che consiste nell’indagare il processo ideale che verrebbe
compiuto dall’ascoltatore tipo individuando i principi cognitivi generali che
stanno alla base della fruizione musicale94. Nel linguaggio ciò che udiamo
sono i suoni delle parole da cui grazie alla competenza linguistica è
possibile estrapolare i rapporti gerarchico-sintattici, nondimeno nell’ascolto
musicale, ciò che giunge alle nostre orecchie sono le note, che
successivamente vengono ricondotte a una struttura astratta che è la
sintassi. Seguendo Chomsky (1957) e utilizzando la sua rappresentazione
per mezzo dei diagrammi ad albero, gli autori formalizzano una teoria
generativa della musica tonale (Generative Theory of Tonal Music) che
vede un ascoltatore competente95 utilizzare una serie di regole analitiche e
116
94 Tuttavia, in un articolo dello stesso anno Lerdahl e Jackendoff (1983b) argomentano alcune differenze tra la loro teoria e quella di Schenker: innanzitutto la loro è una teoria psicologica e non estetica, Schenker infatti parla di “buona composizione” mentre gli autori usano “well-formedness rules”. Schenker si serve della sua teoria per illuminare i capolavori, laddove Lerdahl e Jackendoff la utilizzano per indagare i principi della cognizione musicale ed è applicabile sia ai capolavori che alla musica triviale perché la mente dell’ascoltatore rimane sempre la stessa.95 Competenza secondo Chomsky è la capacità del parlante (o dell’ascoltatore) a riconoscere ciò che è giusto da ciò che è sbagliato, che si forma in maniera implicita e non ha nulla a che vedere con l’alfabetizzazione che si forma in maniera esplicita. L’acquisizione di una lingua «è una cosa che a un bambino succede, non una cosa che un bambino fa, (cfr. Chomsky 1992)» (Moro 2006, 70).
ricorsive per rappresentarsi mentalmente ciò che ascolta. Partendo
dall’Ursatz di Schenker trovano che è possibile giungere all’Urlinie
attraverso un procedimento ricorsivo che viene realizzato, nel loro modello
come in quello di Chomsky, attraverso la “ramificazione” gerarchica del
diagramma. Per gerarchia gli autori intendono degli elementi o delle
regioni adiacenti che sono in relazione e che ne contengono – o possono
contenerne – degli altri, una relazione di appartenenza o contenenza che
avviene tra i livelli con un procedimento di tipo ricorsivo.
La loro rappresentazione della struttura sintagmatica aiuterebbe
inoltre a disambiguare gli accordi nel consueto fenomeno della
modulazione visto sopra. È celebre la frase ambigua di Chomsky “Gianni
colpì l’uomo col coltello” che può significare sia che Gianni colpisce per
mezzo di un coltello sia che l’uomo colpito possedeva un coltello. In
questa frase vi ritroviamo, utilizzando i termini di analisi di Schenker, una
stessa struttura di superficie e due diverse strutture di base. Per mezzo
della rappresentazione della struttura sintagmatica ad alberi, è possibile
rappresentare e quindi attivare un senso o un altro semplicemente
associando il sintagma “col coltello” o a “colpì” o a “l’uomo”. Allo stesso
modo gli accordi perno possono essere associati a una regione tonale
piuttosto che a un’altra semplicemente rappresentandoli attraverso il
diagramma ad alberi proposto da Lerdahl e Jackendoff (1983a).
Abbiamo visto con Ong (1982), in merito alla tecnologia della
scrittura al servizio della parola, che un parlante analfabeta rispetto a uno
alfabetizzato utilizza uno stile prevalentemente paratattico piuttosto che
ipotattico e anche che l’alfabetizzazione musicale influisce sulla
complessità del pensiero melodico/armonico del compositore. Questa
diversità legata alla cultura scritta può essere rintracciata anche nella
sintassi musicale dove le culture orali utilizzeranno prevalentemente una
117
sintassi paratattica e quelle scritte ipotattica. Come abbiamo appena visto
con Schenker, in tutte le buone composizioni musicali, cioè in quelle del
periodo tonale, si rintraccerebbe una stessa struttura di base che,
sviluppata, cioè prolungata, darebbe vita all’opera di un particolare autore.
Questo sviluppo potrebbe essere associato allo stile ipotattico che si
rintraccia nei parlanti alfabetizzati, crediamo, infatti, che una lunga
progressione armonica – come può essere un tema delle ultime sinfonie di
Beethoven – possa essere definita ipotattica perché una modulazione
estemporanea è per molti versi simile alla subordinazione del pensiero
linguistico, infatti, nella musica tonale gli accordi si concatenano allo
stesso modo delle tonalità che vanno a formare le “regioni armoniche” che
sono peraltro visibili graficamente negli alberi sintattici proposti da Lerdahl
e Jackendoff (1983a). Diversamente dalle culture musicali basate sulla
scrittura, quelle orali – e prendiamo ad esempio buona parte della musica
pop e rock – utilizzano un materiale armonico melodico ridotto e
ridondante come il riff, che nel rock è una frase musicale molto breve che
viene costantemente ripetuta, anche per tutto il brano, e che non viene
legata alle altre secondo le regole della sintassi tonale, ma semplicemente
per giustapposizione. Rappresentando un brano rock con il diagramma ad
albero di Lerdahl e Jackendoff si osserverebbe, come conseguenza della
mancanza di regioni armoniche subordinate, una “ramificazione” molto
ridotta96.
Nella sintassi del linguaggio naturale le frasi subordinate sono legate
alle principali attraverso le congiunzioni subordinate come avviene nella
frase “Gianni compra un libro che un suo amico che ha conosciuto a
118
96 Nei seminari tenuti da David Pesetsky si è provato a estendere la teoria generativa della musica tonale di Lerdahl e Jackendoff (1983a) dimostrando in particolar modo che gli elementi musicali si combinano come gli elementi lessicali nelle frasi. Particolare attenzione viene posta alla regola ricorsiva dell’attaccamento e della composizione (Pesetsky 2007; Katz e Pesetsky 2009).
scuola gli ha consigliato”, dove è la congiunzione “che” a tenere uniti i tre
sintagmi. È stato sottolineato che nelle musiche da noi definite ipotattiche
vi è uso di subordinate, ora ipotizziamo che le congiunzioni subordinanti in
musica si possano rappresentare con la dominante secondaria, ossia la
dominante della dominante97 cosicché la frase sopra trova un analogo in
musica nella progressione “DO - LAm - REm - RE - SOL - SOL/SI - DO - DO7 -
FA” in cui compaiono due congiunzioni: il RE (composto da RE, FA#, LA in
cui FA# esce dalla tonalità di DO per andare in quella di SOL) che diventa
dominante di SOL e il DO7 (composto da DO, MI, SOL, SIb dove quest’ultimo
esce dalla tonalità di DO per entrare in quella di FA) che diventa settima di
dominante di FA.
2.2.6. Significato
Proporremo ora una teoria sul significato musicale divisa in due
momenti: dapprima, proseguendo l’approccio generativo proposto da
Lerdahl e Jackendoff (1983a), si proverà ad analizzare la sintassi tonale
attraverso il percorso generativo del senso di Greimas, successivamente
si proporrà un modello di percezione del significato musicale utile per
mettere a punto una definizione del segno musicale che tenga conto degli
aspetti sensoriali e cognitivi coinvolti.
119
97 La dominante secondaria si ottiene trasformando in maggiore il V grado del V grado della tonalità cosicché se SOL è V grado di DO, la dominante secondaria sarà RE che è V grado di SOL (ma anche II di DO); in DO maggiore il II grado è minore, per cui alzando la terza esso potrà fornire la tensione sufficiente per tendere e quindi risolvere su SOL.
2.2.6.1. Il percorso generativo del senso
Negli anni Settanta Algirdas Julien Greimas elabora, partendo
dall’assunto che il senso è un sistema semantico che viene organizzato
per livelli di profondità, un pensiero secondo il quale gli elementi più
profondi genererebbero quelli più superficiali attraverso delle regole di
conversione. Greimas (1983), il quale ritiene che «il senso può essere
colto solo attraverso la sua narrativizzazione» (Traini 2006, 133), riforma
da Vladimir Propp (1928) le sfere d’azione e chiama attanti quelle figure
astratte e molto generalizzabili che devono compiere un’azione, che nel
concreto della narrazione diventano attori, e sviluppa la grammatica
narrativa allo scopo di rintracciare una grammatica elementare della
narratività. Chiariamo con un esempio: una principessa deve essere
salvata dal principe, ma questo, per salvarla, deve sconfiggere il drago
con l’aiuto della spada. In questo caso entrano in gioco quattro attori che
sono il principe, la principessa, il drago e la spada i quali svolgono
rispettivamente i ruoli attanziali di Soggetto, Oggetto, Opponente e
Aiutante98; partendo dal fatto che, secondo Greimas, la narrazione è una
struttura di trasformazioni attraverso congiunzioni e disgiunzioni99, il
programma narrativo di base nel nostro esempio sarà che il Soggetto
(principe) deve congiungersi con l’Oggetto (principessa), ma deve
superare l’Opponente (drago) per mezzo di un Aiutante (spada).
Possiamo ora intraprendere un percorso generativo del senso anche
per quello che riguarda il materiale musicale. Abbiamo visto prima con
120
98 Si può anche avere un attore che ricopre più ruoli attanziali e viceversa, come nel caso in cui la principessa sia cercata di più principi (ogni persona è un attore, ma tutti hanno lo stesso ruolo).99 In termini psicoanalitici, l’ascolto musicale viene concepito come una serie ininterrotta di lutti (Mancia 1998): ci si separa continuamente da forme compiute in attesa di nuove forme.
Schenker (1935) e poi con Lerdahl e Jackendoff (1983a) come da una
struttura di base si arrivi a una struttura di superficie attraverso un
procedimento ricorsivo. Possiamo dire che i ruoli attanziali di Soggetto e
Oggetto vengono ricoperti entrambi dalla tonica, il grado più importante da
cui tutto nasce e verso cui tutto torna, per cui avremo che il Soggetto
tonica deve congiungersi con l’Oggetto tonica, mentre il ruolo di
Opponente viene ricoperto dalla dominante, dalle dissonanze e dai
percorsi armonici più imprevisti, così, tanto più azzardata sarà la
lontananza dal centro tonale, tanto più sarà “cattivo il drago”. Gli attori in
questo modello, come nelle narrazioni, saranno diversi per ogni brano, più
precisamente per ogni tonalità tanto che in DO maggiore l’attore DO
svolgerà sia il ruolo attanziale di soggetto che quello di oggetto e il SOL
sarà il suo opponente, mentre in tonalità di SOL troveremo l’attore SOL
come Soggetto e Oggetto e il RE come Opponente. Come nelle storie una
macro narrazione è un insieme di micro narrazioni, così nei percorsi
armonici vi saranno di volta in volta dei sub-passaggi, magari in altre
tonalità, che tenderanno in ogni modo alla tonica della tonalità di
partenza100, inoltre, più sarà arduo il percorso e maggiore sarà il grado di
piacevolezza all’ascoltatore. Tale schema pare peraltro molto simile a
quello proposto da Lerdahl (1988) presentato nella teoria del Tonal pitch
space theory (TPST): le relazioni sintattiche tra gli eventi musicali sono
espresse in termini di distanza che li separa dal centro tonale (la tonica)
cosicché, se alla dominante si assegna il valore 5, altrettanti punti servono
per ritornare alla tonica101. Domandiamoci ora che interesse potrebbe
121
100 Pensiamo alla forma sonata in cui i due temi sono in tonalità di tonica e di dominante.101 Alla base dello studio di Lerdahl (1988) troviamo la teoria della tensione e del rilassamento sviluppata da Lerdahl e Jackendoff (1983a) per cui partendo dalla tonica e arrivando alla dominante si crea una tensione che verrà dissipata solo ritornando alla tonica perciò un rilassamento.
avere una storia in cui si narri di un principe che non deve salvare la
principessa e che per centinaia di pagine non succeda nulla;
analogamente, che interesse potrebbe suscitare un brano con un solo
accordo102? È altrettanto vero che un brano in cui la tonica non viene mai
raggiunta, genererebbe frustrazione in chi lo ascolta, infatti, come osserva
Meyer (1956), il ruolo del compositore è a metà via tra il soddisfare e il
non soddisfare le aspettative dell’ascoltatore, pensiero che viene espresso
anche da Reginald Smith Brindle in una prospettiva diretta alla
composizione musicale in cui afferma che il nuovo tema
non dev’essere tanto diverso da distruggere il senso di coesione, né tanto simile da non dare alcuna sensazione di cambiamento (Brindle 1992, 48).
Una posizione complementare alla nostra ipotesi è quella di Marconi
(2007) che ricostruendo il processo generativo del senso del sistema
tonale, si concentra sul livello semantico profondo delle strutture semio-
narrative e non vede il percorso armonico come congiunzione del
Soggetto all’Oggetto – che rientra nell’impianto di Greimas nel livello di
superficie –, ma vede piuttosto la tonica muoversi da uno stato di tonica a
uno di non-tonica chiamato dominante per poi ritornare a uno stato di
tonica. L’autore continua con la dichiarazione di Schopenhauer secondo la
qua le la mus ica è « i l l inguaggio de l sent imento e de l la
passione» (Schopenhauer 1819, 349), spiega la narrativizzazione della
musica tonale in termini di pulsioni passionali e di raggiungimento della
meta attraverso «”metafore concettuali” (Lakoff e Johnson 1980, tr. it. p .
22) che [strutturano] l’esperienza delle musiche tonali proiettandovi aspetti
122
102 Ricordiamo che siamo in un regime tonale per cui si escludono lavori sperimentali del calibro di No pussyfooting (Brian Eno e Robert Fripp) o dell’Op. 16 di Schönberg (dove viene utilizzata la kangfarbenmelodie cioè la melodia di colori di suono) in cui non vi compaiono né progressioni armoniche né riferimenti alla musica tonale.
dell’esperienza narrativa o di quella emotiva» (Marconi 2007, 10), e
realizza le metafore secondo cui “un brano tonale è un percorso narrativo”
e “un brano tonale è un percorso emotivo”.
Se Eero Tarasti afferma che
l’intero sistema di Greimas103 è applicabile alla musica ed ha forti paralleli con il modello musico-analitico di Heinrich Schenker, sistema parimenti ‘assiomatico’ e generativo (Tarasti 2002, 18-19)
riteniamo che la nostra ipotesi possa convivere con quella di Marconi
e contribuire ad arricchirla piuttosto che porsi in conflitto con essa in
quanto abbiamo visto – oltre a Schenker anche con Chomsky e con
Lerdahl e Jackendoff – che anche in musica è possibile partire dalle
strutture di base per arrivare a quelle di superficie.
2.2.6.2. Modello percettivo della significazione musicale
Abbiamo avuto modo di osservare fino a questo momento come vi
siano molteplici teorie sul significato musicale. Gli studi semiotici si
concentrano sul significato extra-musicale che sembra dipendere
dall’essenza imitativa del linguaggio musicale come nel caso
dell’imitazione comportamenti orali (Fonagy 1981, 1983), di espressioni
vocali (Marconi 2001a), o come è possibile rappresentarla lungo la
dimensione spaziale (Meidner 1985; Stefani et al 1990; Stefani e Marconi
1992). In relazione a un significato propriamente musicale si concentrano
gli studi nell’ambito della psicologia cognitiva come nel caso degli
esperimenti sul priming armonico i quali rivelano che un accordo porta con
123
103 Un’altra applicazione dello schema attanziale di Greimas viene fornito da Tarasti (1991) che vede la melodia del classicismo viennese e del successivo romanticismo trasformarsi in attore virtuale fino a diventare protagonista del discorso musicale.
sé un significato sintattico, cioè il ruolo che svolge in un contesto
armonico: Bharucha (1987) ad esempio, ipotizza una rete semantica
analoga a quella linguistica (Collins e Loftus 1975) in cui gli accordi in
relazione armonica sono maggiormente legati rispetto a quelli che non lo
sono. Riprendendo Middleton (1990) che parla di significazione primaria e
secondaria, si potrebbe allora includere le idee di significato musicale ed
extra-musicale in un sistema che tenga conto di connotazione e
denotazione che non sono qualitativamente diverse, ma lo sono
quantitativamente, e che questa quantità consista in porzioni di significato
che investono l’oggetto musicale.
I modelli di percezione musicale mostrano che lo stimolo viene
elaborato nel tempo muovendosi dal basso verso l’alto cioè dal sensoriale
verso il cognitivo, in altri termini dal biologico al culturale (McAdams 1996;
Koelsch e Siebel 2005; Peretz e Coltheart 2003) o ancora, dall’uditivo al
musicale; allo stesso modo sembra sia possibile implementare questo
modello aggiungendo dapprima il modulo della denotazione e
successivamente quello della connotazione continuando perciò il percorso
che dal collettivo procede verso l’individuale. Luis Hjelmslev (1943), che
riprende da De Saussure l’idea che il segno è l’unione di un significante e
di un significato, ritiene che la funzione segnica sia la relazione tra il piano
dell’espressione (significante) e quello del contenuto (significato) e che
questa relazione prenda il nome di denotazione che a sua volta può
essere espressione di un altro contenuto la cui relazione prende il nome di
connotazione104 che è una significazione addizionale.
Il modello percettivo uditivo/musicale procede dal suono alla musica
o, in altre parole, la decodifica inizia dal piano dell’espressione per arrivare
124
104 «Se l’espressione /casa/, che denota il contenuto “edificio di uso privato”, viene pronunciata con la “c” aspirata toscana, allora tale espressione contrae una seconda relazione con il contenuto connotativo “toscanità”» (Traini 2006, 79).
a quello del contenuto, così, se si volesse implementare il modello di
percezione musicale con la funzione segnica di Hjelmslev, si ipotizzerebbe
che la denotazione debba precedere la connotazione per due motivi: in
primo luogo, per contiguità con gli studi di psicologia, l’elaborazione del
materiale musicale procede da un’elaborazione caratteristiche fisiche a
quelle dello stimolo per quello che significa. In secondo luogo, per
contiguità con il concetto di langue e parole, l’elaborazione del materiale
musicale avviene in un primo stadio secondo procedimenti comuni a tutti
gli uomini – che abbiamo potuto vedere negli universali musicali –,
successivamente per il significato “sintattico” di una determinata cultura
musicale – che abbiamo potuto vedere in merito alla sintassi musicale – e
infine per il significato che l’ascoltatore associa al suo oggetto musicale105
e secondo noi più si aggiungono livelli connotativi più ci si dirige verso
l’individuale. Ritornando perciò al nostro modello di percezione del
125
105 Il percorso della percezione qui delineato in termini di universale/culturale è osservabile grosso modo anche in termini neuroscientifici nel percorso che l’informazione compie procedendo dagli organi di senso verso la corteccia cerebrale: inizialmente il suono viene elaborato per la sua importanza ai fini della sopravvivenza (localizzazione, intensità e frequenza), successivamente sempre per tali motivi si compie l’analisi della scena uditiva secondo i principi della Gestalt. Solo in un secondo momento il materiale acustico diviene musicale e per esserlo vi è bisogno di cultura, per esempio, un rumore improvviso e molto intenso attira maggiore attenzione di una meravigliosa sinfonia di Mozart, questo perché Mozart non è indispensabile alla sopravvivenza. Questa premessa per dire che le elaborazioni di basso livello vengono svolte in aree subcorticali che potremmo chiamare “primordiali” per via del loro antecedente sviluppo sia a livello ontogenetico che filogenetico, le elaborazioni di alto livello invece vengono svolte nella corteccia cerebrale, cioè quella che grosso modo corrisponde alla memoria semantica e che per la sua ampiezza e capacità distingue l’uomo da tutti gli altri animali. Un altro caso che ci aiuta a comprendere questa differenza tra basso e alto livello ci viene dalla teoria di Chomsky (1965) secondo la quale la lingua madre viene acquisita – entro i dodici anni – senza sforzo e senza consapevolezza a differenza di una lingua che si deve imparare il cui apprendimento richiede sforzo e consapevolezza. Questo dimostrerebbe in un altro modo la differenza tra innato e culturale, nel senso che l’acquisizione della lingua è un fenomeno basato sulla facoltà innata di linguaggio propria dell’uomo, infatti è dimostrato che mentre l’elaborazione della lingua madre si rintraccia grosso modo nelle aree di Broca e Wernicke, quella di un linguaggio appreso avviene in altre zone della corteccia cerebrale. Sembra, tuttavia, che un lungo training musicale influisca sulla capacità di decodificare la prosodia del parlato grazie all’enorme capacità cognitiva richiesta dalle operazioni musicali; il materiale musicale, dunque, sembra essere elaborato dai musicisti come un linguaggio naturale, al punto tale da modificare la forma dello strato subcorticale (Wong et al. 2007).
significato musicale, avremo che in un primo momento un determinato
frammento musicale verrà elaborato per il suo significato sintattico,
successivamente per quello semantico in senso stretto. Nella denotazione
vi è un giudizio di coerenza con una determinata sintassi, cioè gli accordi
vengono valutati nel loro significato funzionale, successivamente, nella
connotazione, si compierebbe un’ulteriore elaborazione, di carattere
connotativo, cioè una significazione secondaria. Si potrebbe per cui
mettere in ordine i significati musicali individuati da Koelsch e collaboratori
(2004) disponendoli lungo un asse che dalla denotazione arriva alla
connotazione, che dalle esperienze comuni all’uomo come ad esempio la
metaforizzazione spaziale, si proceda verso un significato legato a una
cultura come ad esempio il riconoscimento di un inno di stato, fino a
un’esperienza personale come nel caso di una musica associata a
un’esperienza personale.
Riassumiamo il modello ipotizzato di percezione del significato
musicale come un sistema strutturato in blocchi che si susseguono a
livello temporale: i) elaborazione delle informazioni relative al suono quali
frequenza e intensità; ii) applicazione dei principi di organizzazione
percettiva; iii) analisi del contorno melodico, l’analisi degli intervalli e
codifica in un sistema tonale; iv) costruzione di una struttura musicale
quale armonia, ritmo e metro; v) associazione di questi elementi a un
lessico musicale; vi) associazione del lessico musicale tramite memoria
associativa a un lessico extra-musicale.
126
2.2.6.3. Prime conclusioni sul significato musicale
Come già accennato, la semiotica considera il significato musicale
come esterno alla musica, mentre la psicologia lo individua nella sintassi.
Pesetsky (2007) afferma che la musica si differenzia dal linguaggio
naturale in quanto manca un lessico con un referente esterno. Se da un
lato è difficile dimostrare che la musica possieda un significato extra-
musicale, dall’altro è facile dimostrare che alcune parole del linguaggio
non abbiano un referente esterno, il significato di queste parole, come
quello individuato dagli psicologi in ambito musicale, è prettamente
funzionale. È il caso delle congiunzioni, cioè quelle parti invariabili del
discorso che coordinano o subordinano unità sintattiche, o il caso dei
pronomi il cui scopo è quello di sostituire un sintagma e che assumono un
significato contestuale come nel caso della frase “la macchina che ho
comprato ieri” dove il che sta per la macchina. In musica, analogamente,
le “parole” sono utilizzate per coordinare altre parole il cui significato,
come già evidenziato dagli studi psicologici è specificatamente sintattico.
È anche vero che, come abbiamo visto, un elemento musicale
esprime sia un ruolo sintattico che qualcos’altro per cui la coppia di
accordi SOL7-DO denoterebbe in primo luogo una cadenza perfetta, poi
una dissonanza che segue una consonanza, potrebbe inoltre connotare
una tensione dissipata, o ancora rappresentare metaforicamente uno stato
di disagio a cui segue uno stato di agio e, aggiungendo strati di
significazione, se realizzata in un certo modo, questa cadenza potrebbe
rappresentare la classica chiusura del periodo musicale nel ballo liscio, o
ancora, se i due accordi sono disposti ad altezze differenti, è possibile
connotare una spinta positiva se l’intervallo è ascendente o negativa se
discendente.
127
Si potrebbe riassumere che per parlare di significato musicale è
necessario individuare prima il livello in cui questo può essere rintracciato
e risulta quindi necessario a tale scopo fornire il modello del segno
musicale.
2.2.7. Il segno musicale
Dal modello di percezione del significato musicale si intuisce che
l’elaborazione cognitiva del materiale musicale procede: i) da regole
universali a regole culturali; ii) da un’elaborazione sensoriale ad una
cognitiva; iii) dalle caratteristiche fisiche dell’oggetto al significato che esso
richiama nella nostra memoria a lungo termine quindi; iv) dall’espressione
al contenuto perciò; v) dall’espressione individuale – la parole di De
Saussure e la struttura di superficie di Schenker – al contenuto culturale –
langue e struttura di base. Da queste premesse è possibile far derivare
un’analoga teoria del segno musicale aiutandoci ancora una volta con la
definizione di funzione segnica individuata da Hjelmslev (1943), la quale
implica un’espressione e un qualcosa di espresso che viene chiamato
contenuto. Questi due piani a loro volta vengono suddivisi, nel suo
impianto teorico, in materia, forma e sostanza dove la materia è tutto
quello che può essere formato, la forma è ciò che appunto forma cioè la
griglia di pertinentizzazione della materia, e la sostanza è la materia
formata. Come già anticipato, sembra che i modelli di percezione musicale
riflettano, attraverso la strada che il suono compie per divenire musica e
poi qualcos’altro, un percorso analogo che dal piano dell’espressione
conduce a quello del contenuto. Tenendo presente che, se per formare un
enunciato orale si procede dalle strutture astratte alla successiva
realizzazione concreta in un percorso che dalla sintassi attraverso
128
l’inserimento delle parole, poi con l’articolazione si produce un suono, per
decodificare un enunciato si procederà inversamente: dal suono, quindi
dal riconoscimento delle parole, in seguito attraverso le regole della
sintassi infine, estrapolando la gerarchia, si evince il significato, e lo
stesso meccanismo di codifica e decodifica si può dire che avvenga per la
musica. Ogni livello possiede delle proprie regole di formazione che dalla
materia informe conduce a una sostanza formata, dove è fondamentale il
concetto di “generatività”.
A questo punto ci torna utile ricordare quanto detto da Marconi
(2001a) in merito al muso del San Bernardo che appare come “espressivo
della tristezza”. Anche in musica un brano “espressivo della tristezza”
viene spiegato da Marconi in termini di imitazione di un’espressione
vocale di tale stato. Come è possibile allora rintracciare il contenuto nel
segno musicale? Proviamo a pensare a un qualcosa composto da diversi
piani, ognuno dei quali suddiviso in materia e forma la cui sostanza, cioè
la sintesi dell’interazione tra queste due e viene generata nel piano
sottostante. Individuiamo ora, dal più esterno al più interno, sei piani del
nostro segno musicale che chiamiamo, esecuzione, suono, tono, sistema,
denotazione e connotazione dove gli strati superficiali, attraverso un
procedimento ricorsivo, generano quelli più interni. Questo modello ci
aiuta a concepire il segno musicale alla luce del fatto che tutto oggi può
considerarsi musica, dove “tutto” si intende essere qualsiasi materia e
qualsiasi forma in qualsiasi piano, si vuole perciò fornire un modello che
non tenga in considerazione la sola musica tonale, ma anche quella
aleatoria e quella elettronica. Ricordiamo che se da un punto di vista
ricettivo gli strati superficiali sono l’espressione di quelli interni, è anche
vero che dal punto di vista dell’emittente coincidono con la condizione
necessaria senza la quale il messaggio non ci sarebbe: il timbro di voce di
129
una persona, poi la lingua, sono la conditio sine qua non del suo
enunciato orale, come in musica vi è il timbro e il temperamento.
PIANO strato
ESECUZIONE M: tutto il meccanico
F: limiti biologici, meccanici, fisici
SUONO M: udibile
F: forma d’onda
TONO M: udibile
F: temperamento
SISTEMA M: n note
F: sintassi, organizzazione
DENOTAZIONE M: ambiguità metrica armonica ecc.
F: accordi, struttura, metro
CONNOTAZIONI -- significazioni aggiuntive
metafore di movimento e spazio
associazioni personali
associazioni affettive
Il piano dell’esecuzione è ciò che nel modello percettivo viene
elaborato nei primissimi stadi e riguarda il suono preso per sé nelle sue
caratteristiche fisiche che a un livello musicale corrisponde alla
riproduzione meccanica e per questo motivo la materia comprende tutto
ciò che è possibile “fare nel mondo”, i cui limiti biologici, fisici e meccanici
di esecuzione rientrano nella forma. Ci è sembrato opportuno includere
questi limiti, in quanto diverse forme nel piano dell’esecuzione possono
già delineare un effetto di senso in quanto la musica può essere rumore
prodotto da un martello pneumatico, una musica creata al computer di
impossibile esecuzione umana o una musica suonata dall’uomo. Nei limiti
130
umani ad esempio possiamo vedere l’impossibilità a raggiungere certe
velocità di esecuzione, dove nei limiti fisici si scorge l’impossibilità di
sentire certi suoni come ad esempio l’onda quadra perfetta106 mentre nei
limiti meccanici che sono in qualche modo legati con quelli fisici capiamo
che un diffusore non potrà mai replicare perfettamente ciò che viene
registrato da un microfono come questo non riuscirà a registrare
perfettamente ciò che uno strumento reale produce. A livello di musica
suonata nella forma dell’esecuzione distinguiamo il tocco dello
strumentista – cioè le minime variazioni individuali lungo le dimensioni di
tempo (assoluto) e frequenza – ma anche il momento esatto in cui questo
suona, per cui due versioni della Quinta sinfonia di Beethoven anche se
suonata dallo stesso strumentista comporta una variazione nel piano
dell’esecuzione e lo stesso discorso è valido per i supporti audio: una
registrazione della Quinta sinfonia di Beethoven a 16bit è diversa da una a
24bit.
Il piano dell’esecuzione genera quello che chiamiamo piano del
suono. Bisogna osservare che nel Novecento il rumore107 è entrato
prepotentemente nel nostro sistema musicale e il modo in cui Henri
Pousseur lavora all’opera Scambi ci appare significativo, infatti il
compositore “forma” dal rumore attraverso degli equalizzatori determinati
intervalli di spettro sonoro fino ad arrivare a porzioni talmente ridotte che
riesce a estrapolare un’onda sinusoidale, un procedimento sottrattivo in
cui si scorge un’analogia con la scultura. In questo piano la materia è
composta da tutte le frequenze che l’uomo può udire dove la forma
131
106 L’onda quadra esiste solamente a livello teorico, poiché essendo quadra si dovrebbe trovare nello stesso momento in due punti differenti.107 Qui si intende rumore in senso lato e senso stretto, dove al primo corrisponde l’idea condivisa di rumore in opposizione al suono intonato, al secondo corrisponde il termine tecnico di “rumore bianco” come suono caratterizzato dalla presenza aleatoria di tutte le frequenze udibili.
estrapola da queste una precisa “forma d’onda” che è quello che in
musica viene chiamato timbro. Il piano del timbro genera ed è espressione
di quello del tono, in quanto un tono può essere riprodotto con diversi
strumenti.
Il piano del tono, benché in rapporto al modello percettivo
corrisponda ancora ai bassi livelli di elaborazione, inizia a lavorare sul
materiale musicale e riguarda l’aspetto fonologico della musica dove nella
materia vi è un continuum di suoni armonici108 che comprende ancora
tutto l’udibile, nella forma vi compaiono i temperamenti, cioè le regole che
stabi l iscono quanto e come segmentare l ’ottava – cioè la
pertinentizzazione – ed è l’espressione del piano chiamato sistema in
quanto è possibile suonare (o meglio, tradurre) un brano in diversi
temperamenti come ad esempio la musica antica che prima dell’attenta
filologia novecentesca veniva eseguita col temperamento equabile
ignorando quelli del tempo.
Il sistema è quel piano in cui si lavora sui suoni individuati dal
temperamento (essendone la sostanza) che rientrano nello strato della
materia, per esempio la sostanza del piano del temperamento nella
musica tonale è composta da dodici note e che sarà la sintassi a dare a
queste una forma e un percorso. La sintassi corrisponde alla strategia di
organizzazione del materiale della sostanza individuata dal temperamento
che è la forma del piano del suono e che in occidente il più delle volte
corrisponde al sistema tonale, ma che può coincidere anche con la
132
108 La differenza tra suono armonico e inarmonico è rintracciabile nelle componenti spettrali, dove nel primo queste hanno un rapporto numerico di 2:1, mentre nel secondo non vi è alcun rapporto. Un suono armonico è per esempio il suono di una corda che vibra o quello della voce umana, un suono inarmonico è il rumore bianco, un sasso che cade, una campana e molti strumenti dell’orchestra che vengono chiamati appunto “non intonati”.
dodecafonia o con l’atonalità. Queste regole formano il materiale musicale
in accordi, percorsi melodici, strutture ritmiche e metriche.
Il piano della denotazione corrisponde ai procedimenti cognitivi di
alto livello come quelli indagati, per esempio, in ambito psicologico nelle
ricerche sul priming armonico che appunto sono la sostanza formata dalla
sintassi armonica. Nello strato della materia compare tutto il materiale
scaturito dalla sintassi; è compito della forma dare un primo significato
che, come abbiamo visto nel modello percettivo, è di carattere sintattico.
Ad esempio: le note DO-MI-SOL denotano l’accordo di DO maggiore e un
accento posto ogni tre note denota un ritmo ternario. A seconda della
forma, che anche in questo caso è dettata dalla sintassi musicale, alla
materia DO-MI-SOL vi corrisponderà una sostanza diversa questo infatti può
essere anche la configurazione di un accordo di LA minore di settima
senza la fondamentale109. È su questo piano che lo stimolo polisemico
riceve un’identità, come nel caso delle figure ambigue in cui le
interpretazioni vengono considerate tutte
egualmente plausibili e dare a ognuna, volta per volta, un posto nello stato di coscienza, cosicché ogni volta diveniamo coscienti di una sola interpretazione (Zeki 2007, 85).
Come afferma Hjelmslev, la connotazione è una significazione
aggiuntiva ed è il contenuto di un’espressione che include a sua volta
un’espressione e un contenuto, per esempio la parola “cuore” denota
“muscolo indispensabile alla vita” e connota “sede dei sentimenti”. Nella
133
109 Riguardo l’interpretazione degli accordi, ricordiamo che nell’Ottocento, in cui regnava la concezione dell’armonia dettata dalla serie armonica del suono teorizzata da Rameau, l’accordo diminuito del VII grado (ad esempio il SIdim in tonalità di DO maggiore che è composto dalle note SI-RE-FA) veniva pensato come il primo rivolto dell’accordo di settima costruito sulla dominante senza la fondamentale in quanto l’accordo diminuito non compare nella serie armonica e quindi nella natura del suono.
connotazione non vediamo la possibilità di suddividere il piano negli strati
della materia e della forma, quanto la possibilità di aggiungere strati di
connotazione: dopo aver denotato il concetto di tonica, “tonica” può
connotare riposo e in un contesto più ampio “riposo” può connotare,
attraverso una metafora, lo stato di pace raggiunto dopo uno stato di
tensione. Nella connotazione si ritrovano tutti gli esempi visti
precedentemente sugli intervalli, sulla melodia e in quei casi di musica che
imita le espressioni vocali nonché il movimento.
Ognuno di questi piani contribuisce a fornire un effetto di senso. Se è
facile pensare alle conseguenze di una melodia piuttosto che un’altra,
soffermiamoci allora sull’effetto che produrrebbe una minima variazione
nello strato della forma sul piano del suono come nel caso degli
amplificatori per chitarra di fattura inglese piuttosto che americana, che
hanno caratterizzato e reso celebre nonché riconoscibile il suono di un
paese dove il caso più emblematico è rappresentato dal chitarrista dei
Queen Brian May. Se in studio Brian May avesse deciso di usare, per le
stesse identiche parti, un altro amplificatore, il risultato avrebbe portato a
una minor connotazione di “inglesità”, andando a toccare di conseguenza
anche la sfera emozionale. Infatti, questi piani interagiscono con le
emozioni nella stessa maniera dei moduli percettivi evidenziati da Koelsch
e Siebel (2005): un’esecuzione particolare può emozionare più di un’altra,
ma anche un’idea melodica o un complesso procedimento armonico
nonché il modo di richiamare un referente esterno alla musica come nel
caso dell’onomatopea o interno come nel caso dell’intertestualità e lo
stesso vale per i procedimenti imitativi che si ascoltano nelle fughe. Tutti
questi esempi sono serviti per mostrare come la musica, ad ogni livello di
analisi, susciti emozioni, come è anche vero che queste determinano il
tipo di ascolto – come abbiamo visto nella breve citazione di Zarlino
134
(1558) – nel senso che, come in un vortice, una buona predisposizione
aiuta a ben predisposrsi.
Questo modello aiuta a capire come sia possibile emozionarsi con un
brano dodecafonico, uno elettronico o aleatorio: nel caso della
dodecafonia ciò che viene apprezzato dall’ascoltatore è la scelta, da parte
del compositore, del modo in cui si organizza il materiale musicale che
avviene nel piano del sistema, e non fa certo eccezione John Cage – che
con la cui musica aleatoria intendeva spodestare il compositore da una
posizione dominante – in quanto una scelta a livello di sistema in ogni
modo la compie, cioè “non organizzare”, anche perché sappiamo che pure
il non voler comunicare è comunicare.
2.2.8. Conclusioni: un linguaggio poetico
Nella nostra proposta linguistica abbiamo avuto modo di scoprire, in
una prospettiva strutturale, quanti aspetti della musica siano condivisi con
quelli del linguaggio. Parncutt (1989) sostiene che l’ambiguità in musica
gioca un importante ruolo perché genera aspettative multiple, mentre nel
linguaggio naturale è da evitarsi, ma parlare di linguaggio nel caso della
musica è inappropriato, e se mai la musica fosse un linguaggio sarebbe
certo più vicina alla poesia che alla prosa. Se vogliamo attribuire alla
musica una delle funzioni del linguaggio individuate da Jackobson (1966),
rintracciamo una funzione principalmente poetica cioè che è incentrata sul
messaggio e sulla sua elaborazione formale. È vero che, sia nel
linguaggio musicale che in quello naturale, la sintassi è importante al fine
di veicolare un messaggio in quanto senza questa risulterebbe
incomprensibile, ma nel linguaggio poetico, a differenza della prosa, è
fondamentale la ripetizione e la struttura in versi, inoltre è volto a
135
rappresentare immagini e suscitare emozioni, tutte caratteristiche che
abbiamo potuto vedere nel corso di questo lavoro anche per la musica. Il
concetto di frase in musica è molto noto e ogni manuale di analisi ci
insegna che dallo sviluppo di una cellula melodica è possibile creare frasi
molto lunghe o addirittura intere sinfonie110. Il discorso musicale si articola
in un continuo alternarsi di frasi, che possono essere viste come una serie
di domande e risposte che a loro volta insieme forniranno la domanda a
una nuova risposta e così via111 e proprio come nella metrica vengono
distinte in base a uguaglianza, somiglianza e diversità usando le lettere
dell’alfabeto112. Aggiungiamo oltre a ciò che il linguaggio per descrivere la
musica fa ampio uso del vocabolario usato per descrivere il testo poetico,
per fare un esempio, se prendiamo un dizionario di metrica scoviamo che
su circa duecento voci, oltre la metà riguardano in qualche modo la
musica (Bertone 1999) e ciò anche per le cause storiche che abbiamo
potuto vedere in merito alla retorica musicale.
Per rintracciare un referente in musica è necessario situarsi nel
livello della connotazione, lo stesso avviene per il testo poetico mentre nel
testo in prosa ciò avviene in minor misura. Fondamentale per la musica e
per la poesia è quella che viene chiamata “licenza poetica” ossia la
possibilità di uscire dagli schemi grammaticali al fine di conseguire un
risultato sonoro o visivo, ma soprattutto è molto importante l’ambiguità
lessicale, che permette di aprire diverse vie interpretative; strumenti
questi, il cui fine può essere rintracciato nel pensiero di Meyer (1956) in
136
110 Celebre è il primo movimento della Quinta sinfonia di Beethoven costruito attorno alla cellula melodica semicroma-semicroma-semicroma-minima.111 Questi elementi sono l’inciso, la semifrase, la frase e il periodo.112 Per distinguere le componenti formali in musica si utilizzano le lettere dell’alfabeto cosicché l’uguaglianza viene rappresentata dalla stessa lettera, la similitudine dalla stessa lettera apostrofata e la diversità con lettere diverse. Ad esempio: A è uguale ad A, diverso da B e simile ad A’ (sulla forma cfr. Bellisario 1981; Azzaroni 1997).
merito alle aspettative musicali e cioè che sono necessari a rendere
l’opera interessante. Se in merito all’ambiguità del linguaggio musicale ci
siamo già esposti, cerchiamo di capire cosa si può intendere per licenza
poetica in musica chiamando in causa l’opera di Richard Wagner
(1813-1883) che è stato il precursore della disgregazione tonale, colui che
ha esasperato il cromatismo e anticipato l’atonalità di Schönberg che
sarebbe poi sfociata nella dodecafonia. Wagner, pur collocandosi in pieno
romanticismo cioè all’apogeo del sistema tonale, utilizza un linguaggio
basato sulla defunzionalizzazione delle quadriadi che distruggono le forze
attrattive della “vecchia” armonia tonale da cui ne risulta una musica
apparentemente dissonante (pur riflettendo un’armonia di base simile a
quella dei suoi colleghi) costruita con un linguaggio che si può dire basato
sulla sintassi tonale, ma da cui prende le distanze per motivi poetico-
espressivi.
137
2.3 Tassonomia delle figure imitative
Arrivati a questo punto della ricerca, è il momento di proporre una
tassonomia delle figure musicali di imitazione analizzate nei termini della
nostra proposta di segno musicale. Per elaborare questa parte ci siamo
serviti del modello di descrittori linguistici del suono musicale (linguistic
descriptors of musical sound) proposto da Thomas Porcello (1996).
Servendosi del modello tripartito delle strategie linguistiche per la
mappatura della forma sonora di Rhodes (1994) – in cui si tripartisce il
continuum linguistico in forme non lessicali, forme onomatopeiche e forme
arbitrarie –, Porcello conduce la sua ricerca negli ambienti degli studi di
registrazione americani allo scopo di rintracciare le strategie utilizzate dai
musicisti per parlare del timbro musicale individuandone cinque: forme
non lessicali, forme onomatopeiche che violano le regole fonologiche,
forme onomatopeiche che non violano le regole fonologiche, parole poco
arbitrarie e parole arbitrarie. Nelle forme non lessicali, l’autore rintraccia
tutti i fonemi che iconicamente mimano le caratteristiche ritmiche e
timbriche del suono come /mːː/, /dzːː/ o /sːː/; in quelle onomatopeiche si
individuano in primo luogo parole esistenti ma storpiate per accentuarne la
componente imitativa, come ad esempio /hisːːː/ o /wæk + vocale nasale/,
in secondo luogo parole esistenti che aderiscono alle regole fonologiche
come /his/ o /kwæk/; nelle parole poco arbitrarie rintraccia una certa
componente onomatopeica, mentre in quelle arbitrarie riconosce la
metafora.
Porcello considera come oggetto di studio il linguaggio il cui
referente è la musica, qui invece l’oggetto di studio sarà la musica il cui
referente è un qualcosa di extra-musicale, come strategia argomentativa
verranno utilizzate metafore che provengono dall’arte figurativa, infatti,
138
analogamente all’arte figurativa e al linguaggio, anche per la musica è
possibile distribuire le figure di imitazione lungo il continuum della fedeltà
che va dalle figure arbitrarie a quelle di analogia secondo un percorso
inverso a quello delineato dalla percezione musicale, cioè che dagli stadi
di elaborazione cognitiva si proceda verso quelli più sensoriali. Pertanto,
ciò che si vuole discutere e che verrà disposto secondo un grado di
imitazione crescente, riguarda le metafore, le onomatopee linguistiche,
quelle extra-linguistiche, le registrazioni sonore di Luc Ferrari e il brano di
John Cage 4:33.
2.3.1. Metafora
Nella retorica del linguaggio naturale la metafora è la «sostituzione di
una parola con un’altra […] che abbia con la prima un rapporto di
similarità», in altre parole «vediamo A nei termini di B e insieme B nei
termini di A» (Calabrese 2008, 77); tale rapporto si basa in realtà su una
doppia metonimia in quanto viene presa una parte del termine A per
rappresentare una parte del termine B. In musica la metafora è
rintracciabile nelle categorie spaziali come ad esempio associare a un
suono acuto il concetto spaziale di “alto”. Rientrano nelle metafore le
analisi compiute da Stefani, Marconi e Ferrari (1990) in merito agli
intervalli musicali quando ad esempio si è parlato di grandi spazi in
rapporto ad ampi intervalli musicali. La metafora spaziale appartiene da
sempre alla musica tanto che già nel canto gregoriano si osservano casi in
cui la melodia descrive il testo – come ad esempio associare alla parola
«Ascendit» un’impennata vocale –, ma come osserva Cattin (1991),
questo fenomeno non è una costante, piuttosto i cantori erano molto
attenti a seguire una coincidenza, quasi sempre perfetta, tra le cadenze
139
testuali e quelle musicali. In Dolcissima mia vita di Carlo Gesualdo
Principe di Venosa (ca. 1560-1613) si utilizza una pausa come metafora
del grido che si perde nel vuoto, mentre i bruschi salti tra tonalità lontane
rappresentano la lontananza del bramato aiuto e le fiamme dell’amato
agitato corrispondono a rapide scale ascendenti sulle varie voci.
Crediamo che un rappresentante della metafora musicale sia il
celebre brano tratto dal film 2001: Odissea nello spazio di Kubrick (1968),
tratto dal poema sinfonico Also sprach Zarathustra di Richard Strauss
(1864-1949) ispirato all’omonimo libro di Nietzsche, in cui si è voluto
tradurre in musica l’avvento del superuomo e dove si intuisce una certa
contrapposizione tra natura e cultura. Il brano si apre con un pedale di
DO113 tenuto dai contrabbassi (la nota più bassa che la sezione degli archi
può eseguire) sul quale gli ottoni eseguono un breve frammento melodico
ascendente di tre note: DO SOL DO, che definiamo “incipit primordiale” in
quanto si scorge, senza compromessi, una citazione della forza creatrice
della natura. Infatti in natura, un qualsiasi suono intonato (come ad
esempio le corde vibranti o la voce) è scomponibile in diverse componenti
– onde sinusoidali, che peraltro in natura non esistono – che sono in
rapporto armonico. Ad esempio, se una corda vibra a 110Hz significa che
se scomposta avremo diverse onde sinusoidali multiple di 110 quindi: 110,
220, 330, 440, 550, 660, 770, 880 e così via che tradotte in note musicali
equivarranno a DO-DO-SOL-DO-MI-SOL-SIb-DO114. Vediamo allora in questa
melodia, la rappresentazione del più presente e naturale tra tutti i suoni
ossia la fondamentale di DO tenuta dai contrabbassi e le successive tre
140
113 Per pedale si intende una nota, o un accordo tenuto per diverse battute.114 I rapporto tra le frequenza e le note musicali è fittizio, alla frquenza di 110Hz corrisponde alla nota di LA. (cfr. Pierce 1988).
componenti armoniche sviluppate melodicamente dagli ottoni115.
Successivamente a queste tre note si raggiunge il climax con un accordo
eseguito dall’intera orchestra che si trasforma: cosa sentiamo? Il secondo
accordo è meno potente del primo, da perfetto diviene imperfetto, infatti è
un DO maggiore che diventa minore. La serie armonica che genera in
maniera del tutto naturale un accordo maggiore (DO-MI-SOL), non può
generare quello minore e per estrapolarlo è necessario mettere la serie in
sequenza facendola iniziare da un altro punto e sottrarne degli altri, per
cui un procedimento artificiale. Per Strauss allora, l’accordo maggiore
rappresenterebbe la natura perché è naturale, consonante e connota
positività, quello minore invece rappresenterebbe l’uomo perché artificiale,
imperfetto e dissonante. Il suo intento è stato probabilmente quello di
imitare la natura attraverso la melodia per poi contrapporla all’artificio
dell’uomo con l’armonia. Se, in primo luogo, Schönberg (1967), nella
melodia (i suoni in successione) si ha “l’analisi”, mentre nell’armonia (i
suoni presentati contemporaneamente) si ha la “sintesi” e, in secondo
luogo, la polifonia da un punto di vista storico si affaccia nella storia della
musica in seguito alla monodia, possiamo pertanto intuire che Strauss
abbia voluto in un primo tempo analizzare la natura nella sua essenza con
la serie armonica e successivamente, sintetizzandola, l’abbia voluta
contrapporre all’uomo, cioè alla cultura, anch’essa rappresentata nel
passaggio dalla melodia all’armonia e poi dal maggiore naturale al minore
artificiale.
Un caso particolare di metafora è rappresentato da Camille Saint-
Saëns (1835-1921) che nel suo Le carnaval des animaux ha dato vita a un
vero e proprio zoo musicale in cui metafore e onomatopee si alternano.
141
115 Ricordiamo che gli ottoni sono strumenti nati senza pistoni le cui uniche note che potevano eseguire erano appunto quelle delle prime armoniche (cfr. Rimsky-Korsakoff 1891).
Ciò che interessa in questo lavoro oltre alle onomatopee, è l’accostamento
di metafora e intertestualità nonché il double coding, individuabile nel fatto
che le citazioni di musiche che si potrebbero definire “alte” entrano in un
contesto musicale definito dallo stesso autore triviale, al punto che per
volontà dello stesso l’opera non doveva essere eseguita prima della sua
morte. Per suggerire la lentezza delle tartarughe ad esempio, il
compositore non sceglie semplicemente un tema lento, ma prende il
rapidissimo galoppo infernale dall’Orphée aux enfers di Offenbach e lo
adatta al ritmo di queste; lo stesso procedimento viene utilizzato per
l’elefante di cui, in questo caso, non si vuole evidenziare la lentezza,
quanto l’imponenza e adotta uno dei temi tratti da La damnation de Faust
di Berlioz (1803-1869) abbassandolo di più ottave. Saint-Saëns dunque
non si accontenta di rappresentare la lentezza o la mole attraverso le
caratteristiche ritmiche e melodiche che abbiamo potuto vedere in merito
alla melodia e agli intervalli (Stefani, Marconi e Ferrari 1990; Stefani e
Marconi 1992), piuttosto preferisce servirsi del termine di paragone: la
tartaruga non è lenta ma è “rallentata”, allo stesso modo l’elefante non è
grande ma “ingrandito”. In ambito pop-rock citiamo i Queen che in
Bohemian Rhapsody, laddove il testo recita «Sends shivers down my
spine», tentano di riprodurre la sensazione dei brividi, per cui il chitarrista
Brian May percuote le corde della sua chitarra tra le chiavi e il capotasto.
È ovvio che dai brividi lungo la schiena non scaturisce alcun rumore e se
volessimo rintracciare una figura retorica per questa soluzione musicale
potremmo pensare all’ipotiposi, figura retorica che enfatizza gli elementi
concreti diminuendo quelli astratti. Sempre nella stessa canzone, mentre
Freddie Mercury canta «Easy come easy go» un crescendo dinamico di
pianoforte rappresenta appunto “l’arrivo”.
142
2.3.2. Onomatopea
Per descrivere l’onomatopea musicale utilizzeremo due termini di
paragone, le arti figurative e il linguaggio naturale. Se, come visto lungo
l’asse delle analogie, la metafora viene fatta coincidere con l’arte astratta,
le onomatopee possono essere rapportate all’arte rappresentativa a
partire da una forte analogia tra rappresentante e rappresentato. Tuttavia
non riusciamo a scorgere nel dominio visivo una differenza tra
l’onomatopea linguistica e quella extra-linguistica, perciò dovremo aiutarci
con il dominio del linguaggio naturale. Sono note infatti, le parole
onomatopeiche come “abbaiare”, “miagolare”, “strisciare” e “rimbombo” le
quali appartengono a precise categorie (le prime tre sono verbi, l’ultima è
un sostantivo) e rispettano delle regole sia fonologiche che morfologiche:
in quanto parole italiane, non vi sono suoni estranei all’italiano (come /θ/
dall’inglese, /œ/ dal francese o /tɕ/ dal polacco) e non ci sono
combinazioni di suoni improbabili per la nostra lingua (come “trst”, “zdr” o
“the”). Esistono altre parole invece, che possiamo definire extra-
linguistiche in quanto violano una o più regole linguistiche, è il caso di
“vroaaaamm”, “zzz” o altre, come quelle viste con Porcello (1996) in
merito all’esperienza in studio di registrazione, che violano le regole
fonetiche.
Prima di intraprendere una disamina storica sulle onomatopee nella
storia della musica è bene fare una premessa: come è già stato detto, con
il Novecento si assiste all’ingresso del rumore in musica, o meglio
all’ampliamento del concetto di musica che ora racchiude – secondo un
percorso avviato da Marcel Duchamp all’interno delle arti figurative – tutto
il suono, o meglio, come si vedrà con Cage, tutto quello che l’uomo
chiama musica. Per distinguere dunque le onomatopee linguistiche da
143
quelle extra-linguistiche dobbiamo compiere una valutazione storica e
quindi interpretare la musica nel contesto in cui viene creata, per questo
motivo collocheremo Dandrieu nelle figure extra-linguistiche e Ligeti in
quelle linguistiche116. Appare una scelta poco coerente e probabilmente in
contrasto con la nostra idea di ricondurre tutto il materiale musicale al
segno proposto, in quanto, se il piano del sistema implica qualsiasi
organizzazione e vi includiamo anche la musica aleatoria, allora qualsiasi
organizzazione appare linguistica; tuttavia per motivi esemplificativi è
necessario compiere tale distinzione.
Nel primo movimento della Prima sinfonia di Gustav Mahler
(1860-1911) detta Il titano (o Il risveglio della natura), un poema sinfonico
ispirato a Der Titan di Jean Paul, i violini tengono, per tutta la prima parte,
un pedale di LA che rappresenta metaforicamente il primo raggio di sole
che buca l’oscurità, facendo sì che la natura si svegli progressivamente
(Eggebrecht 1994). Su questo pedale, ovvero con il primo raggio di sole,
si alternano delle micro melodie affidate al clarinetto di due note
discendenti, cioè l’onomatopea linguistica del suono del cuculo; l’idea del
clarinetto che esegue gruppi di due note discendenti per mimare il suono
del cuculo è stata usata peraltro anche da Saint-Saëns nel suo Carnevale.
Leóš Janáček (1854-1928), attraverso lo studio del ritmo e dell’intonazione
della parlata ceca, ha sviluppato uno stile musicale vocale improntato sul
linguaggio in cui si ha una strettissima aderenza tra i valori drammatici e
quelli musicali, dove i primi, come per Monteverdi, assumono
un’importanza primaria. A differenza del leitmotiv wagneriano, egli
preferisce utilizzare dei motivi che «ritornano come affioramenti di
memoria» (Vinay 1991), e che vanno a formare delle “melodie di parole”
144
116 Analogamente a quanto avviene nel linguaggio: ciò che è linguistico per l’italiano può non esserlo per il tedesco (a livello fonologico, morfologico e sintattico).
ricavate dalle curve melodiche del linguaggio naturale. Janáček, dunque,
utilizza l’onomatopea al fine di mimare la voce, rimanendo tuttavia dentro il
sistema di riferimento della musica tonale.
Affascinante perché ai confini con la ricerca scientifica, ci appare
Oliver Messiaen (1908-1992), che da appassionato ornitologo, nel
Catalogue d’oiseaux tenta di riprodurre al pianoforte, quindi scrivere su
pentagramma, il canto di diverse specie di uccelli premettendo tuttavia
che, essendo l’uccello un animale molto più piccolo dell’uomo, il range di
frequenze in cui si esprime è decisamente più acuto e quindi il suono
viene spesso abbassato di due o tre ottave; inoltre, i rapporti intervallari,
per lo stesso motivo, non sono quelli nostri del semitono e del tono, ma
molto più piccoli e non riproducibili dai nostri strumenti musicali come
d’altronde i tempi estremamente veloci causati dal loro sistema nervoso
ridotto e molto più reattivo di quello umano. Messiaen compie un lavoro
molto accurato di trascrizione che pur non essendo identico nel tempo e
nel tono, cerca di mantenere i rapporti esatti, ad esempio gli intervalli
minori rispetto al semitono vengono tradotti in intervalli maggiori che
possono essere inseriti nel nostro sistema. Anche Messiaen allora compie
una traduzione dal suono non culturalmente formato a quello formato.
All’inizio del secolo scorso e cioè in un periodo in cui si vuole
esaltare il progresso scientifico e tecnologico, ritroviamo Arthur Honegger
(1892-1955) che mima, nella celebre Pacific 231, il suono della locomotiva
a vapore. Il mondo delle macchine e dei movimenti meccanici è un tema
molto caro alla poetica delle avanguardie storiche che infatti colpisce
anche George Antheil (1900-1959) che musicando Ballet mécanique di
Leger, imita i movimenti meccanici di corpi inanimati attraverso xilofoni e
pianoforte. Al limite delle onomatopee linguistiche ritroviamo il terzo
movimento dal Chamber Concerto for 13 Instrumentalists di György Ligeti
145
soprannominato movimento preciso e meccanico, in cui già il nome ci fa
intuire il contenuto, il quale mette in musica, cioè formalizza, il suono di
ingranaggi di qualsiasi “natura”. È possibile ascoltare il suo personalissimo
uso della poliritmia anche nel Come un meccanismo di precisione tratto
dal secondo quartetto d’archi, ma soprattutto in Poema sinfonico per 100
metronomi dove ci sembra che l’autore abbia avuto l’intenzione di imitare
proprio la sua stessa musica. Si ritiene che queste opere di Ligeti siano al
limite del linguaggio musicale in quanto da un lato vengono trascritte su
una partitura attraverso i segni standard musicali, cioè la notazione,
dall’altro rivelano un chiaro intento imitativo in cui si utilizzano figurazioni
ritmiche talmente inusuali e complesse che all’orecchio di un easy listener
non apparirebbe nemmeno come musica, tuttavia, per il solo fatto di
essere stato notato, lo abbiamo collocato nelle onomatopee linguistiche.
Nel 1988 i Metallica pubblicano …and justice for all che contiene
One, canzone il cui testo è basato sul romanzo di Dalton Trumbo intitolato
E Johnny prese il fucile, in cui si narra di un soldato che durante la prima
guerra mondiale, a causa di una cannonata, perde gli arti, buona parte del
parte del viso e quindi vista, olfatto e udito, ma soprattutto la parola,
rimanendo un tronco incapace di comunicare col mondo. Quello che
sembra interessante è il gioco isoritmico e serrato tra batteria e chitarre
che mima le violente raffiche di mitragliatrice. Il brano è diviso in due parti,
una prima più melodica dedicata al ricordo e alla descrizione della
condizione del soldato, una vera e propria supplica a Dio affinché lo
richiami a sé, e una seconda parte che corrisponde invece a un grido di
rabbia, urlato sulle chitarre mitragliatrici:
146
Il buio mi trattienetutto quello che vedo è orrorenon posso viverenon posso morireuna mina mi ha preso la parolaL’ascoltole bracciale gambela mia anima117
Nel video della canzone, trasmesso nello stesso anno, questa parte
di testo ha inizio proprio sulle immagini dell’omonimo film del 1971 in cui si
mostra esplodere la mina.
Le onomatopee extra-linguistiche, per i motivi espressi in merito alle
diversità tra musiche orali e musiche scritte, non possono essere
rintracciate nel corso della storia della musica in quanto l’unico supporto di
memorizzazione fino al Novecento rimane la partitura; bisogna attendere i
supporti fonografici per poter tramandare e quindi ascoltare, un qualcosa
che non è possibile “contenere” nella dispotica limitatezza della scrittura. Il
primo e unico caso storico di onomatopea extra-linguistica di nostra
conoscenza in epoca pre-incisione ci viene offerto dal compositore
francese Jean-François Dandrieu (1682-1738) che nel suo pezzo Les
caractères de la guerre chiede all’esecutore di colpire con tutta la mano
piatta le note più gravi del clavicembalo al fine di riprodurre i colpi di
cannone, esempio che pur avendo un fine puramente imitativo sembra
anticipare di due secoli l’opera di Henry Cowell, “il pianista che suona coi
gomiti”.
147
117 Traduzione mia dal testo di One, Metallica, …and justice for all (1988).
Nella musica pop-rock, basata sulla registrazione, è più semplice
rintracciare onomatopee extra-linguistiche, ricordiamo il caso particolare di
un virtuoso della chitarra nonché dell’imitazione, Steve Vai, che in Bad
horsie, attraverso l’uso della leva, grazie alla quale è possibile alzare e
abbassare la tensione delle corde, mima il nitrito del cavallo attraverso un
suono che dall’acuto glissa verso il grave alternando rapidi movimenti di
leva a cui corrispondono micro variazioni di intonazione. Come Janáček
anche Steve Vai è molto attento al linguaggio parlato ma, a differenza del
ceco, non è più vincolato alla partitura e, oltre ai supporti di registrazione,
ha a disposizione numerosi effetti elettronici, ma soprattutto gli effetti della
chitarra elettrica il cui il vocabolario, in soli sessant’anni – anche grazie a
lui –, è cresciuto in maniera esponenziale. In Butler’s bag, per esempio,
imita la risata di una persona, mentre in The audience is listening crea uno
sketch in cui si immagina a scuola rispondere con la chitarra
all’insegnante rispettando la prosodia della lingua americana. In Ya-Yo
Gakk sovrappone a una base rock le lallazioni di suo figlio che riproduce
scrupolosamente nel verso successivo, ma è in Kill the guy with the ball
che Steve Vai raggiunge attraverso la chitarra e l’effettistica livelli di
imitazione della voce umana quasi impressionanti.
Dagli esempi illustrati possiamo rintracciare che l’onomatopea
linguistica, per quanto abbia un rapporto iconico con il referente, rimane
tuttavia legata alla cultura e quindi all’arbitrarietà della scelta dei suoni
linguistici che mimano il suono del referente; lo stesso vale per
l’onomatopea extra-linguistica dove analogamente il rapporto rimane in
ogni modo legato all’organizzazione della materia sonora.
148
2.3.3. Luc Ferrari e John Cage
Il compositore francese Luc Ferrari (1929-2005) inizia la sua carriera
musicale con Pierre Schaeffer (1919-1995) lasciando successivamente lo
studio per scegliere la “strada” che gli permette di incorporare nelle sue
composizioni l’espressione dell’intera società (Michel 2001). Di lui
ricordiamo qui Presque Rien ou le lever du Jour au Bord de la Mer, la
sintesi in venti minuti della registrazione di un’intera giornata presso una
spiaggia Jugoslava in cui è possibile ascoltare i suoni ambientali. Benché
nel milieu francese il descrittivismo vanti una lunga tradizione – pensiamo
a Debussy e alla sua La mer –, il brano in questione non rivendica tale
intento, piuttosto intende affermare che tutto è musica, ed è sufficiente
fermarsi ad ascoltare. È stato in ogni modo scelto come caso esemplare in
quanto non rappresenta una stilizzazione, come avviene nelle
onomatopee linguistiche o extra-linguistiche, ma è il punto più alto
dell’analogia in cui l’imitante ha una relazione acustica quasi perfetta con
l’imitato, dove per “analogia” si intende un
rapporto di somiglianza tra alcuni elementi costitutivi di due fatti od oggetti, tale da far dedurre mentalmente un certo grado di somiglianza tra i fatti o gli oggetti stessi (Devoto e Oli 2007).
Infatti, è possibile intuire come la registrazione sonora non sia il
suono registrato, ma semplicemente un suono che con la sua origine
intrattiene un ottimo rapporto di similarità: il suono di chitarra che
ascoltiamo in una registrazione non è il suono di chitarra, ma una sua
traduzione, così come il suono che esce dall’amplificatore non è il suono
delle corde che vibrano, ma una trasduzione che dal dominio meccanico
passa a quello elettrico mantenendo tuttavia un rapporto di analogia.
149
Paragonando la registrazione del dominio uditivo con quella del del
dominio visivo riscontriamo una corrispondenza con la fotografia, non solo
nel tipo di rappresentazione dell’oggetto in questione, ma anche nello
sviluppo del sistema stesso. In entrambi i casi c’è stata un’evoluzione dai
sistemi analogici a quelli digitali; se in un primo tempo la luce veniva
registrata attraverso il bromuro d’argento e il suono attraverso l’ossido di
ferro, ottenendo un rappresentante “analogo” al rappresentato, in un
secondo momento, si è optato per il digitale, il quale comporta sempre una
perdita di informazione a causa della discretizzazione dell’onda sonora o
dell’onda elettromagnetica. Ritornando all’analogia in musica, su un piano
che tiene conto dell’analogia tra rappresentante e rappresentato, la
registrazione sonora viene superata da un solo caso particolare: quello
dove l’imitante coincide con l’imitato.
Questo caso si rintraccia solo in 4:33 di John Cage (1912-1992) che
propone una partitura in cui compare una pausa di quattro minuti e
trentatré secondi. Il silenzio per Cage è «l’insieme dei suoni non voluti
(Cage 1976, 30)», un paradosso che lo stesso autore riconosce in seguito
a un’esperienza in una camera anecoica118, nella quale si è sperimentato
il fatto che il silenzio non esiste se non a livello teorico, in quanto sono
sempre percepibili i suoni provenienti dal proprio corpo. Lungo il
continuum di analogie, il brano di Cage coincide parzialmente con il piano
visivo di una superficie riflettente in cui l’imitante, benché non coincida, è
fatto della stessa materia dell’imitato, ossia la luce, dunque è riflesso
piuttosto che traduzione materica. Considerare lo specchio in una
prospettiva estetica significherebbe vedere l’opera d’arte nell’immagine
riflessa, l’autore nella persona che si specchia e il fruitore nella stessa
150
118 La camera anecoica è un luogo in cui si abbatte la riflessione del suono.
persona che si guarda, allo stesso modo il silenzio di Cage include
implicitamente i rumori prodotti dal pubblico.
Approfondiamo il tema del silenzio attraverso gli strumenti messi a
punto nell’ambito della teoria della comunicazione musicale dal semiologo
e musicologo Jean-Jacques Nattiez (1987) che individua tre attori, il
compositore, l’opera e l’ascoltatore, prevedendo un rapporto poietico tra il
compositore e l’opera e un rapporto estesico tra l’ascoltatore e l’opera.
Utilizzando il modello di Nattiez, possiamo dire che nel silenzio di Cage il
compositore coincide con l’ascoltatore, in quanto il suono ambientale
viene prodotto principalmente dal pubblico. È una questione di
focalizzazione: non è possibile fruire il silenzio della musica di Palestrina
allo stesso modo di 4:33, il silenzio dunque focalizza l’attenzione su ciò
che non è musica, che viene prodotto appunto da chi ascolta.
Cage in realtà, benché si voglia escludere dall’atto poietico, non ci
riesce completamente e attiva nell’ascoltatore una precisa modalità di
attenzione che chiamiamo bottom-up. Nell’ambito della psicologia
cognitiva la distinzione tra bottom-up e top-down si rintraccia nel modo in
cui l’attenzione agisce, nel primo caso essa è attratta dallo stimolo cioè da
fattori ambientali, nel secondo è orientata alla ricerca di uno stimolo, ossia
da fattori cognitivi, nei quali gli obiettivi e le aspettative giocano un ruolo
rilevante. Sembra che in 4:33 l’ascoltatore abbandoni qualsiasi strategia
attentiva rinunciando al suo ruolo di ascoltatore come Cage ha rinunciato
al ruolo di compositore, entrando perciò in empatia.
Perché sono stati scelti questi due esempi? Sia Luc Ferrari che John
Cage nelle due opere citate si sono interessati a un qualcosa di extra-
musicale. Le registrazioni sonore che incidono il suono extra-musicale
sono sterminate, basti pensare alla musica concreta dei Matmos che
sembrano essere i diretti discendenti di Schaeffer o alle lunghe pause di
151
Debussy. Non vi è tuttavia in questi casi l’intento di imitare, ma
semplicemente sia la registrazione che la pausa sono solo strumenti al
servizio della musica o del linguaggio musicale. In Ferrari si vede
l’imitazione in quanto è suo intento far sentire i suoni ambientali, e per
raggiungere tale scopo deve compiere una traduzione, lo stesso vale per
Cage, il quale anch’esso mira a focalizzare l’attenzione sull’ambiente
sonoro, ma in lui non vi è traduzione, infatti, ciò che l’ascoltatore produce
anche lo ascolta, dal produttore al consumatore senza mediazioni.
2.3.4. Prime conclusioni
Le figure imitative che vengono utilizzate in musica sono state
disposte lungo un asse che tiene conto del livello di elaborazione cognitiva
del materiale musicale. Nelle metafore ad esempio, sembra essere
coinvolta la maggior componente cognitiva, cioè le associazioni culturali.
Un dato stimolo musicale prima di essere associato a qualcosa di esterno
alla musica deve essere elaborato per le sue caratteristiche fisiche, poi
semantiche ed infine essere messo in relazione con le conoscenze
immagazzinate nella memoria a lungo termine. In particolare vediamo
Also sprach Zarathustra il cui materiale musicale richiama delle precise
conoscenze tecniche e specialistiche, e Le carnaval des animaux la cui
avanguardistica inter-testualità mette in relazione non più concetti, ma le
musiche stesse.
Un minor livello di partecipazione cognitiva è stato rintracciato
nell’onomatopea linguistica e in quella extra-linguistica, dove non vi si
vede più una rappresentazione attraverso concetti ma una vera e propria
imitazione che avviene su un piano specificatamente sonoro. Mentre
l’onomatopea linguistica implica una certa formalizzazione culturale per
152
via delle categorie fonologiche e morfologiche, quella extra-linguistica
vede una minor componente culturale e i suoi limiti risiederebbero semmai
nell’atto dell’esecuzione e nei limiti meccanici dello strumento. Nel caso
delle registrazioni sonore, l’imitante è analogo all’imitato per cui una
differenza vi si scorgerebbe solo nel livello sensoriale.
153
Nella ripresa, cioè la terza e ultima parte di questo lavoro, si intende
recuperare tutto il materiale esposto e sviluppato nelle sezioni precedenti
e applicarlo all’analisi dei testi sincretici quali gli spot pubblicitari. In ultimo
si trarranno delle conclusioni su tutto il materiale raccolto nonché si
tracceranno delle linee di ricerca per sviluppare quanto rintracciato in
questo lavoro.
157
3.1. Gli spot pubblicitari
Terminata la nostra proposta linguistica nonché la suddivisione delle
figure musicali di imitazione, tentiamo ora di applicare il nostro approccio
musicale all’analisi degli spot pubblicitari. In un primo momento verranno
brevemente esposte le analisi condotte da Linda Scott (1990) e Nicholas
Cook (1994) su un campione di pubblicità americano e inglese a cavallo
tra gli anni Ottanta e Novanta. Queste pubblicità verranno esposte
seguendo il percorso appena delineato per le figure di imitazione che da
quelle più arbitrarie come la metafora e la narrazione musicale condurrà a
quelle che riguardano l’associazione di determinate caratteristiche
musicali a un prodotto reclamizzato. In un secondo momento si compirà
una vera e propria analisi, che terrà conto dei nostri modelli, su due spot
televisivi della nota casa di intimo “Calzedonia” che in un primo tempo
verranno presi singolarmente e successivamente nella loro evoluzione
3.1.1. Alcuni casi
Uno spot dell’aspirina Bayer (USA 1989) si apre con le immagini di
un uomo che soffre di mal di testa a cui viene associato un sottofondo
musicale dissonante che si intensifica mostrando sullo schermo la scritta
“pain”. La dissonanza cresce e raggiunge il climax per cessare
immediatamente appena compare sullo schermo l’immagine del flacone di
aspirine a cui seguono immagini di persone sollevate e sorridenti e una
musica piacevolmente consonante. In questo spot si è sfruttato il senso
comune di disturbo e irregolarità legato alla dissonanza che attraverso la
strategia retorica della metafora diventa dunque “mal di testa”. Per
interpretarla si rende necessario il contesto fornito dallo spot in quanto la
158
dissonanza comunemente non viene pensata in termini di stati fisiologici,
ma attraverso le immagini si viene a creare il rapporto dove la dissonanza
sta al mal di testa come la consonanza sta alla sua risoluzione119. La
dualità del sistema tonale, come fa notare Zuckerkland (1956), risulta
molto utile quando si vuole creare un contrasto, ad esempio per rendere
più gloriosa una parte consonante in seguito a una consonante si
riproduce il disagio e il benefit del prodotto grazie a un’operazione
metaforica di alto livello cognitivo (Scott 1990).
Come tutti ricordano, in Pierino e il Lupo di Sergej Prokof’ev
(1891-1953), la musica viene utilizzata per il suo potere narrativo, allo
stesso modo, anche gli spot possono sfruttare il valore narrativo e di
commento che caratterizza la musica come nel caso dell’antiallergico
Alleract (USA 1989). Un uomo è seduto su una panchina in un parco
pubblico, dietro di lui si osservano delle piante, che probabilmente sono
portatrici di allergeni, si ascoltano dei violini in pizzicato che creano
tensione e il compositore ci sembra applichi la tecnica del mickey-mousing
alle particelle nemiche dell’allergico che cercano di arrampicarsi sulla
panchina per arrivare al povero sventurato. Un rullo di tamburi crea il
climax e introduce il soccorso del prodotto reclamizzato che viene
accompagnato da un suono di tromba che lo designa come eroe, mentre
una voce over descrive il prodotto e la musica diviene piacevole. In questo
spot si possono scorgere diversi procedimenti retorici, innanzitutto,
similmente a come abbiamo visto per l’aspirina Bayer, viene utilizzata la
metafora secondo cui una musica piacevole rappresenta il prodotto e
quella spiacevole rappresenta uno stato precedente all’apparizione del
prodotto, successivamente il mickey-mousing, che possiamo associare
159
119 Il termine “risoluzione” viene peraltro utilizzato in musica per indicare il passaggio da un accordo di tensione, solitamente la settima di dominante, a uno di distensione, spesso la tonica (cfr Piston 1941).
all’ipotiposi, mima il salire degli allergeni accentuandone il “peso” sonoro e
infine vi si trova un’associazione tra lo squillo di tromba e l’effetto di senso
“annuncio” che segue un rullo di tamburi veicolando il significato di “si sta
per annunciare qualcosa”.
Il potere associativo della musica si rintraccia anche nello spot
analizzato da Linda Scott (1990) sulla carbonella Matchlight (USA 1988)
dove si vede un uomo vestito di jeans e cappellino da baseball che si
appresta ad accendere il barbecue, mentre si ascolta la familiare musica
(per l’americano) dei campi da baseball arrangiata per organo in un
crescendo di tensione attraverso l’uso di accordi drammatici. La moglie
offre al marito il liquido per accendere il fuoco, gli accordi diventano
trionfanti, la fiamma si accende e il pranzo può finalmente iniziare.
L’appeal dello spot non proviene dalla piacevolezza della musica, quanto
piuttosto dal suo significato relativo alla nostra esperienza vissuta, chi
vede questo spot, infatti, deve riconoscere il motivo e associare il prodotto
ai significati extra-musicali, o meglio, associare parte del nome del
prodotto, “match”, al significato veicolato sia dalla musica che dalle
immagini, in particolar modo l’abbigliamento dell’uomo, entrambi riferiti al
gioco del baseball. La pubblicità risulta in questo modo più efficace per chi
riconosce la musica dei campi da baseball, in quanto vi riscontra una
positiva associazione. Vi sono altri casi di associazione, come quelli
rintracciati da Cooke (1994) che riguardano in senso stretto la materia
musicale. In uno spot andato in onda nella televisione britannica nel 1992,
si utilizza l’ouverture da Le nozze di Figaro di Mozart per pubblicizzare la
Citroen ZX 16v (UK 1992). Secondo l’autore, la musica di Mozart
associata all’automobile comunica la vivacità del suo motore e la
precisione della sua tenuta di strada, così si rintraccia che gli attributi della
musica vengono trasferiti al veicolo. Egli fa tuttavia notare un apparente
160
paradosso: come è possibile legare Mozart, simbolo di un’arte elevata alla
tecnologia? Lo spot opera una sintesi dove, dialetticamente, arte e
tecnologia si uniscono per dare vita alla Citroen ZX. Quello che si viene a
creare tra immagini e musica dunque è un rapporto di dinamica
interazione dove le immagini aggiungono significato alla musica e questa
alle immagini.
Cook rintraccia un altro caso di associazione, in particolare nello spot
dei piani assicurativi Prudential (UK 1992) in cui si mostra un giovane
volare con la fantasia e proiettarsi nel futuro vedendosi una rock star. Ciò
che ha attirato l’attenzione di Cook è stata l’associazione della musica
classica alla narrazione extra-diegetica e della musica rock a quella intra-
diegetica, dove si riscontra un’archetipica opposizione tra gioventù e
vecchiaia, sogno e autorità, idealismo e pragmatismo: la musica classica
proietta fuori dallo spot la voce over come se fosse una persona
autorevole che appunto lo trascende. È possibile associare anche il valore
di un genere musicale come nel caso dello spot della Volvo 440 Saloon
(UK 1992) dove la musica elettronica atonale e depersonalizzata affianca
immagini della vettura nello showroom, associazione che per Cook evoca
le qualità dell’ingegneria svedese. In un secondo momento invece, la
presenza di musica tonale melodica, eseguita da archi e legni,
evocherebbe, assieme a immagini dell’automobile in garage, valori
familiari e domestici.
La musica può trasferire i suoi attributi alla storia e al prodotto, creare
coerenza e realizzare connessioni tra parole e immagini che non sono
presenti, la qualità connotativa della musica integra, come in un
contrappunto, le qualità denotative delle parole e delle immagini (Cook
1994).
161
Un altro esempio di associazione ci viene fornito dallo spot
dell’automobile Honda LX (USA 1988) che si apre con una situazione
familiare in cui si vede un sorpasso di un autoarticolato da parte della
vettura mentre in sottofondo si sente una musica briosa e vivace.
Zuckerkandl (1956) ricorda che è largamente riconosciuta l’abilità della
musica ad esprimere il movimento perché il suono è movimento (Chion
2001), ma in questo spot Scott (1990) fa notare che non è la musica ad
aiutare le immagini, quanto piuttosto il suo carattere brioso, che avrebbe
potuto accompagnare anche altre immagini. L’autrice continua affermando
che il contesto è indispensabile affinché la musica si carichi di dinamismo,
tuttavia si sarebbe potuta scegliere anche un’altra musica, dal carattere
brioso e vivace, rintracciando perciò la sinonimia musicale. Si fa notare
infine, che il ritmo ripetitivo e crescente – come nello spot della Diet Coke
(USA 1982) analizzato dalla Scott (1990) – della musica, in quanto forma
poetica, permette alla ripetitività di non essere monotona ma anzi
piacevole.
3.1.2. Il caso Calzedonia
Procediamo ora con l’analisi di due spot televisivi della nota casa di
intimo “Calzedonia”, andati in onda nel 2006 e nel 2009, una scelta
motivata in primo luogo dalla particolare rilevanza assunta dal commento
musicale. Lo spot del 2006, “Speriamo che sia femmina”, racconta la
storia di una donna, dalla nascita fino al momento della gravidanza,
attraverso alcuni momenti significativi della sua vita personale, come il
saggio di danza, un colloquio di lavoro importante, il primo amore, il
matrimonio e quindi la dolce attesa. Tutte le sequenze sono girate in
interni, accompagnate dalla canzone “She’s always a woman to me” di
162
Billy Joel e in chiusura compare il claim “Speriamo che sia femmina”. Dura
45 secondi e si divide in 42 inquadrature oggettive della durata media di
un secondo l’una, tutte girate in interni. Si possono individuare otto
sequenze, sette delle quali riguardano la crescita della protagonista dove
ognuna ha per oggetto una tappa importante della sua vita. La sequenza
finale è riservata al logo e al claim.
Nello spot del 2009, “Il futuro è rosa”, si mostra un puzzle di
situazioni che vedono protagoniste diverse ragazze attraverso dei
quadretti isolati che mostrano i diversi personaggi in atteggiamenti
quotidiani. Lo spot sembra concentrarsi su questa comunanza tra sorelle
che, pur non conoscendosi realmente, sono vicine nel loro essere «sorelle
d’Italia», come viene indicato dal testo musicale. Ha una durata di 45
secondi e si compone di 4 sequenze più un’introduzione. In ognuna
vengono ripresi personaggi femminili in comportamenti quotidiani. La
musica, più precisamente il testo cantato, diviene il filo conduttore tra le
sequenze in cui è palese l’intenzione degli autori di creare un sincretismo
tra immagini e musica: le parole della canzone concorrono infatti a definire
le situazioni illustrate attraverso una vera e propria narrazione extra-
diegetica.
La particolarità di questi due spot è l’assenza del dialogo, infatti la
traccia verbale compare solo nel logo e nel claim: nello spot del 2006 è di
carattere verbo-visivo, in quello del 2009 verbo-visivo e insieme verbo-
sonoro recitato da una voce over. Dal punto di vista musicale, i due spot
sono accomunati dal carattere intimo e disteso suggerito dall’organico
molto ridotto che, in entrambi i casi, è composto da voce, pianoforte e
chitarra. Le due pubblicità, tuttavia, differiscono per la preponderanza
dello strumento accompagnatore, che nello spot del 2006 è il pianoforte,
mentre in quello del 2009 è la chitarra acustica. Il commento musicale allo
163
spot del 2006 è un frammento del brano di Billy Joel intitolato She’s
always a woman to me tratto dall’album The Stranger del 1978. Nello spot
del 2009 invece si è preferito un adattamento, più precisamente si è
deciso di declinare al femminile l’inno nazionale italiano, intitolato non a
caso Sorelle d’Italia. La sostanziale differenza tra i due spot, quindi,
risiede nell’utilizzo della musica al fine di instaurare sincretismi tra
immagini e testo musicale nello spot del 2009 e tra immagini ed eventi
musicali in quello del 2006.
3.1.2.1. Ontogenesi e filogenesi
Nello spot del 2006 si rivolge una particolare attenzione al testo della
canzone, dove il ritmo della musica accompagna le immagini,
intervenendo nei momenti salienti. E’ una strategia che si rifà al mickey-
mousing, dove i movimenti dei protagonisti vengono sottolineati dagli
eventi musicali. Questo sincretismo tra immagini e colonna sonora è ben
visibile nelle inquadrature in cui la protagonista strizza l’occhio ai genitori,
congiunge le punte dei piedi e piega la testa con dei movimenti
sincronizzati con gli accordi del pianoforte. Quello di congiungere le punte
è un gesto molto personale, capace di risolvere la tensione della
protagonista, che oltre a ricorrere in due occasioni, viene sempre
accompagnato da un elemento musicale saliente. La seconda circostanza
in cui questo gesto compare, cioè nella sequenza del suo primo colloquio
di lavoro, viene evidenziata dall’accordo al pianoforte e dal cantato sulla
parola «woman». Se si identifica quel gesto come metonimia del carattere
della protagonista – nell’accezione di spontaneità, naturalezza e del suo
particolarissimo “essere donna”, appunto «she’s always a woman to me»
– possiamo coglierne l’importanza ritenendo perciò che la coincidenza tra
164
il gesto della ragazza e il «woman» del cantato siano significativi per tre
motivi. In primo luogo, un tale sincretismo compare una sola volta nello
spot e quasi alla fine: siamo al culmine della tensione, poco prima della
conclusione, esattamente come accade in una melodia “ben formata” dalla
forma ad arco che tocca il culmine poco prima della conclusione; in
secondo luogo, il «woman» viene rafforzato visivamente dal gesto della
protagonista e musicalmente da un accordo; in terzo luogo, questo
accordo che sottolinea il «woman» è il più importante della strofa e
coincide anche con il punto di massima tensione del nostro sistema
musicale occidentale, cioè la dominante che, unendosi precedendo la
tonica, contribuisce a formare la cadenza perfetta, vale a dire quella che
abbiamo paragonato alla punteggiatura musicale. Il «woman», inoltre,
viene preparato120 da un altro sincretismo, quello della parola «always»,
che accompagna l’immagine della protagonista mentre piega la testa
come a giustificare l’altra candidata, in cui sembra comprendere
l’atteggiamento della “rivale” in una sorta di empatia che le permette di
superare l’ostilità della stessa.
Un altro aspetto interessante può essere rintracciato nella frase
melodica di chiusura cantata in “mmmh” che sembra quasi suggerire una
ninna nanna per il futuro nascituro – inquadrato mentre la mamma
accarezza la pancia –, una frase melodica in cui viene fatto ampio uso
dell’intervallo di terza, che si è visto essere intuitivo, intimo e materno
(Stefani et Al 1990). E ancora, l’arpeggio di chitarra sembra rappresentare
la tensione del pre-matrimonio, che è diversa da quella del saggio di
danza o del colloquio. Per concludere, si sottolinea che il cantato compare
nella sequenza in cui la protagonista raggiunge l’adolescenza, perciò un
165
120 Il termine “preparazione” viene inteso anche in senso musicale, in cui un certo evento musicale, deve essere preceduto da un altro per limitarne l’effetto dissonante.
momento particolarmente significativo per la sua formazione e per
l’affermarsi di quelle scelte che ne definiranno il carattere, e ha inizio
perciò il testo che descrive la donna e i diversi modi di essere donna.
Ritorniamo brevemente alla frase conclusiva «she’s always a woman
to me» che si chiude – proprio come la punteggiatura musicale – con una
cadenza perfetta. Se questa risoluzione viene confrontata con le pulsioni
passionali di Marconi (2007), risulta determinante per la comprensione
delle tensioni che si vengono a creare sia nel testo verbale che nella
musica. Come è stato detto, la parola «woman» viene cantata sull’accordo
di dominante, la massima tensione del sistema tonale, ed è seguita da «to
me» sulla tonica. Nei nostri termini si può osservare un sincretismo tra
testo verbale e musica – che ricorda i madrigalismi – nel congiungimento
del Soggetto all’Oggetto in cui si vede sia la donna cantata da Billy Joel
che la dominante nel sistema tonale congiungersi con i rispettivi Oggetti,
ossia Billy Joel e la tonica. La tensione che si crea sul «woman», verrebbe
commentata da Marconi nei termini di «un aumento della speranza di
conseguire una soddisfazione emotiva» (Marconi 2007, 11). È sul
desiderio e sulla passione, infatti, che si basano gli spot pubblicitari degli
ultimi anni (Bianchi 2005; Melchiorri 2002), in quanto lo spettatore, prima
di essere un consumatore, è una persona, e la pubblicità non deve far
fare, quanto piuttosto «far volere, perché ciò che un messaggio
pubblicitario può attivare è comunque un modo di pensare, un sistema di
categorizzazione e di valorizzazione» (Ferraro 1999, 82).
166
She can kill with a smileshe can wound with her eyesShe can ruin your faithwith her casual liesAnd she only revealswhat she wants you to seeShe hides like a child,but she’s always a woman to me121
Lo spot del 2009 usa la musica per declinare al femminile l’inno
italiano. I melismi che aprono la canzone, vale a dire i ricami melodici che
rispecchiano l’attenzione del mondo femminile al dettaglio, nella musica
pop sono tipicamente femminili e si contrappongono alle linee melodiche
vocali maschili che generalmente sono molto più dirette e meno ricamate.
Oltre ai melismi, un ulteriore elemento capace di rendere la melodia più
“rosa” è l’utilizzo del registro acuto che è, per ovvie ragioni fisiche, proprio
del cantato femminile piuttosto che di quello maschile. In questo spot,
salvo queste strategie a livello di superficie, l’attenzione viene posta sul
testo musicale, fondamentale per comprendere il messaggio che
Calzedonia vuole lanciare. La musica di primo acchito può sembrare un
riadattamento dell’inno italiano, invece, l’abile autore è riuscito a riscriverla
praticamente da capo, aggraziandola ed eliminando la connotazione di
marcetta attraverso una distensione delle armonie. Il percorso armonico è
più articolato e meno monotono, quasi il prolungamento schenkeriano
(Schenker 1935) dell’inno d’Italia e dal punto di vista formale viene
eliminato l’effetto cantilenante, quadrato e ridondante della marcia. La
linea melodica vocale è decisamente più morbida e rotonda rispetto a
quella dell’inno, quasi a voler rappresentare melodicamente il corpo
167
121 Testo della canzone She’s always a woman to me (Billy Joel) contenuta nello spot.
femminile facendo una rima ai colori dello spot, tenui e tendenti al rosa. La
melodia raggiunge il culmine della tensione alla parola «schiava», per cui,
come nello spot del 2006, si può affermare che sia una melodia ben
formata.
Dal punto di vista del testo musicale, le parole dell’inno e della
canzone sono le stesse, eccetto il “fratelli” che diventa “sorelle” in cui sono
presenti diversi sincretismi tra queste e le immagini, quasi a voler
riprendere l’antica tradizione madrigalistica che ha reso il nostro Paese
famoso nella storia della musica122. Lo spot si apre con una ragazza al
momento del risveglio dove il testo musicale canta «l’Italia s’è desta» e
con buona probabilità il suo nome sarà Italia. Nella seconda sequenza
troviamo un’altra ragazza che «dell’elmo di Scipio s’è cinta la testa» ed è
pronta per partire in un viaggio in moto assieme al fidanzato. Nella terza
sequenza vediamo la piccola «Vittoria», mentre la madre (o la sorella) le
raccoglie i capelli in una treccia, quando il testo musicale dice «dov’è la
vittoria, le porga la chioma». Infine, nella quarta e ultima sequenza, madre
e figlia sedute su una panchina, osservano Roma e infatti ascoltiamo «che
schiava di Roma, Iddio la creò». Quest’ultima è un’immagine
particolarmente rappresentativa in quanto, mentre il testo recita «che Iddio
la creò», ci sembra quasi che gli autori dello spot abbiano voluto conferire
al prodotto uno status divino, inoltre, durante «la creò» viene inquadrata la
mamma, genitrice della bambina. Vi si rintraccia un’aderenza letterale tra
immagini e testo e, usando il concetto Ejzenstiano di contrappunto
audiovisivo illustrato da Chion (2001), sembra che in alcuni punti immagini
e verbo concorrano a un “unisono semantico”, dove la musica amplifica
168
122 Julia Ponzio afferma che «il madrigalismo non funziona in assenza della parola, non sta per la parola se la parola non c’è» (Ponzio 2009, 127), in questo spot tuttavia un procedimento analogo si rintraccia tra musica e immagini, dove la parola è effettivamente assente.
l’effetto di senso, connotando – nei termini di Cook (1994) – l’italianità
veicolata dal testo e la femminilità veicolata dalle immagini.
Sorelle d’ItaliaL’Italia s’è destaDell’elmo di ScipioS’è cinta la testa.Dov’è la Vittoria?Le porga la chiomaChé schiava di RomaIddio la creò!123
Prima di addentrarci in un’analisi dell’evoluzione musicale lungo i due
spot è bene prima definirne i valori base124. Entrambi i testi illustrano
situazioni di vita comune, con la differenza che nella prima pubblicità si
tratta di momenti straordinari mentre nella seconda di momenti ordinari.
Entrambe le pubblicità presentano un claim finale rivolto al futuro:
«speriamo che sia femmina» e «il futuro è rosa», che appaiono come
auguri, ma mentre nella pubblicità del 2006 si ricorre al modo congiuntivo,
quindi ipotetico, nello spot del 2009 si utilizza l’indicativo che diversamente
esprime condizioni oggettive, stati di fatto. Se nel 2006 si ha una
tranquillità conquistata, nel 2009 si tratta di una tranquillità realizzata;
sembra perciò che la coppia di valori che lega i due spot sia proprio quella
della fiducia/sfiducia. Per comprendere lo sviluppo dei due spot è
necessario appoggiarsi – seppur brevemente – al quadrato semiotico nei
termini descritti da Greimas e Courtés (1979), vale a dire con uno
strumento che permette una raffigurazione oppositiva di valori semantici:
169
123 Testo della canzone Sorelle d’Italia, adattato da Fratelli d’Italia, contenuta nello spot.124 Gli spunti per queste riflessioni sono stati forniti dai preziosi suggerimenti di Riccardo Simonini.
si rintraccia per cui che nei nostri spot i vertici del quadrato corrispondono
ai valori di fiducia e sfiducia, non-fiducia e non-sfiducia.
Nel 2006 abbiamo una protagonista che alterna momenti di euforia
ad altri disforici. La fiducia corrisponde alle situazioni di massima libertà e
spontaneità, evidenti quando balla in camera da sola o nelle effusioni col
fidanzato. Se ci spostiamo sul polo contrario, la sfiducia viene riscontrata
nelle situazioni del saggio di danza e del colloquio. La non-fiducia si
palesa nella scena del colloquio quando la seconda ragazza respinge lo
sguardo di incoraggiamento della protagonista: entrambe sono tese, ma la
collega rifiuta addirittura l’invito di stemperare il comune nervosismo che
nella protagonista non suscita alcuna ostilità, bensì si limita ad accettare la
volontà dell’altra con una certa indulgenza. Spostandoci poi sull’ultimo
vertice del quadrato troviamo la non-sfiducia, che risulta invece
riconducibile alle sequenze di matrimonio e gravidanza. Nonostante
l’incertezza per questi eventi futuri, l’atteggiamento della protagonista è
comunque positivo. Si osserva invece, che nella pubblicità del 2009 le
polarità negative del nostro quadrato non sono attivate, infatti, la
valorizzazione proposta dallo spot non esprime l’ipotesi della negatività –
al più la contempla implicitamente tramite il paragone con il futuro incerto
del mondo reale – professando un futuro roseo, confermato dalla fiduciosa
letizia delle protagoniste.
È possibile tradurre l’evoluzione dei due spot, perciò la coppia di
valori sfiducia/fiducia, nei termini di tensione/rilassamento dove alla
tensione corrisponde l’interazione tra la fiducia e la sfiducia della
protagonista, evidenziata anche dall’uso del verbo condizionale nel claim,
mentre al rilassamento corrisponde la fiducia, che si osserva nel presente
di «Il futuro è rosa». A livello musicale dunque, si riscontrano due
analogie: l’una che riguarda l’evoluzione del sistema musicale in
170
occidente, l’altra che riguarda più in dettaglio la sintassi del sistema tonale
occidentale.
Henry Cowell (1930) sostiene che la musica, da quando è divenuta
polifonica, ha seguito la serie delle armoniche naturali prodotte da una
corda vibrante. Tralasciando tutti gli esempi non utili ai fini della nostra
discussione, citiamo solamente il caso della musica tonale (che raggiunge
l’apice nel XVIII secolo) e della dodecafonia (anni Venti del Novecento): se
nel Settecento venivano utilizzate le prime sette armoniche, perciò vigeva
un sistema musicale basato sull’accordo, con la dodecafonia si sono
preferite le armoniche più alte e quindi il sistema si basa sul semitono cioè
sulla suddivisione in dodici parti equidistanti dell’ottava. La musica tonale
è basata sui rapporti gerarchici che si generano tra i vari accordi, rapporti
che sono totalmente assenti nella dodecafonia. Quindi, se nella sintassi
tonale il percorso si alterna tra tensione e rilassamento – ricordiamo
Lerdahl e Jackendoff (1983a) – creando così delle aspettative che
possono essere più o meno rispettate (Meyer 1956), nella musica
dodecafonica, non essendoci tali rapporti gerarchici, il tutto fluttua in una
distensione costante dove non si viene a creare alcun tipo di aspettativa.
Come abbiamo visto, più si è lontani dal centro tonale e maggiore sarà la
tensione, che verrà completamente dissipata sull’accordo di tonica
sanzionando positivamente l’ascoltatore.
Appare dunque evidente l’evoluzione dei due spot: alle varie
tensioni/distensioni rintracciabili nello spot del 2006 che sono paragonabili
alla musica tonale del Settecento e all’accordo di dominante, segue la
distensione dello spot del 2009 che possiamo ricollegare sia alla
dodecafonia che all’accordo di tonica. Nello spot del 2009, le protagoniste
sono collocate in un’atmosfera distesa, non ci sono tensioni, tutto è piatto;
diversamente, lo spot del 2006 mostra un percorso fatto di contraddizioni
171
che si risolvono, come spiegato, sulla frase «she’s always a woman to
me», il momento più significativo, che sta quasi a esprimere come la ricca
personalità femminile rappresenti un valore nell’affrontare eventuali ostilità
e imprevisti della vita, messaggio che viene ribadito anche dalla melodia,
in cui le dissonanze della musica tonale sono capaci di mettere in rilievo le
consonanze che seguono. Si aggiunge infine che la diversità tra i due spot
può essere vista anche in un’ottica di continuità. La sequenza che chiude
lo spot del 2006, infatti, mostra i due coniugi abbracciati, mentre il marito
accarezza la pancia della protagonista, è un’immagine intima, distesa,
serena, evocativa che anticipa le sequenze dello spot 2009.
172
3.2. Conclusioni
In questo percorso abbiamo potuto osservare quanto musica e
linguaggio naturale appaiano simili e per certi versi sovrapponibili. L’analisi
musicale di Schenker (1935), la teoria generativa di Lerdahl e Jackendoff
(1983a), le analisi di Sloboda (1985) e infine l’illuminante articolo di Patel
(2003) in cui linguaggio e musica sembrano condividere risorse neuronali
localizzate proprio nell’area di Broca ci hanno spinto ad indagare la
musica in una prospettiva linguistica. Poiché il nostro oggetto di studio è la
retorica musicale applicata alla pubblicità, si è riservato uno sguardo
particolare alle figure imitative, è stata presentata una breve disamina
storica sulla retorica degli affetti nata in epoca barocca e,
successivamente, si è proposta una tassonomia delle figure musicali che
rappresentano il mondo extra-musicale. Per la rappresentazione musicale,
da un punto di vista creativo, vale a dire dal punto di vista del compositore,
sono stati mostrati i casi dei madrigalismi italiani del XVI secolo e del
mickey-mousing in ambito cinematografico, mentre dal un punto di vista
dell’ascoltatore si è fatto riferimento alle ricerche condotte nell’ambito della
semiotica della musica125 con particolare riferimento agli effetti di senso
scaturiti dagli intervalli musicali e dalle melodie (Stefani, Marconi e Ferrari
1990; Stefani e Marconi 1992). Successivamente abbiamo indagato il
motivo per cui un significato viene associato a uno stimolo musicale
attraverso gli spunti forniti soprattutto da Marconi (2001a), il quale ci ha
sottolineato che la musica può essere pensata in termini di espressione
vocale di uno stato d’animo o in termini di proiezione metaforica
propriocettiva. Tutti questi esempi concorrono alla formulazione della
173
125 Maria Pia Pozzato e Lucio Spaziante fanno notare come tuttavia in questi ultimi anni ci si diriga verso una «semiotica del musicale» (Pozzato e Spaziante 2009, 8) piuttosto che una semiotica della musica.
nostra tesi riguardo all’utilizzo delle figure musicali di imitazione nella
pubblicità.
Noi crediamo che una musica per spot che richiami le caratteristiche
fisiche del prodotto sia più efficace di una musica utilizzata come semplice
commento. Come è stato osservato all’inizio del nostro percorso, l’uomo
come gli animali riesce a stimare dal suono di un oggetto o di un corpo
caratteristiche quali distanza, la localizzazione, la materia di cui si
compone, il peso e altro; compiti di basso livello per cui legati in qualche
modo alla sopravvivenza e comuni agli uomini. Siamo spinti perciò a
credere che rappresentare le caratteristiche sonore di un oggetto
attraverso la musica possa creare un legame più solido con il prodotto
pubblicizzato, anche in ragione del fatto che non è necessario un richiamo
esplicito al referente, un’elaborazione semantica può essere attivata
anche da stimoli sub-liminali (Marcel 1983; Cheesman e Merikle 1986).
Negli ultimi anni gli spot pubblicitari vogliono attivare prevalentemente
dinamiche di tipo passionale (Bianchi 2005), tuttavia noi ipotizziamo che,
contemporaneamente, l’imitazione attraverso metafore e onomatopee
possa risultare efficace. Aristotele ci dice che l’imitazione è connaturata
all’uomo – dati peraltro facilmente riscontrabili anche nel campo della
psicologia dello sviluppo – mentre la psicologia cognitiva ci ha mostrato
come nei primi stadi della percezione si compie un’elaborazione delle
caratteristiche fisiche dello stimolo piuttosto che di quelle semantiche che,
nella psicologia cognitiva, corrispondono alla sintassi armonica tonale.
Inoltre, all’interno della tassonomia che abbiamo ricavato percorrendo a
ritroso il modello di segno musicale, lungo un asse che va da un maggior
coinvolgimento cognitivo a un’elaborazione sensoriale, sono state ordinate
le figure di imitazione in un percorso nel quale si rintraccia, a livello
poietico, una diminuzione di arbitrarietà. Questo percorso ci induce a
174
focalizzare la nostra attenzione sulle onomatopee linguistiche e soprattutto
su quelle extra-linguistiche. Concludendo, se si esce da un sistema
linguistico – come quello tonale – risulta più facile imitare un qualcosa che
è appunto “esterno” a esso. Nelle proposte di ricerca avanzeremo delle
ipotesi sui possibili casi a cui la nostra tesi potrebbe essere applicata.
La nostra idea è che dovrebbero essere ampliate le ricerche relative
agli intervalli, alla melodia e alla strumentazione, in un’ottica di
trasferimento del significato musicale al prodotto pubblicizzato. Si pensi al
celebre lavoro degli anni Venti di H. Erdmann, G. Becce e L. Brav (1927),
autori di un prontuario di “luoghi comuni” musicali accuratamente
indicizzati allo scopo di commentare la musica per i film (Nowell-Smith
1996). Allo stesso modo potrebbe risultare utile per un compositore un
compendio di associazioni tra elementi musicali e significati associati, così
come risulterebbe importante che il compositore applichi una certa
procedura al suo fare musicale: analogamente a chi realizza le parti visive
in una pubblicità, il compositore dovrebbe svolgere in primo luogo una
ricerca sulle caratteristiche fisiche del prodotto, per individuare i suoni che
da questo scaturiscono, successivamente svolgere una traduzione, quindi
attraverso la figura imitativa dell’onomatopea, di questo suono in un
sistema musicale. Nel creare una musica per uno spot, inoltre, non si
dovrebbe trascurare il potere della musica di veicolare significati plastici,
spaziali e di movimento, come si è visto con Tagg (1990) e come emerge
dagli spot analizzati da Scott (1990) e Cook (1994), senza dimenticare che
una musica deve essere innanzitutto piacevole (Gorn 1982). Il
compositore deve dimenticare dei percorsi intrapresi dalla musica
sperimentale delle avanguardie, e basti ricordare il pensiero sul silenzio di
John Cage. Sfruttare il silenzio come “musica” per uno spot di un prodotto
alimentare, ipotizzando che esso venga trasmesso nelle fasce orarie in cui
175
il pubblico consuma i pasti, ed essendo il silenzio uno specchio
dell’ambiente sonoro, le immagini dello spot verrebbero associate ai
rumori delle nostre cucine.
L’ambito della psicologia sperimentale, che negli ultimi anni si
appoggia alle neuroscienze, potrebbe offrire veri spunti di ricerca più di
carattere speculativo che pratico. Abbiamo visto con Hjelmslev (1943) che
la connotazione, in quanto significazione secondaria, segue la
denotazione, e che in musica l’elaborazione sensoriale precede quella
cognitiva (Tekman e Bharucha 1992), allo stesso modo sarebbe
interessante condurre esperimenti sul corso temporale della significazione
musicale. Sarebbe inoltre affascinante riproporre l’esperimento di Koelsch
e collaboratori (2004) usando come stimoli gli intervalli musicali e i
significati individuati da Stefani e collaboratori (1990; 1992).
A questo punto ritorniamo alla nostra proposta linguistica. Se nel
linguaggio è possibile individuare in maniera distinta il livello semantico e
quello sintattico come dimostrato dalla frase “Idee verdi senza colore
dormono furiosamente” di Chomsky che soddisfa unicamente i criteri di
benformatezza sintattica, nel nostro approccio linguistico sembra non
essere chiaro il livello dell’interfaccia sintassi-semantica che per Chomsky
è un punto chiave nella rappresentazione della grammatica126. In altre
parole si dovrebbe rintracciare una frase analoga a quella delle “idee”
chomskiane al fine di delineare il livello semantico e quello sintattico. È
necessario ricercare delle frasi che risultino ben formate da un punto di
vista sintattico e che non abbiano senso da quello semantico-pragmatico,
in altri termini bisogna individuare la competenza dell’ascoltatore.
Cerchiamo di rispondere per punti.
176
126 Gli spunti per queste riflessioni sono stati forniti dai preziosi suggerimenti della professoressa Cristina Guardiano, docente di Linguistica Generale e Linguistica Applicata presso l’Università degli Studi di Modena e Reggio.
La competenza musicale, come quella linguistica, si divide tra i
diversi livelli del sistema, essa, secondo noi, si rintraccia in quella che
Shuter-Dyson (1999) chiama “abilità musicale” che analogamente alla
competenza linguistica è organizzata per livelli e consiste nella capacità
dell’ascoltatore di discriminare, a ogni livello del sistema musicale, gli
elementi corretti da quelli non corretti. Le abilità tonali, ad esempio,
includono la percezione dell’altezza, il riconoscimento del cambio di
tonalità nonché della gerarchia tonale e la discriminazione del sistema
tonale rispetto a quello atonale. In quest’ultimo caso risulta illuminante uno
studio (Zenatti 1981) in cui a due gruppi di bambini – il primo in cui l’età
media è di cinque anni e il secondo di sette – si chiede di svolgere un
compito di riconoscimento che può avvenire in un contesto tonale o in
contesto atonale. I risultati migliori sono stati ottenuti nel contesto tonale
con bambini di sette anni – i bambini di cinque anni non hanno mostrato
preferenze tra i due sistemi musicali, rivelando l’indubbia componente
culturale e cognitiva della sintassi musicale. Ritornando al linguaggio, il
parlante considererebbe la frase “Idee verdi senza colore dormono
furiosamente” mal formata a partire da una competenza che è innata,
infatti, il linguaggio è una facoltà innata dell’uomo che si appoggia su dei
principi strutturali universali la cui violazione produce una grammatica
impossibile127. La musica, tuttavia, è un universale ma diversamente dal
linguaggio non ha universali: viene rintracciata in tutte le culture, ma non vi
sono caratteristiche universali se non quelle determinate dai nostri limiti
biologici.
177
127 Un esperimento sulla grammatica impossibile viene condotto da Smith e Tsimpli (1995) in cui si chiede ad un soggetto autistico con una straordinaria propensione per il linguaggio – oltre alla sua conosce altre sedici lingue – di imparare una grammatica artificiale impossibile, cioè che viola i principi universali del linguaggio. I risultati, confrontati con un gruppo di controllo di intelligenza media, hanno mostrato che il soggetto autistico, potendo contare solo sulla facoltà di linguaggio innata, non riusciva ad apprendere le regole impossibili.
Esiste dunque una musica impossibile? Da un punto di vista estetico,
la risposta è sicuramente negativa: oggi tutto è musica, dal rumore bianco
al silenzio. Effettivamente in questo percorso che sta per concludersi si è
cercato di rintracciare gli elementi in comune tra musica e linguaggio: a
livello strutturale, nei modi di utilizzo, nelle origini e nelle aree cerebrali
coinvolte nell’elaborazione cognitiva. Tuttavia, una musica impossibile
sembra difficile da definire e una risposta potrebbe giungerci da ulteriori
domande: “Se un albero cade in una foresta e nessuno può ascoltarlo,
produce rumore?”. Gli infrasuoni delle balene fanno parte della musica?
Gli ultrasuoni dei pipistrelli? E la musica mundana dei corpi celesti?
Queste domande inquadrano il problema da una prospettiva biologica e
relativa ai nostri organi di senso, ma non riescono a definirlo nella sua
essenza e in rapporto al sistema cognitivo.
Se ci soffermiamo sul fatto che la facoltà di linguaggio è innata per
l’uomo mentre il fare musica lo è per la società, si ritorna alla domanda
che ha aperto questo lavoro relativa all’importanza che la musica assume
per l’uomo e per la società. Essa ha un’indubbia funzione sociale in
quanto è condivisione di stati emozionali (Cross 1999, 19), ma a livello
individuale non si può certo trascurare che
Emotionally, you’d probably want to first yell and stamp your feet, then sit down and relax; or perhaps you’d first tense your shoulders and clench your fists, then lean back, open your arms and show the palms of your hands (Tagg 2010, 59).
La musica è allora il linguaggio delle emozioni, il cui messaggio,
come scrive Beethoven nella Missa solemnis, procede da cuore a cuore
(Cook 1994, 266), dunque è pura emozione. Ma a questo punto potremmo
persino chiederci se esiste un’emozione impossibile. Le risposte non
178
possono che essere tutte negative: se il linguaggio possiede la
caratteristica di riferirsi direttamente a un mondo extra-linguistico, la
musica ha il potere di riferirsi direttamente al cuore delle persone.
179
Bibliografia
AA.VV. 1981, Research aspects on singing, Stockholm: Royal Academy of
Music.
Aksnes H. 1998, Music and its Resonating Body, in Stefani, Tarasti e
Marconi (1998).
Ala N. e Ghezzi E. 1983, Musica e pubblicità nella televisione italiana,
«Musica e realtà», 12, 103-117.
Albertazzi L. (a cura di) 1993, La percezione musicale, Milano: Edizioni
Angelo Guerini e Associati.
Antonietti A. 2006, Significati musicali: come la mente pensa i suoni,
Milano: Università Cattolica.
Antovic M. 2009, Towards a Semantics of Music: the 20th Century,
«Language and History», 52(1), 119-129.
Apel W. 1962, La notazione della musica polifonica, dal X al XVII secolo,
Firenze: Sansoni Editore.
Atalay N., Tekman H. e Toiviainen P. 2006, Priming by non-diatonic
chords: The case of the Neapolitan chord, in Baroni, Addessi,
Caterina e Costa (2006).
Auric G. 1978, Cahier Jean Cocteau, Parigi: Gallimard.
Azzaroni L. 1997, Canone infinito, Bologna: CLUEB.
Baroni M., Addessi A.R., Caterina R. e Costa M. (a cura di) 2006,
Proceedings of the 9th International Conference on Music Perception
& Cognition, Bologna.
181
Basso A. (a cura di) 1984, Dizionario Enciclopedico Universale della
Musica e dei Musicisti, Torino: Utet.
Baumann M.P. 1997, Musica, in Wulf (2002).
Beardslee D.C. (a cura di) 1953, Readings in Perception, Princeton.
Bellisario A. 1981, Pratica di analisi musicale, Milano: Rugginenti.
Benjamin W. 1936, L’opera d’arte nell’epoca della sua riproducibilità
tecnica. Arte e società di massa, Torino: Einaudi.
Bertone G. 1999, Breve dizionario di metrica italiana, Torino: Einaudi.
Bharucha J.J. 1987, MUSACT: A connectionist model of musical harmony,
in Ninth Annual Conference of the Cognitive Science Society,
Hillsdale: Erlbanm, 508-517.
Bharucha J.J. e Stoeckig K. 1987, Priming of chords: Spreading activation
or overlapping frequency spectra?, «Perception & Psychophysics»,
41(6), 519–524.
Bianchi C. 2005, Spot, Roma: Carrocci.
Biasutti M. 1999, Educazione ambientale al suono, Firenze: La nuova
Italia.
Bigand E. e Poulin-Charronnat B. 2006, Are we “experienced listeners”?
A review of the musical capacities that do not depend on formal
musical training, «Cognition», 100, 100-130.
Bigand E., Madurell F., Tillmann B.e Pineau, M. 1999, Effect of global
structure and temporal organization on chord processing, «Journal of
Experimental Psychology: Human Perception and Performance», 25,
184-197.
182
Bigand E., Tillmann B., Poulin-Charronnat B. e Manderlier D. 2005,
Repetition priming: Is music special?, «Quarterly Journal of
Experimental Psychology», 58A(8), 1347-1375.
Blacking J. 1995, Music, Culture and Experience, London: University of
Chicago Press.
Bolinger D. (a cura di) 1972, Intonation, Harmondsworth: Penguin Book.
Booth M.W. 1981, The Experience of Song, New Haven: Yale University
Press.
Brindle R.S. 1992, La composizione musicale, Milano: Ricordi.
Brown M.H e Freedman R. 2001, Janequin, Clément, in Stanley (2001).
Brown S. 2000, The “musilanguage” model of music evolution, in Wallin,
Merker e Brown (2000).
Burner G. 1990, Music, mood and marketing, in «Journal of Marketing», 4,
94-104.
Butler D. 1992, The Musician’s guide to perception and cognition, New
York: Schirmer Books.
Butler G. 2004, La retorica tedesca e la Affektenlehere, in Nattiez (2004).
Cage J. 1976, Per gli uccelli, conversazioni con Daniel Charles, Torino:
Testo & Immagine.
Calabrese S. 2008, Retorica del linguaggio pubblicitario, Bologna:
Archetipolibri.
Cano C. 1994, La comprensione del suono organizzato, Relazione al
convegno su Ascolto psicoanalitico e orecchio musicale, Lavarone,
Testo dattiloscritto.
183
Carchia G. e D’angelo P. (a cura di) 1999, Dizionario di Estetica, Bari:
Laterza.
Carollo R. (a cura di) 1998, Le forme dell’immaginario: Psicanalisi e
Musica, Bergamo: Moretti & Vitali.
Carter T. 2001, Word Painting, in Stanley (2001).
Carterette E.C. e Kendall R.A. 1999, Comparative Music Perception and
Cognition, in Deutsch (1999).
Casarin C. e Fornari D. (a cura di) 2010, Estetiche del camouflage,
Milano: Et al. Edizioni.
Cattin G. 1991, La monodia nel medioevo, Vol I, Torino: EDT.
Catucci S. 1999, Musica, teorie della, in Carchia e D’angelo (1999).
Cheesman, J. e Merikle P.M. 1986, Distinguishing conscious from
unconscious perceptual processes, «Canadian Journal of
Psychology», 40, 343-367.
Chion M. 2001, L’audiovisione, Suono e immagine nel cinema, Torino:
Lindau.
Chomsky N. 1957, Syntactic structures, Mouton: The Hague.
Chomsky N. 1965, Aspects of the Theory of Syntax, Cambridge: The MIT
Press.
Chomsky N. 1992, Linguaggio e problemi della conoscenza, Bologna: Il
Mulino.
Civra F. 1991, Musica poetica. Torino: UTET.
Cogan R. e Escot P. 1976, Sonic design: the nature of sound and music,
Englewood Cliffs: Prentice Hall.
184
Collins A.M. e Loftus E.F. 1975, A spreading-activation theory of semantic
processing, «Psychological Review», 82, 407-428.
Cook N. 1994, Music and Meaning in the Commercials, «Popular Music»,
13 (1), 27-40.
Cooke D. 1959, The language of music, Oxford: Oxford University Press.
Cooke M. J. 2001, Film music, in Stanley (2001).
Cowell H. 1930, Nuove risorse musicali, Lucca: Le Sfere.
Critchley M. e Henson R.A. (a cura di) 1979, Music and the Brain, London:
William Heinemann.
Cross I. 1999, Is music the most important thing we ever did? Music,
development and evolution, In Suk Won Yi (1999).
Cross I. 2009, The evolutionary nature of musical meaning, «Musicae
Scientiae», Special Issue: Music and evolution, 179-200.
Cross, I. 2005, Music and meaning, ambiguity and evolution, in Miell,
Macdonald e Hargreaves (2005).
Cross, I. 2010, The evolutionary basis of meaning in music: some
neurological and neuroscientific implications, in Rose (2010).
Dahlhaus C. 1978, L’idea di musica assoluta, 1998, Firenze: La nuova
Italia.
Dahlhaus C. e Eggebrecht H. 1985, Che cos'è la musica, Bologna: Il
Mulino.
Dalmonte R. e Baroni M. (a cura di) 1990, Secondo convegno europeo di
analisi musicale, Trento: Università degli studi di Trento.
Dart T. 2001, Eye music, in Stanley (2001).
185
Darwin C. 1871, The expression of the emotions in man and animals,
London: HarperCollins Publisher.
Davies J.B. 1978, The psychology of music, London: Hutchinson.
Davies S. 1994, Musical meaning and expression, Ithaca and London:
Cornell University Press.
Davis R. 1999, Complete Guide to Film Scoring, Boston: Berklee Press.
De Saussure F. 1916, Corso di linguistica generale, Bari: Laterza.
Delalande F. 1993, Le condotte musicali, Bologna: Clueb.
Delalande F., Celeste B. e Dumaurier E. 1982, L’enfant, du sonore au
musical, Paris: Ina/Buchet-Chastel.
Deutsch D. (a cura di) 1999, The psychology of music, 2nd Edition, San
Diego: Academic Press.
Deutsch D. 1999a, Grouping mechanisms in music, in Deutsch (1999).
Deutsch D. 1999b, The Processing of Pitch Combinations, in Deutsch
(1999).
Devoto G. e Oli G.C. 2007, Il Devoto Oli. Vocabolario della lingua italiana
2007, Firenze: Le Monnier.
DeWitt L.A. e Crowder R.G. 1987, Tonal fusion of consonant musical
intervals: The Oomph in Stumpf, «Percept. Psychophys.», 41, 73-84.
Dowling W.J. e Harwood D.L. 1986, Music Cognition, New York:
AcademicPress.
Dubois T. 1923, Trattato d’armonia teorica e pratica di Teodoro Dubois,
Paris: Alphonse Leduc & C.
Dufourt H. 1997, Musica, Potere, Scrittura, Milano: Ricordi.
186
Duranti A. (a cura di) 2005, A companion to linguistic anthropology,
Oxford: Blackwell Publishing.
Eco U. 1968, La struttura assente, Milano: Bompiani.
Eggebrecht H.H. 1994, La musica di Gustav Mahler, Firenze: La nuova
Italia.
Erdmann H., Becce G. e Brav L. 1927, Allgeimeines handbuch der
filmmusik, 2 voll., Berlino: Schlesinger.
Fabbri P. (a cura di) 1988, Il madrigale tra cinque e seicento, Bologna: Il
Mulino.
Favaro R. 2010, Musique d’ameublement: mascheramento e mimetismo
nella composizione del paesaggio sonoro, in Casarin e Fornari
(2010).
Favaro R. e Pestalozza L. (a cura di) 1999, Storia della musica, San
Giuliano Milanese: Nuova Carish.
Feld S. 1994, Communication, Music, and Speech about Music, In Keil e
Feld (1994).
Ferrari G.C. 1896, Un caso rarissimo di suggestione musicale, «Rivista
Musicale Italiana», 3, 186-191.
Ferraro G. 1999, La pubblicità nell’era di internet, Roma Meltemi.
Fonagy I. 1981, Emotions, voice and music, in AA.VV. (1981).
Fonagy I. 1983, La vive voix, Paris: Payot.
Fonagy I. e Magdics C. 1972, Emotional patterns in intonation and music,
in Bolinger (1972).
Foster E. e Gamble E.A.McC. 1906, The effect of music on thoracic
breathing, «American Journal of Psychology», 17, 406-414.
187
Fraisse P., Olèron G. e Paillard J. 1953, Les effects dynamogéniques de la
musique: étude expérimentale, «L’Année Psychologique», 53, 1-34.
Fubini E. 1973, Musica e linguaggio nell’estetica contemporanea, Torino:
Einaudi.
Gallico C. 1978, L’età dell’umanesimo e del rinascimento, Vol III, Torino:
EDT.
Gallo F. A. 1991, La polifonia nel medioevo, Vol III, Torino: EDT.
Gazzara F. 1993, Processi creativi e comunicativi della musica nel
messaggio pubblicitario radiotelevisivo, «Musica e realtà», 40,
93-110.
Giannattasio F. 1994, La musica come rappresentazione organizzata di
processi logico-emotivi, Relazione al convegno su Ascolto
psicanalitico e orecchio musicale, Lavarone. Testo dattiloscritto.
Gibson J.J. 1966, The Senses Considered as Perceptual Systems,
Boston: Houghtw Mifflin.
Gibson J.J. 1979, The Ecological Approach to Visual Perception, Boston:
Houghtw Mifflin.
Gorn G. J. 1982, The Effects of Music in Advertising on Choice Behavior:
A Classical Conditioning Approach, «Journal of Marketing», 46
(Winter), 94-100.
Greimas A.J. 1983, Del senso 2, Milano: Bompiani.
Greimas A.J. e Courtés J. 1979, Semiotica. Dizionario ragionato della
teoria del linguaggio, Milano: Mondadori.
Grimaldi S. 1993, Trascrizione e interpretazione, «Psicanalisi e Metodo»,
1.
188
Hammerstein R. 1988, Questioni formali nei madrigali di Monteverdi, in
Fabbri (1988).
Hanser S.B. 1985, Music therapy and stress reduction research, «Journal
of Music Therapy» 22, 193-206.
Harrer G. e Harrer. H. 1979, Music, emotion and autonomic function, in
Critchley e Henson (1979).
Hinton L., Nichols J. e Ohala J.J. (a cura di) 1994, Sound Symbolism, New
York: Cambridge University Press.
Hjelmslev L.T. 1943, I fondamenti della teoria del linguaggio, Torino:
Einaudi, 1968.
Imberty M. 1986, Suoni emozioni significati. Per una semantica
psicologica della musica, Bologna CLUEB.
Iwaszkiewicz J. 1991, Chopin, Pordenone: Studio Tesi.
Jackobson R. 1966, Saggi di linguistica generale, Milano: Feltrinelli, 1972.
Jeppesen K. 1956, Kontrapunkt . Lehrbuch der k lassichen
vokalpolyphonie, Leipzig: Breitkopf & Hartel.
Johnson M. 1987, The Body in the Mind: The Bodily Basis of Meaning,
Imagination, and Reason, Chicago: University of Chicago Press.
Jones M.R. e Holleran S. (a cura di) 1992, Cognitive bases of musical
communication, Washington, DC: American Psychological
Association.
Jones M.R. 1976, Time, our lost dimension: Toward a new theory of
perception, attention and memory, «Psychological Review», 83,
322-335.
Julien J.-R. 1989, Musica e pubblicità, Milano: Ricordi.
189
Juslin P.N. e Sloboda J.A. (a cura di) 2001, Music and emotion, New York:
Oxford University Press.
Karolyi O. 1980, La grammatica della musica, Torino: Einaudi.
Katz J. e Pesetsky D. 2009, The Recursive Syntax and Prosody of Tonal
Music, Conference on Recursion, University of Massachusetts/
Amherst, May 2009.
Keil C. e Feld S. (a cura di) 1994, Music Grooves, Chicago: University of
Chicago Press.
Kivy P. 1989, Sound Sentiment, Philadelphia: Temple University Press.
Koelsch S. 2010, Towards a neural basis of music-evoked emotions,
«Trends in Cognitive Sciences», Vol.14, 3, 131-137.
Koelsch S. e Siebel, W.A. 2005, Towards a neural basis of music
perception, «Trends in Cognitive Sciences» 9 (12), 578-584.
Koelsch S., Gunter T.C. Wittfoth M. e Sammler D. 2005, Interaction
between syntax processing in language and in music: An ERP study,
«Journal of Cognitive Neuroscience», 17, 1565-1577.
Koelsch S., Gunter T.C., Von Cramon D.Y., Zysset S., Lohmann G. e
Friederici A.D. 2002, Bach speaks: A cortical “language-network”
serves the processing of music, «NeuroImage», 17, 956-966.
Koelsch S., Kasper E, Sammler D, Schulze K, Gunter T e Friederici A.D.
2004, Music, language, and meaning: Brain signatures of semantic
processing, «Nature Neuroscience». 7, 302-307.
Koffka K. 1935, Principles of Gestalt psychology, New York: Harcourt.
Kraut R. 1992, On the possibility of a determinate semantics for music, in
Jones e Holleran (1992).
190
Krumhansl C.L. 1992, Internal reppresentations for music perception and
performance, in Jones e Holleran (1992).
Lakoff G. e Johnson M. 1980, Metafora e vita quotidiana, Milano:
Bompiani.
Langer S. 1942, Philosophy in a New Key, Cambridge: Harvard University
Press.
Lanza A. 1984, Notazione, in Basso (1984).
Lerdahl F. 1988, Tonal pitch space, «Music Perception», 5, 315-345.
Lerdahl F. e Jackendoff R. 1983a, A generative theory of tonal music,
Cambridge: MIT Press.
Lerdahl F. e Jackendoff R. 1983b, An Overview of Hierarchical Structure in
Music, «Music Perception», Vol 1, 2 (Winter), 229-252.
Llinas, R. e Churchland, P. (a cura di) 1996, The Mind-Brain Continuum,
MIT Press, Cambridge.
Lockard J.S., Daley P.C. e Gunderson V.M 1979, Maternal and paternal
differences in infant carry: US and African data, «Am. Nat.» 113,
235-246.
Locke S. e Kellar L. 1973, Categorical perception in a non-linguistic mode,
«Cortex.», 9, 355-369.
Lombardi Satriani L.M. 1973, Folklore e profitto. Tecniche di distruzione di
una cultura, Rimini-Firenze: Guaraldi.
Lombardo V. e Valle A. 2002, Audio e multimedia, Milano: Apogeo.
Luccio R. 1993, La musica come processo cognitivo, in Albertazzi (1993).
Lucignani G. e Pinotti A. (a cura di) 2007, Immagini della mente, Miliano:
Raffaello Cortina Editore.
191
Macey P. 2004, Retorica e affetti nel Rinascimento, in Nattiez (2004).
Maess, B., Koelsch S., Gunter T.C, e Friederici A.D. 2001, Musical. Syntax
is processed in Broca’s area: An MEG study, «Nature
Neuroscience», vol. 4, 5, 540-545.
Mancia M. 1998, Riflessioni psicanalitiche sul linguaggio musicale, in
Carollo (1998).
Marcel A.J. 1983, Conscious and unconscious perception: Experiments on
visual masking and word recognition, «Cognitive Psychology», 15,
197-237.
Marconi L. 2001a, Musica Espressione Emozione, Bologna: Clueb.
Marconi L. 2001b, Muzak, jingle, videoclip, in Nattiez (2004).
Marconi L. 2007, Musica tonale, narratività e precondizioni della
significazione, rivista dell’Associazione Italiana di Studi Semiotici on-
line.
McAdams S. 1996, Audition: Cognitive Psychology of Music, in Llinas e
Churchland (1996).
Meidner O. 1985, Motion and E-motion in music, «British Journal of
Aesthetic», 25.
Melchiorri A. 2002, La dimensione patemica negli spot, in Pezzini (2002).
Mellers W. 1981, God modality and meaning in some recents song of Bob
Dylan, «Popular music», 1, 143-158.
Mentz P. 1897, Die Wirkung akusticher Sinnesreise auf Puls und Athmung,
«L’Année Psychologique», 3, 390-401.
192
Meyer D.E. e Schvaneveldt R.W. 1971, Facilitation in recognizing pairs of
word: Evidence of a dependence between retrieval operations,
«Journal of Experimental Psychology», 90, 227-234.
Meyer L.B. 1956, Emozione e significato nella musica, Bologna: Il Mulino,
1992.
Meyer L.B. 1973, Explaining music, Berkeley: University of Carolina Press.
Michel P. 2001, Ferrari, Luc, in Stanley (2001).
Middleton R. 1990, Studiare la popular music, Milano: Feltrinelli.
Miell D., Macdonald R. e Hargreaves D. (a cura di) 2005, Musical
Communication, Oxford: Oxford University Press.
Miller G.A. 1956, The magical number seven, plus or minus two: Some
limits on our capacity for processing information, «Psychological
Review», 63(2), 81–97.
Miranda-Pérez R. 2001, Jingle, in Stanley (2001).
Moro A. 2006, I confini di Babele, Milano: Longanesi.
Motte-Haber H. 1982, Psicologia della musica, Fiesole: La nuova Italia.
Nattiez J-J. 1987, Musicologia generale e semiologia, Torino: EDT, 1989.
Nattiez J.J. (a cura di) 2004, Enciclopedia della musica, Torino: Einaudi.
Nowell-Smith G. 1996, The Oxford History of World Cinema, Oxford:
Oxford University Press.
Ong W.J. 1982, Oralità e scrittura, Le tecnologie della parola, Bologna: Il
Mulino.
Owings D.H. e Morton E.S. 1998, Animal vocal communication: a new
approach, Cambridge: CUP.
193
Parncutt R. 1989, Harmony: A psychoacoustical approach, Berlin:
Springer-Verlag.
Patel A.D. 2003, Language, music, syntax and the brain, «Nature
Neuroscience», 6, (July), 674-681.
Peretz I. 2001, Listen to the Brain: a biological perspective on musical
emotions, in Juslin e Sloboda (2001).
Peretz I. e Coltheart M. 2003, Modularity of music processing, «Nature
Neuroscience», 6(7), pp. 688- 691.
Pesetsky D. 2007, Music syntax is language syntax, Workshop on
Movement, Harvard University, May 2007.
Pezzini I. (a cura di) 2002, Trailer, spot, clip, siti, banner. Le forme brevi
della comunicazione audiovisiva, Roma: Meltemi editore.
Pierce J.R. 1988, La scienza del suono, Bologna: Zanichelli.
Pinker S. 1997, How the mind works, London: Allen Lane.
Pisani D., Nigro A. e Schillaci A. 1969, Durata della contrazione elettrica
sotto azione della musica, «Rivista di neurobiologia», 15, 209-229.
Piston W. 1941, Armonia, Torino: EDT.
Ponzio J. 2009, Fioriture retoriche: parole musiche e silenzi, in Pozzato e
Spaziante (2009).
Porcello T. 1996, Sonic Artistry: Music, Discourse, and Technology in the
Sound Recording Studio, PhD dissertation, Department of
Anthropology, University of Texas at Austin.
Porzionato G. 1980, Psicobiologia della musica, Bologna: Pàtron Editore.
Pozzato M.P. e Spaziante L. (a cura di) 2009, Parole nell’aria. Sincretismi
fra musica e altri linguaggi, Pisa: Edizioni ETS.
194
Privitera M. 2004, Madrigali malinconici, in Nattiez (2004).
Propp V. 1928, Morfologia della fiaba, Torino: Einaudi.
Raffman D. 1992, Proposal for a musical semantics, in Jones e Holleran
(1992).
Révész G. 1953, Introduction to the psychology of music, London:
Longman.
Rhodes R. 1994, Aural Images, in Hinton, Nichols e Ohala (1994).
Rieber M. 1965, The effect of music on the activity level of children,
«Psychonomic Science», 3, 325-326.
Rimsky-Korsakoff N. 1885, Manuale pratico di armonia, Milano:
Sonzogno.
Rimsky-Korsakoff N. 1891, Principi di orchestrazione, Milano: Rugginenti.
Roederer J. G. 1984, The search for a survival value of music, «Music
Percept». 1, 350-356.
Romano A. 1998, Musica e psiche, in Carollo (1998).
Rose F.C. (a cura di) 2010, The Neurology of Music, London: Imperial
College Press.
Rosing H. 1977, Musikalische Stlisierung akustischer Vorbilder in der
Tonmalerei, München: Katzbichler.
Rudzinski W. 1993, Il ritmo musicale. Teoria e storia, Lucca: Libreria
Musicale Italiana Editrice.
Rusconi D., Kwan B., Giordano B., Umiltà C. e Butterworth B. 2005,
Spatial representation of pitch eight: the SMARC effect, convegno
Neurosciences and Music, Leipzig 5-8 maggio.
Sacks O. 2008, Musicofilia, Milano: Adelphi.
195
Salk L. 1973, The role of the heart in the relations between mother and
infant, «Scientific American», 2285, 24-29.
Santorsola D. 2000, Jazz. L’arte dell’armonizzazione, Milano: Ricordi.
Schaeffer P. 1966, Traité des objets musicaux, Paris: Le Seuil.
Schenker H. 1935, Free composition, New York: Longman.
Scherer K.R. 1986, Vocal affect expression: a review and a model for
future research, «Psychological Bulletin», 99/2.
Schneider M. 1960, La musica primitiva, Milano: Adelphi.
Schönberg A. 1967, Funzioni strutturali dell’armonia, Milano: Il Saggiatore.
Schopenhauer A. 1819, Il mondo come volontà e rappresentazione, Bari:
Laterza.
Scott L.M. 1990, Understanding Jingles and Needledrop: A Rhetorical
Approach to Music in Advertising, «Journal of Consumer Research»,
17 (September), 223-236.
Shuter_Dyson R. 1999, Musical ability, in Deutsch (1999).
Simeon E. 1995, Per un pugno di note: storia, teoria, estetica della musica
per il cinema, la televisione e il video, Ruginenti: Milano.
Simpson R.H., Quinn M. e Ausubel D.P. 1956, Synesthesia in Children:
Association of Colors with Pure Tone Frequencies, «The Journal of
Genetic Psychology», 89, 95-103.
Sloboda J.A. 1985, La mente musicale, Bologna: Il Mulino.
Sloboda J.A. 1992, Empirical studies of emotional response to music, in
Jones e Holleran (1992).
Sloterdijk P. 1993, Wo sind wir, wenn wir Musik Horen? in Id.,
Weltfremdheit, Frankfurt am Main.
196
Smith J.D. 1987, Conflicting Aesthetic Ideals in a Musical Culture, «Music
Perception», 44, 373-392.
Smith N. e Tsimpli I.M. 1995, The mind of a savant, Oxford: Blackwell.
Spanu G.N. 1999, 1400-1600: La musica nella società rinascimentale, in
Favaro e Pestalozza (1999).
Spaziante L. 2005, Suoni e musiche dagli spot, in Bianchi (2005).
Spaziante L. 2007, Sociosemiotica del pop, Roma: Carocci editore.
Stanley S. (a cura di) 2001, The New Grove Dictionary of Music and
Musicians, Second edition, London: MacMillan Publishers Ltd.
Stefani G. 1982, Il linguaggio della musica, Milano: Paoline.
Stefani G. e Guerra Lisi S. 1999, Gli stili prenatali nelle arti e nella vita,
Bologna: Clueb.
Stefani G. e Marconi L. 1992, La melodia, Milano: Bompiani.
Stefani G., Marconi L. e Ferrari F. 1990, Gli intervalli musicali, Milano:
Bompiani.
Stefani G., Tarasti E. e Marconi L. (a cura di) 1998, Musical Signification:
Between Rhetoric and Pragmatics, Proceedings of the 5th
International Congress on Musical Signification, Bologna.
Stilwell R.J. 2001, Advertising, Music in, in Stanley (2001).
Stroop J.R. 1935, Studies of interference in serial verbal reactions,
«Journal of Experimental Psychology», 18, 643-662.
Suk Won Yi (a cura di) 1999, Music, mind and science, Seoul: Seoul
National University Press.
Tagg P. 1981, On the specifity of musical communication, Goteborg:
Gothenburg University Musicology Department.
197
Tagg P. 1990, Towards a sign tipology of music, in Dalmonte e Baroni
(1990).
Tagg P. 2010, Music’s Meanings. A 21st‐century musicology for non‐
musos, manuscript, version updated 2010‐11‐22, 02:25.
Tarasti E. 1991, Beethoven’s Waldestein and the Generative Course,
«Indiana Theory Review», XII 1991, 99-140.
Tarasti E. 2002, I segni della musica: che cosa ci dicono i suoni, Lucca: Le
Sfere.
Tekman H.G. e Bharucha J.J. 1992, Time course of chord priming,
«Perception & Psychophysics», 51(1), 33–39.
Tillmann, B., Bharucha J. J. e Bigand E. 2000, Implicit learning of tonality:
A self-organizing approach, «Psychological Review», vol. 107,
885-913.
Titon J.T. (a cura di) 1996, Worlds of music: an introduction to the music of
the world’s peoples, New York: Schirmer Books.
Titon J.T., e Slobin, M. 1996, The music-culture as a world of music, in
Titon (1996).
Tormey A. 1971, The Concept of Expression. A Study in Philosophical
Psychology and Aesthetics, Priceton: Priceton University Press.
Trabant J. 2002, Lingua, in Wulf (2002).
Traini S. 2006, Le due vie della semiotica. Teorie strutturali e
interpretative, Milano: Bompiani.
Trehub S. E. 2003, Toward a developmental psychology of music, Annals
of the New York Academy Sciences, 999, 402–413.
Ulrich M. 1977, Atlante della musica. Milano: Mondadori.
198
Velotti S. 1999, Imitazione, in Carchia e D’angelo (1999).
Vinay G. 1991, Il Novecento nell’Europa Orientale e negli Stati Uniti, Vol
XI, Torino: EDT
Vinay V. 1994, Grammatica funzionale dell’armonia classica. Morfologia,
Milano: Rugginenti.
Von Balthasar H.U. 1925, Lo sviluppo dell’idea musicale, Milano: Glossa.
Wallin N.L., Merker B. e Brown S. (a cura di) 2000, The Origins of Music,
Cambridge, MA: MIT Press.
Ward J., Huckstep B. e Tsakanikos E. 2006, Sound-Colour Synaesthesia.
to what extent does it use cross-modal mechanism common to us
all?, «Cortex», 42, 264-280.
Ward W.D. 1999, Absolute Pitch, in Deutsch (1999).
Werner H. 1970, Comparative psychology of mental development,
Chicago: Follett.
Wertheimer M. 1923, Principles of Perceptual Organization, in Beardslee
(1953).
Wilson B., Buelow G.J. e Hoyt P.A. 2001, Rhetoric and music, in Stanley
(2001).
Wong P.C.M., Skoe E., Russo N.M., Dees T. e Kraus N. 2007, Musical
experience shapes human brainstem encoding of linguistic pitch
patterns, «Nature Neuroscience», 10 (4), 420-422.
Wulf C. (a cura di) 2002, Le idee dell’antropologia, Milano: Bruno
Mondadori.
Wulf C. 2002, Mimesis, in Wulf (2002).
Zappa F. e Occhiogrosso P. 1990, Zappa. L’autobiografia, Milano: Arcana.
199
Zarlino G. 1558, Istitutioni Harmoniche, Venezia: Francesco dei
Franceschi Senese.
Zeki S. 2007, Neurologia dell’ambiguità, in Lucignani e Pinotti (2007).
Zenatti A. 1981, L’enfant et son environnement musical, Issy-les-
Moulineaux: EAP.
Zimny G.H. e Weidenfeller E.W. 1963, Effects of music upon GSR and
heart-rate, «American Journal of Psychology», 76, 311-314.
Zuckerkandl V. 1956, Sound and Symbol: Music and the External World,
New York: Pantheon.
200