apuntes banda sonoramadrovergaya.com/files/usc/banda sonora - apuntes.pdfbanda!sonora!!...

69
BANDA SONORA Y TRATAMIENTO DEL SONIDO Magdalena Adrover Gayá Curso 2011/2012

Upload: others

Post on 13-Jul-2021

7 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

 

 

 

 

BANDA  SONORA    

Y  TRATAMIENTO  DEL  SONIDO    

 

 

 

 

 

 

 

 

 

 

Magdalena  Adrover  Gayá  

Curso  2011/2012  

 

Page 2: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   2  

Índice  

Del  cine  mudo  al  cine  sonoro  ....................................................................................................................  4  El  sonido  antes  del  sonoro  ............................................................................................................................  4  Los  primeros  intentos  de  dar  sonido  al  cine  ..................................................................................................  4  El  cine  sonoro:  una  nueva  forma  expresiva  ...................................................................................................  5  El  proceso  de  sonorización  ............................................................................................................................  6  

¿Qué  es  la  banda  sonora?  .........................................................................................................................  8  Reconocimientos  a  la  Banda  sonora  (Academy  Award  for  best)  ..................................................................  8  Conceptualización  del  término  banda  sonora  ...............................................................................................  8  Cómo  se  inicia  el  sonido  y  por  qué  ................................................................................................................  9  Esquema  de  una  banda  de  sonido  ..............................................................................................................  10  Cómo  se  produce  la  banda  sonora  (Workflow:  sonido  en  cine)  ..................................................................  10  Movietone  vs  Vitaphone  (Sound-­‐on-­‐films  vs  Sound-­‐on-­‐disc)  .....................................................................  11  Secuencia  de  rodaje  ....................................................................................................................................  14  Equipo  de  producción  de  sonido  .................................................................................................................  14  Line  up  tones  ...............................................................................................................................................  14  El  equipo  de  postproducción  sonora  en  cine  ..............................................................................................  15  Ultra  low  buget  crew  (bajo  presupuesto)  ...................................................................................................  15  El  guión  formateado  ....................................................................................................................................  16  La  fase  de  la  señal  de  audio  .........................................................................................................................  16  Los  mezcladores  ..........................................................................................................................................  16  Canales  de  inserción  ....................................................................................................................................  16  El  tiempo  .....................................................................................................................................................  17  Pistas  auxiliares  ...........................................................................................................................................  17  Grupos  de  pistas  ..........................................................................................................................................  17  Grabación  de  voces  en  estudio  ...................................................................................................................  17  Los  oficios  de  la  cultura:  Javier  Limón,  productor  musical  ..........................................................................  17  Fundido  en  protools  ....................................................................................................................................  18  Tipos  de  curvas  de  fundido  .........................................................................................................................  18  Frecuencia  y  amplitud  de  onda  ...................................................................................................................  18  Rango  de  frecuencias  ..................................................................................................................................  18  

Ecualización  ............................................................................................................................................  19  Tipos:  ...........................................................................................................................................................  19  Tipos  de  ecualización  ...................................................................................................................................  19  Técnica  del  barrido  ......................................................................................................................................  20  Esquema  de  sentimientos  y  sus  equivalencias  a  frecuencias  ......................................................................  21  Rango  de  frecuencias  de  la  voz  ...................................................................................................................  21  Filtro  de  paso  alto  y  bajo  .............................................................................................................................  22  Bandas  .........................................................................................................................................................  22  Altavoz  con  filtros  de  paso  alto  y  bajo  .........................................................................................................  22  

Compresores  ...........................................................................................................................................  23  Attack  and  reléase  .......................................................................................................................................  24  Threshold  (umbral)  ......................................................................................................................................  25  Ratio  ............................................................................................................................................................  25  

Page 3: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   3  

La  mezcla:  ideas  fundamentales  ..............................................................................................................  27  ¿Qué  podemos  considerar  como  una  buena  mezcla?  ................................................................................  27  El  entorno  de  escucha  .................................................................................................................................  28  Buscando  orden  dentro  del  caos  .................................................................................................................  28  ¿Cómo  afrontar  una  mezcla?  ......................................................................................................................  29  Conceptos  básicos  sobre  la  mezcla  .............................................................................................................  30  La  mezcla:  ecualizadores  y  procesadores  de  dinámica  ...............................................................................  32  La  mezcla:  modificando  la  dinámica  ............................................................................................................  38  Tipos  de  compresores  .................................................................................................................................  39  ¿Por  qué  usar  compresores?  .......................................................................................................................  40  

Microfonía  ..............................................................................................................................................  44  Tipos  de  micrófonos  ....................................................................................................................................  44  Modelos  de  captación  .................................................................................................................................  47  Técnicas  de  microfonía:  estéreo  .................................................................................................................  48  Uso  de  micrófonos:  guitarra,  bajo  y  voz  ......................................................................................................  53  Diagrama  polar  ............................................................................................................................................  54  Cadena  de  la  señal  de  audio  del  micro  al  altavoz  ........................................................................................  55  Conexionado  de  un  equipo  de  producción  sonora  .....................................................................................  55  Circuitos  de  un  canal  (5  tipos)  .....................................................................................................................  56  Interfaces  y  superficies  de  control  ..............................................................................................................  56  

Conexionado  y  soldadura  ........................................................................................................................  57  Conectores  ..................................................................................................................................................  57  Adaptadores  ................................................................................................................................................  58  

Proceso  para  la  postproducción  de  sonido  del  rodaje  al  master  ..............................................................  59  

Guía  para  compresión  .............................................................................................................................  60  Vídeo  ...........................................................................................................................................................  60  Audio  ...........................................................................................................................................................  60  

Podcast  ...................................................................................................................................................  61  

Charles  Chaplin  y  los  inicios  del  cine  sonoro  ............................................................................................  62  Los  críticos  con  el  advenimiento  del  sonoro  ...............................................................................................  62  Luces  de  la  ciudad  .......................................................................................................................................  62  Tiempos  modernos  ......................................................................................................................................  63  El  gran  dictador  ...........................................................................................................................................  64  

Bienvenido  Mr.  Marshall  (1953),  Luís  García  Berlanga  .............................................................................  67  

Tratamiento  del  audio  en  los  70:  La  Guerra  de  las  Galaxias  (1977),  George  Lucas  ....................................  69  Información  con  respecto  a  los  “protagonistas”  del  sonido  de  Star  Wars  ..................................................  69  

 

 

Page 4: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   4  

Del  cine  mudo  al  cine  sonoro  

El  sonido  antes  del  sonoro  

Anteriormente   al   cine   sonoro   ya   existía   el   sonido   en   el   cine.   Los   cineastas   y   proyectistas   se   habían  preocupado   de   ello,   pues   el   cine   nace   con   voluntad   sonora.   En   las   primeras   filmaciones   cortas   en   que  aparecen   actores   y   actrices   bailando,   el   espectador   no   oye   la   música,   pero   puede   observar   sus  movimientos.  Por  otra  parte,  rara  vez  se  exhibían  las  películas  en  silencio.  Los  hermanos  Lumiére,  en  1897,  contrataron  un  cuarteto  de  saxofones  para  que  acompañase  a  sus  sesiones  de  cinematógrafo  en  su  local  de  París   y   hubo   compositores   de   valía,   como   Saint-­‐Saéns   que   compusieron   partituras   para   acompañar   la  proyección   de   una   película.  Músicos   y   compositores   tenían   en   el   negocio   del   cine  mudo   una   fuente   de  ingresos.  No  sólo   la  música,   también   los  ruidos  y  acompañamiento  tenían  cabida  en  el  cine  mudo,  por   lo  que  algunos  exhibidores  disponían  de  máquinas  especiales  para  producir  sonidos,  tempestades  o  trinar  de  pájaros.   Cierto   es   que   este   sistema   era   solamente   posible   en   grandes   salas,   en   ciudades   o   lugares   de  público  pudiente,  y  escasamente  podía  apreciarse  en  pueblos  o   lugares  alejados.  Todos   los   instrumentos  eran  válidos  para  hacer  música  en  el  cinematógrafo  aunque  el  piano  (y  la  pianola)  era  normalmente  el  más  apetecido.  

Algunos   experimentos   habían   demostrado   que   las   ondas   sonoras   se   podían   convertir   en   impulsos  eléctricos.  En  el  momento  en  que  se  logró  grabar  en  el  celuloide  esta  pista  sonora,  se  hizo  posible  ajustar  el  sonido  a  la  imagen,  y  por  lo  tanto  hacer  sonoro  el  cine.  

Thomas  Alva  Edison,  uno  de  los  inventores  del  cinematógrafo,  había  conseguido  grabar  la  voz  humana  en  su  fonógrafo  en  el  año  1877.  No  fue  el  primero,  ya  que  Muybridge  grabó  la  progresión  del  galope  de  un  caballo  en  1972.  Estos  dos  precursores  sientan  las  bases  de  los  inventos  posteriores.  En  el  caso  del  cine,  el  problema  que  no  se  conseguirá  solucionar  de  manera  rentable  y  eficaz  hasta  después  de  la  Primera  Guerra  Mundial  será  la  sincronización  de  sonido  e  imagen.  

Los  primeros  intentos  de  dar  sonido  al  cine  

En  el  año  1893,  el  físico  francés  Démeny  inventó  lo  que  se  llamó  fotografía  parlante.  Charles  Pathé,  uno  de   los   pioneros   del   cine,   combinó   fonógrafo   y   cinematógrafo,   llegando   a   fabricar   unas   1900   películas  cantadas.   Y   también   en   la  misma   época,   Léon   Gaumont   desarrolló   un   sistema   de   sonorización   de   films  parecido,   que   presentó   en   la   Exposición   Universal   de   París   de   1902.   Otros   inventos   posteriores,   el   de  Eugène  Lauste  y  el  de  Messter  Baron  y  Ruhmer,  en  la  segunda  década  del  siglo  XX,  son  importantes  como  primeros  experimentos,  pero  no  llegaron  a  buen  término  a  causa  de  la  mala  calidad  del  sonido  resultante  o  problemas  con  la  sincronización.  

Así,  en  1918,  es  patentado  el  sistema  sonoro  llamado  TriErgon,  que  permitía  la  grabación  directa  en  el  celuloide.  Pero  no  será  hasta  el  año  1922  que  Jo  Engel,  Hans  Vogt  y   Joseph  Massole  presentan  el  primer  film,   Der   branstifer,   que   lo   utiliza   incorporando   las   aportaciones   del   ingeniero   norteamericano   Lee  DeForest.  El   sistema  que  usan  estos  alemanes  dará   lugar  al   llamado  Movietone,  que  será  utilizado  por   la  Fox  antes  de  la  estandarización  y  al  llamado  Tobis  Klangfilm.  

En  1923,  el  ya  mencionado  Lee  de  Forest  presenta  su  invento  definitivo  y  establece  las  bases  del  sistema  que  finalmente  se  impuso.  El  Phonofilm  resolvía  los  problemas  de  sincronización  y  amplificación  del  sonido,  porque   lo   grababa   encima   de   la   misma   película.   A   pesar   del   éxito   logrado   con   la   proyección   de   una  secuencia  de  The  Covered  Wagon,  la  falta  de  financiación  postergó  la  implantación  del  invento  hasta  el  año  1925.  Los  empresarios  que  dominaban  el  sector  no  creyeron  en  él  en  aquel  momento,  porque  la  adopción  

Page 5: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   5  

del   sonoro   implicaba   una   fuerte   inversión,   ya   que   había   que   adaptar   los   estudios   y   todas   las   salas   de  proyección.  

En  1925,   la  compañía  Western  Electric  decide  apostar  por  Lee  de  Forest  y,  en  el  año  1926,  se   inició   la  producción   bajo   la   tutela   de   la   Warner   Brothers   que,   con   esta   apuesta,   pretendía   superar   una   mala  situación  económica.  Y  así  ese  año  presentaban  cinco  cintas  en  que  la  imagen  convivía  con  el  sonido  gracias  al  sistema  Vitaphone  de  sincronización  disco-­‐imagen.  Éstas  consistían  en  un  discurso  de  William  Hays,  una  pieza   interpretada  por   la  New  York  Philarmonic  Orchestra,  una  pieza  de  violín   tocada  por  Mischa  Elman,  una  audición  de  la  cantante  Anna  Case  y  la  película  de  Alan  Crosland,  Don  Juan,  con  John  Barrymore  como  protagonista  y  en  la  que  se  había  añadido  una  partitura  interpretada  por  la  orquesta  antes  citada.  

El  cine  sonoro:  una  nueva  forma  expresiva  

Las  nuevas   técnicas,   el   espíritu   creativo   y   emprendedor  de   los   cineastas   y   la  búsqueda  del  más  difícil  todavía,  hizo  que  se  impusiera  el  cine  sonoro,  acabando,  no  sin  dificultades  y  dejando  a  mucha  gente  en  el  camino,  con  el  cine  mudo.  Cuando  el  cine  sonoro  demostró  su  rentabilidad,  las  películas  mudas,  a  pesar  de  su  arte,  quedaron  condenadas  a  pasar  a  la  historia.  El  cine  mudo  había  durado  35  años.  

En   1926   se   estrenó   en   Nueva   York   Don   Juan,   con   efectos   sonoros   y   una   partitura   sincronizada   y  posteriormente  varios   cortos  que   fueron  perfeccionando   los  dos   sistemas,  el  Vitaphone   (la  Warner)  y  en  competencia  el  Movietone  (la  Fox).  El  6  de  octubre  de  1927  se  estrenó  El  cantor  de  jazz  (The  Jazz  Singer),  considerada   la   primera   película   sonora   de   la   historia   del   cine,   que   hizo   tambalear   todos   los   planes   del  momento  del   cine  mudo.  Hacia  1930  el   sonoro  era  un  hecho,   y  el   cine  mudo  había   sido  definitivamente  vencido.  

En  el  mundo  de  los  actores  se  produjo  el  pánico,  ya  que  temieron,  y  con  razón,  que  sus  voces  no  fueran  adecuadas  a   los  cambios,  y  todos  fueron  obligados  a  «pruebas  de  voz».  A  pesar  de  que  la  mayoría  de  los  actores   superaban   las   pruebas,   actores   significativos,   aunque   no   por   causa   de   la   voz,   quedaron   en   el  camino  (John  Gilbert,  Buster  Keaton...).  

«El   cine   sonoro   no   era   simplemente   el   mudo   con   sonido   incorporado,   sino   una   nueva   forma   de  expresión   que   tenía   que   reconciliar   lo   real   (la   grabación   precisa   de   palabras   y   sonidos)   con   lo   irreal   (la  imagen   bidimensional),   mientras   que   el   cine   mudo   había   sido   una   unidad   armoniosa,   completa   por   sí  misma».  (Planeta,  1982).  

Algunos   directores   de   fotografía   afirman   que   el   cine   sufrió   un   inmenso   retroceso   al   llegar   el   sonoro,  pues   limitó  enormemente  las  posibilidades  creativas  del  mismo.  Cierto  es  que  perdió  con  celeridad  cierta  fluidez,   creatividad   y   ritmo,   y   tal   vez   sufrió   unos   años   de   retraso   el   avance   imparable   en   el   que   se   veía  inmerso  el  lenguaje  cinematográfico.  Las  cámaras  hacían  mucho  ruido,  y  las  filmaciones  debían  hacerse  en  riguroso  silencio.  Los  micrófonos   lo  captaban  todo  y  al  mismo  tiempo  no  se  entendían  correctamente   las  voces  de   los  actores.  El  operador,  encerrado  en  una  cabina   insonorizada  no  se  enteraba  de  nada  que  no  veía,  lo  que  ralentizaba  el  trabajo  y  hacía  perder  agilidad  a  los  movimientos  narrativos.  

Algunos  historiadores  del  cine  dicen,  no  obstante,  que  afirmar  lo  anterior  es  magnificar  el  problema,  ya  que  en  muy  poco  tiempo  se  montaron  las  cabinas  para  la  cámara  sobre  ruedas  y  enseguida  se  blindaron  las  cámaras  insonorizándolas  totalmente,  con  lo  que  recuperaron  la  movilidad  anterior.  Hacia  1928  se  habían  superado  la  mayoría  de  los  problemas  técnicos  con  los  que  se  inició  el  cine  sonoro,  se  inventó  la  «jirafa»,  el  micrófono   que   se   coloca   en   lo   alto   de   la   escena   y   se   evitaron   así   las   cámaras   insonorizadas,   pesadas   y  aparatosas,  que  impedían  la  movilidad  en  las  escenas.  

 

Page 6: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   6  

La  primera  película  sonora:  Don  Juan  (1926)  

Aunque  no  es  exactamente  el  primer  largo  con  sonido  sincronizado  de  la  historia,  ya  que  se  trata  de  uno  mudo   en   el   que   se   incluye  música   (interpretada   por   la   Filarmónica   de   Nueva   York)   y   efectos   (ruido   del  entrechocar  de  espadas,  campanadas,  etc.)  sincronizados,  la  película  Don  Juan,  dirigida  por  Alan  Crosland  y  protagonizada  por  John  Barrymore,  fue  el  film  pionero,  el  que  dio  el  pistoletazo  de  salida  a  la  gran  carrera  por   llevar   con   mayor   calidad   el   sonido   al   cine.   La   productora  Warner,   con   el   concurso   de   la   compañía  Western   Electric,   había   desarrollado  un   sistema   llamado  Vitaphone  de   grabación  de   sonido   sincronizado  para   cines   y   que   experimentó   primero   con   cortometrajes   en   los   que   actuaban   famosos   cantantes   y,   a  continuación,  en  Don  Juan,  su  producción  más  costosa  hasta  entonces  y  una  de  las  más  rentables.  

El  proceso  de  sonorización  

Para  dar  sonido  al  cine  se  utilizaron  una  gran  variedad  de  técnicas  que  atravesó  las  diferentes  etapas  de  las   primeras   décadas   del   cine.   Se   comenzó   por     hablar   o   producir   ruidos   detrás   de   la   pantalla,  complementado   por   el   acompañamiento  musical   en   vivo   durante   las   proyecciones   y   la   utilización   de   un  locutor  que  añadía   comentarios   a   los   rótulos.  Más   tarde,   la   técnica  Vitapohone   sustituyó  en   las   salas  de  cine   a   las  orquestas  por   altavoces   y   se   limitó   a   la  música   y   los   ruidos.   El   procedimiento   Photophone,  de  Alexandre  Grahan  Bell  consiguió  transmitir   la  voz  utilizándose     la   luz.  La  voz  se  proyectaba  a  través  de  un  tubo  para   un   espejo   fino,   que   vibraba   y   actuaba   como  un   transmisor,   y   se   dirigía   hacia   otro   espejo   que  hacía   el   proceso   inverso   actuando   como   receptor.   Los   sonidos   registrados   en   disco   de   huellas   sonoras  fotográficas,  permitieron  inscribir  sonidos  e  imágenes  en  una  misma  cinta,  tanto  para  la  producción  como  para  el  registro.  El  resultado  final  fue  la  incorporación  a  la  cinta  de  una  pista  sonora  que  reprodujo  música,  efectos  ambientales  y  diálogos  de  los  actores.    

Anécdotas  

El  sonido  era  un  problema  en  los  primeros  tiempos  del  cine  sonoro.  Una  amenaza  mayor  para  la  libertad  de   la   imagen   consistía   en   la   necesidad   de   que   el   actor   hablase   cerca   de   los  micrófonos.   Los   equipos   de  sonido  de   la   época  exigían  que   la   persona  que  hablaba   se  dirigiese   al  micrófono   y   a   corta  distancia.   Los  micrófonos  se  escondían  en  los  floreros,  tras  las  cortinas  o  en  la  peluca  de  los  actores.  En  muchos  filmes  de  aquellos  tiempos  se  puede  apreciar  el  envaramiento  de  los  actores  y  su  cercanía  extraña  hablando  con  los  objetos  más  diversos.  

Uno  de   los   grandes  problemas  del   cine   sonoro   se  debió   a   la   insonorización  que  debió  hacerse  de   los  platós.  El  primer  plató  para  sonido  de  la  Warner  en  los  antiguos  estudios  Vitaphone  de  Nueva  York  era  una  especie  de  gigantesca  caja,  de  unos  14  metros  cuadrados  y  8,5  metros  de  altura,  con  cortinajes  colgando  por  todos  lados,  en  un  intento  por  ahogar  los  sonidos  no  deseados.  

El  conocido  león  del  emblema  de  la  Metro  tuvo  que  ponerse  también  delante  del  micrófono.  

La   llegada   del   cine   sonoro   supuso   un   duro   golpe   para   Charles   Chaplin   quien,   en   principio,   se   negó   a  aceptarlo,  negándole  validez  artística.  Evitó  hablar  en  dos  películas  ya  sonoras:  Luces  de  la  ciudad  (1931)  y  Tiempos   modernos   (1936),   que   no   eran   en   realidad   sino   películas   mudas   con   músicas   y   efectos  ingeniosamente   sincronizados.   Todo   hacía   pensar   que   Chaplin,   el   gran  mimo,   sería   una  más   de   aquellas  estrellas  que  no  supieron  adaptarse  a   la   llegada  del  cine  sonoro.  Chaplin  no  habló  en   la  pantalla  hasta  El  gran  dictador  (1941),  pero  cuando  lo  hizo,  volvió  a  tener  los  éxitos  de  siempre.  

Hubo   películas   sonoras,   basadas   en   una   variedad   de   sistemas,   hechas   antes   de   los   años   1920,  generalmente   con   intérpretes   sincronizando   los   labios   con  grabaciones  de  audio  previamente  hechas.   La  tecnología  era  mucho  más  adecuada  para  propósitos  comerciales,  y  durante  muchos  años  los  jefes  de  los  

Page 7: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   7  

principales   estudios   de   cine   de   Hollywood   vieron   poco   beneficio   en   producir   películas   sonoras.   Estas  películas  fueron  relegadas,  junto  con  las  películas  de  color,  al  estado  de  curiosidad.  

La  primera  película  sonora  en  recibir  una  aprobación  crítica  casi  universal   fue  El  ángel  azul   (Der  blaue  engel)   estrenada  el   1  de  abril   de  1930,   fue  dirigida  por   Josef   von  Sternberg.   La  primera  película  hablada  estadounidense  en  ser  ampliamente  respetada  fue  Sin  novedad  en  el  frente,  dirigida  por  Lewis  Milestone,  estrenada   el   21   de   abril.   Se   considera   la   película   francesa   La   edad   de   oro,   dirigida   por   Luis   Buñuel,   que  apareció   en   octubre   de   1930,   una   de   las   importaciones  más   estéticas,   aunque  más   como   una   señal   de  expresión  del  movimiento  surrealista  que  como  cine  en  sí.  La  película  sonora  más  antigua  ahora  reconocida  por  la  mayoría  de  historiadores  de  cine  como  un  obra  maestra  es  M  de  Nero-­‐Film,  dirigida  por  Fritz  Lang,  que  se  estrenó  el  11  de  mayo  de  1931.  

Eisenstein,   después   de   su   viaje   a   Hollywood   y  México,   tras   llegar     a   la   Unión   Soviética   puso  música,  usando  sistemas  de  sonorización,  a  varias  de  sus  películas  mudas.  Destaca  Alexander  Nevski,  1938,  con  una  fantástica  banda  sonora  compuesta  por  Prokofiev.  

Page 8: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   8  

¿Qué  es  la  banda  sonora?  La  banda  sonora  se  divide  en  dos  partes:  

-­‐ Voz:  diálogos,  narración  

-­‐ M  +  E:  Música  y  efectos.  Es  lo  que  se  denomina  soundtrack  (así  se  puede  doblar)  

El  sonido  está  360º  a  nuestro  alrededor,  no  es  como  la  vista.  No  se  puede  hacer  como  con  los  ojos,  que  se  cierran  y  puedes  desconectar  (hay  gente  que  siempre  escucha  un  tono  internamente,  estas  personas  se  llaman  acúfenos).  El   sonido  siempre  está  presente.  Por   lo   tanto,  el  elemento  sonoro  es   fundamental.  Sin  embargo,  el  órgano  auditivo  se  puede  engañar  más  fácilmente  que  la  vista.  

El  sonido  tiene  tres  elementos:  

-­‐ intensidad  (volumen)  

-­‐ Tono  (frecuencia,  agudo  o  grave)  

-­‐ Timbre  (armónicos,  es  lo  que  nos  permite  distinguir  entre  un  instrumento  y  otro)  

La  diferencia  entre  un  amateur  y  un  profesional  suele  ser  el  sonido;  los  profesionales  le  prestan  mucha  más  atención.  La  mala  imagen  se  aguanta  mejor  que  el  mal  sonido.  

Reconocimientos  a  la  Banda  sonora  (Academy  Award  for  best)  

• Sound  editing  1963  (Mejor  edición  de  sonido)  

• Sound  mixing  1930  (Mejor  sonido)  

• Original  Score  1934*  (Mejor  banda  Sonora)  

• Original  song  1934  (Mejor  canción  original)  

*Entre  1995  y  1998  se  distinguía  entre  Banda  sonora  de  comedia/musical  y  Banda  sonora  de  drama  

Conceptualización  del  término  banda  sonora  

Documental  “La  música  en  el  cine  de  persecución”,  de  la  serie  “Música  de  cine”  

La  música  añade  tensión,  potencia  la  intensidad,  y  refleja  las  emociones  de  los  personajes.  

Los  elementos  psicológicos  son  muy  importantes.  Por  ejemplo,  en  Speed  se  quiso  reflejar  el  carácter  del  autobús,  al  margen  de  la  acción.  La  música  es  emoción  (personaje),  no  acción.  

El   tema  principal  de  La  Gran  Evasión  está  basado  en  el  espíritu  del  protagonista.  Con  cada  cambio  de  escena  durante  la  fuga,  va  cambiando  la  música.  Hay  una  para  cada  personaje,  que  va  evolucionando  con  él.  La  transición  entre  ellas  debe  ser  elegante  (ralentizar  el  ritmo,  alargar   las  notas…)  para  que  no  resulte  molesto.  

Para   algunos   compositores,   no   sólo   se   trata   de   escribir   el   tema,   también  hay   que   analizarlo:   ¿qué   se  puede  hacer  con  él?  Si  añades  música  tienes  que  sacrificar  algo.  Por  ejemplo,  en  Bullit  cada  coche  tenía  un  sonido.  Todo  depende  de  lo  que  busca  el  director.  

Hoy  en  día  hay  más  música  que  antes,  casi  todas  las  secuencias  de  acción  van  con  música.  

El  montaje  y  el  sonido  deben  ir  sincronizados;  esto  se  hace  en  función  del  tempo,  para  que  parezca  que  han  cogido  la  música  y  que  han  montado  la  escena  encima.  

Page 9: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   9  

Pero   la  banda  sonora  también  tiene  que  evocar  algo.  Por  ejemplo,  en  Misión  Imposible   los  sonidos  de  percusión   se   crean   a   propósito,   para   que   se   distinga   de   la   anterior   y   tenga   un   carácter   propio   y   más  moderno,  para  distinguirse  de  la  serie  de  televisión.  

Lo  primero  es  descubrir  la  dinámica  de  la  escena,  ¿dónde  hay  que  poner  el  tema?  ¿cuál  es  el  límite?  Las  imágenes  y  la  música  deben  integrarse.  Por  ejemplo,  en  Speed  se  busca  la  emoción  y  la  identificación.  Hay  muchos   cambios   de   música,   como   si   el   bus   pudiera   sentir.   Es   un   tema   angustioso,   con   melodía   para  introducir  sentimientos  y  llegar  al  corazón.  Esto  se  consigue  con  la  introducción  de  instrumentos  de  viento  con   acero,   tipo   cómic,   y   a   sustitución   de   la   percusión   por   sonidos   del   bus   (golpes,   chapas,   sonidos  metálicos).  Así  se  consigue,  además,  que  sea  una  banda  sonora  exclusiva.  

En   el   caso   de   Terminator,   la   música   da   impulso   y   empuje,   con   un   ritmo   acelerado.   Los   sonidos   son  acústicos,  para  poner  más  de  manifiesto  el  carácter  humano  del  robot.  

A  veces  se  graban  cosas  que   luego  hay  que  descartar,  porque   lo   importante  es  que  exista  una  mezcla  equilibrada  entre  música  y  efectos.  Es  muy  importarte  en  el  caso  de  Terminator  2,  que  es  un  gran  ejemplo  de  esto.  El  diseñador  de  sonido  es  el  que  analiza  la  escena  y  diseña  el  sonido  que  va  a  llevar  (el  diseñador  de   sonido   de   Terminator   2,   Gary   Rydstrom   tiene   varios   Óscars).   Cada   vez   se   tiene   más   cuidado   con   el  sonido.  Se  utilizan  contrastes,  se  dejan  efectos  solos  (sin  música)…  

En  Apocalypse   Now,   la   saturación   de   sonidos   podría   haber   convertido   los   sonidos   en   ruido,   y   que   la  banda  sonora  pierda  fuerza.  En  este  caso,  el  diseñador  de  sonido  se  dio  cuenta  de  que  el  equilibrio  estaba  en   dos   capas   y   media   de   sonido,   que   le   daba   un   equilibrio   entre   densidad   y   claridad.   Es   como   hacer  malabarismos.  También  hay  películas,  como  La  Diva,  que  carecerían  de  sentido  sin  música,  puesto  que  ésta  no  está  sólo  para  acompañar  las  imágenes,  sino  que  es  parte  de  la  historia.  En  el  caso  de  Thelma  y  Louis,  la  música  del  final,  sin  efectos  de  sonido,  le  confiere  a  la  escena  una  iluminación  poética.  

Cómo  se  inicia  el  sonido  y  por  qué  

Tarda  unos  treinta  años  desde  la  aparición  del  cine.  Si  tarda  tanto  es  por  dos  razones  básicas:  

-­‐ Razón  económica:   la   inversión  en  el  cambio  de  infraestructuras,   los  músicos  que  podrían  acabar  en  paro…  no  interesa  a  ciertos  sectores.  También  hay  actores  que  no  se  adaptan.  

-­‐ No  hay  sistemas  de  sonido  homologables  

Lo  difícil  era  la  sincronización,  siempre  ha  sido  lo  que  ha  puesto  más  trabas.  

Lee  De  Forest  (Phonofilm)  crea  la  válvula  de  vacío,  que  permite  la  amplificación  de  sonido.  Los  primeros  discos  son  de  cera,  y  se  graban  de  dentro  hacia  fuera.  Esto  permite  grabar  películas  sonoras  de  máximo  3  minutos,  pues  luego  se  produce  la  desincronización  a  medida  que  pasa  el  tiempo.  Todo  cambia  cuando  al  fin  se  puede  meter  el  sonido  en  la  película.  

La  Warner,  en  1925,  crea  el  sistema  Vitaphone  promo:  un  sistema  de  disco  no  en  película.  Introducción  a  El   Cantor   de   Jazz,   considerada   la   primera   película   sonora   aunque   en   realidad   fue  Don   Juan   (1926).   Se  considera  la  primera  porque  es  la  primera  en  la  que  hay  diálogos  (pocos),  aunque  hubiera  películas  antes  que  ya  estuvieran  sincronizadas.  

Pero  aunque  fuera  mudo,  el  cine  no  se  veía  tal  cual,  sólo  con   la   imagen.  Había  música,  comentaristas,  pianistas…  influía  mucho  dónde  la  veías,  porque  la  calidad  era  distinta  en  función  de  la  sala  y  lo  que  ofrecía.  Las  películas  se  distribuían  con  partituras  codificadas  para  sincronizar.  

Cuando   entró   el   sonido,   se   siguió   con   los   códigos   dramáticos   del   momento,   y   con   el   modelo   de  representación   internacional.   La  calidad  del   sonido  sincronizado  era  peor  que   la  de   la  música  en  directo,  

Page 10: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   10  

pero  gustaba  más  poder  oír  las  voces.  Al  principio  hay  muchas  mujeres  en  montaje  y  muchos  hombres  en  sonido.  Hasta  que  llega  el  sonido,  la  cámara  era  algo  libre.  El  director,  además,  podía  dirigir  en  voz  alta.  Con  la  llegada  del  sonido,  la  cámara  hacía  mucho  ruido,  por  lo  que  la  tuvieron  que  ponerlas  en  urnas  de  cristal,  lo   que   implica   una   pérdida   de   movilidad.   No   hay   traveling   ni   movimientos,   por   eso   existe   una   cierta  detracción  por  parte  de  los  directores  hacia  el  cine  sonoro.  Además,  los  micros  eran  muy  grandes,  todavía  no  existía  la  pértiga,  por  lo  que  era  difícil  disimularlos.  

El  cine  pasa  a  ser,  en   los  primeros  años  del   sonoro,  un   teatro   filmado.  Pero   la   tecnología  avanza  muy  rápido:   en   1929   ya   aparece   la   cámara   silenciosa,   y   la   pértiga   en   1931.   En   1933   aparece   la   post-­‐sincronización.  Las  luces  también  se  hacen  menos  ruidosas  (antes  eran  luces  de  arco).  Durante  ese  tiempo,  se  crean  cabinas  con  ruedas,  para  que  la  cámara  tenga  un  poco  más  de  libertad  de  movimiento.  El  doblaje  posterior   también  da  más   libertad   (Ej.:  Cantando  bajo   la   lluvia).   El   soporte  del   sonido  ha   sido  magnético  hasta  hace  muy  poco.  

La  sincronización  se  hace  con  la  claqueta.  Al  inicio  del  cine  sonoro,  a  velocidad  es  muy  importante,  por  lo  que  se  usa  un  reloj  de  cuarzo  para  que  la  cámara  y  el  magnetofón  vayan  a  la  misma  velocidad.  

Hasta  la  llegada  de  Ciudadano  Kane,  la  música  en  el  cine,  como  venía  haciendo  desde  la  etapa  muda,  era  un   recurso   subordinado  a   la  banda-­‐imagen,   sirviendo  a   los  principios  de   legibilidad   (del   espacio   y   acción  dramáticos),   invisibilidad   (para  volver   invisible   la   sutura  entre   los  planos)   y  de  anclaje  narrativo   (para  di-­‐simular  el  carácter  artificial  de  la  construcción  fílmica,  arrastrándonos  al  interior  de  la  diégesis  mediante  los  mecanismos  identificatorios).  

Esquema  de  una  banda  de  sonido  

Banda  sonido  (esquema):  

1-­‐ Dolby  SR-­‐D  Digital  

2-­‐ Digital  SDDS  

3-­‐ Óptico  estéreo  

4-­‐ DTS  

La  banda  óptica   siempre   se  pone,  por   si   el  digital   falla.  No   tiene  por  qué  llevar  todos  los  sistemas,  pero  el  óptico  siempre  está.  

Cómo  se  produce  la  banda  sonora  (Workflow:  sonido  en  cine)  

  ADR:  Tomas  que  salen  mal  en  rodaje  y  se  tienen  que  grabar  en  el  estudio.  

WALLA:  Conversaciones  de  fondo,  sonidos  de  gente  que  aparece  en  el  plano.  

Foley:  Crean  las  presencias  (como  la  ropa),  los  pasos,  los  sonidos  específicos  (ej.:  golpe  sobre  la  mesa)  

FX:  Efectos  especiales  

Música:  Se  encarga  a  un  compositor,  sincroniza  la  música  con  las  imágenes.  

Banda  sonora  

Diálogos  

Efectos  

Música  

Editor  de  diálogo  

ADR  

WALLA  

Foley  1  

Foley  2  

FX  1  

FX  2  

Page 11: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   11  

Movietone  vs  Vitaphone  (Sound-­‐on-­‐films  vs  Sound-­‐on-­‐disc)  

El  Movietone   era   un   sistema   de   la   FOX   y   el   Vitaphone   de   la  Warner.   La   primera   película   con   sonido  óptico  se  estrena  en  1923  en  el  Teatro  Rívoli  de  Nueva  York  (Phonofilm,  inventado  por  Lee  De  Forest).  

En  agosto  de  1927,  la  Warner  estrena  El  Cantante  de  Jazz  con  el  sistema  Vitaphone.  Dos  años  después,  en  septiembre  de  1929,  la  FOX  estrena  Amanecer  (de  Murnau)  con  el  sistema  Movietone.  

Este  sistema  ofrecía  ciertas  ventajas:  

-­‐ Sincronización  

-­‐ Edición  (montaje)  

-­‐ Distribución  

-­‐ Durabilidad  

Pero  también  algunos  inconvenientes  (aunque  solo  al  principio):  

-­‐ Coste  de  producción:  Tan  pronto  hay  economía  de  escala,  el  precio  se  reduce  

-­‐ Calidad  de   sonido:   El   sonido  hacía  más   tiempo  que   se  usaba,   la   tecnología   se   conocía  mejor.   Pero  poco  a  poco  la  tecnología  va  mejorando.  

Muchos  directores  y  actores  estaban  contra  esta  tecnología.  

Vitaphone  

Vitaphone   fue   una   compañía   dedicada   al   sonido   utilizado   en   las   películas,   fundada   en   1926   por   Bell  Telephone   Laboratories   y  Western   Electric,   y   adquirida   luego   por  Warner   Bros.   El   proceso   que   utilizaba  para  colocar  la  banda  sonora  en  las  películas  consistía  en  grabarla  por  separado  en  discos.  Los  discos  con  la  banda  sonora  se  ponían  sincronizadamente  con  la  película  proyectada.  Muchas  películas,  como  El  Cantor  de  Jazz  (1927)  y  Don  Juan  (1926),  utilizaron  el  proceso  de  Vitaphone.  

La  conversión  a  este  sonido  sincronizado  le  ocasionó  serios  problemas  a  la  industria  del  cine,  algunos  ya  comentados  antes:  la  grabación  de  sonido  era  difícil,  todas  las  cámaras  tenían  que  grabar  desde  dentro  de  cabinas,   los   estudios   tenían   que   construir   escenarios   especiales   a   prueba   de   ruidos,   los   cines   debían  implementar  un  equipo  costoso,  y  se  tenía  que  contratar  escritores  que  tuvieran  buen  oído  para  el  dialogo.  Muchos  de  los  primeros  diálogos  eran  estáticos  y  sin  sentimiento,  las  imágenes  visuales  servían  solamente  como  un  acompañamiento  para  un  diálogo  interminable,  efectos  de  sonido  y  números  musicales.  

El   sistema   Vitaphone   fue   descartado   hacia   1930,   aunque   Warner   conservó   la   productora   como  subsidiaria  para   la  producción  de  cortometrajes.  En   los  años  40  Warner  Bros  descarta  completamente  el  sistema.  

Vitaphone   era   un   sistema   "sonido-­‐en-­‐disco",   desarrollado   por   Bell   Telephone   Laboratories   y  Western  Electric.  El  sistema  fue  adoptado  en  el  cine  de   los  años  1920,  Western  Electric  estaba   investigando  como  poner  el   sonido  en   las  películas,  entonces  concibió   la   idea  de  crear  el   sonido  en  discos,   con   la  ayuda  del  sistema   de   audio   de   Lee   De   Forest   (1913)   y   el   desarrollo   del   micrófono   de   condensador   (1915).   La  compañía  decidió́  implementar  el  sistema  de  discos  en  las  películas.  

El  negocio  se  estableció  en  Nueva  York,  y  fue  adquirida  por  la  Warner  Bros  en  abril  de  1925.  Vitaphone  se  presentó  el  6  de  agosto  de  1926,  lanzando  su  primer  estreno  con  este  sistema:  Don  Juan,  con  música  y  efectos   de   sonido   solamente   (sin   diálogo),   acompañado   de   varios   temas   de   estrellas   de   ópera   y   los  intérpretes   de  música   clásica   de   la   época.  Don   Juan   fue   capaz   de   sacar   enormes   sumas   de   dinero   en   la  taquilla,  pero  no  fue  suficiente  para  cubrir  el  costoso  presupuesto  que  se  invirtió.  

Page 12: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   12  

Un  año  después   se  vuelve  a   implementar  el   sistema  Vitaphone  en  una  nueva  película,  basada  en  una  obra  de  Broadway:  El  Cantor  de  Jazz  rompió  los  registros  de  taquilla.  

Un  equipo  de  Vitaphone  era  un  proyector,  un  amplificador  y  altavoces.  Los  proyectores  funcionan  con  normalidad  y  eran  silenciosos,  pero  también  con  una  mecánica  que  interactuatuaba  igual  a  un  tocadiscos.  Cuando  el  proyector  es  montado,  el  proyeccionista  hace  una  marca  de  comienzo  de  la  película,  y  al  mismo  tiempo,  alineaba  la  aguja  del  fonógrafo  al  comienzo  del  disco.  

A  diferencia  de  las  velocidad  de  78rpm  para  los  discos  de  fonógrafo,  los  discos  Vitaphone  se  desarrolló  en   33-­‐1/3rpm,   para   que   coincidiera   con   los   11   minutos   de   duración   máxima   de   un   rollo   de   película.  Además,  la  aguja  en  Vitaphone  se  trasladada  desde  el  interior  del  disco  hacia  el  exterior.  

El  proceso  Vitaphone  hizo  grandes  mejoras  en  el  sonido:  

• Amplificación:   El   sistema   Vitaphone   fue   uno   de   los   primeros   en   utilizar   amplificación   electrónica,  utilizando  el   tríodo  de  Lee  De  Forest.  Esto  permitió  que  el   sonido  del   fonógrafo   llegara  a  una  gran  audiencia  con  un  volumen  cómodo.  

• Fidelidad:   En   los   primeros   días,   Vitaphone   superó   a   la   fidelidad   de   sonido   en   otros   procesos   de  película,  especialmente  en  frecuencias  bajas.  

Pero  a  pesar  de  estas  innovaciones,  el  proceso  Vitaphone  perdió  en  la  guerra  de  los  procesos  de  sonido  de  película  por  varias  razones:  

• Distribución:   Las   grabaciones   se   desgastaban   después   de   unas   20   proyecciones   y   tenían   que   ser  reemplazados.  Al  hacer  el  cambio,  los  daños  y  roturas  en  las  películas  eran  peligros  constantes.  

• Sincronización:  Tuvo  graves  problemas  de  sincronización  notoria.  Si  durante  una  proyección  la  aguja  saltaba  o  la  película  se  enganchaba,  se  perdía  la  sincronía  entre  imagen  y  sonido,  y  el  proyeccionista  tendría   que   restaurarla  manualmente.   Los   proyectores   Vitaphone   tenían   palancas   especiales   para  avanzar  y  retrasar  la  sincronización,  pero  era  necesaria  la  continua  atención  del  operador,  y  esto  era  poco  práctico.  Además,  el  sistema  de  alineación  de  las  marcas  de  inicio  en  la  película  estaba  lejos  de  ser  exacta.  

• Edición:   Un   fonógrafo   no   podía   ser   editado   físicamente,   y   esto   limitaba   considerablemente   el  potencial  creativo  de  las  películas  de  Vitaphone.  

Con  mejoras  de  la  competencia,  a  principios  de  1930  la  Warner  detuvo  la  grabación  en  disco  y  se  pasó  a  la  grabación  en  película.  

Hoy  en  día  hay  un  grupo  de  aficionados  conocido  como  "El  proyecto  Vitaphone",  cuya  misión  es   la  de  restablecer   a   largo   plazo   las   producciones   de   Vitaphone.   Ellos   se   encargan   de   localizar   elementos   de   la  imagen  y  sus  correspondientes  discos  Vitaphone,  y  producir  nuevos,  en  versiones  de  35  mm  sincronizadas  con   la   última   tecnología   de   sonido   y   video.  Hasta   la   fecha,   el   proyecto   ha   restaurado   varias   docenas   de  cortos  de  Vitaphone.  

Movietone  

El   sistema   de   sonido  Movietone   es   un  método   “sonido-­‐en-­‐película”   de   grabación   de   sonido   para   las  películas,   que   garantiza   la   sincronización   entre   sonido   e   imagen.   Esto   se   logra   mediante   el   registro   del  sonido   como   una   variable   de   densidad   de   pista   óptica   en   la   misma   tira   de   película   que   registra   las  imágenes.   Aunque   en   la   actualidad   las   películas   utilizan   “variable-­‐area   tracks”,   cualquier   cine   moderno  (salvo  los  que  han  llevado  a  cabo  la  transición  al  cine  digital)  puede  proyectar  una  película  Movietone  sin  modificar  el  proyector.  

Page 13: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   13  

Movietone  fue  uno  de  los  cuatro  sistemas  de  sonido  de  películas  en  la  fase  de  desarrollo  del  sonido  en  el  cine  durante  los  años  20  en  EEUU  (los  otros  eran  Phonofilm,  Vitaphone  y  fotófono  RCA).  

El  Movietone  fue  perfeccionado  por  Theodore  y  su  asistente,  Earl  I.  Sponable,  en  1925  en  Nueva  York,  con   la  creación  de   lo  que  se  convirtió  en   la  cámara  Movietone,  construida  a  partir  de  una  cámara  Bell  &  Howell.    

Movietone   se   empezó   a   usar   de  manera   comercial   cuando  William   Fox,   de   la   Fox   Film   Corporation,  compró  la  totalidad  del  sistema,  incluyendo  las  patentes  (1926).  La  Fox  utilizó  el  trabajo  de  investigación  y  Wall  empezó  desde  cero  en  la  construcción  y  fabricación  de  las  cámaras.  

Muchas   historias   de   cine   sonoro   afirman   incorrectamente   que   el   sistema   de   sonido   Phonofilm  (inventado  por  Lee  DeForest)  era  un  “sonido-­‐en-­‐película”,  pero  aunque  DeForest  hizo  un  gran  esfuerzo,  no  tuvo  éxito.  Algunos  años  después,  Case  desarrolló  la  Luz  OEA,  que  fue  muy  útil  para  la  exposición  de  sonido  amplificado   en   la   película,   y   DeForest   finalmente   fue   capaz   de   producir   películas   con   sonido   audible.  Cuando  presentó  su  cámara,  DeForest  reclamó  todo  el  crédito  de  la  invención  de  Case,  que  era  la  que  había  hecho  posible  la  película.  

Case,   cansado   de   DeForest,   rompió   su   relación   con   él   y   siguió   investigando.   En   1926,   William   Fox  contrató  a  Earl  I.  Sponable  (del  Case  Research  Lab),  cuando  compró  las  patentes  de  “sonido-­‐en-­‐película”  de  Case,  que  fueron  las  que  sirvieron  para  desarrollar  el  sistema  Movietone.  

 El  primer   largometraje   lanzado  utilizando  el   sistema  de  Fox  Movietone   fue  Amanecer   (1927),  dirigida  por  F.  W.  Murnau.  Fue  la  primera  película  de  producción  profesional  con  una  pista  de  sonido  real.  El  sonido  en   la   película   incluye   sólo   la   música,   efectos   de   sonido   y   muy   pocas   palabras   sincronizadas.   Todas   las  películas   sonorizadas  de  Fox   se   realizaron  utilizando  el   sistema  Movietone  hasta  1931,  mientras  que  Fox  Movietone  News  utilizó  el  sistema  hasta  el  año  1939,  debido  a  la  facilidad  de  transporte  de  este  sistema  de  equipos  de  sonido  de  la  película.  

El   laboratorio   de   investigación   de   Case   influyó   en   muchos   estándares   de   la   industria,   tales   como   la  ubicación  de  la  banda  óptica  de  sonido  20  cuadros  por  adelantado  a  la  de  la  imagen  que  lo  acompaña.  Esto  fue   hecho   originalmente   para   asegurar   que   la   película   se   ejecute   sin   problemas,   pero   también   para  asegurarse  de  que  ninguna  película  con  sistema  Phonofilm  se  podría  volver  a  utilizar  en  los  cines    y  también  para  facilitar  la  modificación  de  la  mayoría  de  los  proyectores  que  ya  estaban  en  uso.  

Sponable  trabajó  en   los  estudios  de   la  Fox  Film  Corporation  hasta  su   jubilación  en   la  década  de  1960,  llegando   a   ganar   un   premio   de   la   Academia   por   su   trabajo   técnico   en   el   desarrollo   de   CinemaScope.  Sponable  ha  hecho  muchas  contribuciones  a  la  tecnología  de  las  películas  durante  su  carrera,  incluyendo  la  invención   de   la   perforación   de   imágenes   en  movimiento,   que   permite   colocar   los   altavoces   detrás   de   la  pantalla  para  mejorar  la  ilusión  del  sonido  que  emana  directamente  de  la  acción  de  la  película.    

La  historia  del   Case  Research   Lab  ha   sido,   en   general,   poco   reconocida.  Mientras   tanto,  DeForest,   un  inventor  fracasado  pero  promotor  principal  del  sonido  en  el  cine  que  dedicó  su  vida  a  convencer  a  la  gente  de  que  él  había   inventado  el   sonido  en  el   cine,  alcanzó  su  mayor  gloria  con  un  premio  Oscar  por   sus   los  logros  y  contribuciones  a  la  creación  del  cine  sonoro.  

Recientemente,  se  han  recuperado  las  colecciones  del  Case  Research  Lab,  y  se  están  investigando  todos  los  documentos  (incluidas  cartas  de  Thomas  Edison,  patentes,  recibos…).    

Las  películas  de  Movietone  News  están  en  las  colecciones  de  la  20th  Century  Fox  y  en  la  Universidad  de  Carolina  del  Sur  en  Columbia.    

Page 14: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   14  

La  nouvelle  vague  

A  finales  de  los  50  y  principios  de  los  60,  con  el  movimiento  de  la  Nouvelle  Vague,  se  busca  huir  de  los  estudios:  se  puede  hacer  porque  la  tecnología   lo  permite  (ej.:  cámaras  móviles).  Los  precursores  de  estas  vanguardias   eran   aficionados   al   cine,   y   sacaron   adelante   un   nuevo   tipo   de   cine.   Lo   que   se   hacía   era  pregrabar  el  audio  en  estudio  y  luego  post-­‐sincronizarlo  con  el  vídeo.  Esto  derivaba  en  películas  más  frescas  (se  graba  el  sonido  en  el  estudio).  Un  ejemplo  de  esto  es  el  director  Jean-­‐Luc  Godard,  cuyas  películas  tenían  mucha  parte  grabada  en  estudio  y  post-­‐sincronizada.  Otro  ejemplo  es  Farenheit  451  (Truffault).  

La   sincronización   en   directo   se   empieza   a   hacer   cuando   cuando   la   tecnología   (micros   inalámbricos   y  otras  cosas)  lo  permite,  los  equipos  se  mejoran  y  resulta  cómodo  y  barato.  

*Hay  que  acordarse  del  room  tone  (sonido  de  la  habitación  o  de  la  localización).  Conviene  grabarlo  para  luego  insertarlo  en  la  pista  de  abajo.  

Secuencia  de  rodaje  

-­‐ Assistant  direction:  Roll  sound  (corriendo  sonido)  -­‐ Sound  recordist:  Speed  (corriendo)  -­‐ Assistant  direction:  Roll  camera  -­‐ Camera  operator:  Rolling  (rodando)  -­‐ Assistant  director:  Claqueta  /  Slate  /  Marker  /  Sticks  -­‐ Clapperboard  Slate  Operator:  Dice  escena,  nº  toma  y  golpea  slate  -­‐ Director:  ACTION  y  para  finalizar  CUT  

Equipo  de  producción  de  sonido  

Con  tres  personas  es  suficiente:  -­‐ Cable  man:  a  veces  también  hace  de  boom.  Se  encarga  de  los  cables.  -­‐ Boom  operator:  persona  que  maneja  la  pértiga  -­‐ Sound  mixer:  le  llega  el  material  sonoro  y  lo  organiza  para  después  pasarlo  a  postproducción  

En  cuanto  al  equipo  de  sonido,  el  preamplificador  es   lo  más  caro.  La  organización  es  muy   importante;  hay  que  marcarlo  todo  (tono  para  ajustar  a  cero).  

Otras  personas  pertenecientes  al  equipo  técnico  de  sonido:  productor  de  efectos  especiales,  diseñador  de  sonido,  operador  de  playback…  

Line  up  tones  

Son  cosas  que  dice  el  mezclador  de  sonido  cuando  va  a  empezar  la  grabación  para  poder  identificar  bien  la  grabación:  

1. Location  of  recording  2. Name  of  the  production  company  3. Proyect  name  4. Date  of  recording  (month,  day  and  year)  5. The  ¼’’  roll,  DAT,  or  removable  hard  drive  number  6. Type/model  of  recording  device  7. Equalization  setting  8. Tape  speed  or  sampling  rate  9. A  clear  definition  of  line-­‐up  tone  

Page 15: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   15  

En  el  Sound  reporter  se  apunta  cada  toma.  La  base  es  apuntar,  no  grabar  por  grabar.  Es  muy  importante  en  postproducción,  para  que  al  llegar  al  estudio  sepas  lo  que  has  hecho.  No  hay  que  confiar  en  la  memoria.  

El  documento   tiene  una  cabecera  que   lleva   todos   los  datos  necesarios  para   identificar   la   cinta:   título,  compañía,  producción,  velocidad  del  tape…  así  como  el  nombre  del  mezclador  y  del  boom  operator.  Luego,  en  una  lista,  se  apunta  la  escena,  la  toma,  lo  que  se  capta  por  cada  canal,  comentarios,  código  de  tiempo…  y  se  señala  la  toma  buena  (de  sonido,  lo  de  la  cámara  va  aparte).  

 

El  equipo  de  postproducción  sonora  en  cine  

ADR:   Hay   que   arreglarlo   para   que   no   se   note   respecto   a   otros   sonidos   que   se   hayan   grabado   en   la  localización.   Si   no   se   hace   bien   se   va   a   notar   que   no   está   grabado   a   la   vez   que   lo   otro.   El   ADR   siempre  supone  una  inversión  y  un  gasto  no  previsto.  

En   el   sound   mixer   se   valora  mucho  la  rapidez  y  la  facilidad  para  distinguir  si  la  toma  es  buena  o  no.  

Una   localización   de   audio   es  muy   importante   ir   un  poco  antes   y  escuchar.  

 

 

Ultra  low  buget  crew  (bajo  presupuesto)  

El  de  la  derecha  es  el  esquema  de  un  equipo  de  postproducción  de  sonido  de  bajo  presupuesto.  

 

 

 

 

 

 

 

 

SOUND REPORTER

Ultra low buget crew

Page 16: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   16  

El  guión  formateado  

Una  hoja  de  guión  =  8  octavos.  

Cada   página   con   un   guión   formateado   es   un   minuto   aproximadamente.   La   página   se   dividirá   en   8  octavos,  de  tal  manera  que  si  la  página  no  está  completa  sólo  contaremos  los  octavos  que  llena.  

La  fase  de  la  señal  de  audio  

Sonido  fuera  de  fase:  cuando  dos  ondas  están  fuera  de  fase  se  anula  el  sonido.  

Los  mezcladores  

Una  vez  tenemos  el  nivel  de  entrada  pasamos  al  ecualizador.  De  ahí  al  filtro  que  deja  pasar  altos  o  bajos.  La   dinámica   (compresor)   lo   que  hace   es   cortar   la   dinámica,   comprime  el   sonido  para  que   la   señal   no   se  vaya.  

• Panoramización:  buscar  los  espacios  para  cada  sonido.  

• Canales  auxiliares:  es  el  sonido,  pero  que  entra  por  otro  canal.  

Si  la  señal  está  en  Prefader,  al  que  está  en  la  pecera  siempre  le  entra  el  sonido  por  interno.  Para  vídeo  en  directo  siempre  hay  que  tenerlo  en  Postfader.  

 

 

Canales  de  inserción  

Interface:  módulos  que  se  enchufan  por  USB  al  ordenador  y  que  se  comportan  como  tarjeta  de  sonido  del   ordenador   y   permite   entradas   de   canon   y   de   Jack.   Con   estos   interface   se   puede   ir   grabando   con  multipista.  

Page 17: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   17  

El  tiempo  

El  tiempo,  cuando  se  edita  para  música,  es  muy  importante  (también  se  llama  claqueta).  Cuando  ya  está  grabado  es  muy  difícil  incluirlo,  así  que  lo  normal  es  que  el  músico  ya  toque  en  función  de  la  claqueta  que  le  damos;  es  decir,  el  tiempo  que  queremos.  

Hay  temas  que  no  van  siempre  a   la  misma  velocidad.  El  ProTools  nos  permite  poner  variaciones  en   la  claqueta   (normalmente   todos   los   programas   de   audio   te   lo   permiten).   Cuando   se   prepara   un   tema,   se  escucha  y  se  saca  el  tiempo  (compás)  para  ponérselo  después  al  músico.  

La   claqueta   puede   hacerse   también   con   una   pandereta   o   con   percusión…   a   veces   la   claqueta   del  programa  suena  muy  dura.  Para  hacer  una  claqueta,  se  puede  hacer  con  el  propio  programa  (en  ProTools:  nueva  pista  >  instrumento  >  inserto  >  click).  

Pistas  auxiliares  

Sirven  para  meter  efectos  a  varias  pistas  a  la  vez,  de  forma  que  queda  la  salida  de  la  pista  limpia,  y  es  la  pista  auxiliar  la  que  tiene  los  efectos.  Normalmente,  esto  se  hace  con  los  envíos.  A  la  pista  limpia  le  pones  el  envío  a  la  pista  auxiliar.  

Grupos  de  pistas  

Los  grupos  de  pistas  nos  permiten  subir  o  bajar  todo  lo  que  está  en  el  grupo  a  la  vez.  Normalmente  se  agrupan  por  tipos  de  instrumento,  por  ejemplo:  guitarras,  voces,  baterías…  

Grabación  de  voces  en  estudio  

-­‐ Audio  grabado  en  la  misma  pista  de  una  o  varias  personas.  Se  divide  para  ecualizar.  

-­‐ Siempre  hay  que  fundir  la  una  con  la  otra  para  que  no  se  noten  “pops”.  Apenas  se  aprecia,  pero  hace  que  no  se  note  el  corte.  

Los  oficios  de  la  cultura:  Javier  Limón,  productor  musical  

Lo  más  importante  es  partir  de  una  buena  materia  prima.  Se  tiene  que  grabar  una  referencia  de  voz  para  los  músicos,  para  que  sientan  lo  que  van  a  tocar.  

En  España  no  hay  escuelas  de  producción  musical.  Para  Javier  Limón,  lo  primero  es  ser  un  buen  músico  y  formarte.   Segundo,   estar   en   el   estudio,   para   aprender.   Tercero,   crear   tu   propio   sonido,   que   los   artistas  quieran  que  seas  tú  quien  les  produzca.  

Una  vez  que  el  tema  está  grabado  con  el  sonido  limpio,  voz  e  instrumentos,  en  otro  estudio  se  arregla  y  se  mezcla.  Normalmente  se  tarda  un  día  por  tema  (más  de  un  tema  al  día  puede  pasar  que  un  tema  nos  influya  en  el  otro).  El  proceso  de  mezcla  se  complica  si  está  grabado  con  mala  calidad.  Al  final  los  temas  del  disco  se  igual  de  sonido.  

Es  necesario   conocimiento   técnico,   buen  gusto   y  psicología   (saber   traducir   de   términos  no   técnicos   a  términos  técnicos).  

Luego,  hay  que  dar  seguimiento  al  tema,  que  también  es  parte  de  la  producción,  pero  también  se  le  va  diciendo  adiós,  porque  hay  que  saber  decir  “hasta  aquí”  en  cuanto  a  las  modificaciones.  

 

Page 18: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   18  

Fundido  en  protools  

Hay  que  seleccionar  el  trozo  que  queremos  fundir  y  ctrl+F.  Para  cruzarlo,  colocar  los  audios  en  la  misma  pista,  colocar  de  forma  que  se  solapen  (tiene  que  haber  material  por  debajo),  seleccionar  el  trozo  y  Ctrl+F.  Este  es  uno  de  los  motivos  por  los  que  se  exporta  con  colas.  

Los  músicos  suelen  usar  Logic,  pero  en  los  estudios  se  suele  usar  ProTools.  

Tipos  de  curvas  de  fundido    

Las  curvas  de  fundido  también  se  llaman  “disolve”.  

Frecuencia  y  amplitud  de  onda  

Rango  de  frecuencias  

Page 19: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   19  

Ecualización  La  ecualización  sirve  para:  

-­‐ asegurar  que   los  diferentes  elementos  encajen  entre  sí  

-­‐ corregir  carencias  

-­‐ herramienta  creativa  

 

 

Tipos:  

-­‐ Gráfico:  puntual,  cada  frecuencia,  atenuación  de  cada  frecuencia  por  separado.  

-­‐ Paramétrico:  menos  puntual,  coge  varios  parámetros.  El  ancho  de  banda  marca  la  relación  con  otras  frecuencias.  Como  vemos,  no  se  puede  afinar  tanto  porque  va  por  grupos.  

 

Ruido  rosa:  se  utiliza  para  ecualizar  el  ruido  de  un  local,  para  que  la  línea  de  ecualización  esté  plana  y  el  ruido  del  local  no  influya  en  las  voces  

Al  ecualizar  hay  que  tener  en  cuenta:  

-­‐ efecto  enmascaramiento:  Cambios  en  unas  frecuencias  afectan  a  la  forma  en  que  percibimos  otras.  Si  hacemos  una  atenuación  en  frecuencias  bajas,  las  altas  se  escucharán  mejor.    

-­‐ mejor  hacer  recortes  que  refuerzos:  Se  suele  producir  coloración  del  sonido  cuando  se  refuerza  

-­‐ refuerzos   a  muy  bajas   frecuencias   (por   debajo   de   200  Hz):   un   refuerzo   leve   en  dos   frecuencias   es  mejor  que  un  refuerzo  grande  en  una.  Se  consigue  el  mismo  efecto  con  una  coloración  menor  

-­‐ cada  pista  es  única:  mutea  todas   las  demás  para  actuar,  y   luego  ponlas  para  comprobar   la  relación  con  las  otras  pistas  

Cuanto  menos  lio  se  le  meta  a  una  pista,  mejor.  La  ecualización  es  algo  que  lleva  mucho  tiempo.  

Tipos  de  ecualización  

-­‐ correctora:  de  pista  

-­‐ de  empaste:  general  

 

Tipología

Texto

GRÁFICO

PARAMÉTRICO

Page 20: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   20  

Técnica  del  barrido  

¿Cómo  buscar  frecuencias  que  nos  están  molestando?  

-­‐ utilizar  ecualizador  paramétrico  

-­‐ configurar  una  de  las  bandas  a  una  frecuencia  dentro  del  rango  (ej:  500Hz)  

-­‐ cuando  sabes  donde  está,  ponemos  un  ancho  de  banda  muy  estrecho  (del  orden  de  a=5)  

-­‐ la  ganancia  a  unos  8dBd  

-­‐ Lentamente   vamos   modificando   la   frecuencia   hasta   encontrar   el   punto   donde   más   se   note   esa  resonancia  molesta.  

-­‐ Una  vez  localizada  dejamos  la  frecuencia  fija  y  jugamos  con  la  Q  cerrando  el  estrecho  de  banda  del  ecualizado  

Esto  se  suele  usar  mucho  para  limpiar  diálogos.  

El  sonido  es  muy  subjetivo.  El  profesional  incluso  viaja  con  los  propios  monitores,  y  ecualiza  la  sala  en  la  que  va  a  trabajar  en  función  de  pistas  que  conoce.  Es  importante  perder  tiempo  escuchando  y  haciendo  la  mezcla.  

Para  conseguir  presencia  en  un  instrumento:  tirar  hacia  arriba  la  parte  de  los  medios.  Con  la  voz  no  se  pueden  subir  los  medios  porque  sale  nasal.  La  voz  suele  arreglarse  bajando  los  medios.  

Mesa  de  mezclas  con  un  paramétrico  (Q=ancho  de  banda)  

 

 

 

 

 

Page 21: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   21  

Ecualizador  paramétrico:  

-­‐ Entrada  y  salida  (Input  y  Output):  Se  puede  dejar  plano  o  también  se  le  puede  dar  más  salida.  Así  es  como  le  subimos  el  sonido,  pero  hay  que  tener  en  cuenta  que  da  más  ruido.  

-­‐ Ancho  de  banda  (Q):  Hay  una  lista  de  controles  para  cada  grupo  de  frecuencias.  La  Q  es  el   ancho   de   banda   (la   curva),   con   ella   medimos   hasta   dónde   afectará   a   las   frecuencias  vecinas.  

Esquema  de  sentimientos  y  sus  equivalencias  a  frecuencias  

 

Rango  de  frecuencias  de  la  voz  

 

Page 22: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   22  

Filtro  de  paso  alto  y  bajo  

Sirve  para  decirle  al  programa  que  corte  la  frecuencia,  para  que  así  no  entren  sonidos  no  deseados,  que  puede  ser  que  no  escuches,  pero  que  ensucian  la  grabación.  

El  filtro  de  paso  bajo  es  para  los  agudos,  y  el  de  paso  alto  para  los  graves.  Por  ejemplo,  pones  el  filtro  a  100  Hz,  y  nada  que  esté  más  bajo  que  eso  pasará.  

La  utilización  de  los  dos  a  la  vez  sería  el  filtro  de  paso  de  banda:  especificamos  la  banda  de  frecuencias  que  queremos  que  pase.  

Bandas  

-­‐ Graves  20-­‐50Hz:  Esta  banda  llega  hasta  el  umbral  de  audición  del  oído  humano.  Las  frecuencias  que  la  componen  se  sienten  más  que  se  escuchan.  Esta  banda  que  añade  un  matiz  orgánico  a  la  mezcla.  Hay  que  tratarla  con  precaución.  Si  la  amplificamos  demasiado  se  reduce  del  margen  dinámico  y,  por  lo  tanto,  disminuye  el  volumen  final  de  la  mezcla  y  tenemos  menor  definición.  

-­‐ Graves   63-­‐80Hz:   Si   el   bajo   y   el   bombo  han  quedado   algo   apagados,   se   realzan.  Añade   calidez   a   la  mezcla  sin  reducir  la  definición  de  voces,  guitarras…  Un  gran  incremento  disminuye  la  inteligibilidad  de  la  mezcla  y  el  margen  dinámico.  Puede  llegar  a  saturar  algunos  altavoces.  

-­‐ Graves  100-­‐160Hz:  Esta  banda  proporciona  una  buena  calidad  de  graves  en  altavoces  domésticos.  

-­‐ Graves  200-­‐250Hz:  Un  poco  de  ganancia  puede  añadir  cuerpo  a  una  mezcla  demasiado  fina.  Puede  hacer  que  el  bajo  suene  poco  claro.  Para  definir  el  bajo  es  mejor  recortar  esta  banda  que  aumentar  los  medios  o  agudos.  La  mezcla  será  más  clara  y  cálida  que  si  aumentamos  los  agudos.  

Altavoz  con  filtros  de  paso  alto  y  bajo  

 

 

Page 23: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   23  

Compresores  Operación:  realizar  la  compresión  de  pistas  por  separado.  

Objetivo:  colocar  las  cosas  en  su  sitio  (nivel),  llevarlo  dentro  de  un  margen.  

La  compresión  se  realiza  antes  de  comenzar  a  mezclar,  ecualizar  y  panoramizar.  

Con   la   compresión:   restauramos   las   señales   para   que   suenen   más   naturales,   y   adaptamos   el   rango  dinámico   de   las   señales   para   que   se   adecue   al   equipo   de   reproducción.   El   compresor  mantiene   todo   el  sonido  y  no  deja  que  se  vaya  la  señal.  

¿Cómo  restaura  la  señal  un  compresor?  

-­‐ Acorta  la  diferencia  existente  entre  el  mínimo  y  el  máximo  volumen  de  una  señal.  

-­‐ Actúa  sobre  los  excesos  de  volumen  a  partir  de  un  punto  que  nosotros  le  indicamos.  

-­‐ Este  punto  se  denomina  umbral,  a  partir  de  él  comenzará  el  procesamiento  de  la  señal.  

-­‐ La  señal  se  recorta  en  base  a  unos  parámetros  que  fijamos  a  nuestro  interés.  

Partimos   de   una   señal,   por   ejemplo   un   tema   musical   que   abarca   desde   0   hasta   100   dB’s.   Vamos   a  minimizar   su   rango   dinámico,   comprimiéndola.   Pongamos   que   queremos   mantenerla   entre   0   y   80   dB’s  máximo.  

Añadimos  20  dB’s  con  el  control  de  ganancia  del  compresor,  compensando  la  caída  de  100  a  80  dBs.  Así,  tenemos   la  misma  señal,  pero  con  menos  diferencias  entre   los  volúmenes  más  altos  y   los  más  bajos.  De  este  modo  todo  se  oirá  más  presente,  más  potente  y  aparente  al  oído.  

Esta  operación  ayuda  a  acomodar  cada  instrumento  en  la  mezcla.  Se  intenta  que  ninguna  señal  quede  “enterrada”  a  no  ser  que  lo  hagamos  de  forma  intencionada.  

Gain:  Es  la  responsable  de  la  atenuación  o  en  algunos  casos  la  amplificación  de  la  señal  de  entrada  en  dB  (el  umbral  del  dolor  está  en  120  dB).  

Transitorio  es  el  ataque  de  una  señal,  que  viene  definido  generalmente  por  un  momento  de  transición  comprendido  entre  la  solicitación  del  sonido  del  instrumento,  y  su  cola.  Se  trata  de  conseguir  un  ataque  del  instrumento  natural  y  realista.  Por  ejemplo:  traducir  los  120  dB’s  de  un  instrumento  de  percusión  al  natural  para  que  aparenten  tener  la  misma  fuerza  al  reproducir  esas  señales  a  través  de  equipos  que  no  gozan  de  tanta  dinámica  como  nuestro  sistema  auditivo.  

Page 24: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   24  

Headroom  define  la  zona  en  dB’s  que  usamos  en  una  mezcla.  Va  desde  unos  20  dB’s  a  unos  3  o  6  dB’s  en  las  grabaciones  actuales.  Quiere  decir  que  de  esos  80  o  100  dB’s  iniciales,  sólo  aprovechamos  unos  pocos  para  delimitar  el  mínimo  y  el  máximo  volumen  representado  en  nuestro  tema.  

Attack  and  reléase  

El  ataque  determina   lo  rápida  que  puede  ser   la  reducción  mientras  que  el  reléase  determina  como  de  rápida  será  la  recuperación  de  la  reducción.  

Por   lo   tanto,   debemos   comprimir   todas   las   pistas   que   han   sido   “tocadas”   para   reducir   su   rango  dinámico,  corrigiendo  en  parte  los  errores  de  interpretación,  excesos  de  fuerza  tocando,  o  falta  de  ella.  

De   este  modo   facilitamos   el   que   todo   se   oiga   lo  más  claro   posible,   que   nada   quede   enterrado   por  momentos  en  la  mezcla.  Que  todo  suene  “arriba  y  potente”  favorece  la   sensación   de   pegada   y   contundencia,   y   también   hace  que  se  entiendan  todos   los   instrumentos  presentes  en   la  mezcla,   sobre   todo   en   ambientes   que   no   sean  precisamente  silenciosos.  

No  obstante,  en  la  mezcla  no  todo  puede  estar  arriba.  Se   trata   de   conservar,   en   parte,   la   naturalidad   de   la  mezcla.   Si   se   comprime   mucho,   el   resultado   sonaría  cansino  y  monótono,  por  mucha  presión  que  consigamos.  Ej.:   En   un   grupo   de   rock   intentaremos   conservar   cierta  naturalidad   en   guitarras   y   voz,   permitiremos   que   se  muevan  arriba  y  abajo  unos  pocos  dB’s  en  la  mezcla.  Esto  hace  que  el  resultado  suene  más  orgánico  y  realista.  

La   batería   se   mueve   a   base   de   golpes   que   ocupan  breves  espacios  de  tiempo,  ha  de  sonar  potente,  siempre  presente   e   intentar   que   los   golpes   suenen   igual   de  fuertes.  El   ritmo  no  debe   transmitir  en  ningún  momento  sensación  de  fatiga.  

 

 

Page 25: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   25  

Threshold  (umbral)  

Nivel   a   partir   del   que   arranca   la   reducción   de   ganancia.   Cualquier   señal   que   exceda   el   therslod   es  conocida   como   overshooting   signal.   Será   reducida   en   nivel.   Las   señales   bajo   el   threshold   no   están  afectadas.  

Ratio  

Determina   la   extensión   en   la   que   son   reducidas   las   señales   que   están   por   encima   del   threshold.   Las  voces   2:1,   los   instrumentos   4:1   estaría   bien.   A   compresiones  muy   altas   no   es   lo   suyo,   pues   queda  muy  encorsetado.  

Knee:  tipo  de  curva  de  la  rodilla,  más  abrupta  o  más  suave.  No  todos  los  compresores  lo  tienen.  

 

 

 

 

Page 26: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   26  

Ridder  técnico  

El  rider  técnico  especifica  los  canales  y  otras  especificaciones  (micro,  batería,  detalles  como  “puerta”  –  umbral  de  sonido  en  el  que  entra  el  micro  para  que  los  sonidos  no  entren  por  más  de  un  micro).    

Esquema  de  colocación  de  un  grupo  de  música  

Elementos:  

-­‐ Rider:  con  plano  

-­‐ Backline:  instrumentos  detrás  del  músico  

-­‐ PA  

-­‐ FOH:  Frontal  Of  House  (mesa  de  mezclas)  

-­‐ Monitores:   Para   que   el   músico   pueda   escucharse.   Se   da   una   mezcla   particular,  según  lo  quiera  escuchar  el  músico.  

-­‐ Caja  inyección  

-­‐ Splitter:  de  1  se  pueden  sacar  2  o  3  

-­‐ Inyección  directa:  Entra  por  micro  en  lugar  de  por  línea.  Permite  ecualizar.  

 

Page 27: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   27  

La  mezcla:  ideas  fundamentales  El   rápido   desarrollo   de   los   sistemas   de   audio   digital   ha   producido   una   “democratización”   de   la  

tecnología   de   producción   de   audio.   En   la   actualidad   cualquier   músico   aficionado,   con   una   pequeña  inversión,  puede  permitirse  el   lujo  de  tener  en  casa  un  pequeño  estudio  de  producción  donde  poder  dar  rienda  suelta  a  sus  “perversiones”  musicales.    

¿Qué  podemos  considerar  como  una  buena  mezcla?  

El   proceso   de   mezcla,   aunque   en   sí   implica   una   cantidad   de   aspectos   técnicos   importante,   puede  considerarse  como  un  proceso  altamente  creativo.  Por  esa  razón  el  determinar  si  una  mezcla  es  buena  o  mala  depende  de  muchos  factores  totalmente  subjetivos.    

El  primer  paso  para  poder  llegar  a  “la  mezcla  perfecta”  es  el  de  poder  escuchar  de  forma  crítica  un  tema  musical  y  poder  analizar  la  forma  en  que  fue  mezclado.  De  esta  forma,  cuando  escuches  un  tema  y  te  guste  como  suena  podrás  saber  la  razón  por  la  que  te  gusta  su  sonido,  lo  que  a  la  larga  te  va  a  permitir  ver  qué  es  lo  que  te  gustaría  a  ti  que  tuviera  una  mezcla  tuya.  Para  conseguir  hacer  un  análisis  crítico  de  una  mezcla  debemos  escuchar  un  tema  musical  fijándonos  en  algunos  aspectos  de  la  mezcla.  

En  primer  lugar,  podemos  observar  la  relación  entre  los  niveles  de  los  diferentes  elementos.  Una  mezcla  debe  ser  coherente  en   los  niveles.  También  hay  que  tener  en  cuenta  que  a  veces  debemos  hacer  que  un  grupo  de  elementos  suenen  como  un  conjunto  en  vez  de  como  una  suma  de  elementos  aislados,  como  es  el  caso  de  los  elementos  de  una  batería.  

Otro  aspecto  muy  importante  en  una  mezcla  es  el  panorama.  Es  muy  importante  en  una  mezcla  el  que  cada   elemento   esté   correctamente   situado   en   el   campo   estéreo.   Una   técnica   muy   extendida   es   la   de  colocar  en  el  centro   los  elementos  de  bajas  frecuencias  (bombo  y  bajo)  y   los  elementos  más   importantes  (como  la  voz  principal,  instrumentos  solistas,  caja...)  en  los  laterales.  Hay  que  tener  en  cuenta  que  un  buen  panorama  en  una  mezcla  hace  que   los   instrumentos   se  escuchen  de   forma  clara.  En   las  ocasiones  en   las  que  tengamos  un  elemento  que  no  somos  capaces  de  hacer  oír  claramente  sin  subir  de  forma  extrema  su  nivel,  probablemente,  ajustando  el  panorama  y   colocando  dicho  elemento  en  una   zona  donde  no  quede  estorbado  por  otros  elementos,  consigamos  que  se  escuche  claramente  a  un  nivel  razonable.  

También  es  muy  importante  conseguir  que  la  mezcla  tenga  un  buen  balance  frecuencial.  Por  un  lado,  en  una   mezcla   se   debe   conseguir   que   todos   los   elementos   tengan   su   espacio   frecuencial.   Cuando   dos  elementos  comparten  el  mismo  rango  de  frecuencias,  uno  de  ellos  puede  resultar   indistinguible.  Además  debemos  conseguir  que  en  la  mezcla  estén  representadas  todas  las  frecuencias  audibles,  de  forma  que  la  escucha  del  tema  musical  resulte  agradable.  

Otro  elemento   fundamental  en  una  mezcla  es   la  dimensión.   La  dimensión  en  una  mezcla   se   consigue  añadiendo   efectos   de   reverberación,   delays,   flangers...   Hay   que   tener   en   cuenta   que   en   la   mayoría   de  producciones  actuales  (exceptuando  la  música  sinfónica,  música  de  cámara,  música  coral...)  los  elementos  de   la   mezcla   están   tomados   con   microfonía   cercana,   lo   que   provoca   que   las   pistas   tengan   muy   poca  influencia  ambiental  de  la  sala  donde  se  ha  grabado,  por  lo  que  es  muy  probable  que  se  necesite  añadir  de  forma   artificial   ese   ambiente   durante   el   proceso   de   mezcla.   Además   en   la   actualizad,   la   mayoría   de  instrumentos  virtuales  nos  van  a  dar  un  sonido  carente  de  ambiente.  

Es  importante  saber  cómo  suenan  tus  monitores  ante  producciones  comerciales.  El  hacer  audiciones  de  música   comercial   en   los   monitores   donde   trabajamos   habitualmente   nos   va   a   permitir   saber   cuando  nuestro  trabajo  se  está  alejando  demasiado  del  “mundo  real”.  Una  buena  solución  para  no  perder  el  buen  

Page 28: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   28  

rumbo   a   la   hora   de   trabajar   es   la   de   hacer   una   recopilación   de   temas   de   diferentes   estilos  musicales   a  modo  de  biblioteca,  con  la  finalidad  de  refrescar  nuestras  orejas  cuando  tengamos  la  sensación  de  que  lo  que  estamos  haciendo  puede  que  nos  suene  bien  porque  nos  hayamos  acostumbrado  a  su  sonido.    

Podemos   decir   que   una   buena   mezcla   probablemente   sea   la   que   reúna   de   forma   correcta   las  características  que  hemos  dicho  antes  (niveles,  panorama,  balance  frecuencial  y  dimensión)  .  Sin  embargo  que  una  mezcla   cumpla   con  estas  exigencias   solo  asegura  que  una  mezcla   sea   técnicamente   correcta,   lo  cual  puede  distar  mucho  de  significar  una  mezcla  perfecta.  Ahí  es  donde  entra  la  parte  artística  del  proceso  de  mezcla.  Un  buen  ingeniero  de  mezcla  debe  saber  de  antemano  qué  dirección  quiere  dar  al  sonido  de  un  tema  musical  antes  de  haber  movido  un  solo  fader.  El  hacer  que  algo  técnicamente  suene  bien  no  es  difícil;  sin  embargo,  el  hacer  que  un  tema  musical  suene  como  realmente  tiene  que  sonar  no  es  tan  fácil.    

Una  mezcla  debe  estar  siempre  al  servicio  de   la  música  y  no  al  servicio  de  quien  mezcla.  No  debemos  titubear   a   la   hora   de   arriesgarnos   a   dar   una   vuelta   de   tuerca  más   para   lograr   que   la  música   con   la   que  estamos  tratando  suene  más  interesante  y  excitante.  Al    mezclar  debemos  hacer  que  el  oyente  encuentre  interesante  lo  que  escucha  y  no  solo  que  quede  impresionado  en  un  primer  momento  por  el  sonido  y  que  a  los  cinco  minutos  haya  perdido  todo  el  interés  por  lo  que  escucha.    

El  entorno  de  escucha  

Antes  de  ponerse  manos  a   la  obra,  debemos  prestar  atención  a  un  elemento  crucial  en  el  proceso:  el  sistema  de  monitoraje.  Unos  buenos  monitores  de  mezcla  pueden  costar  decenas  de  miles  de  euros,  pero  existe   una   amplia   variedad   de   monitores   de   rango   medio   que   pueden   cumplir   perfectamente   con   las  exigencias  de  un  home  studio.   Lo  que  no  es   recomendable  nunca  es  usar  un  equipo  de  monitoraje  Hi-­‐Fi  para  labores  de  mezcla,  ya  que  no  nos  van  a  dar  una  respuesta  lo  suficientemente  precisa.  

Además,   tenemos   que   tener   en   cuenta   que   para   realizar   una  mezcla  en  condiciones  óptimas  debemos  encontrarnos  en  un  entorno  acústico  indicado  para  tal  propósito.  El  sistema  de  monitoraje  incluye  también   la   sala  donde  vayamos  a   trabajar.  Hay  que   tener  en   cuenta  que  el  sonido  que  sale  de   los  monitores  y  que  vamos  a  percibir  va  a  estar  fuertemente  influenciado  por  la  respuesta  acústica  de  la  sala.  Es  también   muy   importante   la   colocación   de   los   monitores.   La  colocación   más   extendida   es   la   que   recomienda   la   ITU   (Unión  Internacional   de   Telecomunicaciones).   Este   estándar   dice   que   los  monitores  deben  colocarse  60º  con  respecto  al  punto  de  escucha,  de  tal  forma  que  se  forme  un  triángulo  equilátero.  

Buscando  orden  dentro  del  caos  

Antes  de  empezar  a  ecualizar,  a  comprimir  o  a   realizar  cualquier  otro  proceso  propio  de   la  mezcla,  es  muy  importante  tener  claro  lo  que  queremos  conseguir  y  organizar  el  trabajo  antes  de  empezar.  

Los   grandes   ingenieros   de  mezcla   admiten   que   antes   de   empezar   a   tocar   nada   siempre   tienen   en   la  cabeza  que  es  lo  que  van  a  intentar  conseguir.  Para  conseguir  esto  debemos  conocer  el  tema  musical  que  vamos   a  mezclar.   Lo   primero   es   escucharlo   un   par   de   veces,   tomando   notas   si   hace   falta.   Tras   esto,   es  probable  que  en  vuestra  mente  ya  tengáis  el  sonido  que  queréis  conseguir.  Muchas  veces  es  inútil  ponerse  a  mezclar  sin  saber  muy  bien  lo  que  vamos  a  hacer,  ya  que  podemos  llegar  a  un  punto  sin  retorno  que  nos  obligue  a  empezar  desde  cero  una  mezcla.  

Page 29: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   29  

 

Una  vez  que  conocemos  el  tema,  es  hora  de  organizar  el  proyecto  de  mezcla  para  que  en  el  momento  de  mezclar  tengamos  todo  ordenado  y  no  nos  perdamos  buscando  las  cosas.  Hay  que  tener  en  cuenta  que  el  proceso  de  mezcla  es  una  proceso  altamente  intuitivo,  y  cualquier  retraso  en  acceder  a  lo  que  queremos  ver   o   modificar   puede   ser   perjudicial.   Un   buen   punto   de   partida   para   organizar   todo   es   realizar   un  esqueleto   del   tema   musical.   Es   conveniente   separar   el   tema   musical   en   diferentes   secciones   (estrofas,  puentes,   estribillos,   solos,...).   Esto  nos   va   a   permitir   saber   en   todo  momento   en  que   lugar   del   tema  nos  encontramos  y  el  poder  acceder  de  forma  instantánea  a  cualquiera  de  esos  puntos.  

También   podemos   programar   diferentes   visualizaciones   dentro   del   proyecto.   En   eso   radica   la   gran  potencia  de  las  diferentes  visualizaciones  dentro  de  un  secuenciador.    

Otra  arma  poderosa  para  luchar  contra  el  caos  que  supone  una  mezcla  es  el  uso  de  subgrupos,  que  nos  va  a  permitir  mutear  o  poner  en  solo  ciertas  pistas  de  forma  instantánea.  Además,  durante  la  mezcla  nos  van  a  permitir  procesar  de  forma  unitaria  un  conjunto  de  mezcla  (por  ejemplo  comprimir  todas  las  pistas  de  batería  como  conjunto)  y  hacer  automatizaciones  globales  (por  ejemplo  hacer  un  fade  out  a  toda  la  batería  sin   necesidad   de   programar   el   fade   out   en   todas   las   pistas   de   la   batería).   Cada   secuenciador   tiene   sus  particularidades  en  cuanto  a  la  organización  de  los  proyectos.  

¿Cómo  afrontar  una  mezcla?  

Un  buen  punto  de  partida  sería  ver  qué  es  lo  que  se  debe  evitar  hacer.  Lo  primero  que  debéis  evitar  es  el  pensar  en  el  sonido  de  las  diferentes  pistas  de  modo  individual,  ya  que  el  tener  un  buen  sonido  en  todas  las  pistas  de  forma  individual  no  asegura  una  buena  mezcla,  es  más,  puede  llegar  a  ser  desastroso.    

Por   otro   lado,   hay   que   tener   en   cuenta   que   las   voces   son,   pese   a   quien   pese,   el   elemento   más  importante   de   una   canción   y   es   donde   el   oyente   medio   va   a   centrar   casi   toda   su   atención.   Cuando  mezclemos  debemos  pensar  que  los  instrumentos  musicales  tienen  la  función  de  dar  soporte  para  que  las  voces  tengan  un  buen  acompañamiento  y  no  debemos  pensar  en  ningún  otro  instrumento  como  líder  de  la  canción.  

Un  buen  punto  de  partida  para  poder  buscar  un  sentido  a  una  mezcla  es  la  de  agrupar  todas  las  pistas  con  las  que  vamos  a  contar  en  elementos  estructurales  del  tema  musical.  Pensad  en  un  tema  musical  como  algo   compuesto   de   diferentes   elementos,   los   cuales   tienen   una   importancia   y   una   función   diferentes.  Podemos  considerar  que  estos  elementos  estructurales  son:  

• La   base   rítmica,   compuesta   por   el   bajo   y   los   elementos   percusivos   (batería,   percusiones,   loops,  ritmos  electrónicos...)  

• Los  instrumentos  principales  (voz  solista,  guitarra  solista...)  

• Elementos  corales  (coros,  doblajes  de  guitarra...)  

• Elementos  de  apoyo  y  de  contexto  (guitarras  rítmicas,  teclados...)  

• Elementos  ambientales  (pads  de  sintetizadores,  efectos  sonoros,  colchones  de  cuerdas...)  

Cada  uno  de  estos  conjuntos  de  elementos  tienen  una  función  muy  específica  dentro  de  una  mezcla  y  debemos  tener  esto  en  cuenta  a  la  hora  de  mezclar  con  el  fin  de  que  el  tema  musical  suene  coherente.  

Una  vez  que  tenemos  en  mente  los  elementos  estructurales  de  los  que  se  va  a  componer  una  mezcla  ya  podríamos   tener   una   idea   de   como   afrontar   nuestra   mezcla.   Una   de   las   formas   más   extendidas   para  afrontar  una  mezcla  consiste  en  empezar  solo  con  una  pista  e  ir  añadiendo  progresivamente  las  demás.  El  

Page 30: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   30  

punto  donde  comenzar  varía  mucho  entre   los  gustos  personales  de  cada  uno  y  el  estilo  de  música  con  el  que  tratemos.  A  medida  que  vayas  añadiendo  pistas  deberás  volver  hacia  atrás  y  reajustar  constantemente  pistas  añadidas  anteriormente  para  conseguir  que  todo  el  conjunto  suene  como  quieres.    

Otra   forma   de  mezclar,   y   que   también   está  muy   extendida,   es   la   de   subir   todas   las   pistas   a   la   vez   y  empezar  a   trabajar   a  partir  de  ahí.  Con  este  método  primeramente   se  hace  una  mezcla   tan   solo   con   los  niveles  de  las  pistas  en  mono.  Luego  empiezan  a  situarse  los  elementos  en  el  espacio  estéreo  por  medio  de  los  controles  de  panorama.  A  partir  de  ahí  cada  uno  sigue  sus  instintos  hasta  conseguir  el  sonido  que  busca  para  el  tema  musical.  Puede  haber   infinidad  de  formas  de  hacer  una  mezcla.  A  medida  que  vas  haciendo  más  y  más  mezclas  terminas  por  adoptar  tu  propia  forma  personal.  

Conceptos  básicos  sobre  la  mezcla  

La  mezcla  es  uno  de  los  procesos  más  delicados  y  creativos  de  la  producción  de  una  canción.  El  objetivo  es  conseguir  un  reparto  equilibrado  de   las  frecuencias,  volúmenes  y  planos  de   los   instrumentos/voces  de  forma  que   la  escucha  sea  agradable  y/o  apropiada  a   lo  que  se   intenta  transmitir.  Para  ello  se  controla  el  espectro  de  cada  instrumento  (ecualización),  la  dinámica  (volumen,  compresión,  expansión,  limitación)  y  la  profundidad  (reverberación,  retardo).  

Reproducción  y  monitorización  

Muchas  veces  olvidado,  el  sistema  de  reproducción  y  monitorización  (tarjeta  de  sonido  +  amplificador  +  altavoces)  es  lo  más  importante  del  sistema.  El  tener  una  correcta  referencia  es  la  mejor  de  las  ayudas  para  determinar   el   sonido   de   una   pista.   Debido   a   que   cada   sistema   de   escucha   es   diferente   y   no   existe   ni  habitación  perfecta  ni  monitores   infalibles,  en   los  estudios   se  suele   tener  varias  parejas  de  monitores  de  diferentes  tamaños  y  calidades  para  conseguir  el  mejor  sonido  posible.  La  colocación  de  los  monitores  y  las  reflexiones  en  la  sala  son  factores  muy  importantes.    

Los  efectos  

Existen  un  grupo  de  efectos  básicos  y  de  su  calidad  dependerá  en  mayor  o  menor  medida  la  calidad  del  resultado.   Como   antes   se   comentó,   los   más   importantes   son   la   dinámica,   ecualización   y  retardo/reverberación,  imprescindibles  para  acometer  cualquier  mezcla.  Debido  al  auge  de  la  informática,  la  mayoría  de  las  veces  se  usan  efectos  software  o  la  combinación  de  ambos.  No  existen  reglas  fijas  sobre  su  uso.  Los  efectos  se  pueden  usar  de  dos  formas,  como  inserción  o  como  envío.  En  el  primer  caso  el  efecto  sólo  actúa  sobre  la  señal  de  entrada  (una  pista  o  un  grupo  de  ellas).  En  el  segundo  caso,  puedes  elegir  de  cada  pista  qué  cantidad  de  esta  debe  ser  afectada  por  el  efecto  mediante  un  control  de  envío.  Efectos  de  inserción   suelen   ser   los   compresores,   la   ecualización   o   distorsión.   Efectos   de   envío   suelen   ser   la  reverberación,  retardo  (delay)  o  el  coro  (chorus),  aunque  insisto  en  que  no  hay  reglas  fijas.  

El  factor  humano  

La  mezcla  no  es  un  proceso  científico,  depende  del  tipo  de  canción  y  del  gusto  del  ejecutante.  Además,  hay  otros   factores   importantes  que   influyen  negativamente,  como  el  cansancio  auditivo  o  el  consumo  de  drogas.  El  entrenamiento  es  el  arma  más  poderosa  y,  en  tiempos  en  donde  la  tecnología  está  al  alcance  de  todos,  decisiva.  

Preparación  

En  primer  lugar  es  muy  recomendable  escuchar  unos  minutos  de  tu  música  favorita  para  ir  “calibrando”  tu  audición  con  respecto  a  los  monitores  que  tengan.  Esto  es  especialmente  útil  cuando  el  sistema  a  usar  no   es   el   habitual   o   estás   fuera   de   casa.   Las   pistas   del   tema  deberían   estar   bien   alineadas   y   organizadas  

Page 31: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   31  

dentro  del  sistema  multipistas  a  utilizar.  Para  acelerar  el  proceso  se  puede  “patchear”  o  configurar  algún  efecto  general,  tipo  reverb  o  delay.  

Hoy  en  día  todo  el  material,  exceptuando  el  dirigido  a  televisión  o  cine,  suele  estar  mezclado  en  estéreo,  aunque  en  es  más  sencillo  ajustar  la  ecualización  y  equilibro  de  todas  las  pistas.  Además,  se  ocupa  todo  el  espectro   antes,   de   forma   que   al   volver   al   estéreo   el   sonido   es  más   amplio   y   espacioso.   Si   se   realiza   el  proceso  directamente  en  estéreo,  es  más  sencillo  sobrecargar  la  mezcla.  Una  vez  que  se  haya  ajustado  los  volúmenes  y  el  espectro,  se  puede  continuar  en  estéreo  y  hacer  las  correcciones  pertinentes.  

La  voz  

Hay  que  ecualizar,  comprimir  y  ajustar   todos   los  detalles  hasta  que  suena  de   forma  correcta  y  con  un  volumen  más  o  menos  constante.  Un  poco  de  reverberación  y   retardo  nunca   le  vienen  mal,  pero  es  algo  que  se  suele  añadir  más  adelante.  

Un  defecto  importante  es  la  silibancia,  que  se  corrige  con  un  deeser  (compresor  encadenado  en  el  que  la  señal  de  disparo  es   la  misma  de  entrada  filtrada  para  resaltar   la  silibancia).  Cuando   la  voz  va  haciendo  coros  lo  mejor  es  tener  un  bus  con  todos  las  pistas  y  comprimirlos  y  ecualizarlos  juntos.    

En  cuanto  a  la  panoramización,  la  voz  principal  debe  ir  siempre  al  centro  y  los  coros  se  suelen  abrir  en  estéreo   un   poco,   pero   no   demasiado.   La   ecualización   recomendada   es   un   recorte   de   graves   (filtro   paso  grave)   y   un   ratio   de   compresión   (dinámica)   de   entre   2,5:1   a   4:1,   con   un   ataque   y   desvanecimientos  moderados.  También  se  pueden  añadir  reverberación,  retardo  estéreo  sin  realimentación…  La  voz  suele  ser  el  elemento  principal,  por  lo  que  es  recomendable  usar  el  mejor  compresor  y  ecualizador  disponible.  

La  percusión  

En  la  mayoría  de  los  estilos  musicales,  la  percusión  y  el  bajo  son  los  elementos  que  llevan  el  peso  de  la  canción   y  más   concretamente   la   batería.   La   batería,   acústica   o   electrónica,   consta   habitualmente   de   los  siguientes   elementos:   bombo,   caja,   plato   de   charles   (o   hi-­‐hat),   timbales   y   platos,   que   suelen   ser  microfoneados  individualmente  (incluso  con  varios  micrófonos,  como  la  caja  o  el  bombo).  Además,  cuando  estamos  mezclando  una  batería  acústica  contaremos  con  las  señales  de  overhead  (micros  situados  sobre  la  batería),   ambiente   (mono   o   estéreo)   y   PZM   (micrófonos   piezoeléctricos   que   se   usan   para   grabar  ambientes).  Hay  cientos  de  formas  de  mezclar  una  batería.    

 El  bajo  

El   elemento   conductor   de   la   armonía   y   posiblemente   uno   de   los   más   sencillos   de   mezclar.   Es   muy  importante  que  la  grabación  sea  la  correcta  y  aplicar  una  buena  dosis  de  compresión  durante  la  mezcla.  Al  contrario  de  lo  que  muchos  piensan,  no  hay  que  recortar  nunca  en  graves  (a  menos  que  sature,  claro).  Un  refuerzo   en   100  Hz   para   darle  más   cuerpo   y   entre   2   y   3   Khz   para   darle  más   presencia   en   la  mezcla.   En  cuanto  a   la  panoramización,  suele  estar  centrado,  pues   junto  al  bombo,   la  caja  y   la  voz,  son  la  base  de  la  canción.  

Las  guitarras  eléctricas  

Debido   a   la   diversidad   de   estilos   y   técnicas,   sería   muy   difícil   establecer   reglas   para   colocarlas  correctamente  en   la  mezcla.  Como  norma  general,  se  deben  cortar  por  debajo  de  150-­‐200  Hz  para  evitar  que   choquen   con   el   bajo   y   el   bombo.   La   panoramización   depende   de   su   uso:   si   son   rítmicas   y   están  grabadas  dobles  se  pueden  usar  totalmente  panoramizadas,  si  es  un  riff  o  un  solo  quizás  al  centro,  si  va  de  acompañamiento  a  un  lado…    

 

Page 32: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   32  

Resto  de  instrumentos  

En  general,  estos  instrumentos  van  acompañando  al  resto,  por  lo  que  suelen  estar  recortados  en  graves  para  que  empasten  mejor  en  la  mezcla  y  panoramizados  fuertemente  para  no  restarle  peso  a  la  canción,  a  excepción  en  los  momentos  en  los  que  son  solistas.  

La  mezcla  

Tal   como   comentábamos,   lo   más   importante   de   una   mezcla   es   el   equilibrio   entre   la   voz   y   la   parte  rítmica,  por   lo  que  prestaremos  especial  atención  al  balance  voz-­‐bombo-­‐caja-­‐bajo  que  es  donde  reside   la  magia   de   la   canción   Una   vez   que   están   equilibrados,   situamos   el   resto   de   los   elementos   de   la   batería  exceptuando   los   micros   generales   de   ambiente.   Cuando   todo   suene   a   nuestro   gusto,   levantamos   los  overheads  y  ambientes  poco  a  poco  y  se  corrige  el  sonido  del  resto  de  los  instrumentos  para  mantener  el  mismo  equilibrio  con  la  voz,  momento  para  introducir  el  bajo  y  tener  el  corazón  de  la  canción.  

En  este  punto  lo  ideal  es  agregar  las  guitarras  y  darles  el  protagonismo  deseado.  Después  de  introducir  las   guitarras,   podremos   introducir   los   sintes,   colchones   de   cuerdas…   e   ir   recortando   su   espectro  acomodándolos  con  la  ecualización.  Cuando  la  mezcla  suene  correctamente  y  equilibrada,  es  el  momento  de  escucharlo  en  estéreo.  Notaremos  cómo  hay  ciertos  instrumentos    que  suenan  demasiado  alto  y  algunos  efectos   suenan   demasiado   evidentes,   por   lo   que   procederemos   a   hacer   las   pertinentes   correcciones,  comprobándolas  constantemente  en  mono  para  tener  una  mezcla  coherente  en  ambos  formatos.  

Trucos  

Durante   la   mezcla,   se   suele   automatizar   muchos   parámetros,   como   volúmenes   y   envíos   de   efectos,  dándole  énfasis  a  distintas  partes  o,  simplemente,  equilibrando  la  dinámica.  Especialmente  interesante  es  añadir  eco  o  reverberación  a  ciertas  palabras  de  la  voz,  o  mover  objetos  en  el  panorama.  

Compresión  en  el  master:  Este  es  un  tema  muy  peliagudo,  pero  lo  cierto  es  que  el  sonido  del  compresor  es   el   sonido  de  muchos   estilos  musicales.   El  motivo  de  mezcla   con   compresión  es   que  el   balance  de   los  instrumentos  suele  ser  bastante  diferente  al  aplicarla,  constituyendo  a  veces  una  desagradable  sorpresa.  

La  mezcla:  ecualizadores  y  procesadores  de  dinámica  

Los  procesos  técnicos  deben  estar  al  servicio  de  la  música.  Esto  quiere  decir  que  no  los  debemos  aplicar  libremente,  sino  que  debemos  saber  para  qué  hacemos  una  modificación  en   las  pistas  que  tenemos.  Hay  que  tener  en  cuenta  que  debemos  tenerlos  todos  en  mente  cuando  mezclemos.  Todos  los  procesos  tienen  que  aplicarse  de  forma  fluida  y  no  de  forma  separada.  

Introducción  a  la  ecualización  

La   ecualización   nos   permite   cambiar   el   balance   frecuencial   de   una   señal.   Por   tanto   usaremos  ecualización  para  reforzar  ciertas  frecuencias   importantes  de  un  sonido  o  atenuar  otras  con  el   fin  de  que  todas  las  pistas  suenen  de  forma  correcta  de  forma  conjunta.    

Además,  hay  que  tener  en  cuenta  el  llamado  “enmascaramiento”:  unos  sonidos  pueden  ocultar  otros  de  diferente  frecuencia.  Por  ejemplo,  una  guitarra  eléctrica  con  mucha  riqueza  frecuencial  y  una  voz.  Lo  más  probable  es  que  si  buscamos  un  sonido  genial  en  la  guitarra  eléctrica  sin  tener  en  cuenta  la  voz,  al  añadir  la  voz   no   seamos   capaces   de   hacer   que   suene   clara.   En   ese   caso   tendremos   un   gran   problema   de  enmascaramiento,   y   por   tanto   debemos   buscar   una   buena   ecualización   para   la   voz   y   luego   añadir   la  guitarra  y  atenuar  las  frecuencias  que  veamos  oportunas  para  dejar  espacio  frecuencial  a  la  voz.  

 

Page 33: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   33  

Tipos  de  ecualizadores  usados  en  mezcla  

En  mezcla  suelen  usarse  unos  tipos  de  ecualizadores  determinados.  Sea  cual  sea  el  ecualizador,  ya  sea  software   o   hardware,   o   de   una   compañía   u   otra,   si   tenemos   claro   como   funcionan   estos   tipos   de  ecualizadores  podremos  usar  uno  u  otro  de  forma  intuitiva,  ya  que  todos  funcionan  de  forma  muy  similar.  

Por   un   lado   tenemos   los   ecualizadores   paramétricos.   Este   tipo  de   ecualizadores   tienen   tres   controles  fundamentales:  la  frecuencia  central  en  la  que  vamos  a  aplicar  el  refuerzo  o  la  atenuación,  ajustando  la  Q  o  amplitud  de  onda  y  la  ganancia.  Hay  que  tener  en  cuenta  que  para  retoques  muy  finos  vamos  a  necesitar  una  Q  alta,  mientras  para  retoques  en   los  que  necesitemos  modificar  un  amplio  margen  de  frecuencias  a  partir  de  la  frecuencia  central  usaremos  una  Q  baja.  

Otro   tipo   de   ecualizadores   muy   usados   en   mezcla   con   los   ecualizadores   de   estantería   o   shelving.  Básicamente   en   un   ecualizador   de   estantería   vamos   a   fijar   una   frecuencia   a   partir   de   la   cual   vamos   a  reforzar  o  atenuar.  En  algunos  casos  vamos  a  poder  tener  un  control  adicional  que  nos  va  a  permitir  definir  lo  estrecho  que  queramos  que  sea  la  pendiente.  

Por  último,  en  mezcla  se  usan  mucho  los  filtros.  En  estos  filtros  tenemos  un  control  principal,  que  es  la  frecuencia  de  corte.  Además,  en  algunos  modelos  podemos  elegir  la  pendiente  del  corte.  Los  filtros  cortan  todas  las  frecuencias  que  se  encuentren  por  encima,  en  el  caso  de  los  filtros  paso-­‐bajo,  o  por  debajo,  en  el  caso  de  los  filtros  paso-­‐alto,  de  la  frecuencia  de  corte.  

Procesadores  de  dinámica  

Los  procesadores  de  dinámica  son  unas  herramientas  fundamentales  a  la  hora  de  conseguir  una  buena  mezcla.   Existen   un   gran   número   de   tipo   de   procesadores   de   dinámica   (puertas   de   ruido,   compresores,  expansores  upward,  expansores  downward,  duckers,   limitadores,  de-­‐essers...).  Sin  embargo,   todos  tienen  un  fin  común,  que  es  el  de  modificar  la  amplitud  de  la  señal  respecto  al  tiempo.  

Además,  su  funcionamiento  está  basado  en  el  mismo  principio,  que  es  el  que  se  muestra  en  el  esquema:  

La   señal  de  audio  de  entrada  es   separada  dos.  Por  un   lado   tendremos   la   señal  de  audio  propiamente  dicha,   la   cual   será   procesada,   y   una   señal   de   control   o   detección   (key   para   los   anglosajones).   Esas   dos  señales  viajan  a  lugares  diferentes.  La  señal  de  audio  se  envía  a  un  amplificador,  el  cual  está  controlado  por  un  circuito  de  detección,  que  compara  los  ajustes  que  hemos  hecho  en  el  procesador,  con  lo  que  tenemos  en  la  señal  de  detección,  produciendo  una  u  otra  ganancia  en  cada  instante  en  el  amplificador  a  donde  llega  la   señal   de   audio,   por   lo   que   la   salida   del   procesador   dependerá,   por   un   lado,   de   la   señal   de   audio   que  tenemos   a   la   entrada,   y   de   los   ajustes   que   hemos   usado   en   el   procesador.   Este   diagrama   puede  complicarse  un  poco  más  al  usar  una  señal  de  detección  o  key  diferente  a  la  señal  de  audio  de  entrada  en  el  procesador.    

En  cualquier  procesador  de  dinámica  vamos  a  tener  un  control  llamado  threshold  (o  umbral).  Con  este  control  fijamos  un  nivel,  y  el  procesador  modifica  la  señal  de  audio  que  tiene  a  la  entrada  en  función  de  la  relación  de  ese  nivel  que  hemos  marcado  y  el  nivel  que  tienen  en  cada  instante  dicha  señal  de  audio.    

Page 34: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   34  

Puertas  de  ruido  

Estos  procesadores  dejan  pasar  la  señal  de  audio  sin  modificar,  siempre  que  la  señal  tenga  un  nivel  por  encima  del  fijado  en  el  threshold.  Cuando  la  señal  de  audio  pasa  a  tener  un  nivel  por  debajo  del  fijado,  la  puerta  de  ruido  reduce  el  nivel  de  la  señal  en  función  de  lo  indicado  en  los  ajustes.  

Básicamente  una  puerta  de  ruido  tiene  los  siguientes  controles:  • Nivel   de   umbral   (Threshold):   Fija   el   nivel,   medido   en   dBs,   por   debajo   del   cual   la   señal   va   a   ser  

atenuada.  • Tiempo  de  ataque  (Attack):  Con  el  ataque  indicamos  el  tiempo  que  tarda  la  puerta  de  ruido  en  volver  

a  su  estado  de  ganancia  unidad  un  vez   la  señal  ha  superado  el  nivel  de  umbral,  es  decir,  el   tiempo  que  tarda  la  puerta  en  volver  a  su  estado  de  reposo.  

• Tiempo   de  mantenimiento   (Hold):   Determina   un   tiempo   fijo   durante   el   cual   la   puerta   de   ruido   se  mantendrá  en  ganancia  unidad  una  vez  que  la  señal  pasa  a  tener  un  nivel  más  bajo  que  el  que  hemos  fijado  en  el  umbral.  

• Tiempo  de  relajación   (Release):  Determina  el   tiempo  que  tarda   la  puerta  de  pasar  de  su  estado  de  ganancia  unidad  a  alcanzar  toda  la  atenuación  indicada  una  vez  que  la  señal  tiene  un  nivel  por  debajo  del  umbral.  

• Atenuación:   Determina   cuantos   dBs   de   atenuación   vamos   a   tener   en   la   salida   cuando   la   señal   de  audio  tiene  un  nivel  más  bajo  que  el  fijado  en  el  umbral.  

Hay  que  tener  en  cuenta  que  los  medidores  de  niveles  que  nos  encontramos  en  las  puertas  de  ruido,  ya  sean  hardware  o   software,  nos  van  a   ser  muy  útiles  a   la  hora  de  configurar  una  puerta,   ya  que  vamos  a  poder  determinar  los  niveles  óptimos  de  umbral  y  de  atenuación  y  nos  van  a  permitir  ver  con  qué  rapidez  funciona  la  puerta  en  función  de  los  tiempos  con  las  que  la  hayamos  configurado.  

Compresores  

Los  compresores,   junto  a   las  puertas  de   ruido,   son   los  procesadores  de  dinámica  más  usados  durante  una  mezcla,  ya  que  mantienen  controlada  la  dinámica  de  la  señal,  con  lo  que  se  consigue  que  el  sonido  del  tema   musical   esté   bien   balanceado   y   controlado   en   todo   momento.   Al   contrario   que   sucedía   con   las  puertas  de  ruido,  un  compresor  se  mantiene  sin  actuar  siempre  que  la  señal  esté  por  debajo  de  lo  marcado  en  el  umbral.  Cuando  la  señal  supera  el  nivel  de  umbral,  el  compresor  produce  una  atenuación  en  el  nivel  de  la  señal.  Por  tanto,  el  compresor  lo  que  hace  es  aplastar  la  señal,  igualando  las  partes  fuertes  y  las  partes  débiles.  Un  uso  muy  típico  de  un  compresor  en  una  mezcla  es  utilizarlo  en  la  pista  de  voz  solista.    

Los  controles  básicos  de  un  compresor  son  los  siguientes:  • Nivel   de   umbral   (Threshold):   Fija   el   nivel,   medido   en   dBs,   por   encima   del   cual   la   señal   va   a   ser  

atenuada.  • Tiempo  de  ataque  (Attack):  Determina  el  tiempo  que  tarda  el  compresor  en  empezar  a  atenuar  una  

vez  que  la  señal  ha  superado  el  umbral.  Es  un  parámetro  muy  importante,  ya  que  va  a  determinar  el  carácter  del  sonido.  Si  usamos  un  tiempo  de  ataque  muy  corto  por  ejemplo  lo  que  vamos  a  conseguir  es  eliminar  el  carácter  transitorio  de  la  pista,  si  por  ejemplo  hacemos  eso  en  un  bombo  eliminaremos  mucha  pegada.  

• Tiempo  de  relajación  (Release):  Determina  el  tiempo  con  el  que  el  compresor  deja  de  actuar  una  vez  que   la   señal   pasa   a   tener   un   nivel   inferior   del  marcado   en   el   umbral.   También   es   un   control   que  determina  en  gran  medida  el  carácter  del  sonido.  

• Ratio:  Determina  la  cantidad  de  atenuación  que  va  a  provocar  el  compresor.  La  forma  de  medir  esta  atenuación  es  un  poco  más  complicada  que  en  el  caso  en  el  que  dejamos  una  atenuación  fija  (como  

Page 35: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   35  

lo  que  sucedía  en  las  puertas  de  ruido).  Esto  se  debe  a  que  ahora  la  reducción  de  ganancia  va  a  ser  dinámica,  y  va  a  depender  del  nivel  que  tenga  la  señal  de  entrada.  Cuanto  más  fuerte  sea  el  nivel  de  entrada  más  atenuación  vamos  a  tener.  

• Ganancia   (Makeup):   Una   compresión   implica   una   reducción   del   volumen   general   de   la   señal   de  audio.  Los  compresores  suelen  tener  un  control  para  compensar  esa  reducción  de  ganancia.  

Ecualizando  ¿para  qué  tenemos  que  ecualizar?  

Antes  de  nada,  hay  que  tener  en  cuenta  que  no  existen  fórmulas  milagrosas  sobre  ecualización.  Lo  que  manda  son  vuestros  oídos  y  vuestra  propia  experiencia  y  gusto.  Otra  cosa  a  tener  en  cuenta  es  que  durante  el   proceso   de   mezcla,   y   en   especial   en   lo   referente   a   ecualización,   los   monitores   juegan   un   papel  fundamental.    

Con  la  ecualización  durante  la  mezcla  debemos  conseguir  dos  cosas.  Por  un  lado,  debemos  corregir  las  posibles  carencias  que  tenga  una  pista.  Muchas  veces  las  tomas  microfónicas  de  los  instrumentos  musicales  y  de  la  voz  no  son  todo  lo  correctas  que  debieran,  ya  sea  por  mala  acústica  en  las  salas  donde  se  grabaron,  por  no  haber  usado  buenos  previos,  buenos  conversores,  buenos  micrófonos…  También  puede  ocurrir  que  las  tomas  hayan  sido  realizadas  en  diferentes  estudios.  Otras  veces  todo  está  grabado  tan  magistralmente  que  todos  los  instrumentos  suenan  de  maravilla  por  si  solos.  Cuando  esto  sucede  es  probable  que  las  pistas  tengan   componentes   frecuenciales   que   hacen   que   el   sonido   de   un   instrumento   en   cuestión   sea  maravilloso,  pero  que  en  realidad  tengamos  muchos  componentes  que  realmente  no  nos  hacen  falta.  Esto  suele  pasar  cuando  trabajamos  con  instrumentos  virtuales.  

Por  otro  lado,   la  ecualización  durante  la  mezcla  debe  asegurar  que  los  diferentes  elementos  musicales  encajen   perfectamente   los   unos   con   los   otros.   Como   ya   dijimos   en   el   artículo   anterior,   dos   elementos  pueden  “chocar”  debido  a  enmascaramiento,  o  simplemente  pueden  no  quedar  bien  cuando  los  hacemos  sonar  juntos.    

Aparte  de  estas  dos   funciones   fundamentales  de   la   ecualización  durante   la  mezcla,   podríamos   añadir  una   tercera   función   menos   importante   que   las   anteriores:   el   uso   de   la   ecualización   como   herramienta  creativa.  Por  ejemplo,  un  efecto  muy  usado  es  el  de  simular  una  voz  telefónica  o  radiofónica  

No  es  mala   la   idea   la  de  plantearse   la  ecualización  en  dos  etapas  diferenciadas.  Por  un   lado  debemos  solventar  los  problemas  que  presente  una  pista,  y  por  otro  debemos  ecualizar  la  pista  para  que  trabaje  bien  con  las  demás  pistas.  

La  técnica  del  barrido  

Imaginad  que  tenéis  una  pista  de  guitarra  que  tiene  una  resonancia  extraña  en  bajas  frecuencias.  ¿Cómo  podemos  buscar  las  frecuencias  que  nos  están  molestando?  La  técnica  más  usada  para  esto  es  la  técnica  de  barrido.  En  el  caso  de  esa  guitarra,  en  un  ecualizador  paramétrico  configuraríamos  una  de  las  bandas  a  una  frecuencia  de  500Hz,  pondríamos  un  ancho  de  banda  muy  estrecho  (del  orden  de  Q=5)  y  pondríamos  una  ganancia  de  unos  8dBs.  Lentamente  iríamos  modificando  la  frecuencia  hacia  abajo  hasta  encontrar  el  punto  donde  más  se  notase  esa  resonancia  molesta.  Una  vez  localizada  dejamos  la  frecuencia  fija  y  jugamos  con  la  Q,  cerrando  el  ancho  de  banda  del  ecualizador,  y  la  ganancia  hasta  que  hayamos  mitigado  los  efectos  de  la  resonancia  sin  que  el  sonido  propio  de  la  guitarra  se  resienta  demasiado.  

A  la  hora  de  realizar  cualquier  cambio  de  ecualización  en  una  pista,  sea  cual  sea  el  fin  de  este  cambio  de  ecualización,  debemos  tener  en  cuenta  algunas  cuestiones   importantes  sobre  el  proceso  de  ecualización.  Por  un  lado,  tenemos  que  saber  que  cualquier  cambio  en  unas  determinadas  frecuencias  afectan  a  la  forma  en  que  percibimos  el  resto  de  frecuencias.  Esto  se  debe  en  gran  parte  por  el  efecto  de  enmascaramiento  que  ya  hemos   citado  anteriormente,  el   cual   se  hace  más  patente  en   las   altas   frecuencias.  Por  otro   lado,  

Page 36: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   36  

también   es  muy   importante   tener   en   cuenta   que   a   la   hora   de   ecualizar   es  mucho  mejor   intentar   hacer  recortes   que   refuerzos,   es   decir...   es   mejor   quitar   que   poner.   Esto   se   debe   a   que   los   refuerzos   en   los  ecualizadores  producen  una  coloración  no  deseable  debido  a  las  distorsiones  de  fase.  Los  refuerzos  suelen  quedar  reservados  para  cuando  no  quede  más  remedio  o  cuando  se  trate  de  dar  al  sonido  de  una  pista  un  carácter  que  en  realidad  no  tenía  originalmente.  

Cuando  hagamos  refuerzos  a  muy  bajas  frecuencias  (por  debajo  de  los  200Hz)  debemos  tener  en  cuenta  que   un   refuerzo   leve   en   dos   frecuencias   es   mejor   que   hacer   un   refuerzo   grande   a   una   determinada  frecuencia.  Por  último,  hay  que   intentar  que   los  elementos  principales  suenen  de   la   forma  más  natural  y  agradable  posible.    

La  ecualización  correctora  

Como   ya   hemos   dicho   antes,   en  muchas   ocasiones   podemos   tener   pistas   con   algunas   carencias   que  debemos   corregir.   Por   otro   lado   podemos   intentar   que   una   determinada   pista   suene   de   forma   más  agradable,  por  ejemplo  haciendo  que  su  sonido  tome  un  cariz  que  originalmente  no  tenía.    

Aunque  en  esto  de  la  ecualización  generalizar  es  muy  peligroso,  existen  unas  determinadas  frecuencias  que  suelen  ser  bastante  problemáticas.  En  muchas  ocasiones  encontramos  pistas  poco  definidas  o  con  un  sonido  muy  áspero.  Casi  siempre  el  problema  se  centra  en  frecuencias  comprendidas  entre  300Hz  y  800Hz  aproximadamente.  Podemos  hacer  un  primer  barrido  para  ver  en  qué  punto  tenemos  ese  sonido  que  hace  que  la  pista  no  esté  bien  definida.  Una  vez  localizada  la  frecuencia  tan  solo  queda  el  ajustar  la  Q  y  el  nivel  de  recorte,  teniendo  en  cuenta  que  un  recorte  excesivo  puede  hacer  que  la  pista  pierda  todo  su  carácter.    

En   algunas  ocasiones  puede  que  un   refuerzo   en   frecuencias  muy   graves  pueda   venir   bien   en   algunas  pistas  para  darle  grandiosidad  al  sonido.    

La  ecualización  como  herramienta  de  empaste  

Hay  que  tener  en  cuenta  que  el  proceso  de  ecualización  es  lo  más  delicado  en  una  mezcla  y  es  donde  un  simple  cambio  puede  hacer  que  una  mezcla  sea  realmente  buena.  También  debemos  tener  en  mente  que  el   proceso   de  mezcla   implica   un   acto   intuitivo   e   instantáneo,   lo   que   quiere   decir   que   no   debemos,   por  ejemplo,   ecualizar   ni   antes   ni   después   de   aplicar   los   procesos   de   dinámica.   Todo   debe   fluir   de   forma  natural.  Lo  primero  que  debemos  hacer  es  conseguir  una  buena  coherencia  entre  la  base  rítmica  y  la  voz.  Luego   subimos   el   bajo   y   a   partir   de   ahí   empezaríamos   a   añadir   los   demás   elementos,   haciendo   las  modificaciones   oportunas   en   las   pistas   que   vamos   añadiendo   y   retoques   en   las   pistas   que   ya   teníamos  antes  para  hacer  que  todo  empaste  bien  junto.  

Lo   que   debemos   conseguir   es   que   el   sonido   global   de   la   mezcla   sea   agradable   y   que   sirva   a   las  intenciones   musicales   del   tema.   Cada   elemento   debe   escucharse   claramente   sin   que   unos   elementos  estorben   a   otros.   Sin   embargo   esto   no   sucede   por   azar.   Lo   normal   es   que   a   medida   que   añadamos  elementos  a  la  mezcla  empiecen  a  obstaculizarse  los  diferentes  elementos.  

Existen  dos  formas  fundamentales  de  resolver  este  problema.  La  más  sencilla  radica  en  panoramizar  los  elementos   que   chocan   entre   si.   Sin   embargo,   esto   se   puede  hacer   en   contadas   ocasiones;   en  otro   caso,  tendremos   que   meter   mano   a   las   ecualizaciones   de   las   pistas.   Lo   que   podemos   hacer   es   o   mover   la  frecuencia   de   refuerzo   de   una   de   las   pistas   un   poco   hacia   arriba   o   hacia   abajo,   haciendo   que   en   esa  frecuencia  no  choquen  ambas  pistas,  o  haciendo  una  pequeña  atenuación  en  la  pista  cuyo  sonido  natural  se   interpone   a   la   ecualizada.   También   puede   suceder   que   una   de   las   pistas   tenga   una   zona   en   la   que  hayamos   hecho   un   recorte   frecuencial.   En   ese   caso,   para   que   las   dos   pistas   suenen   bien   diferenciadas  podemos   hacer   un   pequeño   refuerzo   en   la   otra   pista   en   la  misma   frecuencia   en   la   que   la   otra   tiene   el  recorte.  Lo  importante  es  hacer  que  ninguna  pista  choque  con  la  otra.    

Page 37: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   37  

Consejos  sobre  la  ecualización  de  instrumentos  

El   bombo   tiene   tres  márgenes   frecuenciales   bien   definidos.   Cuando   queramos   añadir   profundidad   al  bombo,  van  a  ser  las  frecuencias  entre  50  y  100Hz  las  que  vamos  a  tener  que  mover.  Tened  en  cuenta  que  si   queremos   reforzar   en   esas   frecuencias   vamos   a   tener   que   aplicar   la   técnica  de   la   “frecuencia  mitad  o  doble”  que  ya  vimos  anteriormente,  siempre  que  nos  sea  posible.  Es   importante  resaltar  que  un  refuerzo  excesivo   de   estas   frecuencias   puede   provocar   que   el   bombo   tenga   un   sonido   demasiado   confuso   que  provoque   inestabilidad  en  el   sonido  global  de   la  mezcla.  También   tenemos  que   tener  en  cuenta  que  por  debajo  de  esos  50Hz  aproximadamente  no  vamos  a  tener  nada  aprovechable,  así  que  no  sería  mala  idea  el  que  aplicarais  un  filtro  paso  alto.  

La  caja  tiene  cuatro  zonas  frecuenciales  bien  definidas.  Por  un  lado  tenemos  el  rango  de  120Hz  a  350Hz  aproximadamente  que  confiere  a  la  caja  el  sonido  “gordo”.  En  la  actualidad  no  suele  tener  mucho  sentido  el   usar   frecuencias   en   la   caja   por   debajo   de   esos   120Hz,   ya   que   no   contienen   ninguna   información  importante  y  una  excesiva  carga  en  esas  frecuencias  puede  provocar  que  el  sonido  de  la  caja  sea  confuso.  No  estaría  de  más  usar  un  filtro  paso  alto  en  esa  frecuencia  aproximadamente.  El  sonido  de  la  caja  en  una  mezcla  es  muy   importante,  y   la  ecualización  tiene  mucha  culpa  de  él.  Su  sonido  va  a  determinar  en  gran  medida  el  carácter  del  sonido  una  vez  que  la  mezcla  está  terminada,  así  que  hay  que  esmerarse  en  hacer  una  buena  ecualización  en  ella.  

Timbales:   Debido   a   que   existen   timbales   de  muy   diferentes   diámetros   y   profundidades,   nos   vamos   a  tener  que  esmerar  bastante  en  encontrar  las  frecuencias  importantes  de  cada  uno.  Por  norma  general,  los  timbales  de  suelo  suelen  tener  frecuencias  útiles  hasta  aproximadamente  unos  100Hz,  mientras  que  los  de  rack  llegan  hasta  más  o  menos  250Hz  o  300Hz.  Podemos  poner  filtros  para  eliminar  frecuencias  más  bajas  y  así  asegurarnos  la  eliminación  de  frecuencias  innecesarias  y  de  ruidos  a  bajas  frecuencias.  Sin  embargo,  hay  veces  en  que  para  crear  un  efecto  de  profundidad,  sobre  todo  cuando  un  timbal  de  suelo  se  usa  como  base  en  un  ritmo,  en  el  que  un  refuerzo  de  frecuencias  graves  puede  ser  interesante.  

El  charles  (hi-­‐hat):  Podemos  colocar  el  filtro  paso  alto  más  o  menos  en  150Hz,  y  jugar  con  las  frecuencias  comprendidas   entre   150Hz   y   300Hz   para   buscar   empaste   en   el   sonido   de   la   baqueta   al   chocar.   Cuando  queramos  añadir  brillo  podemos  usar  un  ecualizador  de  estantería  que  empiece  a  actuar  a  partir  de  10kHz  a  13kHz.    

Platos:  Cuando  tengamos  pistas  individuales  para  cada  plato  o  alguno  de  ellos,  jugaremos  en  la  zona  de  100Hz  y  300Hz,  al  igual  que  lo  hacíamos  en  el  charles,  para  ajustar  el  sonido  del  golpe  de  la  baqueta  con  el  plato.  Este  ajuste  es  muy  importante  en  el  ride,  mientras  que  en  platos  como  los  crash  o  los  slpash  no  tiene  importancia,  ya  que  lo  que  nos  importará  en  ellos  será  el  efecto  de  las  colas  del  sonido,  en  vez  del  sonido  definido  de  la  baqueta  al  chocar  con  el  plato.  En  los  platos,  al  igual  que  sucedía  con  los  timbales,  vamos  a  tener   que   ajustar   muy   bien   las   frecuencias,   ya   que   existen   infinidad   de   platos   distintos,   tanto   por   su  diámetro,  forma  y  materiales  de  fabricación.    

Los   overheads   son   pistas   muchas   veces   subestimadas   en   una   mezcla,   incluso   algunos   ingenieros  comienzan  una  mezcla  normalmente   a  partir   de  estas  pistas.   Eso   se  debe  a  que  estas  pistas  nos  dan  un  sonido  global  de  la  batería,  el  cual  contiene  el  ambiente  de  la  sala  donde  se  grabó  la  batería  y  una  buena  distribución  espacial  de  la  batería.    

El   bajo   es   el   instrumento   con   más   componentes   frecuenciales   de   todos,   ya   que   tiene   frecuencias  importantes   en   prácticamente   todo   el   espectro   audible.   Fundamentalmente   el   bajo   tiene   dos   zonas  frecuenciales  muy  importantes.  Por  un  lado  está  la  zona  comprendida  entre  80Hz  y  100Hz,  donde  el  sonido  del  bajo  tiene  su  peso  o  profundidad.  Por  otro   lado  está  el   rango  que  va  desde  120Hz  a  300Hz,  donde  el  

Page 38: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   38  

bajo  define  su  “color”.  En  estas  frecuencias   la  gente  suele  cometer  muchos  errores.  Algunos  piensan  que  para  hacer  definida  la  línea  de  bajo  se  necesita  eliminar  mucha  de  la  información  contenida  en  la  frecuencia  más  baja,  y  reforzar  la  alta.  Esto  se  debe  a  que  mucha  gente  tiene  asociado  el  sonido  del  bajo  a  tan  solo  sus  componentes  a  frecuencias  bajas.  

En   las   guitarras   acústicas   vamos   a   tener   tres  márgenes   de   frecuencias  muy   importantes.   Por   un   lado  tenemos  las  frecuencias  bajas.  Dependiendo  del  margen  donde  reforcemos  o  atenuemos  vamos  a  tener  un  carácter  en  el  sonido  muy  distinto.  La  definición  de  las  acústicas  suele  trabajarse  en  la  zona  entre  2’5kHz  a  5kHz.  Hay  que  tener  cuidado  con  esta  banda,  ya  que  un  refuerzo  excesivo  puede  provocar  que  el  sonido  sea  demasiado  “nasal”.  El   sonido  brillante  y  metálico  de   las  acústicas  se  encuentra  en   la  banda  comprendida  entre  5kHz  y  10kHz.  Dependiendo  de  vuestras   intenciones  y  del   tipo  de  guitarra  usada  deberéis   reforzar,  atenuar  o  dejar  tal  y  como  está  esa  banda.  

El  análisis   frecuencial  de   las  guitarras  eléctricas  es  muy  complicado,  ya  que  su  sonido  depende  mucho  del  estilo  musical,  del  modelo  de  guitarra  usado,  del  amplificador,  de  los  efectos  usados,…  También  hay  que  tener  en  cuenta  que  el   sonido  de   las  pistas  de  guitarra  eléctrica   suelen  estar  ya  ecualizadas  en  el  propio  amplificador,  y  aunque  en  mezcla   se  hace  necesaria  una  nueva  ecualización,  esta  ecualización  usada  a   la  hora  de  buscar  el  “tono”  de  la  guitarra  hace  muy  difícil  también  el  análisis  frecuencial.  En  guitarras  limpias  podemos  definir  unas  frecuencias  importantes  muy  parecidas  a  las  que  tenemos  en  guitarras  acústicas.    

La  voz  es  el  elemento  más  importante.  En  una  voz  existen  tres  zonas  frecuenciales  muy  bien  definidas  y  de  las  que  la  inteligibilidad  de  la  palabra  depende  en  gran  medida.  Además,  las  frecuencias  que  contienen  menos   densidad   de   energía   son   las   que  menos   tienen   que   ver   con   dicha   inteligibilidad.   Las   frecuencias  bajas  de  la  voz  corresponden  con  el  área  comprendida  entre  125Hz  y  250Hz.  Aunque  este  rango  sea  muy  estrecho  es  muy   importante,  ya  que  en  este  margen  de  frecuencisa  se  contienen   la   información  tímbrica  fundamental   de   la   voz;   es   decir,   es   en   este  margen   donde   está   la   información   de   quien   es   el   que   está  halando  (o  cantando).  Luego  tenemos  la  zona  donde  se  concentra  casi  toda  la  energía  de  la  voz,  y  que  es  propia  de   las   vocales.  Esta   zona  comprende  desde  300Hz  hasta   los  1’5kHz  aproximadamente.  Por  último  tenemos   la   zona  entre  1’5kHz  y  4kHz,  donde  se  concentran   las  consonantes,  y  que,  aunque  no  contenga  apenas  densidad  de  energía,  es  esencial  para  la   inteligibilidad.  Esta  separación  del  rango  frecuencial  de  la  voz  va  a  ser  muy  importante  a  la  hora  de  aprender  a  ecualizar  una  voz,  ya  que  aparte  de  buscar  un  sonido  agradable  en  la  voz  debemos  mantener  la  inteligibilidad  siempre  bien  alta.  

La  mezcla:  modificando  la  dinámica  

Hay   que   tener   en   cuenta   que   el   compresor   es   un   dispositivo   que   nos   puede   generar   muchas  satisfacciones,  pero  también  muchos  dolores  de  cabeza,  y  su  correcto  uso  es  en  gran  medida  lo  que  define  bien  a  un  profesional.  Cada  persona  tiene  una  filosofía  propia  a  la  hora  de  usar  los  compresores,  aunque  las  cantidades  de  compresión  y  sus  ajustes  dependan  en  gran  medida  del  tema  musical  con  el  que  trabajemos.  

A  medida  que   se  han   ido  añadiendo  más  y  más  pistas  en   las  producciones  musicales,   se  han   sumado  más  y  más  compresores.  Hoy  en  día,  el  sonido  de  las  producciones  modernas  está  caracterizado  por  el  uso  de   numerosos   compresores.   Mucha   gente   tiende   a   sobrecomprimir   todo   lo   que   pasa   por   sus   manos.  Debemos  tener  en  cuenta  que  una  de  las  características  más  importantes  de  la  música  es  precisamente  la  dinámica,   y   que   es   ella   la   que   en   gran  medida   hace   que   un   tema  musical   no   sea   aburrido.   Si   un   tema  musical   tiene   cambios   de   intensidad   será   un   tema   que   excite   al   oyente,  mientras   que   un   tema  musical  totalmente  lineal  aburrirá.  Es  importante,  por  tanto,  que  seamos  capaces  de  mantener  la  dinámica  propia  del   tema   musical   que   estemos   mezclando.   Hoy   en   día,   por   desgracia,   no   es   inusual   escuchar   temas  musicales  que   tienen  una   introducción  musical   sin  batería  que  suena  exactamente  al  mismo  nivel  que  el  

Page 39: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   39  

resto   del   tema.   Esto   hace   que   esa   introducción   pierda   totalmente   el   sentido   artístico   que   querían  imprimirle  los  músicos,  ya  que  probablemente  lo  que  ellos  pretendían  era  que  al  entrar  la  batería  el  tema  diese   una   sensación  de   subida   en   el   oyentes.   Aparte   de   esto   debemos   tener   en   cuenta   la   dinámica   que  cada  instrumento  tiene  dentro  del  tema  musical  e  intentar  mantenerla  también.  

Un  disco   sobrecomprimido   con  unos   niveles   altísimos  nos   dará   la   sensación  de  que   suena  mejor   que  otro  que  mantiene   la  dinámica  tan  solo  si  hacemos  una  comparación  A/B  entre  ellos,  y  tan  solo  nos  dará  esa   sensación  durante  unos   segundos,  hasta  que  veamos  que  el   tema  musical  no   tiene   sentido  artístico.  Esto  se  debe  a  que  cualquier  cosa  a  más  volumen  que  otra  va  a  sonarnos  mejor.  La  razón  de  esto  se  debe  a  que  el   sistema  auditivo  humano  no   tiene  una   respuesta   lineal,   es   decir,   no  oye   todas   las   frecuencias   de  igual  forma.  

Este  fenómeno  se  explica  por  medio  de  las  curvas  isofónicas.  Se  toma  como  referencia  la  sensación  de  sonoridad   (volumen)   que   provoca   en   el   oído   un   cierto   nivel   a   la   frecuencia   de   1kHz,   que   es   donde   el  sistema  auditivo  humano  es  más   sensible.   Luego   se  determina   la   cantidad  de  dB  SPL   (niveles  de  presión  sonora)  que  se  necesitaría  en  todas  las  demás  frecuencias  para  provocar  la  misma  sensación  de  sonoridad.  Para  ello  se  usan  los  fones.  Por  ejemplo,  si  tomamos  los  0dB  a  1kHz,  que  es  justo  el  umbral  por  encima  del  cual   el   oído  humano  empieza   a   escuchar   algo,   vemos  que  mientras   que  una   señal   de   1kHz   con  0dB   SPL  supone   el   umbral   de   audición,   a   100Hz   necesitaríamos   un   nivel   de   más   de   35dB   SPL   para   empezar   a  escuchar.  Por  tanto,  vemos  que  a  frecuencias  bajas  y  a  frecuencias  altas  necesitamos  mucho  más  nivel  para  tener  la  misma  sensación  de  sonoridad  que  a  frecuencias  medias.  Aparte  de  esto,  vemos  que  a  medida  que  los   niveles   van   subiendo,   las   curvas   isofónicas   se   van   aplanando,   lo   que   quiere   decir   que   a  medida   que  subimos  los  niveles  las  diferencias  entre  los  niveles  que  necesitamos  a  bajas  y  a  altas  frecuencias  para  tener  la  misma  sensación  de  sonoridad  que  a  frecuencias  medias  se  van  reduciendo.  

La  única  situación  donde  no  nos  podremos  librar  de   la  sobrecompresión  será  cuando  un  tema  musical  tenga  expectativas  de  ser  difundido  por  radio  o  televisión.  En  este  caso,  debido  a  las  características  técnicas  de  esos  medios  de  comunicación,  es  necesario  sobrepasarse  un  poco  en  el  tema  de  la  compresión  (tanto  en  mastering   como  en  mezcla).   La   solución  es   tan   simple   como  hacer  mezclas   y  mastering  especial   de  esos  temas.   Estas  mezclas   suelen   caracterizarse   por   tener   un  mayor   grado   de   compresión   y   unos   niveles   de  voces  un  poco  más  altos  que  en  las  mezclas  “normales”  que  irán  en  el  álbum.  Al  ingeniero  de  mastering  le  entregaremos  los  doce  temas  normales  más  los  tres  radio  edits,  indicándole  que  finalidad  tienen  esas  tres  mezclas  especiales.  

Es  importante  por  tanto  que  siempre  que  hagamos  una  comparación  entre  dos  temas  musicales,  ambos  tengan  la  misma  sonoridad  para  escuchar  realmente  una  comparación  objetiva  entre   los  dos.  Para  ello   lo  que  debemos  hacer  es  ver  el  nivel  RMS  que  tienen  ambos  temas  y  compensar  el  tema  que  más  nivel  tenga  simplemente  bajando  su  volumen  la  cantidad  de  dBs  RMS  que  tenga  de  diferencia  con  el  otro.  

Tipos  de  compresores  

A   lo   largo   de   la   historia   se   han   ido   desarrollando   diferentes   circuiterías   en   los   compresores.  Muy   al  contrario   de   lo   que   pasa   en   el   mundo   normal,   el   avance   tecnológico   no   ha   supuesto   que   los   modelos  antiguos  se  hayan  devaluado  y  hayan  dejado  de  ser  útiles.    

Las  diferencias  más  notables  entre   los  distintos   tipos  de   compresores  hacen   referencia   a   su  etapa  de  ganancia.   Es   decir,   lo   que   caracteriza   a   un   compresor   es   la   forma   en   la   que   se   produce   la   reducción   de  ganancia  de   la   señal  de  entrada.  Esto   se  debe  a  que   la  diferente   filosofía  de  esa  etapa  de  ganancia   va  a  hacer  que  un  compresor  suene  distinto  de  otro.  Es  muy  importante,  por  tanto,  recordar  que  cada  tipo  de  compresor  va  a  tener  un  sonido  distinto.    

Page 40: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   40  

Si  nos   fijamos  en   los  circuitos  que  determinan   los  cambios  de  ganancia  en   los  compresores,  podemos  hacer  la  siguiente  clasificación:  

• Variable-­‐mu.   Fueron   los   primeros   compresores   que   se   implementaron.   Este   tipo   de   compresores  basan   su   funcionamiento   en   un   tipo   especial   de   válvula   llamada   variable-­‐mu.   La   característica  especial  de  esta  válvula  es  que  es  capaz  de  cambiar  la  ganancia  de  forma  dinámica  en  función  de  la  señal  de  entrada.    

• FET.   La   llegada   de   los   semiconductores   al   mundo   de   la   electrónica   supuso   en   muchos   casos   la  sustitución   de   las   grandes   válvulas   por   pequeños   componentes   electrónicos   llamados   transistores.  Este  tipo  de  compresores  se  basan  en  un  tipo  especial  de  transistores  llamados  transistores  de  efecto  de  campo.  Este  tipo  de  compresores  tienen  un  sonido  muy  cristalino  y  tienen  unos  tiempos  bastante  rápidos.    

• Ópticos.  La  etapa  de  ganancia  de  este  tipo  de  compresores  se  basa  en  un  sistema  lumínico.  Por  un  lado  tenemos  una  fuente  de  luz  (de  tipo  incandescente  o  LED)  que  reacciona  ante  las  variaciones  de  nivel   de  entrada.  De  esta   forma   cuanto  más  nivel   tengamos  más   luz   vamos  a   tener.   Por  otro   lado  tenemos  un  elemento  fotodetector  (en  este  caso  un  fototransistor)  que  es  capaz  de  reaccionar  ante  esos  cambios  de   luz,   reduciendo   la  ganancia  en  el  compresor  en   función  de   la  cantidad  de   luz  que  tengamos.  Este   tipo  de   compresores   tienen  unos   tiempos  de  ataque  y   release  muy  altos,  es  decir,  son  compresores  muy  lentos.    

• VCA.  Son  los  compresores  “normales”  que  más  habituados  estamos  a  usar.  Son  los  que  usa  todo  el  mundo   para   controlar   la   dinámica   de   las   pistas   individuales   cuando   no   se   busca   un   sonido  característico   en   la   compresión.   Son   compresores   de   estado   sólido   (transistores)   con   los   cuales  podemos  hacer  controles  muy  precisos  en  la  ganancia  de  la  señal  de  entrada  gracias  a  su  respuesta  rápida  y  sus  alto  grado  de  solidez  en  las  curvas  de  transferencia.  

¿Por  qué  usar  compresores?  

A  medida  que  la  tecnología  de  producción  de  audio  ha  avanzado  se  ha  ido  introduciendo  la  posibilidad  de  usar   cada  vez  más  pistas.  Hoy  en  día,  gracias  a   los   sistemas  digitales  por  ordenador,   casi  no   tenemos  limitación  en   las  pistas  a  usar.  Es  normal  encontrarse  con  una  mezcla  de  unas  70  pistas,  cada  una  con  su  propia  dinámica.  

La  primera  razón  para  usar  compresores  es  la  de  mantener  controladas  la  dinámica  de  todas  las  pistas  dentro  de  una  mezcla.  Cada  uno  tiene  su  propia  filosofía,  pero  también  hay  que  tener  en  cuenta  con  qué  tipo  de  música  estemos   tratando.  Hay  estilos  musicales  en   los  que  casi  no   se  usa  compresión,   como  por  ejemplo  jazz  o  música  clásica.    

Otra  razón  por  la  que  usar  compresores  es  la  de  poder  nivelar  las  señales.  Es  normal  que  un  cantante,  por  muy  bueno  que  sea  y  por  mucha  técnica  que  tenga,  no  sea  capaz  de  cantar  con  el  mismo  nivel  todas  las  frases   dentro   de   una   estrofa,   todas   las   palabras   dentro   de   una   frase   y   todas   las   sílabas   dentro   de   una  palabra.  Para  poder  eliminar  esos  altibajos  en  la  voz  es  necesario  usar  compresores.    

También  a  veces  es  necesario  aplastar  la  señal.  Hay  que  tener  muy  claro  cuando  es  necesario  hacer  esto,  ya  que  nos  vamos  a  cargar  casi  toda  la  dinámica  de  la  pista.  No  suele  ser  una  cosa  que  hagamos  en  muchas  pistas  dentro  de  un  mismo  tema,  y  tan  solo  lo  debemos  hacer  cuando  sea  realmente  necesario.    

Estas  son  las  tres  funciones  básicas  que  tiene  la  compresión  en  una  mezcla,  aunque  podemos  añadir  una  función  extra:  la  compresión  como  recurso  estilístico.  A  veces  podemos  usar  los  compresores  como  efecto  de  sonido,  ya  que  con  ellos  podemos  cambiar  el  carácter  y  el  timbre  propio  de  una  pista.  Para  ello  se  suelen  usar  compresiones  bastante  bruscas  para  alterar  totalmente  el  sonido  de  la  pista.  

Page 41: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   41  

Los  controles  básicos  

Es   muy   importante   para   poder   configurar   bien   un   compresor   el   conocer   en   profundidad   las  posibilidades   que   nos   ofrecen   sus   controles.   Aparte   de   las   diferencias   sónicas   entre   los   distintos  compresores  hay  que  tener  en  cuenta  que  cada  compresor  va  a  tener  unos  controles.  Es  verdad  que  casi  todos   tienen   los   mismos   controles,   pero   algunos   ofrecerán   más   opciones   que   otros,   y   también  dependiendo   de   su   filosofía   de   implementación,   a   algunos   les   faltará   algún   control   básico.   Por   ejemplo,  como   ya   dijimos,   un   Fairchild   670   no   va   a   tener   ratio.   El   fijar   correctamente   el   threshold   es   algo   muy  importante,  ya  que  dependiendo  la  razón  por  la  que  queramos  aplicar  la  compresión  lo  vamos  a  tener  que  situar  en  uno  u  otro  punto  del  nivel  de  la  señal.  Para  configurar  el  threshold  es  importante  que  conozcamos  la  dinámica  de  la  señal.  

La  gente  piensa  que  para  nivelar  un  pista  es  necesario  que   todos   los  niveles  queden  afectados  por   la  compresión,   de   tal   forma   que   sitúan   el   umbral   en   la   parte   baja   de   la   señal.   Con   eso   lo   que   estamos  haciendo   no   es   nivelar,   sino   aplastar   la   dinámica.   Esta   es   la   razón   por   la   que   muchas   voces   suenan  totalmente  lineales.  Es  más,  en  este  caso,  puesto  que  no  se  hacen  una  compresión  correcta,  es  necesario  aplicar  grandes  cuotas  de  compresión  para  conseguir  que  la  pista  no  fluctúe  en  sus  niveles,  llegando  mucha  gente  a  usar   limitadores.  Meditemos  bien  qué  es   lo  que  queremos  conseguir   con  una  nivelación.   Lo  que  pretendemos   es   acercar   los   niveles   más   fuertes   a   los   niveles   más   bajos   de   la   señal.   Para   ello   hay   dos  opciones.   La   incorrecta,   como   hemos   dicho,   es   situar   el   threshold   en   la   parte   baja   de   la   señal   y   aplicar  mucha   compresión,   con   lo   que   conseguiremos   un   sonido   demasiado   lineal   y   aburrido   en   la   pista.   La  correcta   es   situar   el   threshold   en   la   parte  media   de   la   señal   y   aplicar   una   compresión  moderada,   de   tal  forma  que  acerquemos   los  niveles   fuertes   a   los  niveles  bajos   sin   cargarnos   totalmente   la  dinámica  de   la  señal,  consiguiendo  que  la  pista  tenga  consistencia  pero  que  no  suene  muerta.  

Una  vez  que  hemos  visto  cómo  colocar  correctamente  el  threshold,  pasemos  al  ratio.  Con  el  control  de  ratio  vamos  a  indicar  la  relación  que  queremos  que  tenga  la  señal  de  entrada  y  la  señal  de  salida  para  los  niveles   que   estén   encima  del   threshold.   Por   ejemplo,   si   tenemos  un   ratio   de   2:1   a   la   salida   todo   lo   que  supera  el  threshold  tendrá  la  mitad  de  amplitud,  con  4:1  tendremos  un  cuarto,  con  6:1  un  sexto....  Es  muy  importante  remarcar  que  hablamos  de  todo  lo  que  supere  el  threshold  y  no  hablamos  de  toda  la  señal.  Es  muy  común  confundir  las  cosas  en  cuanto  al  ratio.  

De  todo  esto  sacamos  dos  conclusiones  importantes:  

1-­‐ Si  bajamos  el  threshold  tendremos  más  reducción  de  ganancia.  

2-­‐ Si  bajamos  el  ratio  tendremos  menos  reducción  de  ganancia.  

Vayamos  ahora  con  las  constantes  de  tiempo.  El  tiempo  de  ataque  es  el  tiempo  que  tarda  el  compresor  en  alcanzar  toda  la  reducción  de  ganancia,  mientras  que  el  tiempo  de  release  es  el  tiempo  que  tarda  el    

Funciones  de  transferencia  

Una   función   de   transferencia   es   un   gráfico   que   enfrenta   los   niveles   que   tenemos   tanto   a   la   entrada  como  a  la  salida,  de  tal  forma  que  podemos  saber  qué  nivel  vamos  a  tener  a  la  salida  ante  cualquier  valor  de  la  entrada.  Cuando  tratemos  con  procesadores  de  dinámica  va  a  ser  muy  común  encontrarnos  con  este  tipo  de  gráficas,  sobre  todo  en  manuales  de  instrucciones  y  en  bastantes  interfaces  gráficos  de  plugins  de  procesadores  de  dinámica.    

Veamos   en   primer   lugar   la   función   de   la   ganancia   unidad   (dibujo   1):   Esta   podría   ser   la   función   de  transferencia   de   cualquier   procesador   puesto   en   bypass.   La   forma   de   interpretar   estas   gráficas   es   la  siguiente:  Nos   fijamos  en   la  entrada  y   luego  vemos  que  salida  provoca.  Por  ejemplo,   si  nos   fijamos  en  el  

Page 42: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   42  

nivel  de  entrada  de  -­‐10dBfs  y  vemos  donde  corta  la   línea  roja,  vemos  que  a  la  salida  también  tendríamos  10dBfs.  

Veamos  ahora  la  función  de  transferencia  de  un  amplificador  (dibujo  2):  Esta  función  de  transferencia  se  puede  interpretar  como  el  comportamiento  de  un  amplificador   lineal,  es  decir,   la  entrada  es  multiplicada  por  un  cierto  valor  para  todos  los  valores.  Por  ejemplo  si  nos  fijamos  en  la  entrada  con  -­‐30dBfs  vemos  que  tendríamos   una   salida   de   -­‐12,5dB.   Vemos   que   ante   cualquier   entrada,   la   salida   va   a   dar   la   entrada  multiplicada  por  0’41.  Hay  que  tener  en  cuenta  que  estamos  trabajando  con  dBfs,  es  decir,  que  trabajamos  en   una   escala   negativa.   En   realidad   ese   factor   de   amplificación   de   0’41   nos   está   diciendo   que   estamos  teniendo  una  amplificación  de  2,4  veces  la  señal  de  entrada.  

 

 

Dibujo  1  

 

 

Dibujo  2  

 

Usar   gráficas   de   funciones   de   transferencia   es   una   forma  muy   cómoda   de   poder   ver   cómo   actúa   un  dispositivo  sin  necesidad  de  tener  que  echar  cuentas  ni  estrujarnos  el  cerebro.  

Otros  controles  en  un  compresor  

Aparte   de   los   controles   básicos   que   hemos   explicado,   muchos   compresores   ofrecen   controles  adicionales  que  nos  permiten  adecuar  aun  más  el  dispositivo  en  función  de  la  finalidad  de  la  compresión.  Por  ejemplo,  algunos  compresores  nos  ofrecen  la  posibilidad  de  poder  controlar  la  forma  en  la  que  se  pasa  de  ganancia  unidad  al   estado  de   compresión,  es  decir,   la   forma  en   la  que   se  pasa  desde  un   ratio  de  1:1  hasta  el  que  hemos  configurado  en  el  compresor.  Lo  normal  es  encontrarnos  con  dos  posibilidades:  hard-­‐knee  y  soft-­‐knee.  Además,  hay  compresores  que  nos  ofrecen  la  posibilidad  de  modificar  gradualmente  esa  pendiente  de  ratio.  El  uso  del  modo  hard-­‐knee  ofrecerá  una  compresión  mucho  menos  sutil  que  la  usada  con  el  modo  soft-­‐knee.    

Compresiones  paralelas  

Hemos  visto  hasta  ahora  cómo  la  compresión  afecta  a  los  transitorios  de  nuestras  señales,  ya  que  lo  que  hacemos  es  reducir  el  nivel  de  la  salida  ante  las  partes  de  más  nivel  de  la  señal.  Sin  embargo  en  ocasiones  nos  interesará  comprimir  una  señal  manteniendo  los  transitorios  tal  cual  están  en  la  señal  de  entrada.  Para  hacer  esto  usaremos   la   llamada  compresión  paralela  o  compresión  al  estilo  New  York   (ya  que   fueron   los  ingenieros  de  esa  ciudad  estadounidense  los  que  primeros  aplicaron  esta  técnica).  

La  compresión  paralela  consiste  en  duplicar  la  señal  que  nos  interesa  comprimir,  aplicar  compresión  en  esa  duplicación  y  luego  mezclar  la  señal  original  con  la  señal  duplicada.  Podemos  hacer  esto  de  forma  fácil  haciendo  una  duplicación  de  la  pista  a  comprimir  con  todos  los  insertos  incluidos.  Sin  embargo  este  sistema  tiene   dos   inconvenientes.   Por   un   lado,   al   duplicar   también   los   efectos   de   inserto   de   la   pista   original  estaremos  aumentando  la  carga  de  CPU  de  manera  innecesaria.  Por  otro  lado,  si  hacemos  algún  cambio  en  la   pista   original   deberemos   hacer   ese  mismo   cambio   en   la   pista   duplicada.   La   forma  más   extendida   de  configurar  una   compresión  paralela  es   tal   y   como  se  hace  en   las  mezclas  analógicas.   Lo  que  hacemos  es  enviar  la  señal  original  a  un  bus  auxiliar,  de  tal  forma  que  cualquier  cambio  en  la  señal  original  varía  la  señal  

Page 43: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   43  

que  estamos  enviando  al  bus  auxiliar.  El  envío  en  una  situación  normal  ha  de  hacerse  en  ganancia  unidad  (debemos  mandar  el  nivel  de   la  señal   idéntica  a   la  que  tenemos  en   la  pista  de  audio).  Creamos  entonces  una   pista   cuya   entrada   sea   el   bus   auxiliar   donde  hemos  mandado   la   señal   original,   luego   insertamos   en  dicha  pista  un  compresor  y  lo  configuramos  para  tener  una  compresión  alta  (8dB  de  reducción  de  ganancia  como  mínimo  en  situaciones  normales)  con  un  tiempo  de  ataque  lo  más  rápido  posible.  Cuando  tenemos  configurado  el  compresor  bajamos  la  pista  comprimida  al  mínimo  y  vamos  subiendo  el  fader  poco  a  poco,  mezclando  la  señal  comprimida  con  la  original  

De  esta   forma  conseguimos  comprimir   la   señal  manteniendo   los   transitorios  originales  de   la   señal,   ya  que  en  vez  de  bajar   los  niveles  más  fuertes  de   la  señal   (como  hemos  hecho  hasta  ahora)   lo  que  estamos  haciendo  es  subir   los  niveles  más  débiles  de   la  señal.  Esto  hace  que  obtengamos  una  compresión  mucho  menos  agresiva  que  la  compresión  normal.  

¿Donde  colocar  las  cosas?  

Hay  mucha  gente  que   se  pregunta  donde   colocar  el   compresor,   ¿antes  o  después  de   la  ecualización?  Para  contestar  a  esto  hay  que  tener  en  cuenta  que  una  compresión  va  a  cambiar  el  balance  frecuencial  de  la  señal.  Además  las  frecuencias  bajas  excitan  más  un  compresor  que  las  frecuencias  altas.  Si  tenemos  en  cuenta   estas   dos   cosas   podemos   suponer   que   si   colocamos   el   compresor   antes   del   ecualizador,   las  frecuencias  que  debemos  eliminar  en  la  señal  van  a  estar  influyendo  en  la  compresión  y  que  si  colocamos  el  ecualizador  antes  de   la   compresión,  dicha  compresión  nos  va  a  alterar  el  balance   frecuencial  que  hemos  definido  en  el  ecualizador.  

Para  evitar  esto  lo  que  se  suele  hacer  es  ecualizar  en  dos  etapas.  En  la  primera  etapa  de  ecualización,  se  hace  un  filtrado  paso  alto  y  se  eliminan  las  resonancias  que  crea  oportunas.  Una  vez  que  limpiada  la  señal,  se   coloca   compresor   y   ajusta   la   dinámica   de   la   señal.   Una   vez   hecha   la   compresión   colocamos   un  ecualizador  para  determinar  el  balance  frecuencial  de  la  señal.  

Si  lo  hacemos  de  esta  forma,  el  ecualizador  que  determina  el  balance  frecuencial  no  estará  influenciado  por  la  compresión.  Si  no  lo  hiciéramos  de  esta  manera,  cualquier  cambio  en  la  ecualización  provocaría  un  cambio   en   la   compresión,   por   lo   que   deberíamos   ajustar   tanto   el   ecualizador   como   el   compresor   ante  cualquier  modificación.  

Compresor  en  el  bus  de  mezcla  

El  uso  de  un  compresor  en  el  bus  de  mezcla  es  algo  que  se   lleva  usando  desde  hace  mucho  tiempo,  y  desde  hace  mucho  tiempo  sigue  siendo  un  tema  de  disputa  entre  diferentes  ingenieros  de  sonido.  Antes  de  nada  hay  que  decir  que  hay  muy  buenos  ingenieros  de  mezcla  que  mezclan  a  través  de  un  compresor,  pero  que  también  hay  muchos  otros  buenos  ingenieros  que  no  les  gusta  mezclar  así.  Por  tanto,  el  uso  o  no  de  un  compresor  en  el  bus  de  mezcla  no  es  algo  determinante  para  obtener  una  buena  mezcla,  si  no  que  es  algo  que  responde  a  gustos  personales  del  que  mezcla.  

No   hay   que   olvidar   que,   el  mezclar   a   través   de   un   compresor   hace   que   algunas   cosas   que   habíamos  tenido   como   ciertas   hasta   ahora,   ya  no   sean   verdad.   Por   ejemplo,   debido   a  que   se   están   comprimiendo  todos   los   elementos  de   forma   conjunta,   los  movimientos  de   los   faders   ya  no  provocan  el  mismo  efecto.  Cuando  usemos  un   compresor  en  el  bus  de  mezcla  es   importante   tener   siempre  en   cuenta  que  hay  que  tener   reducciones   de   ganancia   muy   pequeños.   Además,   los   tiempos   de   ataque   y   de   release   son   muy  importantes  a  la  hora  de  hacer  que  el  compresor  no  introduzca  artificios  extraños  en  el  sonido.    

Page 44: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   44  

Microfonía  Tipos  de  micrófonos  

Los   micrófonos   son   transductores   electroacústicos   que   se   ocupan   de   transformar   la   presión   sonora  ejercida  sobre  su  cápsula  en  energía  eléctrica.  La  membrana  o  diafragma  es  un  elemento  fundamental  que  está  presente  en  cada  uno  de  ellos.  Las  diferencias  que  estriban  entre  los  diferentes  tipos  de  micrófonos  se  basan  principalmente  en  la  sensibilidad  que  son  capaces  de  proporcionar,  que  están  directamente  ligadas  a  la   capacidad   del   micrófono   de   capturar   las   oscilaciones   mecánicas   que   provienen   de   la   membrana,   y  transformar  proporcionalmente  con  éxito  dichas  oscilaciones  en  energía  eléctrica...  intentando  conservar  la  dinámica   original   de   la   fuente   que   deseamos   capturar.   Desde   su   nacimiento,   el   micrófono   ha  experimentado  una  larga  carrera  en  busca  de  la  perfección  sonora.  Este  hecho  ha  desencadenado,  por  un  lado,  que  los  micrófonos  hayan  llegado  a  una  calidad  ya  bastante  considerable  a  día  de  hoy,  y  por  otro,  que  su  tipología  se  haya  fragmentado  buscando  el  mayor  rendimiento  para  cada  aplicación  en  concreto.  

El  micrófono  dinámico  

En  el  magneto-­‐dinámico,  comúnmente   llamado  dinámico,   la  ondas  sonoras  generan  el  movimiento  de  un  delgado  diafragma  metálico  y  una  bobina  de  hilo  conductor.  Un  imán  produce  un  campo  magnético  que  rodea  la  bobina,  y  el  movimiento  de  ella  dentro  de  ese  campo  induce  un  flujo  de  corriente.  El  principio  es  el  mismo   que   la   producción   de   electricidad   por   las   compañías   de   distribución,   pero   en   una   escala  miniaturizada.  Es   importante   recordar  que   la  corriente  se  produce  por  el  movimiento  del  diafragma,  y   la  cantidad  de  corriente  está  determinada  por   la  velocidad  de  este  movimiento.  Este   tipo  de  micrófonos  es  conocido  como  sensitivos  a  la  velocidad.  

En  función  de  la  eficacia  del  micro  en  su  conversión  de  la  onda  acústica  a  eléctrica,  podemos  distinguir  dos  grupos:  

• Micrófonos   dinámicos   de   bobina:   Una   pequeña   bobina   recoge   el   movimiento   de   la   membrana   o  diafragma  y,  al  moverse  ésta,  se  genera  una  corriente.  Las  ventajas  son  un  coste  razonable,  robustez,  uso   sencillo,   duro   (admiten   niveles   alto   de   presión   sin   saturar)   y   resistencia   de   salida   baja.   Los  inconvenientes   son   una   frecuencia   algo   irregular   (con   picos)   y   una   sensibilidad   alta   a   golpes   y  vibraciones.  Suelen  usarse  para  instrumentos  muy  sonoros,  así  como  captaciones  en  exteriores  (por  su  arquitectura  robusta);  pueden  ser  conectados  mediante  largos  cables.  

• Micrófonos   dinámicos   de   cinta:   La   diferencia   con   los   de   bobina   es   que   el   conductor   es   una   cinta  metálica   en   lugar   de   la   bobina.   Las   ventajas   son   su   robustez   también   y   un   refuerzo   notable   de  frecuencias   medias   y   bajas.   Los   inconvenientes   radican   en   su   peso,   irregularidad   y   pobreza   en  agudos.  No  se  recomiendan  para  instrumentos  muy  sonoros.  

El  micrófono  de  condensador    

En   un   micrófono   de   condensador,   el   diafragma   está   montado   junto   a   una   placa   (que   puede   estar  agujereada   o   no),   pero   sin   llegar   a   tocarla.   Una   pila   está   conectada   a   ambas   piezas   de   metal,   la   cual  produce   una   diferencia   de   potencial   eléctrico,   o   carga,   entre   ellas.   La   cantidad   de   esta   carga   está  determinada   por   el   voltaje   de   la   pila,   el   área   del   diafragma   y   la   placa   y   la   distancia   entre   ambos.   Esta  distancia   cambia   si   el   diafragma   se  mueve   como   respuesta   al   impacto   de   las   ondas   sonoras.   Cuando   la  distancia  cambia,  la  corriente  fluye  por  el  hilo  conductor  (mientras  la  pila  continúe  administrando  la  misma  diferencia   de   potencial).   La   cantidad   de   corriente   es   básicamente   proporcional   al   desplazamiento   del  diafragma,  y  tan  diminuta,  que  debe  ser  amplificada  antes  de  abandonar  el  micrófono.  

Suelen  tener  pérdidas  de  señal  si  usamos  cables  de  longitud  superior  a  un  metro;  por  este  motivo  llevan  a  menudo  incorporado  un  preamplificador  inmediatamente  detrás  del  condensador.  

Page 45: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   45  

Las   ventajas   son   una   respuesta   plana,   gran   fidelidad,   buen   comportamiento   en   agudos   y   ataques,  buenas  relaciones  señal/ruido,  poco  sensibles  a   las  vibraciones  y  reducido  tamaño.  Los   inconvenientes  se  centran  en  su  sensibilidad  a  la  humedad,  necesidad  de  alimentación,  frágiles  y  elevado  precio.  Se  aplican  en  prácticamente  todas  las  captaciones  profesionales.  

Micrófonos  Electret  

Es  una  variante  común  de  los  micrófonos  de  condensador,  que  emplea  un  material  que  confiere  carga  permanentemente  al  diafragma.  Este  material  suele  ser  algún  tipo  de  plástico,  y  se  le  denomina  Electrito.  A  menudo   manipulamos   plásticos   cargados   permanentemente   cuando   desenvolvemos   un   paquete  retractilado.   Muchos   plásticos   son   conductores   cuando   están   calientes   y   aislantes   cuando   está   fríos.   El  plástico   es   un   buen   material   para   fabricar   diafragmas   por   su   fiabilidad   reproduciendo   especificaciones  bastante  precisas   (algunos  de   los  micrófonos  más  populares   llevan   incorporados  diafragmas  de  plástico).  Por   esto  no  necesitan   alimentación   aunque   sigue   siendo  preciso   el   uso  de  un  preamplificador   que   sigue  solicitando   corriente,   pero   en   este   caso   es   suficiente   con   una   pila   encerrada   en   la   carcasa   del   propio  micrófono.   Las   ventajas   son   un   precio   más   asequible   y   menor   sensibilidad   a   la   humedad.   El   mayor  inconveniente  de  los  electritos  es  que  pierden  la  carga  después  de  algunos  años  y  dejan  de  ser  operativos,  además  de  tener  peores  respuestas  de  agudos  y  menor  sensibilidad  en  general.  

Especificaciones  de  los  micrófonos  

No  existe  ninguna  ventaja  inherente  al  uso  de  un  tipo  de  micrófono  sobre  otro  en  cuanto  a  la  fidelidad  de  captación.  Los  de  condensador  requieren  el  uso  de  baterías  desde  la  mesa  (alimentación  fantasma)  para  funcionar,  lo  que,  en  ocasiones,  supone  una  traba  en  el  trabajo;  los  dinámicos  necesitan  protección  por  la  dispersión   de   los   campos   magnéticos,   que   los   hace   un   poco   duros   a   veces.   Sin   embargo,   se   pueden  encontrar   micrófonos   muy   buenos   en   ambos   estilos.   El   factor   más   importante   en   la   elección   de   un  micrófono  es   cómo  suena  en   la  aplicación  para   la  que   se  va  a  utilizar.  Deben  considerarse   los   siguientes  apartados:  

• Sensibilidad:  Esta  es   la  medida  de   la  cantidad  de  salida  eléctrica  que  se  produce  por   la  toma  de  un  sonido.  Esta  es  una  especificación  vital  si  estamos  intentando  captar  sonidos  muy  tenues,  como  por  ejemplo,  una  tortuga  haciendo  burbujas  con  la  boca  en  su  jaula,  pero  es  un  asunto  que  debe  tenerse  en  cuenta  siempre.  Si  colocamos  un  micro  poco  sensible   frente  a  un   instrumento  que  produzca  un  sonido  tenue,  como  podría  ser  una  guitarra  acústica,   tendremos  que   incrementar   la  ganancia  en   la  mesa,  añadiendo  ruido  a  la  mezcla.  Por  otro  lado,  un  micrófono  muy  sensible  para  las  voces  podría  saturar  las  entradas  electrónicas  de  la  mesa  o  el  multipistas,  produciendo  distorsión.  

• Características   de   la   saturación:   Cualquier   micrófono   distorsionará   si   se   sobrepasa   su   umbral   de  captación   con   sonidos   muy   fuertes.   Esto   sucede   por   varios   factores.   Con   un   dinámico,   la   bobina  puede  salirse  del  campo  magnético;  en  uno  de  condensador,  el  amplificador  interno  puede  recortar  la   señal.   Una   saturación   mantenida   o   sonidos   extremadamente   intensos   pueden   distorsionar  permanentemente  el  diafragma,  degradando  la  respuesta  a  niveles  ordinarios.  Los  sonidos  fuertes  se  encuentran  más  a  menudo  de  lo  que  pensamos,  especialmente  si  colocamos  el  micrófono  cerca  de  los  instrumentos  (¿quién  se  atreve  a  poner  el  oído  en  la  campana  de  una  trompeta?)  Normalmente  debemos   elegir   entre   alta   sensibilidad   y   altos   puntos   de   saturación,   aunque,   en   ocasiones   existen  interruptores  en  los  micrófonos  para  afrontar  estas  situaciones  diferentes.  

• Linealidad   o   distorsión:   Esta   es   la   característica   que   aumenta   el   precio   de   los   micrófonos.   Las  características  de  la  distorsión  de  un  micrófono  están  determinadas,  sobre  todo,  por  el  cuidado  con  que   se  ha   construido   y  montado  el   diafragma.   Los   altos   volúmenes  pueden  arruinar  un  micrófono  perfectamente   válido,   pero   la   distorsión   de   funcionamiento   es   un   asunto   de   suerte.   Muchos  fabricantes   tienen   numerosos   modelos   para   lo   que   es   el   mismo   componente.   Ellos   fabrican   una  

Page 46: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   46  

partida   y   luego   realizan   los   controles   de   calidad  para   poner   un  precio   "premium"   a   los   que  pasan  dicho   control.   Las   firmas   grandes   desechan   cápsulas   que   no   cumplen   con   sus   normas   internas   (si  compramos   un   Neumann,   realmente   estamos   pagando   por   cinco).   Ningún   micrófono   es  perfectamente  lineal;  lo  mejor  que  podemos  hacer  es  conseguir  uno  cuya  distorsión  complemente  el  sonido   que   estamos   intentando   grabar.   Este   es   un   de   los   factores   que   convierten   una   grabación  doméstica  en  una  profesional.  

• Respuesta   en   frecuencia:   Una   respuesta   de   frecuencia   plana   ha   sido   el   principal   acierto   de   los  fabricantes  de  micrófonos  en  las  últimas  cuatro  décadas.  En  los  años  cincuenta,  los  micrófonos  eran  tan   malos,   que   los   fabricantes   de   mesas   de   mezclas   comenzaron   a   añadir   ecualizadores   a   cada  entrada  para  compensar  las  desviaciones.  Este  esfuerzo  ha  sido  recompensado  ahora  hasta  el  punto  que   los  micrófonos  más   profesionales     son   respetablemente   planos,   incluso   con   sonidos   captados  frontalmente.   La   mayor   excepción   son   los   micrófonos   que   enfatizan   deliberadamente   ciertas  frecuencias  que  son  usuales  en  ciertas  aplicaciones.  

• Ruido:  Los  micrófonos  producen  una  muy  pequeña  cantidad  de  corriente,  que  toma  sentido  cuando  consideramos   como   electricidad   las   partes  móviles   que   deben   preceder   con   exactitud   a   las   ondas  sonoras.  Para  ser  operativa  tanto  en  el  sentido  de  la  grabación  como  en  otros  procesos  electrónicos,  la  señal  debe  ser  amplificada  por  un  factor  que  oscila  alrededor  del  millar.  Cualquier  ruido  eléctrico  producido  por   el  micrófono   será   también   amplificado,   por   eso,   pequeñas   cantidades   de   ruido   son  intolerables.   Los   dinámicos   están   libres   de   ruido,   pero   el   circuito   electrónico   integrado   en   los   de  condensador   es   una   potencial   fuente   de   problemas,   y   debe   ser   cuidadosamente   diseñado   y  construido  con  piezas  de  calidad  excelente.  El   ruido   además   incluye   captaciones   indeseadas   de   vibración   mecánica   a   través   del   cuerpo   del  micrófono.  Diseños  muy  sensibles  requieren  monturas  elásticas  para  las  sacudidas,  y  los  micrófonos  concebidos  para   ser   llevados   en   la  mano  necesitan  poseer   este   tipo  de  monturas   encajadas   en   su  interior.   La  más   común   fuente  de   ruido  asociada  a   los  micrófonos  es  el   cable  que   los   conecta  a   la  mesa   de   mezclas   o   al   multipistas.   Un   micrófono   preamplificado   es   muy   similar   a   un   receptor   de  radio,  por  eso,  debe  prevenirse  que  el  cable  se  convierta  en  una  antena.  La  técnica  básica  es  rodear  el  cable  que   lleva   la  corriente  desde  el  micro  hasta   la  mesa  con  una  malla  metálica  que  desvía  una  gran  cantidad  de  energía  de  radio  (la  conocida  jaula  de  Faraday).  Una  segunda  técnica,  que  es  más  efectiva  para   los  zumbidos  en  bajas  frecuencias   inducidos  por   las  compañías  de  distribución  eléctrica  en  el  equipo,  es  balancear  la  línea.  La  corriente  producida  por  el  micrófono   fluirá   por   uno   de   los   cables   del   par   entrelazado,   y   regresará   por   el   otro.   Cualquier  corriente   inducida   en   el   cable   desde   una   fuente   externa   tenderá   a   fluir   de   la  misma  manera   por  ambos   cables,   y   las   corrientes   se   cancelarán  unas   a   otras   en   los   transformadores.   Este  método  es  caro.  

• Niveles:  La  salida  de  los  micrófonos  tiene,  por  necesidad,  una  señal  muy  débil,  del  orden  de  -­‐60  dB  (la  potencia  producida  por  una  presión  de  9,87  µatm  ejercida  por  un  sonido).  La   impedancia  de  salida  dependerá  de  la  existencia  de  un  transformador  balanceado  a  la  salida.  Si  no  es  así,  el  micrófono  se  llamará  de  "alta  impedancia"  o  "alta  Z"  y  tendrá  que  ser  conectado  a  una  entrada  apropiada.  El  cable  empleado  debe  ser  corto,  menor  a  tres  metros,  para  evitar  problemas  de  ruido.    Si   el  micrófono   tiene   transformador,   se  etiquetará   como  de   "baja   impedancia",   y   trabajará  mucho  mejor  con  una  entrada  balanceada  de  micro  preamplificada.  El  cable  puede  tener  decenas  de  metros  sin  ningún  tipo  de  problemas  (salvo  que  los  propios  cables  estén  en  mal  estado).  Los  micrófonos  de  baja   impedancia   y   salida   balanceada   son   caros,   y   generalmente   se   utilizan   para   aplicaciones  profesionales.  Las  salidas  balanceadas  deben  tener  tres  conectores  (enchufes  tipo  "canon")  pero  no  todos  los  micrófonos  con  estos  conectores  están  balanceados.    

Page 47: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   47  

Los   que   tiene   clavijas   normales   tipo   jack   o  miniaturizadas,   son   de   alta   impedancia.   Un  micrófono  balanceado  puede  ser  usado  en  una  entrada  de  alta  impedancia  mediante  un  adaptador  apropiado.  La   diferencia   fundamental   entre   un   equipo   doméstico   y   otro   profesional   es   la   inclusión   de   un  transformador   en   la   mesa   de   mezclas.   Los   transformadores   no   son   caros,   por   lo   que   se   pueden  comprar   para   añadirlos   al   equipo,   siempre   que   sepamos   lo   que   estamos   adquiriendo   y   no   nos  confundamos  con  un  adaptador  para  los  conectores.  Con  esta  configuración,  se  puede  trabajar  con  micrófonos   de   calidad   profesional,   tirar   cables   de   hasta   30   metros   sin   zumbidos   y,   si   los  transformadores  elevan  la  señal  un  poco,  realizar  grabaciones  con  mucho  menos  ruido.  Este  sistema  no   funcionará   con   la  mayoría  de  multipistas,  porque   la   señal   fuerte  produce  distorsión.  Aunque   la  mesa   tendrá   otros   problemas,   es   un   buen   punto   de   partida   para   afrontar   grabaciones   de   alta  fidelidad.  

Modelos  de  captación  

Mucha  gente  tiene  la  concepción  errónea  que  los  micrófonos  sólo  captan  el  sonido  de  fuentes  colocadas  frente   a   ellos,   como   sucede   con   las   cámaras   fotográficas   y   sus   lentes.   Esta   sería   una   maravillosa  característica   si   fuese   cierta,   pero   la   verdad  es  que   lo  único  que  podemos  hacer   es   aproximarnos   a   este  ideal  en  detrimento  de  otros  matices  igualmente  deseables.  

Los   tipos   de  micrófonos   responden   a   gráficas   polares   de   la   salida   producidas   contra   el   ángulo   de   la  fuente  sonora.  La  salida  se  representa  por  el  radio  de  curvatura  en  el  ángulo  de  incidencia.  

Omnidireccional  (de  presión)  

El  diseño  más  simple  de  micrófono  captará   todos   los  sonidos,  sin   tener  en  cuenta  el  punto  de  origen.  Este   es   el   conocido  micrófono  omnidireccional.   Son   fáciles  de  usar   y   tienen  excepcionales   respuestas  de  frecuencia.  

Bidireccional  (de  gradiente)  

No   es   difícil   producir   un   tipo   de   captación   que   acepte   sonidos   provenientes   frontalmente   o   desde   la  parte  de  atrás  del  diafragma,  pero  que  no  recoja  nada  proveniente  de   los   laterales.  Esta  es   la  manera  en  que  cualquier  diafragma  se  comportará  si  el  sonido  lo  golpea  anterior  y  posteriormente  de  igual  modo.  El  rechazo   de   sonido   indeseado   es   la   característica  más   factible   de   cualquier   diseño,   pero   el   hecho   que   el  micrófono   capte   sonido   desde   ambos   extremos   complica   su   uso   en   algunas   situaciones.     A   menudo   se  coloca  por  encima  del  instrumento.  La  frecuencia  de  respuesta  es  tan  buena  como  en  un  omnidireccional,  incluso  para  sonidos  que  no  están  demasiado  cerca  del  micrófono,  aunque  presentan  efecto  proximidad,  que  dificulta  su  uso  en  tomas  de  poca  distancia.  Potencian  los  graves  (suelen  ir  provistos  de  un  selector  de  filtro  de  graves).  

Cardioide  (concentrador  de  haz)  

Este  tipo  es  popular  para  reforzar  el  sonido  de  conciertos  donde  el  ruido  de  la  audiencia  es  un  problema  presente.  El  concepto  es  muy  bueno,  un  micrófono  que  capta  los  sonidos  hacia  los  que  está  enfocado.  La  realidad,  lamentablemente  es  distinta,  el  primer  problema  es  que  esos  sonidos  que  llegan  desde  detrás  no  están  completamente  anulados,  sino  simplemente  atenuados  entre  10  y  30  dBs;  y  esto  puede  sorprender  a  usuarios  descuidados.   El   segundo  problema   (muy   importante)  es  que  este   tipo  de   captación  varía   con   la  frecuencia.  Para  bajas  frecuencias,  se  comporta  como  un  omnidireccional.  Un  micrófono  direccional  en  el  rango  de  las  bajas  frecuencias  será  equitativamente  grande  y  caro.  Además,  la  respuesta  de  frecuencia  para  señales  que  lleguen  desde  la  parte  anterior  y  laterales,  será  distinta;  añade  una  coloración  indeseada  a  los  instrumentos  ubicados  en  los  extremos  de  la  orquesta,  o  a  la  reverberación  de  la  sala.  

Page 48: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   48  

Una   tercera   circunstancia,   que   puede   ser   un   problema   o   un   efecto   deseado,   es   que   el   micrófono  enfatizará   las   los   componentes   de   bajas   frecuencias   provenientes   de   cualquier   fuente   situada   cerca   del  diafragma   (efecto   proximidad).  Muchos   cantantes   y   locutores   se   aprovechan   de   este   efecto   para   añadir  algo  más  de  cuerpo  a  una  voz  poco  potente.  

También  hay  que  destacar  el  tamaño  del  micrófono,  de  manera  que  los  diseños  largos  son  más  precisos  en  el  equilibrio  de  la  respuesta  de  frecuencia  anterior  y  lateral  pero  también  son  los  más  enfatizadores  del  efecto   proximidad.  Muchos  micrófonos   cardioides   llevan   incorporado   un   interruptor   que   activa   un   filtro  pasa   bajos   muy   abierto,   para   compensar   el   efecto   proximidad.   Olvidar   esto   puede   causar   efectos  angustiosos.  Los  micrófonos  bidireccionales  también  presentan  este  fenómeno.  

A  mayor  radio  del  diafragma,  menor  es  el  efecto  amplificador  de  las  bajas  frecuencias  debido  al  efecto  proximidad.  

• Hipercardioide:  Es  posible  exagerar  la  orientación  de  la  captación  en  los  micrófonos  cardioides,  si  no  nos   importa   exagerar   también   algunos   problemas.   El   tipo   hipercardioide   es   muy   popular   porque  ofrece  una  respuesta  de  frecuencia  más  plana  y  mejor  rechazo  global  a  costa  de  un  pequeño  lóbulo  trasero  de  captación.  Este  es,  a  menudo,  un  buen  compromiso  entre  el   cardioide  y   los  micrófonos  bidireccionales.   Un   micrófono   del   tipo   "escopeta"   lleva   esas   técnicas   a   extremos   montando   un  diafragma  en  mitad  del  tubo  (bastidor).  Es  extremadamente  sensible  a  lo  largo  del  eje  principal,  pero  posee   lóbulos   extras   que   varían   drásticamente   con   la   frecuencia.   De   hecho,   la   respuesta   de  frecuencia  de  este  tipo  es  tan  mala  que,  normalmente,  está  electrónicamente  restringido  al  rango  de  la  voz  humana,  donde  se  usa  para  grabar  diálogos  y  narraciones  en  cine  y  video.  

• Escopeta  (o  cañón):  Caracterizados  por  una  alta  directividad.  La  diferencia  de  caminos  de  la  onda  que  provoca  el  desfase   se  produce  en  un   largo   tubo   situado   frente  al  diafragma.  Este   tubo  dispone  de  unas   ranuras   por   las   que   recibirá   la   señal,   de  modo   que   finalmente   el   diafragma   recibirá   señales  cortas   por   el   frente,   señales   medias   laterales   a   medio   tubo   y   señales   laterales   largas   al   final   del  mismo.  Son  especialmente  útiles  para  exteriores  o  lugares  de  escasa  reverberación.  

• Estéreo:   No   se   necesita   un  micrófono   especial   para   grabar   en   estéreo;   con   un   par   de  micrófonos  normales  basta.  En  realidad,  los  denominados  micrófonos  estéreo,  son  dos  cápsulas  montadas  en  el  mismo  bastidor.  Existen  dos   tipos:   los  profesionales  y   carísimos  montados  en  una  misma  caja,   con  ángulos  de  cápsula  ajustables  e   interruptores  de  control   remoto  sobre   los   tipos  de  captación,  y   las  unidades  más  económicas  (a  menudo  con  las  cápsulas  orientadas  180  grados)  que  pueden  venderse  a  altos  precios  porque  llevan  impresa  la  palabra  estéreo  sobre  la  montura.  [Hay  un  artículo  en  este  sitio  que  se  ocupa  de  las  técnicas  de  grabación  estéreo].  

Técnicas  de  microfonía:  estéreo  

Si  el  cerebro  humano  contase  solamente  con  un  oído,  sería  prácticamente  imposible  situar  una  fuente  sonora   a   ojos   cerrados.   Con   un   sólo   oído   podríamos   escuchar   un   tren   acercándose   a   nosotros,   pero  deberíamos  mirar  a  un  lado  y  otro  para  localizar  en  qué  dirección  se  encuentra  el  peligro.  Pero  la  naturaleza  es  sabia  y  si  nos  ha  cedido  dos  oídos,  es  por  un  motivo  de  peso.  Gracias  a  las  diferencias  de  tiempo  que  se  perciben  entre   los  dos  oídos  cuando  escuchamos  un  sonido,  al  estar  ambos  oídos  físicamente  separados,  podemos  dilucidar  de  qué  lugar  proviene  la  fuente,  aunque  también  entran  en  juego  otros  factores,  como  es  la  direccionabilidad  respecto  a  la  frecuencia.  

Existen  técnicas  de  microfonía  que  tratan  de  emular   la  manera  con  la  que  percibimos  los  sonidos,  que  consisten   en   captar   la   señal   a   través   de   varios   micrófonos   que   registran   esas   pequeñas   diferencias   de  tiempo,   reflexiones   y   ecualización,   posibilitando   así   una   posterior   reproducción   de   la   fuente   con   un  

Page 49: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   49  

resultado   que   guarda   una   coherencia   estéreo   acorde   con   la   escucha   binatural   que   caracteriza   al   ser  humano,  junto  a  la  mayoría  de  animales.  En  esta  ocasión  trataremos  de  desglosar  cómo  funcionan  este  tipo  de  técnicas,  para  que  cada  uno  experimente  a  su  antojo  en  busca  de  tomas  de  grabación  que  se  ajusten  a  la  imagen  estéreo  real  que  los  humanos  percibimos,  o  bien  en  busca  de  efectos  en  concreto  que  faciliten  el  posicionamiento  de  las  pistas  a  la  hora  de  realizar  la  mezcla.  

A-­‐B  Estéreo  

Dos  micrófonos  separados  creando  una  imagen  estéreo:  La  técnica  A-­‐B  estéreo  (o  estéreo  por  diferencia  de   tiempo,   como   también   se   llama   en   ocasiones)   hace   uso   de   dos   micrófonos   separados   (a   menudo  omnidireccionales)   para   grabar   señales   de   audio.   La   distancia   entre   los   micrófonos   supone   pequeñas  diferencias   en   la   información   de   tiempo  o   fase   contenida   en   las   señales   de   audio   (según   las   direcciones  relativas  de  las  fuentes  de  sonido).  

De   igual  manera   que   el   oído   humano   puede   apreciar   diferencias   de   tiempo   y   fase   en   las   señales   de  audio   y  usarlas  para   la   localización  de   las  mismas,   la  diferencia  de   tiempo  y   fase   actuarán   como   señales  estéreo  para  permitir  a   la  audiencia  captar  el  espacio  en  la  grabación  y  experimentar  una  intensa  imagen  estéreo  de  todo  el  campo  de  sonido,  incluyendo  la  posición  de  cada  señal  individual  y  los  límites  espaciales  de  la  propia  sala  

Distancia  entre  micrófonos    

Una  consideración   importante  cuando  preparamos  una  grabación  A-­‐B  estéreo  es   la  distancia  entre   los  micros.  Desde  que   el   carácter   acústico  de   la   grabación   estéreo   es   principalmente  una   cuestión  de   gusto  personal,  es  imposible  apuntar  reglas  inmediatas  y  eficaces  para  la  técnica  estéreo  por  distancia  de  micros;  sin  embargo,  es  interesante  tener  en  mente  algunos  factores  acústicos  importantes  

Puesto  que  la  amplitud  estéreo  de  una  grabación  depende  de  la  frecuencia,  cuanto  más  profunda  sea  la  calidad  tonal  que  deseemos  reproducir  en  el  estéreo,  mayor  distancia  ha  de  haber  en  la  separación  entre  micrófonos.  Usando  una  distancia  recomendada  entre  micrófonos  de  un  cuarto  de  la  longitud  de  onda  del  tono  más  bajo,  y  teniendo  en  cuenta  la  reducida  capacidad  del  oído  humano  para  localizar  frecuencias  por  debajo  de  150  Hz,  llegamos  a  una  distancia  óptima  entre  40  y  60  cm.  Distancias  menores  se  usan  a  menudo  para   captar   fuentes   de   sonido   próximas,   para   prevenir   que   la   imagen   del   sonido   de   un   instrumento  concreto  sea  demasiado  ancha  y  poco  natural.  Distancias  por  debajo  de  17  o  20  cm  son  detectables  para  el  oído  humano  porque  es  la  separación  equivalente  a  los  oídos.  

Debería  apuntarse  también  que  un  incremento  en  la  distancia  ente  micrófonos  disminuirá  la  capacidad  del  sistema  para  reproducir  señales  ubicadas  justo  entre  ellos.  Esto  conduce  también  a  una  reducción  en  la  calidad  de  la  grabación  estéreo  cuando  se  reproduzca  en  mono.  

Distancia  entre  los  micrófonos  y  la  fuente  de  sonido  

La  distancia   ideal   desde   el   par   de  micrófonos   a   la   fuente  de   sonido  no  depende   solamente  de   tipo   y  tamaño  de  la  fuente  y  el  entorno  en  la  que  se  ha  realizado  la  captación,  sino  también  del  gusto  personal.  La  posición  desde  la  que  la  audiencia  experimenta  el  evento  (y  de  aquí  la  posición  desde  la  cual  el  micrófono  lo  registra)  debería  ser  elegida  con  gusto  y  cuidado  

Las   grabaciones   musicales   críticas,   tales   como   una   orquesta   al   completo   en   una   sala   de   conciertos,  suponen   buenos   ejemplos   de   la   importancia   del   posicionamiento   correcto   de   los   micrófonos.   Aquí   los  micrófonos   se   colocarían   típicamente   por   encima   o   detrás   del   director.   Y   aunque   la   mayoría   de   los  instrumentos  proyectan   su   sonido  hacia   arriba,   los  micrófonos  deberían  estar   colocados   suficientemente  elevados  para  que  cada  músico  por  separado  no  ensombrezca  a  los  demás.  

Page 50: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   50  

La  mezcla   de   sonido   directo   y   difuso   en   una   grabación   es   además   de   importancia   crucial,   por   lo   que  suele   emplearse   mucho   tiempo   en   establecer   la   posición   óptima   de   los   micrófonos.   Es   aquí   donde   la  versatilidad   de   nuestro   sistema   A-­‐B   estéreo   entra   en   juego.   Usando   los   diferentes   emplazamientos  acústicos  para   los  micrófonos,   la  cantidad  de  ambientación  y  el  color  tonal  de   la  grabación,  el  sistema  se  puede   ajustar   sin   añadir   ningún   ruido.   La   elección   del   suelo   y   la   cubierta   apoyados   de   la   reverberación  puede  permitirnos  añadir  flexibilidad  cuando  coloquemos  los  micrófonos.  

Los   micrófonos   omnidireccionales   y   el   sistema   A-­‐B   estéreo   son,   a   menudo,   la   elección   más   usada  cuando  la  distancia  entre   los  micrófonos  y   la  fuente  de  sonido  es  grande.  La  razón  es  que   los  micrófonos  omnidireccionales  son  capaces  de  captar  las  verdaderas  frecuencias  bajas  de  la  señal  con  indiferencia  de  la  distancia,   mientras   que   los   micrófonos   direccionales   están   influenciados   por   el   efecto   proximidad.   Los  micrófonos  direccionales,  por  tanto,  mostrarán  pérdida  de  bajas  frecuencias  a  grandes  distancias.  Según  el  fabricante,  se  pueden  encontrar  micrófonos  cardioides  con  respuestas  bajas  enriquecidas,  con  lo  que  son  una  interesante  alternativa  a  los  omnis  cuando  se  prefiere  o  necesita  una  pequeña  direccionalidad.  

X-­‐Y  Estéreo  

Dos  micros  cardioides  de  primer  orden  en  el  mismo  punto  (coincidentes)  con  un  ángulo  entre  sus  ejes  para   crear   una   imagen   estéreo.   El   sistema   XY   estéreo   es   una   técnica   de  coincidencia   que   usa   dos  micros   cardioides   situados   en   el  mismo   punto   y  con   un   ángulo   típico   de   90º   entre   sus   ejes   para   producir   una   imagen  estéreo.   Se   han   usado   ángulos   de   apertura   entre   las   cápsulas   de   120º   a  135º,   e   incluso   hasta   180º,   lo   cual   cambiará   el   ángulo   de   grabación   y   la  propagación   estéreo.   Teóricamente,   las   dos   cápsulas   necesitan   estar  exactamente  en  el  mismo  punto  para  evitar  problemas  de  fase  producidos  por   la   distancia   entre   los  micrófonos.   Como   esto   no   es   posible,   la  mayor  aproximación   para   colocar   los   micros   en   el   mismo   punto,   consiste   en   poner   uno   sobre   otro,   con   los  diafragmas  alineados  verticalmente.  De  este  modo,  las  fuentes  sonoras  en  el  plano  horizontal  se  recogerán  como  si  los  dos  micros  estuvieran  colocados  en  el  mismo  punto.  

La   imagen  estéreo  se  produce  por   la  atenuación  de  la  desviación  del  eje  de   los  micrófonos  cardioides.  Mientras  que  el  A-­‐B  estéreo  es  un  estéreo  por  diferencia  de  tiempo,  el  sistema  XY  estéreo  es  un  estéreo  por  diferencia  de  volumen.  Pero  como  la  atenuación  por  desviación  del  eje  de  un  cardioide  de  primer  orden  es   solamente  de   6   dB   en   90º,   la   separación  del   canal   está   limitada,   y   no   son  posibles   amplias   imágenes  estéreo  con  este  método  de  captación.  Por  tanto,  el  XY  estéreo  se  usa  a  menudo  cuando  se  necesita  alta  compatibilidad  mono  (por  ejemplo  en  emisiones  radiofónicas  donde   la  audiencia  utiliza   receptores  mono  para  escucharlas).  

Ya   que   las   fuentes   de   sonido   son   principalmente   captadas   fuera   del   eje   cuando   se   usa   el   sistema   XY  estéreo,   hay  mucha   información   en   la   respuesta   fuera   del   eje   de   los  micrófonos   empleados.   Y   como   se  comentaba   anteriormente,   el   uso   de   micros   direccionales   a   grandes   distancias   reduce   la   cantidad   de  información  de  bajas  frecuencias  en  la  grabación,  debido  al  efecto  proximidad  mostrado  por  estos  micros.  La   configuración  XY   es,   por   tanto,   la   elección  utilizada   a  menudo  en   aplicaciones   cercanas.   Por   ejemplo,  como   overheads   de   batería,   mediante   el   uso   de   esta   técnica   se   consigue   que   la   caja   no   quede  panoramizada   por   una   mala   colocación   de   los   micrófonos   ambientales,   y   se   garantiza   que   ésta   se  reproduzca   en   el   centro   de   la   imagen   sonora.   De   todos  modos,   con   este  método   la   imagen   estéreo   no  suena  tan  abierta  y  grande  en  comparación  con  otras  técnicas  de  grabación  estéreo.  

M-­‐S  Estéreo  

Un  micrófono  cardioide  de  primer  orden  y  otro  bidireccional  en  el  mismo  punto  con  un  ángulo  de  90º  entre  sus  ejes  creando  una  imagen  estéreo  a  través  de  la  llamada  matriz  MS.  

Page 51: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   51  

El  sistema  MS  utiliza  una  cápsula  cardioide  como  canal  central  y  un  micro  direccional   (figura   de   ocho)   en   el  mismo   punto,   pero   abiertos   90º,   como   el  llamado   canal   ambiente   (surround).   La   señal  MS  no  puede   ser  monitorizada  directamente   en   un   sistema   convencional   izquierdo-­‐derecho.   La  matriz  M-­‐S  utiliza   la   información  de   fase  entre  el  micrófono   central   y   el   ambiental  para  producir   una   señal   L-­‐R   compatible   con   un   sistema   estéreo   convencional.  Debido  a  la  presencia  del  micro  central,  esta  técnica  es  bastante  indicada  para  grabaciones   estéreo   donde   se   necesita   una   buena   compatibilidad   con   sistemas   monofónicos,   y   es  extremadamente  popular  en  emisiones  de  radio.  

Como  detalle,  reseñar  que   la  técnica  M-­‐S  usada  generalmente  en  masterización  aprovecha  este  modo  de   registrar   la   información  para  poder   actuar   individualmente   sobre  el   canal   central   (mono),   y   las  pistas  que   estén   ligeramente   panoramizadas   o   posean   información   estéreo,   con   el   fin   de   poder   solventar  problemas  aislados  que  de  otro  modo  no  podrían  ser  depurados.  Esto  sirve  de  ejemplo  para  comprender  cómo  funciona  esta  técnica  que  en  la  grabación  de  señales,  se  basa  en  el  mismo  principio.  

Estéreo  binatural  

Dos  micros  omnidireccionales  colocados  en   los  oídos  de   la  cabeza  de  un  maniquí  creando  una   imagen  estéreo.  La  técnica  de  grabación  binaural  hace  uso  de  dos  micrófonos  omnidirecionales  que  se  colocan  en  los  oídos  de  un  maniquí.   Estos   sistemas  de  doble   canal   emulan   la  percepción  del   sonido,   y  proveen  a   la  grabación   de   una   importante   información   aural   sobre   la   distancia   y   la   dirección   de   las   fuentes   sonoras.  Cuando   estas   grabaciones   se   reproducen   con   auriculares,   la   audiencia   experimenta   una   imagen   sonora  esférica,  donde  todas  las  fuentes  de  sonido  son  reproducidas  con  la  dirección  espacial  correcta.  

Las   grabaciones   binaurales   se   usan   a   menudo   para   sonido   ambiente   o   en   aplicaciones   de   realidad  virtual.   En   una  mezcla,   nunca   está   de  más   contar   con   una   o   varias   pistas   capturadas   en   "estéreo   real",  mediante  el  uso  de  esta   técnica.  De  este  modo,  contaremos  con  una  referencia  espacial   realista  que  nos  permita  situar  el  resto  de  las  pistas  a  partir  de  una  "anchura"  estéreo  ya  dada.  

Estéreo  Blumlein  

Dos  micrófonos  bidireccionales  colocados  en  el  mismo  punto  y  con  ángulo  de  90º  entre  sus  ejes  creando  una   imagen  estéreo.  El   estéreo  Blumlein  es  una   técnica  estéreo  de   coincidencia  que  usa  dos  micrófonos  bidireccionales  situados  en  el  mismo  punto  y  con  un  ángulo  de  90º  entre  sus  ejes.  Esta  técnica  estéreo  dará  normalmente   los   mejores   resultados   cuando   se   use   en   pequeñas   distancias   hasta   la   fuente   de   sonido,  puesto  que  los  micrófonos  bidireccionales  emplean  la  tecnología  de  gradiente  de  presión  y,  por  tanto,  está  bajo   la   influencia  del  efecto  proximidad.  A  distancias  mayores,  estos  micrófonos  perderán   las   frecuencias  graves.  El  estéreo  Blumlein  produce   información  estéreo  puramente   relacionada  con   la   intensidad.  Tiene  una  separación  de  canal  más  grande  que  el  sistema  X-­‐Y  estéreo,  pero  con  la  desventaja  que  las  fuentes  de  sonido   localizadas   detrás   del   par   estéreo   también   serán   captadas   y   se   reproducirán   posteriormente  siempre  con  la  fase  invertida.  

DIN  Estéreo  

Dos  cardioides  de  primer  orden  separados  20  cm  y  con  un  ángulo  de  90º  entre   sus   ejes   creando   una   imagen   estéreo.   El   estéreo   DIN   usa   dos  micrófonos  cardioides  separados  y  con  un  ángulo  de  90º  entre  sus  ejes  para  crear   una   imagen   estéreo.   El   estéreo   DIN   produce   una   mezcla   de   dos  señales  estéreo  de   intensidad  y  retardo  de  tiempo,  debido  a   la  atenuación  de   la   desviación   del   eje   de   los  micrófonos   cardioides   junto   con   20   cm   de  separación.  Si  se  usa  a  grandes  distancias  de  la  fuente  sonora,  la  técnica  DIN  

Page 52: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   52  

estéreo  perderá   las  bajas  frecuencias  debido  al  uso  de  micrófonos  de  gradiente  de  presión  y   la   influencia  del  efecto  proximidad  en  ese  tipo  de  micros,  como  vimos  en  el  párrafo  anterior.  La  técnica  DIN  estéreo  es  más   útil   en   pequeñas   distancias,   por   ejemplo,   en   pianos,   pequeños   conjuntos   o   para   crear   una   imagen  estéreo  de  una  sección  instrumental  de  una  orquesta  clásica.  

NOS  Estéreo  

Dos  micrófonos  cardioides  de  primer  orden  separados  30  cm  con  ángulo  de  90º  entre  sus  ejes  creando  una   imagen  estéreo.   La   técnica  NOS  utiliza   dos  micrófonos   cardioides   separados   30   cm  y   con  un   ángulo  entre   sus   ejes   de   90º   para   crear   una   imagen   estéreo,   lo   cual   supone   una   combinación   de   estéreo   por  diferencia  de  volumen  y  por  diferencia  de  tiempo.  Si  se  utiliza  en  grandes  distancias  hasta  la  fuente  sonora,  la   técnica   NOS   perderá   las   bajas   frecuencias   debido   al   uso   de  micrófonos   de   gradiente   de   presión   y   la  influencia   del   efecto   proximidad   en   ese   tipo   de  micros.   La   técnica   NOS   estéreo   es   bastante   similar   a   la  técnica  DIN  que  vimos  en  el  párrafo  anterior,  por  lo  que  su  uso  también  se  adecúa  a  pequeñas  distancias  y  se  recomienda  también  para  grabaciones  de  orquestas,  pianos  acústicos,  etc.  

ORTF  Estéreo  

Dos  cardioides  de  primer  orden  separados  17  cm  y  con  un  ángulo  de  110º  entre  sus  ejes  creando  una  imagen  estéreo.   La   técnica  ORTF  estéreo  usa  dos  pequeños  micrófonos   cardioides  de  primer  orden,   con  una  separación  entre  sus  diafragmas  de  17  cm  y  un  ángulo  entre  los  ejes  de  sus  cápsulas  de  110º.  La  técnica  ORTF   estéreo   (llamada   así   por   ser   ideada   en   la   Office   de   Radiodiffusion   Télévision   Française)   es   muy  apropiada  para  reproducir  señales  estéreo  muy  similares  a  aquellas  que  usa  el  oído  humano  para  percibir  información   en   el   plano   horizontal,   y   el   ángulo   entre   los   dos   micrófonos   direccionales   emula   el   efecto  sombra  de  la  cabeza  humana.  

La   técnica  ORTF  proporciona  una  grabación  con  una   imagen  estéreo  más  amplia  que   la   técnica  X-­‐Y,   y  sigue   preservando   una   razonable   cantidad   de   información   monofónica.   Puesto   que   el   patrón   polar  cardioide   rechaza   el   sonido   fuera   del   eje,   las   características   ambientales   de   la   sala   son  menos   captadas.  Esto  significa  que  los  micrófonos  pueden  ser  ubicados  a  cierta  distancia  de  las  fuentes  sonoras,  resultando  una  mezcla  que  puede  ser  más  atractiva.  Además,   la  técnica  ORTF  es   fácil  de   llevar  a  cabo,  en   la  medida  que  van  apareciendo  micros   construidos   con   características   apropiadas  para  ella.  Hay  que   tener   cuidado  cuando   se   usa   esta   técnica   en   grandes   distancias,   pues   los   micros   direccionales   muestran   el   efecto  proximidad  y  el  resultado  será  de  nuevo  una  pérdida  de  frecuencias  bajas.  Se  puede,  no  obstante,  colorear  el  sonido  posteriormente  a  base  de  EQ.  

Estéreo  apantallado  ("baffled  stereo")  

Técnicas  estéreo  de  micrófonos  separados  usando  una  pantalla  de  material  absorbente.  

Estéreo  apantallado  es  un  término  genérico  para  un  buen  número  de  técnicas  diferentes  que  usan  una  pantalla  aislante  para  realzar  la  separación  entre  los  canales  de  la  señal  estéreo.  Cuando  se  colocan  ente  los  dos  micros   en   un   sistema   espaciado   como   A-­‐B,   DIN   o   NOS,   el   efecto   sombra   provocado   por   la   pantalla  tendrá  una  influencia  positiva  de  atenuación  de  las  fuentes  de  sonido  desviadas  del  eje,  y  por  ello  se  realza  la   separación   de   canales.   Las   pantallas   deberían   estar   construidas   con   un   material   acústicamente  absorbente  y  no  reflexivo,  para  prevenir  las  reflexiones  en  su  superficie  que  puedan  colorear  el  sonido.  

Un   caso   particular   de   esta   técnica   es   el   denominado   "Jecklin   Disk",   que   consta   de   dos   micros  omnidireccionales  separados  unos  15  cm  y  una  pantalla  de  unos  30  cm  situada  entre  ellos.  La  pantalla  es  un  disco  rígido  recubierto  de  material  absorbente.  El  ángulo  desde  el  eje  central  a  cada  micro  es  de  unos  20º.  La  pantalla   también  puede  ser  una  esfera  rígida  con   los  micros  empotrados   formando  el  mismo  ángulo  y  distancias   opuestas.   Otra   variante   es   usar  micros   de   gradiente   de   presión   separados   la   distancia   de   los  oídos  con  la  pantalla  absorbente  entre  ellos,  etc.  

Page 53: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   53  

Árbol  Decca  ("Decca  tree")  

Tres  micrófonos  omnidireccionales  en  triángulo.  Configuración  con  gran  aceptación  en  el  mundo  de  la  grabación  orquestal.  Originalmente  introducido  por  el  sello  Decca,  el  árbol  consiste  en  una  figura  de  tres  puntos   formada   por   micrófonos   omnidireccionales   en   un   triángulo  (casi  equilátero)  apuntando  hacia  la  fuente  sonora.  

Los   dos   micros   exteriores   están   bastante   apartados,   de   manera  que  aparece  un  agujero  central  si  no  se  coloca  un  micro  en  ese  lugar.  Ese   micro   central   debería   ser   mezclado   para   rellenar   el   hueco,  teniendo   cuidado   de   no   enturbiar   la   perspectiva   del   sonido  haciéndola  demasiado  monofónica.   Las  distancias  exteriores  oscilan  entre  60  y  120  cm.  El   tercero,  el  del  centro  puede  estar   ligeramente  por   debajo   y   por   delante  del   par   externo.  Dependiendo  de   las   variables  acústicas  de  la  sala  donde  el  conjunto  o  la  orquesta  sean  grabados,  el  árbol  puede  ser  alzado  o  bajado  par  lograr  el  mejor  resultado.  Es  una  colocación  con  mucho  éxito  porque  asegura  un  sonido  natural,  sin  fisuras  para   la   audiencia,   y   les   permite   experimentar   la   interpretación   en   un   contexto   de   dinámica   total.   A  menudo,  el  árbol  se  coloca  justo  detrás  o  encima  del  director,   lo  cual  da  como  resultado  un  balance  muy  cercano   a   la   intención   musical.   Además,   los   tres   micrófonos   se   aproximan   más   a   las   secciones   de   la  orquesta   que   los   sistemas   A-­‐B,   proporcionando   mucha   más   claridad   y   definición   de   la   imagen   estéreo,  logrando  así  una  reproducción  más  intensa  y  detallada.  

Conclusiones  

La   utilización   de   este   tipo   de   técnicas   es   verdaderamente   importante   si   pretendemos   conseguir  producciones  grandes,  abiertas  y  espaciosas.  Grabaciones  de  overheads  de  batería,  percusiones,  guitarras  estéreo,   pianos   de   cola,   orquestas   completas,   micros   de   ambiente   de   conciertos...   son   ese   tipo   de  grabaciones  en  las  que  se  hace  un  uso  constante  de  estas  técnicas.  

Debemos   tener   en   cuenta   que   existen   micrófonos   estéreo   que   albergan   dos   cápsulas   en   una   sola  unidad,  al  igual  que  pares  de  micros  que  se  entregan  con  un  soporte  especial  para  colocar  éstos  sobre  un  sólo  pie  de  micro,  y  que  posibilitan  su  orientación  para  poder  realizar  grabaciones  estéreo  A-­‐B,  X-­‐Y...  con  menor   trabajo   que   haciéndolo   por   los   métodos   tradicionales.   Tendremos   esto   en   cuenta   a   la   hora   de  escoger  un  set  de  micrófonos  que  se  adecue  a  nuestras  necesidades.  

Haciendo  uso  de  los  datos  que  genera  incesantemente  la  evolución  del  mundo  de  la  grabación  de  audio,  debemos   ir   logrando   acercarnos   poco   a   poco   a   las   producciones   que   realmente   transmiten   emociones,  factor  fundamental  para  que  la  música  se  haya  convertido  en  lo  que  es  hoy  día.  

Uso  de  micrófonos:  guitarra,  bajo  y  voz  

Hoy  saldamos  una  deuda  que  teníamos  con  vosotros  desde  hace  demasiado  tiempo.  Con  este  artículo  completamos   la   serie   sobre  uso  de  micrófonos  que   arrancó  en   febrero  de  2006   con   la   parte  dedicada   a  baterías.  En  esta  ocasión,  nos  ocupamos  del  microfoneo  de  guitarras  acústicas  y  eléctricas,  bajo  eléctrico  y  voz.  Se  incluyen  17  ejemplos  en  MP3  de  tomas  realizadas  con  Shure  SM57,  AKG  C41,  AKG  D112,  Sennheiser  421  y  Neumann  U87.  Tampoco  faltan  capturas  de  la  ecualización  recomendada,  buenos  consejos  técnicos  y  fotografías  de  la  posición  y  distancia  de  los  micros.  

Tomáoslo   como   una   introducción   al   trabajo   con  micrófonos.   Recordad   que,   para   conseguir   un   buen  sonido,  no  basta  con  seguir  al  pie  de  la  letra  unos  cuantos  consejos  y  tener  un  buen  material;  hay  muchos  otros  factores  que   influyen:   la  calidad  del   instrumento  y   la  destreza  del  ejecutante,   la  acústica  de   la  sala,  vuestra  habilidad  con  los  ajustes...  

Page 54: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   54  

Guitarra  eléctrica  

En  el  registro  sonoro  de  la  guitarra  eléctrica  se  suele  poner  el  micrófono  perpendicularmente  al  altavoz  o  con  un  ángulo  de  45  grados,  entre  otras  posibilidades.  Cabe  destacar  que   la  afinación,  el  guitarrista,   la  guitarra,  pastillas,  amplificador  y  altavoces  son  tan  importantes  como  el  micrófono  y  la  propia  grabación.  

Bajo  eléctrico  

El   bajo   eléctrico   rinde   más   con   las   cuerdas   nuevas,   siempre   que   se   busque   un   sonido   brillante.  Normalmente,   los  micrófonos  que   funcionan  mejor  son   los  colocados  a  unos  10  cm.  del  altavoz,  entre  el  centro  y  la  circunferencia.  Es  aconsejable  también  utilizar  una  toma  de  bajo  directa  de  una  D.I.,  aparte  de  los  micrófonos  y/o  de  la  salida  balanceada  del  amplificador  o  previo  de  bajo.  

Guitarra  acústica  

Suponiendo  que  el  sonido  de  la  guitarra  sea  muy  bueno,  que  está  afinada,  con  las  cuerdas  nuevas  o  casi  nuevas   y   que   la   técnica   del   ejecutante   es   buena,   nos   ponemos   en   marcha   para   elegir   micrófonos.   Un  micrófono  a  unos  15/30  centímetros  de  la  boca  de  la  caja  de  resonancia  nos  dará  un  sonido  puro,  natural,  con  mucho  cuerpo.  Se  puede  añadir  otro  micrófono  a  1  ó  2  metros  de  distancia.  A  veces,  también  se  puede  colocar  un  micrófono  detrás  de  la  caja  de  resonancia,  para  buscar  otro  tipo  de  cuerpo,  aunque  no  es  muy  habitual.  También  juega  un  papel  importante  la  acústica  del  lugar.  

Voz  

En  el  registro  de  la  voz  humana  hay  muchas  cosas  a  tener  en  cuenta;  sobre  todo,  que  el  cantante  no  se  mueva  mucho,  no  llevar  el  ritmo  con  el  pie,  no  usar  los  auriculares  a  un  volumen  excesivo,  y  que  éstos  sean  siempre  cerrados.  El  uso  del  popfilter  o  antipop  es  imprescindible,  para  que  las  "P"  y  "B"  no  suenen  como  un  golpe  en  el  diafragma  del  micrófono  y  arruinen  la  grabación.  

El  micrófono  más  clásico  para  grabar  voces  es  el  Neumann  U87.  El  cantante  se  situará  normalmente  a  unos   15/20   centímetros.   También   puede   usarse   un   AKG   C414   a   un  metro   de   distancia,   siempre   que   la  acústica  del  lugar  sea  muy  buena.  

Diagrama  polar  

 

Page 55: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   55  

Cadena  de  la  señal  de  audio  del  micro  al  altavoz  

 

Conexionado  de  un  equipo  de  producción  sonora  

 

Page 56: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   56  

Circuitos  de  un  canal  (5  tipos)  

   

   

 

 

Interfaces  y  superficies  de  control  

 

http://www.thomann.de/es/equipo_de_estudio_y_recording.html

Audio InterfacesSuperficies de control

Page 57: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   57  

Conexionado  y  soldadura  El  cableado  es  el  eslabón  más  débil  de  cualquier  equipo;  están  por  el  suelo,  los  retorcemos,  tiramos  de  

ellos,   sufren   pisotones,   les   pasamos   por   encima   con   los   fligth-­‐cases…un   montón   de   maltratos   que   nos  pueden  complicar  la  vida  en  medio  de  una  grabación  o  durante  un  bolo.    

Conectores  

Llamamos  conector  a  la  conexión  que  tenemos  en  los  extremos  de  los  cables;  piezas  metálicas  (a  veces  recubiertas  de  plástico)  que  son  las  que  formarán  parte  de  lo  que  queramos  interconectar.  Existen  en  el  mercado  multitud   de   conectores,   destacando   el   XLR   como   estrella   del   catálogo  seguido  por   los  conectores  TRS  (Jack).  Veamos  en  el  siguiente  cuadro  los  conectores  de  audio  que  podemos  encontrarnos:  

Aéreo  simplemente  nos  indica  que  el  conector  está  diseñado  para  ser  instalado  en  un  cable,  al   igual  que  el  acodado,  con  la  diferencia  que  este  último  se  usa  en  aplicaciones  donde  el  espacio  es  reducido  y  el  conector  no  puede  ocupar  el  espacio  habitual.  

Los   conectores   de   chasis   son   aquellos   que   nos   encontramos   en  aparatos   (mesas   de   mezcla,   previos,   compresores,   puertas…);   en  definitiva,  son  los  que  están  instalados  en  la  carcasa  de  un  aparato.  

XLR,  también  conocido  como  CANON,  es  la  conexión  estrella  entre  los  micrófonos  y  las  mesas  de  mezcla  (o  previos,  o  cajetín…).  Tiene  3  pines;  1  malla,  2   vivo  y  3   frío   (return,  hot,   cold)  Estos  números  nos   los  podemos  encontrar  dentro  del  conector  al  lado  de  cada  patilla  para  identificarlo.  

TRS,  también  conocido  como  Jack:  en  ningún  caso  deberíamos  llamar  a  este   conector   como   jack   estéreo   (ver   apartado   “La   confusión   entre   el  mono   y   el   estéreo”).   Tiene   3   puntos   de   conexión;   punta,   anillo   y  malla  (tip,  ring,  sleeve).  

El  TS  es  igual  que  el  TRS  pero  carece  de  anillo  (ring),  lo  cual  lo  convierte  en  un  conector  con  2  puntos  de  conexión;  punta  y  malla   (tip,   sleeve).  El  diámetro  en  ambos  casos  es  de  ¼  de  pulgada    (6,35  mm).  

RCA   (cinch)   es   el   más   común   de   los   conectores   de   audio   que   nos  podemos   encontrar   en   sistemas   domésticos,   mini   cadenas   hifi,  reproductores  de  CD…sólo  tiene  2  puntos  de  conexión,  punta  y  cuerpo.    

Minijack:   popularizado   por   las   salidas   de   auriculares   de   los   reproductores   portátiles;   walkmans,  minidiscs,  reproductores  de  MP3…no  se  considera  una  conexión  estándar  o  profesional,  pero  entendemos  que  es  común  al  público  en  general  y  es  positivo  conocerlo.  Tiene  3  puntos  de  conexionado,  al  igual  que  el  TRS  (tip,  ring,  sleeve).  Su  diámetro  es  de  1/8  de  pulgada  (3,175  mm).  

El   conector   combo   se   está   estandarizando   en   pequeños   interfaces   de   audio   y  mesas   pequeñas.   Este  conector  nos  permite  conectar  un  XLR  macho,  un  TRS  macho  o  un  TS  macho  en  el  mismo  conector  hembra.  Sin  duda  un  acierto  y  ahorro  de  espacio.  

La   última   novedad   en   conectores   es   el   Silent   Plug.   Sirve   para   los   cables   de   guitarras,   bajos   y   demás  instrumentos  con  pastillas,  y   llevan  un  mecanismo  que  se  encarga  de  “mutear”   la  señal  mientras  no  está  

Page 58: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   58  

conectado,   evitando   los   temidos   “chisporroteos”   en   los   equipos,   que   pueden   llegar   a   ocasionar   averías.  Esta  es  sin  duda   la   forma  segura  y  rápida  de  enchufar  y  desenchufar  nuestras  guitarras  “en  caliente”,  sin  estar  pendiente  de  que  los  técnicos  muteen  el  canal.  

Los  conectores  normalmente  se  compran  en  paquetes  de  10,  25,  50,  100…  y  hay  multitud  de  marcas  que  los  comercializan:  Destacamos  en  este  aspecto  a  [  Neutrik  ]  como  líder  del  sector.  

También  cabe  destacar   la  existencia  de  adaptadores  que   intercambian   la  terminación  de  un  cable  con  cualquier  conector  en  otra  que  nosotros  elijamos,  siendo  esta  una  forma  rápida  y  segura  de  convertir,  por  ejemplo  un  RCA  –RCA  en  RCA-­‐TS.  

Adaptadores  

Cables  

Los   cables   que   todos  nosotros  manejamos  no   son  otra   cosa  que   la   agrupación  de  otros   cables   en  un  interior   (que  a  partir  de  ahora   llamaremos  minicables).   Llamamos  malla  al   cable  que  en  vez  de  viajar  de  punto  a  punto  normalmente  va  rodeando  el  resto  de  cables.  Esto  se  hace  para  crear  un  campo  alrededor  del  cable,  intentando  protegerlo  de  interferencias  externas.  

El   cable  normalmente  se  adquiere  en  bobinas  de  25,50  metros,  y   se  corta  al  gusto  de   la   longitud  que  queramos.  

Balanceado  y  no  balanceado  

Por  un  cable  balanceado  viaja  la  misma  señal  2  veces,  pero  en  una  de  ellas  cambiada  de  polaridad.  El  fin  de   la   señal  balanceada  es  evitar   ruidos  e   interferencias  que  distorsionen   la   señal  original.  O   lo  que  es   lo  mismo,   tenemos   la   misma   señal   2   veces   sin   interferencias,   ya   que   estas   se   anulan   al   ser   sumadas   con  polaridades  contrarias.  

La  confusión  del  mono  y  el  estéreo  

Por   lo   general,   no   existen   cables  mono   y   cables   estéreo,   es   decir:   no   por   ver   un   conector   TRS   en   un  extremo  del  cable  diremos  que  ese  cable  es  estéreo.  En  todo  caso,  podríamos  decir  que  es  balanceado,  y  siempre   atendiendo   a   lo   que   haya   en   el   otro   extremo,   como   se   explicó   anteriormente.   Existen   cables  estéreo,   pero   reservamos   este   término   para   cuando   obligamos   a   viajar   por   el   mismo   cable   2   señales  distintas,   como   en   el   cable   de   los   auriculares.   En   el   cable   de   los   auriculares,   en   un   solo   conector   TRS   o  minijack  viaja  la  señal  de  L  y  la  señal  de  R.  Esto  es  posible  porque  por  la  punta  (tip)  se  envía  la  señal  de  L  y  por  el  anillo  (ring)  la  señal  de  R,  y  ambas  señales  comparten  retorno  por  el  cuerpo  (sleeve).  De  manera  que  por  un  cable  balanceado  (2  minicables  y  malla)  con  un  conector  de  3  puntos  de  conexión  podemos  hacer  viajar  2  señales  NO  balanceadas  independientes.  

 

   

 

Page 59: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   59  

Proceso  para  la  postproducción  de  sonido  del  rodaje  al  master  Este  es  el  procedimiento  para  sonorizar  una  escena.  

1-­‐ Captación  del  audio  en  grabación  en  Fostex  u  otro  grabador,  siempre  usando  la  claqueta.  

2-­‐ Captura  de  las  secuencias  de  vídeo  válidas  e  importación  de  los  correspondientes  audios  grabados  en  el  Fostex  al  programa  de  edición  (Avid  o  Final  Cut).  

3-­‐ Con  los  materiales,  hacer  carpetas  de  vídeo/audio  y  sincronías.  

4-­‐ Hacer   una   secuencia   de   cada   toma   (o   por   tipos   de   plano),   sincronizando   vídeo   y   audio   con   la  referencia   de   la   claqueta.   Hay   que   sincronizar   el   audio   antes   de   empezar   a   cortar,   porque   si   no  perdemos  la  referencia  de  la  sincronía.  Al  hacerlo  por  planos,  el  encargado  de  audio  sólo  tiene  que  ecualizar  una  vez  el  audio,  y   le  quedan  todas   las  tomas  del  mismo  plano  (tomadas  en   las  mismas  condiciones)  arregladas.  

5-­‐ Editar  el  material  con  el  audio  sincronizado  de  cada  plano,  vinculando  vídeo  y  sonido.  

6-­‐ Una  vez  finalizada  la  edición  exportamos  por  separado  el  vídeo  del  audio.  

7-­‐ El  vídeo  es  suficiente  con  un  archivo  quick-­‐time  pequeño,  como  240px,  porque  sólo  nos  importa  la  referencia  y  que  pese  poco,  la  calidad  es  lo  de  menos.  

8-­‐ Exportamos  el   audio   como  OMF.  Es  un  archivo  donde  aparecen   todos   los  audios   separados  pero  sincronizados.   La   ventaja   del  OMF   es   que   así   se   puede   exportar   con   colas   de   audio.   Parámetros  para  exportar  en  OMF:   incluir  todas   las  pistas  en   la  sección  y  “Consolidate  Media  Handle  Length”  250  frames  (esto  se  refiere  a  la  longitud  de  las  colas,  por  si  hay  que  hacer  encadenados  o  arreglos)  

9-­‐ Abrimos  el  editor  de  audio  que  vamos  a  usar  (ProTools,  Logic,  Nuendo…)  e  importamos  el  archivo  de  vídeo  y  el  de  audio.  

10-­‐ Importamos  todos  los  archivos  que  necesitamos  para  la  edición  y  conformación  del  audio.  

11-­‐ Organizamos  los  audios  en  diferentes  pistas,  cada  una  para  un  plano.  

12-­‐ Hacemos  la  limpieza  de  los  diálogos.  

13-­‐ Ajustamos  los  Fade  y  Crossfade.  

14-­‐ Ecualizamos  si  es  necesario.  

15-­‐ Insertamos  Room  Tone  y  los  efectos.  

16-­‐ Metemos  la  música.  

17-­‐ Pasamos  a  realizar  la  mezcla  en  estéreo  o  en  5.1.  

18-­‐ Una  vez  que  tenemos  una  mezcla  idónea  hacemos  un  Bounce  para  tener  un  archivo  estéreo  WAV  o  AIFF.  

19-­‐ Este  archivo  lo  importamos  al  proyecto  en  el  editor  de  vídeo  y  lo  ajustamos  a  la  secuencia.  

20-­‐ Una  vez  que  exportemos  la  secuencia  con  ese  audio,  ya  tenemos  el  proyecto  finalizado.  

Page 60: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   60  

Guía  para  compresión  

Vídeo  

Códec   H.264  

El   códec   es   el   formato   en   que   se   codificará   el   vídeo.   Los   distintos   códec   tienen  características   distintas   y   calidades   variables.   Para   los   mejores   resultados,  recomendamos  H.264  (a  veces  referido  como  MP4)    

Frame  rate   24,  25  o  30  FPS  

Lo  mejor  es  codificar  a  la  misma  velocidad  que  se  grabó.  Si  la  velocidad  excede  los  30  FPS,  deberá  codificar  el  vídeo  a   la  mitad  de   la  velocidad   (por  ejemplo,  para  60  FPS  deberá  codificar  a  30  FPS).  

Data  rate   2000  Kbps  (SD),  5000  (HD)  

Esta   característica   controla   la   calidad   visual   del   vídeo   y   el   tamaño  del   archivo.   Los  mejores   editores   de   vídeo   se   señala   en   kbps.   Los   2000   Kbps   se   utilizan   para   la  definición  estándar  y  los  5000  Kbps  para  la  alta  definición.  

Resolution   Es   la   cantidad   de   píxels   y   el   ratio   de   aspecto.   Por   ejemplo,   un   vídeo   de   64x480  correspondería  a  un  4:3  y  un  640x360  a  un  16:9,  ambos  en  definición  estándar.  Para  la  alta  definición  se  usarían  tamaños  superiores  a  1280x720  píxels.  

Deinterlacing   Si  se  ha  grabado  con  una  cámara  antigua,  debería  seleccionar  esta  opción  para  evitar  líneas  horizontales.  En  las  cámaras  modernas  no  es  necesario.  

Audio  

Códec   AAC  (Advanced  Audio  Códec).  Es  el  más  recomendado  para  buenos  resultados.  

Data  rate   320  kbps  es  la  mayor  calidad  que  soporta  Vimeo  

Sample  rate   44.1  KHZ  es  el  simple  rate  más  alto  que  soporta  Vimeo  

 

Page 61: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   61  

Podcast  Podcasting:   Sindicación   de   archivos   de   sonido,   generalmente   en   formato  MP3   (ver   diapositiva   en   el  

campus).  Podcasting  es   la  sindicación  de  archivos  de  sonido,  normalmente  MP3,  con  un  sistema  RSS,  que  permite  suscribirse  y  descargarlos  de  forma  automática  y  periódica.  Sindicación  significa  que  no  necesitas  visitar  otra  página  web  individualmente  para  escuchar  el  mensaje  (archivo  de  sonido)  simplemente  tienes  que  pulsar  en  un  botón  para  escucharlo.  

Para   la   creación  de  un  Podcast   se  hace  una  grabación  básica  en  estudio.   Luego   incluimos   los  efectos,  música…  con  algún  programa  de  edición  de  audio  y  lo  exportamos  a  WAV,  para  convertirlo  después  a  MP3  con  cualquier  conversor  (o  exportarlo  directamente  a  MP3  si  el  programa  lo  permite).  

Creamos  un  blog  donde  poder  colgar  nuestros  contenidos  y  una  cuenta  en  algún  sitio  de  FTP  (divshare,  blip.tv…).  Creamos  una  entrada  nueva  (así  haremos  público  ese  nuevo  podcast)  en  la  que  introduciremos  el  enlace  al  archivo  subido.  

Los  Podcast  se  distribuyen  por  RSS,  que  es  lo  que  permite  a  nuestros  oyentes  que  se  suscriban  a  nuestro  Podcast  sin  necesidad  de  ir  al  Blog  (mediante  iTunes,  Google  Reader…).  

Si   hacemos   el   blog   con   Blogger,   es   conveniente   solucionar   los   posibles   problemas   de   RSS   con  Feedburner.   Para   ello,   entramos   en   FeedBurner   con   nuestra   cuenta   de  Google,   introducimos   la   URL   del  blog  y  marcamos  “I  am  a  podcaster”.  En  la  siguiente  página  seleccionamos  cualquiera  de  las  dos  (ATOM  o  RSS)  y  en  la  siguiente  página  elegimos  un  título  y  metemos  una  URL.  Luego,  en  "Create  podcast  enclosures  from  links  to  (selection)  :  "any  rich  media",  y  rellenamos  la  información  para  iTunes.  

Luego   habrá   que   actualizar   el   feed   en   Blogger   (Configuración   >   Feed   del   sitio   >   “Publicar   URL  redireccionada  del  feed”  >  ponemos  la  URL  de  feedburner).  

 

 

 

 

Page 62: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   62  

Charles  Chaplin  y  los  inicios  del  cine  sonoro  

Los  críticos  con  el  advenimiento  del  sonoro  

Para  algunos  cineastas  USA  de  los  años  1920,  el  sonido  degeneraba  el  cine  como  arte.  Esta  postura  fue  defendida   por  muchos   directores,   que   tardaron   en   aceptar   el   sonido   o   que   no   lo   hicieron.   Por   ejemplo,  Griffith  no  fue  capaz  de  superar  la  aparición  del  sonido,  y  sólo  realizó  dos  películas  sonoras.  

Hitchcock  el  mayor  exponente  de  esta  postura.  Sus  grandes  secuencias  son  mudas,   sin  diálogo.  Como  para  Chaplin,  para  Hitchcock  el  cine  se  convertía  en  una  copia  de  una  obra  de  teatro.  Así,  Chaplin  afirmaba  que  con  el  cine  sonoro  se  volvía  el  teatro  hablado;  se  volvía  a  filmar  algo  que  ya  conocíamos  de  antes  (en  los  teatros),  y  que  toda  la  evolución  del  cine  como  “arte  visual”  se  perdía  con  el  sonoro.  

Luces  de  la  ciudad  

-­‐ Los  créditos  iniciales:    • Tienen   3   músicas   distintas:   al   principio   utiliza   metales   jazzísticos   (como   un   claxon   largo   de   la  

ciudad   o   una   sirena   de   fabrica   en   su   imitación.   Es   una   música   urbana   norteamericana,   jazz,  Broadway).  Al  final  se  repite  este  carácter  urbano  de  la  música,  pero  en  el  medio  la  música  toma  un  carácter  español,  anticipando  "La  violetera“,  una  copla  (curioso  que  Chaplin  se  viese  obligado  a  incluir   en   créditos   a   José   Padilla,   al   que   había   obviado   en   la   primera   versión,   diciendo   que   la  música  era  suya.  Es  el  primer  caso  de  copyright  que  se  gana  por  la  música).  El  tercer  tema  es  un  romance,  un  vals.  

• Aunque  en   los   títulos  de  crédito  se  señala  que  es  una  comedia,   la  música  de   fondo  no  es  ni  de  comedia  ni  de  romance,  sino  más  bien  de  tensión,  como  parodiando  el  género.  

• También   se   señala   en   los   créditos   que   se   trata   de   una   pantomima   (arte   del  mimo).   Así   queda  patente  la  influencia  del  teatro.    

- Secuencia  inicial:    • Los   diálogos   están  hechos   con  un   kazoo   (son  onomatopéyicos).   Es   la   primera   vez   que   se   oye   a  

Chaplin,  a  pesar  de  su  oposición  al  sonido.  Uso  expresivo  del  sonido  distorsionado  como  idioma  universal.  Los  diálogos  se  "entienden"  por  el  intertítulo  inicial  que  marca  el  carácter  del  discurso,  pero  también  se  subraya  lo  vacuo  del  discurso;  nada  de  lo  que  dicen  es  importante  (parodia  a  la  clase  política  o  rica  del  momento,  a  su  pomposidad).  

• El  diálogo  es  como  el  que  haría  un  ruidero,  no  aporta  nada.  Pretende  parodiar  el  cine  sonoro.  Su  intención  es  cómica.  

• Música  extradiegética  o  diegética  en  esta  primera  secuencia;  Himno  USA  ,  diegético.  • Durante  el  himno,  todos  están  quietos  salvo  Chaplin.  

- Escaparate:    • Escaparate:  En  el  momento  en  el  que  Chaplin  observa  el  maniquí  se  detiene  la  música.  Tras  esto,  

la  música  va  a  trompicones,  acompañando  los  movimientos  de  Chaplin  y  creando  tensión  sobre  si  caerá  en  el  agujero  o  no.  En  esta  secuencia  se  aprecia  un  notable  uso  de  los  silencios  para  marcar  vacilaciones,  dudas,  interés…  juega  mucho  con  las  pausas  de  la  música.  

- Cuando  encuentra  a  la  mujer  ciega:  • La  música  se  ralentiza  (leitmotiv).  No  oímos  la  puerta  del  coche,  pero  la  chica  ciega  sí.  La  música  

se  torna  más  dulce,  como  si  representara  la  situación  amorosa  y  el  carácter  de  la  muchacha.  Las  

Page 63: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   63  

frases   musicales   parecen   acompañar   las   intenciones   de   cada   personaje,   como   si   se   estuviera  produciendo  un  diálogo.    

• Se   trata  del  mismo  vals  que  al   inicio,  pero  más   romántico.  Cuando  él   se  acerca  a  hurtadillas,   la  música  es  más  baja  y  más  lenta.  

Cabe  destacar  que  en  el  fragmento  analizado  no  existe  ningún  efecto  de  sonido  además  del  abucheo  de  la  multitud  cuando  Chaplin  está  colgado  de  la  estatua:  ni  el  agua,  ni  los  coches,  ni  las  puertas  hacen  ruido.  No  existe  el  universo  sonoro  en  el  film  tal  y  como  lo  entendemos  hoy  en  día.    

- La  fiesta:  • La  música  crea   la  fiesta,  acompaña  los  movimientos  sinuosos  de  Chaplin.  Los  efectos  sonoros  se  

hacen  con  la  música,  como  los  spaguetti.  En  la  pelea,  la  música  marca  los  golpes.  • Aparece  el  silencio  premonitorio.  • Música  diegétia  (la  banda),  los  personajes  oyen  la  música.  • Chaplin  es  el  mayor  exponente  de  los  slapsticks.  

Luces  de  la  ciudad  se  extiende  su  rodaje  casi  a  dos  años  y  se  va  desarrollando  con  mucha  lentitud,  típico  de  los  rodajes  de  Chaplin.  Rodada  independientemente  de  lo  que  ocurría  con  el  cine  sonoro.    Hay  una  plena  efervescencia  de  la  música  en  la  película,  pero  en  cuanto  a  su  presencia  diegética  esta  película    tenemos    un  baile  y  muy  poco  más  (el  himno).    

El  punto  de  partida  de  la  película  en  cuanto  a  historia  es  el  encuentro  entre  el  vagabundo  y  la  florista.  

Muestra   la   autosuficiencia   de   un   cine   que   se   quiere  mudo   pero   que   ya   tiene   en   sí  mismo   el   sonido.  Convoca  un  sonido  aludiendo  a  su  presencia  natural,  en  ningún  caso  lo  manipula.  Hay  juegos  Sinestésicos.  Hace  intrascendente  la  presencia  concreta  del  sonido,  porque  el  sonido  no  hace  falta  que  se  oiga,  porque  se  siente,  lo  “oímos”  mentalmente  como  espectadores  aunque  no  se  oiga.  La  razón  de  ser  del  arte  del  cine  viene  dado  por  la  visibilidad  de  un  mundo  audible;  nosotros  no  lo  oímos,  pero  el  sonido  está  ahí  está  ahí  y  los  personajes   lo  escuchan.  Chaplin,  en  relación  con  el  sonoro,   lucha  más  en  el  campo  estético  que  en  el  político.  

Tiempos  modernos  

Chaplin  intenta  universalizar  el  guión  para  que  todos  lo  entiendan,  como  ocurría  con  el  cine  mudo  (por  ejemplo,   en   la   escena   de   las   pancartas   hay   varios   idiomas),   y   utiliza   ciertas   cosas   del   sonido   de   forma  estética.  

Aunque  sea  la  primera  película  hablada  de  Chaplin,  los  diálogos  sólo  se  oyen  cunado  salen  de  artilugios  mecánicos,  no  son  pronunciados  por  personas   (videófonos  del  presidente  de   la   factoría,  el   fonógrafo  del  vendedor   de   máquinas   de   comer,   la   radio   en   el   despacho   del   alcaide   de   la   prisión…).   La   tecnología   es  símbolo  de  la  deshumanización.  

Se   oyen   los   cantantes   de   la   cafetería   y   sus   voces,   las   risas   y   los   aplausos   de   los   espectadores   del  restaurante...  Los  efectos  se  oyen  sobre  todo  en  las  secuencias  de  la  factoría  (las  máquinas  hacen  ruido,  las  personas  casi  no).  

En   la  secuencia  semifinal   (Charabia  o  gibberish),  se  oye  cantar  a  Chaplin  por  primera  vez.  Él  quería  un  lenguaje   universal   que   “entendiese   todo  el  mundo”.  Utiliza   gestos   para   apoyar   la   canción   y   hacerla  más  entendible  y  cómica,  es  casi  imposible  entender  lo  que  dice  la  canción  sólo  con  gestos.  

En  la  fábrica,  la  música  y  el  ruido  se  funden.  

Page 64: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   64  

Tiempos  modernos  es  una  crítica   tanto  por  el  maquinismo  como   la   revolución   industrial  y   la  aparición  del  sonido.  Se  estrenó  cinco  años  después  de  Luces  de  la  ciudad,  cuando  el  sonido  estaba  ya  consolidado.  El  efecto  disonante  de  esta  película  en  su  época  es  más  pronunciado  si  atendemos  a  que  no  hay  voz,  pero  sí  mucha  riqueza  musical  y  de  ruidos.  Chaplin  es  el  compositor  de   las  partituras  de  casi   todas  sus  películas.  Aquí  no  renuncia  al  resto  de  sonidos  pero  sí  a  la  voz,  a  la  palabra  teatro,  a  la  gente  que  habla  sin  más.  

La   película   tiene   dos   tipos   de   roles   del   sonido   en   cuanto   a   dialogo:   los   emitidos   en   directo   por   los  personajes,   pero   que   no   oímos   (en   intertítulos;   esquema   típico   del   cine  mudo)   y   los   transmitidos   por   la  tecnología  (radio,  sistema  interno  de  la  empresa)  que  tiene  la  cualidad  de  oírse.  Los  aparatos  tecnológicos  y  mecánicos  son  los  que  transmite  la  voz.  

La  película  vulnera  sus  leyes  de  no  oír  diálogos  cuando  en  un  momento  álgido  del  film  oímos  la  voz  de  Charlot  cantando;  el  vagabundo,  hasta  entonces,  no  había  hablado.  Así,  Chaplin  desmiente  los  rumores  de  que  no  es   capaz  de  hablar  en  público  y  que   su   renuncia  al   sonoro  no  es  una  carencia,   sino  una  decisión  propia.  Pero  utiliza  una  mezcla  entre  francés  e  italiano,  cuando  el  inglés  era  el  idioma  mayoritario  en  salas,  porque  quiere  demostrar  que  no  necesitamos  la  voz  para  el  conocimiento:  todo  está  en  su  interpretación.    Los  sonidos,  desprovistos  de  todo  potencial  comunicativo,  se  reducen  al  efecto  cómico.  

- Créditos:  música  que  provoca   tensión  en  contraposición  con   la  película,  que  es  una  comedia;  pero  por  otro   lado  tiene  mucho  que  ver  con   lo  que  vamos  a  ver  después,  con  el  ambiente  de   la   fábrica.  Emplea  la  misma  música  para  dos  imágenes  diferentes  como  metáfora,  comparando  a  las  ovejas  con  los  trabajadores.  

- Fábrica:  Música  extradiegética  para  acompañar  las  acciones  de  la  fábrica,  proceso  de  montaje,  crea  los  efectos  sonoros  de  la  maquinaria  (el  compás  de  la  música  marca  la  actividad  laboral).  La  única  voz  que   se  escucha  del  presidente   cuando  habla  a   través  de   la  megafonía,   y   cuando  habla  y   la  escena  transcurre  en  su  despacho  la  música  desaparece,  primando  su  voz  (es  el  único  que  tiene  voz,,  lo  que  también   establece   cierta   jerarquía   empresarial);   son   diálogos   “limpios”.   En   el   baño   suena  música  romántica  hasta  que  aparece  el  presidente,  que  es   cuando  deja  de  estar   relajado  Chaplin.  Cuando  presentan   la   máquina,   las   dos   veces,   suena   música   en   tono   triunfal   y   ponen   un   tocadiscos   que  reproduce   una   voz   diegética   que   presenta   la   máquina.   A   veces   existe   un   intercambio   de   frases  musicales  a  modo  de  diálogos.  

- La  representación  del  diálogo  en  la  película  se  da  en  tres  formas:  

• Silencio:  Hablan,  pero  no  les  oímos.  Les  vemos  mover  labios  y  gesticular.  

• A  través  de   las  máquinas:   Las  voces  y  efectos  provienen  de   las  máquinas,  y  a   través  de  ellas  es  también  de  la  única  forma  que  oímos  el  diálogo.  

• Rótulos:  Se  utilizan  los  rótulos  para  diálogos  necesarios  que  no  se  dan  a  través  de  las  máquinas,  como  es  el  caso  de  la  afirmación  del  jefe  de  que  la  máquina  para  comer  no  es  práctica.  

El  gran  dictador  

El   Gran   Dictador   es   una   parodia   de   Hitler,   una   broma   irónica   y   burlona   sobre   el   dictador.   Su   trama  despliega   dos   líneas   de   acción   paralelas   que   se   encuentran   al   final,   y   responde   a   la   idea   del   evidente  parecido   facial   entre  Charlot   y   el   tirano.   Es   la   primera   vez   que  Chaplin   escribe  un   guión   "estándar”,   con  diálogos.  Su  cine  era  antes  deslavazado,  de   secuencias  autónomas  que  se  unían  porque   lo  cómico  era   lo  más  característico  de  Chaplin.  El  montaje  de  Chaplin  se  resiste  al  analítico  en  continuidad  de  Hollywood  (no  hay   plano   contraplano   apenas   hay   insertos…)   porque   él   busca   la   libertad   de   la   actuación   de   los   planos  secuencia.      

Page 65: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   65  

 El  Gran  Dictador  se  crea  al  contacto  de   los  acontecimientos.  Chaplin   investigó  rigurosamente  sobre  el  nazismo   durante   dos   años.   El   9   de   septiembre   de   1939   comienza   el   rodaje,   pocos   días   después   de   la  invasión   de   Polonia,   en   un   momento   de   máxima   tensión.   Cuando   la   película   se   está   montando   hay  bombardeos  en  Gran  Bretaña.  Chaplin  es   inglés   y   se  ve  afectado  por   lo  que  ocurre  allí.  Hay  un   contexto  histórico  que  ha  quedado  reflejado  en  el  film.  Precisamente  por  estas  referencias,  tuvo  muchos  problemas  para  estrenar  la  película  en  España.  

El  barbero  no  es  Charlot  pero  tiene  características  de  él,  es  anónimo  y  tiene  una  escueta   intervención  hablada.   Es   Charlot   en   cierta   manera.   Tiene   amnesia   y   ha   olvidado   el   pasado,   no   sabe   cuanto   tiempo  transcurrió  desde  el  accidente.  La  película  supone  la  última  aparición  de  Charlot  (el  vagabundo),  que  resulta  ser  un  judío  que  desaparece  en  los  campos  de  concentración.  No  hace  ya  falta  ni  su  sombrero  ni  su  bastón.    Sigue  haciendo  uso  de  la  pantomima  y  de  una  gestualidad  excesiva  que  busca  un  efecto  cómico.  Además,  el  barbero  apenas  habla  (murmullos,  suspiros…).  

Hynkel  es  el  primer  personaje  que  Chaplin  se  crea  para  él  desde  Charlot,  y  es  antecedente  de  todos  los  que  vienen  después.  Tanto  Hinkel  como  el  asesino  de  Monsieur  Verdoux  son  personajes  “de  la  vida  real”.  Además,  habrá  otros  personajes  “increíbles”.    

 Significa   la   desaparición   de   Charlot   y   la   aparición   de   Chaplin   hablando.   Es   el   hombre   (Chaplin),   en  sustitución  del  personaje   (vagabundo/barbero   judio).  Todo  este  proceso   tiene  su  momento   trascendente  en  la  secuencia  final  del  film,  donde  la  interpretación  es  tomada  por  un  personaje  bastardo,  pues  no  es  el  personaje  del  barbero  ni  tampoco  es  Hynkel.  Es  la  presencia  del  propio  Chaplin,  que  se  despoja  de  los  dos  personajes.   Habla   Chaplin   como   ciudadano,  muere   Charlot,   el   personaje,   y   Chaplin,   el   hombre,   toma   la  iniciativa.  

Es  un  discurso  postizo  porque  no  sólo  es  que  no  podemos  relacionarlo  con  los  otros  personajes,  sino  que  se  escapa  de  los  acontecimientos  de  la  película.  Habla  a  los  ingleses.  Es  una  llamada  a  la  esperanza.  En  el  primer  final  original  se  anunciaba  el  desarme  total  de  Tomania  y  con  todos  los  soldados  bailando      

El   final   es   ambiguo   porque  Hannah   oye   lo   que   dice   Chaplin-­‐Vagabundo-­‐Hynkle.   La   palabra   tiene   una  trascendencia  absoluta.  El  gesto  de  tomar  la  palabra  del  autor  (Chaplin)    es  como  el  destino  final  de  un  viaje  del  vagabundo    hacia  el  mundo  real.  Todo  esto  tiene  lugar  en  un  entorno  con  otras  cuestiones  de  interés.  El  film   da   la   espalda   y   hace   caso   omiso   a   todo   lo   que   se   está   haciendo   en   Hollywood.   Mantiene   una  anacrónica   vigencia   de   los   principios   de   puesta   en   escena   del   cine  mudo.   Prevalencia   del   actor   sobre   el  montaje.  

En  el  primer  discurso,  el  discurso  verbal  es  desactivado  como  informador,  no  es  reconocible  y  se  pone  el  acento  en  lo  humorístico  y  todo  queda  supeditado  a  la  caracterización  del  personaje.  Es  el  contradiscurso  del  discurso  final.  En  el  primero  hay  un  traductor  para  hacer  entendible  lo  que  habla  Hynkel,  también  con  efecto  cómico.  Frases  largas  de  Hynkel  se  traducen  con  frases  cortas  y  viceversa.  Se  diría  que  habla  alemán,  aunque  realmente  es  un  idioma  inventado.  Chaplin  ridiculiza  a  Hitler  (grita,  tose,  se  atraganta...  tiene  una  voz  tan  irritante  que  ni  los  micros  le  soportan).  Por  eso  tampoco  es  realmente  alemán,  porque  realmente  lo  único  que  dice  son  tonterías.  

El   segundo   discurso   está   justo   en   la   mitad   del   film,   cuando   Hynkel   da   por   terminado   el   periodo   de  distensión.  El  momento  crucial  es  cuando  el  barbero    empieza  a  coreografiar  gestualmente  las  barbaridades  que  el  dictador  dice.  Es  un  doblaje  por  gestos.  El  planeamiento  es  igual  que  el  del  principio,  pero  ahora  no  hay   speaker  que   traduzca,   sino   los   gestos  del   barbero.  Un  gesto   actoral   y   artístico  que  busca   criticar   los  cimientos   del   cine   sonoro.   Es   el   único   momento   de   la   película   en   que   Hynkel   y   el   barbero   comparten  encuadre,  aunque  sea  uno  en  imagen  y  otro  en  voz.  Resulta   imposible   la  relación  entre  Hynkel  y  el   judío,  pero  más   difícil   será   la   aparición   del   final   en   la   que   vemos   el   cuerpo   del   barbero   y   la   supuesta   voz   de  Hynkel.  Chaplin  "Criticaba"  el  sonoro  y  lo  acepta  en  el  discurso  final,  habla  a  cámara.  En  El  Gran  Dictador  se  

Page 66: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   66  

rompe  su  lucha  anterior  contra  el  sonoro.  En  el  momento  en  el  que  Chaplin  habla  desaparece  Charlot,  y  ya  no  aparecerá  en  filmes  posteriores.    

Se   crea   un   universo   sonoro,   aunque   no   será   como   el   actual   (no   es   un   universo   sonoro   “perfecto”   o  “real”):  no  hay  room  tone  presente,  los  efectos  son  casi  musicales,  no  están  todos  los  sonidos  (por  ejemplo,  al  principio,  durante  la  guerra,  se  oyen  las  bombas  y  los  aviones,  pero  no  los  pasos)…  aunque  sí  hay  música  diegética,   cuando   Hynkel   toca   piano,   y   efectos   sonoros   (ruido   de   la   máquina   de   escribir,   por   ejemplo).  Tienen  mucha  importancia  los  silencios  que  remarcan  la  presencia  de  otros  sonidos  más  fuertes:  bombas,  disparos…  

Sigue  buscando  el  lenguaje  universal.  Por  ejemplo,  utiliza  el  esperanto  en  los  carteles.  El  sonido  también  se  escribe  (intertítulos).  Sigue  usando  la  música  para  acompañar  los  movimientos,  como  en  la  barbería,  que  se  oye  la  radio  mientras  él  afeita  al  hombre  a  ritmo  de  la  música  (danza  húngara).  También  hay  leitmotiv,  cada  vez  que  Hannah  aparece.  

Se   rompe   la   diégesis   cuando   Hanna   habla   sobre   los   polis   buenos:   está   interpelando   al   espectador,  rompiendo   la   cuarta   pared.   Es   un   monólogo,   deja   de   ser   personaje   para   ser   narrador   y   haciéndonos  partícipes   de   la   historia.   Es   una   técnica   de   distanciamiento   marxista;   de   desalienamiento;   se   le   dice   al  espectador  “despierta,  sal  de  la  película”;  es  la  opinión  del  narrador,  de  Chaplin.  

En   la   secuencia   de   guerra   inicial,   los   diálogos   reflejan   de   manera   muy   clara   la   cadena   de   mando  existente   en   el   ejército   (los   personajes   se   sitúan   en   fila   y   van   gritándose   hacia   atrás   hasta   que   llegan   a  Chaplin,  que  no  tiene  subordinados).  

Desde  el  primer  momento  escuchamos  un  narrador  en  off  que  cuenta  la  historia,  sustituyendo  el  papel  de  los  intertítulos.  

 

Page 67: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   67  

Bienvenido  Mr.  Marshall  (1953),  Luís  García  Berlanga  La   famosa   canción   de   esta   película   se   trata   de   "Coplillas   de   las   divisas",   una   canción   escrita   por   los  

maestros   Ochaíta,   Valerio   y   Solano   para   una   de   las   voces  más   sevillanas   de   la   Copla:   Lolita   Sevilla   ("La  Venus  de  Sevilla")  nacida  en  el  barrio  de  San  Lorenzo,  el  del  Gran  Poder.  (sic  transit).  

- Créditos:   La   música   tiene   carácter   de   comedia,   hay   muchos   temas   distintos   mezclados   (carácter  español  entremezclado  con  melodías  y   tonos  de  comedia  y  melodía  orientalizantes  –  Tchaikowsky,  Prokofiev  –  que  remarcan  el  tono  de  “cuento  de  tesoros”  de  la  película).  No  hay  ambientes  ni  efectos  cuando  pasa  el  coche  cerca  de  cámara,  no  hay  ruidos  de  exteriores,  solo  música  pura  extradiegética,  pero  que  introduce  con  su  carácter  musical  los  temas  que  van  a  prevalecer  en  la  película.  La  música  se   para   cuando   quiere   el   narrador,   con   efectos   sonoros  muy  musicales,   y   se   reinicia   de   la  misma  manera.   Música   jocosa   con   la   llegada   del   delegado.   La   música   inicial,   que   aparece   durante   los  créditos,   es  bastante   rítmica  y   repetitiva,   y,  una  vez  pasados   los   créditos,   se   integra  en   la  historia.  Parece  música  de  suspense  por  el  ritmo  que  mantiene  durante  los  créditos.  

- Presentación  del  pueblo  y  los  personajes:  Lo  hace  el  narrador.  No  hay  efectos  ni  ambientes,  sólo  voz  en  off  grabada  en  estudio.  No  se  intenta  que  la  voz  tenga  un  raccord  sonoro  de  los  exteriores.  No;  es  la   voz   perfecta   del   narrador   perfecta;   es   la   voz   de   Dios,   que   además   dice   “erase   una   vez”.   Hace  referencias  al  narrador  de  las  películas  mudas,  que  describe  todo  lo  que  ve  para  que  los  espectadores  de  aquella  época,  sin  cultura  visual,  puedan  seguir   la  narración.  Este  narrador  para   la  película  para  que  podamos  conocer  a  los  personajes  (nunca  se  les  oye  hablar  aunque  hay  planos  de  los  personajes  hablando   o   haciendo   ruido   que   no   se   oyen   físicamente   pero   sí   como   sinestesias   sonoras   de   las  imágenes,   igual   que   en   el   cine   mudo).     El   narrador   es   natural,   amable,   nos   cuenta   un   cuento   a  nosotros,  espectadores-­‐niños.  Hace  referencia  al  tono  de  los  narradores  de  Hitchcock  y  en  general  a  los  narradores  de  moda  en  casi  todas  las  películas  de  los  años  40;  es  también,  por  ello,  una  parodia  del  uso  de  los  narradores.  El  narrador  sabe  más  que  el  espectador,  es  omnisciente,  conoce  el  pasado  presente  y   futuro  de   los  personajes.  El   tono   jocoso  se  remarca  con  frases  como  “pasar   lo  que  va  a  pasar”;  conoce  el  futuro  se  para  y  no  lo  desvela,  se  ríe  de  su  superioridad  y  de  la  idea  de  conseguir  cosas,   regalos,   sueños   (referencias   a  Milagro   en   Milan,   de   De   Sica,   o   a   Lo   viejo   y   lo   nuevo   de  Eisenstein,  Pasaporte  para  Pimlico  de  Henry  Cornelius  y  La  Kermesse  Heroica  de  Jacques  Feyder  en  el  tono  de  comedia  general  del  narrador  y  del  film).  La  voz  en  off  de  Fernando  Rey  presenta  el  pueblo  de  Villar  del  Río  en  todas  sus  facetas,  desde  los  lugares  más  representativos  hasta  los  habitantes,  de  modo  que  esta   voz   inicial   sirve  para   asentar   el   funcionamiento   interno  del   espacio   en  el   que   va   a  tener  lugar  la  acción,  así  como  sus  personajes  más  representativos.  Esta  voz  en  off  está  caracterizada  por  un  tono  informal,  jocoso,  casi  dubitativo  y  ligeramente  infantil,  como  de  fábula.  Hace  preguntas,  se  detiene,  rectifica,  carraspea,  utiliza  deícticos  constantemente  para  hacer  alusión  a  la  imagen  (aquí,  allí,   ésta),   y   también  emplea  elementos  descriptivos   y   enumeraciones.   Pero   lo  que  más   resalta,   es  que  alude  al  espectador,  se  dirige  a  él  buscando  una  interactuación  y  rompiendo  la  cuarta  pared,  y  de   igual  modo,   interactúa   con   los   personajes   de   la   película,   llegando   a   pedirle   disculpas   a   uno   de  estos  por  hacerle  esperar  mientras  éste  está  cargado,  o  bajar  el  volumen  y  susurrar  cuando  esta  voz  se  encuentra  con  un  personaje  que  está  durmiendo.  

- Secuencia  de  diálogo   inicial   (búsqueda  del  alcalde  y  conversación  con  el  delegado):  Sonido  natural,  con   ruidos,   efectos,   música   para   remarcar   jocosamente   la   llegada   del   delegado   y   conversación  “natural”,   perfectamente   entendible,   aunque   jocosa   por   el   hecho   de   ser   un   alcalde   sordo   y   un  político   que   “siempre   habla   del   tren”   o   “hable   con   ellos   (mueva   los   labios)   como   si   los   recibiera  (Americanos);  no  le  van  a  entender”.  Los  diálogos  no  están  hechos  con  sonido  natural,  sino  que  están  doblados  en  estudie,  algo  que  era  infrecuente  en  la  época.  

Page 68: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   68  

Los  planos  sonoros,  en  “Bienvenido  Mr.Marshall”,  aparecen  en  la  secuencia  primera  del  café  “...Del  río”.  No  es  la  primera  y  única  vez  en  la  película;  también  antes,  cuando  el  pregonero  va  a  buscar  al  alcalde  en  el  carro.  

Llama  la  atención  el  momento  en  que  la  cámara  apunta  a  Don  Cosme,  mientras  duerme,  y  vemos  lo  que  sueña;   al   principio   es   una   música   "celestial"   como   bien   se   dice,   música   típica   de   Iglesia,   de   Semana  Santa...de  buenos;  pero   justo  después,  varía  a  un  Jazz,  o  algo  similar,  una  música  más  relacionada  con  el  pecado...y,   en   éste   caso,   con   los   americanos.  Hace   una   relación   cómica   entre   el   KKK   y   el   jazz   como  dos  elementos  propios  nortemaericanos.  En  el  sueño  del  alcalde  habla  en  un  idioma  que  parece  inglés  pero  que  no  lo  es  (inventado  como  Chaplin);  aún  así,  entendemos  lo  que  dicen.  En  el  café,  durante  el  momento  del  duelo,   la   música   se   para,   y   el   silencio   resulta   ser   un   elemento   dramático,   junto   con   los   efectos   (pasos  diegéticos   pero   reforzados).   En   el   sueño   con   temática   western   notamos   que   hay   una   gran   cantidad   de  efectos  sonoros:  disparos,  botellas,  cristales  rotos,  el  vaso  que  se  desliza  por  la  encimera...  

Los   personajes   no   hacen   ruido   al   llevar   a   cabo   acciones   comunes   como  puede   ser   andar,  mover   una  mano...un   ejemplo   claro   es   cuando   Carmen   entra   en   el   camerino   y   comienza   a   quitarse   la   peineta,   los  pendientes,   las   flores   del   pelo...   Notamos   que   no   existe   importancia   sonora,   es   decir,   que   da   igual   la  distancia   a   la   que   se   encuentren   los   personajes,   todos   hablan   desde   la   misma   posición.   Únicamente  notamos  un  ligero  cambio  en  un  momento  en  el  que  dos  personajes  están  hablando  desde  el  balcón,  pero  bien  podría  ser  algo  fortuito.  Cuando  el  pueblo  se  reúne  en  la  plaza,  los  aplausos  son  muy  cortantes,  como  muy  "enlatados".  

 

Page 69: Apuntes Banda Sonoramadrovergaya.com/Files/USC/Banda sonora - Apuntes.pdfBANDA!SONORA!! Y!TRATAMIENTO!DEL!SONIDO!!!!! Magdalena!Adrover!Gayá! Curso2011/2012!!

Magdalena  Adrover  Gayá   Banda  Sonora  –  Curso  2011/12   69  

Tratamiento  del  audio  en  los  70:  La  Guerra  de  las  Galaxias  (1977),  George  Lucas  Presencia  de  audios  “orgánicos”  en   los  efectos  sonoros:  no  son  audios  creados  digitalmente,  sino  que  

están   grabados   de   lo   natural   y   recreados   para   que   no   resulten   tan   reconocibles.   Ej.:   Las   puertas   de   las  naves   deberían   sonar   como  oxidadas   o   los  motores   deberían   sonar   como   si   estuviesen   desajustados.   Se  grabaron  sonidos  “acústicos,  analógicos,  mundanos,  naturales”  para  los  efectos  para  que  el  mundo  de  SW  sonase  creíble,  natural.  

RD-­‐D2  (ArtooDeetoo)  no  habla  inglés;  no  tiene  boca;  necesitamos  que  se  mueva  de  alguna  manera  para  saber  que  esta  hablando   (rota   la   cabeza,  enciende   luces   cuando  habla),  un  poco  como  Darth  Vader,  que  para   hablar   necesita  mover   la   cabeza   y   o   las  manos.   Es   el   principio   básico   del   teatro   de  marionetas;   la  marioneta   que   se  mueve   es   la   que   habla;   las   otras   están   quietas;   de   otro  modo   sería  mucho  mas   difícil  saber  quien  habla  y  crearía  confusión  

La  voz  de  R2  es  un  poco  creada  con  un  sintetizador  de  la  época  (sonido  digital,  no  analógico,  creado),  y  se  combinó  con  voces  humanas,  imitando  a  bebés,  para  crear  la  parte  más  melancólica  y  “entrañable”    del  personaje.   Se   reprodujo   todo   con   un   altavoz   en   un   hall,   en   exteriores   en   un   aseo   para   dar   a   todo   una  calidad  “natural”,   lo  que  se   llamaría  “mundializar”   los  audios,  reproducirlos  en  el  mundo  real,  para  quitar  esos  aspectos  digitales  del  audio.  

A  pesar  de  que  se  usaba  a  C3PO  con  su  voz  original  durante  la  filmación,  esta  tuvo  que  ser  reemplazada,  (ADR)  en  estudio,  doblada,  lo  que  obligo  a  doblar  también  a  los  actores  que  compartían  escenas  con  el,  o  con  R2D2.  

El  sonido  base  de  la  espada  láser  (room  tone)  es  el  sonido  del  motor  de  un  proyector  de  35  mm,  como  un  “humm”.  Acercando  y  alejando  el  micro  o  moviéndolo  más  o  menos  rápido  se  consigue  el  sonido  base;  el  sable  al  chocar  es  el  sonido  de  los  carbones  de  luz  del  proyector  y  el  arco  voltaico  que  surge  al  acercarlos.  Se  combinó  con  un  sonido  de  encender  una  Televisión  de  tubo  con  un  cable  de  micro  mal  apantallado,  lo  que   produce   esa   especie   de   interferencia,   de   chasquido.   También   hay   un   sonido   de   “hielo   seco”  fundiéndose  en  metal.  

La  música  está  presente  todo  el  tiempo,  excepto  en  el  momento  que  atrapan  a  la  Princesa  Leia  y  cuando  R2D2  y  C3PO  están  en  el  desierto.  De  estos  dos,  hay  un  personaje  que  no  habla  (R2D2),  solo  emite  sonidos,  y  otro  que  le  traduce  (C3PO).  La    música  nos  recuerda  a  las  grandes  orquestas;  hace  referencia  al  poder,  a  la  grandeza,  a  la  magestuosidad  de  la  galaxia...  Pero  también,  en  ocasiones,  disminuye  y  baja  de  intensidad;  por  ejemplo,  en  la  entradilla.  Es  bélica  por  momentos,  otras  veces  más  de  aventuras  (por  ejemplo  cuando  los  droides  están  por  el  desierto).  Acompaña  a  la  acción  y  anuncia  que  el  peligro  acecha.    

Información  con  respecto  a  los  “protagonistas”  del  sonido  de  Star  Wars  

Recibió  7  Oscars:  dirección  artística,  banda  sonora   (John  Williams),  sonido   (Don  McDougall,  Ray  West,  Bob  Minkler   y   Derek   Ball),  montaje,   vestuario,   efectos   visuales.   Premio   especial   a   los   efectos   de   sonido  (dado  por  primera  vez,  es  una  categoría  nueva  en  los  Óscars,  a  Benjamin  Burtt  Jr.).