Estamos en esto por la música, no lo olvidemos

Llevo varios meses sin escribir artículos para este blog. No ha sido nada premeditado, pero hoy, pensándolo, me he dado cuenta de que tengo motivos para ello.

A raíz de la pandemia mundial del coronavirus, parece que se ha extendido como la pólvora una necesidad humana de hacer cosas, sobre todo en las personas que llevaban ritmos de vida muy agitados. Miles de personas han empezado a crear contenido sobre los temas más insospechados y colgarlo en las redes. Algunos, imagino que simplemente porque disponen de cierto tiempo que antes no tenían y han decidido compartir información. Otros, como intento de hacer negocio con ello. Y la cuestión es que, yo mismo, actualmente me siento desbordado con la cantidad de información sobre temas de sonorizaciones en directo que han aparecido en las redes. No doy abasto para ingerir toda esa información, ni muchísimo menos (y tampoco para cribarla, pues hay cosas muy interesantes y también hay cosas muy prescindibles).

Cuando empecé a escribir este humilde blog hace casi 6 años, lo hice básicamente por un motivo: Había poca información seria sobre ese campo, en español, en las redes. Me gusta investigar y dedicar tiempo a crear contenido si pienso que puede ser útil para mi y para otras personas. Nunca pensé que fuese capaz de mantener el blog en el tiempo, y sin embargo, poco a poco adquirí la rutina de publicar más o menos una vez al mes, de forma natural y no forzada. Y si últimamente no he escrito nada, creo que simplemente ha sido por ese desbordamiento actual de información en la red: Como hay tantísimo contenido publicado en los últimos cinco meses, no veo necesario ni me apetece aportar más, ni quiero hacerlo como obligación.

Personalmente, he dedicado mucho tiempo en los últimos meses al placer de escuchar música: clásicos, grupos que ya me gustaban, grupos desconocidos para mi, he visto todos los episodios de «Un país para escucharlo», el fantástico programa conducido por Ariel Rot (que por cierto, si no has visto, te lo recomiendo encarecidamente)… Y he recordado que si estoy en este negocio, es por la música. Ni más ni menos.

De nada nos sirve como técnicos de sonido en directo saber cómo funcionan todas las mesas y procesadores del mundo si no cultivamos nuestro bagaje musical. Saber de dónde venimos y a dónde vamos. Escuchar una canción por placer, y también de forma analítica, pensando en cómo podríamos recrear un sonido similar utilizando ecualizadores, compresores, reverbs y cualquier otro tipo de proceso. Porque no lo olvidemos, la técnica siempre debería estar al servicio de la música y no al revés.

Y qué placer y qué gusto, mientras escribo esto, escuchar la aguja de mi tocadiscos vibrar con el recién publicado nuevo trabajo de Bob Dylan «Rough and Rowdy Ways», y después, por ejemplo, alucinar un rato con el Sgt. Pepper’s de The Beatles (la mezcla mono original, por supuesto) y tratar de entender ese laborioso proceso que nos contaba Geoff Emerick en ese delicioso libro que recomendé en este artículo hace unos años. Así que en eso ando, disfrutando de la música como nunca, trabajando en ella cuando las administraciones públicas lo permiten (sin comentarios) y, cuando no se puede, disfrutando del verano.

Nos volveremos a leer, pero quizás tardemos un poco. Mientras tanto, ¡cuídense mucho en estos tiempos extraños!

Coordinación de frecuencias de micrófonos inalámbricos

En esta ocasión, no vamos a publicar un artículo, sino un vídeo sobre coordinación de frecuencias de micrófonos inalámbricos. Utilizando el analizador de radiofrecuencia RF Explorer, el software Vantage, y la aplicación Shure Wireless Workbench, junto con la web www.tdt1.com (válida para España), os muestro un ejemplo sencillo sencillo de coordinación de radiofrecuencia.

Este video es una muestra del material que utilizo en las clases online que imparto en el Ciclo Formativo de Grado Superior de Sonido para Audiovisuales y Espectáculos de CPA Online.


Enfrentándonos a pruebas de sonido sin poder abrir el sistema de P.A.

Hace unos meses me llamaron para un trabajo que a priori se suponía fácil: Mezclar a una banda con la que ya había trabajado en múltiples ocasiones, en un espacio abierto grande y con buen equipo. La sorpresa fue que al llegar a las pruebas, me dijeron que no podría abrir el sistema de P.A. por cuestiones que no vienen al caso.

Genial, eso significaba que iba a tener que preparar un concierto para mucho público, sin tener más referencia que mis auriculares. Para más inri, me entero al llegar de que va a ser emitido por la televisón… Este tipo de trabajos son del todo menos ideales, pero si no queda otra opción hay que hacer todo lo que esté en nuestra mano para conseguir la mejor aproximación en las pruebas a lo que será la mezcla en directo. De cualquier forma, no todo eran desventajas: Encima del escenario había 6 musicazos y la banda sonaba como un cañón, y esto suele ser lo más importante.

Preparación previa

Durante la prueba no iba a poder abrir el sistema de P.A, pero mientras estaban cableando el escenario aproveché rápidamente para reproducir por el equipo uno de los temas que utilizo para chequear sistemas de sonido. Necesitaba saber cómo sonaba el equipo, para hacerme una composición mental. A los 10 segundos de sonar la música me dijeron que tenía que apagarlo, pero fue suficiente para comprobar que, para mi gusto, había un exceso significativo de subgraves (que por cierto estaban alimentados por auxiliar). Quizás ese exceso fuese ideal para otro estilo de música, pero para esta mezcla no hacía falta tanto nivel de sub. La ventaja es que al ir alimentado por auxiliar, podría regularlo fácilmente (Posteriormente descubrí también que al envío que había hecho a la mezcla de TV no llegaba el sub, solo la señal de L y R filtrada, por lo que quedó un poco escaso de graves en la televisión).

El siguiente paso fue nombrarme canales y organizarme la mesa: Primero los canales de entrada, después los envíos a efectos (que en este concierto eran 3: una reverb room, una plate y una hall). A continuación, los DCAs. Chequeo de líneas y arrancamos esta prueba silenciosa.

Durante la prueba silenciosa: ¿Qué podemos ajustar?

Llegados a este punto, toca plantear la mezcla a través de los auriculares. Yo utilizo desde hace muchos años unos Sony MDR 7506, que me dan una referencia bastante precisa, con un leve exceso de alta frecuencia. Me gusta mucho también el sistema de plegado de los auriculares, que hacen que ocupen muy poco en la maleta.

A la hora de plantear la mezcla, lo más básico para mí sería lo siguiente:

  1. Ganancias: Fundamental coger niveles. En mi caso, suelo utilizar las ganancias en la prueba para que los planos de mezcla se me queden más o menos ajustados con los faders a 0 dB (pero si la ganancia me queda muy baja no tengo problema en aumentarla para mejorar la relación señal/ruido y en mover algunos faders a -5dB o -10dB). A mi lo que me interesa es tener todos los faders en posiciones marcadas en la escala y no en posiciones intermedias, para tener un punto de referencia.
  2. Filtros: Básico, especialmente los filtros paso alto, para eliminar toda la baja frecuencia que no nos interese de cada uno de los canales.
  3. Panoramas: No me supone ningún problema a priori ajustar los panoramas con los auriculares, así que vamos a hacerlo.
  4. Puertas de ruido: Una vez que tengo las ganancias ajustadas, no debería ser problema ajustar las puertas de ruido (principalmente de los timbales en mi caso).
  5. Ecualización: Ojo con esto, porque sí que puede diferir de los auriculares al sistema de P.A. En mi caso, como conozco cómo suenan mis auriculares, sé que la mezcla en ellos me tiene que sonar brillante para que esté compensada. Pero soy consciente de que quizás deba corregir cosas en cuanto empiece el show.
  6. Envíos a efectos: Esto también lo podemos hacer, pero también variará significativamente. Podremos notar con mucha más definición la reverb y otros efectos en los auriculares que en el sistema de P.A., con el ruido ambiente del público.
  7. Envíos al auxiliar del subgrave: En este caso preferí pecar de conservador, haciendo un envío comedido y pensando en que sería una de las primeras cosas que reajustaría en cuanto empezase el concierto.

A priori, los niveles y planos de mezcla no cambiarán excesivamente de los auriculares al sistema de P.A.

¿Qué habrá que revisar durante el primer tema del concierto?

Lo que más nos puede variar en las pruebas de sonido con la P.A. cerrada será la dinámica (compresores), los envíos a los subgraves,  los envíos a efectos y algo de ecualización.

Los compresores en este caso me preocupaban poco, pues el grupo que actuaba juega mucho con la dinámica y la maneja estupendamente,  por lo que había poco que corregir o sujetar. De cualquier forma, me dejé preparado el compresor en algún canal, pero con el threshold muy alto para que no actuase de momento.

También había una darbuka que no habíamos podido chequear anteriormente, y justo el concierto empezaba con ella. Tendría que estar muy atento a ese canal en esos instantes iniciales.

Una vez que empieza el concierto toca no quitar ojos ni oídos del escenario. Las correcciones iniciales son importantes, pero para mí mucho más importante una vez ha arrancado el concierto es estar pendiente de los planos generales de mezcla que de esa leve resonancia que nos parece que llega por el canal 23, por decir algo. Lo importante en este caso es el bosque y no la rama del árbol que se sale un poco de la foto. Desde luego, todo lo que se pueda mejorar, se mejora, pero sin descuidar la mezcla global.

Aquí un servidor agachándose un poco el día del concierto para poder tener mejor cobertura… las carpas no ayudan a la mezcla.



Conclusiones

Sonorizar cualquier concierto sin poder probar el sistema de P.A. no es lo ideal, pero nos toca enfrentarnos a ello más veces de las que nos gustaría. La clave para mi es contar con una referencia fiable (auriculares) y tomarse las cosas con calma. Es difícil que un concierto así sea nuestra mejor sonorización (de hecho no debería serlo nunca, claro!) pero siendo metódico se pueden llegar a resultados bastante aceptables.

Os dejo un tema de dicho concierto… «Hermeto» de Joaquín Pardinilla Sexteto.

 

 

¿Por qué se produce el efecto de proximidad y por qué unos micrófonos presentan más dicho efecto que otros?

Hace poco tuve una conversación con un colega sobre micrófonos para utilizarlos en el bombo de una batería. Yo me declaro muy fan del AKG D112, y mi amigo prefería el Shure Beta 52. Aunque el artículo no trata sobre micrófonos de bombo, mis argumentos para preferir el D112 a casi cualquier otro micrófono de bombo son su respuesta plana en frecuencias medias (si las tengo que quitar, ya utilizaré el ecualizador en la medida que yo quiera), y un no demasiado exagerado efecto de proximidad.

Con efecto de proximidad nos referimos a un fenómeno que ocurre en los micrófonos direccionales de gradiente de presión que genera un aumento de nivel en frecuencias bajas cuando la cápsula se encuentra muy cercana a la fuente de sonido.

Para mí el Beta 52 tiene un efecto de proximidad tan elevado, que cualquier pequeño movimiento del micrófono respecto al bombo hace que el sonido cambie de forma significativa.

Si echamos un vistazo a la gráfica de respuesta en frecuencia del Shure Beta 52 vemos esto:

Respuesta en frecuencia de Shure Beta 52

Las líneas discontinuas representan realces en baja frecuencia debidos al efecto de proximidad de hasta 20dB de diferencia en graves, dependiendo de la distancia del micrófono a la fuente. Veamos por qué sucede este fenómeno en los micrófonos direccionales de gradiente de presión.

¿Qué es el efecto de proximidad?

Llamamos efecto de proximidad al fenómeno que se produce cuando se sitúa un micrófono bidireccional o unidireccional muy cerca de la fuente sonora. En esas ocasiones las bajas frecuencias aumentan su nivel respecto a las medias y altas, lo que puede provocar demasiada coloración en la respuesta sonora.

Pero, ¿por qué aumentan los graves en función de la distancia a la fuente? Vamos con ello.

Micrófonos de gradiente de presión

Los micrófonos direccionales más habituales son los micrófonos de gradiente de presión. Generan su señal de salida mediante la diferencia de presión que recibe desde la parte delantera del diafragma hasta la parte trasera del mismo. Cuando una onda de sonido llega al eje frontal del diafragma, deberá recorrer una una distancia adicional para llegar a la parte posterior del diafragma. Esto significa que la onda llega a la parte posterior del diafragma más tarde que a la parte frontal.

Esa distancia entre la parte delantera y la trasera del diafragma suele ser muy pequeña, pongamos que es de unos 8 mm. Por lo tanto, la onda sonora que llega a la parte posterior del diafragma ha recorrido 8 mm más que la que llega directamente a la parte frontal. Esa distancia, dependiendo de la frecuencia sonora, va a generar una respuesta distinta.

Para una frecuencia de 100Hz, cuya longitud de onda es de 3,4metros, una diferencia de 8mm es insignificante.

De hecho, si un ciclo completo de una onda son 360º, podemos calcular la diferencia de fase que suponen esos 8mm en 100Hz:

Fase=Diferencia en distancia x Frecuencia x 360340

Si calculamos la diferencia de fase que suponen esos 8mm para 100Hz:

Fase=0,008x100x360340=0,84º

Por tanto, es una diferencia inapreciable prácticamente. Y como la onda incide en contrafase al diafragama trasero respecto al delantero, se producirá una cancelación. En cambio, para 20.000Hz, esa misma distancia, supone una gran diferencia:

Fase=0,008x20000x360340=169,41º

Es decir, prácticamente 1/2 de longitud de onda de diferencia. Y como la onda llega en contrafase, supondría sumar prácticamente +6dB en esa frecuencia.

Si visualizamos la respuesta en cada frecuencia en una gráfica (en este caso he utilizado una hoja de Excel llamada «Suma de señales correlacionadas», de Mija Krieg Schreiber), vemos lo que sería la respuesta en frecuencia por defecto de un micrófono de gradiente de presión en el que de la parte delantera del diafragma a la posterior haya unos 8mm, o lo que es lo mismo, 0,023mseg:

gradiente_presion_8mm

Si nos fijamos en esa respuesta en frecuencia, presenta un aumento de aproximadamente +6dB/octava. Por supuesto, un micrófono cuya respuesta de frecuencia aumente 6 dB/octava no se consideraría un micrófono adecuado generalmente. Por eso los fabricantes, para compensar este aumento frecuencial en los micrófonos de gradiente de presión, aplican una amortiguación del diafragma para crear una atenuación de 6 dB/octava.

La combinación de estos dos factores (aumento de 6dB/octava del gradiente de presión y la amortiguación del diafragma de -6dB/octava) crean una respuesta de frecuencia global que es generalmente plana.

Ley del inverso del cuadrado

De la ley de la inversa del cuadrado ya hablamos en el artículo «3 conceptos fundamentales en sonido directo«. Pero precisamente por eso, por que es un concepto fundamental, tenemos que volver a ella para explicar ciertas cosas.

La ley del inverso del cuadrado explica por qué el sonido se atenúa a medida que se aleja de la fuente sonora. Conforme la onda se propaga desde una fuente, la energía del sonido original se va expandiendo en forma de una esfera cada vez más grande. Debido al principio de la conservación de la energía, a medida que la esfera se agranda, cada punto de la esfera contiene en realidad menos energía.

Cada vez que se dobla la distancia a la fuente sonora, perdemos -6dB.

Ley inversa del cuadrado

Fuente: http://hyperphysics.phy-astr.gsu.edu/hbasees/acoustic/imgaco/isqb.gif

Campo cercano y campo lejano

Analicemos ahora las diferencias entre el campo cercano y el campo lejano.

Si tenemos 1 micrófono a 1cm de la fuente, ¿qué variación de nivel de SPL habrá en la parte trasera del diafragma, que está a 1,8cm de la fuente, respecto a la parte delantera?

Atenuación por distancia=20logd2d1

Donde d1 en este caso será la distancia de la fuente a la parte frontal del diafragma, y d2 la distancia de la fuente a la parte trasera del diafragma.

Atenuación por distancia=20log0,0180,01=5,10dB

Por tanto, entre la parte delantera del diafragma y la parte trasera, a 1 cm de la fuente, tenemos una diferencia de unos 5dB SPL.

Y otro ejemplo más, ahora con más distancia:

Si tenemos 1 micrófono a 2 metros de la fuente, ¿qué variación de nivel de SPL habrá en la parte trasera del diafragma, que está a 2,008m de la fuente?

Atenuación por distancia=20log2,0082=0,003dB

En este caso, la atenuación es prácticamente despreciable.

Por lo tanto, podemos concluir que cuanto más cerca está el micrófono de la fuente, la diferencia de presión entre la parte delantera y la trasera es mayor.

Si representamos gráficamente todos estos factores conocidos (la respuesta de gradiente de presión, la ley de la inversa del cuadrado, y la amortiguación del diafragma) en un micrófono que estuviese en campo lejano respecto a la fuente, quedaría así:

Con el diafragma sin amortiguar, la respuesta general aumenta +6dB/octava y esa aportación del gradiente es mucho más significativa que la aportación de la ley de la inversa del cuadrado.

Con el diafragma amortiguado, se aplica una atenuación de -6dB/octava para conseguir una respuesta plana y el gráfico rota. Podemos afirmar que, en campo lejano, la respuesta en frecuencia final del micrófonos sólo depende del gradiente.

Sin embargo, vamos a ver qué cambios se producen en el campo cercano, donde ya sabemos que la aportación de la inversa del cuadrado es mucho más importante:

campo cercano gradiente

Tal y como podemos ver en los gráficos y hemos calculado previamente, en campo cercano la aportación de la ley de la inversa del cuadrado se hace más grande, llegando a superar en bajas frecuencias a  la aportación del gradiente.

Por tanto, la ley de la inversa del cuadrado contribuye notablemente a un aumento de bajas frecuencias cuando la fuente está cerca del micrófono. Y es lo que conocemos como efecto de proximidad.

Volviendo al principio del artículo…

Y ahora que ya sabemos cómo se produce el efecto de proximidad, volvamos al tema que comentábamos al principio. ¿Por qué el micrófono Shure Beta 52 presenta un efecto de proximidad más acusado que el AKG D112?

Pues parece sencillo: por la posición de su diafragma respecto a la rejilla del micrófono. En el caso del Shure Beta 52, su diafragma está más cerca de la rejilla frontal que en el AKG D112. Al estar más cerca de la rejilla, el efecto de proximidad que se produce es más acusado, y un cambio de posición en ese micrófono puede modificar mucho la respuesta en bajas frecuencias.

diafragma Beta52 vs D112

La escala de las imágenes no es la misma, pero es evidente que un diafragma está mucho más cerca de la rejilla que el otro.

Y todo esto vuelve a estar muy relacionado con otro artículo anterior, llamado «Por qué debería interesarte la profundidad de las cápsulas de tus micrófonos», que os recomiendo leer si no lo habéis hecho ya.

Con esto llegamos al final. Soy consciente de que hay muchos artículos en la red explicando el efecto de proximidad, pero no conseguí encontrar ninguno que fuese del todo claro para mí, así que espero haber podido aportar mi granito de arena a que este fenómeno se entienda mejor.

Si habéis leído hasta el final del artículo, gracias por tu tiempo. Se agradecen los comentarios y la difusión en el caso de que creas que esta información puede ser útil para alguien 🙂

Por qué en nuestros presupuestos para sonorizaciones en directo no hablamos de vatios

Cuando en Producciones El Sótano hacemos presupuestos para cualquier sonorización, preparamos una lista del material que vamos a utilizar, el personal técnico y calculamos el importe total del servicio. Pero nunca hablamos de «los vatios de sonido» o «los vatios del equipo».

Hace un par de semanas recibí una llamada de un cliente, preguntándome de cuántos vatios era el equipo que le habíamos presupuestado. Le respondí, pero me di cuenta que en ese momento, por teléfono, no podía explicarle con claridad el por qué no incluíamos ese dato en el documento.

Un valor numérico es algo muy engañoso en cuanto al tema de rendimiento de los equipos. Alguien puede hablar de un «equipo de 25.000W» y puede ser que, si lo comparamos con otro «equipo de 10.000W», genere mucho menos nivel de presión sonora el que teóricamente tiene más vatios. Vamos a ver por qué.

Los vatios

Los vatios son una unidad de potencia, que se suele representar con la letra «W». Cuando hablamos de los vatios de un equipo, nos podemos referir habitualmente a la potencia que pueden proporcionar sus amplificadores o la potencia que admiten sus altavoces.

El primer problema es que no todos los fabricantes nos dan datos de la misma potencia. Pueden hablarnos generalmente de potencia pico y potencia RMS, y aunque las dos son potencias y se miden en vatios, son cosas distintas. Tampoco todos los fabricantes miden esos vatios de la misma manera, aunque cada vez se está estandarizando más gracias a la AES.

Potencia en amplificadores

La potencia de salida de un amplificador (Po) especifica la potencia eléctrica que puede proporcionar a los altavoces sin que se produzca distorsión y sin que el equipo sufra desperfectos.

Existen diferentes maneras de especificar la potencia de salida, aunque como norma general, la potencia nominal en un equipo es la potencia eficaz o RMS (Root Mean Square). La potencia RMS en un amplificador es la potencia que puede proporcionar un continuamente sin superar un nivel de distorsión sobre la impedancia nominal especificada por el fabricante.

Muchos fabricantes proporcionan también información sobre la potencia de pico que puede soportar el amplificador por un corto espacio de tiempo. Habitualmente, suele ser el doble de la potencia RMS.

Y aquí viene el primer truco: Tenemos un amplificador de 5.000W RMS o 10.000W de pico. Podemos anunciar nuestro equipo como un equipo de 10.000W y nadie nos podrá decir que eso no es cierto. Pero un cliente, cuando compara presupuestos de sonorizaciones en directo, si ve que un equipo es de 10.000W(pico) y otro de 6.000W (RMS), tiende a pensar que el de 10.000W es mejor, al ver una cifra mayor. Si además el precio es más barato, la conclusión suele ser contundente: El otro presupuesto es muy caro. Mal plan.

Potencia y sensibilidad en altavoces

Además, la amplificación no es el único factor a considerar, ni mucho menos.

La potencia (P) de un altavoz nos indica la cantidad de energía por unidad de tiempo que se le puede aplicar sin que distorsione o pueda romperse. Y también se expresa en vatios. Normalmente, la amplificación será adecuada a las necesidades del altavoz. En el artículo «El peligro de utilizar un amplificador de menos potencia que el altavoz» ya hablamos de este aspecto.

Pero una de las caracterísiticas más importantes para poder cuantificar mejor el rendimiento del sistema de sonido es la sensibilidad del altavoz.

La sensibilidad (S) de un altavoz determina el nivel de presión sonora (SPL) que genera un altavoz a una distancia de un metro de su eje, cuando se alimenta con 1 W de potencia, expresada en dB/W/m. Por tanto, cuanto más sensible sea un altavoz, mejor aprovechará la potencia que reciba del amplificador.

Veamos un sencillo ejemplo:

Tenemos un altavoz con una sensibilidad de 90 dB/W/m. Cuando se alimenta con un amplificador de 1 W de potencia, el sonómetro marca una presión sonora de 90 dB SPL a un metro de distancia. Si le aplicamos 100W, ese mismo altavoz generará 110dB SPL a 1 metro de distancia.

SPL(dB)=S+10logP(W)SPL(dB)=90+10log100SPL(dB)=110dB

Ahora bien, si tenemos un altavoz con una sensibilidad de 80dB/W/m y le aplicamos 200W (ehh, 200W de potencia, ¡eso es más que 100W!), el resultado en SPL será menor: 103dB SPL, 7dB menos que en el caso anterior.

Por tanto, más potencia no es siempre más rendimiento, ni mucho menos. Y este es el segundo truco: Alguien puede publicitar un equipo de 10.000W con altavoces poco sensibles, que rinde menos que un equipo de 5.000W con altavoces muy sensibles. Por tanto, en nuestra opinión, basarse únicamente en vatios para valorar el rendimiento de un equipo, no tiene sentido.

Y por eso no hablamos de vatios en nuestros presupuestos… 🙂

La compresión es multiplicativa

Hace unos días me tocó asistir en un concierto al técnico de sonido de una banda. La formación estaba compuesta por 3 músicos y un coro de 9 voces. Antes de empezar la prueba, el técnico me pidió aplicar un compresor con un ratio 3:1 en todos los canales de las voces, y enviarlas a un subgrupo donde aplicaba otra compresión con un ratio de 3:1.

El resultado de la mezcla, para mi gusto personal, fue que había demasiada compresión en las voces. Pero lo interesante es que eso me hizo reflexionar sobre lo que sucede cuando aplicamos la compresión de manera encadenada (en ningún momento pretendo hacer una crítica, al final todos tenemos nuestros criterios y de hecho aquel concierto fue un éxito y todos quedaron encantados).

La compresión no es aditiva: es multiplicativa

Se puede creer que si aplicamos un compresor 3:1 y después otro compresor 3:1, el resultado es una compresión de 6:1. Error. Cuando encadenamos compresores, la compresión es multiplicativa, no aditiva. Dos compresores 3:1 nos darán un resultado similar a un 9:1. Si aplicamos un compresor 4:1 y después otro 10:1, ¡el resultado será equivalente a aplicar una compresión 40:1!

Dos compresores 5:1 encadenados generan una compresión de 25:1

Voy a tratar de dar la explicación matemática del proceso. La fórmula para calcular el nivel de salida de un compresor es la siguiente:

Si diseccionamos la fórmula, todo parece evidente: La reducción que va a aplicar nuestro compresor es a la parte de señal que está por encima del umbral o threshold (entendemos que con una rodilla o knee dura). Por tanto, debemos restar a la señal de entrada el umbral para saber a qué parte del audio se va a aplicar reducción.

Esa señal que va a ser comprimida se divide por el ratio (únicamente el número entero que va delante del :1). Es decir, un ratio de 3:1 en la fórmula lo sustituiríamos por 3. Y a la cantidad resultante de esa operación le sumamos el threshold para obtener el nivel de salida final.

Calculando un ejemplo para comprobar que dos compresores seguidos son multiplicativos

Veamos ahora un ejemplo para que todo quede más claro. Vamos a aplicar dos compresores a una señal. Los compresores tienen el threshold a -10dB y un ratio de 3:1. Obviamos para este ejemplo tiempos de ataque y de release. La señal entra al primer compresor con un nivel de 0dB. Por tanto, vamos a calcular la reducción aplicada por el primer compresor:

La señal de 0dB, tras pasar por el primer compresor, se ha quedado en -6,6dB

Calculemos ahora la segunda reducción que efectuará un segundo compresor. Mismos parámetros excepto la señal de entrada, que ya no es 0dB sino -6,6dB:

Por tanto, los compresores 3:1 encadenados nos dan una reducción total del rango dinámico de -8,86dB.

Ahora bien, ¿qué sucederá entonces si en vez de dos compresores ponemos un único compresor de ratio 9:1? Calculémoslo:

Matemáticamente vemos que obtenemos el mismo resultado.

Comprobación en Pro Tools

Lo hemos calculado matemáticamente, pero vamos a comprobarlo también de manera práctica. Para ello, vamos a utilizar un tono puro en Pro Tools y un plugin de compresión. Replicaremos exactamente el mismo cálculo anterior.

Veámoslo en este vídeo:

Conclusiones

Podemos comprobar que, a efectos prácticos, aplicar dos compresores tiene un resultado multiplicativo. Sin embargo, aunque el nivel obtenido sea el mismo utilizando dos compresores que uno solo con el ratio más alto, a efectos auditivos no tiene por qué ser lo mismo.

Muchos técnicos, especialmente en el ámbito de mezclas en estudios de grabación, pueden aplicar varios compresores seguidos reduciendo muy poco con cada uno de ellos en lugar de utilizar un único compresor con un ratio más alto. Esto tiene su razón de ser, ya que es posible que un compresor no responda igual según los niveles que recibe. De cualquier forma ese tema queda ya fuera de los propósitos de este artículo, donde simplemente pretendía clarificar lo que sucede en cuanto a reducción del rango dinámico cuando encadenamos compresores.

Como siempre, si te ha gustado (o no) el artículo, agradezco comentarios 🙂

 

Ejemplo práctico de cómo ajustar un compresor

Llevo tiempo con demasiados frentes abiertos, y poca dedicación al blog. Aunque tengo bastantes artículos a medio terminar, no consigo terminarlos por diversos motivos. Sin embargo, quería publicar algo este mes sin falta, y tenía que hacerlo ya por cuestión de calendario.

Así que para este mes he optado por colgar un video explicativo, cosa que no había hecho hasta ahora. Es un formato de video bastante sencillo y no muy profesional, lo sé. Pero es un formato que me funciona muy bien para explicar conceptos prácticos y lo suelo utilizar con mis alumnos que estudian a distancia a través de CPA Online en el curso de sonido en directo.

La verdad es que los compresores, en general, son los procesadores que más les cuesta aprender a manejar a todas las personas que se inician en el mundo del sonido. Muchas veces veía a mis alumnos insertar los compresores y ajustar sus parámetros casi al azar. Con el método que ya expliqué en el artículo «Aprender a ajustar un compresor», la verdad es que la curva de aprendizaje para entender cómo ajustar un compresor mejora de manera muy significativa.

Tanto si os gusta como si no os gusta el video de ejemplo práctico de ajuste de compresor, agradecería comentarios para saber si este tipo de contenido es útil (y quizás algún otro mes publicar otro vídeo) o bien no publicar más.

Ganancia vs. fader o el peligro de los foros de sonido

Hace poco estuve leyendo un hilo en un foro de «P.A. profesional» de una conocida web sobre sonido. Un hilo en el que se empezó planteando la eterna y, para mi, nada técnica duda de si al bajar ganancia y subir fader reducíamos la posibilidad de generar realimentación. Y al final acabó convirtiéndose en un hilo absolutamente hilarante con gente afirmando barbaridades tales como que los micrófonos cambian de patrón polar en función de la ganancia que se les aplica.

Ese hilo me ha hecho recordar el por qué siempre les digo a mis alumnos de sonido que eviten creerse todo lo que lean en foros de ese tipo (quien dice foro dice grupo de facebook o cualquier cosa similar). Principalmente porque estos lugares tienen una cosa muy buena y otra muy mala. La cosa muy buena es que cualquiera puede escribir. Puedes encontrarte leyendo a Dave Rat, Merlijn van Veen, Suso Ramallo, Pepe Ferrer, Jim Williams o muchísimas otras personas con amplios conocimientos y experiencia y aprender mucho de ellas. Lo malo es que también puedes encontrarte a otra gente escribiendo auténticas barbaridades. Y si tus conocimientos no son muy amplios, te pueden llevar a una tremenda confusión.

Yo, por supuesto, tampoco estoy a salvo de cometer errores, y puedo publicar artículos con conceptos erróneos. Lo que importa, al fin y al cabo, es aprender a diferenciar entre la información valiosa y la información errónea.

Si alguien afirma que bajar la ganancia de un micrófono y subir el nivel del fader evita las realimentaciones, debería demostrarlo con argumentos. Yo, con este artículo, me he propuesto lo contrario: desmitificar esa eterna cuestión que es «Ganancia vs. Fader».

Ganancia

Empecemos por el principio: ¿A qué nos referimos cuando hablamos de la ganancia aplicada a un micrófono desde, normalmente, el previo de una mesa de mezclas? Los micrófonos generan en su salida un voltaje muy pequeño (comúnmente, apenas unos milivoltios). Al pasar por el previo de micrófono y aplicarle la ganancia correspondiente, la señal de micrófono se ve amplificada y pasa a ser una señal de línea, que es una señal con mayor voltaje (+4dBu corresponde a 1,23V RMS).

Normalmente, cuando ajustamos la ganancia de nuestra señal de audio lo que buscamos es amplificar la señal de micro a un nivel suficientemente por encima del ruido de fondo y con suficiente margen antes de llegar al punto de distorsión. O lo que es lo mismo, buscamos obtener una buena relación señal/ruido con suficiente headroom.

Una ganancia ajustada demasiado abajo nos proporcionará un sonido donde el ruido de fondo esté bastante presente. Veámoslo gráficamente:

Comparativa entre trabajar con la ganancia al mínimo u obtener una buena relación señal ruido.

Fader

¿Y qué es lo que hace el fader o deslizador de un canal de audio? El fader nos permite aumentar o disminuir la señal de audio una vez que ha pasado por todo el canal de la mesa. Es decir, al fader la señal de audio llega tras pasar por la ganancia de entrada, los filtros, los insertos que pueda haber, la ecualización, la dinámica… Una vez que la señal llega al fader, podemos no afectarla (dejando el fader en la posición de 0dB), atenuarla (situando el fader por debajo de 0dB) o aumentarla (subiendo el fader por encima de 0dB).

Si bajamos -10dB la ganancia de entrada y subimos +10dB el fader, el resultado debería ser el mismo siempre que no tengamos procesos de señal intermedios, especialmente procesadores de dinámica.

Habitualmente, yo busco siempre situar en las pruebas de sonido los faders de mis canales a 0dB para tener un punto de referencia y a partir de ahí aumentar o disminuir según necesidades de mezcla. En ocasiones, en pro de la estructura de ganancia puedo dejar algún canal un poco más abajo de 0dB, pero en caso de hacerlo lo dejaré en puntos marcados en la escala como -5 o -10dB.

¿De qué factores depende la realimentación?

La realimentación puede depender de muchos factores, e incluso de la combinación de varios de ellos. Para mi, los principales, son los siguientes:

  • Nivel de ganancia, fader o cualquier otro proceso que modifique el nivel de la señal de audio.
  • Distancia de los micrófonos a los altavoces.
  • Nivel de la fuente sonora.
  • Posición relativa entre micrófonos y altavoces.
  • Distancia de las fuentes sonoras a los micrófonos.
  • Número de micrófonos abiertos.
  • Condiciones acústicas de un recinto.
  • Respuesta en frecuencia de los micrófonos y los altavoces.
  • Interacción de los monitores entre sí.

¿Tiene sentido reducir las realimentaciones o feedbacks bajando ganancia y subiendo fader?

Llegados a este punto, mi conclusión es la siguiente: No, no tiene ningún sentido atenuar ganancias y aumentar nivel en el fader para reducir la realimentación. Al menos, si somos conscientes de lo que estamos haciendo.

Para ello, nada mejor que hacer mediciones reales. Las siguientes capturas son de una función de transferencia hecha con una mesa Behringer X32 en la que, sin aplicar procesos intermedios, bajamos o subimos ganancia y hacemos lo contrario con el fader. La función de transferencia demuestra que a nivel frecuencial es exactamente lo mismo. Lo que quiere decir que si nuestro objetivo es evitar la realimentación, bajar ganancia y subir el fader no tiene ningún efecto positivo (y sí negativo, pues como hemos visto empeoraríamos la relación señal ruido).

 

Ahora bien, si no tenemos en cuenta los procesos intermedios que estamos haciendo, sí que podemos encontrar que este método funciona. Pero funciona por puro desconocimiento técnico.

Me explico: Si tenemos insertado un compresor en un canal que nos está atenuando, por ejemplo, -8dB y le damos una ganancia de salida del compresor de +10dB, estamos reduciendo drásticamente el rango dinámico de la señal y aumentando el ruido de fondo. Lo que nos va a generar más riesgo de realimentación. Si bajamos la ganancia y subimos el fader en este caso, reduciremos el riesgo de feedback porque estará llegando menos señal al compresor y este atenuará menos nuestra señal. Pero en ese caso, ¿no sería más sencillo (y mucho más correcto) cambiar los ajustes del compresor?

Si reelemos la lista anterior de factores que afectan a la realimentación, la verdad es que se nos pueden ocurrir muchas otras cosas para evitar la realimentación antes que optar por ese «misterioso» y poco efectivo truco de bajar ganancia y subir fader, ¿verdad?

La foto que encabeza el artículo es de CPA Salduie, tomada en el III InFocus Festival sonorizado por los alumnos del ciclo de Sonido para Audiovisuales y Espectáculos.

Por qué debería interesarte la profundidad de las cápsulas de tus micrófonos

Quería empezar el año escribiendo un artículo sobre la importancia de la posición de las cápsulas microfónicas en el interior de los micrófonos. Este es un tema que hace un tiempo aprendí tanto de Dave Rat como de Merlijn Van Veen, pero del que nunca he leído nada en idioma español, así que me parece interesante escribir mi propia versión como aportación al blog.

Micrófonos y sensibilidad.

La sensibilidad de un micrófono es la relación que existe entre la presión sonora que recibe el micrófono en su cápsula y la señal eléctrica que genera en su salida. Se trata de un valor constante y fijo. Normalmente se mide en mV/Pa y los fabricantes suelen especificar este valor para una frecuencia de 1KHz. A mayor sensibilidad, mayor nivel de salida nos dará un micrófono con la misma presión sonora de entrada.

Habitualmente, se afirma que los micrófonos de condensador son más sensibles que los micrófonos dinámicos. Esto es correcto, ya que por lo general es así.

También se tiende a pensar que al ser más sensibles captan más cualquier ruido que se produzca a su alrededor y puede que no sean por tanto muy adecuados para utilizarlos en directo, donde suele haber mucho ruido en escenario. Esto no es del todo correcto, ya que la sensibilidad del micrófono no ocasiona esto (la sensibilidad es constante, por lo que si nos llega demasiada señal con atenuar la ganancia solucionaríamos el problema).

El que un micrófono capte más sonidos de su alrededor que otro, a mismo nivel de salida, lo ocasiona la profundidad de su cápsula.

Profundidad de cápsula.

Con profundidad de cápsula nos referimos a la posición que tiene el transductor acústico/mecánico (es decir, el dispositivo que convierte la presión sonora en movimiento) dentro del micrófono. Puede ser que esté muy próximo a la rejilla, o puede esté situado un poco más adentro, dejando unos centímetros entre la cápsula y el extremo del micrófono.

Esa distancia, que puede parecer insignificante, realmente es muy importante. Cuanto más cerca esté la cápsula de la fuente sonora, más señal va a captar de la misma. Y por tanto, mejor relación señal/ruido habrá. Esto quiere decir que se captará con más nivel el sonido deseado y con menos nivel ruidos que estén en el escenario. Cabe destacar que esto es absolutamente independiente de la topología del micrófono (dinámico o condensador), si bien es cierto que en muchas ocasiones los micrófonos de condensador tienen la cápsula más escondida que los micrófonos dinámicos.

Ejemplo real: Shure SM58 vs. Sennheiser e835

Pongamos que tenemos dos micrófonos dinámicos como son el clásico Shure SM58 y el Sennheiser e835. Normalmente, la percepción que hay entre la gente que los ha comparado es que el Sennheiser e835 da menos problemas de realimentación y capta menos el ruido del escenario que el Shure SM58.

Si miramos el manual, veremos que el Shure SM58 tiene una sensibilidad de 1,85mV/Pa y el Sennheiser e835 2,7mV/Pa. Por tanto, si ambos reciben la misma presión sonora con la misma ganacia de previo, el Sennheiser nos dará más señal.

Curiosamente, el Sennheiser tiene la cápsula más cerca de la rejilla que el Shure, tal y como podemos ver en la foto de debajo. ¿Casualidad? No, claro. Esto está relacionado con esa percepción de menos probabilidad de realimentación y menos captación de ruido de escenario.

Diferentes distancias de las 
cápsulas microfónicas de Shure SM58 y Sennheiser e835
Shure SM58 y Sennheiser e835

Si medimos, la cápsula del Shure queda aproximadamente a 2,3cm de la rejilla. Y la del Sennheiser a 1,3cm. Ahora imaginemos tenemos un cantante que sitúa los micrófonos a 1 cm de su boca y hace que en la cápsula del Sennheiser, que está mas cerca, lleguen 90db SPL.

La cápsula del Sennheiser quedará, a esa distancia, más cerca de la boca que la del Shure SM58 (2,3cm vs. 3,3cm aproximadamente). Y aquí entra en juego la conocida ley de la inversa del cuadrado, donde al duplicar la distancia a la fuente perdemos unos -6dB. Eso quiere decir que si el Sennheiser está recibiendo un nivel de presión sonora «X», el Shure SM58, simplemente por tener la cápsula 1 centímetro más atras, estará recibiendo menos señal.

La fórmula para calcular la pérdida de nivel con la distancia es L2=L1+20log(d1/d2), siendo L1 el nivel que hay a una distancia d1 y d2 la distancia a la que queremos calcular el nivel que llega. A partir de aquí es sencillo realizar los cálculos.

Si por ejemplo al Sennheiser llegan 90dB a 1 centímetro de distancia de la fuente sonora, al Shure llegarán 83,97dB. A 2 centímetros, el e835 captará 83,97dB y el Shure 80,45dB (3,5dB de diferencia) y así sucesivamente.

Con Excel, podemos crear fácilmente un gráfico que muestra las diferencias entre los dos micrófonos. En el eje vertical tenemos el nivel SPL (he tomado de nivel inicial 90dB) y en el eje horizontal la distancia de la fuente al micrófono en centímetros (teniendo en cuenta que una cápsula está 1 centímetro más alejada que la otra). En azul sería el Sennheiser, o lo que es lo mismo, un micrófono con una cápsula más próxima a la rejilla, y en rojo el Shure o un micrófono con la cápsula 1 cm más alejada.

Comparativa de niveles de SPL que llegan a dos micrófonos con la cápsula al doble de distancia el uno del otro. Las diferencias más significativas se dan en los 8 primeros centímetros.

Conclusiones

Con una diferencia de entre 6 y 2,5dB SPL en los tres primeros centímetros, podemos concluir que la profundidad de la cápsula es importante en situaciones de microfonía cercana a la fuente y con ruido alrededor, como puede ser el escenario de un concierto. El micrófono con la cápsula más alejada captará, sin duda, más ruido indeseado, pues tendremos que darle un poco más de ganancia para conseguir el nivel de señal deseado.

A distancias de 14 o 15 centímetros a la fuente o más estas diferencias ya no son muy importantes (habrá menos de 0,5dB de diferencia entre los micrófonos).

Cuanto más cerca quede la cápsula de la fuente sonora, mejor relación señal/ruido tendremos y también menos probabilidad de realimentación o feedback. No todo son ventajas, seguramente el efecto de proximidad será más evidente cuanto más cerca esté la cápsula de la fuente sonora. Y en ocasiones, microfonear según que fuentes sonoras desde demasiado cerca puede que no sea lo ideal.

Los micrófonos de condensador suelen llevar la cápsula más profunda (aunque no siempre), y por ello suele parecernos que captan más ruido de escenario y pueden ser más problemáticos.

También, una cápsula más próxima a la rejilla y la espuma del micrófono puede ser una cápsula más expuesta a daños por humedad, como por ejemplo la saliva en el caso de cantantes. Eso es un conocido problema de algunos micrófonos como los Audix OM6 u OM7, tal y como explica Ramón Sendra en este vídeo o Dave Rat en este artículo.

A partir de ahora, ya sabéis: A desenroscar los capuchones de los micrófonos e investigar qué hay dentro. No está nada mal conocer la profundidad de las cápsulas de nuestros micrófonos 🙂

Si os ha parecido interesante el artículo, agradecería que escribiéseis un comentario o lo compartieseis en redes sociales.


Por qué deberíamos siempre cargar nuestra escena antes de un concierto

En general, no tengo manías ni supersticiones de ningún tipo. Me considero un tipo normal, y por lo general confiado con mis compañeros de profesión (excepto cuando alguien tiene que salvar/cargar una escena, si soy yo el responsable de sonido no le dejo a nadie hacerlo, jeje).

Sin embargo, a veces el exceso de confianza puede hacernos cometer errores (pero eso es bueno porque de todo se aprende) y hoy voy a hablar de una situación que ya me ha sucedido un par de veces y que (espero) no dejar más que me vuelva a suceder.

Trabajando como técnico de un grupo

Cuando se trabaja como técnico de un grupo, normalmente no tenemos que montar, desmontar, cablear, ajustar ni ninguna de las misiones que habitualmente corresponde a los técnicos de la empresa. En este caso nuestra misión consiste en llegar al lugar del evento, saludar al equipo técnico, comprobar que todo está correcto, chequear el sistema y lanzarnos a hacer nuestra prueba de sonido, para posteriormente mezclar la actuación en directo.

En el caso de festivales o actuaciones de varios grupos, mi principal preocupación en estos casos es llevarme mi escena, una vez terminada la prueba, almacenada en una memoria USB. De esta forma me aseguro que si alguien borra o modifica por error mi trabajo, puedo recuperarlo fácilmente.

En el caso de actuaciones donde hay un único grupo y yo soy el técnico que va a operar la mesa, hasta ahora me parecía que bastaba con hacer la prueba, grabar la escena y bloquear la mesa (guardando como siempre la escena en la memoria USB por si hubiese una catástrofe). Sin embargo, la experiencia me ha hecho aprender que eso no es suficiente.

Técnicos asistentes

Siempre que me encuentro con un equipo ya montado, me encuentro también con un técnico asistente. En las ocasiones contrarias, cuando yo monto un equipo y un técnico de una compañía viene a operar la mesa, yo soy el técnico asistente.

Es una figura fundamental, ya que es quien conoce el equipo que hay montado y debe dar soluciones a cualquier problema que le surja al técnico operador.

A la hora de guardar/cargar memorias en la mesa, el técnico asistente tiene que estar muy pendiente para que todo vaya como la seda. Cualquiera puede pulsar el botón inadecuado y borrar de un plumazo todas las memorias de una mesa de mezclas digital.

Y desde luego, lo que nunca debería hacer un técnico asistente es modificar una memoria de otro técnico.

Un par de sorpresas que me he llevado este año

Aunque no me había pasado nunca, este año he sufrido el mismo problema dos veces. En ambos casos se trataba de conciertos en los que sólo actuaba un grupo y yo era, por tanto, el único técnico operador.

Así que hice la prueba, guardé la escena, bloqueé la mesa y, como nadie iba a tocar la mesa hasta la actuación, no volví a cargar la escena antes de empezar. Craso error. No lo volveré a hacer. Y la explicación es muy sencilla.

En el primer concierto con sorpresa, nada más empezar enseguida vi la cara de los músicos (sólo había dos) indicándome que necesitaban más envío de monitores (se mezclaba P.A. y monitores desde la misma mesa). Fue en ese momento cuando descubrí que el técnico asistente me había apagado los buses de salida de los monitores (yo nunca los apago al terminar la prueba). Así que tuve que desmutear dichos buses para que por fin hubiese monitores. Mal hecho por parte del técnico asistente, pero error mío por pensar que nadie podía haber modificado nada.

El segundo incidente fue muy parecido, ya que era el mismo caso: sólo actuaba un grupo y yo el único técnico.

Al llegar al lugar y ponerme a configurar la mesa, el técnico asistente me indica que tiene configurados los «bypass» de los efectos en unas teclas de acceso rápido. Yo le comento que no se preocupe, que no lo voy a utilizar para nada (no me gusta «bypassear» los efectos, prefiero bajar los faders de los canales de retorno, o en todo caso apagar los canales de retorno. El problema del «bypass», para mi gusto, es que el efecto deja de sonar cuando lo activas pero el nivel de la señal limpia enviada al efecto aumenta considerablemente, y en algunas mesas hasta genera filtro de peine al no tener compensación de delay).

Así que termino la prueba, guardo la sesión, bloqueo la mesa y espero tranquilamente a que empiece el show. El técnico asistente, antes de empezar, desbloquea la mesa para poner música ambiente.

Y empieza el concierto, y yo no escucho la reverb. Subo más el envío y sigo sin escucharla. Miro los canales de retorno y está llegando señal. Compruebo el procesador de efectos y está en «bypass«. El técnico asistente, supongo que sin querer, había pulsado una de esas teclas de acceso rápido donde tenía configurado el «bypass» de ese efecto. Así que el primer tema del concierto lo hice sin reverb en la voz, hasta que me di cuenta de dónde venía el problema.

Conclusión

La solución a todo esto es muy sencilla, y creo que ya la he aprendido: Siempre, siempre, cargaré la escena antes de empezar una actuación. Aunque entre la prueba y la actuación esté convencido de que la mesa no se ha modificado. Nunca sabes quién puede andar por allí, y realmente no cuesta nada hacer un recall