Mostrando las entradas con la etiqueta slider. Mostrar todas las entradas
Mostrando las entradas con la etiqueta slider. Mostrar todas las entradas

Entendiendo la masterización de audio (mastering)

¿Qué es la masterización?

Uno de los temas que causan curiosidad dentro del mundo del audio es el de la masterización o mastering. Quizás esto se deba a que muchas veces el proceso de masterización lo realiza un ingeniero especializado y que, por lo general, ya no cuenta con la presencia del cliente para llevar a cabo su trabajo.

Fig. 1. Consola de audio


Pero ¿qué es la masterización? Podríamos decir que es la última etapa dentro del proceso creativo de la producción musical. Es decir, el último punto en donde aún se pueden tomar decisiones y acciones en cuanto a procesamiento de sonido se refiere. Después de la masterización ya no hay posibilidades de cambiar, ni editar o procesar nada.

El master es el disco final del cual se generarán las réplicas por lo que, técnicamente hablando, masterizar es el proceso para crear este master. Sin embargo, es común referirnos a la masterización como al proceso creativo también. En la actual era digital, consideraríamos un master al archivo final que será distribuido por internet a través de alguna plataforma: iTunes, Spotify, YouTube, Soundcloud, etc.


El estudio de masterización

El lugar en donde se debe realizar una masterización reúne características muy particulares. Quizás el factor más importante es el acústico. Las decisiones del ingeniero dependerán de lo que pueda escuchar y la acústica del estudio juega un papel fundamental en este sentido.

Obtener una acústica excepcional en el estudio requiere de una fuerte inversión económica. Esta es una de las razones por las cuales no cualquiera tiene el espacio adecuado para poder trabajar una masterización al mejor nivel. En este sentido, el estudio de mastering suele requerir un delicado balance entre absorción, difusión y reflexión del sonido, así como un excelente control de ruido. Además debe evitar tener objetos o superficies que afecten de manera negativa al comportamiento de las ondas sonoras, como podrían ser una gran consola de mezcla o ventanales grandes.

Fig. 2. Estudio de masterización Eternal Midnight


El equipo para masterización

Otra de las características típicas de un buen estudio de masterización es el equipo de audio con que cuenta. La masterización requiere del uso de los mejores procesadores y convertidores disponibles y esto suele implicar otra inversión económica importante. Es común que en un estudio de masterización se utilicen sistemas de monitoreo que están por encima de los $10,000 USD, procesadores analógicos o digitales (compresores, ecualizadores) que rondan los $4000 USD cada uno o suites de plugins para masterizar de más de $1500 USD.


Fig. 3. Monitores para masterización típicos


Actualmente también podemos hablar de masterización para proyectos que requieren sonido envolvente (surround), ya sea en formato 5.1 o en otros más complejos. En este sentido, los requisitos de monitoreo aumentan considerablemente.

Además de esto, la calidad en el cableado, instalación eléctrica y demás componentes deben ser de excelente calidad. Todo esto nos da una idea del grado de especialización que debe tener un buen estudio de mastering.


El ingeniero de masterización

Lo más recomendable es que la masterización sea realizada por un profesional que tenga sus oídos "frescos" en relación al proyecto. Esto implica que el ingeniero de mezcla y el de masterización sean preferentemente dos personas diferentes. La principal ventaja de esto es que un ingeniero distinto es capaz de escuchar detalles que pudieron pasar de alto por parte del ingeniero de mezcla. Muchas veces después de haber trabajado por horas en la mezcla de una canción, los oídos pueden "engañar" al ingeniero y hacerle perder cierta objetividad en cuanto a niveles, balance espectral u otros detalles similares.

Además, la masterización requiere de un conocimiento muy amplio por parte del ingeniero, así como gran experiencia y oídos muy críticos. Muchas producciones musicales pueden ser realizadas en estudios caseros (home studios) con buena calidad y realzadas al final por un ingeniero de masterización profesional. El resultado de esta combinación puede ser muy bueno.


Fig. 4. Ingeniero de mastering Dan Millice

Regresando a la Tierra

La masterización es un área fascinante dentro del mundo del audio. Hoy en día tenemos la oportunidad de utilizar herramientas muy accesibles para conseguir un master de bastante calidad utilizando una computadora y procesadores de software. Existen también sistemas basados en AI (inteligencia artificial) que se encuentran en el proceso de llevar a la masterización hacia la frontera de la automatización de procesos.

Es posible también aprender las técnicas básicas de masterización y mejorar la calidad del audio de una producción que realicemos. Para quien tiene ganas de aprender, experimentar y desarrollar su sentido auditivo más allá del promedio, la masterización puede no ser tan misteriosa como algunos piensan.

Curso Masterización
Curso en línea sobre Masterización




Sound absorption (part 1)

What is sound absorption?

In other articles we talked about the acoustic characteristics of some rooms and venues. We learned the difference between reverb and echo. Now, the reverb time (RT) depends on the amount of absorption in a room and its dimensions. That is, if the room has large carpets and curtains it will have less reverberation than a room with tiles and concrete. This is because the curtains and the carpet are materials that absorb more sound than a tile or concrete.

Fig. 1. Anechoic chamber

Sound absorption definition

Sound absorption is the conversion of acoustic energy into heath. Energy cannot be created nor destroyed, but it's transformed from one form to another. For this reason, when a sound wave arrives to a surface, it's transformed into heat. This amount of heat is very low though. We would need a full football stadium with people screaming to produce enough energy to heat up a cup of coffee!

Sound absorption is not the only thing that occurs when a sound wave reaches a different medium. Generally speaking, there are three phenomena:

  • Reflection. Part of the energy "bounces" back.
  • Absorption. Part of the energy will be absorbed by the material.
  • Transmission. Part of the energy will pass through the material. 

Fig. 2. Sound wave traveling. (Everest, A. Master Handbook of Acoustics)

For example, in the last image, we have a sound wave traveling from source S. While traveling in the air, there is some sound absorption (E). When it reaches a wall or obstacle, part of the energy will be reflected (A) and another part will be absorbed and transmitted (F, H).


Measuring absorption

Each material can absorb more or less sound energy. We can measure this through the absorption coefficient. This is a number that shows us what percentage of energy is absorbed by a material. It doesn't have measure units and it's represented with the letter α. A coefficient of 1 means that 100% of energy is absorbed and none is reflected back. A coefficient of 0.25 means that 25% of the energy is absorbed and the other 75% is reflected. In general, porous materials have higher absorption coefficients than rigid materials. For example, a curtain has bigger absorption coefficient than concrete.

It's interesting to note that the absorption coefficient is not constant at all frequencies. This is why is common to find tables where we can see the coefficient of different materials at different frequencies.

Fig. 3. Absorption coefficients

In the table we can see some absorption coefficients. For example, a brick is a little better to absorb high frequencies than low frequencies. On the other hand, an ordinary window glass absorbs more low frequencies than high frequencies. This knowledge is very useful when designing the acoustic treatment of a room. There are very complete tables with common construction materials available.

Also, we can see that there are different materials with similar acoustic behavior. So it is a mistake to believe in a "magic recipe" for fast and easy acoustic solutions. Most of the times we need a combination of materials, with both high and low amounts of absorption, depending on the design and needs for that particular application.

If you want to learn more about acoustics, please check out my online course Principles of Acoustics for the Home Studio! More info here.



Music Technology and Pure Data (PD)

Music Technology

This time I'll talk about a very interesting topic in the world of modern music: music technology. When we talk about music technology we mean all the tools that can be used for music creation, analysis and synthesis. We are living in an age where music technology grows everyday and the most interesting discoveries are yet to come.


Among the available music technology tools, we can find music programming languages. Here it is a list with the most popular languages:
  • Csound. This is one of the oldest languages but still popular. It has tools for music composition, synthesis, live coding and more. It's based on written code, it is free and it can be used on any computer platform.
  • Supercollider. Another code-based, free and multi-platform language. Supercollider is an object oriented language that allows real time performance, synthesis, algorithmic composition and many more.
  • ChucK. This is one of the newest languages yet it has become very popular. This is because its simplicity and great synchronization features, live coding, synthesis, composition, etc. It is code-based, free and multi-platform.
  • Reaktor. Unlike the other examples, this is not a "real" programming language, but a graphic developing platform instead. With Reaktor you can build synths and effects in a visual way. It is a commercial software and runs on Mac and Windows. Its graphic environment allows the development of creative tools and projects in an intuitive way and with excellent sound.
  • Max/MSP. Another graphic environment where you can connect "blocks" and do many processing operations. These include synthesis, MIDI and even interaction with video or images. It's a commercial software available for Mac and Windows. It's very popular due to its great integration with Ableton Live
  • Pure Data (PD). This one is like the "open" version of Max/MSP. It was created by the very same person: Miller Puckette. It's very similar to Max/MSP in its basic functions but it's open source, free and runs on Mac, Win and Linux. You can create synthesis, composition, audio, MIDI and control tools.
In future articles we will talk about working with PD. With this platform we can build the music tools we may need, for example:
  • Synthesizers
  • Audio signal processors
  • MIDI processors (arpeggiators, splitters, etc.)
  • Movement, camera or sensor controllers
  • Interactive art tools
  • Educational tools
  • Algorithmic composition tools
All of this looks very interesting but we must understand that PD gives us the basic blocks to build all these tools. It's a kind of LEGO set for audio and MIDI processing. Anyway, this doesn't mean that building this kind of creative tools is a simple task. You need imagination, knowledge and persistence to make the things work.

Finally, we will use PD for many reasons. The first one is that PD is free and runs on any system. The second is that, being a graphic environment, it doesn't use a complex syntax nor code lines. You need to learn the language rules though, but the learning curve is so much more intuitive. The third reason is that you can use PD to work along with any DAW or virtual instrument. Another advantage is that it doesn't need a lot of processing power, so you can even use it with old laptops or even some netbooks, whether live or in the studio.

Music Technology is an essential tool for the modern musician or producer, that's for sure. These technologies will allow today and tomorrow's musicians to build the creative tools the may need. In this way, there will be almost no limits for the creative process and imagination in the world of music.


How audio systems work?

The audio systems

We can understand an audio system as a chain of interconnected "blocks" or stages. The purpose of a system can be either sound recording or sound reinforcement. We will find many of these "blocks" in any audio system. Examples of systems are: a home studio, a live sound system, karaoke systems, school P.A, etc.


Mic and Inst levels

All systems begin with the audio inputs. The input can receive a signal from a microphone or from any other audio source, such as electronic instruments (keyboard, guitar), processors or other devices. These elements generate very small electrical signals (mV) so they need amplification. The levels of these tiny signals are called Mic-level or Instrument level.


Fig. 1. Mic level.

Whatever the input, the first stage in the system has to be an amplifier. This is called preamplifier or preamp. The preamp is an amplifier that takes a signal from a mic or instrument and amplifies it until it reaches a higher level. This level is called Line-level and it's about 1 V. Almost all consoles and audio interfaces have built-it preamps.

Line level

Once the signal reaches line-level, we can process and manipulate it in various ways. For example, we can equalize it, compress it or apply effects like echo, chorus, etc. Also, line-level signals can be mixed with other signals without noise problems. The line-level signal may be digitized too, so all these processes can be either digital or analog. We can also record line-level signals. This could be done in an analog medium (magnetic tape) or in a digital one (hard disk).

Fig. 2. Line level processors.

Speaker level

When the line signal has been processed and/or recorded, then we need to amplify it even more so we can hear it. This is done through another amplification stage called power amplifier. Power amplifiers raise the energy of the audio signal from line-level to speaker-level. This level can reach up to 100 V, so it must be handled with caution. That's why we have to use thick cables for this kind of signals. These signals are connected to a loudspeaker. The speaker will convert the electrical variations into movements of the cone. Then, the cone will move the air and will generate a sound wave.

Fig. 3. Power amplifier (speaker level).

This chain of stages is valid on all systems, but often we do not realize it because the stages are integrated within the gear. But even with digital developments and new technologies, we will always need:
  • Audio inputs
  • A preamp
  • Some kind of processing (EQ, effects)
  • A power amplifier
  • A transducer (speaker or headphones) that generates the sound wave.
Fig. 4. Mixer with processors and power amplifier included.

It is important for the sound engineer to supervise that the signal goes from a small voltage to a larger one. You should always consider the amount of energy at each stage when interconnecting equipment. That is, a microphone signal should be connected to a preamplifier, this one should feed a processor and so on without skipping stages. Not following these guidelines may cause noise, distortion or damage to equipment. For example, we should not feed a power amplifier with a microphone signal because it is too small for the amplifier. Nor we should drive the input of a processor with a speaker-level signal, as we could damage it!

In short, there are many possibilities, but the important point is to remember that we must always follow the order: Mic - Line - Speaker levels. This way we will avoid many problems for us... and for our wallet!




What's the difference between echo and reverberation?

Echo vs. Reverb

One of the subjects that generates confusion in acoustics is the difference between reverb and echo. It is too common to find people, even within the field of professional audio, that have no clear distinction between these two terms.

First we must know that when a sound wave starts, its energy begins to propagate through a medium. This medium is usually air and, as the wave travels, the wave's amplitude decreases. For this reason a sound is quieter as the distance is greater.

When the sound wave arrives to a different medium, such as a wall, a part of its energy is reflected. Another part of the energy is absorbed and another part is transmitted to the other side of that wall. The reflected wave is what will create an effect of "echo" or repetition. This phenomenon is evident when we generate a loud sound outdoors. For example, a large wall on the street fence. We hear a replay of the sound we generated a fraction of a second later. This is called: reflection or echo.

If instead of doing this experiment outdoors we do it indoors, then the reflected sound wave will bounce on other walls and will continue doing it until it's hardly perceived because of attenuation. We assume that there are not curtains or furniture in this example. This group of quick echoes is what form the "reverb". The reverberation is typical in cathedrals and even in some bathrooms or empty houses. The absence of furniture or curtains makes the reflected sound waves to remain for a longer time and give the feeling that the sound continues.

Reverberation chamber

Reverberation and echo allow us to appreciate the ambient sound of a place. Our ear is a specialist in hearing details of echo and reverb from different places and thus whether it is a large hall, a small room, etc. This is what makes a big difference when recording in a home studio or in a professional one. This also explains the difference in the acoustic treatment for a concert hall or auditorium, cinema or conference room.

All these concepts are vital when recording and mixing sound. They help us recreate more realistic soundscapes. Each venue requires a certain amount of echo and reverb to suit its purpose and this is a matter of an acoustician. The best solution requires specialized measurements and analysis. 

If you want to learn more about acoustics, please check out my online course Principles of Acoustics for the Home Studio! More info here.


El preampflificador

El famoso "preamp".

Uno de los puntos más importantes, y también más ignorados por muchos operadores dentro de cualquier sistema de audio, es el preamplificador, también llamado preamp o pre. El preamp es quizás la etapa más crítica en cuanto a la manipulación de una señal de audio se refiere, pues es en esta etapa donde nuestra señal puede aumentar más su cantidad de energía ¡incluso hasta un millón de veces! (no tenemos esa cantidad de amplificación en ninguna otra etapa). Por este motivo es crucial entender cómo operar adecuadamente un preamp. Muchos de los problemas más comunes en los sistemas de audio, como distorsiones, ruido y retroalimentaciones o feedback se suelen deber a un mal ajuste del pre. De hecho en mis cursos y seminarios comenzamos siempre por saber ajustar el pre de una consola antes de pasar a lo demás. 

La escala cromática

¿Qué es la escala cromática?


Entre los elementos fundamentales de la armonía podemos mencionar a las escalas. Una escala es un conjunto de notas que tienen cierta relación entre sí. Las escalas son la base de la armonía moderna, pues a partir de ellas podemos entender mejor los acordes y su función en la música, así como saber qué notas utilizar al hacer un solo, un arreglo o una composición.


La escala más simple de entender es la escala cromática. Esta es la escala en la que se basa la música occidental, pues consiste en las 12 notas que usamos dentro de nuestro sistema de afinación (existen otros sistemas con distintas notas en lugares como India o China, por ejemplo). A continuación está la lista de cada nota expresada en cifrado americano, que es el sistema que utilizaremos de ahora en adelante:

Do: C 
Do sostenido: C#
Re: D
Re sostenido: D#
Mi: E
Fa: F
Fa sostenido: F#
Sol: G
Sol sostenido: G#
La: A
La sostenido: A#
Si: B

Esta es la manera de nombrar la escala de forma ascendente, es decir, de la nota más grave hasta la nota más aguda. De manera similar, podemos nombrar la escala de forma descendente, o de la nota más aguda hasta la nota más grave:

Si: B
Si bemol: Bb (el símbolo bemol es similar a una B minúscula)
La: A
La bemol: Ab
Sol: G
Sol bemol: Gb
Fa: F
Mi: E
Mi bemol: Eb
Re: D
Re bemol: Db
Do: C

Podemos notar que hay ciertas notas que son 'equivalentes' o, mejor dicho, enarmónicas

C# y Db
D# y Eb
F# y Gb
G# y Ab
A# y Bb

El uso de uno u otro caso depende del contexto y de la tonalidad. También es importante aclarar que existen otros enarmónicos, por ejemplo: E# (enarmónico de F),  Fb (enarmónico de E), B# (enarmónico de C), etc. Es básico para todo músico estar familiarizado con todos estos enarmónicos y conocer perfectamente todas las notas de la escala cromática de manera ascendente y descendente.

Bueno, pues esto es todo por esta ocasión, nos vemos la próxima con más temas sobre el mundo de la música y el sonido.

Si deseas aprender armonía moderna de manera completa, ¡checa mi curso sobre Armonía y Teoría Musical Aplicada aquí!