AISLAMIENTO ACÚSTICO. EVITAR RUIDOS EN LA
CABINA.
Aún quedan algunas cabinas de radio con las paredes y techos repletos de
cartones de huevos. Al entrar, no sabes exactamente si estás en una pollería o
en una emisora. El operador siempre decía que eso “mejoraba la acústica”. Un
método barato y artesanal pero que, en realidad, no sirve para mucho. Los dos
aspectos fundamentales a la hora de instalar una cabina son el aislamiento y el acondicionamiento. Ambos conforman la
llamada acústica arquitectónica y
se recomiendan tanto para la instalación del estudio master como de las salas
de producción.
Aislamiento
o insonorización acústica: su objetivo es que en el estudio no entren
ruidos externos y, al mismo tiempo, que el sonido no salga hacia fuera, sobre
todo, si no quieres que algún vecino enfurecido te llame la atención. Todos los
materiales insonorizan, aunque unos más que otros. Por ejemplo, ladrillos y hormigón
tiene un coeficiente de reducción del sonido (NRC) más alto que la madera o el Corcho.
Acondicionamiento
acústico: el siguiente paso es cuidar el espacio interior del estudio logrando que
los sonidos no produzcan ecos incómodos a la hora de grabar.
AISLAMIENTO O INSONORIZACIÓN ACÚSTICA
Muchas emisoras están ubicadas en calles de mucho tránsito y siempre hay
una ambulancia inoportuna que se cuela en el mejor momento de la grabación.
Para no terminar con el hígado dañado y los locutores agotados de repetir tomas
y tomas, detectaremos los “coladeros” de sonido para sellarlos lo mejor
posible. La mejor sería que en el locutorio y en la cabina de grabación no
exista ninguna ventana y menos si éstas dan a calles transitadas. En ese caso,
séllala con bloques o ladrillos. Si no queda más remedio y tienes que dejar la
ventana, coloca doble vidrio y silicona en las uniones. Hay un tipo de vidrios laminados
antirruidos que, aunque un poco caros, son una buena elección. Las paredes o
techos que dan a otras salas, como prensa, recepción o lugares ruidosos, deben
ser aislados. La mejor forma de insonorizarlos es usar lanas minerales, sea fibra de vidrio o lana de
roca. Este material absorbe los ruidos y no deja que nada se
cuele de un lado a otro. Si la cabina todavía está en construcción, solicita
que construyan un doble tabique de ladrillos y entre medias coloca ese material
aislante.
En algunas cabinas, habrás visto que entre los ladrillos colocan corcho
blanco. Este material se llama, técnicamente, poliestireno expandido. En los edificios se usa por sus
propiedades como aislante térmico, para mantener una temperatura confortable en
el hogar, pero no sirve como aislador acústico. Otro inconveniente es su
peligrosidad ante un incendio ya que es altamente inflamable. Si el dinero no
alcanza, deja vacío el espacio entre las
dos paredes. Esto crea una útil cámara aislante. Además de las paredes, el
suelo es otro punto a tener en cuenta. Lo ideal es un piso flotante. Y lo
mejor, que quede totalmente separado del suelo, literalmente, “flotando”. Hay
uno separadores de caucho que se venden y no permiten que vibraciones del suelo
real, pasen al flotante. Para una cabina normal, es suficiente una alfombra
gruesa. Nunca coloques baldosas o cerámica en una cabina de grabación. Algunas
de estas recomendaciones sólo se pueden aplicar cuando la emisora está en
construcción, pero si espacio donde se ubicará la cabina ya está construido, no
desesperes.
Espumas, absorbentes y difusores: Grandes y
pesadas cortinas de pelo de cabra colgaban de las paredes del templo de
Jerusalén, tal como se describe en el Antiguo Testamento. Ya los antiguos
hebreos sabían la importancia que tiene cuidar la acústica de una sala. Tan
necesario es evitar que los sonidos de la calle se cuelen en nuestro estudio,
como que se escuchen bien los sonidos que en el estudio se producen. Por ello,
además de insonorizar debemos acondicionaremos la acústica.
¿Cómo se comporta el sonido?: Las ondas que
producimos al hablar no van solamente al oído de quienes nos escuchan, sino que
se dispersan por el lugar donde estemos. Si es una sala, las ondas rebotan en
todas las paredes, por el techo y el suelo. La persona que nos escucha oirá las
palabras que le llegan directamente, pero también los sonidos rebotados. Lo
mismo sucede al grabar. El micrófono captará las palabras de quienes locutan,
pero también recoge los rebotes de esas palabras. Estas ondas rebotadas o
reflexiones son las que debemos evitar. Para comprobarlo, entra en tu cabina de
grabaciones, da una fuerte palmada y, si retumba en toda la sala como un
molesto eco, tienes un problema. La clave para solucionarlo es acondicionar acústicamente la sala
para eliminar las ondas reflejadas y grabar solamente las que salen de boca de
locutores y locutoras. Ésta era la utilidad que se le quería dar a los cartones
de huevo pero, como ya dijimos, no sirven para mucho.
ACONDICIONAMIENTO ACÚSTICO
Lo primero, antes de acondicionar, es saber el uso que se le dará a la
sala. No es lo mismo trabajar la acústica de una cabina para grabación de voces
o para grabar instrumentos. Igualmente, el estudio o locutorio tendrá un
tratamiento distinto a la sala de controles. Pero para todos los casos hay dos formas de
trabajar la acústica:
Absorción: Todo material, (de ladrillo
a espuma), al recibir una onda absorbe parte de ella y refleja el resto. Los
materiales duros y lisos, como el ladrillo, reflejan mucho y absorben poco, al contrario
que las espumas o alfombras. Al colocar materiales muy absorbentes en nuestro estudio
nos “comemos” las ondas reflejadas.
Difusión: Son materiales
desiguales y poco absorbentes cuya misión es rebotar las ondas reflejadas en
diferentes direcciones, impidiendo así que el sonido se concentre. Una
combinación de ambas técnicas mejorará considerablemente la condición acústica
de nuestra cabina.
Espumas y otros absorbentes: La absorción
es el método más usado para acondicionar la acústica. Tanto en la cabina de
locución como en la sala de controles o en el estudio de grabación y edición
debemos colocar materiales que absorban las ondas reflejadas. Hay marcas
comerciales como Sonex o Auralex que venden estas planchas con
grosores y densidades adecuadas para cada ambiente. Suelen ser caras para la
mayoría de los bolsillos pero muy recomendables. En las tiendas de colchones
puedes encontrar espumas parecidas, incluso con la misma forma y a un precio
más asequible. Pero deben ser poco tupidas. Si son muy densas y cerradas no
cumplirán su misión ya que la onda no entra en la espuma. Entonces, actúa como
una pared y la onda es reflejada de nuevo, sobre todo las frecuencias graves,
por lo que sumamos un problema al que intentamos solucionar. Las espumas
acústicas comerciales no son planas, vienen con picos, asemejándose a los cartones
de huevos de los que antes conversábamos. Este tipo de conos se llaman cuñas anecoicas. Con esta forma es
más fácil capturar las ondas reflejadas. El grosor es también un factor
importante. A mayor espesor, mayor absorción.
Otra opción es colocar alfombras en las paredes que, aunque no cumplen
plenamente con el principio de la absorción, sí sirven para mejorar un tanto la
acústica. Si optas por las cortinas, que no queden completamente estiradas. La
forma ondulada ayuda mucho más a que las ondas “mueran” por el mismo principio
de las cuñas anecoicas. Tampoco las coloques muy pegadas a la pared, dales al menos
cinco dedos de separación. Paneles de corcho blanco o poliestireno expandido no
son recomendables para insonorizar y tampoco para la acústica. Hay que tener en cuenta que las espumas
absorben, sobre todo, las frecuencias agudas y medias, pero muy poco las bajas
o graves. Si tienes exceso de graves y pretendes solucionarlo forrando con espumas
estarás complicando más las cosas, ya que atenúas y eliminas agudos, pero no
graves. En este caso, es mejor colocar difusores
o también trampas de graves.
Los difusores rompen y dividen la onda que les llega. Es otra forma de eliminar
las reflexiones no permitiendo que se concentren y se repitan con fuerza. Las
trampas de graves son espumas que se colocan en las esquinas del estudio. Es en
ese lugar donde existen más reflexiones de estas frecuencias.
Paralelismo: El suelo está paralelo
al techo. Si tiramos una pelota de goma con mucha fuerza comenzará a rebotar entre
uno y otro. De la misma forma sucede con el sonido, y no sólo entre el techo y
el suelo, sino también entre las paredes. Si las ondas no encuentran algo que
las frene, pueden quedarse un buen rato rebotando de arriba abajo o entre una
pared y otra. Para solucionar esta
situación, coloca espumas en las paredes y algunas en el techo. En el suelo es conveniente
poner una alfombra. Éstas ayudarán también a evitar ruidos de pisadas mientras
grabamos. En vez de espumas, el techo es un buen lugar para colocar difusores
que reboten las ondas. Hay diferentes modelos, pero la mayor parte se fabrican
de madera o plástico duro. Entre las paredes, procura alternar las espumas. Si
colocas en esta pared una espuma, que en la de en frente, coincida un espacio
sin espuma. Y viceversa.
En algún estudio habrás visto un gran estante lleno de libros. Está
comprobado que un estante lleno de libros aprovecha ambas propiedades. Sirve
como absorbente y también como difusor. Si te decides a meter tu biblioteca en
la cabina, procura colocar los libros de forma desordenada, altos y bajos,
gruesos y delgados, algunos separados y otros más juntos, sin ningún orden. Eso
sí, límpialos a menudo. Los libros tienen una atracción especial por el polvo.
¿Muchas o pocas espumas y difusores?: Las
reflexiones de las ondas pueden ser molestas, pero también ayudan a ubicar una
escena en un lugar determinado. Las reflexiones nos dan el ambiente y la
amplitud del lugar. Si colocamos muchas espumas absorbentes “secaremos” el
estudio. No habrá reflexiones y el sonido sonará muy apagado y opaco. Así
conseguimos el típico sonido de locución, un tanto frío, artificial. Si lo
único que vas a grabar son locuciones, una sala seca es buena opción. Pero el
inconveniente se presenta a la hora de realizar dramatizados, ya que nunca
sonará real una escena que ocurre “en la calle”. Puedes sumarle efectos
técnicos en la edición, pero no será lo mismo. Por eso, si tu estudio es grande, deja una
zona con menos espumas en las paredes para la grabación de escenas más vivas,
que simulen suceder en exteriores. Aunque depende del tamaño del estudio, se
recomienda cubrir un 60% de las paredes y techo con materiales absorbentes.
Esto, como explicamos, para estudios de locución, porque en los de grabación musical
la cosa es más compleja. Hay que realizar cálculos minuciosos para hallar
materiales con coeficientes de absorción adecuados y lugares óptimos para la
colocación de cada material. Por lo general, en los estudios musicales cada
rincón tiene una ambiente diferente. Zonas más secas y absorbentes para un tipo
de instrumentos, otras con roca no uniforme para grabar la batería.
SONIDO MONO Y ESTÉREO
No me digas que nunca te hiciste esta pregunta. Podríamos tener un sólo
oído, al igual que tenemos una sola boca. Pero la sabia naturaleza nos dotó con
dos. En los talleres de radio siempre decimos que es para escuchar el doble de lo que hablamos,
cosa que hace falta repetir continuamente a locutoras y entrevistadores. Pero
aparte de eso, tener dos oídos nos permite escuchar en tres dimensiones, como las modernas películas animadas que ahora
son en 3D. Sin nuestros dos oídos sería imposible adivinar de qué lado se
acerca un auto y a qué distancia está. No ubicaríamos en el espacio ni a las
voces ni a las personas que los emiten. Los sonidos se escucharían planos, sin relieve. Precisamente,
para imitar la forma en que los oídos escuchan se inventó el sonido estéreo. Estéreo
es la forma abreviada de decir estereofónico,
y en inglés stereo.
Cuando nos preguntan qué es eso del estéreo, respondemos: un sonido que no es mono y que se escucha por
dos altavoces. Acertamos en la primera parte, ya que el sonido estéreo
no es monoaural (abreviado mono),
pero lo segundo es una verdad a medias. Que una grabación se escuche por dos altavoces
no garantiza que estemos escuchando un sonido estereofónico. Un sonido estéreo es aquel que tiene un audio
diferente por cada uno de los dos canales (izquierdo y derecho). Si escuchas
cualquier canción con unos audífonos y prestas mucha atención, percibirás por
un oído cosas que no oyes por el otro. Hay instrumentos que suenan más por el
izquierdo y coros de voces que oirás más altos por el derecho. Si cierras los
ojos, “verás” la banda tocando. Los coristas a la derecha del escenario, el
guitarrista a la izquierda y la vocalista, casi al centro. Con sólo
escucharlos, creas una imagen del espacio donde la banda está tocando. El
sonido estéreo se creó para eso, para recrear imágenes auditivas y ubicar a
locutoras y músicos en el espacio, en
tres dimensiones.
Con los sonidos mono todas
las voces nos llegan desde el centro, de frente. Pero al escuchar un sonido estéreo
en un reproductor de dos altavoces, apreciaremos cómo nos hablan desde la
izquierda o nos gritan desde la derecha o caminan conversando de un lugar a
otro. La mayoría de los micrófonos son mono. Después de grabar nuestra voz y
reproducirla, la escucharemos por los dos altavoces, pero sigue siendo una
señal mono. En la consola repartimos la voz por los dos canales, izquierdo y
derecho, aunque por los dos sale lo mismo. En cambio, si mi voz se graba con
dos micrófonos, uno ladeado a la derecha y el otro a la izquierda, aunque los dos
recojan las mismas palabras, lo hacen desde ángulos diferentes. Al llevar cada
uno de esos sonidos a un canal de la consola y luego cada canal por separado a
los altavoces estoy, ahora sí, logrando una señal estéreo. Esto se hace usando
cables dobles, uno para cada canal, con sus respectivos conectores. El estéreo,
por tanto, se construye desde la grabación. Los discos compactos vienen en
estéreo. A la hora de grabarlos se usaron varios micrófonos y el técnico que
mezcló el disco fue enviando algunos instrumentos al lado izquierdo, otros al
derecho y algunos al centro para crear esa imagen auditiva amplia, real y en
tres dimensiones.
¿Y las FM estéreo?: Este tipo de
emisoras puede enviar señales estéreo a su audiencia. Si en la radio ponemos un
disco compacto para sacarlo “al aire” (prácticamente la totalidad de la música
moderna viene grabada en estéreo), los dos canales de audio, el izquierdo (Left) y el derecho (Right) salen de forma independiente del
CD, cada uno por un cable. Pero cuando habla la locutora entre canción y
canción, presentándonos al artista, estaremos generando una señal mono por dos
canales. Por lo tanto, en la consola tendremos mezcla de señales estéreo y
mono.
A esto hay que añadir que los transmisores emiten en mono. Por eso,
antes de enviarle a él la señal, pasamos la salida de la consola, tanto el CD
como la voz de la locutora, por un aparato llamado generador de estéreo que empaqueta la señal para que el
transmisor pueda enviarla en estéreo. Cuando la recibimos, si contamos con un
receptor de radio estéreo con dos parlantes, escucharemos una señal en estéreo.
Igualmente, muchos editores de audio transforman un audio mono en estéreo. Pueden
separar en dos canales un audio mono con algunas diferencias en cada canal, creando
esa profundidad y dimensionalidad característica del estéreo en el sonido
final.
SISTEMA BINARIO Y DIGITAL
A lo largo de la historia, la humanidad ha
inventado diferentes códigos o sistema para comunicarse. En la prehistoria, los
gestos servían para ponerse de acuerdo en las cacerías sin ahuyentar a la
presa. Hoy, símbolos similares les sirven a las personas sordomudas para hablar
por señas. Los egipcios fueron famosos por sus jeroglíficos. Más tarde, las letras
nos permitieron escribir sobre un papel la palabra mamá. Samuel Morse inventó el código que lleva su nombre con el
que mamá se
escribe con la siguiente secuencia de puntos y rayas: - - / · - / - - / · - Las dos rayas representan la letra m y el punto y raya la letra a. Pero mamá también se puede escribir con números. Las computadoras no
entienden letras, solamente números. Por eso, todo el abecedario se transforma
en números para que funcionen los sistemas informáticos. El código que traduce
cada letra o carácter en un número se llama ASCII – American Standard Code for Information Interchange. Teclea en tu
computadora Alt + 97 y verás cómo aparece en pantalla la letra a. O escribe Alt + 65 y verás la A mayúscula. De esta manera, la
palabra mamá en código ASCII se
escribe así: 109 97 109 160. En realidad, las computadoras no trabajan
con esos números que pertenecen al sistema
decimal. Este sistema es el que usamos a diario en cualquier operación
matemática y se compone del 0, 1, 2, 3, 4, 5, 6, 7, 8, 9. Con estos diez
dígitos construimos el número que queramos. En informática, en cambio,
trabajamos con sólo dos dígitos, el 0 y el 1. Es el sistema binario. Aunque parezca increíble, podemos transformar
cualquier palabra, número, audio, fotografía o video, en ceros y unos. Por ejemplo, la palabra mamá podríamos escribirla sólo con
esos dos números, 1 y 0. Hagamos la prueba. Lo primero es anotar su código
ASCII que, como vimos, son números del sistema decimal: m (109) a (97) m (109)
á (160). Lo segundo es transformar el número decimal en un número digital. Para
esto dividimos consecutivamente el número decimal entre dos. Cualquier número
par que dividamos entre dos nos dará un resultado exacto (6/2=3 ó 50/2=25). En
cambio, al dividir un número impar entre dos, siempre obtendremos el decimal
0,5 (31/2=15,5 ó 99/2=49,5). Ahora, a cada división le asignamos un dígito: si
es una división exacta, un 0; si hay decimal (0,5), un uno. Comencemos con la a, que se representa con el número
97. 97 dividido entre 2 da 48,5. Como la división no es exacta, le asignamos un
1. Ahora dividimos entre dos la parte
entera del resultado, sin el decimal. 48 entre 2 da 24. Como el resultado es un
número entero le asignamos el dígito 0. Y así sucesivamente, hasta no tener
ninguna cantidad más que dividir. Al final, los dígitos 1 y 0 que hemos ido
asignando en cada división los tomamos al revés para conformar el número
binario. Acabamos de traducir la letra A al sistema binario: 1100001. Uniendo los cuatro resultados, la palabra mamá en el sistema binario se
representaría así: 1101101 - 1100001 -
1101101 – 10100000. A cada uno de estos dígitos (0 y 1) se le llama bit, contracción de las palabras
inglesas binary digit. En el
sistema binario informático se trabaja con una secuencia de 8 bits, que forman
un byte. El byte es la unidad
de almacenamiento de información digital.
Todos los archivos digitales se “miden” o clasifican con ella. Es necesario que manejes la escala de
múltiplos y submúltiplos porque a partir de ahora usaremos mucho los bytes.
Ahora que sabemos las diferentes formas de
escribir la palabra mamá, ¿cómo
pasar de la onda que se produce al decir mamá
por un micrófono a una información digital? En otras palabras, ¿cómo
digitalizamos el sonido?
¿Audio analógico del digital?: El paso del audio
analógico al digital ha sido la evolución más significativa en el mundo del
sonido profesional en toda su historia. Este cambio ha transformado por
completo la forma de trabajar, de escuchar y de almacenar el audio. Dejamos de
usar casetes para grabar en discos duros. Dejamos de editar con tijeras para
hacerlo con software. Y también, dejaremos de escuchar radio y televisión de
forma analógica para convertirnos, en muy pocos años, en audiencia digital.
Analógico: Análogo significa
igual, similar. Al grabar en este formato, hacemos copias eléctricas del sonido original que luego pueden ser
leídas por un aparato. Por ejemplo, la electricidad que genera un micrófono
cuando recibe las vibraciones de los sonidos es capaz de mover una aguja y
crear un surco en un disco. Luego, esa misma aguja puede leer el surco y las vibraciones que
genera el movimiento de la aguja se convierten en un valor eléctrico que se
transforma con un altavoz en el mismo sonido que grabamos. En las cintas de
casete ocurre lo mismo. Por medio de magnetismo guardamos los sonidos convertidos en electricidad que luego se
pueden convertir de nuevo en sonidos. Tanto la cinta como el disco de vinilo
son soportes analógicos de grabación.
Digital: Un disco compacto o un
flash memory son soportes
digitales. Este tipo de audio no hace copias de nada, sólo transforma las
vibraciones en 0 y 1, los dos dígitos que conforman el sistema binario, el lenguaje de las computadoras y equipos
digitales.
Ventajas del audio digital
Mayor Calidad
Menor espacio de almacenamiento
Miles de copias con la misma calidad
No se deteriora
Acceso más rápido a la información
Comodidad en la edición
Digitalizar un audio: Un micrófono
transforma una onda sonora en electricidad. Es lo que llamamos un audio analógico.
Esta electricidad se puede codificar y guardar en 1 y 0, convirtiéndose en un
audio digital. Esta codificación la hace la tarjeta de audio. Luego, el sonido
en ceros y unos, lo trabajamos en la computadora, editándolo, añadiendo
efectos… El último paso es transformar esos dígitos binarios (0 y 1) otra vez
en electricidad y, con la ayuda de un altavoz, nuevamente en sonidos.
El proceso para pasar la electricidad analógica a dígitos binarios tiene
dos pasos.
1. Muestreo
(sampling): En los cuadernos de pintura que rayábamos de pequeños había unos dibujos
que se hacían uniendo puntos numerados. Del punto 1 al 2 trazabas una línea,
del 2 al 3 otra y así sucesivamente, hasta que el dibujo iba tomando forma. Al
final, podías contemplar la silueta del genio de la lámpara de Aladino. Si
había pocos puntos, era difícil perfilar los detalles, sobre todo, las curvas,
y el dibujo no se veía muy bien. En cambio, si había muchos puntos y estaban
bastante juntos, la forma era más precisa y el genio más real, casi hasta
podías pedirle un deseo. El proceso de digitalización de un audio se parece mucho
a estos dibujos. El conversor de la tarjeta de audio va tomando diferentes
muestras o puntos de la onda inicial. La cantidad de muestras se mide con la frecuencia de muestreo y su unidad,
como para todas las frecuencias, es el hercio.
Recordemos que la frecuencia era la cantidad de veces que algo sucedía en un
determinado tiempo. Si tomamos muchas muestras, será más fácil reconstruir la
onda original después que fue digitalizada, al igual que sucede con el dibujo
del genio.
2. Resolución
(cuantificación): Acabamos de ver que para convertir un audio de analógico en digital
tomamos una determinada cantidad de
muestras, pero no hemos hablado aún del tamaño
de dichas muestras. Precisamente, ese tamaño de muestras es la resolución. Con mayor resolución,
podremos guardar mayor información que nos permitirá reconstruir la onda con
mayor fidelidad. Es como en las cámaras de fotos. A mayor número de pixeles, mejor calidad de fotos. En
las primeras fotografías digitales, si te acercabas, lo que parecía un terso
rostro no era más que una escalera de cuadraditos. Luego, los pixeles de las cámaras aumentaron y
con ellos la definición de las fotos. La resolución la medimos en bits. Aunque a veces se trabaja con 8
bits, lo mejor es hacerlo con un mínimo de 16 bits. Con 8 bits tenemos 256
valores para la muestra (28) mientras que con 16 bits tenemos 65,536 (216)
Realmente, las muestras que tomamos al convertir un audio analógico en
digital son los valores de corriente eléctrica en que el micrófono transforma
los sonidos recibidos. Todos esos valores eléctricos se convierten en unos y
ceros y se “queman”, por ejemplo, en un CD. Luego, el lector de discos lee esos
valores digitalizados y los vuelve a transformar en corriente de ese voltaje
para que el altavoz se mueva y reproduzca los sonidos que grabamos. Si tenemos
muy poca resolución, es decir, pocos bits para guardar datos, una tensión de
1,3678 milivoltios (mV) se guardará como 1,3 mV. Mientras que si contamos con
una resolución mayor, por ejemplo, 16 bits, se guardará la cifra completa, por
lo que el sonido se escuchará igual que el original.
FORMATOS DE AUDIO DIGITAL: El trabajo con audio digital es casi una tarea para especialistas en
enigmas. Como el audio se guarda en la computadora y todos los archivos
informáticos tienen extensiones,
tenemos que interpretar cada sigla y abreviatura. La extensión es la parte
final del archivo que hay después del nombre y el punto. Sirve para conocer qué
tipo de archivo es, si es un texto, un video o un audio. Hay muchas extensiones
y todas seguro que te suenan: WAV, RM, MP3, WMA…
Archivos de audio digital sin comprimir:
PCM: No es un tipo de archivo o formato, sino una técnica de
transformación de audio analógico a digital sin ningún tipo de compresión. Por eso, no vemos audios con la extensión pcm. Trabajamos con PCM a la hora de
digitalizar, pero siempre guardamos en archivos con alguna de estas
extensiones:
WAV (Wave, onda en
inglés): Es el formato de audio digital sin comprimir más usado. Pertenece a
Microsoft / IBM.
AIFF (Audio
Interchange File Format): Es similar a WAV pero para las
computadoras Macintosh o MAC de Apple.
CDA: Son las pistas de audio grabadas en Disco
Compacto que también usan el sistema PCM.
Todos los archivos sin comprimir son de gran tamaño. Aproximadamente,
unos 10 Megas por cada minuto de audio. Estos son los formatos usados para
guardar audio a nivel profesional ya que la calidad es muy buena. Pero cuando
no necesitamos tanta calidad y estamos escasos de espacio, es el momento de
usar la compresión de archivos.
Compresión de audio: Comprimir es
reducir y siempre que reducimos perdemos algo. Lo mismo sucede con el audio
digital. Los últimos avances han permitido que la compresión se haga con las
menores pérdidas posibles de calidad, pero siempre las hay. Frente a eso, se ha
ganado mucho en la reducción del tamaño de los archivos. Mientras que un audio
de 4 minutos en formato WAV ocupa aproximadamente 40 Megas, ese mismo audio, comprimido
a MP3, puede reducir su peso a 4 megas, 10 veces menos. Y aparentemente, suenan
igual.
Guardar sin comprimir: Cuando se
trabaja en producción se graba siempre en WAV, sin comprimir. De esa misma
forma se edita y mezcla. Si el resultado final de la edición es un audio para
ser colgado en una Web o
guardado en el disco duro de una computadora, podemos comprimir en mp3 pero con
una calidad no inferior a 160 kbps. Si por el contrario, la producción tiene
como destino final ser grabada en un CD, nunca comprimas, deja siempre el audio
en WAV y quémalo de esa forma en el CD.
¿Cómo funciona la compresión?: No se trata de
arrugar o aplastar el audio. La mayor parte de sistemas de compresión de audio
se aprovechan de un “defecto” de nuestro oído para reducir el tamaño del
archivo. Se llama enmascaramiento.
El enmascaramiento es una propiedad del oído humano que le impide distinguir
dos frecuencias muy juntas dentro del mismo rango, una enmascara a la otra. Por
ejemplo, si en una canción suena al mismo instante un sonido con una frecuencia
de 12 Khz y otro de 12.2 Khz, podríamos quitar una de las dos sin que lo
notemos al escucharlo. De esta manera, el compresor va “restando” las
frecuencias enmascaradas, lo que reduce el número de bytes. Y menos bytes en
informática se traduce en archivos de menor tamaño, pero no de menor tiempo. La
canción, al ser comprimida, dura lo mismo que sin comprimir.
Calidad de los archivos comprimidos: Vimos en la
pregunta anterior que un audio digital tiene dos parámetros: la frecuencia de
muestreo (la óptima es de 44.1 Khz.) y la resolución o tamaño de cada muestra
(8 ó 16 bits). Al comprimir, agregamos un tercer parámetro a estos dos, el bitrate. Es la cantidad de kilobytes
por segundo (kbps) y se refiere
a la calidad de la compresión.
· A menor número de Kbps, más compresión,
menor tamaño del archivo, pero menor calidad.
· A mayor número de Kbps, menor compresión,
mayor tamaño del archivo y más calidad.
Un audio comprimido a 128 Kbps tiene mayor nivel de compresión que uno
de 256 Kbps.
Formatos de archivos comprimidos:
MP3 (MpEG-1 Audio
Layer 3): Logra compresiones altas sin muchas pérdidas, aunque todo depende de la
calidad de la compresión que usemos. De 128 Kbps para abajo no es recomendable.
Aunque mp3 es el estándar de
compresión más usado, sobre todo para audio en páginas Web, el gran
inconveniente es su patente.
Por eso, cualquier reproductor o software de edición que quiera usarlo tiene
que pagar por ello.
OGG (Vorbis): Fruto de esa
patente, la Fundación Xiph.org desarrolló
en el 2002 un codec totalmente
libre para la compresión de audio. Similar en características al mp3, se está
comenzando a usar mucho en la Web y en algunos reproductores ya que los
fabricantes no tienen que pagar los costos de la patente.
AAC (Advanced Audio
Coding - Codificación de Audio Avanzada): El nivel de compresión
es mayor que el mp3 (MPEG-1) sin mayores pérdidas de calidad. AAC es uno de los
codec usados en el nuevo
estándar de compresión MPEG-4. Este formato de audio se usa en reproductores
como el iPod y en alguno de los
nuevos sistemas de radio digital. El AAC se perfila como el sucesor del mp3.
RAM (también RM o
RA): Son los archivos de la compañía Real
Network para audio. El problema es que su reproducción y edición está
muy limitada a software de la misma empresa y pocos más.
WMA (Windows Media
Audio): Es la apuesta de Windows a los formatos comprimidos. Es como un WAV,
pero de tamaño más reducido y menor calidad. Mientras que los archivos mp3 y
ogg los suenan casi todos los reproductores y editores, no sucede lo mismo con
los wma, por eso se usa muy poco.
AA3 (ATRAC -
Adaptive Transform Acoustic Coding): Formato inventado por Sony. Es el que usan
los grabadores-reproductores de minidisc.
No hay comentarios:
Publicar un comentario