miércoles, 9 de diciembre de 2009

Codificación de Formatos Digitales

HERRAMIENTAS TECNOLOGICAS
Actividad 9 del 7 al 13 de Diciembre de 2009
Miguel Norberto López Aguilera AL09012957


Actividad 2 Codificación de formatos digitales

Pero, ¿qué pasa si quisieras comprimir una canción de tu disco favorito o un video para compartir? Para estos casos existen programas especiales. En nuestro caso, nos centraremos en el programa IrfanView.

1. Para familiarizarte con estos programas, lee el artículo Codificación de formatos digitales, en el cual identificarás algunos de los que se utilizan para este fin.

2. Tal como lo revisaste en el artículo Codificación, existen diferentes programas que permiten modificar algunas imágenes; uno de ellos es IrfanView, mismo que a continuación revisaremos. Para ello, descargarlo desde su sitio oficial. Para llevar a cabo esta actividad, apóyate en el recurso Instalando IrfanView. Examina la presentación Usando IrfanView para que identifiques cómo funciona.

3. Ahora que has examinado el uso de IrfanView, es preciso realizar ejercicios, para ello descarga la imagen monet.jpg y aplica los siguientes tratamientos:

- Imagen descargada monet.jpg (38.7 Kb)

• Escala de grises monet.jpg (27.3 Kb)
• Blanco y negro monet.jpg (50.3 Kb)
• A verde monet.jpg (26.3 Kb)
• A rojo monet.jpg (29.9 Kb)
• Contraste monet.jpg (57.1 Kb)
• Brillo monet.jpg (21.3 Kb)

4. Guarda cada uno de los cambios realizados a la imagen con el nombre de cada tratamiento.

• monetescaladegrises.jpg (27.3 Kb) guardado
• monetblancoynegro.jpg (50.3 Kb) guardado
• monetaverde.jpg (26.3 Kb) guardado
• monetarojo.jpg (29.9 Kb) guardado
• monetcontraste.jpg (57.1 Kb) guardado
• monetbrillo.jpg (21.3 Kb) guardado

5. En la sección Referencias visita el sitio ConocimientosWeb.net y descarga el archivo Perfil de descarga: Formatos de audio y video, en el revisa los videos que aparecen en las ligas que ahí se presentan.

6. A lo largo del curso se ha hablado constantemente de archivos digitales, pero, ¿qué es la digitalización? Para familiarizarte con el concepto, busca en internet o en bibliotecas a qué se refiere la digitalización de documentos.

La conversión analógica-digital (CAD) consiste en la transcripción de señales analógicas en señales digitales, con el propósito de facilitar su procesamiento (codificación, compresión, etc.) y hacer la señal resultante (la digital) más inmune al ruido y otras interferencias a las que son más sensibles las señales analógicas.





Una señal analógica es aquella cuya amplitud (típicamente tensión de una señal que proviene de un transductor y amplificador) puede tomar en principio cualquier valor, esto es, su nivel en cualquier muestra no está limitado a un conjunto finito de niveles predefinidos como es el caso de las señales cuantificadas.

Esto no quiere decir que se traten, en la práctica, de señales de infinita precisión (un error muy extendido): las señales analógicas reales tienen todas un ruido que se traduce en un intervalo de incertidumbre. Esto quiere decir que obtenida una muestra de una señal analógica en un instante determinado, es imposible determinar cuál es el valor exacto de la muestra dentro de un intervalo de incertidumbre que introduce el ruido. Por ejemplo, se mide 4,3576497 V pero el nivel de esa muestra de la señal de interés puede estar comprendida entre 4,35 V y 4,36 V y no es físicamente posible determinar ésta con total precisión debido a la naturaleza estocástica del ruido. Sólo el más puro azar determina qué valores se miden dentro de ese rango de incertidumbre que impone el ruido. Y no existe (ni puede existir) ningún soporte analógico sin un nivel mínimo de ruido, es decir, de infinita precisión. Por otro lado, si se pudiera registrar con precisión infinita una señal analógica significaría, de acuerdo con la Teoría de la Información, que ese medio serviría para registrar infinita información; algo totalmente contrario a las leyes físicas fundamentales de nuestro universo y su relación con la entropía de Shannon.

En cambio, una señal digital es aquella cuyas dimensiones (tiempo y amplitud) no son continuas sino discretas, lo que significa que la señal necesariamente ha de tomar unos determinados valores fijos predeterminados en momentos también discretos.

Las señales analógicas no se diferencian, por tanto, de las señales digitales en su precisión (precisión que es finita tanto en las analógicas como en las digitales) o en la fidelidad de sus formas de onda (distorsión). Con frecuencia es más fácil obtener precisión y preservar la forma de onda de la señal analógica original (dentro de los límites de precisión impuestos por el ruido que tiene antes de su conversión) en las señales digitales que en aquéllas que provienen de soportes analógicos, caracterizados típicamente por relaciones señal a ruido bajas en comparación.

Ventajas de la señal digital

Cuando una señal digital es atenuada o experimenta perturbaciones leves, puede ser reconstruida y amplificada mediante sistemas de regeneración de señales. Cuenta con sistemas de detección y corrección de errores, que se utilizan cuando la señal llega al receptor; entonces comprueban (uso de redundancia) la señal, primero para detectar algún error, y, algunos sistemas, pueden luego corregir alguno o todos los errores detectados previamente. Facilidad para el procesamiento de la señal. Cualquier operación es fácilmente realizable a través de cualquier software de edición o procesamiento de señal.
La señal digital permite la multigeneración infinita sin pérdidas de calidad. Es posible aplicar técnicas de compresión de datos sin pérdidas o técnicas de compresión con pérdidas basados en la codificación perceptual mucho más eficientes que con señales analógicas.





Inconvenientes de la señal digital

Se necesita una conversión analógica-digital previa y una decodificación posterior, en el momento de la recepción. Si no se emplean un número suficientes de niveles de cuantificación en el proceso de digitalización, la relación señal a ruido resultante se reducirá con relación a la de la señal analógica original que se cuantificó. Esto es una consecuencia de que la señal conocida como error de cuantificación que introduce siempre el proceso de cuantificación sea más potente que la del ruido de la señal analógica original, en cuyo caso, además, se requiere la adición de un ruido conocido como "dither" más potente aún con objeto de asegurar que dicho error sea siempre un ruido blanco y no una distorsión. En los casos donde se emplean suficientes niveles de cuantificación, la relación señal a ruido de la señal original se conservará esencialmente porque el error de cuantificación quedará por debajo del nivel del ruido de la señal que se cuantificó. Esto, naturalmente, es lo normal. Se hace necesario emplear siempre un filtro activo analógico pasa bajo sobre la señal a muestrear con objeto de evitar el fenómeno conocido como aliasing, que podría hacer que componentes de frecuencia fuera de la banda de interés quedaran registrados como componentes falsos de frecuencia dentro de la banda de interés. Asimismo, durante la reconstrucción de la señal en la posterior conversión D/A, se hace también necesario aplicar un filtro activo analógico del mismo tipo (pasa bajo) conocido como filtro de reconstrucción. Para que dicho filtro sea de fase lineal en la banda de interés, siempre se debe dejar un margen práctico desde la frecuencia de Nyquist (la mitad de la tasa de muestreo) y el límite de la banda de interés (por ejemplo, este margen en los CD es del 10%, ya que el límite de Nyquist es en este caso 44,1 kHz / 2 = 22,05 kHz y su banda de interés se limita a los 20 kHz).

La digitalización o conversión analógica-digital (conversión A/D) consiste básicamente en realizar de forma periódica medidas de la amplitud (tensión) de una señal (por ejemplo, la que proviene de un micrófono si se trata de registrar sonidos, de un sismógrafo si se trata de registrar vibraciones o de una sonda de un osciloscopio para cualquier nivel variable de tensión de interés), redondear sus valores a un conjunto finito de niveles preestablecidos de tensión (conocidos como niveles de cuantificación) y registrarlos como números enteros en cualquier tipo de memoria o soporte. La conversión A/D también es conocida por el acrónimo inglés ADC (analogue to digital converter).

En esta definición están patentes los cuatro procesos que intervienen en la conversión analógica-digital:

Muestreo: el muestreo (en inglés, sampling) consiste en tomar muestras periódicas de la amplitud de onda. La velocidad con que se toma esta muestra, es decir, el número de muestras por segundo, es lo que se conoce como frecuencia de muestreo.

Retención (en inglés, hold): las muestras tomadas han de ser retenidas (retención) por un circuito de retención (hold), el tiempo suficiente para permitir evaluar su nivel (cuantificación). Desde el punto de vista matemático este proceso no se contempla, ya que se trata de un recurso técnico debido a limitaciones prácticas, y carece, por tanto, de modelo matemático.

Cuantificación: en el proceso de cuantificación se mide el nivel de voltaje de cada una de las muestras. Consiste en asignar un margen de valor de una señal analizada a un único nivel de salida. Incluso en su versión ideal, añade, como resultado, una señal indeseada a la señal de entrada: el ruido de cuantificación.

Codificación: la codificación consiste en traducir los valores obtenidos durante la cuantificación al código binario. Hay que tener presente que el código binario es el más utilizado, pero también existen otros tipos de códigos que también son utilizados.

Durante el muestreo y la retención, la señal aún es analógica, puesto que aún puede tomar cualquier valor. No obstante, a partir de la cuantificación, cuando la señal ya toma valores finitos, la señal ya es digital. Los cuatro procesos tienen lugar en un conversor analógico-digital.

Un ordenador o cualquier sistema de control basado en un microprocesador no puede interpretar señales analógicas, ya que sólo utiliza señales digitales. Es necesario traducir, o transformar en señales binarias, lo que se denomina proceso de digitalización o conversión de señales analógicas a digitales.

En la gráfica inferior se observa una señal analógica, que para ser interpretada en un ordenador ha de modificarse mediante digitalización. Un medio simple es el muestreado o sampleado. Cada cierto tiempo se lee el valor de la señal analógica.

Si el valor de la señal en ese instante está por debajo de un determinado umbral, la señal digital toma un valor mínimo (0).

Cuando la señal analógica se encuentra por encima del valor umbral, la señal digital toma un valor máximo (1).


El momento en que se realiza cada lectura es ordenado por un sistema de sincronización que emite una señal de reloj con un período constante. Estas conversiones analógico-digitales son habituales en adquisición de datos por parte de un ordenador y en la modulación digital para transmisiones y comunicaciones por radio.
La compresión consiste en la reducción de la cantidad de datos a transmitir o grabar, pues hay que tener en cuenta que la capacidad de almacenamiento de los soportes es finita, de igual modo que los equipos de transmisión pueden manejar sólo una determinada tasa de datos.

Para realizar la compresión de las señales se usan complejos algoritmos de compresión (fórmulas matemáticas).

Hay dos tipos de compresión:

Compresión sin pérdidas: en esencia se transmite toda la información, pero eliminando la información repetida, agrupándola para que ocupe menos, etc.
Compresión con pérdidas: se desprecia cierta información considerada irrelevante. Este tipo de compresión puede producir pérdida de calidad en el resultado final.

La música en el formato digital se almacena en el CD. Un sistema óptico de diodos láser lee los datos digitales del disco cuando éste gira y los transfiere al conversor digital-analógico. Este transforma los datos digitales en una señal analógica que es la reproducción eléctrica de la música original. Esta señal se amplifica y se envía al altavoz para poder disfrutarla.

Cuando la música original se grabó en el CD se utilizó un proceso que esencialmente, era el inverso del descrito aquí, y que utilizaba un conversor analógico-digital.

En 1978, Intel lanzó el 2920 como un "procesador analógico de señales". Este poseía un chip ADC/DAC con un procesador de señales interno, pero no poseía un multiplicador de hardware, el 2920 no tuvo éxito en el mercado.

En 1979, AMI lanza el S2811, fue diseñado como un microprocesador periférico, al igual que el 2920 no tuvo gran éxito en el mercado.

En el mismo año, Bell Labs introduce el primer chip procesador digital de señales (DSP), The Mac 4 Microprocessor. Luego en 1980 fueron presentados en el ISSCC’80 los primeros DSP completos: el PD7710 de NEC y el DSP1 de AT&T, ambos procesadores fueron inspirados en las investigaciones de PSTN Telecomunicaciones. En ese mismo año NEC comenzó la producción del PD7710, la primera producción de DSP completos en el mundo. El primer DSP producido por Texas Instruments, el TMS32010, probó ser un sucesor mejor.

Actualmente el TMS320C4X diseñado y producido por TEXAS INSTRUMENTS, posee ciertas ventajas frente al resto de los procesadores, ya que éste se diseña para ser escalable, es decir, para que pueda trabajar en paralelo con otros dispositivos similares. Muchos de los procesadores se engloban dentro de la filosofía CISC, (Complex Instruction Set Computers) Aunque se pueden encontrar en el mercado algunos que operen bajo la filosofía RISC (Reduced Instruction Set Computers); estos últimos dedicados para aplicaciones concretas como la telefonía móvil.

No hay comentarios:

Publicar un comentario

Nota: solo los miembros de este blog pueden publicar comentarios.