2. Tratamiento numérico
de la información.
2.1. Sistema binario
La base de
los dispositivos digitales es el microprocesador. Se trata de minúsculos
circuitos fabricados con silicio que detectan impulsos eléctricos.
Un bit es un
dígito del sistema de numeración binario y representa el acrónimo del enunciado
en inglés binary digit. El sistema de
numeración decimal está representado por diez dígitos, mientras que en el
binario se utilizan tan solo dos dígitos, el 0 y el 1. Según el número de bits
(n) podremos representar 2n valores.
Una de las
medidas más utilizadas en informática es el byte, unidad de información
compuesta por 8 bits.
Si queremos
convertir un número decimal al sistema binario, se debe dividir esa cifra en 2
sucesivamente hasta llegar a 0. El resto que se obtiene de cada una de estas
operaciones se anota, puesto que representa cada uno de los dígitos que
componen el número binario.
Para el
proceso inverso, pasar de binario a decimal, deberemos ir teniendo en cuenta el
valor de cada bit e irlo multiplicando pos su valor.
No es
difícil encontrar en tiendas de productos tecnológicos relojes como el que
aparece en la fotografía. Son los llamados relojes binarios, que ofrecen la
hora en el sistema numérico binario. Para calcular la hora exacta, el usuario
debe convertir estos valores previamente al sistema decimal.
2.2. Unidades del sistema binario
Una vez que
los archivos han sido digitalizados, su tamaño resulta de gran importancia
tanto para su almacenamiento como para su transmisión. Por ejemplo, en un texto
un carácter equivale a un byte. Debido a que el byte es una unidad muy pequeña
se suelen emplear múltiplos del byte. En la siguiente tabla podemos ver las
principales unidades y el número de bytes a que equivalen.
Cuando
hablamos de la importancia del tamaño de los archivos, debemos mencionar la
opción de compresión de archivos. Al comprimir un archivo, su tamaño puede
llegar a reducirse hasta en un 90%.
2.3. Digitalización de la señal.
Una señal
analógica es aquella que puede tomar
múltiples valores de amplitud y frecuencia.
En cambio,
una señal digital es aquella que toma una serie de valores concretos del
sistema binario, por lo tanto la señal estará compuesta por una combinación de
unos y ceros que en nada se va a parecer a la señal original. Digitalizar
significa transformar cualquier tipo de información en valores numéricos
correspondientes a los pares binarios 0 y 1.
El proceso
de digitalización consta de tres fases principales:
1. Muestreo: a partir de la señal analógica de la que disponemos se toman una serie de muestras cada cierto tiempo. De esta forma cuantas más muestras se tomen, más similar será la señal digital a la original y por lo tato tendrá mayor calidad.
1. Muestreo: a partir de la señal analógica de la que disponemos se toman una serie de muestras cada cierto tiempo. De esta forma cuantas más muestras se tomen, más similar será la señal digital a la original y por lo tato tendrá mayor calidad.
2. Cuantificación: en este paso se miden
los valores de tensión de cada una de las muestras obtenidas y se les hace
corresponder un número decimal en función de la escala que se utilice.
3. Codificación: posteriormente los
valores decimales obtenidos se convierten a código binario, con lo que ya
obtenemos la señal digital.
2.4. Digitalización de
la imagen.
La calidad
de una cámara fotográfica digital se mide por el número de píxeles que ofrece.
Una imagen consiste en un conjunto de puntos llamados píxeles, por lo tanto, el
píxel es el componente más pequeño de la imagen digital.
Dicho de
otro modo, es como si cada fotografía estuviera compuesta por una serie de
cuadrículas; cada una de esas cuadrículas minúsculas es un píxel y almacena los
niveles de colores básicos presentes en ese cuadro.
Una imagen
digital también está basada en unos y ceros, por lo que la calidad final
dependerá igualmente del número de bits que se elijan para representar cada
píxel. Según el número de bits podremos representar más o menos colores.
Algunas
imágenes son comprimidas. Por un lado, existe la compresión sin pérdidas en la
que la imagen resultante es exactamente igual a la imagen sin comprimir. Por
otro lado, tenemos la compresión con pérdidas, en la que se realizan algoritmos
que analizan cuál es la información más irrelevante para el ojo humano para
poder desecharla, de forma que solo notaremos esta pérdida de calidad si
realizamos grandes ampliaciones de la imagen.
Existen
diferentes formatos de archivos:
-En la
compresión sin pérdidas tenemos los formatos de alta calidad utilizados en
cámaras digitales: TIFF y RAW, y aquellos de peor calidad como GIF, PNG y PSD.
gif
-En
comprensión con pérdidas el formato de archivo más conocido es el JPG o JPEG.
2.5. Digitalización del sonido
El formato
de audio en CD fue desarrollado en 1892 por las empresas Sony y Philips, pero
fue en los años 90 cuando se popularizó.
Sin embargo,
al hablar de sonido digitalizado ha surgido en los últimos años un formato que
ha revolucionado completamente el mundo de la música: el MP3. Este formato
utiliza técnica basada en las limitaciones del oído humano, capaz de captar
únicamente los sonidos de frecuencias entre 20 Hz y 20kHz; por lo tanto, en los
archivos MP3 las frecuencias inaudibles son eliminadas conservando la esencia
del sonido.
Las
diferencias de tamaño que presenta el formato MP3 en relación con el CD son
considerables, ya que mientras una canción en un CD ocupa unos 40 MB, en un MP3
su tamaño se reduce a solo 4 MB.
No hay comentarios:
Publicar un comentario