3.1- Unidades de información
La unidad de información principal es el Bit. Un bit es un dígito del sistema de numeración binario. Un sistema de numeración es un conjunto de símbolos y reglas de generación que permiten construir todos los números válidos y el sistema binario, en matemáticas e informática, es un sistema de numeración en el que los números se representan utilizando solamente las cifras cero y uno (0 y 1).
En pocas palabras, y como ya muchos sospechan: las computadoras solo entienden 0 y 1. Esto se debe principalmente a que trabajan con voltajes internos: encendido = 1 y apagado = 0.
Pues bien un bit o dígito binario puede representar uno de esos dos valores, 0 o 1.
El bit es la unidad mínima de información empleada en informática, en cualquier dispositivo digital, o en la teoría de la información. Con él, podemos representar dos valores cuales quiera, como verdadero o falso, abierto o cerrado, blanco o negro, norte o sur, masculino o femenino, rojo o azul, etc. Basta con asignar uno de esos valores al estado de “apagado” (0), y el otro al estado de “encendido” (1).
Cuando se habla de CPUs o microprocesadores de 4, 8, 16, 32, 64 bits, se refiere al tamaño, en número de bits, que tienen los registros internos del procesador y también a la capacidad de procesamiento de la Unidad aritmético lógica (ALU). Un microprocesador de 4 bits tiene registros de 4 bits y la ALU hace operaciones con los datos en esos registros de 4 bits, mientras que un procesador de 8 bits tiene registros y procesa los datos en grupos de 8 bits.





