Se identifica Bit como el acrónico de «binary digit», que se traduce en español a «dígito binario». Según esta definición, un bit es un dígito del sistema de numeración binario, que se representa con dos valores, el 0 y el 1.
En informática, bit es la unidad mínima de información. Se utiliza para representar la contraposición entre dos valores (apagado y encendido, falso y verdadero, abierto y cerrado).
En telecomunicaciones e informática, los bits son normalmente calculados en conjunto. Así tenemos 8 bits, 16 bits, 32 bits, etc.
Bit y Byte
Mientras el bit es la unidad mínima de información, byte es un conjunto fijo de bits. Aunque hay excepciones, en la mayoría de casos (sobre todo en relación al sector de la informática), un byte cuenta con 8 bits, de ahí su equiparación con el concepto de «octeto».
La partición estándar de bytes como grupos de 8 bits se basa a su vez en la codificación de caracteres ASCII (American Standard Code for Information Interchange). Por otra parte, la equivalencia gradual en informática se basa en bytes, para un cálculo más sencillo.
Por tanto, si 1 byte equivale a 8 bits, 1 kilobyte (kB / kbyte) equivale a 1024 bytes y así sucesivamente (megabytes, gigabytes, terabytes, petabytes, etc.)
Arquitecturas de bits en informática
Los bits se utilizan como medida también en los microprocesadores o CPUs de ordenador y otros dispositivos.
Cuando se identifica una CPU con 4, 8, 16, 32, 64 bits, se refiere siempre al tamaño de los registros internos del ordenador en número de bits. Igualmente, también se refiere así a la capacidad de procesamiento.De esta forma, los procesadores que tienen 16, 32 y 64 bits, tienen 16, 32 y 64 registros y capacidad ALU (Unidad aritmético lógica) de 16, 32 y 64 bits, pudiendo por tanto procesar los datos en grupos de bits de idéntica cantidad o submúltiplos de esta.