Tecnología

Inicio

Los bits vs. bytes

Los bits vs. bytes


Si se ha discutido la terminología informática y de funcionamiento, es probable que haya encontrado con los términos "bits" y "bytes". Aunque estos dos términos suenan similares, que significan cosas diferentes. Para entender la diferencia, usted tiene que entender cómo los datos del almacén de computadoras y uso.

Lo esencial

Computers transmiten información mediante el envío de una serie de impulsos eléctricos que se interpretan como código. Esto es similar a cómo se utilizan los puntos y rayas del código Morse en las máquinas de telégrafo para representar letras y números. El equipo hace lo mismo; sólo hay dos posibles estados eléctricos de un circuito: activo o inactivo.

Los bits

Bits, abreviatura de dígitos binarios, son las representaciones numéricas de estas secuencias de cargas eléctricas que viajan a través de circuitos de la computadora. Dos dígitos representan los dos estados eléctricos. "0" significa que un interruptor o carga está apagado. "1" significa que el que está. La secuenciación de estos valores se traducen en diferentes valores en un sistema informático. Por ejemplo, el número "2" en decimal se representa como "10" en el sistema binario. Los bits se utilizan a menudo para medir las tasas de transferencia de datos.

bytes

Un byte es un conjunto de bits que contiene suficiente información para almacenar un único carácter alfanumérico. Por lo general, un byte es igual a ocho bits. Debido a esto, más la información de almacenamiento de archivos se expresa en términos de bytes en lugar de bits, y que hace que sea más fácil para los seres humanos de leer y entender. Hay 256 caracteres alfanuméricos básicos que se pueden expresar por un solo byte, ya que cada bit es una potencia de 2 y hay 8 bits; 2 a la octava potencia es de 256.

Diferentes tasas de transferencia de

Cuando se entero de un sistema de 64 bits, 128 bits o algo similar, esto se refiere a la cantidad de bits que el procesador maneja dentro de un ciclo de procesamiento. Esto afecta a la cantidad de datos, tanto numérico como de otra manera. Por ejemplo, la consola original de videojuegos Nintendo Entertainment System fue de 8 bits. Se podría sostener un valor máximo de 255 para una variable dada - es decir, 256 valores posibles, incluyendo 0. El Super Nintendo, por su parte, fue de 16 bits, por lo que podía manejar un valor máximo de 65.535.