Tecnología

Inicio

La diferencia entre gibibyte y Gigabyte

El gibibyte y el gigabyte son ambos símbolos de las unidades de información digital, más comúnmente encontrado en los sistemas informáticos. La diferencia clave entre las dos unidades es que el gibibyte se deriva de la gigabyte, en sustitución del gigabyte como una cantidad unitaria en desuso. Las dos unidades son sinónimos con el prefijo binario (la exponenciación) utilizada para calcular la cantidad de información en comparación con el byte estándar.

Tamaños información digital

El tamaño de la información más común en la arquitectura de computadores es el byte. El byte representa ocho bits de información, con los bits que son código binario digital que es descifrado por un sistema informático para crear objetos cognitivos. Históricamente, un byte fue el número de bits utilizados para codificar un solo carácter de texto en un ordenador. El término "giga" es un prefijo colocado en el byte, lo que representa diez a la novena exponenciación, o mil millones de bytes. El término "gibi" es un cálculo basado en normas basadas en el cálculo "giga", pero en su lugar calcula dos a la exponenciación treinta y su cantidad respetuoso en bytes.

la Gigabyte

El gigabyte es una sustancial gran cantidad de información digital. Su cálculo representante de mil millones de bytes se utiliza en las aplicaciones informáticas más comunes, representada comúnmente como GB. El concepto se deriva del Sistema Internacional de Unidades que se basa en el concepto de los cálculos con la unidad base de diez. sistemas operativos como Microsoft Windows y las versiones anteriores del sistema operativo de Apple utilizan otro cálculo - el cálculo gibibyte - para representar los tamaños de los objetos digitales con el equipo. Esta es la razón por la que algunos dispositivos, como discos duros externos con una capacidad nominal de fabricante-400 gigabytes pueden ser identificados por el sistema operativo, ya que sólo 372 gigabytes.

el gibibyte

El gibibyte fue creado y estandarizado por la Comisión Electrotécnica Internacional en 1998 bajo la publicación de normas IEC 60027-2 publicada. Su número de bytes realmente asciende a 1,073,741,824 y se utiliza en aplicaciones comunes de computadora como la memoria de trabajo. El término es a veces sinónimo de la de un gigabyte y por lo general se indica en el producto del fabricante como el uso de esta cantidad calculada por separado para ser representativa de gigabytes en el sistema.

La diferencia

Simplemente se indica, la mayor diferencia es las matemáticas detrás de las dos extensiones de bytes. La memoria de computadora se aborda en múltiplos de base dos características (binario) de modo informáticos que utilizan el diseño físico utilizar el cálculo gibibyte para representar la cantidad de información digital. Por otra parte, en la memoria virtual, medición binario no es necesario y el cálculo utilizando la base de cada diez se utiliza para representar un gigabyte. La mayoría de los fabricantes de ordenadores se darán cuenta de su cálculo del tamaño directamente en el producto o en el embalaje para ayudar al consumidor a entender la diferencia.