Tecnología

Inicio

La diferencia entre un monitor VGA y un XGA

La diferencia entre un monitor VGA y un XGA


VGA o video Graphics Array fue introducido por IBM en 1987. Se convirtió rápidamente en el estándar de la industria para ordenadores compatibles con IBM. En 2010, todos los PC todavía arranque en modo VGA. XGA o gráficos extendidos matriz, introducida en 1990, es la tecnología más nueva generación VGA. A pesar de las pequeñas diferencias entre los dos tipos de pantallas, monitores XGA son compatibles hacia atrás con la tecnología VGA.

Resolución

La principal diferencia entre los monitores VGA y XGA es la resolución de pantalla. Un monitor VGA tiene una resolución de pantalla de 320 x 200 con 256 colores, o 640 por 480 con 16 colores. Un monitor XGA tiene una resolución de pantalla de hasta 1024 x 768.

memoria pantalla

La memoria de presentación requerida para un monitor VGA es de 256 KB. Un monitor XGA puede requerir de 512 KB a 1 MB.

Frecuencia de actualización

Frecuencia de actualización se refiere al número de fotogramas mostrados en la pantalla por segundo y se mide en hertz (Hz). las frecuencias de actualización más bajos hacen que la pantalla parece parpadear. Originalmente, los monitores VGA tuvieron una tasa de refresco de 60 Hz. XGA tuvieron una tasa de refresco de 70 Hz.