Tecnología

Inicio

La historia de la informatización

La historia de la informatización


La era moderna de los ordenadores se remonta a los años antes y después de la Segunda Guerra Mundial, cuando los científicos americanos y europeos desarrollaron los primeros dispositivos informáticos electrónicos digitales. Sin embargo, los orígenes de la informatización de nuevo a los dispositivos informáticos mecánicas del siglo 17. Desde la invención del microchip a principios de 1970, la informatización ha impactado en todos los aspectos de los negocios y la sociedad en todo el mundo.

Los primeros dispositivos informáticos mecánicos

Durante el siglo 17, varios matemáticos Blaise Pascal en Francia y Gottfried Leibniz en Alemania cada desarrollaron mecanismos para automatizar las funciones matemáticas básicas de suma, resta, multiplicación y división. Estos dispositivos fueron mejoradas durante los próximos 200 años, pero no fue hasta el siglo 19 que el ingeniero británico Charles Babbage se originó la idea de un ordenador programable. Durante los primeros años del siglo 20, las mejoras en la tecnología industrial han permitido comenzar a implementar el trabajo teórico de Babbage.

Dispositivos electrónicos de computación digital

El desarrollo de la electricidad y el tubo de vacío durante finales de los 19 y principios del siglo 20 hizo posible la construcción de dispositivos que ejecutan programas complejos con precisión. del físico escocés Lord Kelvin "marea Predictor" (1876) podría predecir con exactitud los tiempos de marea alta y baja para cualquier fecha en el futuro, e imprimir la tabla resultante en forma de gráfico de papel. En el Instituto de Tecnología de Massachusetts, matemático Vannevar Bush supervisó la construcción de la primera "Analizador Diferencial" (1930), que utilizó con éxito tubos de vacío para el almacenamiento temporal. El primer ordenador digital totalmente automático, el "Mark I", fue completado por un equipo de científicos de Harvard y la International Business Machine (IBM) en 1943.

Sistemas de mainframe

La tecnología de la informática comenzó a acelerarse rápidamente durante la década de 1940. El primer integrador numérico electrónico y calculadora (ENIAC), terminado en 1946, pesaba 60.000 libras. y ocupado 1.500 pies cuadrados de espacio de piso. Esta máquina totalmente electrónica sirvió como el prototipo de la computadora central moderna. A través de la década de 1950 hasta la década de 1970, IBM y otras empresas mejoraron la tecnología de mainframe, avanzando desde máquinas de programa fijo para un propósito específico para ordenadores programables de forma flexible.

Las computadoras personales y redes

La invención del transistor en el AT & T Bell Labs hizo posible incrementar exponencialmente el poder y la capacidad de los ordenadores. El uso de silicio del transistor hizo mucho más rápido, robusto, fiable y eficiente que el tubo de vacío. Esta mejora permite que el tamaño de la computadora a reducirse drásticamente, permitiendo que los primeros ordenadores personales sean factibles A principios de 1970. Creando redes de ordenadores más pequeños, la potencia y flexibilidad de la informática aumentó dramáticamente a partir del modelo de mainframe limitado.

Integración microprocesador comercial

A medida que los ordenadores personales se hicieron asequibles y ubicuos en todo el mundo, el poder de las redes aumentó, culminando con el auge de Internet. Al mismo tiempo, el poder de microchips aumentó a medida que su tamaño disminuye, por lo que es posible la integración de la informatización en todos los tipos de bienes sociales y de consumo. Desde el control de tráfico a los aparatos de cocina, componentes informáticos controlan de forma inteligente todo tipo de automatización.