Computadora

Máquina para procesar datos y realizar cálculos.

Computadoras y dispositivos informáticos de diferentes épocas, de izquierda a derecha y de arriba a abajo:

Una computadora es una máquina que puede programarse para realizar automáticamente secuencias de operaciones aritméticas o lógicas ( computación ). Las computadoras electrónicas digitales modernas pueden realizar conjuntos genéricos de operaciones conocidas como programas . Estos programas permiten a las computadoras realizar una amplia gama de tareas. El término sistema informático puede referirse a una computadora nominalmente completa que incluye el hardware , el sistema operativo , el software y el equipo periférico necesario y utilizado para su funcionamiento completo; o a un grupo de computadoras que están conectadas y funcionan juntas, como una red de computadoras o un clúster de computadoras .

Una amplia gama de productos industriales y de consumo utilizan computadoras como sistemas de control , incluidos dispositivos simples para propósitos especiales como hornos microondas y controles remotos , y dispositivos de fábrica como robots industriales . Las computadoras son el núcleo de los dispositivos de propósito general, como las computadoras personales y los dispositivos móviles como los teléfonos inteligentes . Las computadoras impulsan Internet , que conecta a miles de millones de computadoras y usuarios.

Las primeras computadoras estaban destinadas a ser utilizadas únicamente para cálculos. Los instrumentos manuales simples como el ábaco han ayudado a las personas a hacer cálculos desde la antigüedad. A principios de la Revolución Industrial , se construyeron algunos dispositivos mecánicos para automatizar tareas largas y tediosas, como guiar patrones para telares . Las máquinas eléctricas más sofisticadas hicieron cálculos analógicos especializados a principios del siglo XX. Las primeras máquinas calculadoras electrónicas digitales se desarrollaron durante la Segunda Guerra Mundial , tanto electromecánicas como con válvulas termoiónicas . Los primeros transistores semiconductores a fines de la década de 1940 fueron seguidos por los MOSFET (transistor MOS) basados ​​en silicio y las tecnologías de chips de circuitos integrados monolíticos a fines de la década de 1950, lo que condujo al microprocesador y la revolución de los microordenadores en la década de 1970. La velocidad, la potencia y la versatilidad de las computadoras han aumentado drásticamente desde entonces, con el recuento de transistores aumentando a un ritmo rápido ( la ley de Moore señaló que los recuentos se duplicaban cada dos años), lo que condujo a la Revolución Digital durante fines del siglo XX y principios del XXI.

Convencionalmente, una computadora moderna consta de al menos un elemento de procesamiento , típicamente una unidad central de procesamiento (CPU) en forma de microprocesador , junto con algún tipo de memoria de computadora , típicamente chips de memoria semiconductores . El elemento de procesamiento lleva a cabo operaciones aritméticas y lógicas, y una unidad de secuenciación y control puede cambiar el orden de las operaciones en respuesta a la información almacenada . Los dispositivos periféricos incluyen dispositivos de entrada ( teclados , ratones , joysticks , etc.), dispositivos de salida ( monitores , impresoras , etc.) y dispositivos de entrada/salida que realizan ambas funciones (por ejemplo, pantallas táctiles ). Los dispositivos periféricos permiten recuperar información de una fuente externa y permiten guardar y recuperar los resultados de las operaciones.

Etimología

Una computadora humana.
Una computadora humana , con microscopio y calculadora, 1952

No fue hasta mediados del siglo XX que la palabra adquirió su definición moderna; según el Oxford English Dictionary , el primer uso conocido de la palabra computadora fue en un sentido diferente, en un libro de 1613 llamado The Yong Mans Gleanings del escritor inglés Richard Brathwait : "He leído la computadora más verdadera de los tiempos, y el mejor aritmético que jamás haya respirado , y él reduce tus días a un número corto". Este uso del término se refería a una computadora humana , una persona que realizaba cálculos o computaciones . La palabra continuó teniendo el mismo significado hasta mediados del siglo XX. Durante la última parte de este período, a menudo se contrataba a mujeres como computadoras porque se les podía pagar menos que a sus contrapartes masculinas. [1] En 1943, la mayoría de las computadoras humanas eran mujeres. [2]

El Diccionario Etimológico Online da el primer uso atestiguado de computadora en la década de 1640, con el significado de 'alguien que calcula'; este es un "sustantivo agente de computar (v.)". El Diccionario Etimológico Online afirma que el uso del término para significar " 'máquina calculadora' (de cualquier tipo) es de 1897". El Diccionario Etimológico Online indica que el "uso moderno" del término, para significar 'computadora electrónica digital programable' data de "1945 bajo este nombre; [en un] sentido teórico] desde 1937, como máquina de Turing ". [3] El nombre se ha mantenido, aunque las computadoras modernas son capaces de muchas funciones de nivel superior.

Historia

Antes del siglo XX

El hueso de Ishango , una herramienta de hueso que data del África prehistórica

Los dispositivos se han utilizado para ayudar a los cálculos durante miles de años, principalmente mediante correspondencia uno a uno con los dedos . El primer dispositivo de conteo probablemente fue una especie de palo de conteo . Las ayudas para llevar registros posteriores en toda la Media Luna Fértil incluyeron cálculos (esferas de arcilla, conos, etc.) que representaban recuentos de elementos, probablemente ganado o granos, sellados en recipientes huecos de arcilla sin cocer. [a] [4] El uso de varillas de conteo es un ejemplo.

El suanpan chino (算盘). El número representado en este ábaco es 6.302.715.408.

El ábaco se utilizó inicialmente para tareas aritméticas. El ábaco romano se desarrolló a partir de dispositivos utilizados en Babilonia ya en el año 2400 a. C. Desde entonces, se han inventado muchas otras formas de tablas o tableros de cálculo. En una casa de contabilidad europea medieval , se colocaba un paño a cuadros sobre una mesa y se movían marcadores sobre él de acuerdo con ciertas reglas, como ayuda para calcular sumas de dinero. [5]

El mecanismo de Antikythera , que data de la antigua Grecia alrededor del año 150-100 a. C., es uno de los primeros dispositivos informáticos analógicos .

Se cree que el mecanismo de Antikythera es la computadora analógica mecánica más antigua conocida , según Derek J. de Solla Price . [6] Fue diseñado para calcular posiciones astronómicas. Fue descubierto en 1901 en el naufragio de Antikythera frente a la isla griega de Antikythera , entre Kythera y Creta , y se ha datado aproximadamente en el año  100 a. C. Los dispositivos de complejidad comparable al mecanismo de Antikythera no reaparecerían hasta el siglo XIV. [7]

Se construyeron muchas ayudas mecánicas para el cálculo y la medición con fines astronómicos y de navegación. El planisferio era un mapa estelar inventado por Abū Rayhān al-Bīrūnī a principios del siglo XI. [8] El astrolabio se inventó en el mundo helenístico en el siglo I o II a. C. y a menudo se atribuye a Hiparco . Una combinación del planisferio y la dioptra , el astrolabio era en realidad una computadora analógica capaz de resolver varios tipos diferentes de problemas en astronomía esférica . Un astrolabio que incorporaba un calendario mecánico computarizado [9] [10] y ruedas dentadas fue inventado por Abi Bakr de Isfahán , Persia , en 1235. [11] Abū Rayhān al-Bīrūnī inventó el primer astrolabio lunisolar con calendario mecánico con engranajes, [12] una temprana máquina de procesamiento de conocimiento con cables fijos [13] con un tren de engranajes y ruedas dentadas, [14] alrededor del año  1000 d . C.

El sector , un instrumento de cálculo utilizado para resolver problemas de proporción, trigonometría , multiplicación y división, y para diversas funciones, como cuadrados y raíces cúbicas, fue desarrollado a finales del siglo XVI y encontró aplicación en artillería, topografía y navegación.

El planímetro era un instrumento manual que permitía calcular el área de una figura cerrada trazándola sobre ella mediante un mecanismo mecánico.

Una regla de cálculo

La regla de cálculo fue inventada alrededor de 1620-1630 por el clérigo inglés William Oughtred , poco después de la publicación del concepto de logaritmo . Es una computadora analógica operada manualmente para realizar multiplicaciones y divisiones. A medida que avanzaba el desarrollo de la regla de cálculo, las escalas añadidas proporcionaron recíprocos, cuadrados y raíces cuadradas, cubos y raíces cúbicas, así como funciones trascendentales como logaritmos y exponenciales, trigonometría circular e hiperbólica y otras funciones . Las reglas de cálculo con escalas especiales todavía se utilizan para realizar rápidamente cálculos rutinarios, como la regla de cálculo circular E6B utilizada para cálculos de tiempo y distancia en aviones ligeros.

En la década de 1770, Pierre Jaquet-Droz , un relojero suizo , construyó una muñeca mecánica ( autómata ) que podía escribir sosteniendo una pluma de ave. Al cambiar el número y el orden de sus ruedas internas, se podían producir diferentes letras y, por lo tanto, diferentes mensajes. En efecto, se la podía "programar" mecánicamente para que leyera instrucciones. Junto con otras dos máquinas complejas, la muñeca se encuentra en el Museo de Arte e Historia de Neuchâtel , Suiza , y todavía funciona. [15]

Entre 1831 y 1835, el matemático e ingeniero Giovanni Plana ideó una máquina de calendario perpetuo que, mediante un sistema de poleas y cilindros, podía predecir el calendario perpetuo de cada año desde el 0 d. C. (es decir, el 1 a. C.) hasta el 4000 d. C., llevando un registro de los años bisiestos y de la duración variable de los días. La máquina de predicción de mareas inventada por el científico escocés Sir William Thomson en 1872 fue de gran utilidad para la navegación en aguas poco profundas. Utilizaba un sistema de poleas y cables para calcular automáticamente los niveles de marea previstos para un período determinado en una ubicación particular.

El analizador diferencial , una computadora analógica mecánica diseñada para resolver ecuaciones diferenciales por integración , utilizaba mecanismos de rueda y disco para realizar la integración. En 1876, Sir William Thomson ya había discutido la posible construcción de tales calculadoras, pero se había visto obstaculizado por el par de salida limitado de los integradores de bolas y discos . [16] En un analizador diferencial, la salida de un integrador impulsaba la entrada del siguiente integrador, o una salida gráfica. El amplificador de par fue el avance que permitió que estas máquinas funcionaran. A partir de la década de 1920, Vannevar Bush y otros desarrollaron analizadores diferenciales mecánicos.

En la década de 1890, el ingeniero español Leonardo Torres Quevedo comenzó a desarrollar una serie de máquinas analógicas avanzadas que podían resolver raíces reales y complejas de polinomios , [17] [18] [19] [20] que fueron publicadas en 1901 por la Academia de Ciencias de París . [21]

Primera computadora

Charles Babbage

Charles Babbage , ingeniero mecánico y erudito inglés , fue el creador del concepto de computadora programable. Considerado el " padre de la computadora ", [22] concibió e inventó la primera computadora mecánica a principios del siglo XIX.

Después de trabajar en su máquina diferencial , anunció su invención en 1822, en un artículo para la Royal Astronomical Society , titulado "Nota sobre la aplicación de maquinaria al cálculo de tablas astronómicas y matemáticas". [23] También diseñó un motor analítico para ayudar en los cálculos de navegación; en 1833 se dio cuenta de que era posible un diseño mucho más general. La entrada de programas y datos se proporcionaría a la máquina a través de tarjetas perforadas , un método que se utilizaba en ese momento para dirigir telares mecánicos como el telar Jacquard . Para la salida, la máquina tendría una impresora, un trazador de curvas y una campana. La máquina también podría perforar números en tarjetas para leerlos más tarde. El motor incorporaría una unidad lógica aritmética , flujo de control en forma de ramificación condicional y bucles , y memoria integrada , lo que lo convirtió en el primer diseño de una computadora de propósito general que podría describirse en términos modernos como Turing-completo . [24] [25]

La máquina se adelantó a su tiempo en un siglo. Todas las piezas de la máquina debían fabricarse a mano, lo que suponía un gran problema para un dispositivo con miles de piezas. Finalmente, el proyecto se disolvió cuando el gobierno británico decidió dejar de financiarlo. El fracaso de Babbage en completar la máquina analítica se puede atribuir principalmente a dificultades políticas y financieras, así como a su deseo de desarrollar una computadora cada vez más sofisticada y avanzar más rápido que cualquier otro. Sin embargo, su hijo, Henry Babbage , completó una versión simplificada de la unidad de cómputo de la máquina analítica (el molino ) en 1888. Hizo una demostración exitosa de su uso en tablas de cómputo en 1906.

Máquina calculadora electromecánica

Calculadora electromecánica (1920) de Leonardo Torres Quevedo .

En su obra Ensayos sobre la automática publicada en 1914, Leonardo Torres Quevedo escribió una breve historia de los esfuerzos de Babbage por construir una máquina diferencial mecánica y una máquina analítica. El artículo contiene un diseño de una máquina capaz de calcular fórmulas como , para una secuencia de conjuntos de valores. Toda la máquina debía ser controlada por un programa de solo lectura , que se completaba con disposiciones para la ramificación condicional . También introdujo la idea de la aritmética de punto flotante . [26] [27] [28] En 1920, para celebrar el centenario de la invención del aritmómetro , Torres presentó en París el Aritmómetro electromecánico, que permitía al usuario ingresar problemas aritméticos a través de un teclado , y calcular e imprimir los resultados, [29] [30] [31] [32] demostrando la viabilidad de una máquina analítica electromecánica. [33] a incógnita ( y el ) 2 Estilo de visualización a^{x}(yz)^{2}}

Computadoras analógicas

El tercer diseño de máquina de predicción de mareas de Sir William Thomson , 1879-1881

Durante la primera mitad del siglo XX, muchas necesidades de computación científica fueron satisfechas por computadoras analógicas cada vez más sofisticadas, que usaban un modelo mecánico o eléctrico directo del problema como base para el cálculo . Sin embargo, no eran programables y generalmente carecían de la versatilidad y precisión de las computadoras digitales modernas. [34] La primera computadora analógica moderna fue una máquina de predicción de mareas , inventada por Sir William Thomson (que luego se convertiría en Lord Kelvin) en 1872. El analizador diferencial , una computadora analógica mecánica diseñada para resolver ecuaciones diferenciales por integración utilizando mecanismos de rueda y disco, fue conceptualizado en 1876 por James Thomson , el hermano mayor del más famoso Sir William Thomson. [16]

El arte de la computación analógica mecánica alcanzó su apogeo con el analizador diferencial , construido por HL Hazen y Vannevar Bush en el MIT a partir de 1927. Este se basó en los integradores mecánicos de James Thomson y los amplificadores de par inventados por HW Nieman. Se construyeron una docena de estos dispositivos antes de que se hiciera evidente su obsolescencia. En la década de 1950, el éxito de las computadoras electrónicas digitales había significado el fin de la mayoría de las máquinas de computación analógica, pero las computadoras analógicas siguieron utilizándose durante la década de 1950 en algunas aplicaciones especializadas como la educación ( regla de cálculo ) y la aviación ( sistemas de control ).

Computadoras digitales

Electromecánico

La tesis de maestría de Claude Shannon de 1937 sentó las bases de la computación digital, siendo su idea de aplicar el álgebra de Boole al análisis y síntesis de circuitos de conmutación el concepto básico que subyace a todas las computadoras digitales electrónicas. [35] [36]

En 1938, la Marina de los Estados Unidos había desarrollado una computadora analógica electromecánica lo suficientemente pequeña como para usarla a bordo de un submarino . Se trataba de la Torpedo Data Computer , que utilizaba la trigonometría para resolver el problema de disparar un torpedo a un objetivo en movimiento. Durante la Segunda Guerra Mundial también se desarrollaron dispositivos similares en otros países.

Réplica del Z3 de Konrad Zuse , el primer ordenador digital (electromecánico) totalmente automático

Las primeras computadoras digitales eran electromecánicas ; los interruptores eléctricos accionaban relés mecánicos para realizar el cálculo. Estos dispositivos tenían una velocidad de funcionamiento baja y finalmente fueron reemplazados por computadoras totalmente eléctricas mucho más rápidas, que originalmente usaban tubos de vacío . La Z2 , creada por el ingeniero alemán Konrad Zuse en 1939 en Berlín , fue uno de los primeros ejemplos de una computadora con relés electromecánicos. [37]

Konrad Zuse , inventor del ordenador moderno [38] [39]

En 1941, Zuse siguió con su máquina anterior con la Z3 , la primera computadora digital completamente automática, programable y electromecánica del mundo . [40] [41] La Z3 se construyó con 2000 relés , implementando una longitud de palabra de 22 bits que operaba a una frecuencia de reloj de aproximadamente 5-10 Hz . [42] El código del programa se suministraba en película perforada mientras que los datos se podían almacenar en 64 palabras de memoria o suministrar desde el teclado. Era bastante similar a las máquinas modernas en algunos aspectos, siendo pionera en numerosos avances como los números de punto flotante . En lugar del sistema decimal más difícil de implementar (utilizado en el diseño anterior de Charles Babbage ), el uso de un sistema binario significaba que las máquinas de Zuse eran más fáciles de construir y potencialmente más confiables, dadas las tecnologías disponibles en ese momento. [43] La Z3 no era en sí misma una computadora universal, pero podía ampliarse para ser completa de Turing . [44] [45]

El siguiente ordenador de Zuse, el Z4 , se convirtió en el primer ordenador comercial del mundo; tras un retraso inicial debido a la Segunda Guerra Mundial, se completó en 1950 y se entregó a la ETH de Zúrich . [46] El ordenador fue fabricado por la propia empresa de Zuse, Zuse KG , que se fundó en 1941 como la primera empresa con el único propósito de desarrollar ordenadores en Berlín. [46] El Z4 sirvió de inspiración para la construcción del ERMETH , el primer ordenador suizo y uno de los primeros en Europa. [47]

Tubos de vacío y circuitos electrónicos digitales

Los elementos de circuitos puramente electrónicos pronto reemplazaron a sus equivalentes mecánicos y electromecánicos, al mismo tiempo que el cálculo digital reemplazó al analógico. El ingeniero Tommy Flowers , que trabajaba en la Estación de Investigación de Correos de Londres en la década de 1930, comenzó a explorar el posible uso de la electrónica para la central telefónica . El equipo experimental que construyó en 1934 entró en funcionamiento cinco años después, convirtiendo una parte de la red de la central telefónica en un sistema electrónico de procesamiento de datos, utilizando miles de tubos de vacío . [34] En los EE. UU., John Vincent Atanasoff y Clifford E. Berry de la Universidad Estatal de Iowa desarrollaron y probaron la Computadora Atanasoff-Berry (ABC) en 1942, [48] la primera "computadora digital electrónica automática". [49] Este diseño también era completamente electrónico y utilizaba alrededor de 300 tubos de vacío, con condensadores fijados en un tambor giratorio mecánicamente para la memoria. [50]

La computadora Colossus ve a dos mujeres.
Colossus , el primer dispositivo informático programable digital electrónico , se utilizó para descifrar códigos alemanes durante la Segunda Guerra Mundial. Aquí se lo ve en uso en Bletchley Park en 1943.

Durante la Segunda Guerra Mundial, los descifradores de códigos británicos de Bletchley Park lograron varios éxitos en la descifrado de comunicaciones militares alemanas encriptadas. La máquina de cifrado alemana, Enigma , fue atacada por primera vez con la ayuda de las bombas electromecánicas que a menudo eran manejadas por mujeres. [51] [52] Para descifrar la máquina alemana más sofisticada Lorenz SZ 40/42 , utilizada para comunicaciones de alto nivel del Ejército, Max Newman y sus colegas encargaron a Flowers la construcción del Colossus . [50] Pasó once meses desde principios de febrero de 1943 diseñando y construyendo el primer Colossus. [53] Después de una prueba funcional en diciembre de 1943, Colossus fue enviado a Bletchley Park, donde fue entregado el 18 de enero de 1944 [54] y atacó su primer mensaje el 5 de febrero. [50]

Colossus fue la primera computadora programable digital electrónica del mundo . [34] Utilizaba una gran cantidad de válvulas (tubos de vacío). Tenía entrada de cinta de papel y podía configurarse para realizar una variedad de operaciones lógicas booleanas con sus datos, pero no era Turing-completa. Se construyeron nueve Colossi Mk II (el Mk I se convirtió en un Mk II, lo que dio lugar a diez máquinas en total). Colossus Mark I contenía 1500 válvulas termoiónicas (tubos), pero Mark II, con 2400 válvulas, era cinco veces más rápido y más simple de operar que Mark I, lo que aceleraba enormemente el proceso de decodificación. [55] [56]

ENIAC fue el primer dispositivo electrónico Turing completo y realizó cálculos de trayectoria balística para el Ejército de los Estados Unidos .

El ENIAC [57] (Electronic Numerical Integrator and Computer) fue el primer ordenador electrónico programable construido en los EE. UU. Aunque el ENIAC era similar al Colossus, era mucho más rápido, más flexible y era Turing-completo. Al igual que el Colossus, un "programa" en el ENIAC se definía por los estados de sus cables de conexión e interruptores, muy lejos de las máquinas electrónicas de programa almacenado que vinieron después. Una vez que se escribía un programa, tenía que ser introducido mecánicamente en la máquina con un restablecimiento manual de enchufes e interruptores. Las programadoras del ENIAC eran seis mujeres, a menudo conocidas colectivamente como las "chicas ENIAC". [58] [59]

Combinaba la alta velocidad de la electrónica con la capacidad de ser programada para resolver muchos problemas complejos. Podía sumar o restar 5000 veces por segundo, mil veces más rápido que cualquier otra máquina. También tenía módulos para multiplicar, dividir y extraer la raíz cuadrada. La memoria de alta velocidad estaba limitada a 20 palabras (unos 80 bytes). Construida bajo la dirección de John Mauchly y J. Presper Eckert en la Universidad de Pensilvania, el desarrollo y la construcción de ENIAC duraron desde 1943 hasta su pleno funcionamiento a finales de 1945. La máquina era enorme, pesaba 30 toneladas, utilizaba 200 kilovatios de energía eléctrica y contenía más de 18.000 tubos de vacío, 1.500 relés y cientos de miles de resistencias, condensadores e inductores. [60]

Computadoras modernas

Concepto de computadora moderna

El principio de la computadora moderna fue propuesto por Alan Turing en su influyente artículo de 1936, [61] Sobre los números computables . Turing propuso un dispositivo simple al que llamó "máquina de computación universal" y que ahora se conoce como máquina de Turing universal . Demostró que una máquina de este tipo es capaz de calcular cualquier cosa que sea computable ejecutando instrucciones (programa) almacenadas en cinta, lo que permite que la máquina sea programable. El concepto fundamental del diseño de Turing es el programa almacenado , donde todas las instrucciones para la computación se almacenan en la memoria. Von Neumann reconoció que el concepto central de la computadora moderna se debió a este artículo. [62] Las máquinas de Turing son hasta el día de hoy un objeto central de estudio en la teoría de la computación . A excepción de las limitaciones impuestas por sus almacenes de memoria finitos, se dice que las computadoras modernas son Turing-completas , es decir, tienen una capacidad de ejecución de algoritmos equivalente a una máquina de Turing universal.

Programas almacenados

Tres racks altos que contienen placas de circuitos electrónicos
Una sección del Manchester Baby reconstruido , la primera computadora electrónica con programa almacenado

Las primeras máquinas de computación tenían programas fijos. Cambiar su función requería recablear y reestructurar la máquina. [50] Con la propuesta de la computadora con programa almacenado esto cambió. Una computadora con programa almacenado incluye por diseño un conjunto de instrucciones y puede almacenar en memoria un conjunto de instrucciones (un programa ) que detalla el cálculo . La base teórica para la computadora con programa almacenado fue establecida por Alan Turing en su artículo de 1936. En 1945, Turing se unió al Laboratorio Nacional de Física y comenzó a trabajar en el desarrollo de una computadora digital electrónica con programa almacenado. Su informe de 1945 "Calculadora electrónica propuesta" fue la primera especificación para un dispositivo de este tipo. John von Neumann en la Universidad de Pensilvania también circuló su Primer borrador de un informe sobre el EDVAC en 1945. [34]

El Manchester Baby fue el primer ordenador con programa almacenado del mundo . Fue construido en la Universidad de Manchester en Inglaterra por Frederic C. Williams , Tom Kilburn y Geoff Tootill , y ejecutó su primer programa el 21 de junio de 1948. [63] Fue diseñado como un banco de pruebas para el tubo Williams , el primer dispositivo de almacenamiento digital de acceso aleatorio . [64] Aunque el ordenador fue descrito como "pequeño y primitivo" en una retrospectiva de 1998, fue la primera máquina funcional que contenía todos los elementos esenciales para un ordenador electrónico moderno. [65] Tan pronto como el Baby demostró la viabilidad de su diseño, comenzó un proyecto en la universidad para convertirlo en un ordenador prácticamente útil, el Manchester Mark 1 .

El Mark 1 a su vez se convirtió rápidamente en el prototipo del Ferranti Mark 1 , el primer ordenador de propósito general disponible comercialmente del mundo. [66] Construido por Ferranti , fue entregado a la Universidad de Manchester en febrero de 1951. Al menos siete de estas máquinas posteriores fueron entregadas entre 1953 y 1957, una de ellas a los laboratorios Shell en Ámsterdam . [67] En octubre de 1947, los directores de la empresa de catering británica J. Lyons & Company decidieron asumir un papel activo en la promoción del desarrollo comercial de ordenadores. El ordenador LEO I de Lyons , inspirado estrechamente en el EDSAC de Cambridge de 1949, entró en funcionamiento en abril de 1951 [68] y realizó el primer trabajo rutinario de ordenador de oficina del mundo .

Transistores

Transistor de unión bipolar (BJT)

El concepto de transistor de efecto de campo fue propuesto por Julius Edgar Lilienfeld en 1925. John Bardeen y Walter Brattain , mientras trabajaban con William Shockley en Bell Labs , construyeron el primer transistor funcional , el transistor de contacto puntual , en 1947, al que siguió el transistor de unión bipolar de Shockley en 1948. [69] [70] A partir de 1955, los transistores reemplazaron a los tubos de vacío en los diseños de computadoras, dando lugar a la "segunda generación" de computadoras. En comparación con los tubos de vacío, los transistores tienen muchas ventajas: son más pequeños y requieren menos energía que los tubos de vacío, por lo que emiten menos calor. Los transistores de unión eran mucho más confiables que los tubos de vacío y tenían una vida útil más larga e indefinida. Las computadoras transistorizadas podían contener decenas de miles de circuitos lógicos binarios en un espacio relativamente compacto. Sin embargo, los primeros transistores de unión eran dispositivos relativamente voluminosos que eran difíciles de fabricar en una base de producción en masa , lo que los limitaba a una serie de aplicaciones especializadas. [71]

En la Universidad de Manchester , un equipo bajo el liderazgo de Tom Kilburn diseñó y construyó una máquina que utilizaba los transistores recientemente desarrollados en lugar de válvulas. [72] Su primera computadora transistorizada y la primera del mundo, estuvo operativa en 1953 , y una segunda versión se completó allí en abril de 1955. Sin embargo, la máquina hizo uso de válvulas para generar sus formas de onda de reloj de 125 kHz y en los circuitos para leer y escribir en su memoria de tambor magnético , por lo que no fue la primera computadora completamente transistorizada. Esa distinción corresponde a la Harwell CADET de 1955, [73] construida por la división de electrónica del Establecimiento de Investigación de Energía Atómica en Harwell . [73] [74]

MOSFET (transistor MOS) que muestra los terminales de compuerta (G), cuerpo (B), fuente (S) y drenaje (D). La compuerta está separada del cuerpo por una capa aislante (rosa).

El transistor de efecto de campo de metal-óxido-silicio (MOSFET), también conocido como transistor MOS, fue inventado en Bell Labs entre 1955 y 1960 [75] [76] [77] [78] [79] [80] y fue el primer transistor verdaderamente compacto que podía miniaturizarse y producirse en masa para una amplia gama de usos. [71] Con su alta escalabilidad , [81] y un consumo de energía mucho menor y una mayor densidad que los transistores de unión bipolar, [82] el MOSFET hizo posible construir circuitos integrados de alta densidad . [83] [84] Además del procesamiento de datos, también permitió el uso práctico de los transistores MOS como elementos de almacenamiento de celdas de memoria , lo que llevó al desarrollo de la memoria semiconductora MOS , que reemplazó a la anterior memoria de núcleo magnético en las computadoras. El MOSFET condujo a la revolución de las microcomputadoras , [85] y se convirtió en la fuerza impulsora detrás de la revolución de las computadoras . [86] [87] El MOSFET es el transistor más utilizado en computadoras, [88] [89] y es el componente fundamental de la electrónica digital . [90]

Circuitos integrados

Los circuitos integrados generalmente se empaquetan en cajas de plástico, metal o cerámica para protegerlos de daños y facilitar el ensamblaje.

El siguiente gran avance en potencia informática llegó con la llegada del circuito integrado (CI). La idea del circuito integrado fue concebida por primera vez por un científico especializado en radar que trabajaba para el Royal Radar Establishment del Ministerio de Defensa , Geoffrey WA Dummer . Dummer presentó la primera descripción pública de un circuito integrado en el Simposio sobre el progreso en componentes electrónicos de calidad en Washington, DC , el 7 de mayo de 1952. [91]

Los primeros circuitos integrados funcionales fueron inventados por Jack Kilby en Texas Instruments y Robert Noyce en Fairchild Semiconductor . [92] Kilby registró sus ideas iniciales sobre el circuito integrado en julio de 1958, demostrando con éxito el primer ejemplo integrado funcional el 12 de septiembre de 1958. [93] En su solicitud de patente del 6 de febrero de 1959, Kilby describió su nuevo dispositivo como "un cuerpo de material semiconductor... en el que todos los componentes del circuito electrónico están completamente integrados". [94] [95] Sin embargo, la invención de Kilby era un circuito integrado híbrido (CI híbrido), en lugar de un chip de circuito integrado (CI) monolítico. [96] El CI de Kilby tenía conexiones de cables externos, lo que dificultaba su producción en masa. [97]

Noyce también ideó su propia idea de un circuito integrado medio año después que Kilby. [98] La invención de Noyce fue el primer chip IC monolítico verdadero. [99] [97] Su chip resolvió muchos problemas prácticos que el de Kilby no había resuelto. Producido en Fairchild Semiconductor, estaba hecho de silicio , mientras que el chip de Kilby estaba hecho de germanio . El IC monolítico de Noyce se fabricó utilizando el proceso planar , desarrollado por su colega Jean Hoerni a principios de 1959. A su vez, el proceso planar se basó en el trabajo de Carl Frosch y Lincoln Derick sobre la pasivación de la superficie de los semiconductores mediante dióxido de silicio. [100] [101] [102] [103] [104] [105]

Los circuitos integrados monolíticos modernos son predominantemente circuitos integrados MOS ( metal-óxido-semiconductor ), construidos a partir de MOSFET (transistores MOS). [106] El primer circuito integrado MOS experimental que se fabricó fue un chip de 16 transistores construido por Fred Heiman y Steven Hofstein en RCA en 1962. [107] General Microelectronics introdujo más tarde el primer circuito integrado MOS comercial en 1964, [108] desarrollado por Robert Norman. [107] Tras el desarrollo del transistor MOS de compuerta autoalineada (compuerta de silicio) por Robert Kerwin, Donald Klein y John Sarace en Bell Labs en 1967, el primer circuito integrado MOS de compuerta de silicio con compuertas autoalineadas fue desarrollado por Federico Faggin en Fairchild Semiconductor en 1968. [109] Desde entonces, el MOSFET se ha convertido en el componente de dispositivo más crítico en los circuitos integrados modernos. [106]

Fotografía de un MOS 6502 , un microprocesador de principios de la década de 1970 que integraba 3500 transistores en un solo chip.

El desarrollo del circuito integrado MOS condujo a la invención del microprocesador , [110] [111] y anunció una explosión en el uso comercial y personal de las computadoras. Si bien el tema de exactamente qué dispositivo fue el primer microprocesador es polémico, en parte debido a la falta de acuerdo sobre la definición exacta del término "microprocesador", es en gran medida indiscutible que el primer microprocesador de un solo chip fue el Intel 4004 , [112] diseñado y realizado por Federico Faggin con su tecnología de circuitos integrados MOS de compuerta de silicio, [110] junto con Ted Hoff , Masatoshi Shima y Stanley Mazor en Intel . [b] [114] A principios de la década de 1970, la tecnología de circuitos integrados MOS permitió la integración de más de 10 000 transistores en un solo chip. [84]

Los System on a Chip (SoCs) son computadoras completas en un microchip (o chip) del tamaño de una moneda. [115] Pueden tener o no memoria RAM y flash integradas . Si no están integradas, la RAM suele colocarse directamente encima (conocido como Package on package ) o debajo (en el lado opuesto de la placa de circuito ) del SoC, y la memoria flash suele colocarse justo al lado del SoC. Esto se hace para mejorar las velocidades de transferencia de datos, ya que las señales de datos no tienen que viajar largas distancias. Desde ENIAC en 1945, las computadoras han avanzado enormemente, y los SoC modernos (como el Snapdragon 865) tienen el tamaño de una moneda y al mismo tiempo son cientos de miles de veces más potentes que ENIAC, integran miles de millones de transistores y consumen solo unos pocos vatios de energía.

Computadoras móviles

Los primeros ordenadores portátiles eran pesados ​​y funcionaban con corriente eléctrica. El IBM 5100, de 23 kg (50 lb), fue uno de los primeros ejemplos. Los portátiles posteriores, como el Osborne 1 y el Compaq Portable , eran considerablemente más ligeros, pero aún necesitaban estar enchufados. Los primeros portátiles, como el Grid Compass , eliminaron este requisito al incorporar baterías, y con la continua miniaturización de los recursos informáticos y los avances en la duración de las baterías portátiles, los ordenadores portátiles crecieron en popularidad en la década de 2000. [116] Los mismos avances permitieron a los fabricantes integrar recursos informáticos en los teléfonos móviles celulares a principios de la década de 2000.

Estos teléfonos inteligentes y tabletas funcionan con una variedad de sistemas operativos y recientemente se convirtieron en el dispositivo informático dominante en el mercado. [117] Estos funcionan con sistemas en un chip (SoC), que son computadoras completas en un microchip del tamaño de una moneda. [115]

Tipos

Las computadoras se pueden clasificar de diferentes maneras, entre ellas:

Por arquitectura

Por tamaño, factor de forma y propósito

Hardware

Vídeo que muestra los componentes estándar de una computadora "slimline"

El término hardware abarca todas aquellas partes de un ordenador que son objetos físicos tangibles. Los circuitos , los chips informáticos, las tarjetas gráficas, las tarjetas de sonido, la memoria (RAM), la placa base, las pantallas, las fuentes de alimentación, los cables, los teclados, las impresoras y los dispositivos de entrada (mouse) son todos hardware.

Historia del hardware informático

Primera generación
(mecánica/electromecánica)
CalculadorasCalculadora de Pascal , Aritmómetro , Máquina diferencial , Máquinas analíticas de Quevedo
Dispositivos programablesTelar de Jacquard , máquina analítica , IBM ASCC/Harvard Mark I , Harvard Mark II , IBM SSEC , Z1 , Z2 , Z3
Segunda generación
(tubos de vacío)
CalculadorasComputadora Atanasoff-Berry , IBM 604 , UNIVAC 60 , UNIVAC 120
Dispositivos programablesColoso , ENIAC , Manchester Baby , EDSAC , Manchester Mark 1 , Ferranti Pegasus , Ferranti Mercury , CSIRAC , EDVAC , UNIVAC I , IBM 701 , IBM 702 , IBM 650 , Z22
Tercera generación ( transistores
discretos y circuitos integrados SSI, MSI, LSI )
Computadoras centralesIBM 7090 , IBM 7080 , IBM System/360 , BUNCH
MiniordenadorHP 2116A , IBM System/32 , IBM System/36 , LINC , PDP-8 , PDP-11
Computadora de escritorioHP 9100
Cuarta generación
( circuitos integrados VLSI )
MiniordenadorVAX , IBM AS/400
Microordenador de 4 bitsIntel 4004 , Intel 4040
Microordenador de 8 bitsIntel 8008 , Intel 8080 , Motorola 6800 , Motorola 6809 , Tecnología MOS 6502 , Zilog Z80
Microordenador de 16 bitsIntel 8088 , Zilog Z8000 , WDC 65816/65802
Microordenador de 32 bitsIntel 80386 , Pentium , Motorola 68000 , ARM
Microordenador de 64 bits [c]Alfa , MIPS , PA-RISC , PowerPC , SPARC , x86-64 , ARMv8-A
Computadora embebidaIntel 8048 , Intel 8051
Ordenador personalComputadora de escritorio , Computadora de casa , Computadora portátil, Asistente digital personal (PDA), Computadora portátil , Tablet PC , Computadora portátil
Teórico/experimentalComputadora cuánticaSistema IBM Q Uno
Computadora química
Computación del ADN
Computadora óptica
Computadora basada en espintrónica
Wetware/Ordenador orgánico

Otros temas de hardware

Dispositivo periférico ( entrada/salida )AporteRatón , teclado , joystick , escáner de imágenes , cámara web , tableta gráfica , micrófono
ProducciónMonitor , impresora , altavoz
AmbosUnidad de disquete , unidad de disco duro , unidad de disco óptico , teleimpresora
Buses de computadoraCorto alcanceRS-232 , SCSI , PCI , USB
Largo alcance ( redes informáticas )Ethernet , cajero automático , FDDI

Una computadora de propósito general tiene cuatro componentes principales: la unidad lógica aritmética (ALU), la unidad de control , la memoria y los dispositivos de entrada y salida (denominados colectivamente E/S). Estas partes están interconectadas por buses , a menudo hechos de grupos de cables . Dentro de cada una de estas partes hay miles o billones de pequeños circuitos eléctricos que pueden encenderse o apagarse por medio de un interruptor electrónico . Cada circuito representa un bit (dígito binario) de información de modo que cuando el circuito está encendido representa un "1", y cuando está apagado representa un "0" (en representación lógica positiva). Los circuitos están dispuestos en puertas lógicas de modo que uno o más de los circuitos puedan controlar el estado de uno o más de los otros circuitos.

Dispositivos de entrada

Cuando se envían datos no procesados ​​a la computadora con la ayuda de dispositivos de entrada, los datos se procesan y se envían a dispositivos de salida. Los dispositivos de entrada pueden ser manuales o automáticos. El acto de procesamiento está regulado principalmente por la CPU. Algunos ejemplos de dispositivos de entrada son:

Dispositivos de salida

Los medios a través de los cuales la computadora proporciona información se conocen como dispositivos de salida. Algunos ejemplos de dispositivos de salida son:

Unidad de control

Diagrama que muestra cómo el sistema de control decodificaría una instrucción de arquitectura MIPS particular

La unidad de control (a menudo llamada sistema de control o controlador central) administra los distintos componentes de la computadora; lee e interpreta (decodifica) las instrucciones del programa, transformándolas en señales de control que activan otras partes de la computadora. [d] Los sistemas de control en computadoras avanzadas pueden cambiar el orden de ejecución de algunas instrucciones para mejorar el rendimiento.

Un componente clave común a todas las CPU es el contador de programa , una celda de memoria especial (un registro ) que realiza un seguimiento de desde qué ubicación de la memoria se leerá la siguiente instrucción. [e]

La función del sistema de control es la siguiente (esta es una descripción simplificada y algunos de estos pasos pueden realizarse simultáneamente o en un orden diferente según el tipo de CPU):

  1. Lea el código de la siguiente instrucción de la celda indicada por el contador del programa.
  2. Descodificar el código numérico de la instrucción en un conjunto de comandos o señales para cada uno de los demás sistemas.
  3. Incrementa el contador del programa para que apunte a la siguiente instrucción.
  4. Lee los datos que la instrucción requiere de las celdas en la memoria (o quizás de un dispositivo de entrada). La ubicación de estos datos requeridos normalmente se almacena dentro del código de instrucción.
  5. Proporcionar los datos necesarios a una ALU o registro.
  6. Si la instrucción requiere una ALU o hardware especializado para completarse, indique al hardware que realice la operación solicitada.
  7. Escribe el resultado de la ALU en una ubicación de memoria o en un registro o quizás en un dispositivo de salida.
  8. Regrese al paso (1).

Dado que el contador de programa es (conceptualmente) simplemente otro conjunto de celdas de memoria, se puede modificar mediante cálculos realizados en la ALU. Si se suma 100 al contador de programa, la siguiente instrucción se leerá desde un lugar 100 posiciones más abajo en el programa. Las instrucciones que modifican el contador de programa se conocen a menudo como "saltos" y permiten bucles (instrucciones que se repiten en la computadora) y, a menudo, la ejecución condicional de instrucciones (ambos ejemplos de flujo de control ).

La secuencia de operaciones que realiza la unidad de control para procesar una instrucción es en sí misma como un programa de computadora corto y, de hecho, en algunos diseños de CPU más complejos, hay otra computadora aún más pequeña llamada microsecuenciador , que ejecuta un programa de microcódigo que hace que sucedan todos estos eventos.

Unidad central de procesamiento (CPU)

La unidad de control, la ALU y los registros se conocen colectivamente como unidad central de procesamiento (CPU). Las primeras CPU estaban compuestas por muchos componentes separados. Desde la década de 1970, las CPU se han construido típicamente en un solo chip de circuito integrado MOS llamado microprocesador .

Unidad aritmética lógica (ALU)

La ALU es capaz de realizar dos clases de operaciones: aritméticas y lógicas. [122] El conjunto de operaciones aritméticas que admite una ALU en particular puede limitarse a la suma y la resta, o puede incluir multiplicación, división, funciones trigonométricas como seno, coseno, etc., y raíces cuadradas . Algunas pueden operar solo con números enteros ( enteros ) mientras que otras usan punto flotante para representar números reales , aunque con precisión limitada. Sin embargo, cualquier computadora que sea capaz de realizar solo las operaciones más simples puede programarse para descomponer las operaciones más complejas en pasos simples que pueda realizar. Por lo tanto, cualquier computadora puede programarse para realizar cualquier operación aritmética, aunque tomará más tiempo hacerlo si su ALU no admite directamente la operación. Una ALU también puede comparar números y devolver valores de verdad booleanos (verdadero o falso) dependiendo de si uno es igual, mayor o menor que el otro ("¿es 64 mayor que 65?"). Las operaciones lógicas implican lógica booleana : AND , OR , XOR y NOT . Pueden ser útiles para crear sentencias condicionales complicadas y procesar lógica booleana .

Las computadoras superescalares pueden contener múltiples ALU, lo que les permite procesar varias instrucciones simultáneamente. [123] Los procesadores gráficos y las computadoras con características SIMD y MIMD a menudo contienen ALU que pueden realizar operaciones aritméticas en vectores y matrices .

Memoria

La memoria de núcleo magnético (que utiliza núcleos magnéticos ) fue la memoria informática preferida en la década de 1960, hasta que fue reemplazada por la memoria de semiconductores (que utiliza celdas de memoria MOS ).

La memoria de una computadora puede verse como una lista de celdas en las que se pueden colocar o leer números. Cada celda tiene una "dirección" numerada y puede almacenar un solo número. Se puede ordenar a la computadora que "coloque el número 123 en la celda 1357" o que "suma el número que está en la celda 1357 al número que está en la celda 2468 y coloque el resultado en la celda 1595". La información almacenada en la memoria puede representar prácticamente cualquier cosa. Letras, números e incluso instrucciones de la computadora se pueden colocar en la memoria con la misma facilidad. Dado que la CPU no diferencia entre diferentes tipos de información, es responsabilidad del software dar significado a lo que la memoria ve como nada más que una serie de números.

En casi todas las computadoras modernas, cada celda de memoria está configurada para almacenar números binarios en grupos de ocho bits (llamados byte ). Cada byte puede representar 256 números diferentes (2 8 = 256); ya sea de 0 a 255 o de −128 a +127. Para almacenar números más grandes, se pueden usar varios bytes consecutivos (normalmente, dos, cuatro u ocho). Cuando se requieren números negativos, generalmente se almacenan en notación de complemento a dos . Son posibles otras disposiciones, pero generalmente no se ven fuera de aplicaciones especializadas o contextos históricos. Una computadora puede almacenar cualquier tipo de información en la memoria si se puede representar numéricamente. Las computadoras modernas tienen miles de millones o incluso billones de bytes de memoria.

La CPU contiene un conjunto especial de celdas de memoria llamadas registros , en las que se puede leer y escribir mucho más rápido que en el área de memoria principal. Normalmente hay entre dos y cien registros, según el tipo de CPU. Los registros se utilizan para los elementos de datos que se necesitan con más frecuencia, a fin de evitar tener que acceder a la memoria principal cada vez que se necesitan datos. Como se trabaja con los datos constantemente, reducir la necesidad de acceder a la memoria principal (que suele ser lenta en comparación con la ALU y las unidades de control) aumenta en gran medida la velocidad del ordenador.

La memoria principal de la computadora viene en dos variedades principales:

La memoria RAM se puede leer y escribir en cualquier momento que la CPU lo ordene, pero la ROM está precargada con datos y software que nunca cambian, por lo tanto, la CPU solo puede leer desde ella. La ROM se usa típicamente para almacenar las instrucciones iniciales de arranque de la computadora. En general, el contenido de la RAM se borra cuando se apaga la computadora, pero la ROM retiene sus datos indefinidamente. En una PC, la ROM contiene un programa especializado llamado BIOS que organiza la carga del sistema operativo de la computadora desde la unidad de disco duro a la RAM cada vez que la computadora se enciende o se reinicia. En las computadoras integradas , que con frecuencia no tienen unidades de disco, todo el software requerido puede almacenarse en la ROM. El software almacenado en la ROM a menudo se llama firmware , porque en teoría se parece más al hardware que al software. La memoria flash difumina la distinción entre ROM y RAM, ya que retiene sus datos cuando se apaga pero también es reescribible. Sin embargo, generalmente es mucho más lenta que la ROM y la RAM convencionales, por lo que su uso está restringido a aplicaciones donde la alta velocidad es innecesaria. [f]

En los ordenadores más sofisticados puede haber una o más memorias caché de RAM , que son más lentas que los registros pero más rápidas que la memoria principal. Generalmente los ordenadores con este tipo de caché están diseñados para mover datos que se necesitan con frecuencia a la caché de forma automática, a menudo sin necesidad de intervención alguna por parte del programador.

Entrada/salida (E/S)

Las unidades de disco duro son dispositivos de almacenamiento comunes que se utilizan con las computadoras.

La E/S es el medio por el cual una computadora intercambia información con el mundo exterior. [125] Los dispositivos que proporcionan entrada o salida a la computadora se denominan periféricos . [126] En una computadora personal típica, los periféricos incluyen dispositivos de entrada como el teclado y el mouse , y dispositivos de salida como la pantalla y la impresora . Las unidades de disco duro , las unidades de disquete y las unidades de disco óptico sirven como dispositivos de entrada y salida. La red de computadoras es otra forma de E/S. Los dispositivos de E/S a menudo son computadoras complejas por derecho propio, con su propia CPU y memoria. Una unidad de procesamiento de gráficos puede contener cincuenta o más computadoras diminutas que realizan los cálculos necesarios para mostrar gráficos en 3D . [ cita requerida ] Las computadoras de escritorio modernas contienen muchas computadoras más pequeñas que ayudan a la CPU principal a realizar la E/S. Una pantalla plana de la era de 2016 contiene su propio circuito de computadora.

Multitarea

Aunque se puede pensar que una computadora ejecuta un programa gigantesco almacenado en su memoria principal, en algunos sistemas es necesario dar la apariencia de ejecutar varios programas simultáneamente. Esto se logra mediante la multitarea, es decir, haciendo que la computadora cambie rápidamente entre la ejecución de cada programa por turno. [127] Un medio por el cual se hace esto es con una señal especial llamada interrupción , que puede hacer que la computadora deje de ejecutar instrucciones periódicamente donde estaba y haga otra cosa en su lugar. Al recordar dónde estaba ejecutando antes de la interrupción, la computadora puede volver a esa tarea más tarde. Si varios programas se están ejecutando "al mismo tiempo", entonces el generador de interrupciones puede estar causando varios cientos de interrupciones por segundo, lo que provoca un cambio de programa cada vez. Dado que las computadoras modernas generalmente ejecutan instrucciones varios órdenes de magnitud más rápido que la percepción humana, puede parecer que muchos programas se están ejecutando al mismo tiempo aunque solo uno se esté ejecutando en un instante dado. Este método de multitarea a veces se denomina "tiempo compartido", ya que a cada programa se le asigna una "porción" de tiempo por turno. [128]

Antes de la era de los ordenadores baratos, el uso principal de la multitarea era permitir que muchas personas compartieran el mismo ordenador. Aparentemente, la multitarea haría que un ordenador que cambia entre varios programas funcione más lentamente, en proporción directa a la cantidad de programas que esté ejecutando, pero la mayoría de los programas pasan gran parte de su tiempo esperando a que los dispositivos de entrada/salida lentos completen sus tareas. Si un programa está esperando a que el usuario haga clic con el ratón o presione una tecla del teclado, no se tomará un "fragmento de tiempo" hasta que se produzca el evento que está esperando. Esto libera tiempo para que se ejecuten otros programas, de modo que se puedan ejecutar muchos programas simultáneamente sin una pérdida de velocidad inaceptable.

Multiprocesamiento

Cray diseñó muchas supercomputadoras que utilizaban intensamente el multiprocesamiento.

Algunas computadoras están diseñadas para distribuir su trabajo entre varias CPU en una configuración de multiprocesamiento, una técnica que antes solo se empleaba en máquinas grandes y potentes, como supercomputadoras , computadoras mainframe y servidores . Las computadoras personales y portátiles multiprocesador y multinúcleo (varias CPU en un solo circuito integrado) están ahora ampliamente disponibles y, como resultado, se utilizan cada vez más en los mercados de gama baja.

Las supercomputadoras, en particular, suelen tener arquitecturas muy singulares que difieren significativamente de la arquitectura básica de programas almacenados y de las computadoras de propósito general. [g] A menudo cuentan con miles de CPU, interconexiones personalizadas de alta velocidad y hardware informático especializado. Dichos diseños tienden a ser útiles solo para tareas especializadas debido a la gran escala de organización del programa requerida para utilizar la mayoría de los recursos disponibles a la vez. Las supercomputadoras suelen utilizarse en aplicaciones de simulación a gran escala , renderizado de gráficos y criptografía , así como con otras tareas denominadas " vergonzosamente paralelas ".

Software

El software se refiere a las partes de la computadora que no tienen una forma material, como programas, datos, protocolos, etc. El software es la parte de un sistema informático que consiste en información codificada o instrucciones de computadora, en contraste con el hardware físico a partir del cual se construye el sistema. El software de computadora incluye programas de computadora, bibliotecas y datos no ejecutables relacionados , como documentación en línea o medios digitales . A menudo se divide en software de sistema y software de aplicación . El hardware y el software de la computadora se requieren mutuamente y ninguno puede usarse de manera realista por sí solo. Cuando el software se almacena en hardware que no se puede modificar fácilmente, como con la ROM BIOS en una computadora compatible con IBM PC , a veces se lo llama "firmware".

Sistema operativo /Software del sistemaUnix y BSDUNIX System V , IBM AIX , HP-UX , Solaris ( SunOS ), IRIX , Lista de sistemas operativos BSD
LinuxLista de distribuciones de Linux , Comparación de distribuciones de Linux
Microsoft WindowsWindows 95 , Windows 98 , Windows NT , Windows 2000 , Windows ME , Windows XP , Windows Vista , Windows 7 , Windows 8 , Windows 8.1 , Windows 10 , Windows 11
Dos86-DOS (QDOS), IBM PC DOS , MS-DOS , DR-DOS , FreeDOS
Sistemas operativos MacintoshMac OS clásico , macOS (anteriormente OS X y Mac OS X)
Integrado y en tiempo realLista de sistemas operativos integrados
ExperimentalAmoeba , OberonAOS, Bluebottle, A2 , Plan 9 de Bell Labs
BibliotecaMultimediaDirectX , OpenGL , OpenAL , Vulkan (API)
Biblioteca de programaciónBiblioteca estándar de C , Biblioteca de plantillas estándar
DatosProtocoloTCP/IP , Kermit , FTP , HTTP , SMTP
Formato de archivoHTML , XML , JPEG , MPEG , PNG
Interfaz de usuarioInterfaz gráfica de usuario ( WIMP )Microsoft Windows , GNOME , KDE , QNX Photon, CDE , GEM , Aqua
Interfaz de usuario basada en textoInterfaz de línea de comandos , Interfaz de usuario de texto
Software de aplicaciónPaquete de oficinaProcesamiento de textos , Autoedición , Programa de presentaciones , Sistema de gestión de bases de datos , Programación y gestión del tiempo, Hoja de cálculo , Software de contabilidad
Acceso a InternetNavegador , Cliente de correo electrónico , Servidor web , Agente de transferencia de correo , Mensajería instantánea
Diseño y fabricaciónDiseño asistido por ordenador , Fabricación asistida por ordenador , Gestión de plantas, Fabricación robótica, Gestión de la cadena de suministro
GráficosEditor de gráficos rasterizados , Editor de gráficos vectoriales , Modelador 3D , Editor de animación , Gráficos 3D por computadora , Edición de video , Procesamiento de imágenes
AudioEditor de audio digital , Reproducción de audio , Mezcla , Síntesis de audio , Música por computadora
Ingeniería de softwareCompilador , ensamblador , intérprete , depurador , editor de texto , entorno de desarrollo integrado , análisis del rendimiento del software , control de revisión , gestión de la configuración del software
EducativoEntretenimiento educativo , Juego educativo , Juego serio , Simulador de vuelo
JuegosEstrategia , Arcade , Puzzle , Simulación , Shooter en primera persona , Plataformas , Multijugador masivo , Ficción interactiva
VariosInteligencia artificial , Software antivirus , Escáner de malware , Sistemas de instalación / gestión de paquetes , Administrador de archivos

Idiomas

Hay miles de lenguajes de programación diferentes: algunos pensados ​​para uso general, otros útiles sólo para aplicaciones altamente especializadas.

Lenguajes de programación
Listas de lenguajes de programaciónCronología de los lenguajes de programación , Lista de lenguajes de programación por categoría , Lista generacional de lenguajes de programación , Lista de lenguajes de programación , Lenguajes de programación no basados ​​en el inglés
Lenguajes ensambladores de uso comúnARM , MIPS , x86
Lenguajes de programación de alto nivel de uso comúnAda , BASIC , C , C++ , C# , COBOL , Fortran , PL/I , REXX , Java , Lisp , Pascal , Object Pascal
Lenguajes de script de uso comúnScript de Bourne , JavaScript , Python , Ruby , PHP , Perl

Programas

La característica definitoria de las computadoras modernas que las distingue de todas las demás máquinas es que pueden programarse . Es decir, se le puede dar algún tipo de instrucciones (el programa ) a la computadora, y esta las procesará. Las computadoras modernas basadas en la arquitectura de von Neumann a menudo tienen código de máquina en forma de lenguaje de programación imperativo . En términos prácticos, un programa de computadora puede tener solo unas pocas instrucciones o extenderse a muchos millones de instrucciones, como lo hacen los programas para procesadores de texto y navegadores web , por ejemplo. Una computadora moderna típica puede ejecutar miles de millones de instrucciones por segundo ( gigaflops ) y rara vez comete un error a lo largo de muchos años de funcionamiento. Los programas de computadora grandes que constan de varios millones de instrucciones pueden llevar años de trabajo de equipos de programadores y, debido a la complejidad de la tarea, casi con certeza contienen errores.

Arquitectura de programas almacenados

Réplica del Manchester Baby , el primer ordenador electrónico con programa almacenado del mundo , en el Museo de Ciencia e Industria de Manchester, Inglaterra

Esta sección se aplica a las computadoras más comunes basadas en máquinas RAM .

En la mayoría de los casos, las instrucciones de la computadora son simples: sumar un número a otro, mover algunos datos de una ubicación a otra, enviar un mensaje a algún dispositivo externo, etc. Estas instrucciones se leen de la memoria de la computadora y generalmente se llevan a cabo ( se ejecutan ) en el orden en que se dieron. Sin embargo, generalmente hay instrucciones especializadas para indicarle a la computadora que salte hacia adelante o hacia atrás a algún otro lugar en el programa y continúe la ejecución desde allí. Estas se denominan instrucciones de "salto" (o ramificaciones ). Además, las instrucciones de salto pueden realizarse de manera condicional para que se puedan usar diferentes secuencias de instrucciones según el resultado de algún cálculo anterior o algún evento externo. Muchas computadoras admiten directamente subrutinas al proporcionar un tipo de salto que "recuerda" la ubicación desde la que saltó y otra instrucción para regresar a la instrucción que sigue a esa instrucción de salto.

La ejecución de un programa puede compararse con la lectura de un libro. Si bien una persona normalmente lee cada palabra y línea en secuencia, a veces puede volver a un lugar anterior en el texto o saltarse secciones que no le interesan. De manera similar, una computadora a veces puede volver atrás y repetir las instrucciones en alguna sección del programa una y otra vez hasta que se cumpla alguna condición interna. Esto se denomina flujo de control dentro del programa y es lo que permite que la computadora realice tareas repetidamente sin intervención humana.

En comparación, una persona que utiliza una calculadora de bolsillo puede realizar una operación aritmética básica, como sumar dos números, con solo pulsar unas cuantas teclas. Pero sumar todos los números del 1 al 1.000 requeriría miles de pulsaciones de teclas y mucho tiempo, con una certeza casi absoluta de cometer un error. Por otro lado, una computadora puede programarse para hacer esto con solo unas pocas instrucciones simples. El siguiente ejemplo está escrito en lenguaje ensamblador MIPS :

 begin: addi $8 , $0 , 0 # inicializa la suma en 0 addi $9 , $0 , 1 # establece el primer número a sumar = 1 loop: slti $10 , $9 , 1000 # verifica si el número es menor que 1000 beq $10 , $0 , finish # si el número impar es mayor que n entonces sale add $8 , $8 , $9 # actualiza la suma addi $9 , $9 , 1 # obtiene el siguiente número j loop # repite el proceso de suma finish: add $2 , $8 , $0 # coloca la suma en el registro de salida                                        

Una vez que se le ordena ejecutar este programa, la computadora realizará la tarea de suma repetitiva sin más intervención humana. Casi nunca cometerá un error y una PC moderna puede completar la tarea en una fracción de segundo.

Código máquina

En la mayoría de los ordenadores, las instrucciones individuales se almacenan como código de máquina y a cada instrucción se le asigna un número único (su código de operación u opcode para abreviar). El comando para sumar dos números tendría un opcode; el comando para multiplicarlos tendría un opcode diferente, y así sucesivamente. Los ordenadores más simples pueden realizar cualquiera de un puñado de instrucciones diferentes; los ordenadores más complejos tienen varios cientos para elegir, cada uno con un código numérico único. Dado que la memoria del ordenador puede almacenar números, también puede almacenar los códigos de instrucción. Esto lleva al hecho importante de que los programas completos (que son simplemente listas de estas instrucciones) se pueden representar como listas de números y se pueden manipular dentro del ordenador de la misma manera que los datos numéricos. El concepto fundamental de almacenar programas en la memoria del ordenador junto con los datos sobre los que operan es el quid de la arquitectura de von Neumann, o de programa almacenado. [130] [131] En algunos casos, un ordenador puede almacenar parte o la totalidad de su programa en la memoria que se mantiene separada de los datos sobre los que opera. Esto se llama arquitectura Harvard en honor al ordenador Harvard Mark I. Las computadoras modernas de von Neumann muestran algunos rasgos de la arquitectura Harvard en sus diseños, como en los cachés de CPU .

Si bien es posible escribir programas de computadora como largas listas de números ( lenguaje de máquina ) y si bien esta técnica se utilizó con muchas computadoras tempranas, [h] es extremadamente tedioso y potencialmente propenso a errores hacerlo en la práctica, especialmente para programas complicados. En cambio, a cada instrucción básica se le puede dar un nombre corto que sea indicativo de su función y fácil de recordar: un mnemónico como ADD, SUB, MULT o JUMP. Estos mnemónicos se conocen colectivamente como lenguaje ensamblador de una computadora . La conversión de programas escritos en lenguaje ensamblador en algo que la computadora realmente pueda entender (lenguaje de máquina) generalmente se realiza mediante un programa de computadora llamado ensamblador.

Una tarjeta perforada de la década de 1970 que contiene una línea de un programa Fortran . La tarjeta dice: "Z(1) = Y + W(1)" y está etiquetada como "PROJ039" para fines de identificación.

Lenguaje de programación

Los lenguajes de programación ofrecen diversas formas de especificar programas para que los ejecuten las computadoras. A diferencia de los lenguajes naturales , los lenguajes de programación están diseñados para no permitir ninguna ambigüedad y ser concisos. Son lenguajes puramente escritos y, a menudo, son difíciles de leer en voz alta. Por lo general, un compilador o un ensamblador los traduce a código de máquina antes de ejecutarlos, o los traduce directamente en tiempo de ejecución un intérprete . A veces, los programas se ejecutan mediante un método híbrido de las dos técnicas.

Lenguajes de bajo nivel

Los lenguajes de máquina y los lenguajes ensambladores que los representan (denominados colectivamente lenguajes de programación de bajo nivel ) son generalmente exclusivos de la arquitectura particular de la unidad central de procesamiento ( CPU ) de una computadora. Por ejemplo, una CPU de arquitectura ARM (como la que se puede encontrar en un teléfono inteligente o en un videojuego portátil ) no puede entender el lenguaje de máquina de una CPU x86 que podría estar en una PC . [i] Históricamente, se creó una cantidad significativa de otras arquitecturas de CPU y se usaron ampliamente, incluidas en particular las MOS Technology 6502 y 6510 además de la Zilog Z80.

Lenguajes de alto nivel

Aunque es considerablemente más fácil que en lenguaje de máquina, escribir programas largos en lenguaje ensamblador suele ser difícil y también propenso a errores. Por lo tanto, la mayoría de los programas prácticos se escriben en lenguajes de programación de alto nivel más abstractos que pueden expresar las necesidades del programador de manera más conveniente (y, por lo tanto, ayudar a reducir el error del programador). Los lenguajes de alto nivel generalmente se "compilan" en lenguaje de máquina (o, a veces, en lenguaje ensamblador y luego en lenguaje de máquina) utilizando otro programa de computadora llamado compilador . [j] Los lenguajes de alto nivel están menos relacionados con el funcionamiento de la computadora de destino que el lenguaje ensamblador, y más relacionados con el lenguaje y la estructura del problema o problemas que se resolverán con el programa final. Por lo tanto, a menudo es posible usar diferentes compiladores para traducir el mismo programa de lenguaje de alto nivel al lenguaje de máquina de muchos tipos diferentes de computadora. Esto es parte de los medios por los cuales el software como los videojuegos pueden estar disponibles para diferentes arquitecturas de computadora, como computadoras personales y varias consolas de videojuegos .

Diseño de programas

El diseño de programas pequeños es relativamente simple e implica el análisis del problema, la recopilación de entradas, el uso de las construcciones de programación dentro de los lenguajes, el diseño o uso de procedimientos y algoritmos establecidos, el suministro de datos para dispositivos de salida y soluciones al problema según corresponda. [132] A medida que los problemas se hacen más grandes y complejos, se encuentran características como subprogramas, módulos, documentación formal y nuevos paradigmas como la programación orientada a objetos. [133] Los programas grandes que involucran miles de líneas de código y más requieren metodologías de software formales. [134] La tarea de desarrollar grandes sistemas de software presenta un desafío intelectual significativo. [135] Producir software con una confiabilidad aceptablemente alta dentro de un cronograma y presupuesto predecibles ha sido históricamente difícil; [136] la disciplina académica y profesional de la ingeniería de software se concentra específicamente en este desafío. [137]

Insectos

El primer error informático: una polilla atrapada en un relé del ordenador Harvard Mark II

Los errores en los programas informáticos se denominan " bugs ". Pueden ser benignos y no afectar a la utilidad del programa, o tener solo efectos sutiles. Sin embargo, en algunos casos pueden hacer que el programa o el sistema entero se " cuelga ", dejándose de responder a entradas como clics del ratón o pulsaciones de teclas, que falle por completo o que se bloquee . [138] A veces, los errores benignos pueden ser aprovechados con intenciones maliciosas por un usuario inescrupuloso que escribe un exploit , un código diseñado para aprovecharse de un error e interrumpir la ejecución adecuada de una computadora. Los errores no suelen ser culpa de la computadora. Dado que las computadoras simplemente ejecutan las instrucciones que se les dan, los errores casi siempre son el resultado de un error del programador o de un descuido en el diseño del programa. [k] A la almirante Grace Hopper , una científica informática estadounidense y desarrolladora del primer compilador , se le atribuye haber utilizado por primera vez el término "bugs" en informática después de que se encontrara una polilla muerta provocando un cortocircuito en un relé en la computadora Harvard Mark II en septiembre de 1947. [139]

Redes e Internet

Visualización de una parte de las rutas en Internet

Las computadoras se han utilizado para coordinar información entre múltiples ubicaciones desde la década de 1950. El sistema SAGE del ejército estadounidense fue el primer ejemplo a gran escala de un sistema de este tipo, que dio lugar a una serie de sistemas comerciales de propósito especial como Sabre . [140] En la década de 1970, los ingenieros informáticos de las instituciones de investigación de todo Estados Unidos comenzaron a conectar sus computadoras entre sí utilizando tecnología de telecomunicaciones. El esfuerzo fue financiado por ARPA (ahora DARPA ), y la red informática resultante se denominó ARPANET . [141] Las tecnologías que hicieron posible Arpanet se difundieron y evolucionaron.

Con el tiempo, la red se extendió más allá de las instituciones académicas y militares y se la conoció como Internet. La aparición de las redes implicó una redefinición de la naturaleza y los límites de la computadora. Los sistemas operativos y las aplicaciones de las computadoras se modificaron para incluir la capacidad de definir y acceder a los recursos de otras computadoras en la red, como dispositivos periféricos, información almacenada y similares, como extensiones de los recursos de una computadora individual. Inicialmente, estas facilidades estaban disponibles principalmente para las personas que trabajaban en entornos de alta tecnología, pero en la década de 1990, la difusión de aplicaciones como el correo electrónico y la World Wide Web , combinada con el desarrollo de tecnologías de red baratas y rápidas como Ethernet y ADSL , hizo que las redes de computadoras se volvieran casi omnipresentes. De hecho, el número de computadoras que están conectadas en red está creciendo fenomenalmente. Una gran proporción de computadoras personales se conectan regularmente a Internet para comunicarse y recibir información. Las redes "inalámbricas", que a menudo utilizan redes de teléfonos móviles, han hecho que las redes se vuelvan cada vez más omnipresentes incluso en entornos informáticos móviles.

Computadoras no convencionales

Una computadora no necesita ser electrónica , ni siquiera tener un procesador , ni memoria RAM , ni siquiera un disco duro . Si bien el uso popular de la palabra "computadora" es sinónimo de una computadora electrónica personal, [l] una definición moderna típica de una computadora es: " Un dispositivo que calcula , especialmente una máquina electrónica programable [generalmente] que realiza operaciones matemáticas o lógicas de alta velocidad o que ensambla, almacena, correlaciona o procesa información de otra manera". [142] Según esta definición, cualquier dispositivo que procesa información califica como una computadora.

Futuro

Se están llevando a cabo investigaciones activas para crear computadoras no convencionales a partir de muchos tipos nuevos y prometedores de tecnología, como las computadoras ópticas , las computadoras de ADN , las computadoras neuronales y las computadoras cuánticas . La mayoría de las computadoras son universales y pueden calcular cualquier función computable , y están limitadas únicamente por su capacidad de memoria y velocidad de operación. Sin embargo, los diferentes diseños de computadoras pueden brindar un rendimiento muy diferente para problemas particulares; por ejemplo, las computadoras cuánticas pueden potencialmente descifrar algunos algoritmos de cifrado modernos (mediante factorización cuántica ) muy rápidamente.

Paradigmas de arquitectura de computadoras

Existen muchos tipos de arquitecturas informáticas :

De todas estas máquinas abstractas , un ordenador cuántico es el que promete más para revolucionar la informática. [143] Las puertas lógicas son una abstracción común que puede aplicarse a la mayoría de los paradigmas digitales o analógicos anteriores. La capacidad de almacenar y ejecutar listas de instrucciones llamadas programas hace que los ordenadores sean extremadamente versátiles, lo que los distingue de las calculadoras . La tesis de Church-Turing es una declaración matemática de esta versatilidad: cualquier ordenador con una capacidad mínima (ser Turing-completo) es, en principio, capaz de realizar las mismas tareas que cualquier otro ordenador puede realizar. Por lo tanto, cualquier tipo de ordenador ( netbook , superordenador , autómata celular , etc.) es capaz de realizar las mismas tareas computacionales, dado suficiente tiempo y capacidad de almacenamiento.

Inteligencia artificial

Una computadora resolverá los problemas exactamente de la manera en que está programada, sin tener en cuenta la eficiencia, las soluciones alternativas, los posibles atajos o los posibles errores en el código. Los programas informáticos que aprenden y se adaptan forman parte del campo emergente de la inteligencia artificial y el aprendizaje automático . Los productos basados ​​en inteligencia artificial generalmente se dividen en dos categorías principales: sistemas basados ​​en reglas y sistemas de reconocimiento de patrones . Los sistemas basados ​​en reglas intentan representar las reglas utilizadas por expertos humanos y tienden a ser costosos de desarrollar. Los sistemas basados ​​en patrones utilizan datos sobre un problema para generar conclusiones. Algunos ejemplos de sistemas basados ​​en patrones incluyen el reconocimiento de voz , el reconocimiento de fuentes, la traducción y el campo emergente del marketing en línea.

Profesiones y organizaciones

A medida que el uso de computadoras se ha extendido por toda la sociedad, hay un número cada vez mayor de carreras que involucran computadoras.

Profesiones relacionadas con la informática
Relacionado con el hardwareIngeniería eléctrica , Ingeniería electrónica , Ingeniería informática , Ingeniería de telecomunicaciones , Ingeniería óptica , Nanoingeniería
Relacionado con el softwareCiencias de la computación , Ingeniería informática , Autoedición , Interacción persona-computadora , Tecnología de la información, Sistemas de información , Ciencia computacional , Ingeniería de software, Industria de los videojuegos , Diseño web

La necesidad de que las computadoras funcionen bien juntas y puedan intercambiar información ha generado la necesidad de muchas organizaciones de normalización, clubes y sociedades tanto de naturaleza formal como informal.

Organizaciones
Grupos de normasANSI , IEC , IEEE , IETF , ISO , W3C
Sociedades profesionalesACM , AIS , IET , IFIP y BCS
Grupos de software libre / de código abiertoFundación para el Software Libre , Fundación Mozilla , Fundación para el Software Apache

Véase también

Notas

  1. ^ Según Schmandt-Besserat 1981, estos recipientes de arcilla contenían fichas, cuyo total era el recuento de objetos que se transferían. Por lo tanto, los recipientes servían como una especie de conocimiento de embarque o un libro de cuentas. Para evitar que se rompieran, primero se colocaban impresiones de arcilla de las fichas en el exterior de los recipientes, para el recuento; las formas de las impresiones se abstraían en marcas estilizadas; finalmente, las marcas abstractas se usaban sistemáticamente como números; estos números finalmente se formalizaron como números.
    Finalmente, las marcas en el exterior de los recipientes eran todo lo que se necesitaba para transmitir el recuento, y los recipientes de arcilla evolucionaron hasta convertirse en tablillas de arcilla con marcas para el recuento. Schmandt-Besserat 1999 estima que se necesitaron 4000 años.
  2. ^ La matriz del Intel 4004 (1971) tenía 12 mm 2 y estaba compuesta por 2300 transistores; en comparación, la del Pentium Pro tenía 306 mm 2 y estaba compuesta por 5,5 millones de transistores. [113]
  3. ^ La mayoría de las arquitecturas de conjuntos de instrucciones de 64 bits son extensiones de diseños anteriores. Todas las arquitecturas enumeradas en esta tabla, excepto Alpha, existían en formatos de 32 bits antes de que se introdujeran sus versiones de 64 bits.
  4. ^ El papel de la unidad de control en la interpretación de instrucciones ha variado un poco en el pasado. Aunque la unidad de control es la única responsable de la interpretación de instrucciones en la mayoría de las computadoras modernas, este no siempre es el caso. Algunas computadoras tienen instrucciones que son parcialmente interpretadas por la unidad de control y la interpretación posterior realizada por otro dispositivo. Por ejemplo, EDVAC , una de las primeras computadoras con programa almacenado, utilizó una unidad de control central que interpretó solo cuatro instrucciones. Todas las instrucciones relacionadas con la aritmética se pasaban a su unidad aritmética y allí se decodificaban.
  5. ^ Las instrucciones a menudo ocupan más de una dirección de memoria, por lo tanto, el contador de programa generalmente aumenta según la cantidad de ubicaciones de memoria necesarias para almacenar una instrucción.
  6. ^ La memoria flash también puede reescribirse solo un número limitado de veces antes de desgastarse, lo que la hace menos útil para un uso intensivo de acceso aleatorio. [124]
  7. ^ Sin embargo, también es muy común construir supercomputadoras a partir de muchas piezas de hardware barato; generalmente computadoras individuales conectadas por redes. Estos llamados clústeres de computadoras a menudo pueden proporcionar un rendimiento de supercomputadora a un costo mucho menor que los diseños personalizados. Si bien las arquitecturas personalizadas aún se utilizan para la mayoría de las supercomputadoras más potentes, ha habido una proliferación de computadoras en clúster en los últimos años. [129]
  8. ^ Incluso algunos ordenadores posteriores se programaban directamente en código máquina. Algunos miniordenadores como el DEC PDP-8 podían programarse directamente desde un panel de interruptores. Sin embargo, este método se utilizaba normalmente solo como parte del proceso de arranque . La mayoría de los ordenadores modernos arrancan de forma totalmente automática leyendo un programa de arranque desde alguna memoria no volátil .
  9. ^ Sin embargo, a veces existe algún tipo de compatibilidad de lenguaje de máquina entre diferentes computadoras. Un microprocesador compatible con x86-64 como el AMD Athlon 64 puede ejecutar la mayoría de los mismos programas que un microprocesador Intel Core 2 , así como programas diseñados para microprocesadores anteriores como los Intel Pentium e Intel 80486. Esto contrasta con las primeras computadoras comerciales, que a menudo eran únicas y totalmente incompatibles con otras computadoras.
  10. ^ Los lenguajes de alto nivel también suelen interpretarse en lugar de compilarse. Los lenguajes interpretados se traducen a código de máquina sobre la marcha, mientras se ejecutan, mediante otro programa llamado intérprete .
  11. ^ No es universalmente cierto que los errores se deban únicamente a un descuido del programador. El hardware de la computadora puede fallar o puede tener un problema fundamental que produzca resultados inesperados en ciertas situaciones. Por ejemplo, el error FDIV de Pentium hizo que algunos microprocesadores Intel a principios de los años 90 produjeran resultados inexactos para ciertas operaciones de división de punto flotante . Esto fue causado por un defecto en el diseño del microprocesador y dio lugar a un retiro parcial de los dispositivos afectados.
  12. ^ Según el Shorter Oxford English Dictionary (6.ª ed., 2007), la palabra computadora se remonta a mediados del siglo XVII, cuando se refería a "una persona que hace cálculos; específicamente una persona empleada para esto en un observatorio, etc."

Referencias

  1. ^ Evans 2018, pág. 23.
  2. ^ Smith 2013, pág. 6.
  3. ^ "ordenador (n.)". Diccionario Etimológico Online . Archivado desde el original el 16 de noviembre de 2016. Consultado el 19 de agosto de 2021 .
  4. ^ Robson, Eleanor (2008). Matemáticas en el antiguo Iraq . Princeton University Press. pág. 5. ISBN 978-0-691-09182-2.:Los cálculos se utilizaban en Irak para sistemas de contabilidad primitivos desde el 3200 al 3000 a. C., con sistemas de representación de conteo específicos para cada producto. La contabilidad equilibrada se utilizaba entre el 3000 y el 2350 a. C., y un sistema de numeración sexagesimal entre el 2350 y el 2000 a. C.
  5. ^ Flegg, Graham. (1989). Números a través de los tiempos . Houndmills, Basingstoke, Hampshire: Macmillan Education. ISBN 0-333-49130-0.OCLC 24660570  .
  6. ^ The Antikythera Mechanism Research Project Archivado el 28 de abril de 2008 en Wayback Machine , The Antikythera Mechanism Research Project. Consultado el 1 de julio de 2007.
  7. ^ Marchant, Jo (1 de noviembre de 2006). "En busca del tiempo perdido". Nature . 444 (7119): 534–538. Bibcode :2006Natur.444..534M. doi : 10.1038/444534a . ISSN  0028-0836. PMID  17136067. S2CID  4305761.
  8. ^ G. Wiet, V. Elisseeff, P. Wolff, J. Naudu (1975). Historia de la humanidad, vol. 3: Las grandes civilizaciones medievales , pág. 649. George Allen & Unwin Limited, UNESCO .
  9. ^ Fuat Sezgin. "Catálogo de la exposición del Instituto de Historia de la Ciencia Árabe-Islámica (en la Universidad Johann Wolfgang Goethe), Frankfurt, Alemania", Feria del Libro de Frankfurt 2004, págs. 35 y 38.
  10. ^ Charette, François (2006). «Arqueología: alta tecnología de la antigua Grecia». Nature . 444 (7119): 551–552. Bibcode :2006Natur.444..551C. doi : 10.1038/444551a . PMID  17136077. S2CID  33513516.
  11. ^ Bedini, Silvio A.; Maddison, Francisco R. (1966). "Universo mecánico: el astrario de Giovanni de 'Dondi". Transacciones de la Sociedad Filosófica Estadounidense . 56 (5): 1–69. doi :10.2307/1006002. JSTOR  1006002.
  12. ^ Price, Derek de S. (1984). "Una historia de las máquinas de calcular". IEEE Micro . 4 (1): 22–52. doi :10.1109/MM.1984.291305.
  13. ^ Őren, Tuncer (2001). «Avances en informática y ciencias de la información: del ábaco a los agentes holónicos» (PDF) . Turk J Elec Engin . 9 (1): 63–70. Archivado (PDF) desde el original el 15 de septiembre de 2009. Consultado el 21 de abril de 2016 .
  14. Donald Routledge Hill (1985). "El calendario mecánico de Al-Biruni", Annals of Science 42 , págs. 139-163.
  15. ^ "El autómata escritor, Suiza". chonday.com. 11 de julio de 2013. Archivado desde el original el 20 de febrero de 2015. Consultado el 28 de enero de 2015 .
  16. ^ de Ray Girvan, "La gracia revelada del mecanismo: la informática después de Babbage", archivado el 3 de noviembre de 2012 en Wayback Machine , Scientific Computing World , mayo/junio de 2003.
  17. ^ Torres, Leonardo (10 de octubre de 1895). "Memória sobre las Máquinas Algébricas" (PDF) . Revista de Obras Públicas (en español) (28): 217–222.
  18. ^ Leonardo Torres. Memoria sobre las máquinas algébricas: con un informe de la Real academia de ciencias exactas, físicas y naturales , Misericordia, 1895.
  19. ^ Thomas, Federico (1 de agosto de 2008). "Un breve relato sobre el huso sin fin de Leonardo Torres". Mecanismo y teoría de máquinas . 43 (8). IFToMM : 1055–1063. doi :10.1016/j.mechmachtheory.2007.07.003. hdl : 10261/30460 . ISSN  0094-114X.
  20. ^ Gómez-Jáuregui, Valentín; Gutiérrez-García, Andrés; González-Redondo, Francisco A.; Iglesias, Miguel; Manchado, Cristina; Otero, César (1 de junio de 2022). "Calculadora mecánica de Torres Quevedo para ecuaciones de segundo grado con coeficientes complejos". Mecanismo y teoría de las máquinas . 172 (8). IFToMM : 104830. doi : 10.1016/j.mechmachtheory.2022.104830 . hdl : 10902/24391 . S2CID  247503677.
  21. Torres Quevedo, Leonardo (1901). "Máquinas á calculadora". Mémoires Présentés par Divers Savants à l'Académie des Scienes de l'Institut de France (en francés). XXXII . Impr. nacional (París).
  22. ^ Halacy, Daniel Stephen (1970). Charles Babbage, padre de la computadora . Crowell-Collier Press. ISBN 978-0-02-741370-0.
  23. ^ O'Connor, John J.; Robertson, Edmund F. (1998). "Charles Babbage". Archivo de Historia de las Matemáticas de MacTutor . Facultad de Matemáticas y Estadística, Universidad de St Andrews, Escocia. Archivado desde el original el 16 de junio de 2006. Consultado el 14 de junio de 2006 .
  24. ^ "Babbage". Material online . Museo de la Ciencia. 19 de enero de 2007. Archivado desde el original el 7 de agosto de 2012. Consultado el 1 de agosto de 2012 .
  25. ^ Graham-Cumming, John (23 de diciembre de 2010). «Construyamos la computadora mecánica definitiva de Babbage». Opinión . New Scientist. Archivado desde el original el 5 de agosto de 2012 . Consultado el 1 de agosto de 2012 .
  26. ^ L. Torres Quevedo. Ensayos sobre Automática – Su definición. Extensión teórica de sus aplicaciones, Revista de la Academia de Ciencias Exacta, Revista 12, págs. 391–418, 1914.
  27. ^ Torres Quevedo, Leonardo. Automática: Complemento de la Teoría de las Máquinas, (pdf), pp. 575-583, Revista de Obras Públicas, 19 de noviembre de 1914.
  28. ^ Ronald T. Kneusel. Números y computadoras, Springer, págs. 84-85, 2017. ISBN 978-3-319-50508-4 
  29. ^ Randell 1982, pág. 6, 11–13.
  30. ^ B. Randell. Máquina calculadora electromecánica, Los orígenes de las computadoras digitales, págs. 109-120, 1982.
  31. ^ Bromley 1990.
  32. ^ Cristopher Moore, Stephan Mertens. La naturaleza de la computación, Oxford, Inglaterra: Oxford University Press, pág. 291, 2011. ISBN 978-0-199-23321-2 . 
  33. ^ Randell, Brian. Computadoras digitales: Historia de los orígenes, (pdf), p. 545, Computadoras digitales: Orígenes, Enciclopedia de Ciencias de la Computación, enero de 2003.
  34. ^ abcd La historia moderna de la informática. Stanford Encyclopedia of Philosophy. 2017. Archivado desde el original el 12 de julio de 2010 . Consultado el 7 de enero de 2014 .
  35. ^ O'Regan, Gerard, ed. (2008). Una breve historia de la informática. Londres: Springer London. p. 28. doi :10.1007/978-1-84800-084-1. ISBN 978-1-84800-083-4.
  36. ^ Tse, David (22 de diciembre de 2020). «Cómo Claude Shannon inventó el futuro». Revista Quanta . Consultado el 5 de noviembre de 2024 .
  37. ^ Zuse, Horst. "Parte 4: Los ordenadores Z1 y Z3 de Konrad Zuse". La vida y la obra de Konrad Zuse . EPE Online. Archivado desde el original el 1 de junio de 2008. Consultado el 17 de junio de 2008 .
  38. ^ Bellis, Mary (15 de mayo de 2019) [Publicado por primera vez en 2006 en inventors.about.com/library/weekly/aa050298.htm]. "Biografía de Konrad Zuse, inventor y programador de las primeras computadoras". thoughtco.com . Dotdash Meredith. Archivado desde el original el 13 de diciembre de 2020 . Consultado el 3 de febrero de 2021 . Konrad Zuse se ganó el título semioficial de 'inventor de la computadora moderna' [ ¿quién? ] .
  39. ^ "¿Quién es el padre de la computadora?". ComputerHope .
  40. ^ Zuse, Konrad (2010) [1984]. La computadora: mi vida Traducido por McKenna, Patricia y Ross, J. Andrew de: Der Computer, mein Lebenswerk (1984) . Berlín/Heidelberg: Springer-Verlag. ISBN 978-3-642-08151-4.
  41. ^ Salz Trautman, Peggy (20 de abril de 1994). "Un pionero de la informática redescubierto, 50 años después". The New York Times . Archivado desde el original el 4 de noviembre de 2016. Consultado el 15 de febrero de 2017 .
  42. ^ Zuse, Konrad (1993). La computadora. Mein Lebenswerk (en alemán) (3ª ed.). Berlín: Springer-Verlag. pag. 55.ISBN 978-3-540-56292-4.
  43. ^ "Crash! La historia de IT: Zuse". Archivado desde el original el 18 de septiembre de 2016 . Consultado el 1 de junio de 2016 .
  44. ^ Rojas, R. (1998). "Cómo hacer del Z3 de Zuse un ordenador universal". IEEE Annals of the History of Computing . 20 (3): 51–54. doi :10.1109/85.707574. S2CID  14606587.
  45. ^ Rojas, Raúl. «Cómo hacer del Z3 de Zuse un ordenador universal» (PDF) . fu-berlin.de . Archivado (PDF) del original el 9 de agosto de 2017 . Consultado el 28 de septiembre de 2015 .
  46. ^ ab O'Regan, Gerard (2010). Una breve historia de la informática . Springer Nature. pág. 65. ISBN 978-3-030-66599-9.
  47. ^ Bruderer, Herbert (2021). Hitos en la computación analógica y digital (3.ª ed.). Springer. págs. 1009, 1087. ISBN 978-3-03040973-9.
  48. ^ "aviso". Des Moines Register . 15 de enero de 1941.
  49. ^ Arthur W. Burks (1989). La primera computadora electrónica. University of Michigan Press. ISBN 0-472-08104-7. Recuperado el 1 de junio de 2019 .
  50. ^ abcd Copeland, Jack (2006). Colossus: Los secretos de los ordenadores de Bletchley Park para descifrar códigos . Oxford: Oxford University Press . pp. 101–115. ISBN. 978-0-19-284055-4.
  51. ^ Miller, Joe (10 de noviembre de 2014). «La mujer que descifró los códigos Enigma». BBC News . Archivado desde el original el 10 de noviembre de 2014. Consultado el 14 de octubre de 2018 .
  52. ^ Bearne, Suzanne (24 de julio de 2018). «Conoce a las descifradoras de códigos de Bletchley Park». The Guardian . Archivado desde el original el 7 de febrero de 2019. Consultado el 14 de octubre de 2018 .
  53. ^ "El coloso de Bletchley para descifrar códigos". BBC . Archivado desde el original el 4 de febrero de 2010 . Consultado el 24 de noviembre de 2021 .
  54. ^ "Colossus – La historia de la reconstrucción". Museo Nacional de Computación . Archivado desde el original el 18 de abril de 2015. Consultado el 7 de enero de 2014 .
  55. ^ Randell, Brian ; Fensom, Harry; Milne, Frank A. (15 de marzo de 1995). «Obituario: Allen Coombs». The Independent . Archivado desde el original el 3 de febrero de 2012. Consultado el 18 de octubre de 2012 .
  56. ^ Fensom, Jim (8 de noviembre de 2010). «Obituario de Harry Fensom». The Guardian . Archivado desde el original el 17 de septiembre de 2013. Consultado el 17 de octubre de 2012 .
  57. ^ John Presper Eckert Jr. y John W. Mauchly, Electronic Numerical Integrator and Computer, Oficina de Patentes de los Estados Unidos, Patente de EE. UU. 3.120.606, presentada el 26 de junio de 1947, emitida el 4 de febrero de 1964 e invalidada el 19 de octubre de 1973 después de un fallo judicial en el caso Honeywell v. Sperry Rand .
  58. ^ Evans 2018, pág. 39.
  59. ^ Luz 1999, pág. 459.
  60. ^ "Generaciones de computadoras". techiwarehouse.com. Archivado desde el original el 2 de julio de 2015. Consultado el 7 de enero de 2014 .
  61. ^ Turing, AM (1937). "Sobre números computables, con una aplicación al problema de Entscheidung". Actas de la London Mathematical Society . 2. 42 (1): 230–265. doi :10.1112/plms/s2-42.1.230. S2CID  73712.
  62. ^ Copeland, Jack (2004). The Essential Turing . p. 22: von Neumann ... me recalcó firmemente, y estoy seguro de que también a otros, que la concepción fundamental se debe a Turing, en la medida en que no fue anticipada por Babbage, Lovelace y otros.Carta de Stanley Frankel a Brian Randell , 1972.
  63. ^ Enticknap, Nicholas (verano de 1998). «El Jubileo Dorado de la Informática». Resurrección (20). ISSN  0958-7403. Archivado desde el original el 9 de enero de 2012. Consultado el 19 de abril de 2008 .
  64. ^ "Las primeras computadoras en la Universidad de Manchester". Resurrección . 1 (4). Verano de 1992. ISSN  0958-7403. Archivado desde el original el 28 de agosto de 2017 . Consultado el 7 de julio de 2010 .
  65. ^ "Early Electronic Computers (1946–51)". Universidad de Manchester. Archivado desde el original el 5 de enero de 2009. Consultado el 16 de noviembre de 2008 .
  66. ^ Napper, RBE "Introducción al Mark 1". Universidad de Manchester. Archivado desde el original el 26 de octubre de 2008. Consultado el 4 de noviembre de 2008 .
  67. ^ "Estudio piloto sobre nuestro patrimonio informático: entregas de ordenadores Ferranti Mark I y Mark I Star". Computer Conservation Society . Archivado desde el original el 11 de diciembre de 2016. Consultado el 9 de enero de 2010 .
  68. ^ Lavington, Simon. «Una breve historia de las computadoras británicas: los primeros 25 años (1948–1973)». British Computer Society . Archivado desde el original el 5 de julio de 2010. Consultado el 10 de enero de 2010 .
  69. ^ Lee, Thomas H. (2003). El diseño de circuitos integrados de radiofrecuencia CMOS (PDF) . Cambridge University Press . ISBN 978-1-139-64377-1Archivado desde el original (PDF) el 9 de diciembre de 2019 . Consultado el 31 de julio de 2019 .
  70. ^ Puers, Robert; Baldí, Livio; Voorde, Marcel Van de; Nooten, Sebastiaan E. van (2017). Nanoelectrónica: materiales, dispositivos, aplicaciones, 2 volúmenes. John Wiley e hijos . pag. 14.ISBN 978-3-527-34053-8. Recuperado el 31 de julio de 2019 .
  71. ^ ab Moskowitz, Sanford L. (2016). Innovación en materiales avanzados: gestión de la tecnología global en el siglo XXI. John Wiley & Sons . págs. 165–167. ISBN 978-0-470-50892-3. Recuperado el 28 de agosto de 2019 .
  72. ^ Lavington 1998, págs. 34-35.
  73. ^ ab Cooke-Yarborough, EH (junio de 1998). "Algunas aplicaciones tempranas de transistores en el Reino Unido". Revista de ingeniería, ciencia y educación . 7 (3): 100–106. doi :10.1049/esej:19980301. ISSN  0963-7346. Archivado desde el original el 8 de noviembre de 2020. Consultado el 7 de junio de 2009 . (se requiere suscripción) .
  74. ^ Cooke-Yarborough, EH (1957). Introducción a los circuitos de transistores . Edimburgo, Escocia: Oliver y Boyd. pág. 139.
  75. ^ Huff, Howard; Riordan, Michael (1 de septiembre de 2007). "Frosch y Derick: cincuenta años después (prólogo)". The Electrochemical Society Interface . 16 (3): 29. doi :10.1149/2.F02073IF. ISSN  1064-8208.
  76. ^ Frosch, CJ; Derick, L (1957). "Protección de superficies y enmascaramiento selectivo durante la difusión en silicio". Revista de la Sociedad Electroquímica . 104 (9): 547. doi :10.1149/1.2428650.
  77. ^ Kahng, D. (1961). "Dispositivo de superficie de dióxido de silicio y silicio". Memorándum técnico de Bell Laboratories : 583–596. doi :10.1142/9789814503464_0076. ISBN 978-981-02-0209-5.
  78. ^ Lojek, Bo (2007). Historia de la ingeniería de semiconductores . Berlín, Heidelberg: Springer-Verlag Berlin Heidelberg. pág. 321. ISBN 978-3-540-34258-8.
  79. ^ Ligenza, JR; Spitzer, WG (1960). "Los mecanismos de oxidación del silicio en vapor y oxígeno". Revista de Física y Química de Sólidos . 14 : 131–136. Bibcode :1960JPCS...14..131L. doi :10.1016/0022-3697(60)90219-5.
  80. ^ Lojek, Bo (2007). Historia de la ingeniería de semiconductores . Springer Science & Business Media . pág. 120. ISBN. 9783540342588.
  81. ^ Motoyoshi, M. (2009). "Vía a través del silicio (TSV)". Actas del IEEE . 97 (1): 43–48. doi :10.1109/JPROC.2008.2007462. ISSN  0018-9219. S2CID  29105721.
  82. ^ Young, Ian (12 de diciembre de 2018). «Los transistores mantienen viva la ley de Moore». EETimes . Archivado desde el original el 24 de septiembre de 2019. Consultado el 18 de julio de 2019 .
  83. ^ Laws, David (4 de diciembre de 2013). «¿Quién inventó el transistor?». Museo de Historia de la Computación . Archivado desde el original el 13 de diciembre de 2013. Consultado el 20 de julio de 2019 .
  84. ^ ab Hittinger, William C. (1973). "Tecnología de semiconductores de óxido metálico". Scientific American . 229 (2): 48–59. Código Bibliográfico :1973SciAm.229b..48H. doi :10.1038/scientificamerican0873-48. ISSN  0036-8733. JSTOR  24923169.
  85. ^ Malmstadt, Howard V.; Enke, Christie G.; Crouch, Stanley R. (1994). Realizar las conexiones correctas: microcomputadoras e instrumentación electrónica. American Chemical Society . pág. 389. ISBN 978-0-8412-2861-0. Recuperado el 28 de agosto de 2019. La relativa simplicidad y los bajos requisitos de energía de los MOSFET han fomentado la revolución de las microcomputadoras actuales.
  86. ^ Fossum, Jerry G .; Trivedi, Vishal P. (2013). Fundamentos de los MOSFET de cuerpo ultrafino y los FinFET. Cambridge University Press . pág. vii. ISBN 978-1-107-43449-3. Recuperado el 28 de agosto de 2019 .
  87. ^ Marriott, JW (10 de junio de 2019). «Comentarios del director Iancu en la Conferencia Internacional de Propiedad Intelectual de 2019». Oficina de Patentes y Marcas de los Estados Unidos . Archivado desde el original el 17 de diciembre de 2019. Consultado el 20 de julio de 2019 .
  88. ^ "Dawon Kahng". Salón Nacional de la Fama de los Inventores . Archivado desde el original el 27 de octubre de 2019. Consultado el 27 de junio de 2019 .
  89. ^ "Martin Atalla en el Salón de la Fama de los Inventores, 2009". Archivado desde el original el 19 de septiembre de 2019. Consultado el 21 de junio de 2013 .
  90. ^ El triunfo del transistor MOS. Computer History Museum . 6 de agosto de 2010. Archivado desde el original el 18 de agosto de 2021. Consultado el 21 de julio de 2019 en YouTube.
  91. ^ "La desventurada historia de Geoffrey Dummer" Archivado el 11 de mayo de 2013 en Wayback Machine , (sin fecha), (HTML), Electronic Product News , consultado el 8 de julio de 2008.
  92. ^ Kilby, Jack (2000). «Nobel conference» (PDF) . Estocolmo: Fundación Nobel. Archivado (PDF) desde el original el 29 de mayo de 2008. Consultado el 15 de mayo de 2008 .
  93. ^ El chip que Jack construyó Archivado el 1 de mayo de 2015 en Wayback Machine , (c. 2008), (HTML), Texas Instruments, consultado el 29 de mayo de 2008.
  94. ^ Jack S. Kilby, Circuitos electrónicos miniaturizados, Oficina de Patentes de los Estados Unidos, Patente de EE. UU. 3.138.743, presentada el 6 de febrero de 1959, expedida el 23 de junio de 1964.
  95. ^ Winston, Brian (1998). Tecnología de los medios y sociedad: una historia: desde el telégrafo hasta Internet. Routledge. pág. 221. ISBN 978-0-415-14230-4. Recuperado el 6 de junio de 2020 .
  96. ^ Saxena, Arjun N. (2009). Invención de circuitos integrados: hechos importantes no contados. World Scientific . p. 140. ISBN 978-981-281-445-6. Recuperado el 28 de agosto de 2019 .
  97. ^ ab «Circuitos integrados». NASA . Archivado desde el original el 21 de julio de 2019. Consultado el 13 de agosto de 2019 .
  98. ^ Circuito unitario de Robert Noyce , patente estadounidense 2981877, "Estructura de dispositivo y conductor semiconductor", expedida el 25 de abril de 1961, asignada a Fairchild Semiconductor Corporation  .
  99. ^ "1959: Se patenta el concepto práctico de circuito integrado monolítico". Museo de Historia de la Computación . Archivado desde el original el 24 de octubre de 2019. Consultado el 13 de agosto de 2019 .
  100. ^ Frosch, CJ; Derick, L. (1957). "Protección de superficies y enmascaramiento selectivo durante la difusión en silicio". Revista de la Sociedad Electroquímica . 104 (9): 547. doi :10.1149/1.2428650.
  101. ^ US2802760A, Lincoln, Derick & Frosch, Carl J., "Oxidación de superficies semiconductoras para difusión controlada", publicado el 13 de agosto de 1957 . 
  102. ^ Moskowitz, Sanford L. (2016). Innovación en materiales avanzados: gestión de la tecnología global en el siglo XXI. John Wiley & Sons . p. 168. ISBN 978-0-470-50892-3.
  103. ^ Lécuyer, Christophe; Brook, David C.; Last, Jay (2010). Los creadores del microchip: una historia documental de Fairchild Semiconductor. MIT Press. págs. 62-63. ISBN 978-0-262-01424-3.
  104. ^ Claeys, Cor L. (2003). Integración de procesos ULSI III: Actas del Simposio Internacional. The Electrochemical Society . Págs. 27-30. ISBN 978-1-56677-376-8.
  105. ^ Lojek, Bo (2007). Historia de la ingeniería de semiconductores . Springer Science & Business Media . pág. 120. ISBN. 9783540342588.
  106. ^ ab Kuo, Yue (1 de enero de 2013). «Thin Film Transistor Technology—Past, Present, and Future» (PDF) . The Electrochemical Society Interface . 22 (1): 55–61. Bibcode :2013ECSIn..22a..55K. doi : 10.1149/2.F06131if . ISSN  1064-8208. Archivado (PDF) desde el original el 29 de agosto de 2017 . Consultado el 31 de julio de 2019 .
  107. ^ ab "La tortuga de transistores gana la carrera: revolución CHM". Museo de Historia de la Computación . Archivado desde el original el 10 de marzo de 2020. Consultado el 22 de julio de 2019 .
  108. ^ "1964 – Se presenta el primer circuito integrado MOS comercial". Museo de Historia de la Computación . Archivado desde el original el 22 de diciembre de 2015. Consultado el 31 de julio de 2019 .
  109. ^ "1968: Se desarrolla la tecnología de compuerta de silicio para circuitos integrados". Museo de Historia de la Computación . Archivado desde el original el 29 de julio de 2020. Consultado el 22 de julio de 2019 .
  110. ^ ab «1971: Microprocessor Integrates CPU Function onto a Single Chip». Museo de Historia de la Computación . Archivado desde el original el 12 de agosto de 2021. Consultado el 22 de julio de 2019 .
  111. ^ Colinge, Jean-Pierre; Greer, James C. (2016). Transistores de nanocables: física de dispositivos y materiales en una dimensión. Cambridge University Press . p. 2. ISBN 978-1-107-05240-6. Recuperado el 31 de julio de 2019 .
  112. ^ "El primer microprocesador de Intel: el Intel 4004". Intel Corp., noviembre de 1971. Archivado desde el original el 13 de mayo de 2008. Consultado el 17 de mayo de 2008 .
  113. ^ Patterson, David; Hennessy, John (1998). Organización y diseño de computadoras. San Francisco: Morgan Kaufmann . pp. 27–39. ISBN. 978-1-55860-428-5.
  114. ^ Federico Faggin , La creación del primer microprocesador, IEEE Solid-State Circuits Magazine , invierno de 2009, IEEE Xplore .
  115. ^ ab «7 mejoras sorprendentes en los smartphones con el chip Snapdragon 835 de Qualcomm». 3 de enero de 2017. Archivado desde el original el 30 de septiembre de 2019. Consultado el 5 de abril de 2019 .
  116. ^ Chartier, David (23 de diciembre de 2008). «Los envíos mundiales de portátiles finalmente superan a los de sobremesa». Ars Technica . Archivado desde el original el 4 de julio de 2017. Consultado el 14 de junio de 2017 .
  117. ^ IDC (25 de julio de 2013). «Según IDC, el crecimiento se acelera en los mercados mundiales de teléfonos móviles y teléfonos inteligentes en el segundo trimestre». Archivado desde el original el 26 de junio de 2014.
  118. ^ "Visor de Ngram de Google Libros". books.google.com .
  119. ^ "Visor de Ngram de Google Libros". books.google.com .
  120. ^ "Visor de Ngram de Google Libros". books.google.com .
  121. ^ "Visor de Ngram de Google Libros". books.google.com .
  122. ^ Eck, David J. (2000). La máquina más compleja: un estudio de las computadoras y la informática . AK Peters, Ltd. pág. 54. ISBN 978-1-56881-128-4.
  123. ^ Kontoghiorghes, Erricos John (2006). Manual de computación paralela y estadística . CRC Press. pág. 45. ISBN 978-0-8247-4067-2.
  124. ^ Verma y Mielke 1988.
  125. ^ Eadie, Donald (1968). Introducción a la informática básica . Prentice-Hall. pág. 12.
  126. ^ Barna, Arpad; Porat, Dan I. (1976). Introducción a las microcomputadoras y los microprocesadores. Wiley. pág. 85. ISBN 978-0-471-05051-3.
  127. ^ Peek, Jerry; Todino, Grace; Strang, John (2002). Aprendiendo el sistema operativo UNIX: Una guía concisa para el nuevo usuario. O'Reilly. p. 130. ISBN 978-0-596-00261-9.
  128. ^ Davis, Gillian M. (2002). Reducción de ruido en aplicaciones de voz . CRC Press. pág. 111. ISBN 978-0-8493-0949-6.
  129. ^ TOP500 2006, pág.  [ página necesaria ] .
  130. ^ Cragon, Harvey (2000). Arquitectura e implementación de computadoras. Cambridge University Press. pág. 5. ISBN 978-0-521-65168-4Archivado desde el original el 30 de julio de 2022 . Consultado el 10 de junio de 2022 .
  131. ^ Xu, Zhiwei; Zhang, Jialin (2021). Pensamiento computacional: una perspectiva sobre la informática. Singapur: Springer. pág. 60. ISBN 978-981-16-3848-0. Archivado del original el 30 de julio de 2022 . Consultado el 10 de junio de 2022 . Se denomina arquitectura de programa almacenado o modelo de programa almacenado, también conocida como arquitectura de von Neumann. Usaremos estos términos indistintamente.
  132. ^ Leach, Ronald J. (27 de enero de 2016). Introducción a la ingeniería de software. CRC Press. p. 11. ISBN 978-1-4987-0528-8. Recuperado el 26 de noviembre de 2022 .
  133. ^ Zhu, Hong (22 de marzo de 2005). Metodología de diseño de software: de los principios a los estilos arquitectónicos. Elsevier. pp. 47–72. ISBN 978-0-08-045496-2. Recuperado el 26 de noviembre de 2022 .
  134. ^ Leach, Ronald J. (27 de enero de 2016). Introducción a la ingeniería de software. CRC Press. p. 56. ISBN 978-1-4987-0528-8. Recuperado el 26 de noviembre de 2022 .
  135. ^ Knight, John (12 de enero de 2012). Fundamentos de computación confiable para ingenieros de software. CRC Press. p. 186. ISBN 978-1-4665-1821-6. Recuperado el 26 de noviembre de 2022 .
  136. ^ Brooks (Jr.), Frederick P. (1975). El mítico mes-hombre: ensayos sobre ingeniería de software. Addison-Wesley Publishing Company. ISBN 978-0-201-00650-6. Recuperado el 26 de noviembre de 2022 .
  137. ^ Sommerville, Ian (2007). Ingeniería de software. Pearson Education. Págs. 4-17. ISBN 978-0-321-31379-9. Recuperado el 26 de noviembre de 2022 .
  138. ^ "¿Por qué fallan las computadoras?". Scientific American . Archivado desde el original el 1 de mayo de 2018. Consultado el 3 de marzo de 2022 .
  139. ^ Taylor, Alexander L. III (16 de abril de 1984). «El mago dentro de la máquina». Time . Archivado desde el original el 16 de marzo de 2007. Consultado el 17 de febrero de 2007 .
  140. ^ Hughes, Agatha C. (2000). Sistemas, expertos y computadoras . MIT Press . pág. 161. ISBN. 978-0-262-08285-3La experiencia de SAGE ayudó a hacer posible la primera red comercial en tiempo real verdaderamente a gran escala: el sistema computarizado de reservas de aerolíneas SABRE .
  141. ^ Leiner, Barry M.; Cerf, Vinton G.; Clark, David D.; Kahn, Robert E.; Kleinrock, Leonard; Lynch, Daniel C.; Postel, Jon; Roberts, Larry G.; Wolf, Stephen (1999). "Una breve historia de Internet". arXiv : cs/9901011 .
  142. ^ "Definición de computadora". Thefreedictionary.com. Archivado desde el original el 26 de diciembre de 2009. Consultado el 29 de enero de 2012 .
  143. ^ Dumas II, Joseph D. (2005). Arquitectura informática: fundamentos y principios del diseño informático. CRC Press. pág. 340. ISBN 978-0-8493-2749-0. Recuperado el 9 de noviembre de 2020 .

Fuentes

  • Bowden, BV (1953). Más rápido que el pensamiento . Nueva York, Toronto, Londres: Pitman Publishing Corporation.
  • Berkeley, Edmund (1949). Cerebros gigantes o máquinas que piensan. John Wiley & Sons.
  • Bromley, Allan G. (1990). "Motores analíticos y de diferenciación". En Aspray, William (ed.). Computing Before Computers (PDF) . Ames: Iowa State University Press. págs. 59–98. ISBN 978-0-8138-0047-9. Archivado (PDF) del original el 9 de octubre de 2022.
  • Cohen, Bernard (2000). "Howard Aiken, retrato de un pionero de la informática". Physics Today . 53 (3). Cambridge, Massachusetts: The MIT Press: 74–75. Bibcode :2000PhT....53c..74C. doi : 10.1063/1.883007 . ISBN 978-0-262-53179-5.
  • Collier, Bruce (1970). La pequeña locomotora que podría haberlo hecho: las máquinas calculadoras de Charles Babbage. Garland Publishing. ISBN 978-0-8240-0043-1Archivado desde el original el 20 de enero de 2007 . Consultado el 24 de octubre de 2013 .
  • Couffignal, Luis (1933). Las máquinas de calculadora; nuestros principios, nuestra evolución . París: Gauthier-Villars.
  • Digital Equipment Corporation (1972). Manual del procesador PDP-11/40 (PDF) . Maynard, MA : Digital Equipment Corporation. Archivado (PDF) del original el 1 de diciembre de 2017 . Consultado el 27 de noviembre de 2017 .
  • Swade, Doron D. (febrero de 1993). "Redención de la computadora mecánica de Charles Babbage". Scientific American . 268 (2): 86–91. Bibcode :1993SciAm.268b..86S. doi :10.1038/scientificamerican0293-86. JSTOR  24941379.
  • Essinger, James (2004). La telaraña de Jacquard: cómo un telar manual dio origen a la era de la información . Oxford University Press. ISBN 978-0-19-280577-5.
  • Evans, Claire L. (2018). Broad Band: La historia no contada de las mujeres que crearon Internet. Nueva York: Portfolio/Penguin. ISBN 978-0-7352-1175-9. Recuperado el 9 de noviembre de 2020 .
  • Felt, Dorr E. (1916). Aritmética mecánica o la historia de la máquina contadora. Chicago: Washington Institute.
  • Ifrah, Georges (2001). La historia universal de la informática: del ábaco al ordenador cuántico. Nueva York: John Wiley & Sons. ISBN 978-0-471-39671-0.
  • Lavington, Simon (1998). Una historia de las computadoras de Manchester (2.ª ed.). Swindon: The British Computer Society. ISBN 978-0-902505-01-8.
  • Ligonnière, Robert (1987). Préhistoire et Histoire des ordinateurs . París: Robert Laffont. ISBN 978-2-221-05261-7.
  • Light, Jennifer S. (1999). "Cuando las computadoras eran mujeres". Tecnología y cultura . 40 (3): 455–483. doi :10.1353/tech.1999.0128. JSTOR  25147356. S2CID  108407884.
  • Meuer, Hans ; Strohmaier, Erich; Simon, Horst; Dongarra, Jack (13 de noviembre de 2006). «Architectures Share Over Time». TOP500 . Archivado desde el original el 20 de febrero de 2007 . Consultado el 27 de noviembre de 2006 .
  • Moseley, Maboth (1964). Genio irascible, Charles Babbage, inventor . Londres: Hutchinson.
  • Randell, Brian (1982). «From Analytical Engine to Electronic Digital Computer: The Contributions of Ludgate, Torres, and Bush» (PDF) . Archivado desde el original (PDF) el 21 de septiembre de 2013. Consultado el 29 de octubre de 2013 .
  • Schmandt-Besserat, Denise (1999). "Tokens: The Cognitive Significance". Documenta Praehistorica . XXVI . Archivado desde el original el 30 de enero de 2012.
  • Schmandt-Besserat, Denise (1981). "Desciframiento de las primeras tablillas". Science . 211 (4479): 283–285. Bibcode :1981Sci...211..283S. doi :10.1126/science.211.4479.283. PMID  17748027.
  • Smith, Erika E. (2013). "Reconociendo una herencia colectiva a través de la historia de las mujeres en la informática". CLCWeb: Literatura y cultura comparadas . 15 (1): 1–9. doi : 10.7771/1481-4374.1972 .
  • Verma, G.; Mielke, N. (1988). Rendimiento de confiabilidad de memorias flash basadas en ETOX . Simposio Internacional de Física de Confiabilidad del IEEE.
  • Zuse, Konrad (1993). La Computadora – Mi vida . Berlín: Pringler-Verlag. ISBN 978-0-387-56453-1.
  • Medios relacionados con Computadoras en Wikimedia Commons
  • Wikiversidad tiene un cuestionario sobre este artículo

Obtenido de "https://es.wikipedia.org/w/index.php?title=Computadora&oldid=1255745129"