Historia de la Computación

Las primeras máquinas de calcular

Los primeros vestigios de cálculo realizado por medios artesanalmente mecánicos, por decirlo de algún modo, se remontan a 3000 años antes de Cristo (AC). Los Babilonios que habitaron en la antigua Mesopotamia, empleaban unas pequeñas bolas hechas de semillas o pequeñas piedras, a manera de «cuentas» y que eran agrupadas en carriles de caña.

Más aún, en 1800 AC un matemático babilonio inventó los algoritmos que le permitieron resolver problemas de cálculo numérico (Algoritmo: conjunto ordenado de operaciones propias de un cálculo). El intercambio comercial y las conquistas bélicas entre los pueblos del mundo antiguo, permitieron que el invento de los Babilonios, se transmitiesen a otros grupos culturales a través del tiempo, permitiendo de este modo que con los aportes respectivos, se mejorasen sus diseños.

El Ábaco

La palabra Ábaco proviene del griego ABAX que significa una tabla o carpeta cubierta de polvo. Este dispositivo en la forma moderna en que la conocemos, fue sujeto de varios cambios y evoluciones en su técnica de calcular. Los chinos perfeccionaron este dispositivo, al cual le agregaron un soporte tipo bandeja, poniéndole por nombre Sahún-pan. El Ábaco permite realizar sumar, restar, multiplicar y dividir. Actualmente está compuesto por 10 columnas con 2 bolillas en la parte superior 5 en la parte inferior.

Los Japoneses copiaron el ábaco chino y lo re-diseñaron totalmente a 20 columnas con 1 bolilla en la parte superior y 10 en la inferior, denominándolo Soroban.En la antigua Roma, se creo un tablero de cera cubierta con arena, una tabla rayada o un tablero o tabla con surcos. A finales de la edad media los mongoles llevaron el ábaco a Rusia.

En 1946, un contador japonés de nombre Kiyoshu Matzukai, quien era un experto en el uso del Ábaco, se enfrentó en un concurso contra una computadora de la época durante dos días completos, resultando como ganador indiscutible el Japonés.

Actualmente el antiguo ábaco se emplea como método de enseñanza en las escuelas de los países orientales, aunque es usado regularmente en muchos de lugares del mundo, particularmente en los pequeños negocios de los barrios chinos (Chinatowns) en los Estados Unidos de América y Canadá.

John Napier (1550-1617)

En el siglo XVII, el creciente interés, en Europa, por las nuevas ciencias, tales como la astronomía y la navegación, impulsó en los estudiosos la necesidad de buscar formas para simplificar los cálculos. En 1614 a trea años de su muerte, el escocés John Napier anunció su descubrimiento de los logaritmos descrito en Mirifici logarithmorum canonis descriptio, permitiendo que los resultados de complicadas multiplicaciones se redujeran a un proceso de simple suma, luego inventó sistemas mecánicos para realizar cálculos aritméticos, descritos en Rabdologiae seu numerationis per virgulas libri duo (1617). Muy poco después, en los años 20 del mismo siglo, se inventó la regla de cálculo, basada en los principios matemáticos descubiertos por Napier.

Pascal, Blaise (1623-1662)

Filósofo, matemático y físico francés, nació en Clermont-Ferrand el 19 de junio de 1623, vivió en París a partir de 1629. Bajo la tutela de su padre, Pascal pronto se manifestó como un genio de las matemáticas, y a la edad de 16 años formuló uno de los teoremas básicos de la geometría proyectiva, conocido como el teorema de Pascal y descrito en su Ensayo sobre las cónicas (1639).

En 1642 crea una máquina mecánica de sumar, tenia el mecanismo de los cuenta kilómetros que utilizan en la actualidad los automóviles. Inventa la primera máquina mecánica para calcular, la Sumadora, una máquina que sólo sumaba fue creada con el objetivo de ayudar a su padre que era un recolector de impuestos pero su trabajo fue un fracaso financiero, ya que eran unas máquinas muy costosas y dedicadas que sólo podían ser arregladas por Pascal a esta máquina se le llamo Pascalina.

Leibniz, Gottfried Wilhelm (1646-1716)

Es el mismo barón Gottfried Wilhelm von Leibniz. Filósofo, matemático y estadista alemán, nació en Leipzig, estudió en las universidades de esta ciudad, de Jena y de Altdorf. Fue premiado con un doctorado en leyes en 1666, este año trabajó para Johann Philipp von Schönborn, arzobispo elector de Maguncia, en tareas legales, políticas y diplomáticas.

En 1694, Leibnitz logra que la máquina de Pascal realice las cuatro operaciones básicas pero en 1671 LEIBNITZ le agregó la posibilidad de: restar, sumar, multiplicar, dividir y calcular la raíz cuadrada. Su máquina estaba formada sobre ruedas dentadas, cada una de estas ruedas tenía diez dientes, éstos correspondían a los números de 0 al 9.

Los conceptos de esta máquina se utilizaron mucho tiempo, pero éstas calculadoras exigían intervención del operador, ya que éste debía escribir cada resultado parcial en una hoja de papel. Esto era sumamente largo y por lo tanto podría producir a errores en los informes.

Joseph Marie Jacquard (1753-1834 (Corrección Eduardo Lemus))

En 1804, Joseph Jacquard fue un tejedor que pasaba su tiempo libre mejorando sus condiciones de trabajo, empezó a trabajar en un telar que podía crear diferentes diseños en telas por medio de tarjetas perforadas estos se conocieron como telares de Jacquard, las tarjetas perforadas permitian controlar la creación de complejos diseños textiles, La misma técnica se utilizaría posteriormente en pianolas y organillos, que empleaban Tarjetas perforadas para copiar música de piano, tanto clásica como popular su maquina fue quemada por la competencia, ya que su producción era mayor, luego la reconstruye a las afueras de París.

Charles Babbage, (1792-1871)

Inventor y matemático británico que diseñó y construyó máquinas de cálculo basándose en principios que se adelantaron al moderno computador electrónico. Babbage nació en Teignmouth, Devon, y estudió en la Universidad de Cambridge. Ingresó en la Real Sociedad en 1816 y participó en la fundación de la Sociedad Analítica, la Real Sociedad de Astronomía y la Sociedad de Estadística.

En la década de 1820, Babbage comenzó a desarrollar su máquina diferencial, una máquina que podía realizar cálculos matemáticos sencillos. En la década de 1830, comenzó a desarrollar su máquina analítica, que fue diseñada para llevar a cabo cálculos de propósito general, pero esta máquina no la terminó a pesar que le dedico 20 años. Esta seria capaz de realizar una suma en segundos y necesitaba un mínimo tiempo de atención del operador.

La máquina analítica, aunque concebida mucho tiempo antes de que surgiese la tecnología electrónica, debía ser capaz de almacenar instrucciones, realizar operaciones matemáticas y utilizar tarjetas perforadas como sistema de almacenamiento permanente. En 1997 unos científicos británicos que siguieron los dibujos y las especificaciones detalladas de Babbage, construyeron esa máquina analítica, la máquina funcionaba a la perfección y hacía cálculos exactos con 31 dígitos, lo que demostraba que el diseño de Babbage era correcto.

El libro de Babbage, Tratado de economía de máquinas y de manufacturas (1832), inició el campo de estudio conocido actualmente como investigación operativa. La primera mujer programadora fue ADA AUGUSTA BYRON (1815 – 1852) se interesó por los descubrimientos de BABBAGE a quién ayudó en los estudios de esta gran filosofía.

Hollerith, Hermann (1860-1929)

Inventor estadounidense nació en Buffalo (Nueva York), estudió en la Universidad de Columbia. Inventó un método de codificación de datos en fichas o tarjetas en las que mediante perforaciones se inscriben datos numéricos o alfabéticos, contratado por la oficina del censo de los Estados Unidos en la tabulación del conteo de personas en el censo de 1880, en 1887 desarrolló su concepto de tarjeta de lectura mecánica perforada y diseño un dispositivo conocido como la «máquina del censo».

Antes de utilizarse el equipo de tarjetas perforadas, los censo se realizaban en forma lenta. La primer operación de procesamiento de datos fue lograda en 1890, desarrolló un sistema mecánico para calcular y agrupar datos de censos. El nuevo sistema se basaba en tarjetas perforadas. Lo utilizaron en el censo de población en Estados Unidos en donde se logró por primera vez, que los resultados fueran conocidos a los dos años y medio, mientras que el censo anterior se tardó siete años para conocer estos datos.

Este sistema resultó ser de gran utilidad en trabajos estadísticos y fue muy importante en el desarrollo de computadoras digitales, leía la información a través de unos contactos eléctricos. Creó la Tabulating Machine Company (1896), que está considerada como una predecesora de la IBM (International Business Machines Corporation).

En los años 1940 se trabajó con relés para la conmutación y en los años 1950 se utilizó los tubos de vacío, pero sus desventajas, debían llevar a otra solución esa solución fue el transistor, es aquí donde esta el verdadero avance de los computadores el resto se veía llegar y con ello la llegada de los oportunistas y mercaderes de la computación.

William Bradford Shockley (1910-1989), Walter Houser Brattain (1902-1987) y John Bardeen (1908-1991)

Shockley, físico estadounidense, premiado con el Nobel y coinventor del transistor. Nació en Londres de padres estadounidenses. Trabajó en los laboratorios de la Compañía Telefónica Bell de 1936 a 1956 pasa por ser el impulsor y director del programa de investigación de materiales semiconductores que llevó al descubrimiento de este grupo de dispositivos, en 1956 fue nombrado director de la Shockley Transistor Corporation en Palo Alto, California.

Dio conferencias en la Universidad Stanford desde 1958 y fue profesor de ingeniería en 1963. Sus investigaciones sobre los semiconductores le llevaron al desarrollo del transistor en 1948. Por esta investigación compartió en 1956 el Premio Nobel de Física con Walter Houser Brattain y John Bardeen. Con posterioridad publicó varios polémicos ensayos en los que argumentó que la inteligencia es ante todo hereditaria.

En 1972 John Bardeen, compartió nuevamente el Premio Nobel de Física con los físicos estadounidenses Leon N. Cooper y John R. Schrieffer por el desarrollo de una teoría que explica la superconductividad, es decir, la desaparición de la resistencia eléctrica en ciertos metales y aleaciones a temperaturas cercanas al cero absoluto. Bardeen fue el primer científico que ganó dos premios Nobel en la misma disciplina.

Vannevar Bush, (1890-1974)

Norteamericano, científico, educador y administrador estadounidense, nació en Everett (Massachusetts) y estudió en el Tufts College de la Universidad de Harvard y en el Instituto de Massachusetts de Tecnología (MIT). Durante la I Guerra Mundial sirvió en la Marina de Estados Unidos como ingeniero.

De 1919 a 1971 Bush tuvo diversos cargos docentes y administrativos en el MIT y en la Institución Carnegie de Washington. Durante su estancia en el MIT, Bush inventó el analizador diferencial, un aparato para resolver rápida y automáticamente problemas matemáticos, precursor del moderno computador.

Bush es más conocido por sus trabajos en el Comité de Investigación para la Defensa, del que fue presidente en la oficina de Investigación y Desarrollo Científico, que dirigió durante la II Guerra Mundial, y en el departamento de Investigación y Desarrollo del Ejército y la Marina.

Turing, Alan Mathison (1912-1954)

En 1936, el científico independiente Alan Turing, de Gran Bretaña, captó la atención de los científicos con un trabajo que sobre un estudio de los números y las computadoras, propuso, soluciones a problemas hasta entonces no resueltos, publicó un ensayo titulado On Computable Numbers (Sobre números calculables), con el que contribuyó a la lógica matemática al introducir el concepto teórico de un dispositivo de cálculo que hoy se conoce como la máquina de Turing.

ENIAC 1943

La primera computadora totalmente electrónica fue la ENIAC (Electric Numeric Integrator And Calculator), fue construida en 1943 y 1945 por JOHN MANCHI. Estaba construida con casi 18,000 válvulas era enorme la energía que consumía y el calor que producía. Esto hacia que las válvulas se quemaran rápidamente y que las casa de alrededor tuvieran cortes de luz.

Mark I

La Segunda Guerra Mundial vio a Alemania y a los otros países occidentales en competencia por desarrollar una mayor velocidad de cálculo, junto a un aumento de la capacidad de trabajo, para así lograr decodificar los mensajes enemigos. En respuesta a su presión EE.UU., desarrolló en Harvard el enorme computador Mark I, con una altura de 2,5 m, inspirado por las ideas de Babbage, el Mark I se dedicó a problemas balísticos de la Marina. En Alemania, se estaba comprobando las aerodinámicas proyectadas en el computador .

Los computadores sin el transistor, serian los dinosaurios sin evolución.

A continuación se desarrolló el circuito integrado o «IC» que pronto recibiría el sobrenombre de «chip». Se atribuye el mérito de este invento a Robert Noyce. La fabricación del microchip 6,45 mm2 (la décima parte de una pulgada cuadrada), pronto fue seguida por la Capacidad de integrar hasta 10 transistores miniaturizados y eventualmente 1.000 piezas varias en el mismo espacio.

Alrededor de 1971, el microprocesador había sido desarrollado por la nueva compañía de Noyce, Intel. Esta novedad colocó en un finito microchip los circuitos para todas las funciones usuales de un computador. Fueron integrados ahora en el chip en una serie de delgadísimas capas. Esto hizo que la computación fuera más rápida y más flexible, al tiempo que los circuitos mejorados permitieron al computador realizar varias tareas al mismo tiempo y reservar memoria con mayor eficacia.

La contribución de estos inventos ha sido incalculable en cuanto a la disponibilidad de Computadoras personales de difícil uso. Los Usuarios dan por hecho rápidas y fiables respuestas a sus comandos, y un gran almacenamiento de memoria, tanto en términos de memoria de trabajo RAM como en espacio de almacenamiento en disco duro para trabajos terminados.

Los pioneros cuentan cómo en los años 60, cuando utilizaban sistemas centrales, estaban limitados a 4 K de memoria de trabajo, aproximadamente 1.5 páginas escritas. Escribiendo programas, tenían que mantener las líneas de instrucciones cortas; sus comandos. Eran enviados por dispositivos de memoria que só1o podían retener una cantidad limitada de información antes de que se perdiera.

El problema del Sistema Operativo.

La computadora, es un conjunto de piezas que muestra resultados acordes con el software que le ponemos. Cuando una computadora arranca, necesita de un programa base para comenzar a operarla, un software que contenga los pasos básicos le permita copiar y ejecutar los programas que tiene. Este software básico o de arranque se llama Sistema Operativo.

La PC que lanzó IBM (años 1979/1980), venia con un sistema operativo propio denominado por esa empresa como OS, (iniciales de Operative System) ocupaba varios disquetes y tenia un costo adicional elevadísimo; obviamente la PC no funcionaba sin el, Acabando el año 1980, IBM se puso en contacto con Traf-O-Data lo que ahora es microsoft, de Bill Gates, y le expuso que estaba desarrollando su propio ordenador personal de 8 bits, al estilo del Apple. IBM deseaba que microsoft portara su BASIC y se incluyera en la ROM de su nuevo ordenador, B. Gates estaba convencido, y convenció a IBM, de que el futuro de los ordenadores personales estaba en los 16 bits (hasta hace poco siguia convencido).

Nadie sabía de que hubiera un sistema operativo de 16 bits. Unicamente un ingeniero de Seattle Computer Products, Tim Patterson, había desarrollado una tarjeta basada en un nuevo procesador de Intel, el 8086 de 16 bits, y requería un nuevo software que Patterson desarrolló a partir del CP/M (Control Program/ Monitor), en realidad Gary Kindall desarrolló CP/M para poder ejecutar el lenguaje de programación PL/1 en la memoria del 8080 cuando trabajaba para Intel, Intel no le dio importancia alguna a CP/M y cedió los derechos a Kindall, este fundó Intergalactic Digital Research. Luego, por razones obvias, dejó el nombre de la empresa como Digital Research, el DOS heredó muchísimas características del CP/M.

Originalmente Patterson le llamó QDOS, Quick and Dirty Operating System (Rápido y Sucio Sistema Operativo). Conservó las estructuras fundamentales del CP/M, a fin que la traducción de los programas CP/M a QDOS fuera rápida y fácil. Añadió un control de dispositivos llamado FAT, File Allocation Table (Tabla de Localización de Ficheros) que Gates había desarrollado para su BASIC de disco del Altair que aun hoy permanece vigente.

Gary Kindall, el fundador de Digital Research, estaba a punto de comprar una versión de BASIC de un competidor de Microsoft cuando le propusieron desde IBM que desarrollase una versión de 16 bits del CP/M, las claúsulas de no divulgación de IBM respecto a Digital Research puede que no le gustaran mucho a G. Kindall. Puede que a B. Gates no le gustara mucho la maniobra de G. Kindall de incluir en el CP/M-86 un BASIC que no fuera el suyo (conociendo las maniobras posteriores de B. Gates, la historia se inclina por esta versión).

Lo cierto es que La computadora debía salir a la venta a mediados de 1981. Gates recordó que Tim Paterson de la firma Seattle Computers había creado el Q-DOS (Quick n’ Dirty Operating System). Gates fue a hablar con Patterson y le preguntó si sería posible facilitarle la licencia a un cliente. Este acepto sin saber de qué clientes se trataba y cambiándole las condiciones iniciales del contrato no se sabe si es un buen negocio o fue un atraco y un juego de mala fe, yo digo un atraco, robo como los robos que hace micro$oft vendiendo versiones de software que siempre tienen fallas y grandes fallas bueno sigamos.

Luego siguieron negociando y finalmente Microsoft adquirió todos los derechos del Q-DOS por unos cuantos dólares (50.000). Le cambió el nombre por MS-DOS (microsoft Disk Operating System) y se lo ofrecieron a IBM junto con el BASIC más los desarrollos que se hicieran de FORTRAN, COBOL, Pascal y el ensamblador 8086, en noviembre de 1980 IBM aceptó, y aunque estaba repleta de errores esta versión salió a la venta en julio de 1981.

microsoft ha dado por finalizada la vida útil del MS-DOS. A finales de 1995 presentó el muy esperado Windows’95. Pese a las espectativas surgidas gracias a las versiones betas del que sería Windows’95 (se denominaron Chicago) la versión definitiva del Windows’95 defraudó al público especializado. Pese a dar por muerto al DOS, Windows sigue dependiendo de él para arrancar y para sorpresa de todos el MS-DOS, en su versión 7 sigue vivo hasta su ultima versión XP así se niegue.

LINUX

LINUX hace su aparicion a principios de la decada de los noventa, era el año 1991 y por aquel entonces un estudiante de informatica de la Universidad de Helsinki, llamado Linus Benedict Torvalds empezo como una aficion y sin poderse imaginar a lo que llegaria este proyecto, a programar las primeras lineas de codigo de este sistema operativo llamado LINUX.

Aqui tienes el primer mensaje que Linus Torvalds mando al grupo de noticias comp.os.minix:

From:torvalds@klaava.Helsinki.FI (Linus Benedict Torvalds)
Newsgroup: comp.os.minix
Subject: GCC-1.40 and a posix question
Message-ID: 1991Jul13, 100050.9886@klaava.Helsinki.FI
Date: 3 Jul 91 10:00:50 GMT

Hello netlanders,
Due a project I’m working on (in minix), I’m interested
in the posix standard definition. Could somebody please
point me to a (preferably) machine-readable format of the
latest posix rules? Ftp-sites would be nice.

Linux Torvalds torvalds@kruuna.helsinki.fi

Y aqui el que le siguio, este mensaje es considerado por muchos como el comienzo de Linux:

From:torvalds@klaava.Helsinki.FI (Linus Benedict Torvalds)
Newsgroup: comp.os.minix
Subject: What would you like to see most in minix?
Summary: small poll for my new operating system
Message-ID: 1991Aug25, 20578.9541@klaava.Helsinki.FI
Date: 25 Aug 91 20:57:08 GMT
Organization: University of Helsinki.

Hello everybody out there using minix-

I’m doing a (free) operating system (just a hobby, won’t
be big and professional like gnu) for 386(486) AT clones.
This has been brewing since april, and is starting to get ready.
I’d like any feedback on things people like/dislike in minix;
as my OS resembles it somewhat (same physical layout of the
file-sytem due to practical reasons) among other things.

I’ve currently ported bash (1.08) an gcc (1.40), and things seem to work.
This implies that i’ll get something practical within a few months, and I’d like to know what features most people want. Any suggestions are welcome, but I won’t promise I’ll implement them :-)

Linux Torvalds torvalds@kruuna.helsinki.fi

Este comienzo estuvo inspirado en MINIX, un pequeño sistema Unix desarrollado por Andy Tanenbaum. Las primeras discusiones sobre Linux fueron en el grupo de noticias comp.os.minix, en estas discusiones se hablaba sobre todo del desarrollo de un pequeño sistema Unix para usuarios de Minix que querían mas.

Linus nunca anuncio la versión 0.01 de Linux (agosto 1991), esta versión no era ni siquiera ejecutable, solamente incluía los principios del núcleo del sistema, estaba escrita en lenguaje ensamblador y asumía que uno tenia acceso a un sistema Minix para su compilación.

El 5 de octubre de 1991, Linus anuncio la primera versión «Oficial» de Linux, -versión 0.02. Con esta versión Linus pudo ejecutar Bash (GNU Bourne Again Shell) y gcc (El compilador GNU de C) pero no mucho mas funcionaba. En este estado de desarrollo ni se pensaba en los términos soporte, documentación, distribución ….., después de la versión 0.03, Linus salto en la numeración hasta la 0.10, mas y mas programadores a lo largo y ancho de Internet empezaron a trabajar en el proyecto y después de sucesivas revisiones, Linus incremento el numero de versión hasta la 0.95 (Marzo 1992). Mas de un año después (diciembre 1993) el núcleo del sistema estaba en la versión 0.99 y la versión 1.0 no llego hasta el 14 de marzo de 1994.

La serie del núcleo 2.4.x se libera en el 2001 y sigue avanzando dia a dia con la meta de perfeccionar y mejorar el sistema. El núcleo Linux ahora soporta hasta 64 Gb de RAM, sistemas de 64 bits, dispositivos USB y un sistema de archivos journaling.

El núcleo 2.6 de Linux es liberado en el 2003, Linus Torvalds va a trabajar para el OSDL. Linux se implementa exitosamente sobre sistemas embebidos o integrados (embedded system).

En el 2007 Dell es el primer gran fabricante de computadoras en vender una PCs con Ubuntu preinstalado.

En mayo de 2011 aparece la serie 3.x, Linus Torvalds anunció que la versión 3 contaría con soporte de más hardware y que sería la siguiente versión a Linux 2.6.39., en la version 3.3 del kernek de Linux viene integrada con el código de Andriod, esto permitirá a los desarrolladores usar el kernel de Linux para ejecutar un sistema Android, crear drivers para el kernel de Android o de Linux

Y Linux sigue……

Generaciones del Hardware:

-. Primera Generación (1946-1956): Se basa en la tecnología del bulbo (tubos), para almacenar y procesar la información, los cuales consumian mucha energía y generaban una gran cantidad de calor. Las computadoras de esta generación tenian una capacidad muy limitada en cuanto a memoria y procesamiento.Se caracterizó por maquinas muy grandes y pesadas. Muy lentas en sus procesos, tanto que la resolución de programas largos implicaba varios días de espera. Pese a todo fue muy útil pues podía resolver 5.000 cálculos por segundo.

-. Segunda Generación (1957-1963): Se Llamaba de los transistores y sistemas en Lote. Se reemplazaron los bulbos (tubos), por transistores para almacenar y procesar información. Los transistores eran más estables y confiables, generaban menos calor y consumían menos energía. la principal desventaja de los transistores eran que tenían que construirse individualmente y montarse en una tarjeta de circuito.
La forma de almacenamiento en esta generación fue la memoria de núcleos magnéticos. Con eso se pudo reducir el tamaño de los computadores y aumentar su velocidad de trabajo. Aunque todavía eran un poco lentas .

-. Tercera generación (1964-1979): Se llama de circuitos integrados y de multiprogramación. Se crearon los circuitos integrados los cuales eran fabricados al imprimir primero cientos y después miles de pequeños transistores en pequeñas placas de silicon. Estos dispositivos fueron llamados semiconductores. El gran descubrimiento de este periodo fueron los circuitos integrados denominados CHIP. El circuito integrado consiste en un gran número de componentes electrónicos (transistores, resistencias, etc.) miniaturizados y encapsulados en un espacio de pocos centímetros. Este descubrimiento produjo grandes cambios en cuanto al tamaño de las computadoras; en velocidad, en compatibilidad, e introduciendo nuevas técnicas de programación. Gracias a la gran capacidad de procesamiento se hizo posible el desarrollo del software y sistemas operativos.

-. Cuarta generación (1980- 1990): Se la denomina de computadora personal o de computadora hogareña. Esta generación nos muestra computadoras que emplean circuitos integrados a muy grande escala. En esta época encontramos computadoras para uso industrial y personal las cuales requieren de un espacio mínimo y con una gran capacidad de almacenamiento y velocidad, de esta forma muchas familias comenzaron a tener computadoras en sus casas.

-. Quinta Generación (1990 – Hasta la Fecha): En la actualidad los piases más adelantados, entre los que figuran Japón y Estados Unidos están investigando y produciendo, los primeros prototipos de nuevos computadores que formaran la Quinto Generación. Estos tendrán la capacidad de realizar deducciones empleando el lenguaje del hombre. Esta Quinta generación que recién comienza se denominará: Computadora inteligente o inteligencia artificial

Bibliografía: Aaron Thies, Linus Torvalds, Lars Wirzenius ,Mark P. Nelson, J. Richard Sladkey, Jonathan Magid, Lee Nevo, el rincón de Linux.

Los comentarios están cerrados.