Historia de la computación:
*1823: Charles Babbage: Maquina analítica
*1939: John Atanasoff: ABC: computador digital programable
*1943: Alan Turin Colossus: Computadora digital electrónica
*1946: Jhon Mauchly: ENIAC: Maquina que calcula Trayectorias
*1951: Mauchly y Eckert: UNIVAC I: Computadora comercial de propósito general
*1952: Primer compilador
*1956: Aparecen transistores
*1964: Basic: lenguaje de programación
*1965: Gordon Moore: INTEL: Chips de silicio
*1971: Surge microprocesador
*1973: Protocolo de Internet
Generación de computadores:
Primera Generación:
-Estas fueron usadas para fines militares durante la segunda Guerra Mundial.
-Los computadores funcionaban en base a tubos al vació para el procesamiento de información
-se usaba el sistema binario para representar los datos
-Usaban tarjetas perforadas para ingresar la información
-Eran muy grandes, gastaban una gran cantidad de electricidad y muy costosas
Segunda Generación:
-Se remplazaron los tubos al vació por Transitorios los cuales eran mas pequeños y mas rápidos de procesar que los tubos al vació.
-Se crearon nuevos lenguajes de programación COBOL y FORTRAN.
-Se diseñaron computadores mas pequeños y rápidos.
Tercera Generación:
-Se desarrollaron circuitos integrados o también conocidos como chips los cuales almacenan y procesan la información.
-gracias al chip la velocidad de procesos aumento ,el tamaño y precios de computadores disminuyo.
Cuarta Generación:
-Desarrollo de Microprocesadores los cuales son circuito dentro de chip.
-Se Desarrollaron computadoras personales.
Quinta Generación:
-Desarrollo de micro computadoras y supercomputadoras
-Robotica
-I.A (Inteligencia Artificial)
Es el estudio automatizado del procesamiento de la información, nació por la necesidad de procesamiento de grandes volúmenes de información esto llevo a crear maquinas capaces de procesar dicha información, pero estas maquinas necesitaban una parte lógica que las hiciera capaces de procesar tales cantidades de información , es así como se crean los lenguajes de programación que son un conjunto de rutinas y algoritmos que secuencian una solución.
¿Que es un algoritmo?
Un algoritmo son las secuencias de pasos que se llevan a cabo para llegar a una solución en informática son una recurso muy útil y frecuentemente utilizado en la programación.
Los algoritmos son usados en la vida cotidiana sin que nos demos cuenta cada vez que se realiza una rutina, cada vez que planteamos hacer una determinada acción nuestro cerebro planea consciente o inconscientemente los pasos que debemos seguir, de esta forma estamos ocupando un algoritmo.
En la informática donde se ocupan de manera reiterada los algoritmos, es en la programación ya que los programas contienen algoritmos que son ejecutados y llevan ala solución de una acción deseada por el programador.
No hay comentarios:
Publicar un comentario