Historia de la informática
La informática, es la ciencia que da tratamiento automático a la información. Se llama ordenador, computadora, computador o PC, a un dispositivo electrónico capaz de recibir y almacenar información, ordenarla y hacer operaciones lógicas y matemáticas a muy alta velocidad. Se puede utilizar para elaborar documentos, enviar y recibir correo electrónico, dibujar, crear efectos visuales y sonoros, maquetación de folletos y libros, manejar la información contable en una empresa, tocar música, controlar procesos industriales y jugar. La computadora no es invento de alguien en particular, sino el resultado de ideas y realizaciones de muchas personas relacionadas con la electrónica, la mecánica, los materiales semiconductores, la lógica, el álgebra y la programación. Los primeros vestigios de cálculo, por ejemplo, se remontan a 3000 años antes de Cristo (AC). Los babilonios que habitaron en la antigua Mesopotamia empleaban semillas o pequeñas piedras a manera de "cuentas" agrupadas en carriles de caña. La palabra cálculo, que significa piedrecilla, empleada hoy en matemáticas y medicina, tiene su origen en el hecho de que antiguamente se usaron piedras pequeñas como elemento natural para contar. En medicina se usa para indicar que alguien tiene en el riñón, por ejemplo, formaciones sólidas a manera de piedrecillas. Posteriormente, en el año 1800 AC, un matemático babilónico inventó los algo- ritmos que permitieron resolver problemas de cálculo numérico. Algoritmo es un conjunto ordenado de operaciones propias de un cálculo. 500 años AC los egipcios inventaron el ábaco, un dispositivo para calcular, basado en bolillas atravesadas por alambres; su nombre proviene del griego abax, o abakos, que significa tabla o carpeta cubierta de polvo. Posteriormente, a principios del segundo siglo DC, los chinos perfeccionaron este dispositivo, al cual le agregaron un soporte tipo bandeja, poniéndole por nombre Saunpan. Con un ábaco se puede sumar, restar, multiplicar y dividir. En el siglo 16, John Napier (1550-1617), matemático escocés famoso por su invención de los logaritmos, unas funciones matemáticas que permiten convertir las multiplicaciones en sumas y las divisiones en restas, inventó un dispositivo de palillos con números impresos que, merced a un ingenioso y complicado mecanismo, le permitía realizar operaciones de multiplicación y división. En 1642 el físico y matemático francés Blaise Pascal (1623-1662) inventó el primer calculador mecánico. A los 18 años de edad, deseando reducir el trabajo de cálculo de su padre, funcionario de impuestos, fabricó un dispositivo de 8 ruedas dentadas en el que cada una hacía avanzar un paso a la siguiente cuando completaba una vuelta. Estaban marcadas con números del 0 al 9 y había dos para los decimales, con lo que podía manejar números entre 000000,01 y 999999,99. Giraban mediante una manivela, con lo que para sumar o restar había que darle el número de vueltas correspondiente en un sentido o en otro. En 1672 el filósofo y matemático alemán Leibnitz (1646-1716) inventó una máquina de calcular que podía multiplicar, dividir y obtener raíces cuadradas en sistema binario. A los 26 años aprendió matemáticas de modo autodidacta y procedió a inventar el cálculo infinitesimal, honor que comparte con Newton. En 1801 el francés Joseph Jacquard (1752-1834), hijo de un modesto obrero textil, utilizó un mecanismo de tarjetas perforadas para controlar el dibujo formado por los hilos de las telas confeccionadas por una máquina de tejer. Estas plantillas o moldes metálicos perforados permitían programar las puntadas del tejido, logrando obtener una diversidad de tramas y figuras. En 1822 Charles Babbage, matemático e inventor inglés, ideó una máquina que algunos toman como la primera máquina computadora. Hacía operaciones aritméticas y cálculos diversos por medio de un mecanismo de entrada y salida con tarjetas perforadas, una memoria, una unidad de control y una unidad aritmético-lógica. Una de sus características más importantes era que Podía alterar su secuencia de operaciones basándose en el resultado de cálculos anteriores, algo fundamental en los computadores actuales. Charles Babbage fue maestro de Augusta Ada Byron (1815-1851), condesa de Lovelace, hija del poeta Inglés Lord Byron. Se reconoce a Ada Byron como la primera persona en escribir un lenguaje de programación de carácter general, interpretando las ideas de Babbage. Un poco antes de 1870, William Thomson Kelvin, matemático y físico escocés, inventor de las llantas usadas en bicicletas y autos, y también muy estudioso del fenómeno del calor, había elaborado la teoría de una máquina capaz de resolver ecuaciones diferenciales, pero sólo fue construida 50 años más tarde, en 1925, por Vannevar Bush, un ingeniero eléctrico nacido en Massachusetts (Estados Unidos). En 1879, a los 19 años de edad, Herman Hollerith fue contratado como asistente en las oficinas del censo norteamericano y desarrolló un sistema de cómputo mediante tarjetas perforadas en las que los agujeros representaban el sexo, la edad, raza, etc. Gracias a la máquina de Hollerith el censo de 1890 se realizó en dos años y medio, cinco menos que el censo de 1880. Hollerith dejó las oficinas del censo en 1896 para fundar Tabulating Machine Company. En 1900 había desarrollado una máquina que podía clasificar 300 tarjetas por minuto (en vez de las 80 cuando el censo), una perforadora de tarjetas y una máquina de cómputo semiautomática. En 1924 fusionó su compañía con otras dos para formar la International Business Machines hoy mundialmente conocida como IBM. 1900: Comienzo de la física cuántica. A finales del siglo 19 los científicos estaban intrigados por el comportamiento de los cuerpos negros, los cuales, según la física que conocían, absorbían y radiaban energía en toda la gama de frecuencias, cosa que no ocurre con los cuerpos de color. Suponían que la energía era emitida a manera de flujo continuo, mayor o menor según la frecuencia de radiación electromagnética y la cantidad de calor en el cuerpo, pero estaban equivocados. En 1900 el físico teórico alemán Max Planck aceptó la teoría electromagnética de la luz, que sostenía que la luz era un fenómeno ondulatorio y que la materia que se suponía que contenía pequeños cuerpos cargados eléctricamente, o partículas irradiaba energía en la forma de ondas de luz cuando esas partículas cargadas eran aceleradas. Con el objetivo de estudiar la radiación de un cuerpo negro, Planck se imaginó las partículas cargadas como pequeños osciladores, acelerados y desacelerados repetidamente de manera uniforme. Para poder calcular el equilibrio de la energía entre los supuestos osciladores y su radiación de entrada y salida, Planck halló que necesitaba suponer la existencia de cuantos, o diminutas divisiones de energía, en vez de una gama continua de energías posibles. Por ello, llegó a deducir la definición de un cuanto de energía como la frecuencia de la oscilación multiplicada por un diminuto número que no tardó en ser conocido como la constante de Planck. Esos supuestos fueron los utilizados por Planck para resolver el problema del cuerpo negro, pero nunca llegó más allá en una interpretación significativa de sus cuantos. Se denomina cuanto al salto que experimenta la energía de un corpúsculo cuando absorbe o emite radiación. Dicha energía es proporcional a la frecuencia de la radiación. En 1905 Einstein, basándose en el trabajo de Planck, publicó su teoría sobre el fenómeno conocido como efecto fotoeléctrico y demostró que las partículas cargadas, que en esos tiempos se suponían que eran electrones, absorbían y emitían energía en cuantos finitos que eran proporcionales a la frecuencia de la luz o radiación, fenómeno que hoy se está aprovechando para crear los nuevos computadores cuánticos, en los que ya no se habla de bits que representan 1 ó 0, sino de qubits que pueden asumir a la vez dos estados opuestos. El paso sustancial hacia la nueva teoría cuántica de los átomos se le debe al físico alemán Werner Heisenberg, quien después de haber inventado la mecánica matricial, en 1925, junto con Max Born y Pascual Jordan, elaboró una versión completa de la nueva teoría cuántica, una nueva dinámica que servía para calcular las propiedades de los átomos, igual que había servido la mecánica de Newton para calcular las órbitas de los planetas. Para concebir el mundo cuántico, Heisenberg y Niels Bohr se esforzaron por hallar una estructura nueva que estuviera de acuerdo con la nueva mecánica cuántica. Heisenberg descubrió, cuando intentaba resolver estos problemas interpretativos, el «principio de incertidumbre», el cual revelaba una característica distintiva de la mecánica cuántica que no existía en la mecánica newtoniana. En 1938 el alemán Konrad Zuse terminó la primera máquina binaria para calcular, y la llamó Z1. A comienzos de los años 30, John Vincent Atanasoft, un norteamericano doctorado en física teórica, hijo de un ingeniero eléctrico emigrado de Bulgaria y de una maestra de escuela, se encontró con que los problemas que tenía que resolver requerían una excesiva cantidad de cálculo. Aficionado a la electrónica y conocedor de la máquina de Pascal y las teorías de Babbage, empezó a considerar la posibilidad de construir un calculador digital. Decidió que la máquina habría de operar en sistema binario, y hacer los cálculos de modo distinto a como los realizaban las calculadoras mecánicas. Con 650 dólares donados por el Concejo de Investigación del Estado de lowa, contrató la cooperación de Clifford Berry, estudiante de ingeniería, y los materiales para un modelo experimental. Posteriormente recibió otras donaciones que sumaron 6460 dólares. Este primer aparato fue conocido como ABC Atanasoff- Berry-Computer. Prácticamente al mismo tiempo que John Vincent Atanasoft, el ingeniero John Mau chly, director en ese momento del Depar- tamento de física del Ursine College cerca de Filadelfia, se había encontrado con los mismos problemas en cuanto a velocidad de cálculo, y estaba convencido de que habría una forma de acelerar el proceso por medios electrónicos. Al carecer de medios económicos, construyó un pequeño calculador digital y se presentó al congreso de la AAAS (Asociación Americana para el Avance de la Ciencia) para presentar un informe sobre el mismo. Allí, en diciembre de 1940, se encontró con Atanasoff, y el intercambio de ideas que tuvieron originó Una disputa sobre la paternidad de la computadora digital. En 1941 Mauchly se matriculó en unos cursos en la Escuela Moore de Ingeniería Eléctrica de la Universidad de Pensilvania, donde conoció a J. Presper Eckert, un instructor de laboratorio. La escuela Moore trabajaba entonces en un proyecto conjunto con el ejército para realizar unas tablas de tiro para armas balísticas. La cantidad de cálculos necesarios era inmensa, tanto que se demoraba unos treinta días en completar una tabla mediante el empleo de una máquina de cálculo analógica. Aun así, esto era unas 50 veces más rápido de lo que tardaba un hombre con una sumadora de sobremesa. Mauchly publicó un artículo con sus ideas y las de Atanasoff, lo cual despertó el interés de Lieutenant Herman Goldstine, un oficial de la reserva que hacía de intermediario entre la universidad y el ejército, el cual consiguió interesar al Departamento de Ordenación en la financiación de una computadora electrónica digital. El 9 de abril de 1943 se autorizó a Mauchly y Eckert iniciar el desarrollo del proyecto. Se le llamó ENIAC (Electronic Numerical integrator and Computer) y comenzó a funcionar en las instalaciones militares norteamericanas del campo Aberdeen Proving Ground en Agosto de 1947. La construcción tardó 4 años y costó $486.804,22 dólares (el equivalente actual a unos tres millones de dólares por menos poder de cómputo del que actualmente se consigue en las calculadoras de mano). El ENIAC tenía 19.000 tubos de vacío,1.500 relés, 7.500 interruptores, cientos de miles de resistencias, condensadores e inductores y 800 kilómetros de alambres, funcionando todo a una frecuencia de reloj
Historia de la informática
ANONYWAR el 16-05-2013, 15:58 (UTC)
 La informática, es la ciencia que da tratamiento automático a la información. Se llama ordenador, computadora, computador o PC, a un dispositivo electrónico capaz de recibir y almacenar información, ordenarla y hacer operaciones lógicas y matemáticas a muy alta velocidad. Se puede utilizar para elaborar documentos, enviar y recibir correo electrónico, dibujar, crear efectos visuales y sonoros, maquetación de folletos y libros, manejar la información contable en una empresa, tocar música, controlar procesos industriales y jugar.

La computadora no es invento de alguien en particular, sino el resultado de ideas y realizaciones de muchas personas relacionadas con la electrónica, la mecánica, los materiales semiconductores, la lógica, el álgebra y la programación.

Los primeros vestigios de cálculo, por ejemplo, se remontan a 3000 años antes de Cristo (AC). Los babilonios que habitaron en la antigua Mesopotamia empleaban semillas o pequeñas piedras a manera de "cuentas" agrupadas en carriles de caña.

La palabra cálculo, que significa piedrecilla, empleada hoy en matemáticas y medicina, tiene su origen en el hecho de que antiguamente se usaron piedras pequeñas como elemento natural para contar. En medicina se usa para indicar que alguien tiene en el riñón, por ejemplo, formaciones sólidas a manera de piedrecillas.

Posteriormente, en el año 1800 AC, un matemático babilónico inventó los algo- ritmos que permitieron resolver problemas de cálculo numérico. Algoritmo es un conjunto ordenado de operaciones propias de un cálculo.

500 años AC los egipcios inventaron el ábaco, un dispositivo para calcular, basado en bolillas atravesadas por alambres; su nombre proviene del griego abax, o abakos, que significa tabla o carpeta cubierta de polvo.





Posteriormente, a principios del segundo siglo DC, los chinos perfeccionaron este dispositivo, al cual le agregaron un soporte tipo bandeja, poniéndole por nombre Saunpan. Con un ábaco se puede sumar, restar, multiplicar y dividir.

En el siglo 16, John Napier (1550-1617), matemático escocés famoso por su invención de los logaritmos, unas funciones matemáticas que permiten convertir las multiplicaciones en sumas y las divisiones en restas, inventó un dispositivo de palillos con números impresos que, merced a un ingenioso y complicado mecanismo, le permitía realizar operaciones de multiplicación y división.




En 1642 el físico y matemático francés Blaise Pascal (1623-1662) inventó el primer calculador mecánico. A los 18 años de edad, deseando reducir el trabajo de cálculo de su padre, funcionario de impuestos, fabricó un dispositivo de 8 ruedas dentadas en el que cada una hacía avanzar un paso a la siguiente cuando completaba una vuelta. Estaban marcadas con números del 0 al 9 y había dos para los decimales, con lo que podía manejar números entre 000000,01 y 999999,99. Giraban mediante una manivela, con lo que para sumar o restar había que darle el número de vueltas correspondiente en un sentido o en otro.

En 1672 el filósofo y matemático alemán Leibnitz (1646-1716) inventó una máquina de calcular que podía multiplicar, dividir y obtener raíces cuadradas en sistema binario. A los 26 años aprendió matemáticas de modo autodidacta y procedió a inventar el cálculo infinitesimal, honor que comparte con Newton.

En 1801 el francés Joseph Jacquard (1752-1834), hijo de un modesto obrero textil, utilizó un mecanismo de tarjetas perforadas para controlar el dibujo formado por los hilos de las telas confeccionadas por una máquina de tejer. Estas plantillas o moldes metálicos perforados permitían programar las puntadas del tejido, logrando obtener una diversidad de tramas y figuras.

En 1822 Charles Babbage, matemático e inventor inglés, ideó una máquina que algunos toman como la primera máquina computadora. Hacía operaciones aritméticas y cálculos diversos por medio de un mecanismo de entrada y salida con tarjetas perforadas, una memoria, una unidad de control y una unidad aritmético-lógica. Una de sus características más importantes era que

Podía alterar su secuencia de operaciones basándose en el resultado de cálculos anteriores, algo fundamental en los computadores actuales.

Charles Babbage fue maestro de Augusta Ada Byron (1815-1851), condesa de Lovelace, hija del poeta Inglés Lord Byron. Se reconoce a Ada Byron como la primera persona en escribir un lenguaje de programación de carácter general, interpretando las ideas de Babbage.

Un poco antes de 1870, William Thomson Kelvin, matemático y físico escocés, inventor de las llantas usadas en bicicletas y autos, y también muy estudioso del fenómeno del calor, había elaborado la teoría de una máquina capaz de resolver ecuaciones diferenciales, pero sólo fue construida 50 años más tarde, en 1925, por Vannevar Bush, un ingeniero eléctrico nacido en Massachusetts (Estados Unidos).

En 1879, a los 19 años de edad, Herman Hollerith fue contratado como asistente en las oficinas del censo norteamericano y desarrolló un sistema de cómputo mediante tarjetas perforadas en las que los agujeros representaban el sexo, la edad, raza, etc. Gracias a la máquina de Hollerith el censo de 1890 se realizó en dos años y medio, cinco menos que el censo de 1880.

Hollerith dejó las oficinas del censo en 1896 para fundar Tabulating Machine Company. En 1900 había desarrollado una máquina que podía clasificar 300 tarjetas por minuto (en vez de las 80 cuando el censo), una perforadora de tarjetas y una máquina de cómputo semiautomática. En 1924 fusionó su compañía con otras dos para formar la International Business Machines hoy mundialmente conocida como IBM.




1900: Comienzo de la física cuántica. A finales del siglo 19 los científicos estaban intrigados por el comportamiento de los cuerpos negros, los cuales, según la física que conocían, absorbían y radiaban energía en toda la gama de frecuencias, cosa que no ocurre con los cuerpos de color. Suponían que la energía era emitida a manera de flujo continuo, mayor o menor según la frecuencia de radiación electromagnética y la cantidad de calor en el cuerpo, pero estaban equivocados.

En 1900 el físico teórico alemán Max Planck aceptó la teoría electromagnética de la luz, que sostenía que la luz era un fenómeno ondulatorio y que la materia que se suponía que contenía pequeños cuerpos cargados eléctricamente, o partículas irradiaba energía en la forma de ondas de luz cuando esas partículas cargadas eran aceleradas. Con el objetivo de estudiar la radiación de un cuerpo negro, Planck se imaginó las partículas cargadas como pequeños osciladores, acelerados y desacelerados repetidamente de manera uniforme.

Para poder calcular el equilibrio de la energía entre los supuestos osciladores y su radiación de entrada y salida, Planck halló que necesitaba suponer la existencia de cuantos, o diminutas divisiones de energía, en vez de una gama continua de energías posibles. Por ello, llegó a deducir la definición de un cuanto de energía como la frecuencia de la oscilación multiplicada por un diminuto número que no tardó en ser conocido como la constante de Planck. Esos supuestos fueron los utilizados por Planck para resolver el problema del cuerpo negro, pero nunca llegó más allá en una interpretación significativa de sus cuantos.

Se denomina cuanto al salto que experimenta la energía de un corpúsculo cuando absorbe o emite radiación. Dicha energía es proporcional a la frecuencia de la radiación.

En 1905 Einstein, basándose en el trabajo de Planck, publicó su teoría sobre el fenómeno conocido como efecto fotoeléctrico y demostró que las partículas cargadas, que en esos tiempos se suponían que eran electrones, absorbían y emitían energía en cuantos finitos que eran proporcionales a la frecuencia de la luz o radiación, fenómeno que hoy se está aprovechando para crear los nuevos computadores cuánticos, en los que ya no se habla de bits que representan 1 ó 0, sino de qubits que pueden asumir a la vez dos estados opuestos.

El paso sustancial hacia la nueva teoría cuántica de los átomos se le debe al físico alemán Werner Heisenberg, quien después de haber inventado la mecánica matricial, en 1925, junto con Max Born y Pascual Jordan, elaboró una versión completa de la nueva teoría cuántica, una nueva dinámica que servía para calcular las propiedades de los átomos, igual que había servido la mecánica de Newton para calcular las órbitas de los planetas.

Para concebir el mundo cuántico, Heisenberg y Niels Bohr se esforzaron por hallar una estructura nueva que estuviera de acuerdo con la nueva mecánica cuántica. Heisenberg descubrió, cuando intentaba resolver estos problemas interpretativos, el «principio de incertidumbre», el cual revelaba una característica distintiva de la mecánica cuántica que no existía en la mecánica newtoniana.




En 1938 el alemán Konrad Zuse terminó la primera máquina binaria para calcular, y la llamó Z1.

A comienzos de los años 30, John Vincent Atanasoft, un norteamericano doctorado en física teórica, hijo de un ingeniero eléctrico emigrado de Bulgaria y de una maestra de escuela, se encontró con que los problemas que tenía que resolver requerían una excesiva cantidad de cálculo. Aficionado a la electrónica y conocedor de la máquina de Pascal y las teorías de Babbage, empezó a considerar la posibilidad de construir un calculador digital. Decidió que la máquina habría de operar en sistema binario, y hacer los cálculos de modo distinto a como los realizaban las calculadoras mecánicas.

Con 650 dólares donados por el Concejo de Investigación del Estado de lowa, contrató la cooperación de Clifford Berry, estudiante de ingeniería, y los materiales para un modelo experimental. Posteriormente recibió otras donaciones que sumaron 6460 dólares. Este primer aparato fue conocido como ABC Atanasoff- Berry-Computer.

Prácticamente al mismo tiempo que John Vincent Atanasoft, el ingeniero John Mau chly, director en ese momento del Depar- tamento de física del Ursine College cerca de Filadelfia, se había encontrado con los mismos problemas en cuanto a velocidad de cálculo, y estaba convencido de que habría una forma de acelerar el proceso por medios electrónicos. Al carecer de medios económicos, construyó un pequeño calculador digital y se presentó al congreso de la AAAS (Asociación Americana para el Avance de la Ciencia) para presentar un informe sobre el mismo. Allí, en diciembre de 1940, se encontró con Atanasoff, y el intercambio de ideas que tuvieron originó

Una disputa sobre la paternidad de la computadora digital.

En 1941 Mauchly se matriculó en unos cursos en la Escuela Moore de Ingeniería Eléctrica de la Universidad de Pensilvania, donde conoció a J. Presper Eckert, un instructor de laboratorio. La escuela Moore trabajaba entonces en un proyecto conjunto con el ejército para realizar unas tablas de tiro para armas balísticas. La cantidad de cálculos necesarios era inmensa, tanto que se demoraba unos treinta días en completar una tabla mediante el empleo de una máquina de cálculo analógica. Aun así, esto era unas 50 veces más rápido de lo que tardaba un hombre con una sumadora de sobremesa.

Mauchly publicó un artículo con sus ideas y las de Atanasoff, lo cual despertó el interés de Lieutenant Herman Goldstine, un oficial de la reserva que hacía de intermediario entre la universidad y el ejército, el cual consiguió interesar al Departamento de Ordenación en la financiación de una computadora electrónica digital. El 9 de abril de 1943 se autorizó a Mauchly y Eckert iniciar el desarrollo del proyecto. Se le llamó ENIAC (Electronic Numerical integrator and Computer) y comenzó a funcionar en las instalaciones militares norteamericanas del campo Aberdeen Proving Ground en Agosto de 1947. La construcción tardó 4 años y costó $486.804,22 dólares (el equivalente actual a unos tres millones de dólares por menos poder de cómputo del que actualmente se consigue en las calculadoras de mano).

El ENIAC tenía 19.000 tubos de vacío,1.500 relés, 7.500 interruptores, cientos de miles de resistencias, condensadores e inductores y 800 kilómetros de alambres, funcionando todo a una frecuencia de reloj
 

<-Volver

 1 

Siguiente->

Facebook botón-like
 
HACKED BY ANONYWAR
 
HACKED BY ANONYWAR
Introuccion a la informatica
 
1. La historia de la computadora.
2. Generación de las computadoras
3. Procesar datos
4. Informática
5. Computadoras. Software y Hardware
6. C.P.U.
7. Memorias Principales
8. Periféricos de entrada y salida. Ranuras de Expansión
9. Funcionamiento de la PC.
10. Bits y Bytes
11. Medidas de almacenamiento
12. Sistemas Operativos
13. Sistemas operativos actuales
14. Tecnologías futuras
15. Virus
Definición de software y hardware - ¿Qué es software y qué es hardware?
 
Software es todo el conjunto intangible de datos y programas de la computadora.
Hardware son los dispositivos físicos como la placa base, la CPU o el monitor.
La interacción entre el Software y el Hardware hace operativa la máquina, es decir, el Software envía instrucciones al Hardware haciendo posible su funcionamiento.
Placa Base o Placa Madre
 
funcionamiento se encuentran en la Placa Base (también conocida como Placa Madre), que es una placa de circuito impreso que aloja a la Unidad Central de Procesamiento (CPU) o microprocesador, Chipset (circuito integrado auxiliar), Memoria RAM, BIOS o Flash-ROM, etc., además de comunicarlos entre sí.
 
Este sitio web fue creado de forma gratuita con PaginaWebGratis.es. ¿Quieres también tu sitio web propio?
Registrarse gratis