Una computadora electrónica, según el Diccionario de la Real Academia Española, es una: Máquina electrónica, analógica o digital, dotada de una memoria de gran capacidad y de métodos de tratamiento de la información, capaz de resolver problemas matemáticos y lógicos mediante la utilización automática de programas informáticos.
La computadora es un invento joven de no más de un siglo. Sin embargo es el resultado de múltiples creaciones e ideas de diversas personas a lo largo de varios años: por un lado, el ábaco que fue uno de los primeros dispositivos mecánicos para contar; por otro lado, la Pascalina, inventada por Blaise Pascal y después perfeccionada por Gottfried Wilhelm von Leibniz, permitía realizar cálculos de manera mecánica por medio de engranajes, y también, la tarjeta perforada asumió un papel importante en la computación.
En 1882 Charles Babbage inventa una “máquina diferencial”, que realiza cálculos de tablas simples. Diez años más tarde diseña la “máquina analítica”, que no fue construida hasta 1989. Esta máquina poseía elementos que influyeron en las subsiguientes computadoras: flujo de entrada, memoria, procesador e impresora de datos. Por esto, Babbage es considerado el "Padre de las Computadoras Modernas".
En 1944 se construye la MARK I, diseñada por un equipo encabezado por Howard H. Aiken. La máquina basa su funcionamiento en dispositivos electromecánicos llamados relevadores.
Von Neumann es otro personaje importante ya que proyecta el prototipo de los modernos procesadores electrónicos. El prototipo se basa en el concepto de programa memorizado.
A partir de la mitad del siglo XX el desarrollo de la computadora es mayor y más rápido. Este desarrollo se suele dividir en generación.
Primera Generación
En general se caracteriza por tres aspectos: primero, por el uso de bulbos (tubos de vacío); segundo, uso de programas en lenguaje de máquina, usualmente, en tarjetas perforadas, y finalmente, por ser enormes y costosas.
Segunda Generación
Sus características son: en primer lugar, se utilizan circuitos de transistores, en vez de bulbos; segundo, se programas en lenguajes de alto nivel, y por último, se utilizan para nuevas aplicaciones.
Tercera Generación
Al igual que las generaciones pasadas, tiene tres características:
I. Ahora utiliza circuitos integrados.
II. Utiliza sistemas operativos. El más famoso es el OS de IBM.
III. Aparecen minicomputadoras.
Cuarta Generación
Se dice que es la generación actual, aunque mucho ya mencionan una quinta.
En esta generación aparecen los microprocesadores, los núcleos magnéticos son remplazados por chips de silicio (almacenamiento de memoria) y un sinfín de cambios que continúan apareciendo día con día.
- EVOLUCIÓN!
Edad Media
- El matemático e ingeniero persa Musa al-Juarismi (780-850), inventó el algoritmo, es decir, la resolución metódica de problemas de álgebra y cálculo numérico mediante una lista bien definida, ordenada y finita de operaciones a fin de hallar la solución al problema.
Siglo XVII
- 1617: Justo antes de morir, el matemático escocés John Napier (1550-1617), famoso por su invención de los logaritmos, desarrolló un sistema para realizar operaciones aritméticas manipulando barras, a las que llamó "huesos" ya que estaban construidas con material de hueso o marfil, y en los que estaban plasmados los dígitos. Dada su naturaleza, se llamó al sistema "huesos de Napier" (ábaco neperiano). Los huesos de Napier tuvieron una fuerte influencia en el desarrollo de la regla deslizante (cinco años más tarde) y las máquinas calculadoras subsecuentes, que contaron con logaritmos.
- 1623: La primera calculadora mecánica fue diseñada por Wilhelm Schickard en Alemania. Llamada "reloj calculador", la máquina incorporó los logaritmos de Napier, hacía rodar cilindros en un albergue grande. Se comisionó un reloj calculador para Johannes Kepler, el matemático famoso, pero fue destruido por el fuego antes de que se terminara.
- 1624: La primera regla deslizante fue inventada por el matemático inglés William Oughtred. La regla deslizante (llamada "Círculos de Proporción") era un juego de discos rotatorios que se calibraron con los logaritmos de Napier. Se usó como uno de los primeros aparatos de la informática analógica. Su época de esplendor duró más o menos un siglo, el comprendido entre la segunda mitad del siglo XIX y el último cuarto del XX, hasta que a comienzos de 1970, calculadoras portátiles comenzaron a ser populares.
- 1645: Blaise Pascal inventa la pascalina. Con esta máquina, los datos se representaban mediante las posiciones de los engranajes. La pascalina es una de las primeras calculadoras mecánicas, que funcionaba a base de ruedas de diez dientes en las que cada uno de los dientes representaba un dígito del 0 al 9. Las ruedas estaban conectadas de tal manera que podían sumarse números haciéndolas avanzar el número de dientes correcto.
- 1666: Samuel Morland inventa la primera máquina de multiplicar en la corte del reyCarlos II de Inglaterra. El aparato constó de una serie de ruedas, cada una de las cuales representaba decenas, centenas, etc. Un alfiler de acero movía los diales para ejecutar los cálculos. A diferencia de la pascalina, este aparato no tenía avance automático de columnas.
- 1673: el matemático alemán Gottfried Leibniz inventa la primera calculadora de propósito general. El aparato era una partida de la pascalina; mientras opera usa un cilindro de dientes (la rueda de Leibniz) en lugar de la serie de engranajes. Aunque el aparato podía ejecutar multiplicaciones y divisiones, padeció de problemas de fiabilidad que disminuyó su utilidad.
Siglo XVIII
- 1769: Wolfgang von Kempelen, un noble húngaro, inventa un jugador de ajedrez supuestamente autómata, El Turco. Pretendió ser una máquina pura, incluía un jugador de ajedrez "robótico", sin embargo fue una farsa, la cabina era una ilusión óptica bien planteada que permitía a un maestro del ajedrez esconderse en su interior y operar el maniquí. Era una sensación dondequiera que iba pero se destruyó en un incendio en 1856.
- 1777: Charles Mahon inventa la primera máquina lógica, el "demostrador lógico". Era un aparato de bolsillo que resolvía silogismostradicionales y preguntas elementales de probabilidad. Mahon es el precursor de los componentes lógicos en computadoras modernas.
Siglo XIX
- 1801: El francés Joseph Marie Jacquard, utilizó un mecanismo de tarjetas perforadas para controlar el dibujo formado por los hilos de las telas confeccionadas por una máquina de tejer. Estas plantillas o moldes metálicos perforados permitían programar las puntadas del tejido, logrando obtener una diversidad de tramas y figuras. Inspirado por instrumentos musicales que se programaban usando papel agujereado, la máquina se parecía a una atadura del telar que podría controlar automáticamente los dibujos usando una línea de tarjetas agujereadas. La idea de Jacquard, que revolucionó el hilar de seda, estaba por formar la base de muchos aparatos de la informática e idiomas de la programación.
- 1820: La primera calculadora de producción masiva se distribuyó por Charles Thomas de Colmar. Originalmente se les vendió a casas del seguro parisienses, el aritmómetro de Colmar operaba usando una variación de la rueda de Leibniz. Más de mil aritmómetros se vendieron y eventualmente recibió una medalla a la Exhibición Internacional en Londres en 1862.
- 1822: Charles Babbage completa su artefacto de la diferencia, una máquina de propósito específico que se podía usar para calcular valores de funciones polinómicas mediante el método de las diferencias. El artefacto de la diferencia era un ensamble complejo de ruedas, engranajes, y remaches. Babbage diseñó su "artefacto analítico", un aparato de propósito general que era capaz de ejecutar cualquier tipo de cálculo matemático. Los diseños del artefacto analítico eran la primera conceptualización clara de una máquina que podría ejecutar el tipo de cálculos computacionales que ahora se consideran el corazón de informática. Babbage nunca construyó su artefacto analítico, pero su plan influyó en toda computadora digital subsiguiente, incluidas las modernas. El artefacto analítico fue finalmente construido por un equipo moderno de ingenieros, en 1989, cien años después de la muerte de Babbage en 1871. Por su discernimiento, Babbage hoy se conoce como el "Padre de las Computadoras Modernas".
- 1837: Charles Babbage describe la máquina analítica. Es el diseño de un computador moderno de propósito general. La idea que tuvo Charles Babbage sobre un computador nació debido a que la elaboración de las tablas matemáticas era un proceso tedioso y muy propenso a errores.
- 1843: Ada Augusta Lovelace sugirió la idea de que las tarjetas perforadas se adaptaran de manera que causaran que el motor de Babbage repitiera ciertas operaciones. Debido a esta sugerencia algunos consideran a Lady Lovelace la primera programadora.
- 1854: el lógico inglés George Boole publica su Álgebra de Boole. El sistema de Boole redujo a argumentos lógicos las permutaciones de tres operadores básicos algebraicos: y, o, y no. A causa del desarrollo del álgebra de Boole, Boole es considerado por muchos como el padre de la teoría de la informática.
- 1869: La primera máquina lógica en usar el álgebra de Boole para resolver problemas más rápido que humanos, fue inventada porWilliam Stanley Jevons. La máquina, llamada el piano lógico, usó un alfabeto de cuatro términos lógicos para resolver silogismoscomplicados.
- 1878: Un comité de la Asociación Británica para el avance de la ciencia recomienda no construir la máquina analítica de Babbage, por lo que este inventor no tuvo acceso a fondos del gobierno.
- 1878: Ramón Verea, quien vivía en la ciudad de Nueva York, inventó una calculadora con una tabla interna de multiplicación; esto fue mucho más rápido que usar acarreos u otro método digital de aquel tiempo. Él no se interesó en poner su obra en producción, sólo quiso mostrar que un español podía inventar tanto como un estadounidense.
- 1879: A los 19 años de edad, Herman Hollerith es contratado como asistente en las oficinas del censo estadounidense y desarrolló un sistema de cómputo mediante tarjetas perforadas en las que los agujeros representaban información sobre el sexo o la edad, entre otros. Gracias a la máquina tabuladora de Hollerith el censo de 1890 se realizó en dos años y medio, cinco menos que el censo de 1880. Se tardaba tanto en hacer el censo debido a la llegada masiva de inmigrantes.
- 1884: Dorr Felt desarrolló su comptómetro, el cual fue la primera calculadora que se operaba con sólo presionar teclas en vez de, por ejemplo, deslizar ruedas.
- 1893: La primera máquina exitosa de multiplicación automática se desarrolló por Otto Steiger. "El Millonario", como se le conocía, automatizó la invención de Leibniz de 1673, y fue fabricado por Hans W. Egli de Zurich. Originalmente hecha para negocios, la ciencia halló inmediatamente un uso para el aparato, y varios miles de ellos se vendieron en los cuarenta años que siguieron.
Siglo XX
- 1906: el estadounidense Lee De Forest inventa el tubo de vacío. El "Audion", como se llamaba, tenía tres elementos dentro de una bombilla del vidrio evacuada. Los elementos eran capaces de hallar y amplificar señales de radio recibidas de una antena. El tubo al vacío encontraría uso en varias generaciones tempranas de 5 computadoras, a comienzos de 1930.
- 1919: los inventores estadounidenses W. H. Eccles y F. W. Jordan desarrollan el primer circuito multivibrador o biestable (en léxico electrónico flip-flop). El flip-flop permitió diseñar circuitos electrónicos que podían tener dos estados estables, alternativamente, pudiendo representar así el 0 como un estado y el otro con un 1. Esto formó la base del almacenamiento y proceso del bit binario, estructura que utilizan las actuales computadoras.
- 1924: Walther Bothe construye una puerta lógica AND para usarla en experimentos físicos, por lo cual recibió el premio Nobel de física en 1954.
- 1925: en Estados Unidos se fundan los laboratorios Bell.
- 1930: Vannevar Bush construyó una máquina diferencial parcialmente electrónica, capaz de resolver ecuaciones diferenciales.
- 1931: Kurt Gödel publicó un documento sobre los lenguajes formales basados en operaciones aritméticas. Lo usó para codificar arbitrariamente sentencias y pruebas formales, y mostró que los sistemas formales, como las matemáticas tradicionales, son inconsistentes en un cierto sentido, o que contienen sentencias improbables pero ciertas. Sus resultados son fundamentales en las ciencias teóricas de la computación.
- 1936: Alan Turing describe la máquina de Turing, la cual formaliza el concepto de algoritmo.
- 1936: Konrad Zuse completa la primera computadora electro-mecánica, aunque no 100% operativa, la Z1.
- 1940: Samuel Williams y George Stibitz completaron en los laboratorios Bell una calculadora electro-mecánica que podía manejarnúmeros complejos.
- 1941: La computadora Z3 fue creada por Konrad Zuse. Fue la primera máquina programable y completamente automática.
- 1942: John Vincent Atanasoff y Clifford Edward Berry completaron una calculadora de propósito especial para resolver sistemas de ecuaciones lineales simultáneas, la cual fue llamada la "ABC" ("Atanasoff Berry Computer").
- 1944: Se construyó en la Universidad de Harvard, la Mark I, diseñada por un equipo encabezado por Howard H. Aiken.
- 1945: El primer caso de malfuncionamiento en la computadora causado por la intrusión de una polilla al sistema fue documentado por los diseñadores del Mark II. Erróneamente se cree que de allí proviene el uso del término "bug", que significa insecto o polilla en inglés. Sin embargo este término ya se usaba mucho antes para referirse a malfuncionamientos de aparatos mecánicos, eléctricos y electrónicos. El "Oxford English Dictionary " documenta este uso de la palabra desde 1889.
- 1945: Vannevar Bush desarrolló la teoría de Memex, un dispositivo de hipertexto ligado a una librería de libros y películas.
- 1946: en la Universidad de Pensilvania se construye la ENIAC (Electronic Numerical Integrator And Calculator), que fue la primera computadora electrónica de propósito general. Esta máquina ocupaba todo un sótano de la Universidad, tenía más de 18.000 tubos de vacío, consumía 200 kW de energía eléctrica y requería todo un sistema de aire acondicionado; tenía la capacidad para realizar cinco mil operaciones aritméticas por segundo.
- 1947: en Laboratorios Bell, John Bardeen, Walter H. Brattain y William Shockley inventan eltransistor.
- 1949: Jay Forrester desarrolla la primera memoria, la cual reemplazó los no confiables tubos al vacío como la forma predominante de memoria por los próximos diez años.
- 1950: Alan Turing expone un artículo que describe lo que ahora conocemos como la prueba de Turing. Su publicación explora el desarrollo natural y potencial de la inteligencia y comunicación humana y de computadoras.
- 1951: comienza a operar la EDVAC, a diferencia de la ENIAC, no era decimal, sino binaria y tuvo el primer programa diseñado para ser almacenado.
- 1951: Eckert y Mauchly entregan a la Oficina del Censo su primer computador: el UNIVAC I.
- 1951: el Sistema A-0 fue inventado por Grace Murray Hopper. Fue el compilador desarrollado para una computadora electrónica.
- 1952: Claude Elwood Shannon desarrolla el primer ratón eléctrico capaz de salir de un laberinto, considerada la primera red neural.
- 1953: IBM fabrica su primera computadora a escala industrial, la IBM 650. Se amplía el uso del lenguaje ensamblador para laprogramación de las computadoras.
- 1953: se crean memorias a base de magnetismo (conocidas como memorias de núcleos magnéticos).
- 1954: se desarrolla el lenguaje de programación de alto nivel Fortran.
- 1956: Darthmouth da una conferencia en a partir de la que nace el concepto de inteligencia artificial.
- 1956: Edsger Dijkstra inventa un algoritmo eficiente para descubrir las rutas más cortas en grafos como una demostración de las habilidades de la computadora ARMAC.
- 1957: IBM pone a la venta la primera impresora de matriz de puntos.
- 1957: se funda la compañía Fairchild Semiconductor.
- 1958: comienza la segunda generación de computadoras, caracterizados por usar circuitos transistorizados en vez de válvulas al vacío.
- 1957: Jack S. Kilby construye el primer circuito integrado.
- 1957: la organización ARPA es creada como consecuencia tecnológica de la llamada Guerra Fría.
- 1960: se desarrolla COBOL, el primer lenguaje de programación de alto nivel transportable entre modelos diferentes de computadoras.
- 1960: aparece ALGOL, el primer lenguaje de programación estructurado y orientado a los procedimientos.
- 1960: se crea el primer compilador de computador.
- 1960: C. Antony R. Hoare desarrolla el algoritmo de ordenamiento o clasificación llamado quicksort.
- 1961: en IBM, Kenneth Iverson inventa el lenguaje de programación APL.
- 1961: T. Kilburn y D. J. Howart describen por primera vez el concepto de paginación de memoria.
- 1962: en el MIT, Ivan Sutherland desarrolla los primeros programas gráficos que dejan que el usuario dibuje interactivamente en una pantalla.
- 1962: en el MIT, Hart y Levin inventan para Lisp el primer compilador autocontenido, es decir, capaz de compilar su propio código fuente.
- 1962: un equipo de la Universidad de Manchester completa la computadora ATLAS. Esta máquina introdujo muchos conceptos modernos como interrupciones, pipes (tuberías), memoria entrelazada, memoria virtual y memoria paginada. Fue la máquina más poderosa del mundo en ese año.
- 1962: el estudiante del MIT Steve Russell escribe el primer juego de computadora, llamado Spacewar!.
- 1962: un comité industrial-gubernamental define el código estándar de caracteres ASCII.
- 1963: DEC (Digital Equipment Corporation) lanza el primer minicomputador comercialmente exitoso.
- 1964: la aparición del IBM 360 marca el comienzo de la tercera generación de computadoras. Lasplacas de circuito impreso con múltiples componentes elementales pasan a ser reemplazadas con placas de circuitos integrados.
- 1964: aparece el CDC 6600, la primera supercomputadora comercialmente disponible.
- 1964: en el Dartmouth College, John George Kemeny y Thomas Eugene Kurtz desarrollan el lenguaje BASIC (el Dartmouth BASIC).
- 1965: Gordon Moore publica la famosa Ley de Moore.
- 1965: La lógica difusa, diseñada por Lofti Zadeh, se usa para procesar datos aproximados.
- 1965: J. B. Dennis introduce por primera vez el concepto de segmentación de memoria.
- 1965: en los clásicos documentos de Dijkstra se tratan por primera vez los algoritmos de exclusión mutua (sistemas operativos).
- 1966: la mayoría de ideas y conceptos que existían sobre redes se aplican a la red militar ARPANET.
- 1966: aparecen los primeros ensayos que más tarde definirían lo que hoy es la programación estructurada.
- 1967: en el MIT, Richard Greenblatt inventa los primeros programas exitosos de ajedrez.
- 1967: en IBM, David Noble ―bajo la dirección de Alan Shugart― inventa el disquete (disco flexible).
- 1968: Robert Noyce y Gordon Moore fundan la corporación Intel.
- 1968: Douglas Engelbart lleva acabo "The Mother of All Demos".
- 1969: el protocolo de comunicaciones NCP se crea para controlar la red militar ARPANET.
- 1969: Data General Corporation distribuye la primera minicomputadora de 16-bit.
- 1969: en los laboratorios Bell, Ken Thompson y Dennis Ritchie desarrollan el lenguaje de programación B.
- 1969: en los laboratorios Bell de AT&T, un grupo de empleados de dicho laboratorio entre los que se encuentran Ken Thompson,Dennis Ritchie y Douglas Mcllroy― crean el sistema operativo UNICS.
- 1970: el sistema UNICS es renombrado como Unix.
- 1970: la empresa Corning Glass Works vende comercialmente el primer cable de fibra óptica.
- 1970: E. F. Codd se publica el primer modelo de base de datos relacional.
- 1970: el profesor suizo Niklaus Wirth desarrolla el lenguaje de programación Pascal.
- 1970: Brinch Hansen utiliza por primera vez la comunicación interprocesos en el sistema RC 400.
- 1970: Intel crea la primera memoria dinámica RAM. Se le llamó 1103 y tenía una capacidad de 1024 bits (1 kbits).
- 1970: Se funda La división de investigación Xerox PARC.
- 1971: Intel presenta el primer procesador comercial y a la vez el primer chip microprocesador, el Intel 4004.
- 1971: Ray Tomlinson crea el primer programa para enviar correo electrónico. Como consecuencia, la arroba se usa por primera vez con fines informáticos.
- 1971: en el MIT, un grupo de investigadores presentan la propuesta del primer "Protocolo para la transmisión de archivos en Internet" (FTP).
- 1971: Texas Instruments vende la primera calculadora electrónica portátil.
- 1971: John Blankenbaker presenta el Kenbak-1, considerado como el primer ordenador personal de la historia, sin un procesador, solo con puertas lógicas. Solo vende 40 unidades en centros de enseñanza.
- 1972: aparecen los disquetes de 5 1/4 pulgadas.
- 1972: Robert Thomas Morris crea el primer virus informático, llamado Creeper. Atacó a una máquina IBM Serie 360. Con el fin de exterminarlo se crea el virus Reaper, que es considerado por muchos como el primer antivirus.
- 1972: en los Laboratorios Bell, Ken Thompson y Dennis M. Ritchie crean el lenguaje de programación C.
- 1972: Nolan Bushnell y Ted Dabney fundan la Atari.
- 1972: Intel desarrolla y pone a la venta el procesador 8008.
- 1972: C. A. R. Hoare y Per Brinch Hansen desarrollan el concepto de región crítica.
- 1973: ARPA cambia su nombre por DARPA.
- 1973: La división de investigación Xerox PARC desarrollo el primer ordenador que utilizó el concepto de Computadora de Escritoriollamado Xerox Alto, además de ser el primer ordenador en utilizar una GUI y un mouse.
- 1974: Vint Cerf y Robert Kahn crean el TCP (protocolo de control de transmisión).
- 1974: Se crea el sistema Ethernet para enlazar a través de un cable único a las computadoras de una LAN (red de área local).
- 1974: Gary Kildall crea el sistema operativo CP/M (Control Program for Microcomputer). Violando sus derechos de autor) se desarrolla el sistema operativo MS-DOS.
- 1975: en enero la revista Popular Electronics hace el lanzamiento del Altair 8800, el primer microcomputador personal reconocible como tal.
- 1975: se funda la empresa Microsoft.
- 1976: se funda la empresa Apple.
- 1977: se hace popular el ordenador Apple II, desarrollado por Steve Jobs y Steve Wozniak en un garaje.
- 1978: se desarrolla el famoso procesador de textos WordStar, originalmente para plataforma CP/M (Control Program for Microcomputer).
- 1979: Dan Bricklin crea la primera hoja de cálculo, que más tarde sería denominada VisiCalc.
- 1979: Toru Iwatani, de la empresa Namco, crea el juego Pacman.
- 1980: en IBM, un grupo de investigación desarrolla el primer prototipo de RISC (Computadora de Instrucción Reducida).
- 1980: la empresa Mycron lanza la primera microcomputadora de 16 bits, llamada Mycron 2000.
- 1980: Laboratorios Bell desarrolla el primer microprocesador de 32-bit en un solo chip, llamado Bellmac-32.
- 1981: se lanza al mercado el IBM PC, que se convertiría en un éxito comercial, marcaría una revolución en el campo de la computación personal y definiría nuevos estándares.
- 1981: se termina de definir el protocolo TCP/IP.
- 1981: Apple presenta el primer computador personal que se vende a gran escala, el Apple II.
- 1981 (3 de abril): Adam Osborne lanza el Osborne-1, primer ordenador portable (no portátil ya que no usaba baterías).
- 1981: Sony crea los disquetes de 3 1/2 pulgadas.
- 1982: la Asociación Internacional MIDI publica el MIDI (protocolo para comunicar computadoras con instrumentos musicales).
- 1982: Rod Canion, Jim Harris y Bill Murto fundan Compaq Computer Corporation, una compañía de computadoras personales.
- 1982: aparece el Sinclair Spectrum
- 1983: Microsoft ofrece la versión 1.0 del procesador de textos Word para DOS.
- 1983: Compaq (Compaq Computer Corporation) fabrica el primer clon PC IBM compatible, el Compaq portable.
- 1983: ARPANET se separa de la red militar que la originó, de modo que, ya sin fines militares, se puede considerar esta fecha como el nacimiento de Internet.
- 1983: Richard Stallman anuncia públicamente el proyecto GNU.
- 1983: Bjarne Stroustrup publica el lenguaje de programación C++.
- 1983: Sun lanza su primer sistema operativo, llamado SunOS.
- 1983: la compañía Lotus Software lanza el famoso programa de hoja de cálculo Lotus 1-2-3.
- 1983: el sistema DNS (de Internet) ya posee 1000 hosts.
- 1983: Se funda Borland.
- 1984: IBM presenta el PC-AT, con procesador Intel 80286, bus de expansión de 16 bits y 6 Mhz de velocidad. Tenía hasta 512 kBde memoria RAM, un disco duro de 20 MB y un monitor monocromático. Su precio en ese momento era de 5795 dólares.
- 1984: Apple Computer presenta su Macintosh 128K con el sistema operativo Mac OS, el cual introduce la interfaz gráfica ideada enXerox.
- 1984: las compañías Philips y Sony crean los CD-Roms para computadores.
- 1984: se desarrolla el sistema de ventanas X bajo el nombre X1 para dotar de una interfaz gráfica a los sistemas Unix.
- 1984: aparece el lenguaje LaTeX para procesamiento de documentos.
- 1984: Hewlett-Packard lanza su popular impresora láser llamada LaserJet.
- 1984: Leonard Bosack y Sandra Lerner fundan Cisco Systems que es líder mundial en soluciones de red e infraestructuras para Internet.
- 1985: Microsoft presenta el sistema operativo Windows 1.0.
- 1985: Compaq saca a la venta la Compaq Deskpro 286, una PC IBM Compatible de 16-bits con microprocesador Intel 80286 corriendo a 6 MHz y con 7MB de RAM, fue considerablemente más rápida que una PC IBM. Fue la primera de la línea de computadoras Compaq Deskpro.
- 1985: Bertrand Meyer crea el lenguaje de programación Eiffel.
- 1985: Adobe crea el PostScript.
- 1985: el ruso Alexey Pazhitnov crea el juego Tetris.
- 1986: ISO estandariza SGML, lenguaje en que posteriormente se basaría XML.
- 1986: Compaq lanza el primer computador basado en el procesador de 32 bits Intel 80386, adelantándose a IBM.
- 1986: el lenguaje SQL es estandarizado por ANSI.
- 1986: aparece el programa de cálculo algebraico de computadora MathCad.
- 1986: se registra la primera patente base de codificación de lo que hoy conocemos como MP3 (un método de compresión de audio).
- 1986: Compaq pone en venta la PC compatible Compaq Portable II, mucho más ligera y pequeña que su predecesora, que utilizaba microprocesador de 8 MHz y 10 MB de disco duro, y fue 30% más barata que la IBM PC/AT con disco rígido.
- 1987: se desarrolla la primera versión del actual protocolo X11.
- 1987: Larry Wall crea el lenguaje de programación Perl.
- 1987: el proyecto GNU crea el conjunto de compiladores llamado "GNU Compiler Collection".
- 1987: Compaq introduce la primera PC basada en el nuevo microprocesador de Intel; el 80386 de 32 bits, con la Compaq Portable 386 y la Compaq Portable III. Aún IBM no estaba usando este procesador. Compaq marcaba lo que se conocería como la era de los clones de PC.
- 1988: Soft Warehouse desarrolla el programa de álgebra computacional llamado Derive.
- 1988: Stephen Wolfram y su equipo sacan al mercado la primera versión del programa Mathematica.
- 1988: aparece el primer documento que describe lo que hoy se conoce como firewalls (cortafuegos).
- 1988: aparece el estándar XMS.
- 1989: Creative Labs presenta la reconocida tarjeta de sonido Sound Blaster.
- 1989: T. E. Anderson estudia las cuestiones sobre el rendimiento de las hebras o hilos en sistemas operativos (threads).
- 1990: Tim Berners-Lee idea el hipertexto para crear el World Wide Web (www) una nueva manera de interactuar con Internet. También creó las bases del protocolo de transmisión HTTP, el lenguaje de documentos HTML y el concepto de los URL.
- 1990: en AT&T (Laboratorios de Bell) se construye el primer prototipo de procesador óptico.
- 1990: Guido van Rossum crea el lenguaje de programación Python.
- 1991: Linus Torvalds comenzó a desarrollar Linux, un sistema operativo compatible con Unix.
- 1991: comienza a popularizarse la programación orientada a objetos.
- 1991: surge la primera versión del estándar Unicode.
- 1991: aparece la primera versión de Adobe Premiere.
- 1991: Compaq pone a la venta al por menor con la Compaq Presario, y fue uno de los primeros fabricantes en los mediados de los años noventa en vender una PC de menos de 1000 dólares estadounidenses. Compaqse convirtió en una de los primeros fabricantes en usar micros de AMD y Cyrix.
- 1992: Es introducida la arquitectura de procesadores Alpha diseñada por DEC bajo el nombre AXP, como reemplazo para la serie de microcomputadores VAX que comúnmente utilizaban el sistema operativo VMS y que luego originaría el openVMS. El procesador Alpha 21064 de 64 bits y 200MHz es declarado como el más rápido del mundo.
- 1992: Microsoft lanza Windows 3.1.
- 1992: Aparece la primera versión del sistema operativo Solaris.
- 1992: GNU comienza a utilizar el núcleo Linux.
- 1993: un grupo de investigadores descubren que un rasgo de la mecánica cuántica, llamado entrelazamiento, podía utilizarse para superar las limitaciones de la teoría del cuanto aplicada a la construcción de computadoras cuánticas y a la teleportación.
- 1993: Microsoft lanza al mercado la primera versión del sistema operativo multiusuario de 32 bits (cliente-servidor) Windows NT.
- 1993: se crea la lista TOP500 que recopila los 500 ordenadores más potentes de la tierra.
- 1994: Marc Andreessen crea el famoso navegador web Netscape Navigator.
- 1994: es diseñado el PHP, originalmente en lenguaje Perl, seguidos por la escritura de un grupo de CGI binarios escritos en el lenguaje C por el programador danés-canadiense Rasmus Lerdorf.
- 1995: Microsoft lanza de Windows 95, junto con su navegador web predeterminado, Windows Internet Explorer.
- 1995: aparece la primera versión de MySQL.
- 1995: se inicia el desarrollo del servidor Apache.
- 1995: la implementación original y de referencia del compilador, la máquina virtual y las librerías de clases de Java fueron desarrollados por Sun Microsystems.
- 1995: se presenta públicamente el lenguaje de programación Ruby.
- 1995: se especifica la versión 1.5 del DVD, base actual del DVD.
- 1996: se crea Internet2, más veloz que la Internet original.
- 1996: se publica la primera versión del navegador web Opera.
- 1996: se inicia el proyecto KDE.
- 1996: la tecnología de DjVu fue originalmente desarrollada en los laboratorios de AT&T.
- 1996: aparece la primera versión de SuperCollider.
- 1996: Sabeer Bhatia y Jack Smith fundan Hotmail.
- 1997: la empresa estadounidense Nullsoft distribuye gratuitamente el reproductor multimedia Winamp.
- 1997: aparece la primera versión pública de FlightGear.
- 1997: Spencer Kimball y Peter Mattis crean la inicial librería GTK+.
- 1998: la W3C publica la primera versión de XML.
- 1998: Microsoft lanza al mercado el sistema Windows 98.
- 1998: Compaq adquiere Digital Equipment Corporation, la compañía líder en la anterior generación de las computadoras durante los años setenta y principios de los ochenta. Esta adquisición convertiría a Compaq en el segundo más grande fabricante de computadoras, en términos de ingresos.
- 1998: Larry Page y Serguéi Brin fundan Google Inc.
- 1999: Microsoft publica la primera versión de MSN Messenger.
- 1999: Macintosh lanza Mac OS 9.
- 2000: un equipo de investigadores de IBM construye el prototipo de computador cuántico.
- 2000: Microsoft lanza el sistema operativo Windows 2000.
- 2000: Microsoft lanza el sistema operativo Windows Me.
- 2000: Macintosh lanza el sistema operativo Mac OS X.
Siglo XXI
- 2001: Microsoft desarrolla, como parte de su plataforma .NET, el lenguaje de programación C#, que después fue aprobado como un estándar por la ECMA e ISO.
- 2001: Se lanza el sistema operativo Windows XP por parte de Microsoft.
- 2001: Se crea Wikipedia.
- 2002: Lanzamiento del navegador web Mozilla Firefox, llamado en un primer momento Phoenix.
- 2002: Puesta en marcha del supercomputador Earth Simulator que sería el ordenador más potente según el TOP500.
- 2005: Los usuarios de Internet con conexión de banda ancha superan a los usuarios de internet con conexión vía módem en la mayoría de países desarrollados.
- 2005: Se lanza el programa Google Earth.
- 2005: Lanzamiento de Windows XP Media Center Edition
- 2005: Puesta en funcionamiento del supercomputador MareNostrum en el BSC.
- 2005: Creación de YouTube.
- 2006: Lanzamiento del sistema operativo de Microsoft Windows Vista: Entra en servicio el supercomputador Magerit perteneciente al CeSViMa.
- 2007: La empresa Dell lanza al mercado la primera computadora portátil (laptop) con la distribución Linux Ubuntu preinstalada.
- 2007: La empresa de Steve Jobs, Apple, lanza al mercado la nueva versión el Mac OS X Leopard 10.5
- 2008: Apple lanza al mercado la MacBook Air la cual, al parecer, es la laptop más delgada del mundo en ese momento.
- 2008: Apple lanza en toda Europa y América, el iPhone 3G.
- 2008: Google, contrarresta a Apple lanzando el G1 con su nuevo sistema Android para móviles.
- 2008: Lanzamiento del navegador Google Chrome.
- 2008: Lanzamiento de KDE 4.0.
- 2008: El supercomputador IBM Roadrunner es el primero en superar el PetaFLOP alcanzando el número 1 en la lista de los más veloces, TOP500.
- 2009: Debian GNU/Linux 5.0
- 2009: KDE 4.2 RC
- 2009: Apple, lanza al mercado la nueva versión el Mac OS X Snow Leopard 10.6
- 2009: El 22 de octubre se lanza el sucesor de Windows Vista, el Windows 7.
- 2010: Se espera el lanzamiento de Google Chrome OS, un sistema operativo creado por la empresa Google y basado en Linux.
- 2010: IBM crea un procesador de grafeno con una frecuencia efectiva de 100 GHz
- 2010: Se espera el lanzamiento de USB versión 3.0, que representaría un avance en la velocidad de transmisión de datos entre el dispositivo conectado y la computadora.
- 2010: Qualcomm lanza el primer procesador móvil doble núcleo a 1,5 Ghz
- 2012: Microsoft lanza windows 8.
-UNIDADES DE MEDIDA!
Bit
Es el elemento más pequeño de información de la computadora. Un bit es un único dígito en un número binario (0 o 1) los cuales agrupados forman unidades más grandes de datos en los sistemas de las computadoras, siendo el byte (8 bits) siendo el más conocido de estos
Byte
Llamado también objeto el cual se describe como la unidad básica de almacenamiento de información, generalmente equivalente a 8 bits pero el tamaño del bit depende del código de información en el que se defina.
Kilobyte
Es una unidad de medida utilizada en informática que equivale a 1024 bytes. Es una unidad común para la capacidad de memoria o almacenamiento de las microcomputadoras .
Megabyte
Es una unidad de medida de cantidad de datos informáticos. Es un múltiplo binario del byte que equivale a un millón de bytes
(1 048576 bytes)
Gigabyte
Es un múltiplo del byte de símbolo gb que se describe como la unidad de medida más utilizada en los discos duros. El cual también es una unidad de almacenamiento.
Un gigabyte es con exactitud (1,073,742,824 bytes o mil 1024 megabytes)
Terabyte
Es la unidad de medida de la capacidad de memoria y de dispositivos de almacenamiento informático. Su símbolo es TB y coincide con algo más de un trillón de bytes
1 cuarteto=4 bits
1 byte= 8 bits
1 kilobytes=1024 x 8= 8192 bits
1 megabyte= 1024 x 1024 x 8= 8388608 bits
1 gigabytes=1024 x 1024 x 1024 x 8= 8589934592bits
Ejercicio
64Gb a bits= 549 755 813 888bits
256mb a bits=2147483648bits
16mb a kb=16384kb
128kb a byte=131072bytes
4mb a byte=4194304bytes
30kb a bits=245760bits
2Gb a MB=2048mb
15 Mb a bits=125829120bits
20 GB a bits=171 798 691 840 bits
Es el elemento más pequeño de información de la computadora. Un bit es un único dígito en un número binario (0 o 1) los cuales agrupados forman unidades más grandes de datos en los sistemas de las computadoras, siendo el byte (8 bits) siendo el más conocido de estos
Byte
Llamado también objeto el cual se describe como la unidad básica de almacenamiento de información, generalmente equivalente a 8 bits pero el tamaño del bit depende del código de información en el que se defina.
Kilobyte
Es una unidad de medida utilizada en informática que equivale a 1024 bytes. Es una unidad común para la capacidad de memoria o almacenamiento de las microcomputadoras .
Megabyte
Es una unidad de medida de cantidad de datos informáticos. Es un múltiplo binario del byte que equivale a un millón de bytes
(1 048576 bytes)
Gigabyte
Es un múltiplo del byte de símbolo gb que se describe como la unidad de medida más utilizada en los discos duros. El cual también es una unidad de almacenamiento.
Un gigabyte es con exactitud (1,073,742,824 bytes o mil 1024 megabytes)
Terabyte
Es la unidad de medida de la capacidad de memoria y de dispositivos de almacenamiento informático. Su símbolo es TB y coincide con algo más de un trillón de bytes
1 cuarteto=4 bits
1 byte= 8 bits
1 kilobytes=1024 x 8= 8192 bits
1 megabyte= 1024 x 1024 x 8= 8388608 bits
1 gigabytes=1024 x 1024 x 1024 x 8= 8589934592bits
Ejercicio
64Gb a bits= 549 755 813 888bits
256mb a bits=2147483648bits
16mb a kb=16384kb
128kb a byte=131072bytes
4mb a byte=4194304bytes
30kb a bits=245760bits
2Gb a MB=2048mb
15 Mb a bits=125829120bits
20 GB a bits=171 798 691 840 bits
-COMPONENTES DE HARDWARE!
Un sistema computacional consiste en un conjunto de componentes electrónicos y electromecánicos interconectados que almacenan y transforman símbolos en base a las instrucciones especificadas en los componentes software del mismo sistema.
Conceptualmente, es posible distinguir 5 tipos de componentes hardware:- Procesadores
- Memoria principal
- Dispositivos de entrada
- Dispositivos de almacenamiento secundario
- Dispositivo de salida
Una computadora debe ser capaz de recibir, a través de sus dispositivos de entrada, ciertos datos e instrucciones para manipular éstos. Una vez que los datos e instrucciones son ingresados, el computador debe ser capaz de almacenarlos internamente en su memoria primaria y luego, procesar los datos en base a las instrucciones suministradas utilizando su(s) procesador(es).
Dado que la memoria principal posee una capacidad limitada y es típicamente volátil (su contenido se pierde cuando el componente no recibe energía), es necesario disponer de alternativas para el almacenamiento de datos e instrucciones; ese es el rol de los dispositivos de almacenamiento secundario.
Finalmente, el producto resultante del procesamiento de los datos es entregado al usuario u otros sistemas a través de los dispositivos de salida.
¿Por qué es importante conocer sobre los componentes hardware de un sistema computacional?
Pese a que la mayor parte de los sistemas computacionales poseen una estructura similar, las características de sus componentes hardware varían y estas variaciones pueden crearproblemas a los usuarios:- Un primer problema es la capacidad de la memoria y los dispositivos de almacenamiento secundario: La capacidad de la memoria determina la extensión de almacenamiento y por lo tanto, la complejidad de los programas y la cantidad de datos que puede almacenar.
- Un segundo problema es la velocidad del procesador. Pese a que la velocidad de los procesadores se ha incrementado en dos órdenes de magnitud en los últimos 20 años, su velocidad puede no ser la adecuada para cierta necesidad de procesamiento de datos. Si el usuario requiere realizar muchos cálculos, como es el caso del procesamiento científico y gráfico, diferencias en términos de la velocidad del procesador pueden dar origen a diferencias de horas, días, meses y aún años en la producción de los resultados.
- Si tiene acceso a más de un sistema computacional, investigue la velocidad del procesador de cada uno de ellos.
Dispongo de acceso directo a una computadora personal, a mi computadora personal y a la que utilizo en el trabajo. La primera es un 486DX4 100 MHz, la segunda es un Pentium MMX 233 MHz y la última es un Pentium MMX 166 MHz
- Ejecute en dichos sistemas computacionales programas que realicen la misma tarea (ej: digitalizacion de vídeo, edición de imágenes 2-D o 3-D, clasificación y/o ordenamiento de un conjunto de datos de gran tamaño, reemplazo de una palabra en un archivo de texto de gran tamaño). ¿Es apreciable la diferencia de velocidad?
Definitivamente. Se aprecia enormemente la diferencia entre los pentium con respecto al 486 y en menor medida entre el 166 y el 233.
- ¿Cuál es la percepción existente en la organización a la que Ud. pertenece en relación al impacto de cambios en la velocidad de los procesadores en las tareas de procesamiento de datos?
El proceso de globalización exige una más rápida respuesta del personal que labora en una empresa para poder lograr un nivel competitivo con los mejores. Por tal razón, la disponibilidad de herramientas adecuadas para la labor que se debe ejecutar es importante e imperativa; por otro lado, una computadora rápida permite culminar trabajos en menor tiempo y liberar congestión dentro de las redes de datos corporativos.
- Otro problema es la compatibilidad. La forma en que los datos son almacenados, no es la misma en todos los sistemas. Del mismo modo, distintos procesadores reconocen distintos tipos de instrucciones. En consecuencia, un programa ejecutable en un computador puede no ser ejecutable en otro que posea un procesador diferente.
- ¿Son todos los sistemas computacionales de su organización idénticos?
A pesar de corresponderse a computadoras de tecnología semejante, no necesariamente son productos elaborados por un mismo fabricante. En general, las computadoras de escritorio son de tecnología semejante, Pentium MMX 166 con 32 MRAM y disco de 2 GB como estándar corporativo; pero también existen computadoras de otro tipo de tecnología como las Machintoch para el procesamiento de imágenes mediante herramientas como los scanner y que se ubican en los centros de usuarios o los AS400 como computadores VM corporativos para el análisis y almacenamiento de datos corporativos de interes para grupos de trabajo especializados.
- De no ser así, ¿qué problemas han causado las diferencias entre ellos?
El procesador.
El procesador es el encargado de realizar los cálculos aritméticos, tomar decisiones lógicas y coordinar gran parte de las acciones realizadas por los restantes componentes del sistema computacional. La primeras dos tareas son realizadas por la unidad aritmético-lógica u operador de datos, mientras que la última es realizada por la unidad de control.
La unidad aritmético-lógica (ALU) contiene circuitos aritméticos y lógicos capaces de sumar, restar, multiplicar, dividir y comparar números. Junto con ello, la ALU contiene un conjunto de componentes denominados registros, que permiten el almacenamiento de datos al interior del procesador en forma temporal.
Para realizar una computación, los números son transferidos desde la memoria principal hacia los registros en la CPU y de allí enviados a los circuitos aritméticos y lógicos, siendo los resultados de la operación realizada enviados también a algún registro para de allí ser transferidos, de ser necesario, a la memoria principal
La unidad de control es la encargada de generar señales hacia los distintos componentes de modo tal de posibilitar la ejecución de las instrucciones. Para ello, la instrucción a ser ejecutada es almacenada en un registro de instrucciones y decodificada por un decodificador de instrucciones el cual posibilita la activación selectiva de aquellas señales de control asociadas a la ejecución de una instrucción específica.
La memoria principal
La memoria principal es aquel componente del sistema computacional que almacena los programas y datos que están siendo procesados. Ella, en tiempo de ejecución, debe contener el sistema operativo, las instrucciones para manipular los datos y los datos mismos.
Las computadoras utilizan dos tipos de memoria de acceso aleatorio:
- Memoria de solo lectura (ROM - Read Only Memory)
- Memoria de lectura y escritura (RAM - Random Access Memory)
En la memoria de tipo ROM residen los programas de arranque de la máquina que le indican al microprocesador que hacer y como evaluar el hardware existente (del que dispone); la ROM contiene el programa en forma permanente que establece las características de la máquina y la interconectividad entre los dispositivos desde el punto de vista del hardware y sus líneas de control; son los programas que se cargen en la computadora, los que determinaran que tipo de uso se le va ha dar al dispositivo desde el punto de vista de trabajo que debe de realizar según su capacidad.
En la RAM residen en forma temporal los programas cargados por el usuario para el desarrollo de trabajos útiles según sus necesidades (las del usuario).
- La próxima vez que Ud. encienda un computador tome nota de las acciones que pueda percibir y que afecten algún componente hardware.
- ¿Podría Ud. establecer qué programas residen en la ROM de su computador?
A pesar de que al momento de arrancar la computadora, los programas residentes en la ROM se ejecutan en forma oculta; solo una de las rutinas es posible visualizar y esta es la rutina de evaluación de la existencia de memoria. Sin embargo, cuando se instala algún dispositivo conflictivo o se desinstala por ejemplo la memoria RAM o el teclado, el programa de la ROM al evaluar el hardware existente detecta la falta de estos y emite un anuncio sonoro o en forma de texto que advierte al usuario sobre la situación anormal encontrada. También es posible ver como la ROM residente en tarjetas y periféricos, emite un mensaje escrito y gráfico en algunos casos indicando al usuario de la existencia y reconocimiento de este hardware (ejemplo las funciones de ahorro de energía o la existencia de tarjetas de vídeo especial)
Las memorias ROM almacenan ciertos programas e información necesaria para el funcionamiento del sistema computacional en forma permanentemente, de ahí el calificativo "solo de lectura". Este tipo de memoria es no volátil, ya que su contenido no desaparece o se borra cuando se desconecta el suministro eléctrico al componente.
Las instrucciones básicas que se necesitan para que un computador inicie su operación están almacenadas en memorias ROM, así como también algunos programas utilitarios y, en algunos casos, software.
Las memorias RAM también puede almacenar ciertos programas vitales para el funcionamiento de la computadora. Sin embargo en las RAM el usuario puede almacenar la información, modificarla o borrarla. La capacidad de la RAM afecta la forma en que se ejecutan los programas y la cantidad de datos que pueden procesarse. Cuanto más fácil de usar sea un programa, tanta más RAM se necesitará generalmente.LA RAM es una memoria volátil, su contenido se pierde cuando la computadora se desconecta (excepto en algunas que están provistas de baterías específicamente orientadas a mantener el contenido de la RAM).
- ¿Alguna vez ha estado utilizando un sistema computacional en el momento en que se ha suspendido el suministro de energía eléctrica?
- ¿Qué ha ocurrido con los datos en esos casos?
Los trabajos así como los datos que se estaban obteniendo en el momento, se pierden si no se dispone de una unidad de energía de respaldo como los UPS. Solo se pierden los datos que se encuentran en la RAM y que no se han almacenado en un medio de registro permanente como el disco duro.
La memoria principal de un computador está formada por componentes electrónicos biestables, es decir, que pueden adoptar uno de dos estados posibles (on/off, 0/1). Cada uno de estos componentes es capaz de almacenar un dígito binario o bit.
Los bits en la memoria deben ser organizados de modo tal de poder almacenar y/o recuperar datos: caracteres y números. Para ello, los bits son organizados en grupos, constituyendo cada uno de esos grupos una posición de almacenamiento. Un grupo de 8 bits constituye un byte y en él es posible almacenar la representación binaria de un caracter. Típicamente, un grupo de 16 bits se denomina palabra, sin embargo, el término se ha generalizado de modo tal que se utiliza para indicar un grupo de 8*k bits, con k>1. Se habla entonces, por ejemplo, de palabras de 32 o 64 bits.
La capacidad de almacenamiento de un computador es medida en términos del número de bytes en memoria principal. Generalmente, la capacidad es establecida en kilobytes (KB) omegabytes (MB).
1 KB = 1024 bytes = 210 Bytes
1 MB = 1048576 bytes = 220 bytes
2- ARQUITECTURA DE LOS COMPUTADORES!
La arquitectura de computadoras es el diseño conceptual y la estructura operacional fundamental de un sistema de computadora. Es decir, es un modelo y una descripción funcional de los requerimientos y las implementaciones de diseño para varias partes de una computadora, con especial interés en la forma en que launidad central de proceso (UCP) trabaja internamente y accede a las direcciones de memoria.
También suele definirse como la forma de seleccionar e interconectar componentes de hardware para crear computadoras según los requerimientos de funcionalidad, rendimiento y costo.
El ordenador recibe y envía la información a través de los periféricos por medio de los canales. La UCP es la encargada de procesar la información que le llega al ordenador. El intercambio de información se tiene que hacer con los periféricos y la UCP. Todas aquellas unidades de un sistema exceptuando la UCP se denomina periférico, por lo que el ordenador tiene dos partes bien diferenciadas, que son: la UCP (encargada de ejecutar programas y que está compuesta por la memoria principal, la UAL y la UC) y los periféricos (que pueden ser de entrada, salida, entrada-salida y comunicaciones).
A estos procesadores se les conoce como pipeline processors. Estos están compuestos por una lista de segmentos lineales y secuenciales en donde cada segmento lleva a cabo una tarea o un grupo de tareas computacionales. Los datos que provienen del exterior se introducen en el sistema para ser procesados. La computadora realiza operaciones con los datos que tiene almacenados en memoria, produce nuevos datos o información para uso externo.
Las arquitecturas y los conjuntos de instrucciones se pueden clasificar considerando los siguientes aspectos:
Las principales alternativas son:
En la arquitectura de pila no es necesario nombrar a los operandos ya que estos se encuentran en el tope de la pila. (Ej.: calculadora de pila HP)
La Arquitectura de registros tiene sólo operandos explícitos (es aquel que se nombra) en registros o memoria.
La historia del software como se ha visto, no surge con los equipos electrónicos, -aunque es con ellos que adopta el nombre- está presente desde el empleo de ábacos o sumadoras mecánicas. Sin embargo, en estos casos, el software no se encuentra incorporado en el equipo. Es aportado por el operario. La máquina analítica de Charles Babbage, incidentalmente, tuvo su software, y fue una amiga de éste, la legendaria lady Lovelace, quien aportó el software que no se llegó a usar, dado que la máquina nunca se completó. En el ENIAC el control de las operaciones estaba parcialmente integrado en el equipo. Dicho control era realizado por un circuito que requería un alambrado específico para cada aplicación. Imaginemos lo engorroso que resultaba realambrar el circuito cada vez que cambiaba el uso del ENIAC.
También suele definirse como la forma de seleccionar e interconectar componentes de hardware para crear computadoras según los requerimientos de funcionalidad, rendimiento y costo.
El ordenador recibe y envía la información a través de los periféricos por medio de los canales. La UCP es la encargada de procesar la información que le llega al ordenador. El intercambio de información se tiene que hacer con los periféricos y la UCP. Todas aquellas unidades de un sistema exceptuando la UCP se denomina periférico, por lo que el ordenador tiene dos partes bien diferenciadas, que son: la UCP (encargada de ejecutar programas y que está compuesta por la memoria principal, la UAL y la UC) y los periféricos (que pueden ser de entrada, salida, entrada-salida y comunicaciones).
Índice |
Introducción
La implantación de instrucciones es similar al uso de una serie de desmontaje en una fábrica de manufacturación. En las cadenas de montaje, el producto pasa a través de muchas etapas de producción antes de tener el producto desarmado. Cada etapa o segmento de la cadena está especializada en un área específica de la línea de producción y lleva a cabo siempre la misma actividad. Esta tecnología es aplicada en el diseño de procesadores eficientes.A estos procesadores se les conoce como pipeline processors. Estos están compuestos por una lista de segmentos lineales y secuenciales en donde cada segmento lleva a cabo una tarea o un grupo de tareas computacionales. Los datos que provienen del exterior se introducen en el sistema para ser procesados. La computadora realiza operaciones con los datos que tiene almacenados en memoria, produce nuevos datos o información para uso externo.
Las arquitecturas y los conjuntos de instrucciones se pueden clasificar considerando los siguientes aspectos:
- Almacenamiento de operativos en la CPU: dónde se ubican los operadores aparte de la substractora informativa (SI)
- Número de operandos explícitos por instrucción: cuántos operandos se expresan en forma explícita en una instrucción típica. Normalmente son 0, 1, 2 y 3.
- Posición del operando: ¿Puede cualquier operando estar en memoria?, o deben estar algunos o todos en los registros internos de la CPU. Cómo se especifica la dirección de memoria (modos de direccionamiento disponibles).
- Operaciones: Qué operaciones están disponibles en el conjunto de instrucciones.
- Tipo y tamaño de operandos y cómo se especifican.
Almacenamiento de operandos en la CPU
La diferencia básica está en el almacenamiento interno de la CPU.Las principales alternativas son:
- Acumulador.
- Conjunto de registros.
- Memoria
En la arquitectura de pila no es necesario nombrar a los operandos ya que estos se encuentran en el tope de la pila. (Ej.: calculadora de pila HP)
La Arquitectura de registros tiene sólo operandos explícitos (es aquel que se nombra) en registros o memoria.
Ventajas de las arquitecturas
- Pila: Modelo sencillo para evaluación de expresiones (notación polaca inversa). Instrucciones cortas pueden dar una buena densidad de código.
- Acumulador: Instrucciones cortas. Minimiza estados internos de la máquina (unidad de control sencilla).
- Registro: Modelo más general para el código de instrucciones parecidas. Automatiza generación de código y la reutilización de operandos. Reduce el tráfico a memoria. Una computadora actualmente tiene como estándar 32 registros. El acceso a los datos es más rápido, y veloz.
Desventajas de las arquitectura
- Pila: A una pila no se puede acceder aleatoriamente. Esta limitación hace difícil generar código eficiente. También dificulta una implementación eficiente, ya que la pila llega a ser un cuello de botella es decir que existe dificultad para la transferencia de datos en su velocidad mk.
- Acumulador: Como el acumulador es solamente almacenamiento temporal, el tráfico de memoria es el más alto en esta aproximación.
- Registro: Todos los operadores deben ser nombrados, conduciendo a instrucciones más largas.
3-QUE ES SOFTWARE!
Se conoce como software1 al equipamiento lógico o soporte lógico de un sistema informático, que comprende el conjunto de los componentes lógicos necesarios que hacen posible la realización de tareas específicas, en contraposición a los componentes físicos que son llamados hardware.
Los componentes lógicos incluyen, entre muchos otros, las aplicaciones informáticas; tales como el procesador de texto, que permite al usuario realizar todas las tareas concernientes a la edición de textos; el llamado software de sistema, tal como elsistema operativo, que básicamente permite al resto de los programas funcionar adecuadamente, facilitando también la interacción entre los componentes físicos y el resto de las aplicaciones, y proporcionando una interfaz con el usuario.
El anglicismo "software" es el más ampliamente difundido al referirse a este concepto, especialmente en la jerga técnica; el término sinónimo "logical", derivado del término francés "logiciel", sobre todo es utilizado en países y zonas de influencia francesa.
-HISTORIA DE SOFTWARE!
La historia del software como se ha visto, no surge con los equipos electrónicos, -aunque es con ellos que adopta el nombre- está presente desde el empleo de ábacos o sumadoras mecánicas. Sin embargo, en estos casos, el software no se encuentra incorporado en el equipo. Es aportado por el operario. La máquina analítica de Charles Babbage, incidentalmente, tuvo su software, y fue una amiga de éste, la legendaria lady Lovelace, quien aportó el software que no se llegó a usar, dado que la máquina nunca se completó. En el ENIAC el control de las operaciones estaba parcialmente integrado en el equipo. Dicho control era realizado por un circuito que requería un alambrado específico para cada aplicación. Imaginemos lo engorroso que resultaba realambrar el circuito cada vez que cambiaba el uso del ENIAC.
Hasta este momento, no se percibía una diferencia sustancial entre el equipo y el control de las operaciones. El concepto de programa de control almacenado en memoria, aportación popularmente atribuida a John von Neumann, precipitó el desarrollo de software. En éste se perfilaron dos tendencias de desarrollo: los programas de aplicación y los de servicio. Estos últimos tenían como propósito facilitar el desarrollo de programas a partir de programas. Algunos programas de servicio fueron simples cargadores que permitieron emplear notaciones como el octal o hexadecimal más compactas que el binario. Otros como los ensambladores simplificaron más el proceso al reemplazar las notaciones numéricas con los símbolos mnemónicos que aportaron para describir a cada instrucción de la máquina. El siguiente paso significativo fue la traducción de fórmulas, que permitió el desarrollo de la historia del software y la descripción de los algoritmos con el empleo de expresiones algebraicas.
-COMPONENTES DE SOFTWARE!
Componente de Software, un elemento de un sistema software que ofrece un conjunto de servicios, o funcionalidades, a través de interfaces definidas.
Según el Object Management Group
Definición
Según el Object Management Group
En la especificación UML, un componente es una unidad modular con interfaces bien definidas, que es reemplazable dentro del contexto.1 Así, un componente define su comportamiento en términos de interfaces proveídas y requerida; y dicho componente será totalmente reemplazable por otro que cumpla con las interfaces declaradas.
UML no coloca ninguna restricción respecto a la granularidad del componente, de esta forma un componente podrá ser tan simple como un convertidor de moneda o tan complejo como un sistema de ayuda semántico.
Según el WCOP'96 [editar]
Fruto del primer Workshop sobre Programación Orientada a Componentes, se acuñó la definición: Unidad de composición con interfaces especificadas contractualmente, con dependencias explícitas de acuerdo al contexto. Un componente de software puede ser desplegado de forma independiente y puede participar en composiciones de terceras partes.
Características
Un componente de software debe poseer las siguientes características:
- Ser reutilizable.
- Ser intercambiable.
- Poseer interfaces definidas.
- Ser cohesivos
Implementaciones
Los componentes de software son la piedra angular de diferentes paradigmas de programación. Esto ha generado la aparición en el mercado de diferentes especificaciones que plantean la forma de construir, utilizar y distribuir componentes. Entre las más extendidas se encuentran:
Estándares
Common Object Request Broker Architecture (CORBA) del Object Management Group.
- JavaBeans, servlets y Enterprise Java Beans de Oracle
- Open Services Gateway Initiative (OSGi) de OSGi Alliance
- COM, COM + y DCOM de Microsoft
Paradigmas
Los componentes de software son útiles en:
- Programación Orientada a Componentes
- Programación Orientada a Objetos
- Arquitectura Orientada a Servicios (SOA)2
4-CLASES DE SOFTWARE!
-LICENCIAS MAS COMUNES!
Periférico (informática)
En informática, se denomina periféricos a los aparatos y/o dispositivos auxiliares e independientes conectados a la unidad central de procesamiento de una computadora.
Se consideran periféricos tanto a las unidades o dispositivos a través de los cuales la computadora se comunica con el mundo exterior, como a los sistemas que almacenan o archivan la información, sirviendo de memoria auxiliar de la memoria principal.[cita requerida]
Se entenderá por periférico al conjunto de dispositivos que, sin pertenecer al núcleo fundamental de la computadora, formado por laCPU y la memoria central, permitan realizar operaciones de entrada/salida (E/S) complementarias al proceso de datos que realiza la CPU. Estas tres unidades básicas en un computador, CPU, memoria central y el subsistema de E/S, están comunicadas entre sí por tres buses o canales de comunicación:
- direcciones, para seleccionar la dirección del dato o del periférico al que se quiere acceder,
- control, básicamente para seleccionar la operación a realizar sobre el dato (principalmente lectura, escritura o modificación) y
- datos, por donde circulan los datos.
A pesar de que el término periférico implica a menudo el concepto de “adicional pero no esencial”, muchos de ellos son elementos fundamentales para un sistema informático. El teclado y el monitor, imprescindibles en cualquier computadora personal de hoy en día (no lo fueron en los primeros computadores), son posiblemente los periféricos más comunes, y es posible que mucha gente no los considere como tal debido a que generalmente se toman como parte necesaria de una computadora. El ratón o mouse es posiblemente el ejemplo más claro de este aspecto. Hace menos de 20 años no todos las computadora personales incluían este dispositivo. El sistema operativo MS-DOS, el más común en esa época, tenía una interfaz de línea de comandos para la que no era necesaria el empleo de un ratón, todo se hacía mediante comandos de texto. Fue con la popularización de Finder, sistema operativo de la Macintosh de Apple y la posterior aparición de Windows cuando el ratón comenzó a ser un elemento imprescindible en cualquier hogar dotado de una computadora personal. Actualmente existen sistemas operativos con interfaz de texto que pueden prescindir del ratón como, por ejemplo, algunos sistemas básicos de UNIX y GNU/Linux.
Índice[ocultar] |
Tipos de periféricos [editar]
Los periféricos pueden clasificarse en 3 categorías principales:
- Periféricos de entrada: captan y digitalizan los datos de ser necesario, introducidos por el usuario o por otro dispositivo y los envían al ordenador para ser procesados.
- Periféricos de salida: son dispositivos que muestran o proyectan información hacia el exterior del ordenador. La mayoría son para informar, alertar, comunicar, proyectar o dar al usuario cierta información, de la misma forma se encargan de convertir los impulsos eléctricos en información legible para el usuario. Sin embargo, no todos de este tipo de periféricos es información para el usuario.
- Periféricos de entrada/salida (E/S): sirven básicamente para la comunicación de la computadora con el medio externo.
Los periféricos de entrada/salida son los que utiliza el ordenador tanto para mandar como para recibir información. Su función es la de almacenar o guardar, de forma permanente o virtual, todo aquello que hagamos con el ordenador para que pueda ser utilizado por los usuarios u otros sistemas.
Son ejemplos de periférico de entrada/salida o de almacenamiento:
- Disco duro
- Impresora
- Memoria flash
- Cintas magnéticas
- Memoria portátil
- Disquete
- Pantalla táctil
- Casco virtual
- Grabadora y/o lector de CD
- Grabadora y/o lector de DVD
- Grabadora y/o lector de Blu-ray
- Grabadora y/o lector de HD-DVD
- Periféricos de almacenamiento: son los dispositivos que almacenan datos e información por bastante tiempo. La memoria de acceso aleatorio no puede ser considerada un periférico de almacenamiento, ya que su memoria es volátil y temporal.
- Periféricos de comunicación: son los periféricos que se encargan de comunicarse con otras máquinas o computadoras, ya sea para trabajar en conjunto, o para enviar y recibir información.
Periféricos de entrada [editar]
Son los que permiten introducir datos externos a la computadora para su posterior tratamiento por parte de la CPU. Estos datos pueden provenir de distintas fuentes, siendo la principal un ser humano. Los periféricos de entrada más habituales son:
- Teclado
- Micrófono
- Escáner
- Ratón o mouse
- Palanca de mando (Joystick)
- Gamepad
- Escáner de código de barras
- Cámara web
- Lápiz óptico
- Cámara digital
Periféricos de salida [editar]
Son los que reciben la información procesada por la CPU y la reproducen, de modo que sea perceptible por el usuario. Algunos ejemplos son:
Periféricos de almacenamiento [editar]
Se encargan de guardar los datos de los que hace uso la CPU, para que ésta pueda hacer uso de ellos una vez que han sido eliminados de la memoria principal, ya que ésta se borra cada vez que se apaga la computadora. Pueden ser internos, como un disco duro, o extraíbles, como un CD. Los más comunes son:
- Disco duro
- Disquete
- Unidad de CD
- Unidad de DVD
- Unidad de Blu-ray Disc
- Memoria flash
- Memoria USB
- Cinta magnética
- Tarjeta perforada
- Memoria portátil
- Otros dispositivos de almacenamiento:
- Zip (Iomega): Caben 100 Mb y utiliza tecnología magnética.
- EZFlyer (SyQuest): Caben 230 Mb y tiene una velocidad de lectura muy alta
- SuperDisk LS-120: Caben 200 Mb y utilizan tecnología magneto-óptica.
- Magneto-ópticos de 3,5: Caben de 128 Mb a 640 Mb
- Jaz (Iomega): Similar al dispositivo Zip y con capacidad de 1 GB a 2 GB.
Periféricos de comunicación [editar]
Su función es permitir o facilitar la interacción entre dos o más computadoras, o entre una computadora y otro periférico externo a la computadora. Entre ellos se encuentran los siguientes:
- Fax-Módem
- Tarjeta de red
- Concentrador
- Conmutador
- Enrutador
- Tarjeta inalámbrica
- Tarjeta Bluetooth
-SOFTWARE PROPIETARIO!
De Wikipedia, la enciclopedia libre
El término software propietario, barbarismo resultante del falso amigo en inglés proprietary software, también conocido como privativo, privado, de código cerrado, cautivo o software no libre (en especial en la comunidad de software libre), es cualquier programa informático en el que el usuario tiene limitaciones para usarlo, modificarlo o redistribuirlo (esto último con o sin modificaciones).
El término ha sido creado para designar al antónimo del concepto de software libre, por lo cual en diversos sectores se le han asignado implicaciones políticas relativas al mismo. Para la Fundación para el Software Libre (FSF), este concepto se aplica a cualquier programa informático que no es libre o que sólo lo es parcialmente (semilibre), sea porque su uso, redistribución o modificación está prohibida, o sea porque requiere permiso expreso del titular del software.
La persona física o jurídica (compañía, corporación, fundación, etc.), al poseer los derechos de autor sobre un software, tiene la posibilidad de controlar y restringir los derechos del usuario sobre su programa, lo que en el software no libre implica por lo general que el usuario sólo tendrá derecho a ejecutar el software bajo ciertas condiciones, comúnmente fijadas por el proveedor, que signifique la restricción de una o varias de las cuatro libertades.
Índice |
Historia [editar]
Es documentalmente incomparable que en los años 60 los laboratorios Bell proporcionaron el código fuente de su sistema operativo UNIX,[1] y tiempo después comenzó a existir lo que se conoce como software de código cerrado. Sin embargo hay que destacar que, al inicio de la era de la informática, era común que agrupaciones científicas estuvieran dispuestas a ceder su código a terceros sin un pago por el mismo ya que tampoco había una política que lo reglamentara y además era un beneficio común conocer los desarrollos ajenos en busca de la estandarización.[2]
Pasado el tiempo es en 1972 cuando el gobierno de los Estados Unidos obliga a IBM a distinguir entre software y hardware que hasta entonces no se distinguían claramente, dando lugar a los primeros intentos de cerrar el código de los programas. Aún en esa época, se encontraba en revistas como Creative Computing yByte hojas y hojas llenas de código libre.[3]
Software propietario [editar]
No existe consenso sobre el término a utilizar para referirse al opuesto del software libre. La expresión software propietario proviene del término en inglés"proprietary software". En la lengua anglosajona, "proprietary" significa «poseído o controlado privadamente» («privately owned and controlled»), que destaca la manutención de la reserva de derechos sobre el uso, modificación o redistribución del software. Inicialmente utilizado, pero con el inconveniente que la acepción proviene de una traducción literal del inglés, no correspondiendo su uso como adjetivo en el español, de manera que puede ser considerado como unbarbarismo.
El término "propietario" en español resultaría inadecuado, pues significa que «tiene derecho de propiedad sobre una cosa»,[4] por lo que no podría calificarse de "propietario" al software, porque éste no tiene propiedad sobre nada (es decir, no es dueño de nada) y, además, no podría serlo (porque es una cosa y no unapersona). Asimismo, la expresión "software propietario" podría ser interpretada como "software sujeto a propiedad" (derechos o titularidad) y su opuesto, el software libre, también está sujeto al derecho de autor. Otra interpretación es que contrariamente al uso popular del término, se puede afirmar de que "todo software es propietario", por lo que la forma correcta de referirse al software con restricciones de uso, estudio, copia o mejora es la de software privativo, según esta interpretación el término "propietario" podría aplicarse tanto para software libre como software privativo, ya que la diferencia entre uno y otro está en que el dueño del software privativo lo licencia como propiedad privada y el de software libre como propiedad social.[5] Con la intención de corregir el defecto de la expresión "software propietario" aparece el llamado "software con propietario", sin embargo se argumenta contra del término "con propietario" justamente su similitud conproprietary en inglés, que sólo haría referencia a un aspecto del software que no es libre, manteniendo una de las principales críticas a éste (de "software sujeto a derechos" o "propiedad"). Adicionalmente, si "propietario" refiere al titular de los derechos de autor (y está claro que no puede referir al usuario, en tanto éste es simplemente un cesionario), no resuelve la contradicción: todo el software libre tiene también titulares de derechos de autor.
Según la opinión de algunos activistas del Movimiento de Software Libre, el término "software propietario" fue introducido por empresas desarrolladoras de software privativo como campaña publicitaria para desacreditar al software libre en cuanto a la propiedad del mismo haciéndola parecer como difusa y sin ninguna garantía de soporte legal para quien lo adquiría. La expresión software privativo comenzó al ser utilizada por Richard Stallman, desde el año 2003, en sus conferencias sobre software libre, pues sería más adecuada que "software propietario". [cita requerida] El término "privativo" significa "que causa privación o restricción de derechos o libertades", justamente lo que se pretende describir con él: la privación a los usuarios de sus libertades en relación al software, esto desde el punto de vista de las organizaciones que apoyan las opciones de software libre.[6]
La expresión software no libre (en inglés non-free software) es usado por la FSF para agrupar todo el software que no es libre, es decir, incluye al llamado en inglés "semi-free software" (software semilibre) y al "propietary software".[7] Asimismo, es frecuentemente utilizado para referirse al software que no cumple con las Directrices de software libre de Debian, las cuales siguen la misma idea básica de libertad en el software, propugnada por la FSF, y sobre las cuales está basada la definición de código abierto de la Open Source Initiative.
Adicionalmente el software de código cerrado nace como antónimo de software de código abierto y por lo tanto se centra más en el aspecto de ausencia de acceso al código que en los derechos sobre el mismo. Éste se refiere sólo a la ausencia de una sola libertad por lo que su uso debe enfocarse sólo a este tipo de software y aunque siempre signifique que es un software que no es libre, no tiene que ser software de código cerrado.
La expresión software privado es usada por la relación entre los conceptos de tener y ser privado. Este término sería inadecuado debido a que, en una de sus acepciones, la palabra "privado" se entiende como antónimo de "público", es decir, que «no es de propiedad pública o estatal, sino que pertenece a particulares»,[8]provocando que esta categoría se interpretara como no referente al Estado, lo que produciría la exclusión del software no libre generado por el aparato estatal. Además, el "software público" se asocia generalmente con software de dominio público.
Críticas [editar]
En la filosofía del proyecto GNU se considera inmoral la instalación del software privativo.[9] Su fundador, Richard Stallman ha indicado en múltiples ocasiones que el software privativo al ser adquirido por un particular genera en él inmediatamente un dilema ético si se muestra tal programa a un amigo y este nos lo pide, aparece el dilema: o soy un buen cliente y entonces mal amigo -por no compartir- o soy un buen amigo y entonces mal cliente y en algunos casos perseguido por la ley por prestar mi software.[10]
Dadas las características del software de código cerrado un usuario común ignora absolutamente el contenido del mismo y por tanto si existe dentro de las líneas del código alguna amenaza contra su equipo o su información, además el usuario no sólo tiene prohibido el intentar eliminar o cambiar esa parte del código sino que puede ser perseguido por la ley por el hecho de intentar conocer si existe tal amenaza en dicho software.
Por otra parte, en una sociedad de la información, el software se ha convertido en una herramienta importante de productividad, y una licencia de software privativo constituye un acuerdo o contrato entre dos sujetos jurídicos que voluntariamente acuerdan las condiciones de uso de un programa.
5-TIPOS DE SOFTWARE!
El término software (partes suaves o blandas en castellano) hace alusión a la sumatoria de aquellas reglas, programas, datos, documentación e instrucciones que permiten la ejecución de múltiples tareas en un ordenador. Es su parte lógica e intangible y actúa como nexo entre el usuario y el hardware (partes duras), es decir, la parte tangible de la computadora.
A grandes rasgos, se puede decir que existen tres tipos de software:
Software de Aplicación: aquí se incluyen todos aquellos programas que permiten al usuario realizar una o varias tareas específicas. Aquí se encuentran aquellos programas que los individuos usan de manera cotidiana como: procesadores de texto, hojas de cálculo, editores, telecomunicaciones, software de cálculo numérico y simbólico, videojuegos, entre otros.
Software de Programación: son aquellas herramientas que un programador utiliza para poder desarrollar programas informáticos. Para esto, el programador se vale de distintos lenguajes de programación. Como ejemplo se pueden tomar compiladores, programas de diseño asistido por computador, paquetes integrados, editores de texto, enlazadores, depuradores, intérpretes, entre otros.
Software de Sistema: es aquel que permite a los usuarios interactuar con el sistema operativo así como también controlarlo. Este sistema está compuesto por una serie de programas que tienen como objetivo administrar los recursos del hardware y, al mismo tiempo, le otorgan al usuario una interfaz. El sistema operativo permite facilitar la utilización del ordenador a sus usuarios ya que es el que le da la posibilidad de asignar y administrar los recursos del sistema, como ejemplo de esta clase de software se puede mencionar a Windows, Linux y Mac OS X, entre otros. Además de los sistemas operativos, dentro del software de sistema se ubican las herramientas de diagnóstico, los servidores, las utilidades, los controladores de dispositivos y las herramientas de corrección y optimización, etcétera.
-SOFTWARE DE SISTEMA!
En terminología informática el software de sistema, denominado también software de base, consiste en software que sirve para controlar e interactuar con el sistema operativo, proporcionando control sobre el hardware y dando soporte a otros programas; en contraposición del llamado software de aplicación. Como ejemplos cabe mencionar a las bibliotecas como por ejemplo OpenGL para la aceleración gráfica, PNG para el sistema gráfico o demonios que controlan la temperatura, la velocidad del disco duro, como hdparm, o la frecuencia del procesador como cpudyn.
El software de sistema por antonomasia es Microsoft Windows, que entre todas sus versiones acumula cerca de un 90% de la cuota de mercado.1 Mención especial merece el proyecto GNU, cuyas herramientas de programación permitieron combinarse con el núcleo informático basado en Unix denominado Linux, formando entre ambos las conocidas como distribuciones GNU/Linux. A diferencia de la plataforma de Microsoft u otros ejemplos como Mac OS, es software libre.
Estos programas realizan diversas tareas, como la transferencia de datos entre la memoria RAM y los dispositivos de almacenamiento (disco rígido, unidades de discos ópticos, etc) entre otros.
[editar]Tipos de software de sistema
- Cargadores de programas
- Sistemas operativos (y sus componentes, muchos de los cuales pueden considerarse como software de sistema)
- Controladores de dispositivos
- Herramientas de programación: compiladores, ensambladores, enlazadores, etc.
- Programas utilitarios
- Entorno de escritorio / Interfaz gráfica de usuario (que pueden incluir Gestores de ventanas)
- Línea de comandos
- BIOS
- Hipervisores
- Bootloaders (Gestor de arranque)
Si el software de sistema se almacena en una memoria no volátil tal como circuitos integrados, usualmente se lo denomina firmware.
-UTILERIAS Y HERRAMIENTAS!
UTILIDADES Y HERRAMIENTAS DE SOFTWARE LIBRE
Autores:
Jesús Corrius i Llavina
Forma parte de:
Universitat Oberta de Catalunya
|
Descripción del curso
Por software libre se entiende aquel que no sólo permite al usuario final ejecutar los programas, sino que también le confiere la libertad de acceder al código fuente y adaptarlo a sus necesidades, distribuir copias del software a terceras personas y publicar nuevas versiones.
Mucha gente, cuándo se habla de software libre, le viene a la cabeza las aplicaciones en modo texto que funcionan en los servidores, pero este movimiento también tiene a su disposición un gran número de utilidades para el usuario normal de escritorio.
En el curso de Herramientas y utilidades veremos algunos de los programas pensados para el entorno de trabajo de un usuario final. Estos programas nos permiten navegar de manera segura por la red (Mozilla), gestionar nuestro correo electrónico y trabajar en grupo (Ximan Evolution) y crear documentos de texto, hojas de cálculo o presentaciones al estilo del Microsoft Office (OpenOffice.org).
A lo largo del curso veremos cómo también podemos trabajar con estas herramientas libres en entornos propietarios como el Microsoft Windows aparte, claro está, del entorno GNU/Linux.
Los contenidos del curso se estructuran en dos grandes bloques. El primero está dedicado a las herramientas de Internet, representado por las unidades 1 y 2. El resto del temario está dedicado al programa OpenOffice.org, que, dada su complejidad, requiere muchas más unidades.
-SOFTWARE DE APLICACIÓN!
El software de Aplicación es aquel que hace que el computador coopere con el usuario en la realización de tareas típicamente humanas, tales como gestionar una contabilidad o escribir un texto.
La diferencia entre los programas de aplicación y los de sistema estriba en que los de sistema suponen ayuda al usuario para relacionarse con el computador y hacer un uso más cómo del mismo, mientras los de aplicación son programas que cooperan con el usuario para la realización de las actividades mencionadas.
Es en este software de Aplicación donde se aprecia en forma más clara la ayuda que puede suponer un computador en las actividades humanas, ya que la máquina se convierte en un auxiliar del hombre, liberándole de las tareas repetitivas.
Los programadores de aplicaciones, a diferencia de los programadores de sistemas, no necesitan conocer a fondo el modo de funcionamiento interno del hardware.
Basta con que conozcan las necesidades de información de sus aplicaciones y cómo usar elsistema operativo, para conseguir satisfacer estas necesidades.
Sus programas deben ser independientes del hardware específico que se utilice y deben ser transportados sin grandes problemas de adaptación a otras computadoras y otros entornos operativos.
Dentro de los programas de aplicación, puede ser útil una distinción entre aplicaciones verticales, de finalidad específica para un tipo muy delimitado de usuarios (médicos, abogados, arquitectos…), y aplicaciones horizontales, de utilidad para una amplísima gama de usuarios de cualquier tipo.
Algunos ejemplos de software aplicaciones son:
> Procesadores de texto. (Bloc de Notas)
> Editores. (PhotoShop para el Diseño Gráfico)
> Hojas de Cálculo. (MS Excel)
> Sistemas gestores de bases de datos. (MySQL)
> Programas de comunicaciones. (MSN Messenger)
> Paquetes integrados. (Ofimática: Word, Excel, PowerPoint…)
> Programas de diseño asistido por computador. (AutoCAD)
> Editores. (PhotoShop para el Diseño Gráfico)
> Hojas de Cálculo. (MS Excel)
> Sistemas gestores de bases de datos. (MySQL)
> Programas de comunicaciones. (MSN Messenger)
> Paquetes integrados. (Ofimática: Word, Excel, PowerPoint…)
> Programas de diseño asistido por computador. (AutoCAD)
No hay comentarios:
Publicar un comentario