martes, 14 de mayo de 2013

ARQUITECTURA DEL COMPUTADOR

1. HISTORIA DEL COMPUTADOR!
Una computadora electrónica, según el Diccionario de la Real Academia Española, es una: Máquina electrónica, analógica o digital, dotada de una memoria de gran capacidad y de métodos de tratamiento de la información, capaz de resolver problemas matemáticos y lógicos mediante la utilización automática de programas informáticos.

La computadora es un invento joven de no más de un siglo. Sin embargo es el resultado de múltiples creaciones e ideas de diversas personas a lo largo de varios años: por un lado, el ábaco que fue uno de los primeros dispositivos mecánicos para contar; por otro lado, la Pascalina, inventada por Blaise Pascal y después perfeccionada por Gottfried Wilhelm von Leibniz, permitía realizar cálculos de manera mecánica por medio de engranajes, y también, la tarjeta perforada asumió un papel importante en la computación.
En 1882 Charles Babbage inventa una “máquina diferencial”, que realiza cálculos de tablas simples. Diez años más tarde diseña la “máquina analítica”, que no fue construida hasta 1989. Esta máquina poseía elementos que influyeron en las subsiguientes computadoras: flujo de entrada, memoria, procesador e impresora de datos. Por esto, Babbage es considerado el "Padre de las Computadoras Modernas".
En 1944 se construye la MARK I, diseñada por un equipo encabezado por Howard H. Aiken. La máquina basa su funcionamiento en dispositivos electromecánicos llamados relevadores.
Von Neumann es otro personaje importante ya que proyecta el prototipo de los modernos procesadores electrónicos. El prototipo se basa en el concepto de programa memorizado.
A partir de la mitad del siglo XX el desarrollo de la computadora es mayor y más rápido. Este desarrollo se suele dividir en generación.


Primera Generación
En general se caracteriza por tres aspectos: primero, por el uso de bulbos (tubos de vacío); segundo, uso de programas en lenguaje de máquina, usualmente, en tarjetas perforadas, y finalmente, por ser enormes y costosas.


Segunda Generación
Sus características son: en primer lugar, se utilizan circuitos de transistores, en vez de bulbos; segundo, se programas en lenguajes de alto nivel, y por último, se utilizan para nuevas aplicaciones.


Tercera Generación
Al igual que las generaciones pasadas, tiene tres características:
I. Ahora utiliza circuitos integrados.
II. Utiliza sistemas operativos. El más famoso es el OS de IBM.
III. Aparecen minicomputadoras.


Cuarta Generación
Se dice que es la generación actual, aunque mucho ya mencionan una quinta.
En esta generación aparecen los microprocesadores, los núcleos magnéticos son remplazados por chips de silicio (almacenamiento de memoria) y un sinfín de cambios que continúan apareciendo día con día.

- EVOLUCIÓN!

Edad Media

  • El matemático e ingeniero persa Musa al-Juarismi (780-850), inventó el algoritmo, es decir, la resolución metódica de problemas de álgebra y cálculo numérico mediante una lista bien definida, ordenada y finita de operaciones a fin de hallar la solución al problema.

Siglo XVII

  • 1617: Justo antes de morir, el matemático escocés John Napier (1550-1617), famoso por su invención de los logaritmos, desarrolló un sistema para realizar operaciones aritméticas manipulando barras, a las que llamó "huesos" ya que estaban construidas con material de hueso o marfil, y en los que estaban plasmados los dígitos. Dada su naturaleza, se llamó al sistema "huesos de Napier" (ábaco neperiano). Los huesos de Napier tuvieron una fuerte influencia en el desarrollo de la regla deslizante (cinco años más tarde) y las máquinas calculadoras subsecuentes, que contaron con logaritmos.
  • 1623: La primera calculadora mecánica fue diseñada por Wilhelm Schickard en Alemania. Llamada "reloj calculador", la máquina incorporó los logaritmos de Napier, hacía rodar cilindros en un albergue grande. Se comisionó un reloj calculador para Johannes Kepler, el matemático famoso, pero fue destruido por el fuego antes de que se terminara.
  • 1624: La primera regla deslizante fue inventada por el matemático inglés William Oughtred. La regla deslizante (llamada "Círculos de Proporción") era un juego de discos rotatorios que se calibraron con los logaritmos de Napier. Se usó como uno de los primeros aparatos de la informática analógica. Su época de esplendor duró más o menos un siglo, el comprendido entre la segunda mitad del siglo XIX y el último cuarto del XX, hasta que a comienzos de 1970, calculadoras portátiles comenzaron a ser populares.

  • 1645Blaise Pascal inventa la pascalina. Con esta máquina, los datos se representaban mediante las posiciones de los engranajes. La pascalina es una de las primeras calculadoras mecánicas, que funcionaba a base de ruedas de diez dientes en las que cada uno de los dientes representaba un dígito del 0 al 9. Las ruedas estaban conectadas de tal manera que podían sumarse números haciéndolas avanzar el número de dientes correcto.
  • 1666Samuel Morland inventa la primera máquina de multiplicar en la corte del reyCarlos II de Inglaterra. El aparato constó de una serie de ruedas, cada una de las cuales representaba decenas, centenas, etc. Un alfiler de acero movía los diales para ejecutar los cálculos. A diferencia de la pascalina, este aparato no tenía avance automático de columnas.
  • 1673: el matemático alemán Gottfried Leibniz inventa la primera calculadora de propósito general. El aparato era una partida de la pascalina; mientras opera usa un cilindro de dientes (la rueda de Leibniz) en lugar de la serie de engranajes. Aunque el aparato podía ejecutar multiplicaciones y divisiones, padeció de problemas de fiabilidad que disminuyó su utilidad.

Siglo XVIII

  • 1769Wolfgang von Kempelen, un noble húngaro, inventa un jugador de ajedrez supuestamente autómataEl Turco. Pretendió ser una máquina pura, incluía un jugador de ajedrez "robótico", sin embargo fue una farsa, la cabina era una ilusión óptica bien planteada que permitía a un maestro del ajedrez esconderse en su interior y operar el maniquí. Era una sensación dondequiera que iba pero se destruyó en un incendio en 1856.
  • 1777Charles Mahon inventa la primera máquina lógica, el "demostrador lógico". Era un aparato de bolsillo que resolvía silogismostradicionales y preguntas elementales de probabilidad. Mahon es el precursor de los componentes lógicos en computadoras modernas.

Siglo XIX

  • 1801: El francés Joseph Marie Jacquard, utilizó un mecanismo de tarjetas perforadas para controlar el dibujo formado por los hilos de las telas confeccionadas por una máquina de tejer. Estas plantillas o moldes metálicos perforados permitían programar las puntadas del tejido, logrando obtener una diversidad de tramas y figuras. Inspirado por instrumentos musicales que se programaban usando papel agujereado, la máquina se parecía a una atadura del telar que podría controlar automáticamente los dibujos usando una línea de tarjetas agujereadas. La idea de Jacquard, que revolucionó el hilar de seda, estaba por formar la base de muchos aparatos de la informática e idiomas de la programación.
  • 1820: La primera calculadora de producción masiva se distribuyó por Charles Thomas de Colmar. Originalmente se les vendió a casas del seguro parisienses, el aritmómetro de Colmar operaba usando una variación de la rueda de Leibniz. Más de mil aritmómetros se vendieron y eventualmente recibió una medalla a la Exhibición Internacional en Londres en 1862.
  • 1822Charles Babbage completa su artefacto de la diferencia, una máquina de propósito específico que se podía usar para calcular valores de funciones polinómicas mediante el método de las diferencias. El artefacto de la diferencia era un ensamble complejo de ruedas, engranajes, y remaches. Babbage diseñó su "artefacto analítico", un aparato de propósito general que era capaz de ejecutar cualquier tipo de cálculo matemático. Los diseños del artefacto analítico eran la primera conceptualización clara de una máquina que podría ejecutar el tipo de cálculos computacionales que ahora se consideran el corazón de informática. Babbage nunca construyó su artefacto analítico, pero su plan influyó en toda computadora digital subsiguiente, incluidas las modernas. El artefacto analítico fue finalmente construido por un equipo moderno de ingenieros, en 1989, cien años después de la muerte de Babbage en 1871. Por su discernimiento, Babbage hoy se conoce como el "Padre de las Computadoras Modernas".
  • 1837Charles Babbage describe la máquina analítica. Es el diseño de un computador moderno de propósito general. La idea que tuvo Charles Babbage sobre un computador nació debido a que la elaboración de las tablas matemáticas era un proceso tedioso y muy propenso a errores.
  • 1843Ada Augusta Lovelace sugirió la idea de que las tarjetas perforadas se adaptaran de manera que causaran que el motor de Babbage repitiera ciertas operaciones. Debido a esta sugerencia algunos consideran a Lady Lovelace la primera programadora.
  • 1854: el lógico inglés George Boole publica su Álgebra de Boole. El sistema de Boole redujo a argumentos lógicos las permutaciones de tres operadores básicos algebraicos: yo, y no. A causa del desarrollo del álgebra de Boole, Boole es considerado por muchos como el padre de la teoría de la informática.
  • 1869: La primera máquina lógica en usar el álgebra de Boole para resolver problemas más rápido que humanos, fue inventada porWilliam Stanley Jevons. La máquina, llamada el piano lógico, usó un alfabeto de cuatro términos lógicos para resolver silogismoscomplicados.
  • 1878: Un comité de la Asociación Británica para el avance de la ciencia recomienda no construir la máquina analítica de Babbage, por lo que este inventor no tuvo acceso a fondos del gobierno.
  • 1878: Ramón Verea, quien vivía en la ciudad de Nueva York, inventó una calculadora con una tabla interna de multiplicación; esto fue mucho más rápido que usar acarreos u otro método digital de aquel tiempo. Él no se interesó en poner su obra en producción, sólo quiso mostrar que un español podía inventar tanto como un estadounidense.
  • 1879: A los 19 años de edad, Herman Hollerith es contratado como asistente en las oficinas del censo estadounidense y desarrolló un sistema de cómputo mediante tarjetas perforadas en las que los agujeros representaban información sobre el sexo o la edad, entre otros. Gracias a la máquina tabuladora de Hollerith el censo de 1890 se realizó en dos años y medio, cinco menos que el censo de 1880. Se tardaba tanto en hacer el censo debido a la llegada masiva de inmigrantes.
  • 1884Dorr Felt desarrolló su comptómetro, el cual fue la primera calculadora que se operaba con sólo presionar teclas en vez de, por ejemplo, deslizar ruedas.
  • 1893: La primera máquina exitosa de multiplicación automática se desarrolló por Otto Steiger. "El Millonario", como se le conocía, automatizó la invención de Leibniz de 1673, y fue fabricado por Hans W. Egli de Zurich. Originalmente hecha para negocios, la ciencia halló inmediatamente un uso para el aparato, y varios miles de ellos se vendieron en los cuarenta años que siguieron.

Siglo XX

  • 1906: el estadounidense Lee De Forest inventa el tubo de vacío. El "Audion", como se llamaba, tenía tres elementos dentro de una bombilla del vidrio evacuada. Los elementos eran capaces de hallar y amplificar señales de radio recibidas de una antena. El tubo al vacío encontraría uso en varias generaciones tempranas de 5 computadoras, a comienzos de 1930.
  • 1919: los inventores estadounidenses W. H. Eccles y F. W. Jordan desarrollan el primer circuito multivibrador o biestable (en léxico electrónico flip-flop). El flip-flop permitió diseñar circuitos electrónicos que podían tener dos estados estables, alternativamente, pudiendo representar así el 0 como un estado y el otro con un 1. Esto formó la base del almacenamiento y proceso del bit binario, estructura que utilizan las actuales computadoras.
  • 1924Walther Bothe construye una puerta lógica AND para usarla en experimentos físicos, por lo cual recibió el premio Nobel de física en 1954.
  • 1925: en Estados Unidos se fundan los laboratorios Bell.
  • 1930Vannevar Bush construyó una máquina diferencial parcialmente electrónica, capaz de resolver ecuaciones diferenciales.
  • 1931Kurt Gödel publicó un documento sobre los lenguajes formales basados en operaciones aritméticas. Lo usó para codificar arbitrariamente sentencias y pruebas formales, y mostró que los sistemas formales, como las matemáticas tradicionales, son inconsistentes en un cierto sentido, o que contienen sentencias improbables pero ciertas. Sus resultados son fundamentales en las ciencias teóricas de la computación.
  • 1936Alan Turing describe la máquina de Turing, la cual formaliza el concepto de algoritmo.
  • 1936Konrad Zuse completa la primera computadora electro-mecánica, aunque no 100% operativa, la Z1.
  • 1940Samuel Williams y George Stibitz completaron en los laboratorios Bell una calculadora electro-mecánica que podía manejarnúmeros complejos.
  • 1941: La computadora Z3 fue creada por Konrad Zuse. Fue la primera máquina programable y completamente automática.
  • 1942John Vincent Atanasoff y Clifford Edward Berry completaron una calculadora de propósito especial para resolver sistemas de ecuaciones lineales simultáneas, la cual fue llamada la "ABC" ("Atanasoff Berry Computer").
  • 1944: Se construyó en la Universidad de Harvard, la Mark I, diseñada por un equipo encabezado por Howard H. Aiken.
  • 1945: El primer caso de malfuncionamiento en la computadora causado por la intrusión de una polilla al sistema fue documentado por los diseñadores del Mark II. Erróneamente se cree que de allí proviene el uso del término "bug", que significa insecto o polilla en inglés. Sin embargo este término ya se usaba mucho antes para referirse a malfuncionamientos de aparatos mecánicos, eléctricos y electrónicos. El "Oxford English Dictionary " documenta este uso de la palabra desde 1889.
  • 1945: Vannevar Bush desarrolló la teoría de Memex, un dispositivo de hipertexto ligado a una librería de libros y películas.

GNOME.
  • 1999: aparece el entorno de escritorio GNOME.

Siglo XXI

  • 2001: Microsoft desarrolla, como parte de su plataforma .NET, el lenguaje de programación C#, que después fue aprobado como un estándar por la ECMA e ISO.
  • 2001: Se lanza el sistema operativo Windows XP por parte de Microsoft.
  • 2001: Se crea Wikipedia.
  • 2002: Lanzamiento del navegador web Mozilla Firefox, llamado en un primer momento Phoenix.
  • 2002: Puesta en marcha del supercomputador Earth Simulator que sería el ordenador más potente según el TOP500.
  • 2005: Los usuarios de Internet con conexión de banda ancha superan a los usuarios de internet con conexión vía módem en la mayoría de países desarrollados.
  • 2005: Se lanza el programa Google Earth.
  • 2005: Lanzamiento de Windows XP Media Center Edition
  • 2005: Puesta en funcionamiento del supercomputador MareNostrum en el BSC.
  • 2005: Creación de YouTube.
  • 2006: Lanzamiento del sistema operativo de Microsoft Windows Vista: Entra en servicio el supercomputador Magerit perteneciente al CeSViMa.
  • 2007: La empresa Dell lanza al mercado la primera computadora portátil (laptop) con la distribución Linux Ubuntu preinstalada.
  • 2007: La empresa de Steve JobsApple, lanza al mercado la nueva versión el Mac OS X Leopard 10.5
  • 2008: Apple lanza al mercado la MacBook Air la cual, al parecer, es la laptop más delgada del mundo en ese momento.
  • 2008: Apple lanza en toda Europa y América, el iPhone 3G.
  • 2008: Google, contrarresta a Apple lanzando el G1 con su nuevo sistema Android para móviles.
  • 2008: Lanzamiento del navegador Google Chrome.
  • 2008: Lanzamiento de KDE 4.0.
  • 2008: El supercomputador IBM Roadrunner es el primero en superar el PetaFLOP alcanzando el número 1 en la lista de los más veloces, TOP500.
  • 2009Debian GNU/Linux 5.0
  • 2009: KDE 4.2 RC
  • 2009: Apple, lanza al mercado la nueva versión el Mac OS X Snow Leopard 10.6
  • 2009: El 22 de octubre se lanza el sucesor de Windows Vista, el Windows 7.
  • 2010: Se espera el lanzamiento de Google Chrome OS, un sistema operativo creado por la empresa Google y basado en Linux.
  • 2010: IBM crea un procesador de grafeno con una frecuencia efectiva de 100 GHz
  • 2010: Se espera el lanzamiento de USB versión 3.0, que representaría un avance en la velocidad de transmisión de datos entre el dispositivo conectado y la computadora.
  • 2010: Qualcomm lanza el primer procesador móvil doble núcleo a 1,5 Ghz
  • 2012: Microsoft lanza windows 8.

-UNIDADES DE MEDIDA!

Bit

Es el elemento más pequeño de información de la computadora. Un bit es un único dígito en un número binario (0 o 1) los cuales agrupados forman unidades más grandes de datos en los sistemas de las computadoras, siendo el byte (8 bits) siendo el más conocido de estos

Byte
Llamado también objeto el cual se describe como la unidad básica de almacenamiento de información, generalmente equivalente a 8 bits pero el tamaño del bit depende del código de información en el que se defina.

Kilobyte
Es una unidad de medida utilizada en informática que equivale a 1024 bytes. Es una unidad común para la capacidad de memoria o almacenamiento de las microcomputadoras .

Megabyte 
Es una unidad de medida de cantidad de datos informáticos. Es un múltiplo binario del byte que equivale a un millón de bytes 
(1 048576 bytes)

Gigabyte 
Es un múltiplo del byte de símbolo gb que se describe como la unidad de medida más utilizada en los discos duros. El cual también es una unidad de almacenamiento.
Un gigabyte es con exactitud (1,073,742,824 bytes o mil 1024 megabytes)

Terabyte
Es la unidad de medida de la capacidad de memoria y de dispositivos de almacenamiento informático. Su símbolo es TB y coincide con algo más de un trillón de bytes



1 cuarteto=4 bits
1 byte= 8 bits
1 kilobytes=1024 x 8= 8192 bits
1 megabyte= 1024 x 1024 x 8= 8388608 bits
1 gigabytes=1024 x 1024 x 1024 x 8= 8589934592bits


Ejercicio
64Gb a bits= 549 755 813 888bits
256mb a bits=2147483648bits
16mb a kb=16384kb
128kb a byte=131072bytes
4mb a byte=4194304bytes
30kb a bits=245760bits
2Gb a MB=2048mb
15 Mb a bits=125829120bits
20 GB a bits=171 798 691 840 bits

-COMPONENTES DE HARDWARE!


Un sistema computacional consiste en un conjunto de componentes electrónicos y electromecánicos interconectados que almacenan y transforman símbolos en base a las instrucciones especificadas en los componentes software del mismo sistema.
Conceptualmente, es posible distinguir 5 tipos de componentes hardware:
  • Procesadores
  • Memoria principal
  • Dispositivos de entrada
  • Dispositivos de almacenamiento secundario
  • Dispositivo de salida

Una computadora debe ser capaz de recibir, a través de sus dispositivos de entradaciertos datos e instrucciones para manipular éstos. Una vez que los datos e instrucciones son ingresados, el computador debe ser capaz de almacenarlos internamente en su memoria primaria y luego, procesar los datos en base a las instrucciones suministradas utilizando su(s) procesador(es).
Dado que la memoria principal posee una capacidad limitada y es típicamente volátil (su contenido se pierde cuando el componente no recibe energía), es necesario disponer de alternativas para el almacenamiento de datos e instrucciones; ese es el rol de los dispositivos de almacenamiento secundario.
Finalmente, el producto resultante del procesamiento de los datos es entregado al usuario u otros sistemas a través de los dispositivos de salida.

¿Por qué es importante conocer sobre los componentes hardware de un sistema computacional?

Pese a que la mayor parte de los sistemas computacionales poseen una estructura similar, las características de sus componentes hardware varían y estas variaciones pueden crearproblemas a los usuarios:
  • Un primer problema es la capacidad de la memoria y los dispositivos de almacenamiento secundario: La capacidad de la memoria determina la extensión de almacenamiento y por lo tanto, la complejidad de los programas y la cantidad de datos que puede almacenar.
  • Un segundo problema es la velocidad del procesador. Pese a que la velocidad de los procesadores se ha incrementado en dos órdenes de magnitud en los últimos 20 años, su velocidad puede no ser la adecuada para cierta necesidad de procesamiento de datos. Si el usuario requiere realizar muchos cálculos, como es el caso del procesamiento científico y gráfico, diferencias en términos de la velocidad del procesador pueden dar origen a diferencias de horas, días, meses y aún años en la producción de los resultados.
    • Si tiene acceso a más de un sistema computacional, investigue la velocidad del procesador de cada uno de ellos.
Dispongo de acceso directo a una computadora personal, a mi computadora personal y a la que utilizo en el trabajo. La primera es un 486DX4 100 MHz, la segunda es un Pentium MMX 233 MHz y la última es un Pentium MMX 166 MHz
  • Ejecute en dichos sistemas computacionales programas que realicen la misma tarea (ej: digitalizacion de vídeo, edición de imágenes 2-D o 3-D, clasificación y/o ordenamiento de un conjunto de datos de gran tamaño, reemplazo de una palabra en un archivo de texto de gran tamaño). ¿Es apreciable la diferencia de velocidad?
Definitivamente. Se aprecia enormemente la diferencia entre los pentium con respecto al 486 y en menor medida entre el 166 y el 233.
  • ¿Cuál es la percepción existente en la organización a la que Ud. pertenece en relación al impacto de cambios en la velocidad de los procesadores en las tareas de procesamiento de datos?
El proceso de globalización exige una más rápida respuesta del personal que labora en una empresa para poder lograr un nivel competitivo con los mejores. Por tal razón, la disponibilidad de herramientas adecuadas para la labor que se debe ejecutar es importante e imperativa; por otro lado, una computadora rápida permite culminar trabajos en menor tiempo y liberar congestión dentro de las redes de datos corporativos.
  • Otro problema es la compatibilidad. La forma en que los datos son almacenados, no es la misma en todos los sistemas. Del mismo modo, distintos procesadores reconocen distintos tipos de instrucciones. En consecuencia, un programa ejecutable en un computador puede no ser ejecutable en otro que posea un procesador diferente.

    • ¿Son todos los sistemas computacionales de su organización idénticos?
A pesar de corresponderse a computadoras de tecnología semejante, no necesariamente son productos elaborados por un mismo fabricante. En general, las computadoras de escritorio son de tecnología semejante, Pentium MMX 166 con 32 MRAM y disco de 2 GB como estándar corporativo; pero también existen computadoras de otro tipo de tecnología como las Machintoch para el procesamiento de imágenes mediante herramientas como los scanner y que se ubican en los centros de usuarios o los AS400 como computadores VM corporativos para el análisis y almacenamiento de datos corporativos de interes para grupos de trabajo especializados.
  • De no ser así, ¿qué problemas han causado las diferencias entre ellos?
El mayor problema es la integración de las plataformas para poder operar con paquetes de oficina estándar dentro de la corporación.

El procesador.


El procesador es el encargado de realizar los cálculos aritméticos, tomar decisiones lógicas y coordinar gran parte de las acciones realizadas por los restantes componentes del sistema computacional. La primeras dos tareas son realizadas por la unidad aritmético-lógica u operador de datos, mientras que la última es realizada por la unidad de control.

 




La unidad aritmético-lógica (ALU) contiene circuitos aritméticos y lógicos capaces de sumar, restar, multiplicar, dividir y comparar números. Junto con ello, la ALU contiene un conjunto de componentes denominados registros, que permiten el almacenamiento de datos al interior del procesador en forma temporal.
Para realizar una computación, los números son transferidos desde la memoria principal hacia los registros en la CPU y de allí enviados a los circuitos aritméticos y lógicos, siendo los resultados de la operación realizada enviados también a algún registro para de allí ser transferidos, de ser necesario, a la memoria principal








La unidad de control es la encargada de generar señales hacia los distintos componentes de modo tal de posibilitar la ejecución de las instrucciones. Para ello, la instrucción a ser ejecutada es almacenada en un registro de instrucciones y decodificada por un decodificador de instrucciones el cual posibilita la activación selectiva de aquellas señales de control asociadas a la ejecución de una instrucción específica.

 

 

La memoria principal


 La memoria principal es aquel componente del sistema computacional que almacena los programas y datos que están siendo procesados. Ella, en tiempo de ejecución, debe contener el sistema operativo, las instrucciones para manipular los datos y los datos mismos.
Las computadoras utilizan dos tipos de memoria de acceso aleatorio:
  • Memoria de solo lectura (ROM - Read Only Memory)
  • Memoria de lectura y escritura (RAM - Random Access Memory)
En la memoria de tipo ROM residen los programas de arranque de la máquina que le indican al microprocesador que hacer y como evaluar el hardware existente (del que dispone); la ROM contiene el programa en forma permanente que establece las características de la máquina y la interconectividad entre los dispositivos desde el punto de vista del hardware y sus líneas de control; son los programas que se cargen en la computadora, los que determinaran que tipo de uso se le va ha dar al dispositivo desde el punto de vista de trabajo que debe de realizar según su capacidad.
En la RAM residen en forma temporal los programas cargados por el usuario para el desarrollo de trabajos útiles según sus necesidades (las del usuario).
  • La próxima vez que Ud. encienda un computador tome nota de las acciones que pueda percibir y que afecten algún componente hardware.

  • ¿Podría Ud. establecer qué programas residen en la ROM de su computador?
A pesar de que al momento de arrancar la computadora, los programas residentes en la ROM se ejecutan en forma oculta; solo una de las rutinas es posible visualizar y esta es la rutina de evaluación de la existencia de memoria. Sin embargo, cuando se instala algún dispositivo conflictivo o se desinstala por ejemplo la memoria RAM o el teclado, el programa de la ROM al evaluar el hardware existente detecta la falta de estos y emite un anuncio sonoro o en forma de texto que advierte al usuario sobre la situación anormal encontrada. También es posible ver como la ROM residente en tarjetas y periféricos, emite un mensaje escrito y gráfico en algunos casos indicando al usuario de la existencia y reconocimiento de este hardware (ejemplo las funciones de ahorro de energía o la existencia de tarjetas de vídeo especial)
Las memorias ROM almacenan ciertos programas e información necesaria para el funcionamiento del sistema computacional en forma permanentemente, de ahí el calificativo "solo de lectura". Este tipo de memoria es no volátil, ya que su contenido no desaparece o se borra cuando se desconecta el suministro eléctrico al componente.
Las instrucciones básicas que se necesitan para que un computador inicie su operación están almacenadas en memorias ROM, así como también algunos programas utilitarios y, en algunos casos, software.
Las memorias RAM también puede almacenar ciertos programas vitales para el funcionamiento de la computadora. Sin embargo en las RAM el usuario puede almacenar la información, modificarla o borrarla. La capacidad de la RAM afecta la forma en que se ejecutan los programas y la cantidad de datos que pueden procesarse. Cuanto más fácil de usar sea un programa, tanta más RAM se necesitará generalmente.
LA RAM es una memoria volátil, su contenido se pierde cuando la computadora se desconecta (excepto en algunas que están provistas de baterías específicamente orientadas a mantener el contenido de la RAM).
  • ¿Alguna vez ha estado utilizando un sistema computacional en el momento en que se ha suspendido el suministro de energía eléctrica?
Si.
  • ¿Qué ha ocurrido con los datos en esos casos?
Los trabajos así como los datos que se estaban obteniendo en el momento, se pierden si no se dispone de una unidad de energía de respaldo como los UPS. Solo se pierden los datos que se encuentran en la RAM y que no se han almacenado en un medio de registro permanente como el disco duro.
La memoria principal de un computador está formada por componentes electrónicos biestables, es decir, que pueden adoptar uno de dos estados posibles (on/off, 0/1). Cada uno de estos componentes es capaz de almacenar un dígito binario o bit.
Los bits en la memoria deben ser organizados de modo tal de poder almacenar y/o recuperar datos: caracteres y números. Para ello, los bits son organizados en grupos, constituyendo cada uno de esos grupos una posición de almacenamiento. Un grupo de 8 bits constituye un byte y en él es posible almacenar la representación binaria de un caracter. Típicamente, un grupo de 16 bits se denomina palabra, sin embargo, el término se ha generalizado de modo tal que se utiliza para indicar un grupo de 8*k bits, con k>1. Se habla entonces, por ejemplo, de palabras de 32 o 64 bits.
La capacidad de almacenamiento de un computador es medida en términos del número de bytes en memoria principal. Generalmente, la capacidad es establecida en kilobytes (KB) omegabytes (MB).
1 KB = 1024 bytes = 210 Bytes
1 MB = 1048576 bytes = 220 bytes




2- ARQUITECTURA DE LOS COMPUTADORES!



Una visión típica de una arquitectura de computadora como una serie decapas de abstracciónhardware,firmwareensambladorkernel,sistema operativo y aplicaciones.
La arquitectura de computadoras es el diseño conceptual y la estructura operacional fundamental de un sistema de computadora. Es decir, es un modelo y una descripción funcional de los requerimientos y las implementaciones de diseño para varias partes de una computadora, con especial interés en la forma en que launidad central de proceso (UCP) trabaja internamente y accede a las direcciones de memoria.
También suele definirse como la forma de seleccionar e interconectar componentes de hardware para crear computadoras según los requerimientos de funcionalidad, rendimiento y costo.
El ordenador recibe y envía la información a través de los periféricos por medio de los canales. La UCP es la encargada de procesar la información que le llega al ordenador. El intercambio de información se tiene que hacer con los periféricos y la UCP. Todas aquellas unidades de un sistema exceptuando la UCP se denomina periférico, por lo que el ordenador tiene dos partes bien diferenciadas, que son: la UCP (encargada de ejecutar programas y que está compuesta por la memoria principal, la UAL y la UC) y los periféricos (que pueden ser de entrada, salida, entrada-salida y comunicaciones).

Índice

Introducción 

La implantación de instrucciones es similar al uso de una serie de desmontaje en una fábrica de manufacturación. En las cadenas de montaje, el producto pasa a través de muchas etapas de producción antes de tener el producto desarmado. Cada etapa o segmento de la cadena está especializada en un área específica de la línea de producción y lleva a cabo siempre la misma actividad. Esta tecnología es aplicada en el diseño de procesadores eficientes.
A estos procesadores se les conoce como pipeline processors. Estos están compuestos por una lista de segmentos lineales y secuenciales en donde cada segmento lleva a cabo una tarea o un grupo de tareas computacionales. Los datos que provienen del exterior se introducen en el sistema para ser procesados. La computadora realiza operaciones con los datos que tiene almacenados en memoria, produce nuevos datos o información para uso externo.
Las arquitecturas y los conjuntos de instrucciones se pueden clasificar considerando los siguientes aspectos:
  • Almacenamiento de operativos en la CPU: dónde se ubican los operadores aparte de la substractora informativa (SI)
  • Número de operandos explícitos por instrucción: cuántos operandos se expresan en forma explícita en una instrucción típica. Normalmente son 0, 1, 2 y 3.
  • Posición del operando: ¿Puede cualquier operando estar en memoria?, o deben estar algunos o todos en los registros internos de la CPU. Cómo se especifica la dirección de memoria (modos de direccionamiento disponibles).
  • Operaciones: Qué operaciones están disponibles en el conjunto de instrucciones.
  • Tipo y tamaño de operandos y cómo se especifican.

Almacenamiento de operandos en la CPU 

La diferencia básica está en el almacenamiento interno de la CPU.
Las principales alternativas son:
Características: En una arquitectura de acumulador un operando está implícitamente en el acumulador siempre leyendo e ingresando datos. (Ej.: calculadora Standard -estándar-)
En la arquitectura de pila no es necesario nombrar a los operandos ya que estos se encuentran en el tope de la pila. (Ej.: calculadora de pila HP)
La Arquitectura de registros tiene sólo operandos explícitos (es aquel que se nombra) en registros o memoria.

Ventajas de las arquitecturas 

  • Pila: Modelo sencillo para evaluación de expresiones (notación polaca inversa). Instrucciones cortas pueden dar una buena densidad de código.
  • Acumulador: Instrucciones cortas. Minimiza estados internos de la máquina (unidad de control sencilla).
  • Registro: Modelo más general para el código de instrucciones parecidas. Automatiza generación de código y la reutilización de operandos. Reduce el tráfico a memoria. Una computadora actualmente tiene como estándar 32 registros. El acceso a los datos es más rápido, y veloz.

Desventajas de las arquitectura

  • Pila: A una pila no se puede acceder aleatoriamente. Esta limitación hace difícil generar código eficiente. También dificulta una implementación eficiente, ya que la pila llega a ser un cuello de botella es decir que existe dificultad para la transferencia de datos en su velocidad mk.
  • Acumulador: Como el acumulador es solamente almacenamiento temporal, el tráfico de memoria es el más alto en esta aproximación.
  • Registro: Todos los operadores deben ser nombrados, conduciendo a instrucciones más largas.


3-QUE ES SOFTWARE!

Se conoce como software1 al equipamiento lógico o soporte lógico de un sistema informático, que comprende el conjunto de los componentes lógicos necesarios que hacen posible la realización de tareas específicas, en contraposición a los componentes físicos que son llamados hardware.
Los componentes lógicos incluyen, entre muchos otros, las aplicaciones informáticas; tales como el procesador de texto, que permite al usuario realizar todas las tareas concernientes a la edición de textos; el llamado software de sistema, tal como elsistema operativo, que básicamente permite al resto de los programas funcionar adecuadamente, facilitando también la interacción entre los componentes físicos y el resto de las aplicaciones, y proporcionando una interfaz con el usuario.
El anglicismo "software" es el más ampliamente difundido al referirse a este concepto, especialmente en la jerga técnica; el término sinónimo "logical", derivado del término francés "logiciel", sobre todo es utilizado en países y zonas de influencia francesa.


-HISTORIA DE SOFTWARE!

La historia del software como se ha visto, no surge con los equipos electrónicos, -aunque es con ellos que adopta el nombre- está presente desde el empleo de ábacos o sumadoras mecánicas. Sin embargo, en estos casos, el software no se encuentra incorporado en el equipo. Es aportado por el operario. La máquina analítica de Charles Babbage, incidentalmente, tuvo su software, y fue una amiga de éste, la legendaria lady Lovelace, quien aportó el software que no se llegó a usar, dado que la máquina nunca se completó. En el ENIAC el control de las operaciones estaba parcialmente integrado en el equipo. Dicho control era realizado por un circuito que requería un alambrado específico para cada aplicación. Imaginemos lo engorroso que resultaba realambrar el circuito cada vez que cambiaba el uso del ENIAC.
Hasta este momento, no se percibía una diferencia sustancial entre el equipo y el control de las operaciones. El concepto de programa de control almacenado en memoria, aportación popularmente atribuida a John von Neumann, precipitó el desarrollo de software. En éste se perfilaron dos tendencias de desarrollo: los programas de aplicación y los de servicio. Estos últimos tenían como propósito facilitar el desarrollo de programas a partir de programas. Algunos programas de servicio fueron simples cargadores que permitieron emplear notaciones como el octal o hexadecimal más compactas que el binario. Otros como los ensambladores simplificaron más el proceso al reemplazar las notaciones numéricas con los símbolos mnemónicos que aportaron para describir a cada instrucción de la máquina. El siguiente paso significativo fue la traducción de fórmulas, que permitió el desarrollo de la historia del software y la descripción de los algoritmos con el empleo de expresiones algebraicas.

-COMPONENTES DE SOFTWARE!

Componente de Software, un elemento de un sistema software que ofrece un conjunto de servicios, o funcionalidades, a través de interfaces definidas.


Según el Object Management Group
 

Definición 

En la especificación UML, un componente es una unidad modular con interfaces bien definidas, que es reemplazable dentro del contexto.1 Así, un componente define su comportamiento en términos de interfaces proveídas y requerida; y dicho componente será totalmente reemplazable por otro que cumpla con las interfaces declaradas.

UML no coloca ninguna restricción respecto a la granularidad del componente, de esta forma un componente podrá ser tan simple como un convertidor de moneda o tan complejo como un sistema de ayuda semántico.

Según el WCOP'96 [editar]

Fruto del primer Workshop sobre Programación Orientada a Componentes, se acuñó la definición: Unidad de composición con interfaces especificadas contractualmente, con dependencias explícitas de acuerdo al contexto. Un componente de software puede ser desplegado de forma independiente y puede participar en composiciones de terceras partes.

Características 

Un componente de software debe poseer las siguientes características:

  • Ser reutilizable.
  • Ser intercambiable.
  • Poseer interfaces definidas.
  • Ser cohesivos

Implementaciones 

Los componentes de software son la piedra angular de diferentes paradigmas de programación. Esto ha generado la aparición en el mercado de diferentes especificaciones que plantean la forma de construir, utilizar y distribuir componentes. Entre las más extendidas se encuentran:

Estándares 

Common Object Request Broker Architecture (CORBA) del Object Management Group.

Paradigmas 

Los componentes de software son útiles en:

4-CLASES DE SOFTWARE!

-LICENCIAS MAS COMUNES!

Periférico (informática)

En informática, se denomina periféricos a los aparatos y/o dispositivos auxiliares e independientes conectados a la unidad central de procesamiento de una computadora.
Se consideran periféricos tanto a las unidades o dispositivos a través de los cuales la computadora se comunica con el mundo exterior, como a los sistemas que almacenan o archivan la información, sirviendo de memoria auxiliar de la memoria principal.[cita requerida]
Se entenderá por periférico al conjunto de dispositivos que, sin pertenecer al núcleo fundamental de la computadora, formado por laCPU y la memoria central, permitan realizar operaciones de entrada/salida (E/S) complementarias al proceso de datos que realiza la CPU. Estas tres unidades básicas en un computador, CPU, memoria central y el subsistema de E/S, están comunicadas entre sí por tres buses o canales de comunicación:
  • direcciones, para seleccionar la dirección del dato o del periférico al que se quiere acceder,
  • control, básicamente para seleccionar la operación a realizar sobre el dato (principalmente lectura, escritura o modificación) y
  • datos, por donde circulan los datos.
A pesar de que el término periférico implica a menudo el concepto de “adicional pero no esencial”, muchos de ellos son elementos fundamentales para un sistema informático. El teclado y el monitor, imprescindibles en cualquier computadora personal de hoy en día (no lo fueron en los primeros computadores), son posiblemente los periféricos más comunes, y es posible que mucha gente no los considere como tal debido a que generalmente se toman como parte necesaria de una computadora. El ratón o mouse es posiblemente el ejemplo más claro de este aspecto. Hace menos de 20 años no todos las computadora personales incluían este dispositivo. El sistema operativo MS-DOS, el más común en esa época, tenía una interfaz de línea de comandos para la que no era necesaria el empleo de un ratón, todo se hacía mediante comandos de texto. Fue con la popularización de Finder, sistema operativo de la Macintosh de Apple y la posterior aparición de Windows cuando el ratón comenzó a ser un elemento imprescindible en cualquier hogar dotado de una computadora personal. Actualmente existen sistemas operativos con interfaz de texto que pueden prescindir del ratón como, por ejemplo, algunos sistemas básicos de UNIX y GNU/Linux.

Índice

  [ocultar

Tipos de periféricos [editar]

Los periféricos pueden clasificarse en 3 categorías principales:
  • Periféricos de entrada: captan y digitalizan los datos de ser necesario, introducidos por el usuario o por otro dispositivo y los envían al ordenador para ser procesados.
  • Periféricos de salida: son dispositivos que muestran o proyectan información hacia el exterior del ordenador. La mayoría son para informar, alertar, comunicar, proyectar o dar al usuario cierta información, de la misma forma se encargan de convertir los impulsos eléctricos en información legible para el usuario. Sin embargo, no todos de este tipo de periféricos es información para el usuario.
  • Periféricos de entrada/salida (E/S): sirven básicamente para la comunicación de la computadora con el medio externo.
Los periféricos de entrada/salida son los que utiliza el ordenador tanto para mandar como para recibir información. Su función es la de almacenar o guardar, de forma permanente o virtual, todo aquello que hagamos con el ordenador para que pueda ser utilizado por los usuarios u otros sistemas.
Son ejemplos de periférico de entrada/salida o de almacenamiento:

Periféricos de entrada [editar]

Ratón.
Son los que permiten introducir datos externos a la computadora para su posterior tratamiento por parte de la CPU. Estos datos pueden provenir de distintas fuentes, siendo la principal un ser humano. Los periféricos de entrada más habituales son:

Periféricos de salida [editar]

Son los que reciben la información procesada por la CPU y la reproducen, de modo que sea perceptible por el usuario. Algunos ejemplos son:

Periféricos de almacenamiento [editar]

Interior de un disco duro.
Se encargan de guardar los datos de los que hace uso la CPU, para que ésta pueda hacer uso de ellos una vez que han sido eliminados de la memoria principal, ya que ésta se borra cada vez que se apaga la computadora. Pueden ser internos, como un disco duro, o extraíbles, como un CD. Los más comunes son:
  • Disco duro
  • Disquete
  • Unidad de CD
  • Unidad de DVD
  • Unidad de Blu-ray Disc
  • Memoria flash
  • Memoria USB
  • Cinta magnética
  • Tarjeta perforada
  • Memoria portátil
  • Otros dispositivos de almacenamiento:
    • Zip (Iomega): Caben 100 Mb y utiliza tecnología magnética.
    • EZFlyer (SyQuest): Caben 230 Mb y tiene una velocidad de lectura muy alta
    • SuperDisk LS-120: Caben 200 Mb y utilizan tecnología magneto-óptica.
    • Magneto-ópticos de 3,5: Caben de 128 Mb a 640 Mb
    • Jaz (Iomega): Similar al dispositivo Zip y con capacidad de 1 GB a 2 GB.

Periféricos de comunicación [editar]

Su función es permitir o facilitar la interacción entre dos o más computadoras, o entre una computadora y otro periférico externo a la computadora. Entre ellos se encuentran los siguientes:

-SOFTWARE PROPIETARIO!
De Wikipedia, la enciclopedia libre
Saltar a: navegaciónbúsqueda
El término software propietariobarbarismo resultante del falso amigo en inglés proprietary software, también conocido como privativoprivadode código cerradocautivo o software no libre (en especial en la comunidad de software libre), es cualquier programa informático en el que el usuario tiene limitaciones para usarlo, modificarlo o redistribuirlo (esto último con o sin modificaciones).
El término ha sido creado para designar al antónimo del concepto de software libre, por lo cual en diversos sectores se le han asignado implicaciones políticas relativas al mismo. Para la Fundación para el Software Libre (FSF), este concepto se aplica a cualquier programa informático que no es libre o que sólo lo es parcialmente (semilibre), sea porque su uso, redistribución o modificación está prohibida, o sea porque requiere permiso expreso del titular del software.
La persona física o jurídica (compañía, corporación, fundación, etc.), al poseer los derechos de autor sobre un software, tiene la posibilidad de controlar y restringir los derechos del usuario sobre su programa, lo que en el software no libre implica por lo general que el usuario sólo tendrá derecho a ejecutar el software bajo ciertas condiciones, comúnmente fijadas por el proveedor, que signifique la restricción de una o varias de las cuatro libertades.

Índice

Historia [editar]

Es documentalmente incomparable que en los años 60 los laboratorios Bell proporcionaron el código fuente de su sistema operativo UNIX,[1] y tiempo después comenzó a existir lo que se conoce como software de código cerrado. Sin embargo hay que destacar que, al inicio de la era de la informática, era común que agrupaciones científicas estuvieran dispuestas a ceder su código a terceros sin un pago por el mismo ya que tampoco había una política que lo reglamentara y además era un beneficio común conocer los desarrollos ajenos en busca de la estandarización.[2]
Pasado el tiempo es en 1972 cuando el gobierno de los Estados Unidos obliga a IBM a distinguir entre software y hardware que hasta entonces no se distinguían claramente, dando lugar a los primeros intentos de cerrar el código de los programas. Aún en esa época, se encontraba en revistas como Creative Computing yByte hojas y hojas llenas de código libre.[3]

Software propietario [editar]

No existe consenso sobre el término a utilizar para referirse al opuesto del software libre. La expresión software propietario proviene del término en inglés"proprietary software". En la lengua anglosajona, "proprietary" significa «poseído o controlado privadamente» («privately owned and controlled»), que destaca la manutención de la reserva de derechos sobre el uso, modificación o redistribución del software. Inicialmente utilizado, pero con el inconveniente que la acepción proviene de una traducción literal del inglés, no correspondiendo su uso como adjetivo en el español, de manera que puede ser considerado como unbarbarismo.
El término "propietario" en español resultaría inadecuado, pues significa que «tiene derecho de propiedad sobre una cosa»,[4] por lo que no podría calificarse de "propietario" al software, porque éste no tiene propiedad sobre nada (es decir, no es dueño de nada) y, además, no podría serlo (porque es una cosa y no unapersona). Asimismo, la expresión "software propietario" podría ser interpretada como "software sujeto a propiedad" (derechos o titularidad) y su opuesto, el software libre, también está sujeto al derecho de autor. Otra interpretación es que contrariamente al uso popular del término, se puede afirmar de que "todo software es propietario", por lo que la forma correcta de referirse al software con restricciones de uso, estudio, copia o mejora es la de software privativo, según esta interpretación el término "propietario" podría aplicarse tanto para software libre como software privativo, ya que la diferencia entre uno y otro está en que el dueño del software privativo lo licencia como propiedad privada y el de software libre como propiedad social.[5] Con la intención de corregir el defecto de la expresión "software propietario" aparece el llamado "software con propietario", sin embargo se argumenta contra del término "con propietario" justamente su similitud conproprietary en inglés, que sólo haría referencia a un aspecto del software que no es libre, manteniendo una de las principales críticas a éste (de "software sujeto a derechos" o "propiedad"). Adicionalmente, si "propietario" refiere al titular de los derechos de autor (y está claro que no puede referir al usuario, en tanto éste es simplemente un cesionario), no resuelve la contradicción: todo el software libre tiene también titulares de derechos de autor.
Según la opinión de algunos activistas del Movimiento de Software Libre, el término "software propietario" fue introducido por empresas desarrolladoras de software privativo como campaña publicitaria para desacreditar al software libre en cuanto a la propiedad del mismo haciéndola parecer como difusa y sin ninguna garantía de soporte legal para quien lo adquiría. La expresión software privativo comenzó al ser utilizada por Richard Stallman, desde el año 2003, en sus conferencias sobre software libre, pues sería más adecuada que "software propietario". [cita requerida] El término "privativo" significa "que causa privación o restricción de derechos o libertades", justamente lo que se pretende describir con él: la privación a los usuarios de sus libertades en relación al software, esto desde el punto de vista de las organizaciones que apoyan las opciones de software libre.[6]
La expresión software no libre (en inglés non-free software) es usado por la FSF para agrupar todo el software que no es libre, es decir, incluye al llamado en inglés "semi-free software" (software semilibre) y al "propietary software".[7] Asimismo, es frecuentemente utilizado para referirse al software que no cumple con las Directrices de software libre de Debian, las cuales siguen la misma idea básica de libertad en el software, propugnada por la FSF, y sobre las cuales está basada la definición de código abierto de la Open Source Initiative.
Adicionalmente el software de código cerrado nace como antónimo de software de código abierto y por lo tanto se centra más en el aspecto de ausencia de acceso al código que en los derechos sobre el mismo. Éste se refiere sólo a la ausencia de una sola libertad por lo que su uso debe enfocarse sólo a este tipo de software y aunque siempre signifique que es un software que no es libre, no tiene que ser software de código cerrado.
La expresión software privado es usada por la relación entre los conceptos de tener y ser privado. Este término sería inadecuado debido a que, en una de sus acepciones, la palabra "privado" se entiende como antónimo de "público", es decir, que «no es de propiedad pública o estatal, sino que pertenece a particulares»,[8]provocando que esta categoría se interpretara como no referente al Estado, lo que produciría la exclusión del software no libre generado por el aparato estatal. Además, el "software público" se asocia generalmente con software de dominio público.

Críticas [editar]

En la filosofía del proyecto GNU se considera inmoral la instalación del software privativo.[9] Su fundador, Richard Stallman ha indicado en múltiples ocasiones que el software privativo al ser adquirido por un particular genera en él inmediatamente un dilema ético si se muestra tal programa a un amigo y este nos lo pide, aparece el dilema: o soy un buen cliente y entonces mal amigo -por no compartir- o soy un buen amigo y entonces mal cliente y en algunos casos perseguido por la ley por prestar mi software.[10]
Dadas las características del software de código cerrado un usuario común ignora absolutamente el contenido del mismo y por tanto si existe dentro de las líneas del código alguna amenaza contra su equipo o su información, además el usuario no sólo tiene prohibido el intentar eliminar o cambiar esa parte del código sino que puede ser perseguido por la ley por el hecho de intentar conocer si existe tal amenaza en dicho software.
Por otra parte, en una sociedad de la información, el software se ha convertido en una herramienta importante de productividad, y una licencia de software privativo constituye un acuerdo o contrato entre dos sujetos jurídicos que voluntariamente acuerdan las condiciones de uso de un programa.

5-TIPOS DE SOFTWARE!

El término software (partes suaves o blandas en castellano) hace alusión a la sumatoria de aquellas reglas, programas, datos, documentación e instrucciones que permiten la ejecución de múltiples tareas en un ordenador. Es su parte lógica e intangible y actúa como nexo entre el usuario y el hardware (partes duras), es decir, la parte tangible de la computadora.
A grandes rasgos, se puede decir que existen tres tipos de software:
Software de Aplicación: aquí se incluyen todos aquellos programas que permiten al usuario realizar una o varias tareas específicas. Aquí se encuentran aquellos programas que los individuos usan de manera cotidiana como: procesadores de texto, hojas de cálculo, editores, telecomunicaciones, software de cálculo numérico y simbólico, videojuegos, entre otros.
Software de Programación: son aquellas herramientas que un programador utiliza para poder desarrollar programas informáticos. Para esto, el programador se vale de distintos lenguajes de programación. Como ejemplo se pueden tomar compiladores, programas de diseño asistido por computador, paquetes integrados, editores de texto, enlazadores, depuradores, intérpretes, entre otros. 
Software de Sistema: es aquel que permite a los usuarios interactuar con el sistema operativo así como también controlarlo. Este sistema está compuesto por una serie de programas que tienen como objetivo administrar los recursos del hardware y, al mismo tiempo, le otorgan al usuario una interfaz. El sistema operativo permite facilitar la utilización del ordenador a sus usuarios ya que es el que le da la posibilidad de asignar y administrar los recursos del sistema, como ejemplo de esta clase de software se puede mencionar a Windows, Linux y Mac OS X, entre otros. Además de los sistemas operativos, dentro del software de sistema se ubican las herramientas de diagnóstico, los servidores, las utilidades, los controladores de dispositivos y las herramientas de corrección y optimización, etcétera.
-SOFTWARE DE SISTEMA!
En terminología informática el software de sistema, denominado también software de base, consiste en software que sirve para controlar e interactuar con el sistema operativo, proporcionando control sobre el hardware y dando soporte a otros programas; en contraposición del llamado software de aplicación. Como ejemplos cabe mencionar a las bibliotecas como por ejemplo OpenGL para la aceleración gráfica, PNG para el sistema gráfico o demonios que controlan la temperatura, la velocidad del disco duro, como hdparm, o la frecuencia del procesador como cpudyn.
El software de sistema por antonomasia es Microsoft Windows, que entre todas sus versiones acumula cerca de un 90% de la cuota de mercado.1 Mención especial merece el proyecto GNU, cuyas herramientas de programación permitieron combinarse con el núcleo informático basado en Unix denominado Linux, formando entre ambos las conocidas como distribuciones GNU/Linux. A diferencia de la plataforma de Microsoft u otros ejemplos como Mac OS, es software libre.
Estos programas realizan diversas tareas, como la transferencia de datos entre la memoria RAM y los dispositivos de almacenamiento (disco rígido, unidades de discos ópticos, etc) entre otros.

[editar]Tipos de software de sistema

Si el software de sistema se almacena en una memoria no volátil tal como circuitos integrados, usualmente se lo denomina firmware.






-UTILERIAS Y HERRAMIENTAS!

Utilidades y herramientas de software llibre imagen

UTILIDADES Y HERRAMIENTAS DE SOFTWARE LIBRE

Autores:
Jesús Corrius i Llavina
Forma parte de:
Universitat Oberta de Catalunya

Descripción del curso

Por software libre se entiende aquel que no sólo permite al usuario final ejecutar los programas, sino que también le confiere la libertad de acceder al código fuente y adaptarlo a sus necesidades, distribuir copias del software a terceras personas y publicar nuevas versiones.
Mucha gente, cuándo se habla de software libre, le viene a la cabeza las aplicaciones en modo texto que funcionan en los servidores, pero este movimiento también tiene a su disposición un gran número de utilidades para el usuario normal de escritorio.
En el curso de Herramientas y utilidades veremos algunos de los programas pensados para el entorno de trabajo de un usuario final. Estos programas nos permiten navegar de manera segura por la red (Mozilla), gestionar nuestro correo electrónico y trabajar en grupo (Ximan Evolution) y crear documentos de texto, hojas de cálculo o presentaciones al estilo del Microsoft Office (OpenOffice.org).
A lo largo del curso veremos cómo también podemos trabajar con estas herramientas libres en entornos propietarios como el Microsoft Windows aparte, claro está, del entorno GNU/Linux.
Los contenidos del curso se estructuran en dos grandes bloques. El primero está dedicado a las herramientas de Internet, representado por las unidades 1 y 2. El resto del temario está dedicado al programa OpenOffice.org, que, dada su complejidad, requiere muchas más unidades.
-SOFTWARE DE APLICACIÓN!
El software de Aplicación es aquel que hace que el computador coopere con el usuario en la realización de tareas típicamente humanas, tales como gestionar una contabilidad o escribir un texto.
La diferencia entre los programas de aplicación y los de sistema estriba en que los de sistema suponen ayuda al usuario para relacionarse con el computador y hacer un uso más cómo del mismo, mientras los de aplicación son programas que cooperan con el usuario para la realización de las actividades mencionadas.
Software de Aplicación
Es en este software de Aplicación donde se aprecia en forma más clara la ayuda que puede suponer un computador en las actividades humanas, ya que la máquina se convierte en un auxiliar del hombre, liberándole de las tareas repetitivas.
Los programadores de aplicaciones, a diferencia de los programadores de sistemas, no necesitan conocer a fondo el modo de funcionamiento interno del hardware.
Basta con que conozcan las necesidades de información de sus aplicaciones y cómo usar elsistema operativo, para conseguir satisfacer estas necesidades.
Sus programas deben ser independientes del hardware específico que se utilice y deben ser transportados sin grandes problemas de adaptación a otras computadoras y otros entornos operativos.
Dentro de los programas de aplicación, puede ser útil una distinción entre aplicaciones verticales, de finalidad específica para un tipo muy delimitado de usuarios (médicos, abogados, arquitectos…), y aplicaciones horizontales, de utilidad para una amplísima gama de usuarios de cualquier tipo.
Algunos ejemplos de software aplicaciones son:
> Procesadores de texto. (Bloc de Notas)
> Editores. (PhotoShop para el Diseño Gráfico)
> Hojas de Cálculo. (MS Excel)
> Sistemas gestores de bases de datos. (MySQL)
> Programas de comunicaciones. (MSN Messenger)
> Paquetes integrados. (Ofimática: Word, Excel, PowerPoint…)
> Programas de diseño asistido por computador. (AutoCAD)






















No hay comentarios:

Publicar un comentario