jueves, 10 de mayo de 2007

Sintesis

HISTORIA Y EVOLUCION DE LOS SISTEMAS OPERATIVOS

Los sistemas operativos han venido evolucionando a través de los años. Ya que los sistemas operativos se han apegado íntimamente a la arquitectura de las computadoras en las cuales se ejecutan.
La primera computadora digital real fue diseñada por el matemático ingles Charles Babbage (1792 - 1871). Aunque Babbage gasto la mayor parte de su vida y de su fortuna intentando construir su “ maquina analítica “ , nunca la hizo funcionar adecuadamente porque era un diseño puramente mecánico y la tecnología de su época no podía producir las ruedas, el engranaje, levas y otras partes mecánicas con la alta precisión que el necesitaba. Sin tener que decirlo, la maquina analítica no tuvo un sistema operativo.

La primera generación (1945 - 1955 ) : Tubos de vació y tableros enchufablesalrededor de la mitad de la década de 1940, Howard Aiken en Hardvard, Jon Von Neumann en el Instituto de Estudios Avanzados en Princeton, J. Presper Ecker y William Mauchley en la Universidad de Pensilvania y Konrad Zuse en Alemania, entre otros, todos obtuvieron resultados óptimos en la construcción de maquinas de calculo mediante el uso de tubos de vació. Toda la programación se realizo en lenguaje de maquina absoluto. Los lenguajes de programación se desconocían (todavía no existía el lenguaje ensamblador). Los primeros sistemas operativos eran extraños. El modo usual de operación consistía en que el programador firmaba para tener acceso a un bloque de tiempo en la hoja de registro situada en la pared, después bajaba al cuarto de maquinas, insertaba su tablero enchufadle en la computadora y pasaba las siguientes horas esperando que ninguno de los 20,000 tubos de vació se fundiera durante la ejecución de su programa.
La segunda generación (1955 - 1965): Transistores y sistemas de lote La introducción del transistor a mediados de la década de 1950 cambio la imagen radicalmente. Las computadoras se volvieron lo suficientemente confiables, en un principio hubo una clara separación entre los diseñadores, armadores, operadores, programadores y personal de mantenimiento. Estas maquinas se instalaban en cuartos de computadoras especialmente acondicionados con aire, con cuerpo de operadores profesionales para accionarlas. Un programador primeramente escribiría el programa en papel (en FORTRAN o en lenguaje Ensamblador) y después lo perforaba en tarjetas. Dado el alto costo del equipo, no es sorprendente que las personas buscaran rápidamente maneras de reducir el tiempo perdido. La solución que generalmente se adoptaba era el sistema de lote. La idea implícita en este sistema era la de conjuntar un cajón lleno de trabajos en el cuarto de introducción al sistema y después de leerlos en una cinta magnética mediante el uso de una computadora (relativamente) pequeña y poco costosa, como la IBM 1401.
Monitor residente Su funcionamiento era bastante simple, se limitaba a cargar los programas a memoria, leyéndolos de una cinta o de tarjetas perforadas, y ejecutarlos
Procesamiento por lotes Como solución para optimizar el tiempo de montaje surgió la idea de agrupar los trabajos en lotes, en una misma cinta o conjunto de tarjetas, de forma que se ejecutaran uno a continuación de otro sin perder apenas tiempo en la transición.
Almacenamiento temporal Su objetivo era disminuir el tiempo de carga de los programas, simultaneando la carga del programa o la salida de datos con la ejecución de la siguiente tarea
Sistemas operativos desarrollados
En esta etapa estarían incluidos:
GM OS: Desarrollado por General Motors para el IBM 701.
Input Output System: Desarrollado por General Motors y la Fuerza Aérea de los Estados Unidos para el IBM 704.
FORTRAN Monitor system: Desarrollado por la aviación norteamericana para el IBM 709.
SAGE (Semi-Automatic Ground Environment): Primer sistema de control en tiempo real, desarrollado para el IBM AN/FSQ7.
SOS: Desarrollado por el IBM SHARE Users Group para el IBM 709.
La tercera generación (1965-1980): Circuitos integrados (CI) y multiprogramación
El desarrollo y mantenimiento de dos líneas de productos diferentes era una proposición costosa para los fabricantes. Además, muchos nuevos compradores de computadoras necesitaban una maquina pequeña, pero después se expandían y querían una maquina de mayor tamaño que ejecutara todos sus programas antiguos, pero con mayor velocidad. IBM intento resolver estos dos problemas de un solo golpe introduciendo en el mercado el Sistema/360. El sistema 360 fue la primera línea importante de computadoras que utilizo circuitos integrados (CI), con lo cual ofreció una mayor ventaja de precio/rendimiento sobre las maquinas de la segunda generación.
Otra característica de importancia en los sistemas operativos de la tercera generación era la capacidad de leer trabajos de tarjetas contenidas en el disco tan pronto como se llevaban al cuarto de computación
En este años 1960 se produjeron cambios notorios en varios campos de la informática, la mayoría orientados a seguir incrementando el potencial de los computadores. Para ello se utilizaban técnicas de lo más diversas entre las mas importantes esta:
Multiprogramación
En un sistema multiprogramado. La memoria principal alberga a más de un programa de usuario
Tiempo real
Estos sistemas se usan en entornos donde se deben aceptar y procesar en tiempos muy breves un gran número de sucesos, en su mayoría externos al ordenador.
Multiprocesador
Permite trabajar con máquinas que poseen más de un procesador. En un multiprocesador los procesadores comparten memoria y reloj.
Sistemas operativos desarrollados
Multics ( información multicanalizada y servicio de computación
Originalmente era un proyecto cooperativo liderado por Fernando Corbató del MIT, con General Electric y los laboratorios Bell, Fue uno de los primeros sistemas operativos de tiempo compartido, que implementó un solo nivel de almacenamiento para el acceso a los datos, desechando la clara distinción entre los ficheros y los procesos en memoria, y uno de los primeros sistemas multiprocesador
MVS (Múltiple Virtual Storage): Fue el sistema operativo más usado en los modelos de mainframes -ordenadores grandes, potentes y caros usados principalmente por grandes compañías para el procesamiento de grandes cantidades de datos- System/370 y System/390 de IBM
CCP (Comand Control Processor): Intérprete de comandos que permitía introducir los mandatos con sus parámetros separados por espacios. Además, los traducía a instrucciones de alto nivel destinadas a BDOS.
DOS
El DOS es a parte de un sistema operativo, un conjunto de programas que nos permiten manipular información contenida en discos, de esta forma podemos trabajar con facilidad, comodidad y rapidez con estos; a demás, el DOS coordina el funcionamiento del microprocesador para que todo funcione bien en el interior de nuestro ordenador.
Características
El DOS carece por completo de interfaz gráfica, y no utiliza el ratón. Era incapaz de detectar el hardware (no existía el Plug-and-play), por lo que todo debía ser configurado manualmente.
No era ni multiusuario ni multitarea. No podía trabajar con discos duros muy grandes. Originalmente, por limitaciones del software, no podía manejar más de 64KB de memoria RAM. Poco a poco, con las mejoras en la arquitectura de los PCs, llegó primero a manejar 640KB (la llamada "memoria convencional"), y luego hasta 1 MegaByte (agregando a la memoria convencional la "memoria superior" o UMB). Más tarde, aparecieron mecanismos como la memoria extendida (XMS) y la memoria expandida (EMS), que permitían ya manejar varios megabytes
MS-DOS
El MS-DOS es un sistema operativo monousuario y monotarea. Al cumplir las dos condiciones arriba mencionadas el procesador está en cada momento está dedicado en exclusividad a la ejecución de un proceso, por lo que la planificación del procesador es simple y se dedica al único proceso activo que pueda existir en un momento dado.
DR-DOS
Sus principales características eran el compresor de disco SuperStor (en aquella época eran habituales los discos duros de 40 MB) y la capacidad multitarea proporcionada por TaskMax. Si bien inferior a aplicaciones como DesqView, el introducir multitarea suponía una importante mejora respecto de MS-DOS
PC-DOS
El sistema operativo IBM PC-DOS es uno de los sistemas operativos que dominó el mercado de los ordenadores personales entre 1985 y 1995. Tiene las mismas raíces que el más conocido MS-DOS.
Novell DOS
sistema operativo para computadoras personales clónico del MS-DOS creado originalmente por Digital Research con el nombre de DR-DOS.
En 1991 Novell Corporation adquirió Digital Research y durante algún tiempo lo vendió como Novell DOS 7. Tras una reestructuración de Novell y ya que el producto se había vuelto poco atractivo, lo vendieron a Caldera Systems
FREEDOS
Es un proyecto que aspira a crear un sistema operativo libre que sea totalmente compatible con las aplicaciones y los controladores de MS-DOS.
El programa ya ha alcanzado un alto grado de madurez y tiene algunas características que no existían en MS-DOS. Algunos comandos de FreeDOS son idénticos o mejores que sus equivalentes de MS-DOS, pero aún faltan algunos del sistema operativo original.
Open-DOS
Este sistema operativo no es más que una revisión del DOS en el que se basaron MS-DOS entre otros. Caldera compró los derechos del Novell DOS en 1997 y sacó una nueva versión llamado OpenDOS. Es casi 100% compatible con los anteriores DOS y añade ciertas novedades muy llamativas como es la multitarea real muy decente entre sesiones DOS incluso tiene su propio API para facilitar el trabajo de los programadores. Este sistema operativo ha sido creado para ponerse en la ROM, también incluye el Personal NetWare que son un conjunto de utilidades para redes locales. Otras utilidades que trae es el Stacker, para comprimir discos, manual on-line, recuperación de ficheros borrados, etc.

windows
En 1985 Microsoft lanzó Windows, un sistema operativo que ampliaba las prestaciones de MS-DOS e incorporaba por primera vez una interfaz gráfica de usuario. Windows 2.0, que salió a la venta en 1987, mejoraba el rendimiento y ofrecía un nuevo aspecto visual. Tres años más tarde apareció una nueva versión, Windows 3.0, a la que siguieron Windows 3.1 y 3.11. Estas versiones, que ya venían preinstaladas en la mayoría de los equipos, se convirtieron rápidamente en los sistemas operativos más utilizados de todo el mundo. En 1990 Microsoft pasó a ser la empresa líder de programas informáticos y alcanzó unas ventas anuales de más de mil millones de dólares.
Windows NT, un sistema operativo diseñado para entornos empresariales, fue lanzado en 1993. Al año siguiente, la compañía y el Departamento de Justicia firmaron un acuerdo en el que se pedía a Microsoft que modificase la forma de vender y conceder licencias para sus sistemas operativos a los fabricantes de computadoras. En 1995 la compañía lanzó Windows 95, un entorno multitarea con interfaz simplificada y con otras funciones mejoradas. A las siete semanas de su lanzamiento se habían vendido siete millones de copias.


Sistema Operativo Unix
es un sistema operativo portable, multitarea y multiusuario; desarrollado en principio por un grupo de empleados de los laboratorios Bell de AT&T, entre los que figuran Ken Thompson, Dennis Ritchie y Douglas McIlroy.
características:
- Es un sistrema operativo multiusuario, con capacidad de simular multiprocesamiento y procesamiento no interactivo.
- Está escrito en un lenguaje de alto nivel : C.
- Dispone de un lenguaje de control programable llamado SHELL.
- Ofrece facilidades para la creación de programas y sistemas y el ambiente adecuado para las tareas de diseños de software.
- Emplea manejo dinámico de memoria por intercambio o paginación.
- Tiene capacidad de interconexión de procesos.
- Permite comunicación entre procesos.
- Emplea un sistema jerárquico de archivos, con facilidades de protección de archivos, cuentas y procesos.
- Tiene facilidad para redireccionamiento de Entradas/Salidas.
- Garantiza un alto grado de portabilidad.
Slackware
Esta distribucion es quizas de las más extendidas en todo el mundo y la más conocida en España, ya que es la que han divulgado las publicaciones del sector. Incluye con creces todo el software que cualquier usuario medio o avanzado pueda necesitar, y su método de instalación es asequible aunque lejos de las típicas y vistosas
instalaciones a las que el usuario neófito esta acostumbrado en los sistemas comerciales. Tiene diversos derivados comercializados bajo diferentes nombres (por ej. "Slackware Pro") que mejoran la instalación e incluyen manuales y bibliografía en un único lote.
Red Hat
Creada por Red Hat Software, en Connecticut, EE.UU. Una de sus ventajas es el atractivo sistema de instalación (en modo gráfico) y el cómodo mantenimiento de componentes de software, lo que facilita enormemente las tan frecuentes actualizaciones. Se puede obtener tanto gratuitamente en la red como adquiriendo el CDROM correspondiente. Otras empresas comercializan también sistemas basados en Red Hat, como Caldera Inc. y Pacific Hi-Tech. Aún poco conocida en Espa–a pero pujante, sobre todo para principiantes. Sus creadores estan en http://www.redhat.com. El mencionado sistema de gestión de componentes de software es obra suya, pero lo han ofrecido con carácter abierto y gratuito a los demás desarrolladores bajo la licencia de GNU, por lo que es previsible que en el futuro otros muchos asuman este sistema en sus propias distribuciones, lo que facilitará enormemente las actualizaciones.
Debian
La Free Software Fundation (FSF) es bien conocida entre los acérrimos usuarios de software gratuito para Unix. Son los creadores del sistema GNU, su futuro Unix gratuito. Ya hay mucho material pero no un sistema operativo completo, asi que mientras tanto ofrecen un Unix integrado por el nucleo de Linux y el software de GNU.
Linux es un Unix libre, es decir, un sistema operativo, como el Windows o el MS-DOS (sin embargo, a diferencia de estos y otros sistemas operativos propietarios, ha sido desarrollado por miles de usuarios de computadores a través del mundo, y la desventaja de estos es que lo que te dan es lo que tu obtienes, dicho de otra forma no existe posibilidad de realizar modificaciones ni de saber como se realizó dicho sistema.), que fue creado inicialmente como un hobbie por un estudiante joven, Linus Torvalds, en la universidad de Helsinki en Finlandia, con asistencia por un grupo de hackers a través de Internet. Linus tenía un interés en Minix, un sistema pequeño o abreviado del UNIX (desarrollado por Andy Tanenbaum);
Características
En líneas generales podemos decir que se dispone de varios tipos de sistema de archivos para poder acceder a archivos en otras plataformas. Incluye un entorno gráfico X window (Interface gráfico estandard para máquinas UNIX), que nada tiene que envidiar a los modernos y caros entornos comerciales. Está orientado al trabajo en red, con todo tipo de facilidades como correo electrónico por ejemplo. Posee cada vez más software de libre distribución, que desarrollan miles de personas a lo largo y ancho del planeta. Linux es ya el sistema operativo preferido por la mayoría de los informáticos. Un ejemplo de la popularidad que ha alcanzado es sistema y la confianza que se puede depositar en él es que incluso la NASA ha encomendado misiones espaciales de control de experimentos a la seguridad y la eficacia de Linux.
Mandriva Linux (antes Mandrakelinux y Mandrake Linux) es una distribución Linux aparecida en julio de 1998 propiedad de Mandriva, enfocada a principiantes o usuarios medios.
Apoya también totalmente la licencia GNU GPL, ofrece públicamente su distribución en formato ISO, sus asistentes o sus repositorios.
Las principales características de Mandriva Linux son:
Internacionalización
Mandriva Linux está disponible en unos 74 idiomas. Especialmente de calidad son sus traducciones al Español, Catalán y Portugués.
Ubuntu es una distribución Linux que ofrece un sistema operativo predominantemente enfocado a ordenadores de escritorio aunque tambien proporciona soporte para servidores. Basada en Debian GNU/Linux, Ubuntu concentra su objetivo en la facilidad de uso, la libertad en la restricción de uso, los lanzamientos regulares (cada 6 meses) y la facilidad en la instalación. Ubuntu es patrocinado por Canonical Ltd., una empresa privada fundada y financiada por el empresario sudafricano Mark Shuttleworth.

Historia y evolucion de los Sistemas Operativos

Los sistemas operativos han venido evolucionando a través de los años. Ya que los sistemas operativos se han apegado íntimamente a la arquitectura de las computadoras en las cuales se ejecutan.
La primera computadora digital real fue diseñada por el matemático ingles Charles Babbage (1792 - 1871). Aunque Babbage gasto la mayor parte de su vida y de su fortuna intentando construir su “ maquina analítica “ , nunca la hizo funcionar adecuadamente porque era un diseño puramente mecánico y la tecnología de su época no podía producir las ruedas, el engranaje, levas y otras partes mecánicas con la alta precisión que el necesitaba. Sin tener que decirlo, la maquina analítica no tuvo un sistema operativo.

La primera generación (1945 - 1955 ) : Tubos de vació y tableros enchufablesDespués de los esfuerzos frustrados de Babbage, se progreso poco en la construcción de computadoras digitales hasta la segunda guerra mundial, alrededor de la mitad de la década de 1940, Howard Aiken en Hardvard, Jon Von Neumann en el Instituto de Estudios Avanzados en Princeton, J. Presper Ecker y William Mauchley en la Universidad de Pensilvania y Konrad Zuse en Alemania, entre otros, todos obtuvieron resultados óptimos en la construcción de maquinas de calculo mediante el uso de tubos de vació.
En estos primeros días, un grupo singular de personas diseño, construyo, programo, opero y dio mantenimiento a cada maquina. Toda la programación se realizo en lenguaje de maquina absoluto. Los lenguajes de programación se desconocían (todavía no existía el lenguaje ensamblador). Los primeros sistemas operativos eran extraños. El modo usual de operación consistía en que el programador firmaba para tener acceso a un bloque de tiempo en la hoja de registro situada en la pared, después bajaba al cuarto de maquinas, insertaba su tablero enchufadle en la computadora y pasaba las siguientes horas esperando que ninguno de los 20,000 tubos de vació se fundiera durante la ejecución de su programa.
Al inicio de la década de 1950, la rutina había mejorado un poco con la introducción de la tarjetas perforadas. Ahora era posible escribir en tarjetas y leerlos, en vez de utilizar tableros enchufables; de lo contrario el procedimiento era el mismo.

La segunda generación (1955 - 1965): Transistores y sistemas de lote

La introducción del transistor a mediados de la década de 1950 cambio la imagen radicalmente. Las computadoras se volvieron lo suficientemente confiables, en un principio hubo una clara separación entre los diseñadores, armadores, operadores, programadores y personal de mantenimiento.
Estas maquinas se instalaban en cuartos de computadoras especialmente acondicionados con aire, con cuerpo de operadores profesionales para accionarlas. Un programador primeramente escribiría el programa en papel (en FORTRAN o en lenguaje Ensamblador) y después lo perforaba en tarjetas. Después llevaría la pila de tarjetas al cuarto de introducción al sistema y la entregaría a uno de los operadores el cual iniciaba el proceso en la computadora, este proceso desperdiciaba mucho tiempo.
Dado el alto costo del equipo, no es sorprendente que las personas buscaran rápidamente maneras de reducir el tiempo perdido. La solución que generalmente se adoptaba era el sistema de lote. La idea implícita en este sistema era la de conjuntar un cajón lleno de trabajos en el cuarto de introducción al sistema y después de leerlos en una cinta magnética mediante el uso de una computadora (relativamente) pequeña y poco costosa, como la IBM 1401.
Después de casi una hora de recolectar un lote de trabajos, la cinta se volvía a enrollar y se llevaba al cuarto de maquinas. Después el operador cargaba un programa especial ( el ancestro del sistema operativo de hoy en día ) , el cual leía el primer trabajo y lo ejecutaba, la salida se escribía en una segunda cinta, en vez de imprimirse. Después de terminar cada trabajo, el sistema operativo leía automáticamente el siguiente trabajo de la cinta, y comenzaba a ejecutarlo.

La estructura de un trabajo de entrada común arrancaba con una tarjeta $JOB, que especifica el tiempo máximo de ejecución en minutos, el numero de cuenta que se cargara y el nombre del programador. Después venia una tarjeta $FORTRAN, que indicaba al sistema operativo que debía cargar el compilador de FORTRAN. Venia seguido de un programa que debía compilarse y después de una tarjeta $LOAD, que ordenaba al sistema operativo cargar el programa objeto recién compilado, después venia la tarjeta $RUN, que indicaba al sistema operativo que debía ejecutar el programa con los datos que le seguían. Por ultimo, la tarjeta $END marcaba el final del trabajo. Los sistemas operativos comunes eran FMS (el sistema monitor del FORTRAN) e IBSYS, sistema operativo de IBM de la 7094.

La tercera generación (1965-1980): Circuitos integrados (CI) y multiprogramación

Al inicio de la década de 1960 muchos fabricantes de computadoras tenían dos líneas de trabajo distintas y totalmente incompatibles. Por un lado existían las computadoras científicas de grande escala orientadas a las palabras, como la 7094, que se utilizaban para realizar cálculos numéricos de ciencias e ingeniería. Por el otro lado estaban las computadoras comerciales orientadas a los caracteres, como 1401, que se utilizaban para el ordenamiento de cintas e impresión por parte de bancos y compañías de seguros.
El desarrollo y mantenimiento de dos líneas de productos diferentes era una proposición costosa para los fabricantes. Además, muchos nuevos compradores de computadoras necesitaban una maquina pequeña, pero después se expandían y querían una maquina de mayor tamaño que ejecutara todos sus programas antiguos, pero con mayor velocidad.
IBM intento resolver estos dos problemas de un solo golpe introduciendo en el mercado el Sistema/360. El 360 era una serie de maquinas compatibles con el software que variaban del tamaño de la 1401 a una mucho mas poderosa que la 7094, el 360 estaba diseñado para realizar cálculos tanto científicos como comerciales. Por lo tanto una sola familia de maquinas podía satisfacer las necesidades de todos los clientes.
El sistema 360 fue la primera línea importante de computadoras que utilizo circuitos integrados (CI), con lo cual ofreció una mayor ventaja de precio/rendimiento sobre las maquinas de la segunda generación.
La intención era que todo el software, como el sistema operativo, tenía que funcionar en todos los modelos. Tenia que correr en sistemas pequeños, y en sistemas muy grandes. Tenia que funcionar adecuadamente en sistemas con algunos periféricos y en sistemas con muchos periféricos.
No había manera de que IBM escribiera una pieza de software que cumpliera todos esos requisitos conflictivos. El resultado fue un sistema operativo enorme y extraordinariamente complejo. Constaba de millones de líneas de lenguaje ensamblador escritas por miles de programadores, y contenía miles y miles de errores ocultos.
A pesar de tamaño y problemas enormes, OS/360 y los sistemas operativos similares de la tercera generación satisfacían a muchos de sus clientes razonablemente bien, También popularizaron varias técnicas importantes ausentes en los sistemas operativos de la segunda generación. La más importante de estas fue la multiprogramación. Cuando el trabajo corriente se detenía para esperara a que se completara una operación en cinta u otra operación de E/S, la unidad central de procesamiento (CPU) simplemente permanecía ociosa hasta que terminara la operación de E/S . La solución que evoluciono consistía en partir la memoria en varias partes, con trabajo diferente en cada partición. Mientras que un trabajo esperaba a que se completara la E/S, otro trabajo podía estar utilizando la CPU. Si se podían mantener suficientes trabajos en la memoria central al mismo tiempo, la CPU podía mantenerse ocupada casi el 100% del tiempo.
Otra característica de importancia en los sistemas operativos de la tercera generación era la capacidad de leer trabajos de tarjetas contenidas en el disco tan pronto como se llevaban al cuarto de computación. Siempre que se terminaba un trabajo, el sistema operativo podía cargar uno nuevo del disco en la partición no vacía y ejecutarlo, esta técnica se denomina manejo por cola de impresión.
Los sistemas operativos de la tercera generación seguían siendo básicamente sistemas de lote. Con los sistemas operativos de la tercera generación, el tiempo entre la entrega de un trabajo y la devolución de la salida comprendía a menudo varias horas.
El deseo de obtener un tiempo de respuesta corto marco el camino para el tiempo compartido, variante de la multiprogramación, en la cual cada usuario tiene una terminal en línea. En un sistema de tiempo compartido si hay 20 usuarios dentro del sistema y 17 de ellos están pensando o platicando o bien tomando café, la CPU puede distribuirse en turno para los tres trabajos que necesitan servicio.
Aunque el primer sistema de tiempo compartido (CTSS) serio fue creado en MIT en una unidad 7094 especialmente modificada, no se volvió popular sino hasta que el hardware de protección necesario se disemino durante la tercera generación.
Después del éxito del sistema CTSS, MIT, Bell laboratorios y General electric decidieron embarcarse en el desarrollo de la “computadora de servicio publico .Conocido como MULTICS (Multiplexed information and computing service, información multicanalizada y servicio de computación). Para resumir una larga historia, MULTICS introdujo muchas ideas originales en la literatura de computación, pero su construcción era más difícil de lo que nadie había sospechado. MULTICS tuvo enorme influencia sobre otros sistemas subsiguientes.
Otro avance durante la tercera generación fue el crecimiento de las mini computadoras, comenzando con DEC PDP-1 en 1961. Uno de los científicos que había trabajado en el proyecto MULTICS, Ken Thompson, hallo después una pequeña PDP-7 y empezó a escribir después una versión desguarnecida de MULTICS para un usuario. Este sistema se llamo “UNICS” (Uniplexed information and computing service, información unicanalizada y servicio de computación), pero su ortografía cambio mas tarde por UNIX. UNIX se ha desplazado a más computadoras que ningún otro sistema operativo de la historia y su uso sigue aumentando rápidamente.

La cuarta generación (1980 - 1990): Computadoras personales

Con la creación de los circuitos integrados LSI (integración a grande escala), chips que contiene miles de transistores en un centímetro cuadrado de silicón, la era de computadora personal vio sus inicios.
Dos sistemas operativos han dominado la escena de la computadora personal: MS-DOS, escrito por Microsoft, Inc., para la IBM PC y otras computadoras que utilizan la CPU Intel 8088 y sus sucesores. Y UNIX, que domina en las computadoras personales mayores que hacen uso de CPU Motorola 68000.
Aunque la versión inicial de MS-DOS era relativamente primitiva, versiones subsiguientes han incluido más y más características de UNIX, lo que no es totalmente sorprendente dado que Microsoft es un proveedor importante de UNIX, que usa el nombre comercial de XENIX.
Un avance importante que empezó a tomar su sitio a mediados de la década de 1980 es el desarrollo de redes de computadoras personales que corren sistemas operativos en red y sistemas operativos distribuidos. En un sistema operativo en red, los usuarios tienen conocimiento de la existencia de múltiples computadoras y pueden ingresar en maquinas remotas y reproducir archivos de una maquina a la otra. Cada maquina ejecuta su sistema operativo local y tiene un usuario propio (o usuarios).
Un sistema distribuido, es aquel que se presenta ante sus usuarios como un sistema uní procesador tradicional, aunque en realidad este compuesto de múltiples procesadores. En un sistema distribuido real, los usuarios no tienen conocimiento de donde se están ejecutando sus programas o de donde están ubicados sus archivos; todo esto se debe manejar en forma automática y eficiente por medio del sistema operativo.
Los sistemas operativos en red no son fundamentalmente diferentes de los sistemas operativos uní procesadores. Sin duda necesitan un controlador de interfaz en red y algún software de bajo nivel para impulsarlo, así como programas para lograr un ingreso remoto al sistema y un acceso remoto del archivo.
Los sistemas operativos distribuidos reales requieren mas que simplemente agregar un poco de código a un sistema operativo uní procesador, ya que los sistemas operativos distribuidos y centralizados difieren de manera decisiva.

Años 40

A finales de los años 1940, con la aparición de la primera generación de computadoras, se realizaba lo que se llama el proceso en serie. Por aquel entonces no existían los sistemas operativos, y los programadores debían interactuar con el hardware del computador sin ayuda externa. Esto hacía que el tiempo de preparación para realizar una tarea fuera excesivo. Además para poder utilizar la computadora debía hacerse por turnos. Para ello se rellenaba un formulario de reserva en el que se indicaba el tiempo que el programador necesitaba para realizar su trabajo. En aquel entonces las computadoras eran máquinas muy costosas lo que hacía que estuvieran muy solicitadas y que sólo pudieran utilizarse en periodos breves de tiempo.

Años 50

En los años 1950 con el objeto de facilitar la interacción entre persona y computador, los sistemas operativos hacen una aparición discreta y bastante simple, con conceptos tales como el monitor residente, el proceso por lotes y el almacenamiento temporal.

Monitor residente

Su funcionamiento era bastante simple, se limitaba a cargar los programas a memoria, leyéndolos de una cinta o de tarjetas perforadas, y ejecutarlos. El principal problema de estos sistemas era encontrar una forma de optimizar el tiempo entre la retirada de un trabajo y el montaje del siguiente.

Procesamiento por lotes

Como solución para optimizar el tiempo de montaje surgió la idea de agrupar los trabajos en lotes, en una misma cinta o conjunto de tarjetas, de forma que se ejecutaran uno a continuación de otro sin perder apenas tiempo en la transición.Para realizar esto se utilizó una técnica de on-lining. La idea era dedicar un ordenador periférico, de menor coste y potencia, a convertir las tarjetas o la cinta perforada en información sobre cinta magnética, y la salida sobre cinta magnética en salida sobre impresora o cinta perforada. Una vez que se
Procesaban varios trabajos a cinta, ésta se desmontaba del ordenador periférico, y se llevaba a mano para su procesamiento por el ordenador principal. Cuando el ordenador principal llenaba una cinta de salida, ésta se llevaba al ordenador periférico para su paso a impresora o cinta perforada.

Almacenamiento temporal

Su objetivo era disminuir el tiempo de carga de los programas, simultaneando la carga del programa o la salida de datos con la ejecución de la siguiente tarea. Para ello se utilizaban dos técnicas, el buffering y el spooling.

Sistemas operativos desarrollados

En esta etapa estarían incluidos:

GM OS: Desarrollado por General Motors para el IBM 701.

Input Output System: Desarrollado por General Motors y la Fuerza Aérea de los Estados Unidos para el IBM 704.

FORTRAN Monitor system: Desarrollado por la aviación norteamericana para el IBM 709.

SAGE (Semi-Automatic Ground Environment): Primer sistema de control en tiempo real, desarrollado para el IBM AN/FSQ7.

SOS: Desarrollado por el IBM SHARE Users Group para el IBM 709.

Años 60

En este años 1960 se produjeron cambios notorios en varios campos de la informática, la mayoría orientados a seguir incrementando el potencial de los computadores. Para ello se utilizaban técnicas de lo más diversas:
Multiprogramación

En un sistema multiprogramado la memoria principal alberga a más de un programa de usuario. La CPU ejecuta instrucciones de un programa, cuando el que se encuentra en ejecución realiza una operación de E/S; en lugar de esperar a que termine la operación de E/S, se pasa a ejecutar otro programa. Si éste realiza, a su vez, otra operación de E/S, se mandan las órdenes oportunas al controlador, y pasa a ejecutarse otro. De esta forma es posible, teniendo almacenado un conjunto adecuado de tareas en cada momento, utilizar de manera óptima los recursos disponibles.

Tiempo compartido

En este punto tenemos un sistema que hace buen uso de la electrónica disponible, pero adolece de falta de interactividad; para conseguirla debe convertirse en un sistema multiusuario, en el cual existen varios usuarios con un terminal en línea, utilizando el modo de operación de tiempo compartido. En estos sistemas los programas de los distintos usuarios residen en memoria. Al realizar una operación de E/S los programas ceden la CPU a otro programa, al igual que en la multiprogramación. Pero, a diferencia de ésta, cuando un programa lleva cierto tiempo ejecutándose el sistema operativo lo detiene para que se ejecute otro aplicación. Con esto se consigue repartir la CPU por igual entre los programas de los distintos usuarios, y los programas de los usuarios no se sienten demasiado ralentizados por el hecho de que los recursos sean compartidos y aparentemente se ejecutan de manera concurrente.

Tiempo real

Estos sistemas se usan en entornos donde se deben aceptar y procesar en tiempos muy breves un gran número de sucesos, en su mayoría externos al ordenador. Si el sistema no respeta las restricciones de tiempo en las que las operaciones deben entregar su resultado se dice que ha fallado. El tiempo de respuesta a su vez debe servir para resolver el problema o hecho planteado. El procesamiento de archivos se hace de
Una forma continua, pues se procesa el archivo antes de que entre el siguiente, sus primeros usos fueron y siguen siendo en telecomunica
ciones


Multiprocesador

Permite trabajar con máquinas que poseen más de un procesador. En un multiprocesador los procesadores comparten memoria y reloj.

Sistemas operativos desarrollados

Además del Atlas Supervisor y el OS/360, utilizados en máquinas concretas, lo más destacable de la década es el nacimiento de Unix, que hoy en día es una de las plataformas más extendidas en el mundo de la informática.

Años 70

Debido al avance de la electrónica, pudieron empezar a crearse circuitos con miles de transistores en un centímetro cuadrado de silicio, lo que llevaría, pocos años después, a producirse los primeros sistemas integrados. Ésta década se podría definir como la de los sistemas de propósito general y en ella se desarrollan tecnologías que se siguen utilizando en la actualidad. Es en los años 1970 cuando se produce el boom de los miniordenadores y la informática se acerca al nivel de usuario. En lo relativo a lenguajes de programación, es de señalar la aparición de Pascal y C, el último de los cuales sería reutilizado para reescribir por completo el código del sistema operativo Unix, convirtiéndolo en el primero implementado en un lenguaje de alto nivel. En el campo de la programación lógica se dio a luz la primera implementación de Prolog, y en la revolucionaria orientación a objetos, Smalltalk.

Inconvenientes de los sistemas existentes

Se trataba de sistemas grandes y costosos, pues antes no se había construido nada similar y muchos de los proyectos desarrollados terminaron con costes muy por encima del presupuesto y mucho después de lo que se marcaba como fecha de analización. Además, aunque formaban una capa entre el hardware y el usuario, éste debía conocer un complejo lenguaje de control para realizar sus trabajos. Otro de los inconvenientes es el gran consumo de recursos que ocasionaban, debido a los grandes espacios de memoria principal y secundaria ocupados, así como el tiempo de procesador consumido. Es por esto que se intentó hacer hincapié en mejorar las técnicas ya existentes de multiprogramación y tiempo compartido.

Características de los nuevos sistemas

Para solventar los problemas antes comentados, se realizó un costosísimo trabajo para interponer una amplia capa de software entre el usuario y la máquina, de forma que el primero no tuviese que conocer ningún detalle de la circuitería.
Sistemas operativos desarrollados

MULTICS (Multiplexed Information and Computing Service): Originalmente era un proyecto cooperativo liderado por Fernando Corbató del MIT, con General Electric y los laboratorios Bell, que comenzó en los 60, pero los laboratorios Bell abandonaron en 1969 para comenzar a crear el sistema UNIX. Se desarrolló inicialmente para el mainframe GE-645, un sistema de 36 bits; después fue soportado por la serie de máquinas Honeywell 6180.
Fue uno de los primeros sistemas operativos de tiempo compartido, que implementó un solo nivel de almacenamiento para el acceso a los datos, desechando la clara distinción entre los ficheros y los procesos en memoria, y uno de los primeros sistemas multiprocesador.

MVS (Múltiple Virtual Storage): Fue el sistema operativo más usado en los modelos de mainframes -ordenadores grandes, potentes y caros usados principalmente por grandes compañías para el procesamiento de grandes cantidades de datos- System/370 y System/390 de IBM, desarrollado también por IBM y lanzado al mercado por primera vez en 1974. Como características destacables, permitía la ejecución de múltiples tareas, además de que introdujo el concepto de memoria virtual y finalmente añadió la capacidad de que cada programa tuviera su propio espacio de direccionamiento de memoria, de ahí su nombre.

CP/M (Control Program/Monitor): Desarrollado por Gary Kildall para el microprocesador 8080/85 de Intel y el Zilog Z80, salió al mercado en 1976, distribuyéndose en disquetes de ocho pulgadas. Fue el SO más usado en las computadoras personales de esta década. Su éxito se debió a que era portable, permitiendo que diferentes programas interactuasen con el hardware de una manera estandarizada. Estaba compuesto de dos subsistemas:

CCP (Comand Control Processor): Intérprete de comandos que permitía introducir los mandatos con sus parámetros separados por espacios. Además, los traducía a instrucciones de alto nivel destinadas a BDOS.

BDOS (Basic Disk Operating System): Traductor de las instrucciones en llamadas a la BIOS.

El hecho de que, años después, IBM eligiera para sus PCS a MS-DOS supuso su mayor fracaso, por lo que acabó desapareciendo

jueves, 3 de mayo de 2007

Integrantes

somos estudiantes de tecnica profesional en com
putacion, estudiamos en la fundacion tecnologica
antonio de arevalo (TECNAR)
nuestros nombres son:
Jhon E. Martinez Puello
Juan C. Perez Perez
Francisco J. Perez Villarreal
Franklin Atencio Hernandez

Sistemas Operativos

Sistema operativo

Un sistema operativo (SO) es un conjunto de programas destinados a permitir la comunicación del usuario con un ordenador y gestionar sus recursos de manera eficiente. Comienza a trabajar cuando se enciende el ordenador, y gestiona el hardware de la maquina desde los niveles mas básicos.
Un sistema operativo se puede encontrar normalmente en la mayoría de los aparatos electrónicos que podamos utilizar sin necesidad de estar conectados a un ordenador y que utilicen microprocesadores para funcionar, ya que gracias a estos podemos entender la máquina y que ésta cumpla con sus funciones (teléfonos móviles, reproductores de DVD, autoradios... y computadoras)

Sistemas operativos más comunes

Sistema Operativo MS-DOS
Dos es un acrónimo de Disk Operating System, sistema operativo creado por Microsoft, y que tienen instalado la mayoría de los ordenadores PC.
Es DOS es a parte de un sistema operativo, un conjunto de programas que nos permiten manipular información contenida en discos, de esta forma podemos trabajar con facilidad, comodidad y rapidez con estos; a demás, el DOS coordina el funcionamiento del microprocesador para que todo funcione bien en el interior de nuestro ordenador.
A lo largo del tiempo Microsoft ha ido mejorando el DOS, desde su primera versión el 1.981. Las versiones que puedan existir, sirven para corregir errores detectados en la versión anterior o para mejorar ciertas partes del programa; si la variación está en la primera cifra, significa que se han introducido cambios importantes, fruto, por ejemplo, de las prestaciones de los nuevos microprocesadores, en gran parte para poder aprovechar sus ventajas.
Generalmente, el DOS viene instalado en los ordenadores. La principal función del DOS, como se ha comentado anteriormente, es la de gestionar la información que entra, sale y se guarda en nuestro ordenador.
Arrancar el DOS es sencillo: hay que poner en funcionamiento vuestro ordenador, pulsando el interruptor correspondiente, con la única precaución de que no haya ningún disquete en la disquetera, si lo hay, tienes que retirarlo rápidamente. Pasados unos segundos, después de comprobar que el sistema esta correcto (memoria, periféricos) veréis como aparece el indicador del MS-DOS, representado habitualmente por C:\>, este también llamado "prompt", que se presenta juntamente con el cursor parpadeando, indicando que el sistema esta preparado para recibir ordenes.
El MS-DOS es un sistema operativo monousuario y monotarea. Al cumplir las dos condiciones arriba mencionadas el procesador está en cada momento está dedicado en exclusividad a la ejecución de un proceso, por lo que la planificación del procesador es simple y se dedica al único proceso activo que pueda existir en un momento dado.

Estructura del MS-DOS.
El sistema operativo MS-DOS tiene una estructura arborescente donde existen unidades, dentro de ellas directorios y a su vez dentro de ellos tenemos los ficheros. Las unidades son las disqueteras y los discos duros. Los directorios son, dentro de las unidades, carpetas donde se guardan los ficheros. Los ficheros son conjuntos de datos y programas.
El DOS tiene unos cien comandos, que para poder ser ejecutados necesitan tres ficheros:
IBMBIOS.COM
IBMDOS.COM
COMMAND.COM
El IBMBIOS.COM se encarga de las comunicaciones de entrada y salida. El IBMDOS.COM es el centro de los servicios del ordenador, es conocido también como kernel o núcleo. El COMMAND.COM carga y permite ejecutar todos los comandos.
Estructura básica del sistema.
El MS-DOS contiene cinco elementos fundamentales:
La ROM-BIOS.- Programas de gestión de entrada y salida entre el Sistema Operativo y los dispositivos básicos del ordenador.
La IO.SYS.- Son un conjunto de instrucciones para la transferencia de entrada/salida desde periféricos a memoria. Prepara el sistema en el arranque y contiene drivers de dispositivo residentes.
MSDOS.SYS.- Es el kernel de MS-DOS, en que figuran instrucciones para control de los disquetes. Es un programa que gestiona los archivos, directorios, memoria y entornos.
DBLSPACE.BIN.- Es el controlador del Kernel del compresor del disco duro que sirve para aumentar la capacidad de almacenamiento del disco, disponible a partir de la versión 6 del MS-DOS. Este controlador se ocupa de toda la compresión y descompresión de ficheros y se puede trasladar desde la memoria convencional a la memoria superior.
COMMAND.COM.- Es el intérprete de comandos, mediante los cuales el usuario se comunica con el ordenador, a través del prompt \>. Interpreta los comandos tecleados y contiene los comandos internos de MS-DOS que no se visualizan en el directorio del sistema.
Los ficheros IO.SYS, MSDOS.SYS y DBLSPACE.BIN son ocultos, es decir, no se ven al listar el directorio, y se cargan desde el disco a la memoria del ordenador al arrancar éste.

Mac OS X

es el actual sistema operativo de la familia de ordenadores Macintosh.
En el año 1997 se nombró a Steve Jobs CEO de Apple, y éste decidió terminar con el sistema operativo Mac OS clásico (Mac OS 7, 8 y 9) (que carecía de características modernas presentes en los sistemas de su tiempo) y crear un nuevo sistema operativo tomando como punto de partida a NEXTSTEP, el sistema operativo que Steve Jobs había estado desarrollando con la empresa NeXT (adquirida por Apple).
Mac OS X es un sistema operativo de la familia UNIX, pero donde el gestor de ventanas X11, característico de estos sistemas, ha sido sustituido por otro denominado Agua, desarrollado íntegramente por Apple.
Mac OS X Server fue lanzado en el año 1999 y se diferencia por incorporar diferentes herramientas administrativas para la gestión de redes, y servicios de red.
Su fundación de bajo nivel se llama Darwin y tiene licencia APSL, una licencia open source y software libre en sus últimas versiones. Sin embargo, las capas superiores del sistema (por ejemplo el subsistema gráfico en general) son código cerrado.
Mac OS X incorpora diferentes tecnologías: Quartz Extreme, Core Image, Core Audio, Core Video, OpenGL y QuickTime entre otras

Sistema operativo Windows
En los últimos años, Windows ha dejado de ser una novedad para convertirse en un sistema operativo ampliamente aceptado que ha sabido implantarse en la Informática. Hoy en día, existen aplicaciones de cualquier tipo para Windows y todos los fabricantes que consiguieron en su día algún éxito con aplicaciones para el sistema operativo DOS ya han diseñado aplicaciones similares para Windows.
Windows 95
Con este sistema operativo Microsoft se ha propuesto superar algunas de las limitaciones del MS-DOS. Parte del código del Windows 95 esta implementando en 16 bits y parte en 32 bits. Uno de los motivos por los cuales se ha hecho así, ha sido para conservar su compatibilidad. Con Windows 95 podemos ejecutar aplicaciones de Windows 3.1 ó 3.11, MS-DOS y obviamente las nuevas aplicaciones diseñadas específicamente para este sistema operativo.
Entre las novedades que ofrece Windows 95 cabe destacar el sistema de ficheros de 32 bits, gracias al cual podemos emplear nombres de ficheros de hasta 256 caracteres (VFAT y CDFS), debido a que se trata de un sistema operativo de modo protegido, desaparece la barrera de los 640K, hemos de tener presente que aunque la mayor parte de Windows 3.1 es un sistema de modo protegido, este se está ejecutando sobre un sistema operativo que trabaja en modo real.
La interfaz de Windows 95 también ha sido mejorada. El primer gran cambio que veremos al empezar a trabajar será la desaparición del Administrador de Programas. Ahora tenemos un escritorio al estilo del Sistema 7 de los Macintosh o NeXTStep.
Viene a sustituir al sistema operativo DOS y a su predecesor Windows 3.1.
Una de las principales funciones del Windows 95 es facilitar la comunicación entre el usuario y el ordenador, simplificando la utilización de los programas informáticos. En toda comunicación entre dos partes, tiene que haber métodos para que cada una de estas partes pueda emitir la información. En el caso de la comunicación entre el usuario y Windows 95 se utilizan las ventanas para que Windows envíe información al usuario y los controles para que el usuario envíe información a Windows. Una ventana muestra al usuario información de cualquier tipo, ya sea texto o gráfico, mientras que un control es un elemento incluido en una ventana que permite al usuario realizar operaciones, por ejemplo, un botón para seleccionar algo, una lista de valores, un menú con diferentes opciones, una caja para introducir texto, etc.
Windows 98
Windows 98 soporta programa DOS y programas Windows. Cada programa de aplicación está diseñado para ejecutarse en un determinado sistema operativo y sólo en ése. Por ejemplo, un programa para el Sistema Operativo Apple System de los ordenadores Macintosh sólo se puede ejecutar en dichos ordenadores y no en un PC con Windows 98. Por esta razón los fabricantes suelen crear versiones del mismo programa para los distintos sistemas operativos (por ejemplo, existe el procesador de textos Word para MS-DOS, Word para Windows y Word para Macintosh). A pesar de ello, hay sistemas operativos que son capaces de ejecutar programas creados para otros sistemas operativos. Por ejemplo, Windows 98 puede ejecutar aplicaciones para Windows y, también, aplicaciones para el sistema operativo DOS.
Windows NT
Windows NT (New Technology) es un sistema operativo de Microsoft que ofrece arquitectura completa de 32 bits, dirigido a estaciones de trabajo, servidores de red y ordenadores con múltiples procesadores, con Windows NT se puede ejecutar el 70% de los programas diseñados para Windows pero no lo contrario. Windows 2000 se presenta en cuatro versiones: Professional, Server, Advanced Server y Datacenter Server. Las principales características y mejoras de Windows 2000 son entre otras:
Una mayor simplicidad en la apariencia externa del escritorio de Windows.
Una mayor velocidad respecto a las versiones anteriores y un aumento de la estabilidad principalmente por la capacidad de recuperación de forma automática de sus 300 archivos.
Mayor seguridad debido a la encriptación de archivos de 128 bits de forma que no puedan ser leídos por personas no autorizadas.
Incorporación del interfaz ACPI (Advanced Configuration and Power Interface o Interfaz de Energía y Configuración Avanzada).
El Directorio Activo o Active Directory, la nueva organización administrativa, que contiene la información de todos los elementos que forma parte de la red de la empresa.
Desaparecen los controladores Primario y Secundario de dominio, dando lugar a los controladores de dominio general que contienen una copia de la base de datos del directorio activo.
La incorporación del servidor Windows NT 4.0 Server Terminal Server Edition, cuya conexión se realiza mediante un software especial que permite trabajar como un emulador de terminal, con este servicio los ordenadores pueden ejecutar cualquier aplicación aunque su capacidad no lo permita.
El cluster, varios servidores trabajando conjuntamente, permiten el servicio continuado de los equipos, ya que si un servidor falla este pasa sus servicios y recursos a otro servidor de cluster.

Windows XP

(cuyo nombre en clave inicial fue Whistler) es un sistema operativo que fue hecho público el 25 de octubre de 2001 por Microsoft. Se considera que están en el mercado 400 millones de copias funcionando. Las letras "XP" provienen de la palabra experience ("experiencia" en inglés).
Windows XP es una línea de sistemas operativos desarrollada por Microsoft, orientada a cualquier entorno informático incluyendo computadoras domésticas o de negocios, computadoras portátiles, las llamadas "Tablet PC" y media center. Windows XP es el sucesor de Windows 2000 y Windows ME, y el primer sistema operativo de Microsoft orientado al consumidor que se construye con un núcleo y arquitectura de Windows NT y que se encuentra disponible en versiones para PC de 32 y 64 Bit.
Las ediciones de Windows XP más comunes son la edición HOME destinada al hogar y la PROFESSIONAL que tiene características adicionales tales como la posibilidad de unirse a un dominio, en vez de solo a grupos de trabajo, y soporte para procesadores duales. La edición Media Center es una versión de XP Professional que viene incluida en PC de características especificas incluyendo un Control Remoto y que realza la capacidades multimedia, tales como ver y grabar la TV, reproducir vídeos, fotos o música, o recibir HDTV así como compartir datos con una Xbox 360 mediante Online Spotlight. Windows XP Tablet PC Edition se diseñó para funcionar con la plataforma Tablet PC que son portátiles con pantallas táctiles. Dos versiones de 64 bits, fueron lanzadas, Windows XP edición 64 bits para los procesadores Itanium y otra diseñada para procesadores AMD64 y EM64T.
Windows XP a diferencia de sus versiones anteriores presenta mejoras en la estabilidad y de la eficacia de Windows. Presenta una Interfaz gráfica de usuario (GUI) perceptiblemente reajustada, un cambio de Microsoft promovido para un uso más fácil que en las versiones anteriores de Windows. Las nuevas capacidades de la gerencia del software fueron introducidas para evitar el “DLL Hell” que plagió las viejas versiones de Windows. Es también la primera versión de Windows que utiliza la activación del producto para reducir la piratería del software, una restricción que no sentó bien a algunos usuarios. Windows XP también ha sido criticado por algunos usuarios por las vulnerabilidades de seguridad, integración de Internet Explorer y el reproductor Windows Media Player y aspectos de su interfaz

Windows Vista es la versión del sistema operativo Microsoft Windows que sucede a Windows XP. Durante su desarrollo fue conocido provisionalmente como Windows Longhorn. Fue lanzado el 30 de noviembre de 2006 para el mundo empresarial a través de licencias Open. El resto de las versiones empaquetadas para el usuario final y OEM salieron a la venta el 30 de enero de 2007. Se espera que la campaña de lanzamiento sea incluso más costosa que el lanzamiento de Windows 95 ocurrido el 25 de agosto de 1995, debido a que su lanzamiento incluye además a otras plataformas como Microsoft Office 2007, y Exchange Server 2007. El 3 de agosto de 2005 salió la primera versión beta dirigida a los desarrolladores.

OS/2

Es un sistema operativo de IBM que intentó suceder a DOS como sistema operativo de los PCs. Se desarrolló inicialmente de manera conjunta entre Microsoft e IBM, hasta que la primera decidió seguir su camino con su Windows 3.0 e IBM se ocupó en solitario de OS/2.

Sistema operativo Linux

Es la denominación de parte de un sistema operativo denominado núcleo. Es uno de los paradigmas del desarrollo de software libre (y de código abierto), donde el código fuente está disponible públicamente y cualquier persona, con los conocimientos informáticos adecuados, puede libremente estudiarlo, usarlo, modificarlo y redistribuirlo.
El término "Linux" estrictamente se refiere al núcleo Linux, pero es comúnmente utilizado para describir al sistema operativo tipo Unix (que implementa el estándar POSIX), que utiliza primordialmente filosofía y metodologías de libres (también conocido como GNU/Linux) y que está formado mediante la combinación del núcleo Linux con las bibliotecas y herramientas del proyecto GNU y de muchos otros proyectos/grupos de software (libre o no libre). Actualmente, una parte considerable de las aplicaciones que conforman un sistema GNU/Linux son de origen distinto: GNU, KDE, OpenOffice.org, Mozilla, Apache, MySQL, PostgreSQL, Ruby, Perl, Python, Mono, entre otros. El proyecto GNU posee desde hace muchos años su propio núcleo en desarrollo, llamado Hurd. El núcleo Linux se distribuye bajo los términos de la licencia GNU GPL en su versión 2.
La expresión "Linux" también es utilizada para referirse a las distribuciones GNU/Linux, colecciones de software que suelen contener grandes cantidades de paquetes además del núcleo. El software que suelen incluir consta de una enorme variedad de aplicaciones, como: entornos gráficos, suites ofimáticas, servidores web, servidores de correo, servidores FTP, etcétera. Coloquialmente se aplica el término "Linux" a éstas. Algunas personas opinan que es incorrecto denominarlas distribuciones Linux, y proponen llamarlas sistema GNU/Linux. Otras personas opinan que los programas incluidos proceden de fuentes tan variadas que proponen simplificarlo denominándolo simplemente a "Linux".
La marca Linux (Número de serie: 1916230) pertenece a Linus Torvalds y se define como "un sistema operativo para computadoras que facilita su uso y operación".
Mientras que GNU/Linux pretende que este sistema se mantenga como Software Libre. La popularidad del sistema se ha incrementado en el mercado de desde servidores, hasta Teléfonos portátiles. Su gran flexibilidad ha permitido que sea utilizado en un rango muy amplio de sistemas de cómputo y arquitecturas: computadoras personales, supercomputadoras, dispositivos portátiles, etc.
Los sistemas GNU/Linux funcionan sobre más de 20 plataformas diferentes de hardware; entre ellas las más comunes son las de los sistemas compatibles con PCs x86 y x86-64, computadoras Macintosh, PowerPC, Sparc, MIPS y la nueva consola de juegos PS3.
Asimismo, existen Grupos de Usuarios de Linux y Software Libre en casi todas las áreas del planeta.

Sistema Operativo Unix

es un sistema operativo portable, multitarea y multiusuario; desarrollado en principio por un grupo de empleados de los laboratorios Bell de AT&T, entre los que figuran Ken Thompson, Dennis Ritchie y Douglas McIlroy.
Hoy día, la palabra UNIX se utiliza para denotar diferentes conceptos dependiendo del contexto en que es usada. Esto suele dar lugar a confusiones:
UNIX - familia: desde el punto de vista técnico, UNIX se refiere a una familia de sistemas operativos que comparten unos criterios de diseño e interoperabilidad en común. Esta familia incluye más de 100 sistemas operativos desarrollados a lo largo de 20 años. No obstante, es importante señalar que esta definición no implica necesariamente que dichos sistemas operativos compartan código o cualquier propiedad intelectual.
UNIX - el sistema operativo original: desde el punto de vista histórico, UNIX se refiere a la subfamilia de sistemas operativos que descienden de la primera implementación original de AT&T. El término "descendencia" ha de interpretarse como trabajos derivativos que comparten propiedad intelectual con la implementación original.

Casas Productoras


Microsoft


Orígenes
Bill Gates y Paul Allen crearon la empresa en 1975. Se establecieron en Albuquerque (Nuevo México) y cuatro años más tarde se trasladaron a Seattle.
Sus primeros productos fueron intérpretes de BASIC, más tarde hicieron compiladores de Fortran y COBOL. La primera versión del compilador BASIC de Microsoft fue inspirada por Bill Gates a partir de un artículo en una revista sobre el Altair 8800.
Microsoft (acrónimo de Microcomputer Software), es una empresa de Estados Unidos, fundada por Bill Gates y Paúl Allen, los cuales siguen siendo sus principales accionistas. Dueña y productora de los sistemas operativos: Microsoft DOS y Microsoft Windows, que se utilizan en la mayoría de las computadoras del planeta.
Sistema operativo MS-DOS
Dos es un acrónimo de Disk Operating System, sistema operativo creado por Microsoft, y que tienen instalado la mayoría de los ordenadores PC.
Es DOS es a parte de un sistema operativo, un conjunto de programas que nos permiten manipular información contenida en discos, de esta forma podemos trabajar con facilidad, comodidad y rapidez con estos; a demás, el DOS coordina el funcionamiento del microprocesador para que todo funcione bien en el interior de nuestro ordenador.
A lo largo del tiempo Microsoft ha ido mejorando el DOS, desde su primera versión el 1.981. Las versiones que puedan existir, sirven para corregir errores detectados en la versión anterior o para mejorar ciertas partes del programa; si la variación está en la primera cifra, significa que se han introducido cambios importantes, fruto, por ejemplo, de las prestaciones de los nuevos microprocesadores, en gran parte para poder aprovechar sus ventajas.
Generalmente, el DOS viene instalado en los ordenadores. La principal función del DOS, como se ha comentado anteriormente, es la de gestionar la información que entra, sale y se guarda en nuestro ordenador.
Arrancar el DOS es sencillo: hay que poner en funcionamiento vuestro ordenador, pulsando el interruptor correspondiente, con la única precaución de que no haya ningún disquete en la disquetera, si lo hay, tienes que retirarlo rápidamente. Pasados unos segundos, después de comprobar que el sistema esta correcto (memoria, periféricos) veréis como aparece el indicador del MS-DOS, representado habitualmente por C:\>, este también llamado "prompt", que se presenta juntamente con el cursor parpadeando, indicando que el sistema esta preparado para recibir ordenes.
El MS-DOS es un sistema operativo monousuario y monotarea. Al cumplir las dos condiciones arriba mencionadas el procesador está en cada momento está dedicado en exclusividad a la ejecución de un proceso, por lo que la planificación del procesador es simple y se dedica al único proceso activo que pueda existir en un momento dado.
Características
El DOS carece por completo de interfaz gráfica, y no utiliza el ratón. Era incapaz de detectar el hardware (no existía el Plug-and-play), por lo que todo debía ser configurado manualmente.
No era ni multiusuario ni multitarea. No podía trabajar con discos duros muy grandes. Originalmente, por limitaciones del software, no podía manejar más de 64KB de memoria RAM. Poco a poco, con las mejoras en la arquitectura de los PCs, llegó primero a manejar 640KB (la llamada "memoria convencional"), y luego hasta 1 MegaByte (agregando a la memoria convencional la "memoria superior" o UMB). Más tarde, aparecieron mecanismos como la memoria extendida (XMS) y la memoria expandida (EMS), que permitían ya manejar varios megabytes.
Desde el punto de vista de los programadores, este sistema operativo permitía un control total del ordenador, libre de las capas de abstracción y medidas de seguridad a las que obligan los sistemas multiusuario y multitarea. Así, hasta la aparición del DirectX, y con el fin de aprovechar al máximo el hardware, la mayoría de los videojuegos para PC funcionaban bajo DOS.
La necesidad de mantener la compatibilidad con programas antiguos, hacía cada vez más difícil programar para DOS, debido a que la memoria estaba segmentada, es decir, la memoria apuntada por un puntero tenía como máximo el tamaño de un segmento de 64KB. Para superar estas limitaciones del modo real de los procesadores x86, se recurría al modo protegido de los procesadores posteriores (80386, 80486...), utilizando programas extensores que hacían funcionar programas de 32 bits sobre DOS.
Versiones de DOS
Fueron varias las compañías que sacaron versiones del DOS, generalmente muy similares entre sí. PC-DOS y MS-DOS, por ejemplo, empezaron siendo prácticamente idénticos, aunque acabaron siendo muy distintos. Las versiones más conocidas fueron:
MS-DOS (Microsoft)
DR-DOS (Digital Research)
PC-DOS (IBM)
Novell DOS (Novell)
FreeDOS
OpenDOS

DR-DOS
Sus principales características eran el compresor de disco SuperStor (en aquella época eran habituales los discos duros de 40 MB) y la capacidad multitarea proporcionada por TaskMax. Si bien inferior a aplicaciones como DesqView, el introducir multitarea suponía una importante mejora respecto de MS-DOS
Digital Research fue comprada por Novell en su estrategia de competición con Microsoft. Como resultado de ello, apareció Novell DOS 7.0, cuya principal ventaja sobre MS-DOS era ofrecer una versión personal del sistema de red Novell, sistema que comenzaba a perder popularidad a causa de la aparición de Windows para Trabajo en Grupo. Finalmente, DR-DOS fue vendido a Caldera en 1996. Posiblemente el principal interés de Caldera en el producto era una antigua demanda contra Microsoft por competencia desleal, ya que aunque el producto era altamente compatible a nivel binario con MS-DOS, Microsoft se esforzó en introducir código en Windows específicamente para hacerlo incompatible con DR-DOS.
El DR-DOS 7.01 de Caldera fue distribuido bajo licencia de fuente abierta con el nombre de OpenDOS, pero en la versión 7.02 se volvió a cerrar la fuente.
En 2002, la división de Caldera dedicada a DR-DOS (Caldera Thinclients, luego Lineo), tras sacar la versión 7.03 en 1999, decidió centrarse en Linux y vendió DR-DOS a la empresa DeviceLogics, que en 2004 produjo DR-DOS 8.0. Los DR-DOS de Lineo y DeviceLogics se han licenciado habitualmente para su uso en sistemas integrados o para utilidades que necesitan usar un disco de arranque (por ejemplo, las utilidades de disco de Seagate).
Mientras tanto, el proyecto DR-DOS enhancement ha tratado de crear un sistema operativo a partir de la fuente abierta del DR-DOS 7.01
PC-DOS
El sistema operativo IBM PC-DOS es uno de los sistemas operativos que dominó el mercado de los ordenadores personales entre 1985 y 1995. Tiene las mismas raíces que el más conocido MS-DOS.
Microsoft e IBM acordaron en 1981 que Microsoft crearía el sistema operativo base para los IBM PC y que los cambios que cada empresa hicieran al mismo serían compartidos para mejorarlo. Por lo tanto existen dos versiones de dicho sistema base: MS-DOS (la versión de Microsoft) y PC-DOS (de IBM). PC-DOS solo se vendía con los ordenadores personales de IBM, mientras que Microsoft decidió venderlo al resto de los compatibles.
Durante muchos años PC-DOS y MS-DOS fueron idénticos. A principios de los años 90 las relaciones entre IBM y Microsoft empeoraron, y como consecuencia de ello ambos sistemas fueron divergiendo. Además IBM decidió vender PC-DOS a los fabricantes de compatibles, y no solo con sus sistemas, haciendo la competencia a MS-DOS.
A mediados de los 90, Microsoft dejó de mejorar MS-DOS para centrarse en Windows 95, mientras que IBM continuó mejorando el sistema, lo que hizo que PC-DOS estuviera mucho más adelantado que MS-DOS. De todas formas, esto tuvo pocas consecuencias debido al éxito de Windows 95, que hizo que el número de máquinas basadas en DOS descendiera drásticamente en los años siguientes.
PC-DOS sigue siendo vendido por IBM, siendo su última versión PC-DOS 2000.
Novell DOS
sistema operativo para computadoras personales clónico del MS-DOS creado originalmente por Digital Research con el nombre de DR-DOS.
En 1991 Novell Corporation adquirió Digital Research y durante algún tiempo lo vendió como Novell DOS 7. Tras una reestructuración de Novell y ya que el producto se había vuelto poco atractivo, lo vendieron a Caldera Systems.
FREEDOS
es un proyecto que aspira a crear un sistema operativo libre que sea totalmente compatible con las aplicaciones y los controladores de MS-DOS.
El programa ya ha alcanzado un alto grado de madurez y tiene algunas características que no existían en MS-DOS. Algunos comandos de FreeDOS son idénticos o mejores que sus equivalentes de MS-DOS, pero aún faltan algunos del sistema operativo original.
Algunas ventajas de FreeDOS: La licencia es libre y el programa está en pleno desarrollo, mejorando día a día. Tiene soporte para particiones FAT32, desde las que puede arrancar. Dependiendo de la BIOS usada, se pueden utilizar discos duros LBA de hasta 128 Gb o incluso 2 TB. Algunas BIOS tienen soporte para LBA pero tienen un fallo con los discos mayores de 32 GB; controladores como OnTrack o EzDrive pueden "reparar" ese problema. FreeDOS también se puede usar con un controlador llamado DOSLFN que soporta nombres de archivo largos (ver VFAT), pero la mayoría de los programas de FreeDOS NO soportan nombres de archivo largos, incluso si el controlador está cargado.
No hay planes para añadir soporte NTFS o ext2fs a FreeDOS, pero hay varios controladores shareware disponibles para tal propósito. Para acceder a particiones ext2fs, se pueden usar la herramienta LTOOLS, que puede copiar información desde y hacia particiones ext2fs. Si se ejecuta FreeDOS en DOSEmu (un emulador de PC/DOS para sistemas Linux) es posible instalar aplicaciones DOS en cualquier sistema de archivos y disco duro que soporte Linux.
Tampoco está planeado el soporte de USB, sólo los dispositivos USB reconocidos por la BIOS están disponibles de primera mano para FreeDOS. Se pueden usar controladores gratuitos, o ejecutar FreeDOS en una ventana de DOSEmu y dejar que use cualquier unidad que sea accesible a Linux.
El intérprete de línea de comandos usado por FreeDOS se llama FreeCOM.
Open-DOS

Este sistema operativo no es más que una revisión del DOS en el que se basaron MS-DOS entre otros. Caldera compró los derechos del Novell DOS en 1997 y sacó una nueva versión llamado OpenDOS. Es casi 100% compatible con los anteriores DOS y añade ciertas novedades muy llamativas como es la multitarea real muy decente entre sesiones DOS incluso tiene su propio API para facilitar el trabajo de los programadores. Este sistema operativo ha sido creado para ponerse en la ROM, también incluye el Personal NetWare que son un conjunto de utilidades para redes locales. Otras utilidades que trae es el Stacker, para comprimir discos, manual on-line, recuperación de ficheros borrados, etc.


Sistema operativo Windows
En los últimos años, Windows ha dejado de ser una novedad para convertirse en un sistema operativo ampliamente aceptado que ha sabido implantarse en la Informática. Hoy en día, existen aplicaciones de cualquier tipo para Windows y todos los fabricantes que consiguieron en su día algún éxito con aplicaciones para el sistema operativo DOS ya han diseñado aplicaciones similares para Windows.
Windows 1.0
En 1985 Microsoft publicó la primera versión de Windows, una interfaz gráfica de usuario (GUI) para su propio sistema operativo (MS-DOS) que había sido incluido en el IBM PC y ordenadores compatibles desde 1981. Es muy similar a la de Apple, usando la interfaz gráfica, fue creada imitando el MacOS de Apple.
La primera versión de Microsoft Windows Premium nunca fue demasiado potente ni tampoco se hizo popular. Estaba severamente limitada debido a los recursos legales de Apple, que no permitía imitaciones de sus interfaces de usuario. Por ejemplo, las ventanas sólo podían disponerse en mosaico sobre la pantalla; esto es, nunca podían solaparse u ocultarse unas a otras. Tampoco había "papelera de reciclaje" debido a que Apple creía que ellos tenían la patente de este paradigma o concepto. Ambas limitaciones fueron eliminadas cuando el recurso de Apple fue rechazado en los tribunales. Por otro lado, los programas incluidos en la primera versión eran aplicaciones "de juguete" con poco atractivo para los usuarios profesionales.
Windows 2.0
Apareció en 1987, y fue un poco más popular que la versión inicial. Gran parte de esta popularidad la obtuvo de la inclusión en forma de versión "run-time" de nuevas aplicaciones gráficas de Microsoft, Microsoft Excel y Microsoft Word para Windows. Éstas podían cargarse desde MS-DOS, ejecutando Windows a la vez que el programa, y cerrando Windows al salir de ellas. Windows 2 todavía usaba el modelo de memoria 8088 y por ello estaba limitado a 1 megabyte de memoria; sin embargo, mucha gente consiguió hacerlo funcionar bajo sistemas multitareas como DesqView.
Windows 3.0
La primera versión realmente popular de Windows fue la versión 3.0, publicada en 1990. Ésta se benefició de las mejoradas capacidades gráficas para PC de esta época, y también del microprocesador 80386, que permitía mejoras en las capacidades multitarea de las aplicaciones Windows. Esto permitiría ejecutar en modo multitarea viejas aplicaciones basadas en MS-DOS. Windows 3 convirtió al IBM PC en un serio competidor para el Apple Macintosh.
OS/2 1
Durante la segunda mitad de los 80, Microsoft e IBM habían estado desarrollando conjuntamente OS/2 como sucesor del DOS, para sacar el máximo provecho a las capacidades del procesador Intel 80286. OS/2 utilizaba el direccionamiento hardware de memoria disponible en el Intel 80286 para poder utilizar hasta 16 MB de memoria. La mayoría de los programas de DOS estaban por el contrario limitados a 640 KB de memoria. OS/2 1.x también soportaba memoria virtual y multitarea.
Más adelante IBM añadió, en la versión 1.1 de OS/2, un sistema gráfico llamado Presentation Manager (PM). Aunque en muchos aspectos era superior a Windows, su API (Programa de Interfaz de Aplicaciones) era incompatible con la que usaban los programas de este último. (Entre otras cosas, Presentation Manager localizaba el eje de coordenadas X,Y en la parte inferior izquierda de la pantalla como las coordenadas cartesianas, mientras que Windows situaba el punto 0,0 en la esquina superior izquierda de la pantalla como otros sistemas informáticos basados en ventanas).
A principio de los 90, crecieron las tensiones en la relación entre IBM y Microsoft. Cooperaban entre sí en el desarrollo de sus sistemas operativos para PC y cada uno tenía acceso al código del otro. Microsoft quería desarrollar Windows aún más, mientras IBM deseaba que el futuro trabajo estuviera basado en OS/2. En un intento de resolver estas diferencias, IBM y Microsoft acordaron que IBM desarrollaría OS/2 2.0 para reemplazar a OS/2 1.3 y Windows 3.0, mientras Microsoft desarrollaría un nuevo sistema operativo, OS/2 3.0, para suceder más adelante al OS/2 2.0.
Este acuerdo pronto fue dejado de lado y la relación entre IBM y Microsoft terminó. IBM continuó desarrollando IBM OS/2 2.0 mientras que Microsoft cambió el nombre de su (todavía no publicado) OS/2 3.0 a Windows NT.
(Microsoft promocionó Windows NT con tanto éxito que la mayoría de la gente no se dio cuenta de que se trataba de un OS/2 remozado.) Ambos retuvieron los derechos para usar la tecnología de OS/2 y Windows desarrollada hasta la fecha de terminación del acuerdo.
OS/2 2.0
IBM publicó OS/2 versión 2.0 en 1992. Esta versión suponía un gran avance frente a OS/2 1.3. Incorporaba un nuevo sistema de ventanas orientado a objetos llamado Workplace Shell como sustituto del Presentation Manager, un nuevo sistema de ficheros, HPFS, para reemplazar al sistema de ficheros FAT de DOS usado también en Windows y aprovechaba todas las ventajas de las capacidades de 32 bit del procesador Intel 80386. También podía ejecutar programas DOS y Windows, ya que IBM había retenido los derechos para usar el código de DOS y Windows como resultado de la ruptura.
OS/2 3.0 y 4.0
IBM continuó vendiendo OS/2, produciendo versiones posteriores como OS/2 3.0 (también llamado Warp) y 4.0 (Merlin). Pero con la llegada de Windows 95, OS/2 comenzó a perder cuota de mercado. Aunque OS/2 seguía corriendo aplicaciones de Windows 3.0 carecía de soporte para las nuevas aplicaciones que requerían Windows 95. Al contrario que con Windows 3.0, IBM no tenía acceso al código fuente de Windows 95; y tampoco tenía el tiempo ni los recursos necesarios para emular el trabajo de los programadores de Microsoft con Windows 95, no obstante, OS/2 3.0 (Warp) apareció en el mercado antes que Windows 95 (que se retrasaba respecto a la fecha inicial de lanzamiento), como mejoras incorporaba una reducción en los requisitos de hardware (pasaba de pedir 8 Mb de RAM de su antedecesor OS/2 2.1 a pedir sólo 4 Mb) y como gran añadido, incorporaba el llamado BonusPack, un conjunto de aplicaciones de oficina, comunicaciones, etc que ahorraban el tener que comprar software adicional como en el caso de Windows. Todo esto unido a una gran campaña publicitaria y a un muy reducido precio (el equivalente a unos 59.40 € frente a los 100 € de Windows) provocaron que mucha gente se animase a probarlo en lugar de esperar la llegada de Windows 95. Lamentablemente, el posterior abandono por parte de IBM hizo que fuese quedando relegado (aunque sigue siendo utilizado -cada vez menos- en sectores bancarios por su alta estabilidad).
Windows 3.1 y Windows 3.11
En respuesta a la aparición de OS/2 2.0 , Microsoft desarrolló Windows 3.1, que incluía diversas pequeñas mejoras a Windows 3.0 (como las fuentes escalables TrueType), pero que consistía principalmente en soporte multimedia. Más tarde Microsoft publicó el Windows 3.11 (denominado Windows para trabajo en grupo), que incluía controladores y protocolos mejorados para las comunicaciones en red y soporte para redes punto a punto.
Windows NT
Mientras tanto Microsoft continuó desarrollando Windows NT. Para ello reclutaron a Dave Cutler, uno de los jefes analistas de VMS en Digital Equipment Corporation (hoy parte de Compaq que en 2005 fue comprada por HP) para convertir NT en un sistema más competitivo.
Cutler había estado desarrollando un sucesor del VMS en DEC(Digital Equipment Corporation) llamado Mica, y cuando DEC abandonó el proyecto se llevó sus conocimientos y algunos ingenieros a Microsoft. DEC también creyó que se llevaba el código de Mica a Microsoft y entabló una demanda. Microsoft finalmente pagó 150 millones de dólares y acordó dar soporte al microprocesador Alpha de DEC en NT.
Siendo un sistema operativo completamente nuevo, Windows NT sufrió problemas de compatibilidad con el hardware y el software existentes. También necesitaba gran cantidad de recursos y éstos estaban solamente disponibles en equipos grandes y caros. Debido a esto muchos usuarios no pudieron pasarse a Windows NT. La interfaz gráfica de NT todavía estaba basada en la de Windows 3.1 que era inferior a la Workplace Shell de OS/2
Windows NT 3.1
Windows NT 3.1 (la estrategia de marketing de Microsoft era que Windows NT pareciera una continuación de Windows 3.1) apareció en su versión beta para desarrolladores en la Conferencia de Desarrolladores Profesionales de Julio de 1992 en San Francisco. Microsoft anunció en la conferencia su intención de desarrollar un sucesor para Windows NT y Chicago (que aún no había sido lanzada). Este sucesor habría de unificar ambos sistemas en uno sólo y su nombre clave era Cairo. (Visto en retrospectiva Cairo fue un proyecto más difícil de lo que Microsoft había previsto y como resultado NT y Chicago no sería unificados hasta la aparición de Windows XP). Las versiones antiguas de Windows NT se distribuían en disquettes y requerían unos elevados recursos de hardware (además de soportar relativamente poco hardware) por lo que no se difundieron demasiado hasta llegar a Windows NT 4.0 y sobre todo a Windows 2000. Por primera vez daba soporte para el sistema de ficheros NTFS.
Windows NT 3.5/3.51
Cabe destacar que la interfaz gráfica de Windows NT 3.5 y Windows 3.51 era la misma que la de sus predecesores, Windows NT 3.1 y Windows 3.1, con el Administrador de Programas. Por otra parte, Microsoft distribuyó un añadido llamado NewShell, cuyo nombre completo es "Shell Technology Preview Update", que no era otra cosa más que una versión Beta de la nueva interfaz gráfica de Windows 95 y NT 4.0, con el botón y menú inicio, pero para Windows NT 3.5x. Su función principal era que los usuarios de Windows evaluaran el nuevo interfaz gráfico, que iba a ser presentado en Windows 95 y NT 4.0, pero como "daño colateral" le daba a Windows NT 3.5x la nueva interfaz gráfica.

Windows NT 4.0
Windows NT 4.0 presentaba varios componentes tecnológicos de vanguardia y soporte para diferentes plataformas como MIPS, ALPHA, Intel, etc. Las diferentes versiones como Workstation, Server, Terminal server, Advancer server, permitían poder adaptarlo a varias necesidades. El uso de componentes como tarjetas de sonido, modems, etc, tenían que ser diseñados específicamente para este sistema operativo.
Windows 95
Microsoft adoptó "Windows 95" como nombre de producto para Chicago cuando fue publicado en Agosto de 1995. Chicago iba encaminado a incorporar una nueva interfaz gráfica que compitiera con la de OS/2. Aunque compartía mucho código con Windows 3.x e incluso con MS-DOS, también se pretendía introducir arquitectura de 32 bits y dar soporte a multitarea preventiva, como OS/2 o el mismo Windows NT. Sin embargo sólo una parte de Chicago comenzó a utilizar arquitectura de 32 bits, la mayor parte siguió usando una arquitectura de 16 bits, Microsoft argumentaba que una conversión completa retrasaría demasiado la publicación de Chicago y sería demasiado costosa.
Microsoft desarrolló una nueva API para remplazar la API de Windows de 16 bits. Esta API fue denominada Win32, desde entonces Microsoft denominó a la antigua API de 16 bits como Win16. Esta API fue desarrollada en tres versiones: una para Windows NT, una para Chicago y otra llamada Win32s, que era un subconjunto de Win32 que podía ser utilizado en sistemas con Windows 3.1. de este modo Microsoft intentó asegurar algún grado de compatibilidad entre Chicago y Windows NT, aunque los dos sistemas tenían arquitecturas radicalmente diferentes
Windows 95 tenía dos grandes ventajas para el consumidor medio. Primero, aunque su interfaz todavía corría sobre MS-DOS, tenía una instalación integrada que le hacía aparecer como un solo sistema operativo (ya no se necesitaba comprar MS-DOS e instalar Windows encima). Segundo, introducía un subsistema en modo protegido que estaba especialmente escrito a procesadores 80386 o superiores, lo cual impediría que las nuevas aplicaciones Win32 dañaran el área de memoria de otras aplicaciones Win32. En este respecto Windows 95 se acercaba más a Windows NT, pero a la vez, dado que compartía código de Windows 3.x, las aplicaciones podían seguir bloqueando completamente el sistema en caso de que invadiesen el área de aplicaciones de Win16.
Tenía también como novedad el incluir soporte para la tecnología Plug&Play. Windows 95 se convirtió en el primer gran éxito de los de Redmond a nivel mundial. La evolución de Internet y la potencia de los equipos, cada vez más capaces, dio lugar a un binomio en el que Intel y Microsoft dominaban el panorama mundial con solvencia. Los fabricantes comenzaban a volcarse en este sistema a la hora de sacar sus controladores de dispositivos y, aunque con algunos problemas por incompatibilidades inevitables, el éxito de la plataforma fue absoluto.
Windows 98
El 25 de Junio de 1998 llegó Windows 98. Incluía nuevos controladores de hardware y el sistema de ficheros FAT32 (también soportado por Windows 95 OSR 2 y OSR 2.5) que soportaba particiones mayores a los 2 GB permitidos por Windows 95. Dio soporte también a las nuevas tecnologías como DVD, FireWire, USB o AGP. Era novedosa también la integración del explorador de Internet en todos los ámbitos del sistema.
Pero la principal diferencia de Windows 98 sobre Windows 95 era que su núcleo había sido modificado para permitir el uso de controladores de Windows NT en Windows 9x y viceversa. Esto se consiguió con la migración de parte del núcleo de Windows NT a Windows 98 aunque éste siguiera manteniendo su arquitectura MS-DOS/Windows GUI. Esto permitió la reducción de costes de producción, dado que Windows NT y Windows 98 ahora podían utilizar casi idénticos controladores.
Windows 98 Second Edition
En 1999 Microsoft sacó al mercado Windows 98 Second Edition, cuya característica más notable era la capacidad de compartir entre varios equipos una conexión a Internet a través de una sola línea telefónica. También eliminaba gran parte de los errores producidos por Internet Explorer en el sistema. Esta versión es la más estable de todas las de esta serie, y aún se sigue utilizando en muchos equipos.
Windows Millenium Edition
En 2000 Microsoft introdujo Windows ME que era una copia de Windows 98 con más aplicaciones añadidas. Windows ME fue un proyecto rápido de un año para rellenar el hueco entre Windows 98 y el nuevo Windows XP, y eso se notó mucho en la poca estabilidad de esta versión. En teoría Windows 2000 iba a ser la unificación entre las dos familias de Windows, la empresarial y la de hogar, pero por retrasos, se lanzó este pequeño avance. En esta versión se aceleraba el inicio del sistema y oficialmente ya no se podía distinguir entre el MS-DOS y el entorno gráfico (aunque aparecieron parches que permitían volver a separarlo como se hacía en versiones anteriores).
Esta versión no traía unidad de proceso de 16 bits, centrándose únicamente en la compatibilidad con nuevo hardware de 32 bits. Como consecuencia, sólo funcionaba correctamente con los equipos nuevos que lo traían instalado, ya que si se instalaba sobre un equipo antiguo (mediante una actualización de software) el hardware de 16 bits era más complejo de configurar, o bien no funcionaba en absoluto.
Cabe destacar que este Sistema Operativo fue muy popular por sus continuos errores (bugs).
Windows 2000
En este mismo año vio la luz Windows 2000, una nueva versión de Windows NT muy útil para los administradores de sistemas y con una gran cantidad de servicios de red y lo más importante: admitía dispositivos Plug&Play que venían siendo un problema con Windows NT.
La familia de Windows 2000 estaba formada por varias versiones del sistema: una para las estaciones de trabajo (Windows 2000 Professional) y varias para servidores (Windows 2000 server, advanced server, datacenter server).
Windows 2000 incorporaba importantes innovaciones tecnológicas para entornos Microsoft, tanto en nuevos servicios como en la mejora de los existentes. Algunas de las características que posee son:
Almacenamiento:
Soporte para FAT16, FAT32 y NTFS.
Cifrado de ficheros (EFS).
Servicio de indexación.
Sistema de archivos distribuido (DFS).
Nuevo sistema de backup (ASR).
Sistema de tolerancia a fallos (RAID) con discos dinámicos (software).
Comunicaciones:
Servicios de acceso remoto (RAS, VPN, RADIUS y Enrutamiento).
Nueva versión de IIS con soporte para HTTP/1.1.
Active Directory.
Balanceo de carga (clustering)
Servicios de instalación desatendida por red (RIS).
Servicios nativos de Terminal Server.
Estos avances marcan un antes y un después en la historia de Microsoft.

Windows XP
La unión de Windows NT/2000 y la familia de Windows 9.x se alcanzó con Windows XP puesto en venta en 2001 en su versión Home y Professional. Windows XP usa el núcleo de Windows NT. Incorpora una nueva interfaz y hace alarde de mayores capacidades multimedia. Además dispone de otras novedades como la multitarea mejorada, soporte para redes inalámbricas y asistencia remota. Se puede agregar inmediatamente de haber lanzado el último Service Pack (SP2) Microsoft diseño un sistema orientado a Empresas y Corporaciones llamado Microsoft Windows XP Corporate Edition, algo similar al Windows XP Profesional, solo que diseñado especialmente a Empresas. En el apartado multimedia, XP da un avance con la versión Media Center. Esta versión ofrece una interfaz de acceso fácil a todo lo relacionado con multimedia (TV, fotos, reproductor DVD, Internet...)
Windows Server 2003
Sucesor de la familia de servidores de Microsoft a Windows 2000 Server. Es la versión de Windows para servidores lanzada por Microsoft en el año 2003. Está basada en el núcleo de Windows XP, al que se le han añadido una serie de servicios, y se le han bloqueado algunas de sus características (para mejorar el rendimiento, o simplemente porque no serán usadas).
Windows Vista
Windows Vista apareció en el mercado el 30 de enero de 2007. Cabe destacar los continuos retrasos en las fechas de entrega del sistema operativo. Inicialmente se anunció su salida al mercado a inicios-mediados de 2006, posteriormente y debido a problemas durante el proceso de desarrollo, se retrasó su salida hasta finales de 2006. El último retraso traslado la fecha hasta finales de enero de 2007. Estos continuos retrasos han llevado a Microsoft a tomar diversas medidas para minimizar los gastos extras derivados de los retrasos. Por ejemplo, en Argentina, se podrá comprar Windows Vista con un "ticket" que la persona adquiere al momento de comprar un nuevo PC que no tiene instalado todavía Windows Vista. Podrán canjear el "ticket" por una copia original de Windows Vista y así actualizar su sistema.
Las diferentes versiones que se podrán adquirir son tres para el consumidor, Vista Home Basic, Vista Home Premium y Ultimate Edition y dos versiones para las empresas, Vista Business y Vista Enterprise, más Vista Starter, para los mercados emergentes. Los requisitos minimos para que la versión básica de Windows Vista (Home Basic - Starter) funcione en un equipo son los siguientes:
Procesador de 32 Bits de por lo menos 800Mhz
512 MB de RAM (para trabajar a una velocidad aceptable), se recomienda 1GB
Tarjeta Gráfica compatible con DirectX 9 con por lo menos 32MB de memoria, se recomienda 128MB, aunque esta Versión sin Aero no requiere una tarjeta muy avanzada
Disco duro de 40GB con 15GB disponibles
Grabadora y lectora de DVD-ROM
Para disfrutar de todas las características como Aero (Home Premium - Ultimate), hace falta un ordenador con estas características:
Procesador de 32 Bits de por lo menos 1Ghz (se recomienda procesador de doble núcleo como Intel Pentium D (64 bit))
1GB de RAM (recomiendan 2GB para el Aero)
Compatibilidad con gráficos DirectX 9 con un controlador WDDM, 128 MB de memoria gráfica (mínimo)2, Pixel Shader 2.0 y 32 bits por píxel.
Disco duro de 40GB con 15GB disponibles
Grabadora y lectora de DVD
Conexión a internet
Salida de audio
Cabe destacar que durante su desarrollo fue conocido como Windows Longhorn. Las Ediciones de Windows Vista serán las siguientes:
Windows Vista Starter Destinada a sustituir a Windows XP Starter Edition. Estará dirigido a mercados emergentes, y estará muy limitado.
Windows Vista Home Basic Parecido al Windows XP Home Edition. No incluirá "Aero Glass" con efectos translúcidos. Soportará 8 GB de RAM.
Windows Vista Home Premium Más similar al Windows XP Media Center Edition. Por ejemplo soportará HDTV y hasta 16 GB de memoria RAM.
Windows Vista Business Equivalente al Windows XP Profesional. No incluye características del Media Edition, pero a cambio ofrece herramientas más orientadas hacia los negocios, como pueden ser soporte de Fax, servidor web IIS, hasta 128 GB. No requerirá activación del producto.
Windows Vista Enterprise Basado en la anterior versión (Windows Vista Business). Tiene todo lo del anterior, más Virtual PC, interfaz multi-idioma, y podrá soportar aplicaciones UNIX. No se venderá a través de los medios tradicionales de venta.
Windows Vista Ultimate Combina las características del Home Premium junto con las del Enterprise. Como las versiones para el mercado profesional, no requerirá de activación del producto.
Además de estas versiones, estarán disponibles para el mercado Europeo las ediciones "Home Basic N" y "Business N", idénticas a las anteriores, salvo por no contar con el Windows Media Player.
Las versiones Home, Home Premium y Ultimate se venderán en el mismo DVD, y se podrá pasar a una versión superior simplemente pagando una actualización de la licencia a través del Windows Anytime Upgrade.
También cabe destacar que Windows vista traerá una nueva interfaz grafica llamada Aero que es una evolución de la interfaz gráfica denominada de Windows XP.
Microsoft Windows Vista Home Basic
Parecido al Windows XP Home Edition. No incluirá "Aero Glass" con efectos translúcidos. Soportará 8 GB de RAM.
Microsoft Windows Vista Home Premium
Similar al Windows XP Media Center Edition. Incluirá ademas de todo lo contenido en el Home Basic lo siguiente: el Media Center y soporte para Tablet PC, HDTV y hasta 16 GB de memoria RAM. Implementará mejoras como la grabación directa de DVD, un Movie Maker con compatibilidad de HD "High Definition", su interfaz ya incorpora el "Aero Glass" y el "Mobility Center" para usuarios de computadoras portátiles.
Microsoft Windows Vista Business
Equivalente al Windows XP Profesional. No incluye características del Media Center Edition. Ofrece herramientas más orientadas hacia los negocios, soporte para Tablet PC además de soporte de Fax, servidor web IIS, hasta 128 GB. Escritorio Remoto, Backup de Archivos y una funcion llamada "Complete PC" que copia espejos del Disco Duro, También contará con "Mobility Center" para usuarios de computadoras portátiles.[2].

Microsoft Windows Vista Enterprise
Basado en la anterior versión (Microsoft Windows Vista Business). Tiene todo lo del anterior, más Virtual PC, interfaz multilingüe, y podrá soportar aplicaciones UNIX. No se venderá a través de los medios tradicionales de venta, sólo por licencia OPEN.
Características que añade respecto a la versión business:
Cifrado de unidad Windows BitLocker™, nueva tecnología que contribuye a impedir que los datos confidenciales y protegidos por las leyes de propiedad intelectual queden expuestos si un equipo se pierde o es sustraído.
Virtual PC con una licencia para ejecutar cuatro sesiones de sistema operativo virtual, que permite la ejecución de una aplicación heredada en un sistema operativo Windows heredado en un entorno virtual sobre Microsoft Windows Vista Enterprise.
Se incluye el Subsistema para aplicaciones UNIX (SUA), que permite ejecutar aplicaciones UNIX directamente en un PC con Microsoft Windows Vista Enterprise.
Posibilidad de suscripción al Desktop Optimization Pack (paquete de optimización de escritorio) para Software Assurance. Éste servicio puede acelerar la implementación con herramientas como SoftGrid, para la virtualización de aplicaciones, que puede reducir los conflictos entre aplicaciones, y con Asset Inventory Services, para compilar con mayor rapidez la información sobre las aplicaciones que se ejecutan en la organización.
Semejanza impresionante al OS X de Mac. Ya sea en la distribucion de los graficos, semejanza a las aplicaciones.
Integra en un mismo paquete todos los idiomas de interfaz disponibles. El acceso a todos los idiomas de interfaz de Windows permite a las organizaciones generar un imagen de implementación única que se puede usar en todo el mundo, así como implementar PC individuales que ofrezcan de forma simultánea diferentes idiomas de interfaz para usuarios distintos


Microsoft Windows Vista Ultimate
Combina todas las características del Home Premium junto con las del Business. Como las versiones para el mercado profesional, es una versión de Windows Vista "sin compromisos" y contendrá todo lo que Microsoft Windows Vista tiene que ofrecer para usarse en Casa o en la Oficina. Como novedad, unica y exclusiva en esta version esta el "Dream", actualmente en beta, solo disponible para usuarios de la ultima version del Ultimate, consiste en un fondo de escritorio (wallpaper) animado que incrementa la experiencia visual del SO. Se descarga a traves del Update del windows.
Además estarán disponibles para el mercado europeo las ediciones "Home Basic N" y "Business N", idénticas a las anteriores, salvo por no contar con el Windows Media Player.
Las versiones Home Basic, Home Premium, Business y Ultimate se venderán en el mismo DVD, la Clave del producto es la que le dice al programa de instalacion que version debe instalar pero se podrá pasar a una versión superior simplemente pagando una actualización de la licencia a través del Windows Anytime Upgrade.
Para más información sobre Microsoft Windows Vista visite la página oficial para América o Europa.
Cambios con respecto a Windows XP
Algunas de las mejoras ampliamente anunciadas son:
Una interfaz gráfica completamente rediseñada, cuyo nombre es Aero.
Ventanas dibujadas con gráficos vectoriales usando XAML y DirectX. Para ello, se utilizaría una nueva API, llamada Windows Presentation Foundation, cuyo nombre en código es Avalon, que requeriría una tarjeta gráfica con aceleración 3D compatible con DirectX.
WinFX, una API orientada a reemplazar la API actual llamada Win32. Ésta, junto con Avalon e Indigo, son los pilares de Windows Vista.
Una API antivirus para programadores de programas antivirus.
Capacidad nativa para grabar DVD.
Una interfaz de línea de comando denominada provisionalmente Monad.
Se anunció una nueva extensión de base de datos al sistema de archivos llamada WinFS. El desarrollo de dicho sistema de ficheros ha sido abandonado por Microsoft, por lo tanto no será incluido en Windows Vista, por el momento.
Se incluirá una versión del navegador Internet Explorer 7.0.
Integra directamente en el sistema un lector de noticias RSS (Really Simple Syndication, por sus siglas en inglés).
La utilidad de restauración del sistema será actualizada e implementada como herramienta de inicio de sesión, facilitando así el "rescate" del sistema.
Un sistema unificado de comunicaciones llamado Windows Comunication Foundation, cuyo nombre en código es Indigo.
Incluirá un sistema antispyware denominado Windows Defender.
Añadirá al firewall de sistema la capacidad de bloquear conexiones que salen del sistema sin previa autorización.
Windows Mail, será el Outlook Express para Microsoft Windows Vista.
Se incluye el nuevo "Windows Sidebar" o Barra Lateral de Windows. A primera vista, el Windows Sidebar se asemeja sorprendentemente al Dashboard de Mac OS X. Al hacer clic con el ratón, el usuario tiene acceso a una serie de pequeños programas denominados "gadgets". A diferencia del Dashboard, el nuevo Windows Sidebar no tiene acceso a los programas en ejecución, simplemente te da acceso a los gadgets que te dan utilidad como en una oficina como el reloj, galería de fotos, calendario, visor de temperatura, etc..
No incluirá protección antivirus. Se indicó que la seguridad que incorporará Windows Vista "superará cualquier programa antivirus que se haya visto antes", pero se ha comprobado que la seguridad de Windows Vista dependerá en las versiones. La más segura actualmente es la versión Ultimate
Se ha incorporado la herramienta BitLocker Drive Encryption, para la protección de datos extraviados en la version Ultimate.
User Account Control: al contrario de las anteriores versiones de Windows los nuevos usuarios de Windows Vista no tendrán derechos de administrador por defecto.
Se incluirá el Windows Media Player versión 11. Las ediciones que carecerán de WMP11 son diseñadas para distribución en Europa. De esa forma, Microsoft está cumpliendo con una disposición de la Unión Europea, que le obliga a eliminar la aplicación Windows Media Player cuando el sistema operativo es comercializado en Europa.
Incluirá un "Sync Center" para sincronización de Windows Vista con Pocket PC sin necesidad de instalar el "Active Sync".
Dream. Unico en la version Windows Vista Ultimate version final, consiste en un wallpaper dinamico basado en un video. Se descarga por el Update del propio SO.
Incorporará un sistema de protección llamado Windows Software Protection Platform (WSPP) que será más potente que el actual Windows Genuine Advantage (WGA). Cuando detecte que la copia es pirata, lo primero que hará será avisar al usuario, y si el usuario no logra obtener una copia auténtica empezará a ir desactivando opciones del sistema, como son el Aero o el Windows Defender hasta solo dejar activo lo más básico como es el navegador. [4]
Además, según Microsoft, esta versión:
Cargará aplicaciones un - 15% más rápido que Windows XP.
Se iniciará un - 100% más rápido.
Podrá entrar en modo de suspensión en 2 segundos.
Se reducirá en un 50% la cantidad de veces que es necesario reiniciar el sistema después de las actualizaciones.
Incorporará un nuevo instalador, capaz de instalar el sistema operativo en 15 minutos.
Requisitos mínimos para instalar
Los requisitos se han dividido en dos: los necesarios para ejecutar Windows Vista sin Aero, Home Basic y Starter, (lo que requiere un Windows Vista Capable PC) y los necesarios para ejecutarlo en toda su potencia, Home Premium, Ultimate (un Windows Vista Premium Ready PC). La lista de especificaciones necesarias es:
Windows Vista Capable PC: un procesador como mínimo a 800 MHz, 512 MB de memoria RAM y una tarjeta gráfica compatible con DirectX 9
Windows Vista Premium Ready PC: procesador de 32 ó 64 bits a 1 GHz, 1 GB de memoria RAM, tarjeta gráfica compatible con Windows Aero con 128 MB de RAM, disco duro de 40 GB con 15 GB libres, lector de DVD, tarjeta de sonido y acceso a Internet.
Microsoft tiene disponible para descarga un programa, el Windows Vista Upgrade Advisor, para examinar el ordenador y mostrar el grado de compatibilidad de éste, además de indicar qué se debería actualizar para que funcione. Por ahora es una versión beta y, en un futuro, también examinará las aplicaciones que tenemos instaladas para comprobar si son compatibles con Vista.
Sistema operativo Unix
UNIX es un sistema operativo portable, multitarea y multiusuario; desarrollado en principio por un grupo de empleados de los laboratorios Bell de AT&T, entre los que figuran Ken Thompson, Dennis Ritchie y Douglas McIlroy.
Hoy día, la palabra UNIX se utiliza para denotar diferentes conceptos dependiendo del contexto en que es usada. Esto suele dar lugar a confusiones
Es un sistema operativo de tiempo compartido, controla los recursos de una computadora y los asigna entre los usuarios. Permite a los usuarios correr sus programas. Controla los dispositivos de periféricos conectados a la máquina.
Posee las siguientes características:
- Es un sistrema operativo multiusuario, con capacidad de simular multiprocesamiento y procesamiento no interactivo.
- Está escrito en un lenguaje de alto nivel : C.
- Dispone de un lenguaje de control programable llamado SHELL.
- Ofrece facilidades para la creación de programas y sistemas y el ambiente adecuado para las tareas de diseños de software.
- Emplea manejo dinámico de memoria por intercambio o paginación.
- Tiene capacidad de interconexión de procesos.
- Permite comunicación entre procesos.
- Emplea un sistema jerárquico de archivos, con facilidades de protección de archivos, cuentas y procesos.
- Tiene facilidad para redireccionamiento de Entradas/Salidas.
- Garantiza un alto grado de portabilidad.

El sistema se basa en un Núcleo llamado Kernel, que reside permanentemente en la memoria, y que atiende a todas las llamadas del sistema, administra el acceso a los archivos y el inicio o la suspención de las tareas de los usuarios.
La comunación con el sistema UNIX se da mediante un programa de control llamado SHELL. Este es un lenguaje de control, un intérprete, y un lenguaje de programación, cuyas características lo hacen sumamente flexible para las tareas de un centro de cómputo. Como lenguaje de programación abarca los siguientes aspectos:
- Ofrece las estructuras de control normales: secuenciación, iteración condicional, selección y otras.
- Paso de parámetros.
- Sustitución textual de variables y Cadenas.
- Comunicación bidireccional entre órdenes de shell.
El shell permite modificar en forma dinámica las características con que se ejecutan los programas en UNIX:
Las entradas y salidas pueden ser redireccionadas o redirigidas hacia archivos, procesos y dispositivos;
Es posible interconectar procesos entre sí.
Diferentes usuarios pueden "ver" versiones distintas del sistema operativo debido a la capacidad del shell para configurar diversos ambientes de ejecución. Por ejemplo, se puede hacer que un usuario entre directamente a su sección, ejecute un programa en particular y salga automáticamente del sistema al terminar de usarlo.
El núcleo del sistema operativo Unix (llamado Kernel) es un programa escrito casi en su totalidad en lenguaje C, con excepción de una parte del manejo de interrupciones, expresada en el lenguaje ensamblador del procesador en el que opera.
Las funciones del núcleo son permitir la existencia de un ambiente en el que sea posible atender a varios usuarios y múltiples tareas en forma concurrente, repartiendo al procesador entre todos ellos, e intentando mantener en grado óptimo la atención individual.
El Kernel opera como asignador de recursos para cualquier proceso que necesite hacer uso de las facilidades de cómputo. Es el componente central de Unix y tiene las siguientes funciones:
- Creación de procesos, asignación de tiempos de atención y sincronización.
- Asignación de la atención del procesador a los procesos que lo requieren.
- Administración de espacio en el sistema de archivos, que incluye: acceso, protección y administración de usuarios; comunicación entre usuarios v entre procesos, y manipulación de E/S y administración de periféricos.
- Supervisión de la transmisión de datos entre la memoria principal y los dispositivos periféricos.
El Kernel reside siempre en la memoria central y tiene el control sobre la computadora, por lo que ningún otro proceso puede interrumpirlo; sólo pueden llamarlo para que proporcione algún servicio de los ya mencionados. Un proceso llama al Kernel mediante módulos especiales conocidos como llamadas al sistema.
A continuación se describe el modo de funcionamiento de Unix, con base en un modelo de estudio de sistemas operativos que lo divide en "capas" jerárquicas para su mejor comprensión.
Manejo de archivos y de información
Como ya se describió, la estructura básica del sistema de archivos es jerárquica, lo que significa que los archivos están almacenados en varios niveles. Se puede tener acceso a cualquier archivo mediante su trayectoria, que especifica su posición absoluta en la jerarquía, y los usuarios pueden cambiar su directorio actual a la posición deseada. Existe también un mecanismo de protección para evitar accesos no autorizados. Los directorios contienen información para cada archivo, que consiste en su nombre y en un número que el Kernel utiliza para manejar la estructura interna del sistema de archivos, conocido como el nodo-i. Hay un nodo-i para cada archivo, que contiene información de su directorio en el disco, su longitud, los modos y las fechas de acceso, el autor, etc. Existe, además, una tabla de descriptores de archivo, que es una estructura de datos residente en el disco magnético, a la que se tiene acceso mediante el sistema mencionado de E/S por bloques.
El control del espacio libre en el disco se mantiene mediante una lista ligada de bloques disponibles. Cada bloque contiene la dirección en disco del siguiente bloque en la cadena. El espacio restante contiene las direcciones de grupos de bloques del disco que se encuentren libres. De esta forma, con una operación de E/S, el sistema obtiene un conjunto de bloques libres y un apuntador para conseguir más.
Las operaciones de E/S en archivos se llevan a cabo con la ayuda de la correspondiente entrada del nodo-i en la tabla de archivos del sistema. El usuario normalmente desconoce los nodos-i porque las referencias se hacen por el nombre simbólico de la trayectoria. Los procesos emplean internamente funciones primitivas (llamadas al sistema) para tener acceso a los archivos; las más comunes son open, creat, read, write, seek, close y unlink, aunque sólo son empleadas por los programadores, no por los usuarios finales del sistema.
Toda esta estructura física se maneja "desde afuera" mediante la filosofía jerárquica de archivos y directorios ya mencionada, y en forma totalmente transparente para el usuario. Además, desde el punto de vista del sistema operativo, un archivo es muy parecido a un dispositivo.
Las ventajas de tratar a los dispositivos de E/S en forma similar a los archivos normales son múltiples: un archivo y un dispositivo de E/S se tornan muy parecidos; los nombres de los archivos y de los dispositivos tienen la misma sintaxis y significado, así que a un programa que espera un nombre de archivo como parámetro puede dársele un nombre de dispositivo (con esto se logra interacción rápida y fácil entre procesos de alto nivel).
El sistema Unix ofrece varios niveles de protección para el sistema de archivos, que consisten en asignar a cada archivo el número único de identificación de su dueño, junto con nueve bits de protección, que especifican permisos de lectura, escritura y ejecución para el propietario, para otros miembros de su grupo (definido por el administrador del sistema) y para el resto de los usuarios. Antes de cualquier acceso se verifica su validez consultando estos bits, que residen en el nodo-i de todo archivo. Además, existen otros tres bits que se emplean para manejos especiales, relacionados con la clave del superusuario.
Es posible definir uno o varios sistemas "desmontables", que residen físicamente en diversas unidades de disco. Existe una orden (mkfs) que permite crear un sistema de archivos adicional, y una llamada al sistema (mount) con la que se añade (y otra con la que se desmonta) uno de ellos al sistema de archivos global.
EI control de las impresoras de una computadora que funciona con el sistema operativo Unix consiste en un subsistema (SPOOL) que se encarga de coordinar los pedidos de impresión de múltiples usuarios. Existe un proceso de Kernel que en forma periódica revise las colas de servicio de las impresoras para detectar la existencia de pedidos e iniciar entonces las tareas de impresión. Este tipo de procesos, que son activados en forma periódica por el núcleo del sistema operativo, reciben en Unix el nombre de daemons (duendes), tal vez porque se despiertan y aparecen sin previo aviso. Otros se encargan de activar procesos en tiempos previamente determinados por el usuario, o de escribir periódicamente los contenidos de los buffers de memoria en el disco magnético.
Procesos. Manejo del Procesador
En Unix se ejecutan programas en un medio llamado "proceso de usuario". Cuando se requiere una función del Kernel, el proceso de usuario hace una llamada especial al sistema y entonces el control pasa temporalmente al núcleo. Para esto se requiere de un conjunto de elementos de uso interno, que se mencionan a continuación.
Se conoce como imagen a una especie de fotografía del ambiente de ejecución de un proceso, que incluye una descripción de la memoria, valores de registros generales, status de archivos abiertos, el directorio actual, etcétera. Una imagen es el estado actual de una computadora virtual, dedicada a un proceso en particular.
Un proceso se define como la ejecución de una imagen. Mientras el procesador ejecuta un proceso, la imagen debe residir en la memoria principal; durante la ejecución de otros procesos permanece primera en la memoria principal a menús que la aparición de un proceso activo de mayor prioridad la obligue a ser copiada al disco, como ya se dijo.
Un proceso puede encontrarse en uno de varios estados: en ejecución; listo para ejecutar, o en espera.
Cuando se invoca una función del sistema, el proceso de usuario llama al Kernel como subrutina. Hay un cambio de ambientes y, como resultado, se tiene un proceso del sistema. Estos dos procesos son dos fases del mismo original, que nunca se ejecutan en forma simultánea.
Existe una tabla de procesos que contiene una entrada por cada uno de ellos con los datos que requiere el sistema:
identificación, direcciones de los segmentos que emplea en la memoria, información que necesita el scheduler y otros. la entrada de la tabla de procesos se asigna cuando se crea el proceso y se libera cuando éste termina.
Para crear un proceso se requiere la inicialización de una entrada en la tabla, así como la creación de segmentos de texto y de datos. Además, es necesario modificar la tabla cuando cambia el estado del proceso o cuando recibe un mensaje de otro (para sincronización, por ejemplo). Cuando un proceso termina, su entrada en la tabla se libera y queda otro disponible para que otro nuevo la utilice.
En el sistema operativo Unix los procesos pueden comunicarse internamente entre sí, mediante el envío de mensajes o señales. El mecanismo conocido como interconexión (pipe) crea un canal entre dos procesos mediante una llamada a una rutina del Kernel, y se emplea tanto para pasar datos unidireccionalmente entre las imágenes de ambos, como para sincronizarlos, ya que si un proceso intenta escribir en un pipe ocupado, debe esperar a que el receptor lea los datos pendientes. Lo mismo ocurre en el caso de una lectura de datos inexistentes: el proceso que intenta leer debe esperar a que el proceso productor deposite los datos en el canal de intercomunicación.
Entre las diferentes llamadas al sistema para el manejo de procesos que existen en Unix están las siguientes, algunas de las cuales ya han sido mencionadas: fork (sacar una copia a un proceso); exec (cambiar la identidad de un proceso); kill (enviar una señal a un proceso); signal (especificar la acción por ejecutar cuando se recibe una señal de otro proceso), y exit (terminar un proceso).
Dentro de las tareas del manejo del procesador destaca la asignación dinámica (scheduling), que en Unix resuelve el scheduler mediante un mecanismo de prioridades. Cada proceso tiene asignada una prioridad; las prioridades de los procesos de usuario son menores que la más pequeña de un proceso del sistema.
El "motor" que mantiene en movimiento un esquema de multiprogramación es, por un lado, el conjunto de interrupciones que genera el desempeño de los procesos y, por otro, los constantes recordatorios que hace el reloj del procesador para indicar que se terminó la fracción de tiempo dedicada a cada proceso.
En el sistema Unix, las interrupciones son causadas por lo que se conoce como eventos, entre los cuales se consideran: la ejecución de una tarea de entrada/salida; la terminación de los procesos dependientes de otro; la terminación de la fracción de tiempo asignada a un proceso, y la recepción de una señal desde otro proceso.
En un sistema de tiempo compartido se divide el tiempo en un determinado número de intervalos o fracciones y se asigna cada una de ellas a un proceso. Además Unix toma en consideración que hay procesos en espera de una operación de E/S y que ya no pueden aprovechar su fracción. Para asegurar una distribución adecuada del procesador entre los procesos se calculan dinámicamente las prioridades de estos últimos, con el fin de determinar cuál será el proceso que se ejecutará cuando se suspenda el proceso activo actual.
Manejo De Memoria
Dependiendo de la computadora en la que se ejecute, Unix utiliza dos técnicas de manejo de memoria: swapping y memoria virtual.
Lo estándar en Unix es un sistema de intercambio de segmentos de un proceso entre memoria principal y memoria secundaria, llamado swapping lo que significa que se debe mover la imagen de un proceso al disco si éste excede la capacidad de la memoria principal, y copiar el proceso completo a memoria secundaria. Es decir, durante su ejecución, los procesos son cambiados de y hacia memoria secundaria conforme se requiera.
Si un proceso necesita crecer, pide más memoria al sistema operativo y se le da una nueva sección, lo suficientemente grande para acomodarlo. Entonces, se copia el contenido de la sección usada al área nueva, se libera la sección antigua y se actualizan las tablas de descriptores de procesos. Si no hay suficiente memoria en el momento de la expansión, el proceso se bloquea temporalmente y se le asigna espacio en memoria secundaria. Se copia a disco y, posteriormente, cuando se tiene el espacio adecuado - lo cual sucede normalmente en algunos segundos - se devuelve a memoria principal.
Está claro que el proceso que se encarga de los intercambios entre memoria y disco (llamado swapper) debe ser especial y jamás podrá perder su posición privilegiada en la memoria central. El Kernel se encarga de que nadie intente siquiera interrumpir este proceso, del cual dependen todos los demás. Este es el proceso 0 mencionado antes. Cuando se decide traer a la memoria principal un proceso en estado de "listo para ejecutar", se le asigna memoria y se copian allí sus segmentos. Entonces, el proceso cargado compite por el procesador con todos los demás procesos cargados. Si no hay suficiente memoria, el proceso de intercambio examine la tabla de procesos para determinar cuál puede ser interrumpido y llevado al disco.
Hay una pregunta que surge entonces es ¿cuál de los posibles procesos que están cargados será desactivado y cambiado a memoria secundaria? Los procesos que se eligen primero son aquellos que están esperando operaciones lentas (E/S), o que llevan cierto tiempo sin haberse movido al disco. La idea es tratar de repartir en forma equitativa las oportunidades de ejecución entre todos los procesos, tomando en cuenta sus historias recientes y sus patrones de ejecución.
Otra pregunta es ¿cuál de todos los procesos que están en el disco será traído a memoria principal?. La decisión se toma con base en el tiempo de residencia en memoria secundaria. El proceso más antiguo es el que se llama primero, con una pequeña penalización para los grandes.
Cuando Unix opera en máquinas más grandes, suele disponer de manejo de memoria de paginación por demanda. En algunos sistemas el tamaño de la página en Unix es de 512 bytes; en otros, de 1024. Para reemplazo se usa un algoritmo que mantiene en memoria las páginas empleadas más recientemente.
Un sistema de paginación por demanda ofrece muchas ventajas en cuanto a flexibilidad y agilidad en la atención concurrente de múltiples procesos y proporciona, además, memoria virtual, es decir, la capacidad de trabajar con procesos mayores que el de la memoria central. Estos esquemas son bastante complejos y requieren del apoyo de hardware especializado.
Manejo de entradas y salidas
El sistema de entrada/salida se divide en dos sistemas complementarios: el estructurado por bloques y el estructurado por caracteres. El primero se usa para manejar cintas y discos magnéticos, y emplea bloques de tamaño fijo (512 o 1024 bytes) para leer o escribir. El segundo se utiliza para atender a las terminales, líneas de comunicación e impresoras, y funciona byte por byte.
En general, el sistema Unix emplea programas especiales (escritos en C) conocidos como manejadores (drivers) para atender a cada familia de dispositivos de E/S. Los procesos se comunican con los dispositivos mediante llamadas a su manejador. Además, desde el punto de vista de los procesos, los manejadores aparecen como si fueran archivos en los que se lee o escribe; con esto se logra gran homogeneidad y elegancia en el diseño.
Cada dispositivo se estructura internamente mediante descriptores llamados número mayor, número menor y clase (de bloque o de caracteres). Para cada clase hay un conjunto de entradas, en una tabla, que aporta a los manejadores de los dispositivos. El número mayor se usa para asignar manejador, correspondiente a una familia de dispositivos; el menor pasa al manejador como un argumento, y éste lo emplea para tener acceso a uno de varios dispositivos físicos semejantes.
Las rutinas que el sistema emplea para ejecutar operaciones de E/S están diseñadas para eliminar las diferencias entre los dispositivos y los tipos de acceso. No existe distinción entre acceso aleatorio y secuencial, ni hay un tamaño de registro lógico impuesto por el sistema. El tamaño de un archivo ordinario está determinado por el número de bytes escritos en él; no es necesario predeterminar el tamaño de un archivo.
El sistema mantiene una lista de áreas de almacenamiento temporal (buffers), asignadas a los dispositivos de bloques. El Kernel usa estos buffers con el objeto de reducir el tráfico de E/S. Cuando un programa solicita una transferencia, se busca primero en los buffers internos para ver si el bloque que se requiere ya se encuentra en la memoria principal (como resultado de una operación de lectura anterior). Si es así, entonces no será necesario realizar la operación física de entrada o salida.
Existe todo un mecanismo de manipulación interna de buffers (y otro de manejo de listas de bytes), necesario para controlar el flujo de datos entre los dispositivos de bloques (y de caracteres) y los programas que los requieren.
Por último, y debido a que los manejadores de los dispositivos son programas escritos en lenguaje C, es relativamente fácil reconfigurar el sistema para ampliar o eliminar dispositivos de E/S en la computadora, así como para incluir tipos nuevos.
La lista completa de funciones, órdenes de subsistemas que forman parte de las utilerías del sistema operativo Unix es realmente grande, e incluye más de un centenar, que se pueden agrupar en los siguientes rubros:
Compiladores de compiladores.
Ejecución de programas.
Facilidades de comunicaciones.
Funciones para control de status.
Funciones para control de usuarios.
Funciones para impresión.
Herramientas de desarrollo de programación.
Lenguaje C, funciones y bibliotecas asociados.
Macroprocesamiento.
Manejo de directorios y archivos.
Manejo de gráficas.
Manejo de información.
Manejo de terminales.
Mantenimiento y respaldos.
Otros lenguajes algorítmicos integrados.
Preparación de documentos.

Versiones

Slackware
Esta distribucion es quizas de las más extendidas en todo el mundo y la más conocida en España, ya que es la que han divulgado las publicaciones del sector. Incluye con creces todo el software que cualquier usuario medio o avanzado pueda necesitar, y su método de instalación es asequible aunque lejos de las típicas y vistosas instalaciones a las que el usuario neófito esta acostumbrado en los sistemas comerciales. Tiene diversos derivados comercializados bajo diferentes nombres (por ej. "Slackware Pro") que mejoran la instalación e incluyen manuales y bibliografía en un único lote. Esta en todos los FTPs principales, siendo http://www.cdrom.com/ su distribuidor de origen.
Red Hat
Creada por Red Hat Software, en Connecticut, EE.UU. Una de sus ventajas es el atractivo sistema de instalación (en modo gráfico) y el cómodo mantenimiento de componentes de software, lo que facilita enormemente las tan frecuentes actualizaciones. Se puede obtener tanto gratuitamente en la red como adquiriendo el CDROM correspondiente. Otras empresas comercializan también sistemas basados en Red Hat, como Caldera Inc. y Pacific Hi-Tech. Aún poco conocida en Espa–a pero pujante, sobre todo para principiantes. Sus creadores estan en http://www.redhat.com/. El mencionado sistema de gestión de componentes de software es obra suya, pero lo han ofrecido con carácter abierto y gratuito a los demás desarrolladores bajo la licencia de GNU, por lo que es previsible que en el futuro otros muchos asuman este sistema en sus propias distribuciones, lo que facilitará enormemente las actualizaciones.
Debian
La Free Software Fundation (FSF) es bien conocida entre los acérrimos usuarios de software gratuito para Unix. Son los creadores del sistema GNU, su futuro Unix gratuito. Ya hay mucho material pero no un sistema operativo completo, asi que mientras tanto ofrecen un Unix integrado por el nucleo de Linux y el software de GNU.
Instalación en partición nativa de Linux.
Salvo la fase inicial en la que se preparan las particiones nativas o el UMSDOS, el procedimiento restante de instalación es básicamente el mismo. Ya que puede ser el que provoque más dudas, centraremos estos consejos de instalación en la instalación con partición nativa. Pero recuerde que
Preliminares
En esta instalación es necesario que LINUX disponga de una partición distinta a la de MSDOS para trabajar. Si ya tiene algún sistema instalado, lo más frecuente es que sea una única partición DOS que ocupe todo el disco, por lo que reparticionar supone eliminar esa partición para volver a crearla asignándole menos disco para hacer sitio a Linux (o para dárselo totalmente, según la instalación escogida). Eso supone perder como norma general todos los datos en las particiones ya existentes.
Existe, sin embargo, una utilidad anexa a Linux que corre sobre MSDOS y que permite "encoger" una partición de DOS siempre que la unidad tenga espacio libre y haya sido totalmente defragmentada (con la utilidad "DEFRAG" de MSDOS 6.x o similares). Esto le permitirá crear nuevas particiones conservando sus datos en la partición MSDOS actual. Esta utilidad se llama "fips" y la encontrará en su servidor habitual en la red junto a otras utilidades de MSDOS para ayudar a la instalación de Linux.
LEA LA DOCUMENTACION DE FIPS ANTES DE UTILIZARLO.
Primero debe liberar en MSDOS el espacio que pretenda reservar para la nueva partición de Linux (y para el espacio de swap, como después se comentará). Después debe defragmentar la partición de DOS con la utilidad "defrag" que acompaña a las últimas versiones de DOS, o bien sus equivalentes de PCTools o Norton. Ahora puede correr el programa fips y crear una nueva partición con el espacio liberado. Lo habitual será crear dos particiones: una Linux native para el sistema, y una Linux swap con por ej. el doble que de RAM, pero en caso de necesidad incluso puede ahorrarse una partición específica para swap, y "robar" ese espacio de disco bien a MSDOS o al propio Linux.
Sistema operativo Linux
Linux es un Unix libre, es decir, un sistema operativo, como el Windows o el MS-DOS (sin embargo, a diferencia de estos y otros sistemas operativos propietarios, ha sido desarrollado por miles de usuarios de computadores a través del mundo, y la desventaja de estos es que lo que te dan es lo que tu obtienes, dicho de otra forma no existe posibilidad de realizar modificaciones ni de saber como se realizó dicho sistema.), que fue creado inicialmente como un hobbie por un estudiante joven, Linus Torvalds, en la universidad de Helsinki en Finlandia, con asistencia por un grupo de hackers a través de Internet. Linus tenía un interés en Minix, un sistema pequeño o abreviado del UNIX (desarrollado por Andy Tanenbaum); y decidido a desarrollar un sistema que excedió los estándares de Minix. Quería llevar a cabo un sistema operativo que aprovechase la arquitectura de 32 bits para multitarea y eliminar la barreras del direccionamiento de memoria. Torvalds empezó escribiendo el núcleo del proyecto en ensamblador, y luego comenzó a añadir código en C, lo cual incrementó la velocidad de desarrollo, e hizo que empezara a tomarse en serio su idea. Él comenzó su trabajo en 1991 cuando él realizó la versión 0,02, la cual no la dió a conocer porque ni siquiera tenía drivers de disquete, además de llevar un sistema de almacenamiento de archivos muy defectuoso. Trabajó constantemente hasta 1994 en que la versión 1,0 del núcleo (KERNEL) de Linux se concretó. La versión completamente equipada actual es 2,2 (versión concluída el 25 de enero de 1999), y el desarrollo continúa.
Linux tiene todas las prestaciones que se pueden esperar de un Unix moderno y completamente desarrollado: multitarea real, memoria virtual, bibliotecas compartidas, carga de sistema a-demanda, compartimiento, manejo de debido de la memoria y soporte de redes TCP/IP.
Linux corre principalmente en PCs basados en procesadores 386/486/586, usando las facilidades de proceso de la familia de procesadores 386 (segmentación TSS, etc.) para implementar las funciones nombradas.
La parte central de Linux (conocida como núcleo o kernel) se distribuye a través de la Licencia Pública General GNU, lo que basicamente significa que puede ser copiado libremente, cambiado y distribuído, pero no es posible imponer restricciones adicionales a los productos obtenidos y, adicionalmente, se debe dejar el código fuente disponible, de la misma forma que está disponible el código de Linux. Aún cuando Linux tenga registro de Copyright, y no sea estrictamente de dominio público. La licencia tiene por objeto asegurar que Linux siga siendo gratuito y a la vez estándar.
Por su naturaleza Linux se distribuye libremente y puede ser obtenido y utilizado sin restricciones por cualquier persona, organización o empresa que así lo desee, sin necesidad de que tenga que firmar ningún documento ni inscribirse como usuario. Por todo ello, es muy difícil establecer quiénes son los princiales usuarios de Linux. No obstante se sabe que actualmente Linux está siendo utilizado ampliamente en soportar servicios en Internet, lo utilizan Universidades alrededor del todo el mundo para sus redes y sus clases, lo utilizan empresas productoras de equipamiento industrial para vender como software de apoyo a su maquinaria, lo utilizan cadenas de supermercados, estaciones de servicio y muchas instituciones del gobierno y militares de varios países. Obviamente, también es utilizado por miles de usuarios en sus computadores personales. El apoyo más grande, sin duda, ha sido Internet ya que a través de ella se ha podido demostrar que se puede crear un sistema operativo para todos los usuarios sin la necesidad de fines lucrativos.
Caracteristicas
En líneas generales podemos decir que se dispone de varios tipos de sistema de archivos para poder acceder a archivos en otras plataformas. Incluye un entorno gráfico X window (Interface gráfico estandard para máquinas UNIX), que nada tiene que envidiar a los modernos y caros entornos comerciales. Está orientado al trabajo en red, con todo tipo de facilidades como correo electrónico por ejemplo. Posee cada vez más software de libre distribución, que desarrollan miles de personas a lo largo y ancho del planeta. Linux es ya el sistema operativo preferido por la mayoría de los informáticos. Un ejemplo de la popularidad que ha alcanzado es sistema y la confianza que se puede depositar en él es que incluso la NASA ha encomendado misiones espaciales de control de experimentos a la seguridad y la eficacia de Linux.
Por lo tanto, la gran popularidad de Linux incluye los siguientes puntos:
· Se distribuye su código fuente, lo cual permite a cualquier persona que así lo desee hacer todos los cambios necesarios para resolver problemas que se puedan presentar, así como también agregar funcionalidad. El único requisito que esto conlleva es poner los cambios realizados a disposición del público.
· Es desarrollado en forma abierta por cientos de usuarios distribuídos por todo el mundo, los cuales la red Internet como medio de comunicación y colaboración. Esto permite un rápido y eficiente ciclo de desarrollo.
· Cuenta con un amplio y robusto soporte para comunicaciones y redes, lo cual hace que sea una opción atractiva tanto para empresas como para usuarios individuales.
· Da soporte a una amplia variedad de hardware y se puede correr en una multitud de plataformas: PC's convencionales, computadoras Macintosh y Amiga, así como costosas estaciones de trabajo
Versiones
El desarrollo inicial Linux ya aprovechaba las características de conmutación de tareas en modo protegido del 386, y se escribió todo en ensamblador.
Linus nunca anunció la versión 0.01 de Linux (agosto 1991), esta versión no era ni siquiera ejecutable, solamente incluía los principios del núcleo del sistema, estaba escrita en lenguaje ensamblador y asumía que uno tenia acceso a un sistema Minix para su compilación.
El 5 de octubre de 1991, Linus anunció la primera versión "Oficial" de Linux, - versión 0.02. Con esta versión Linus pudo ejecutar Bash (GNU Bourne Again Shell) y gcc (El compilador GNU de C) pero no mucho mas funcionaba. En este estado de desarrollo ni se pensaba en los términos soporte, documentación, distribución.
Después de la versión 0.03, Linus salto en la numeración hasta la 0.10, más y más programadores a lo largo y ancho de internet empezaron a trabajar en el proyecto y después de sucesivas revisiones, Linus incremento el numero de versión hasta la 0.95 (Marzo 1992). Mas de un año después (diciembre 1993) el núcleo del sistema estaba en la versión 0.99 y la versión 1.0 no llego hasta el 14 de marzo de 1994.
La versión actual del núcleo es la 2.2 y sigue avanzando día a día con la meta de perfeccionar y mejorar el sistema.
La ultima versión estable es la versión 2.2, que soporta muchos más periféricos, desde procesadores hasta joysticks, sintonizadores de televisión, CD ROMs no ATAPI y reconoce buena cantidad de tarjetas de sonido. Incluye también soporte para tipos de archivos para Macintosh HFS, Unix UFS y en modo de lectura, HPFS de OS/2 y NTFS, de NT.
Otras Versiones:
Linux 2.0
Linux 2.2
Linux 2.3
Ubuntu
Ubuntu (AFI: /uˈbuntu/) es una distribución Linux que ofrece un sistema operativo predominantemente enfocado a ordenadores de escritorio aunque tambien proporciona soporte para servidores. Basada en Debian GNU/Linux, Ubuntu concentra su objetivo en la facilidad de uso, la libertad en la restricción de uso, los lanzamientos regulares (cada 6 meses) y la facilidad en la instalación. Ubuntu es patrocinado por Canonical Ltd., una empresa privada fundada y financiada por el empresario sudafricano Mark Shuttleworth.
El nombre de la distribución proviene del concepto zulú y xhosa de ubuntu, que significa "humanidad hacia otros" o "yo soy porque nosotros somos". Ubuntu es un movimiento sudafricano encabezado por el obispo Desmond Tutu, quien ganó el Premio Nobel de la Paz en 1984 por sus luchas en contra del Apartheid en Sudáfrica. El sudafricano Mark Shuttleworth, mecenas del proyecto, se encontraba muy familiarizado con la corriente. Tras ver similitudes entre los ideales de los proyectos GNU, Debian y en general con el movimiento del software libre, decidió aprovechar la ocasión para difundir los ideales de Ubuntu. El eslogan de Ubuntu – “Linux para seres humanos” (en inglés "Linux for Human Beings") – resume una de sus metas principales: hacer de Linux un sistema operativo más accesible y fácil de usar.
La versión más reciente, Ubuntu 6.10 (Edgy Eft), fue lanzada el 26 de octubre de 2006. La versión 7.04 (Feisty Fawn) está programada para ser lanzada el 19 de abril de 2007[1].
Basada en la distribución Debian.
Disponible en 4 arquitecturas: Intel x86, AMD64, PowerPC, SPARC (para esta útlima sólo existe la versión servidor).
Los desarrolladores de Ubuntu se basan en gran medida en el trabajo de las comunidades de Debian y GNOME.
Las versiones estables se liberan cada 6 meses y se mantienen actualizadas en materia de seguridad hasta 18 meses después de su lanzamiento.
La nomenclatura de las versiones no obedece principalmente a un orden de desarrollo, se compone del dígito del año de emisión y del mes en que esto ocurre. La versión 4.10 es de octubre de 2004, la 5.04 es de abril de 2005, la 5.10 de octubre de 2005, la 6.06 es de junio de 2006 y la 6.10 es de octubre de 2006.
El entorno de escritorio oficial es Gnome y se sincronizan con sus liberaciones.
Para centrarse en solucionar raudamente los bugs, conflictos de paquetes, etc. se decidió eliminar ciertos paquetes del componente main, ya que no son populares o simplemente se escogieron de forma arbitraria por gusto o sus bases de apoyo al software libre. Por tales motivos inicialmente KDE no se encontraba con más soporte de lo que entregaban los mantenedores de Debian en sus repositorios, razón por la que se sumó la comunidad de KDE distribuyendo la distro llamada Kubuntu.
De forma sincronizada a la versión 6.06 de Ubuntu, apareció por primera vez la distribución Xubuntu, basada en el entorno de escritorio XFce.
El sistema incluye funciones avanzadas de seguridad y entre sus políticas se encuentra el no activar, de forma predeterminada, procesos latentes al momento de instalarse. Por eso mismo, no hay un firewall predeterminado, ya que no existen servicios que puedan atentar a la seguridad del sistema.
Para labores/tareas administrativas en terminal incluye una herramienta llamada sudo (similar al Mac OS X), con la que se evita el uso del usuario root (administrador).
Mejorar la accesibilidad y la internacionalización, de modo que el software esté disponible para tanta gente como sea posible. En la versión 5.04, el UTF-8 es la codificación de caracteres en forma predeterminada.
Existen diversas variantes de Ubuntu disponibles, las cuales poseen lanzamientos simultáneos con Ubuntu. Las más significativas son:
Kubuntu, el cuál utiliza KDE en vez de GNOME.
Edubuntu, diseñado para entornos escolares.
Xubuntu, el cuál utiliza el entorno de escritorio Xfce.




Mandriva
Mandriva Linux (antes Mandrakelinux y Mandrake Linux) es una distribución Linux aparecida en julio de 1998 propiedad de Mandriva, enfocada a principiantes o usuarios medios.
Apoya también totalmente la licencia GNU GPL, ofrece públicamente su distribución en formato ISO, sus asistentes o sus repositorios.
Las principales características de Mandriva Linux son:
Internacionalización
Mandriva Linux está disponible en unos 74 idiomas. Especialmente de calidad son sus traducciones al Español, Catalán y Portugués.
Instalación, control y administración
El instalador de Mandriva Linux es, probablemente, el más amigable de entre las diferentes distribuciones de Linux, a coste de sus errores, en el cual entre los más destacados es la forma poco amigable de leer las dependencias insatisfechas de una por vez, y la única unidad reconocida es la lectora /hdc. El instalador está traducido a más de 70 idiomas.
Mandriva Linux emplea Mandrake Control Center para la administración de Linux, en lugar de un editor de texto para cambiar aspectos de la configuración. Tiene muchos programas conocidos como Drakes o Draks, llamados de forma colectiva drakxtools, para configurar diferentes ajustes. Los ejemplos incluyen MouseDrake para configurar el ratón, DiskDrake para configurar las particiones de disco y drakconnect (antes conocido como draknet, pero forzado a cambiar su nombre después de que una compañía con el mismo nombre se quejara) para configurar una conexión de red. Están escritos usando GTK y Perl, y la mayoría de ellos pueden ser ejecutados tanto en modo gráfico como en modo texto.



Software
Mandriva Linux, que forma parte del grupo LSB (Linux Standard Base), viene con 12.306 paquetes de software (versión 2006), incluyendo juegos, programas de oficina, servidores y utilidades de Internet.
Mandriva Linux, a diferencia de otras distribuciones, no se basa en un único entorno de escritorio. Así, Mandriva proporciona apoyo tanto a KDE (QT) como a Gnome (GTK), apoyando tanto el desarrollo de programas QT (Kat, buscador integrado en KDE) como GTK (las herramientas de administración de Mandriva están escritas en GTK).
Para la administración de programas, Mandriva utiliza Urpmi, una herramienta disponible tanto en formato gráfico y como en formato Texto. Urpmi es una herramienta totalmente comparable a APT. Urpmi se encarga de resolver las dependencias de los paquetes rpm, facilitando enormemente la instalación, desinstalación de programas y la actualización del sistema.
Mandriva Linux tiene una gran comunidad de usuarios, que proporcionan ayuda, soporte y software para el usuario de Mandriva Linux.

Existen tres etapas de desarrollo: Cooker, Community y Official.
La versión Cooker aparece según es liberada la última versión estable. Esta etapa va incorporando las nuevas versiones de programas. Durante su evolución, Cooker va progresando, arreglando los fallos encontrados por los usuarios y los equipos de pruebas. Cuando Cooker está lo suficientemente estable, se declara el congelamiento (freeze) de esta etapa. Tras el congelamiento, no cambiará ninguna versión de ningún programa: únicamente se corrigen fallos.
En este momento, se entra en el periodo de versiones de prueba o beta, seguido de candidatas a versión final (o release candidate), cuyo objetivo es el lanzamiento de la versión Community. Después de corregir gran parte de los fallos, aparece la versión estable Community. En esta etapa, muchos usuarios descargan y usan Mandriva Linux Community, donde el uso y abuso por parte de los usuarios descubren los fallos que no fueron descubiertos en las betas y release candidates. La vida de una Community suele ser de dos meses.
Tras estos dos meses durante los cuales se corrigen todos los fallos aparecidos, aparece la versión definitiva, llamada Official con todos los parches incorporados.