sábado, 25 de abril de 2009

Death note Cap 1 1/3

jueves, 16 de abril de 2009

Memoria ram

Memoria de acceso aleatorio
La memoria de acceso aleatorio, (en inglés: Random Access Memory cuyo acrónimo es RAM) es la memoria desde donde el procesador recibe las instrucciones y guarda los resultados. Es el área de trabajo para la mayor parte del software de un computador.1 Existe una memoria intermedia entre el procesador y la RAM, llamada caché, pero ésta sólo es una copia de acceso rápido de la memoria principal almacenada en los módulos de RAM.1 Los módulos de RAM son la presentación comercial de este tipo de memoria, se compone de integrados soldados sobre un circuito impreso.
Se trata de una memoria de estado sólido tipo DRAM en la que se puede tanto leer como escribir información. Se utiliza como memoria de trabajo para el sistema operativo, los programas y la mayoría del software. Es allí donde se cargan todas las instrucciones que ejecutan el procesador y otras unidades de cómputo. Se dicen "de acceso aleatorio" o "de acceso directo" porque se puede leer o escribir en una posición de memoria con un tiempo de espera igual para cualquier posición, no siendo necesario seguir un orden para acceder a la información de la manera más rápida posible.
La frase memoria RAM se utiliza frecuentemente para referirse a los módulos de memoria que se usan en los computadores personales y servidores. En el sentido estricto, estos dispositivos contienen un tipo entre varios de memoria de acceso aleatorio , ya que las ROM, memorias Flash , caché (SRAM) , los registros en procesadores y otras unidades de procesamiento también poseen la cualidad de presentar retardos de acceso iguales para cualquier posición.

Módulos de memoria RAM
Los módulos de memoria RAM son tarjetas de circuito impreso que tienen soldados integrados de memoria DRAM por una o ambas caras. La implementacion DRAM se basa en una topología de circuito electrónico que permite alcanzar densidades altas de memoria por cantidad de transistores, logrando integrados de cientos o miles de Kilobits. Ademas de DRAM, los modulos poseen un integrado que permiten la identificación del mismos ante el computador por medio del protocolo de comunicación SPD. La conexión con los demás componentes se realiza por medio de un área de pines en uno de los filos del circuito impreso, que permiten que el modulo al ser instalado en un zócalo apropiado de la placa base, tenga buena conexión eléctrica con los controladores de memoria y las fuentes de alimentación. Los primeros módulos comerciales de memoria eran SIPP de formato propietario, es decir no había un estándar entre distintas marcas. La necesidad de hacer intercambiable los módulos y de utilizar integrados de distintos fabricantes condujo al establecimiento de estándares de la industria como los JEDEC.
• Módulos DIMM Usado en computadores de escritorio. Se caracterizan por tener un bus de datos de 64 bits.
• Módulos SO-DIMM Usado en computadores portátiles. Formato miniaturizado de DIMM.
• Módulos SIMM Un formato usado en computadores antiguos. tenían un bus de datos de 16 o 32 bits

Tecnologías de memoria
La tecnologia de memoria actual usa una señal de sincronización para realizar las funciones de lecto-escritura de manera que siempre esta sincronizada con un reloj del bus de memoria, a diferencia de las antiguas memorias FPM y EDO que eran asincrónicas. Hace mas de una década toda la industria se decidió por las tecnologías síncronas, ya que permiten construir integrados que funcionen a una frecuencia mayor a 66 Mhz (en la actualidad (2009) alcanzaron los 1333 Mhz).

• SDR SDRAM (Single Data Rate Synchronous Dynamic RAM)
Memoria síncrona , con tiempos de acceso de entre 25 y 10 ns y que se presentan en módulos DIMM de 168 contactos. Fue utilizada en los Pentium II y en los Pentium III , así como en los AMD K6, AMD Athlon K7 y Duron. Está muy extendida la creencia de que se llama SDRAM a secas, y que la denominación SDR SDRAM es para diferenciarla de la memoria DDR, pero no es así, simplemente se extendió muy rápido la denominación incorrecta. El nombre correcto es SDR SDRAM ya que ambas (tanto la SDR como la DDR) son Memorias Síncronas Dinámicas.
• DDR SDRAM (Double Data Rate SDRAM)
Memoria síncrona, envía los datos dos veces por cada ciclo de reloj. De este modo trabaja al doble de velocidad del bus del sistema, sin necesidad de aumentar la frecuencia de reloj. Se presenta en módulos DIMM de 184 contactos.
• DDR 2 SDRAM
Las memorias DDR 2 son una mejora de las memorias DDR (Double Data Rate), que permiten que los búferes de entrada/salida trabajen al doble de la frecuencia del núcleo, permitiendo que durante cada ciclo de reloj se realicen cuatro transferencias. Se presentan en módulos DIMM de 240 contactos.
• DDR 3 SDRAM
Considerado el sucesor de la actual memoria estándar DDR 2, DDR 3 promete proporcionar significantes mejoras en el rendimiento en niveles de bajo voltaje, lo que lleva consigo una disminución del gasto global de consumo. Los módulos DIMM DDR 3 tienen 240 pines, el mismo número que DDR 2; sin embargo, los DIMMs son físicamente incompatibles, debido a una ubicación diferente de la muesca.
• RDRAM (Rambus DRAM)
Memoria de gama alta basada en un protocolo propietario creado por la empresa Rambus, lo cual obliga a sus compradores a pagar regalías en concepto de uso. Esto ha hecho que el mercado se decante por la memoria DDR de uso libre, excepto algunos servidores de grandes prestaciones (Cray) y la famosa PlayStation 3. Se presenta en módulos RIMM de 184 contactos. Aunque competidora de la DDR, la RDRAM funciona de modo muy distinto: la DDR utiliza los flancos de subida y bajada del reloj para duplicar su frecuencia efectiva (hasta DDR-400) con un bus de datos de 64 bits, mientras que la RDRAM eleva la frecuencia de los chips para evitar cuellos de botella (hasta PC800) con un bus de datos de 16 bits.

miércoles, 15 de abril de 2009

Slots de expacion

Slot de expansión
Un slot (también llamado slot de expansión o ranura de expansión) es un elemento de la placa base de un ordenador que permite conectar a ésta una tarjeta adaptadora adicional o de expansión, la cual suele realizar funciones de control de dispositivos periféricos adicionales, tales como monitores, impresoras o unidades de disco. En las tarjetas madre del tipo LPX los slots de expansión no se encuentran sobre la placa sino en un conector especial denominado riser card.
Los slots están conectados entre sí. Un ordenador personal dispone generalmente de ocho unidades, aunque puede llegar hasta doce.
Tipos de slots
XT

Es uno de los slots más antiguos trabaja con una velocidad muy inferior a los slots modernos (8 bits) y a una frecuencia de 4.77 [MHz]
AGP (Accelerated Graphics Port)
Al puerto AGP se conecta la tarjeta de video y se usa únicamente para tarjetas aceleradoras 3D en ordenadores muy potentes y accesibles; está siendo reemplazado por el slot PCI Express que es más potente. AGP quiere decir Advanced Graphics Port (Puerto de gráficos avanzados). Hay cuatro tipos, AGP (si no se especifica nada más es 1x), AGP 2x, AGP 4x y AGP 8x.
ISA ( Bus ISA)
El slot ISA fue reemplazado desde el año 2000 por el slot PCI. Los componentes diseñados para el slot ISA eran muy grandes y fueron de los primeros slots en usarse en los ordenadores personales. Hoy en día no se fabrican slots ISA. Los puertos ISA son ranuras de expansión actualmente en desuso, se incluyeron estos puertos hasta los primeros modelos del Pentium III. NOTA: El slot ISA ( Industry Standard Arquitecture) es un tipo de slot o ranura de expansión de 16 bits capaz de ofrecer hasta 16 MB/s a 8 MHz.
VESA (Video Electronics Standards Association)
En 1992 el comité VESA de la empresa NEC crea este slot para dar soporte a las nuevas placas de video. Es fácilmente identificable en la placa base debido a que consiste de un ISA con una extensión color marrón, trabaja a 32 bits y con una frecuencia que varia desde 33 [MHz] a 40 [MHz]. Tiene 22,3[cm] de largo (ISA+EXTENSION) 1,4[cm] de alto, 0,9[cm] de ancho (ISA) Y 0,8[cm] de ancho (EXTENSION).
PCI (Peripheral Component Interconnect)
Un Peripheral Component Interconnect (PCI, "Interconexión de Componentes Periféricos") consiste en un bus de ordenador estándar para conectar dispositivos periféricos directamente a su placa base. Estos dispositivos pueden ser circuitos integrados ajustados en ésta (los llamados "dispositivos planares" en la especificación PCI) o tarjetas de expansión que se ajustan en conectores. Es común en PC, donde ha desplazado al ISA como bus estándar, pero también se emplea en otro tipo de ordenadores.
A diferencia de los buses ISA, el bus PCI permite configuración dinámica de un dispositivo periférico. En el tiempo de arranque del sistema, las tarjetas PCI y el BIOS interactúan y negocian los recursos solicitados por la tarjeta PCI. Esto permite asignación de IRQs y direcciones del puerto por medio de un proceso dinámico diferente del bus ISA, donde las IRQs tienen que ser configuradas manualmente usando jumpers externos. Las últimas revisiones de ISA y el bus MCA de IBM ya incorporaron tecnologías que automatizaban todo el proceso de configuración de las tarjetas, pero el bus PCI demostró una mayor eficacia en tecnología "plug and play". Aparte de esto, el bus PCI proporciona una descripción detallada de todos los dispositivos PCI conectados a través del espacio de configuración PCI.
Variantes convencionales de PCI
•Cardbus es un formato PCMCIA de 32 bits, 33 MHz PCI.
•Compact PCI, utiliza módulos de tamaño Eurocard conectado en una placa hija PCI.
•PCI 2.2 funciona a 66 MHz (requiere 3.3 voltios en las señales) (índice de transferencia máximo de 503 MiB/s (533MB/s)
•PCI 2.3 permite el uso de 3.3 voltios y señalizador universal, pero no soporta los 5 voltios en las tarjetas.
•PCI 3.0 es el estándar final oficial del bus, con el soporte de 5 voltios completamente removido.
•PCI-X cambia el protocolo levemente y aumenta la transferencia de datos a 133 MHz (índice de transferencia máximo de 1014 MiB/s).
•PCI-X 2.0 especifica un ratio de 266 MHz (índice de transferencia máximo de 2035 MiB/s) y también de 533 MHz, expande el espacio de configuración a 4096 bytes, añade una variante de bus de 16 bits y utiliza señales de 1.5 voltios.
•Mini PCI es un nuevo formato de PCI 2.2 para utilizarlo internamente en los portátiles.
•PC/104-Plus es un bus industrial que utiliza las señales PCI con diferentes conectores.
•Advanced Telecommunications Computing Architecture (ATCA o AdvancedTCA) es la siguiente generación de buses para la industria de las telecomunicaciones.

Dimensiones de las tarjetas
Una tarjeta PCI de tamaño completo tiene un alto de 107 mm (4.2 pulgadas) y un largo de 312 mm (12.283 pulgadas). La altura incluye el conector de borde de tarjeta.Además de estas dimensiones el tamaño del backplate está también estandarizado. El backplate es la pieza de metal situada en el borde que se utiliza para fijarla al chasis y contiene los conectores externos. La tarjeta puede ser de un tamaño menor, pero el backplate debe ser de tamaño completo y localizado propiamente. Respecto del anterior bus ISA, está situado en el lado opuesto de la placa para evitar errores.
Las tarjeta de media altura son hoy comunes en equipos compactos con chasis Small Form Factor, pero el fabricante suele proporcionar dos backplates, con el de altura completa fijado en la tarjeta y el de media altura disponible para una fácil sustitución.
AMR
El audio/módem rise, también conocido como slot AMR2 o AMR3 es una ranura de expansión en la placa madre para dispositivos de audio (como tarjetas de sonido) o módems lanzada en 1998 y presente en placas de Intel Pentium III, Intel Pentium IV y AMD Athlon. Fue diseñada por Intel como una interfaz con los diversos chipsets para proporcionar funcionalidad analógica de Entrada/Salida permitiendo que esos componentes fueran reutilizados en placas posterioreres sin tener que pasar por un nuevo proceso de certificación de la FCC (con los costes en tiempo y económicos que conlleva).
Cuenta con 2x23 pines divididos en dos bloques, uno de 11 (el más cercano al borde de la placa madre) y otro de 12, con lo que es físicamente imposible una inserción errónea, y suele aparecer en lugar de un slot PCI, aunque a diferencia de este no es plug and play y no admite tarjetas aceleradas por hardware (sólo por software)En un principio se diseñó como ranura de expansión para dispositivos económicos de audio o comunicaciones ya que estos harían uso de los recursos de la máquina como el microprocesador y la memoria RAM. Esto tuvo poco éxito ya que fue lanzado en un momento en que la potencia de las máquinas no era la adecuada para soportar esta carga y el mal o escaso soporte de los drivers para estos dispositivos en sistemas operativos que no fuesen Windows.
Tecnológicamente ha sido superado por el Advanced Communications Riser (de VIA y AMD) y el Communications and Networking Riser de Intel. Pero en general todas las tecnologías en placas hijas (riser card) como ACR, AMR, y CNR, están hoy obsoletas en favor de los componentes embebidos y los dispositivos USB.
CNR
Comunication and Network Riser, se trata de una ranura de expansión en la placa base para dispositivos de comunicaciones como módems, tarjetas de red o USB. Un poco más grande que la AMR, CNR fue introducida en febrero de 2000 por Intel en sus motherboards para procesadores Pentium y se trataba de un diseño propietario por lo que no se extendió más allá de las placas que incluían los chipsets de Intel, que más tarde fue implementada en motherboards como otros chipset.
PCI-Express
PCI-Express (anteriormente conocido por las siglas 3GIO, 3rd Generation I/O) es un nuevo desarrollo del bus PCI que usa los conceptos de programación y los estándares de comunicación existentes, pero se basa en un sistema de comunicación serie mucho más rápido. Este sistema es apoyado principalmente por Intel, que empezó a desarrollar el estándar con nombre de proyecto Arapahoe después de retirarse del sistema Infiniband.PCI-Express es abreviado como PCI-E o PCIE, aunque erróneamente se le suele abreviar como PCIX o PCI-X. Sin embargo, PCI-Express no tiene nada que ver con PCI-X que es una evolución de PCI, en la que se consigue aumentar el ancho de banda mediante el incremento de la frecuencia, llegando a ser 32 veces más rápido que el PCI 2.1. Su velocidad es mayor que PCI-Express, pero presenta el inconveniente de que al instalar más de un dispositivo la frecuencia base se reduce y pierde velocidad de transmisión.
Este bus está estructurado como enlaces punto a punto,full-duplex, trabajando en serie. En PCIE 1.1 (el más común en 2007) cada enlace transporta 250 MB/s en cada dirección. PCIE 2.0 dobla esta tasa y PCIE 3.0 la dobla de nuevo.
Cada slot de expansión lleva uno, dos, cuatro, ocho, dieciséis o treinta y dos enlaces de datos entre la placa base y las tarjetas conectadas. El número de enlaces se escribe con una x de prefijo (x1 para un enlace simple y x16 para una tarjeta con dieciséis enlaces. Treinta y dos enlaces de 250MB/s dan el máximo ancho de banda, 8 GB/s (250 MB/s x 32) en cada dirección para PCIE 1.1. En el uso más común (x16) proporcionan un ancho de banda de 4 GB/s (250 MB/s x 16) en cada dirección. En comparación con otros buses, un enlace simple es aproximadamente el doble de rápido que el PCI normal; un slot de cuatro enlaces, tiene un ancho de banda comparable a la versión más rápida de PCI-X 1.0, y ocho enlaces tienen un ancho de banda comparable a la versión más rápida de AGP.
Está pensado para ser usado sólo como bus local, aunque existen extensores capaces de conectar múltiples placas base mediante cables de cobre o incluso fibra óptica. Debido a que se basa en el bus PCI, las tarjetas actuales pueden ser reconvertidas a PCI-Express cambiando solamente la capa física. La velocidad superior del PCI-Express permitirá reemplazar casi todos los demás buses, AGP y PCI incluidos. La idea de Intel es tener un solo controlador PCI-Express comunicándose con todos los dispositivos, en vez de con el actual sistema de puente norte y puente sur. Este conector es usado mayormente para conectar tarjetas gráficas.No es todavía suficientemente rápido para ser usado como bus de memoria. Esto es una desventaja que no tiene el sistema similar HyperTransport, que también puede tener este uso. Además no ofrece la flexibilidad del sistema InfiniBand, que tiene rendimiento similar, y además puede ser usado como bus interno externo.
En 2006 es percibido como un estándar de las placas base para PC, especialmente en tarjetas gráficas. Marcas como Ati Technologies y nVIDIA entre otras tienen tarjetas gráficas en PCI-Express.

Procesadores cisc y risc

Complex Instruction Set Computing
CISC es un modelo de arquitectura de computadores (del inglés Complex Instruction Set Computing). Los microprocesadores CISC tienen un conjunto de instrucciones que se caracteriza por ser muy amplio y permitir operaciones complejas entre operandos situados en la memoria o en los registros internos, en contraposición a la arquitectura RISC.
Este tipo de arquitectura dificulta el paralelismo entre instrucciones, por lo que, en la actualidad, la mayoría de los sistemas CISC de alto rendimiento implementan un sistema que convierte dichas instrucciones complejas en varias instrucciones simples del tipo RISC, llamadas generalmente microinstrucciones.
Los CISC pertenecen a la primera corriente de construcción de procesadores, antes del desarrollo de los RISC. Ejemplos de ellos son: Motorola 6800, Zilog Z80 y toda la familia Intel x86 usada en la mayoría de las computadoras personales del planeta.
Hay que hacer notar, sin embargo que la utilización del término CISC comenzó tras la aparición de los procesadores RISC como nomenclatura despectiva por parte de los defensores/creadores de éstos últimos. Véase Retrónimo.

RISC
De Arquitectura computacional, RISC (del inglés Reduced Instruction Set Computer), Computadora con Conjunto de Instrucciones Reducidas.
Es un tipo de microprocesador con las siguientes características fundamentales:
1. Instrucciones de tamaño fijo y presentadas en un reducido número de formatos.
2. Sólo las instrucciones de carga y almacenamiento acceden a la memoria por datos.
Además estos procesadores suelen disponer de muchos registros de propósito general.
El objetivo de diseñar máquinas con esta arquitectura es posibilitar la segmentación y el paralelismo en la ejecución de instrucciones y reducir los accesos a memoria. Las máquinas RISC protagonizan la tendencia actual de construcción de microprocesadores. PowerPC, DEC Alpha, MIPS, ARM, ... son ejemplos de algunos de ellos.
RISC es una filosofía de diseño de CPU para computadora que está a favor de conjuntos de instrucciones pequeñas y simples que toman menor tiempo para ejecutarse. El tipo de procesador más comúnmente utilizado en equipos de escritorio, el x86, está basado en CISC en lugar de RISC, aunque las versiones más nuevas traducen instrucciones basadas en CISC x86 a instrucciones más simples basadas en RISC para uso interno antes de su ejecución.
La idea fue inspirada por el hecho de que muchas de las características que eran incluidas en los diseños tradicionales de CPU para aumentar la velocidad estaban siendo ignoradas por los programas que eran ejecutados en ellas. Además, la velocidad del procesador en relación con la memoria de la computadora que accedía era cada vez más alta. Esto conllevó la aparición de numerosas técnicas para reducir el procesamiento dentro del CPU, así como de reducir el número total de accesos a memoria.

Cics vs riks
Todos los CPUs x86 compatibles con la PC son procesadores CISC (Computadora de Conjunto de Instrucciones Complejas), pero en las Mac nuevas o en alguna que se hagan dibujos de ingeniería complejos, probablemente tengan un CPU RISC (Computadora de Conjunto de Instrucciones Reducido).

La diferencia práctica entre CISC y RISC es que los procesadores CISCx86 corren a DOS, Windows 3.1 y Windows 95 en el modo nativo; es decir, sin la traducción de software que disminuya el desempeño. Pero CISC y RISC también reflejan dos filosofías de computación rivales. El procesamiento de RISC requiere breves instrucciones de software de la misma longitud, que son fáciles de procesar rápidamente y en tandém por un CPU.

En contraste, un procesador de CISC tiene que procesar instrucciones más largas de longitud desigual. Es más difícil procesar múltiples instrucciones de CISC a la vez.

Los que proponen RISC mantienen que su método de procesamiento es más eficiente y más escalable, por lo que los arquitectos pueden añadir unidades de ejecución más fácilmente a un diseño existente y aumentar el rendimiento (las unidades de ejecución son los circuitos dentro del chip que hacen gran parte del trabajo). Similarmente, RISC facilita el multiprocesamiento verdadero, donde varios CPUs trabajan simétricamente mientras dividen, ejecutan y ensamblan una cadena de instrucción; los chips CISC pueden hacer lo mismo, pero no son tan efectivos. La simplicidad de las instrucciones de RISC también significa que requieren menos lógica para ejecutar, reduciendo el costo del chip. Pocos en el campo del CISC discuten estos hechos, prefiriendo apuntar a la realidad <>.

Todo el debate de CISC/RISC puede ser irrelevante pronto debido a que nuevas técnicas están convergiendo. El Pentium Pro, el Nx586 y el K5 son básicamente procesadores RISC en su núcleo. Toman las instrucciones de CISC y las traducen a instrucciones estilo RISC. Para la generación que sigue al Pentium Pro, Intel y Hewlett-Packard están colaborando en un CPU híbrido que pueda aceptar instrucciones RISC y CISC. Si ese chip crea un estándar, puede acelerar el cambio hacia el software optimizado para RISC. Un mundo de RISC significaría CPUs más poderosos, y más baratos. Cuando quiera mejorar, simplemente puede añadir otro CPU en lugar de desprenderse de su viejo CPU.

miércoles, 1 de abril de 2009

Ejercicios Ley de Ohm

Resolver:
1) Se dispone de cuatro resistencias: 4Ω, 6Ω, 8Ω y 10Ω, calcular la resistencia total si:

a – En serie.

R = R+R+R+R
4Ω + 6Ω + 8Ω + 10Ω = 28Ω

b – En paralelo.

1/R = 1/R+1/R+1/R+1/R
1/4Ω + 1/6Ω + 1/8Ω + 1/10Ω = 1/0,641Ω, 1/0,641Ω = 1,558Ω

Al aplicarse entre sus extremos una diferencia de potencial de 40V, ¿cuál es la intensidad de la corriente para cada una en cada caso?

I = V/R = 40V/28Ω = 1,42A
I = V/R = 40V/1.558Ω = 25.6A

2) Sabiendo que R1 = 60Ω, R2 = 40Ω, R3 = 30Ω e I = 5A, calcular V AB según el gráfico.

1/R2+1/R3 = 1/40Ω +1/30Ω = 17,13Ω
R1+R2 = 60Ω +17,13Ω = 77,13Ω

V = IxR = 5Ax77,13Ω = 385,5V

3) Utilizando el gráfico anterior, y sabiendo que: R2 = 15Ω, R3 = 12Ω, V AB = 220V e I = 10A, calcular R1.

V = 220V
I = 10A R = V/I = 220V/10A = 22Ω
1/R2+1/R3 = 6,6Ω
R1 = 22Ω-6,6Ω = 15,4Ω

4) Sabiendo que R1 = 23Ω R2 = 40Ω, R3 = 25Ω, y V AB = 50V, calcular I1, I2, I3, e I según el gráfico.

V = 50V
1/R = 1/R2+1/R3 = 15,38Ω
RT = R1+R2 = 23Ω+15,38Ω = 38,38Ω
I1 = V1/R1 = 50V/23Ω = 2,17A
I2 = V2/R2 = 50V/40Ω = 1,25A
I3 = V3/R3 = 50V/25Ω = 2A
I = VT/RT = 50V/38,38Ω = 1,302A

5) Calcular la intensidad de la corriente que circula por un circuito conectado a cuatro pilas de 1,5 V c/u, conectadas en serie, si posee dos resistencias, de 8 Ω y 12Ω, conectadas en serie, y otras tres conectadas en paralelo, de 8Ω, 14Ω, y 20Ω, sabiendo que la resistencia interna de cada pila es de 0,3Ω.

1/R = 1/8Ω+1/14Ω+1/20Ω = 4,057Ω
R = R1+R2+R3 = 8Ω+12Ω+4,057Ω = 24,057Ω
I = V/R = 6V/24,057Ω = 0,249A

jueves, 26 de marzo de 2009

GNU LINUX

Etimología [editar]
El nombre GNU viene de las herramientas básicas del sistema operativo creadas por el proyecto GNU, iniciado por Richard Stallman en 1983 y mantenido por la FSF. El nombre Linux viene del núcleo Linux, inicialmente escrito por Linus Torvalds en 1991.
La contribución de GNU es la razón por la que existe controversia a la hora de utiliza usar Linux o GNU/Linux para referirse al sistema operativo formado por las herramientas de GNU y el núcleo Linux en su conjunto.[5] [6]
La pronunciación, para cualquier idioma, según su autor[7] es muy cercana a como se pronuncia en español: /lí.nux/ o /lnəks/ (Alfabeto Fonético Internacional).
Historia [editar]


Linus Torvalds, creador del núcleo Linux
En 1991 Linus Torvalds empezó a trabajar en un reemplazo no comercial para MINIX[8] que más adelante acabaría siendo Linux.
La historia del kernel Linux está fuertemente vinculada a la del proyecto GNU. El proyecto GNU, iniciado en 1983 por Richard Stallman,[9] tiene como objetivo el desarrollo de un sistema operativo Unix completo compuesto enteramente de software libre. Cuando la primera versión del kernel Linux fue liberada en 1991, el proyecto GNU ya había producido varios de los componentes del sistema operativo, incluyendo un intérprete de comandos, una biblioteca C y un compilador, pero aún no contaba con el núcleo que permitiera completar el sistema operativo.
Entonces, el núcleo (en inglés, kernel) creado por Linus Torvalds, quien se encontraba por entonces estudiando en la Universidad de Helsinki, llenó el "hueco" final que el sistema operativo de GNU necesitaba.
Véase también: Historia del proyecto GNU y Historia del kernel Linux
Desarrollo [editar]
Distribuciones GNU/Linux [editar]
Artículo principal: Distribución GNU/Linux


Sharp Zaurus, un computador de bolsillo con Linux.
Una distribución es una variante del sistema GNU/Linux que se enfoca a satisfacer las necesidades de un grupo especifico de usuarios. De este modo hay distribuciones para hogares, empresas y servidores. Algunas incorporan programas comerciales (como Mandriva PowerPack) o solamente software libre (como gNewSense).
Las distribuciones son ensambladas por individuos, empresas u otros organismos. Cada distribución puede incluir cualquier número de software adicional, incluyendo software que facilite la instalación del sistema. La base del software incluido con cada distribución incluye el núcleo Linux y las herramientas GNU, al que suelen añadirse también varios paquetes de software.
Las herramientas que suelen incluirse en la distribución de este sistema operativo se obtienen de diversas fuentes, y en especial de proyectos de código abierto o software libre, como: GNU , BSD, GNOME y KDE. También se incluyen utilidades de otros proyectos como Mozilla, Perl, Ruby, Python, PostgreSQL, MySQL, Xorg, casi todas con licencia GPL o compatibles con ésta (LGPL, MPL) otro aporte fundamental del proyecto GNU.
Usualmente se utiliza la plataforma X.Org Server, basada en la antigua XFree86, para sostener la interfaz gráfica.
Comunidad [editar]
Artículo principal: Comunidad del software libre
La mayoría de las distribuciones están, en mayor o menor medida, desarrolladas y dirigidas por sus comunidades de desarrolladores y usuarios. En algunos casos están dirigidas y financiadas completamente por la comunidad. como ocurre con Debian GNU/Linux, mientras que otras mantienen una distribución comercial y una versión de la comunidad, como hace RedHat con Fedora, o SuSE con OpenSuSE.
En muchas ciudades y regiones, asociaciones locales conocidas como grupos de usuarios de Linux promueven este sistema operativo y el software libre. Suelen ofrecer conferencias, talleres o soporte técnico de forma gratuita o introducción a la instalación de GNU/Linux para nuevos usuarios.
En las distribuciones y otros proyectos de software libre y código abierto son muy comunes las salas de chat IRC y newsgroups. Los foros también son comunes, sobretodo en el soporte a usuarios, y las listas de distribución suelen ser el medio principal para discutir sobre el desarrollo, aunque también se utilizan como medio de soporte al usuario.
Escala de desarrollo [editar]
Un estudio sobre la distribución Red Hat 7.1 reveló que ésta en particular posee más de 30 millones de líneas de código real. Utilizando el modelo de cálculo de costos COCOMO, puede estimarse que esta distribución requeriría 8.000 programadores por año para su desarrollo. De haber sido desarrollado por medios convencionales de código cerrado, hubiera costado más de mil millones de dólares en los Estados Unidos.[10]
La mayor parte de su código (71%) pertenecía al lenguaje C, pero fueron utilizados muchos otros lenguajes para su desarrollo, incluyendo C++, Bash, Lisp, Ensamblador, Perl, Fortran y Python.
Además, la licencia predominante en alrededor de la mitad de su código total (contado en líneas de código) fue la GPL en su versión 2.
El núcleo Linux contenía entonces 2,4 millones de líneas de código, lo que representaba el 8% del total, demostrando que la vasta mayoría del sistema operativo no pertenece al núcleo del mismo.
En un estudio posterior[11] se realizó el mismo análisis para Debian GNU/Linux versión 2.2. Esta distribución contenía más de 55 millones de líneas de código fuente, y habría costado 1.900 millones de dólares (año 2000) el desarrollo por medios convencionales (no libres); el núcleo Linux en octubre de 2003 tiene unas 5,5 millones de líneas.
Usos y mercado [editar]


Escritorio KDE 3.4.2 corriendo sobre Gentoo Linux (2.6.13-r9). Están abiertos y funcionando un cliente IRC Konversation, un cliente p2p aMule y un reproductor musical Amarok.


Distribución Ubuntu 8.04 con el escritorio GNOME 2.22 ejecutando las aplicaciones Mozilla Firefox, navegador web; emesene, cliente libre de la red WLM y gcalctool, programa de calculadora.
Con la adopción por numerosas empresas fabricantes de PC, muchos ordenadores se venden con distribuciones GNU/Linux pre-instaladas, y "GNU/Linux" ha comenzado a tomar su lugar en el vasto mercado de las computadoras de escritorio.
En entornos de escritorio, "GNU/Linux" ofrece una interfaz gráfica alternativa a la tradicional interfaz de línea de comandos de Unix. Existen en la actualidad numerosas aplicaciones gráficas, ya sean libres o no, que ofrecen la funcionalidad que está permitiendo que GNU/Linux se adapte como herramienta de escritorio.
Algunas distribuciones permiten el arranque de Linux directamente desde un CD/DVD (llamados LiveCDs) sin modificar en absoluto el disco duro del ordenador en el que se ejecuta GNU/Linux. Para este tipo de distribuciones, en general, los archivos de imagen (archivos ISO) están disponibles en Internet para su descarga.
Otras posibilidades incluyen iniciar el arranque desde una red (ideal para sistemas con requerimientos mínimos), desde un disco flexible o disquete o desde unidades de almacenamiento USB.
Apoyo [editar]
Desde finales del 2000 se ha incrementado el apoyo y respaldo de parte de fabricantes de hardware como IBM, [12] Sun Microsystems, [13] Hewlett-Packard, [14] y Novell. [15] Algunos de ellos, como Dell, [16] Hewlett-Packard, [17] [18] Lenovo[19] [20] [21] y Acer[22] , lo incluyen pre-instalado en algunos modelos de ordenadores portátiles y de escritorio para el usuario final. El respaldo de compañías de software también está presente, ya que -entre otras aplicaciones- Nero, Java, Google Earth, Google Desktop, Adobe Reader, Adobe Flash, RealPlayer y Yahoo! Messenger están disponibles para GNU/Linux.
Mercado [editar]
Numerosos estudios cuantitativos sobre software de código abierto están orientados a tópicos como la cuota de mercado y la fiabilidad, muchos de estos estudios examinan específicamente a Linux.[23] El mercado de Linux crece rápidamente, y los ingresos por software de servidores, escritorios, y empaquetados, que corren bajo Linux, se estima que llegarán a $35,7 millardos en 2008.[24]
La creciente popularidad de GNU/Linux se debe a las ventajas que presenta ante otros tipos de software. Entre otras razones se debe a su estabilidad, al acceso a las fuentes (lo que permite personalizar el funcionamiento y auditar la seguridad y privacidad de los datos tratados), a la independencia de proveedor, a la seguridad, a la rapidez con que incorpora los nuevos adelantos tecnológicos (IPv6, microprocesadores de 64 bits), a la escalabilidad (se pueden crear clusters de cientos de ordenadoress), a la activa comunidad de desarrollo que hay a su alrededor, a su interoperatibilidad y a la abundancia de documentación relativa a los procedimientos.
Hay varias empresas que comercializan soluciones basadas en Linux: IBM, Novell, Red Hat, Rxart, Canonical Ltd. (Ubuntu), así como miles de PYMES que ofrecen productos o servicios basados en esta tecnología.


Servidores basados en Linux.
Dentro del segmento de supercomputadoras, la 9ª más potente del mundo y primera más potente fuera de EE.UU a Junio de 2007,[25] denominada MareNostrum, fue desarrollada por IBM y está basada en un cluster Linux.[26] Se encuentra alojada en Barcelona y es gestionada por la Universidad Politécnica de Cataluña (UPC). A finales de 2007, de acuerdo al TOP500.org, encargado de monitorizar las 500 principales supercomputadoras del mundo: 371 usaban una distribución basada en GNU/Linux, 78 Unix, 41 SLES (una variante de Unix), 19 únicos con Linux y 4 Mac. Ninguna usaba Windows.
Linux, además de liderar el mercado de servidores de internet, debido entre otras cosas a la gran cantidad de soluciones que tiene para este segmento, tiene un crecimiento progresivo en ordenadores de escritorio y portátiles. Prueba de ello es que es el sistema base que se ha elegido para el proyecto OLPC: One Laptop Per Child (en español: Una Computadora Portátil por Niño), que tiene como objetivo llevar una computadora portátil a cada niño de países como China, Brasil, Argentina, Uruguay y Perú y está patrocinado por la iniciativa del MIT y firmas como AMD, Google y Sun Microsystems.
Entre las entidades más destacadas que usan Linux se encuentra la Bolsa de Nueva York.
Administración Pública [editar]
Hay una serie de administraciones públicas que han mostrado su apoyo al software libre, sea migrando total o parcialmente sus servidores y sistemas de escritorio, sea subvencionándolo. Como ejemplos se tiene a:
Alemania pagando por el desarrollo del Kroupware. Además ciudades como Múnich, que migró sus sistemas a SuSE Linux, una distribución alemana especialmente orientada a KDE.
Australia, pagando por el desarrollo del Kroupware y ordenando por decreto que en todas las escuelas se dedique una parte horaria a enseñar que es Linux.
Brasil, con una actitud generalmente positiva, y, por ejemplo, con el desarrollo de los telecentros
En España, algunos gobiernos autonómicos están desarrollando sus propias distribuciones no sólo para uso administrativo sino también académico. Así tenemos LinEx en Extremadura, Augustux en Aragón, GuadaLinex en Andalucía, LliureX en La Comunidad Valenciana, Molinux en Castilla-La Mancha, MAX en La Comunidad de Madrid, Linkat en Cataluña, Trisquel en Galicia, LinuxGlobal en Cantabria, EHUX en el País Vasco, mEDUXa en la comunidad Canaria, Bardinux en la Provincia de Santa Cruz de Tenerife en Canarias como proyecto de la ULL, Silu en la Provincia de Las Palmas en Canarias como proyecto de la ULPGC y Melinux en la Ciudad Autónoma de Melilla, por el momento. Todas estas distribuciones (a excepción de Linkat) tienen en común el hecho de estar basadas en Debian GNU/Linux o en alguno de sus derivados como Ubuntu.
Chile, donde el Ministerio de Educación y la Universidad de la Frontera (ubicada en Temuco) crearon EduLinux, una distribución que hoy está en más de 1500 escuelas chilenas y funcionando en más de un 90% de las bibliotecas chilenas. Actualmente las Fuerzas Armadas chilenas están planificando la creación de una distribución militar que interconecte a las ramas de la defensa chilena. El gobierno de ese país aprobó el uso del software libre en la administración pública, anulando así un contrato previo con Microsoft para el mantenimiento de las redes y de los equipos en escuelas y bibliotecas chilenas.
China, con su acuerdo con Sun Microsystems para distribuir millones de Java Desktop (una distribución de GNU/Linux en GNOME y especialmente bien integrada con java)
Cuba donde el gobierno ha establecido una indicación oficial para introducir de manera progresiva el software libre y en particular GNU/Linux y en el que la red de Salud Pública, Infomed, fue pionera en su uso. Otras redes como la de educación, Rimed, también están dando sus pasos en la inclusión de distribuciones como sistema operativos para sus entidades. Actualmente se desarrolla una distribución de Linux en la Universidad de la Ciencias Informáticas[27] llamado NOVA.
México: el Gobierno del Distrito Federal dentro de sus políticas y lineamientos en materia de informática da preferencia al uso del Software Libre.[28] La Delegación Tlalpan en el 2005 crea Gobierno GDF/Linux, basada en Fedora[29] y la UNAM creadora del sistema operativo de Linux 100% mexicano llamado Jarro Negro el cual puede instalarse o usarse en forma de LiveCD. México también ha contribuido significativamente al desarrollo del software libre, tal es el caso de la aportación de Miguel de Icaza, uno de los fundadores del entorno de escritorio GNOME y creador del Proyecto Mono entre otros. Miguel de Icaza y sus fuertes críticas hacia la presunta apatía del gobierno de su país (México,) en relación con la forma en la que se insertaba a México en la vida digital, tuvo mucho eco en la comunidad tecnóloga en el país. Propuso un modelo de desarrollo basado en código abierto tanto para el acceso a la red de la comunidad en general, como de desarrollo de aplicaciones gubernamentales. En lugar de esta propuesta, el gobierno de su país decidió pagar a Microsoft para dotar de la infraestructura de software de éste proyecto. Actualmente el proyecto vive en el abandono, como vaticinaba Miguel.
Perú: TumiX, distribución GNU/Linux del tipo LiveCD, está desarrollada en el Perú por iniciativa del grupo de usuarios de software libre Somos Libres.
República Dominicana, promociona el uso y proliferación del Software libre en el campo educativo y científico. Dispone de una fundación con 2 sedes, una en la capital de Santo Domingo y la otra en la ciudad de Santiago.[30] Esta fundación impulsa un anteproyecto de ley que busca que en el estado y la educación de este país tan solo se use Software Libre.
Uruguay ha sido el primer país en el mundo en implementar como estrategia de país el proyecto OLPC mediante su Proyecto Ceibal[31] que brinda un Laptop XO con la distribución basada en Gnu+Linux Sugar. El Plan culminará en 2009 con la inclusión de un Laptop por cada niño de las escuelas públicas de Uruguay.
Venezuela donde por decreto, se estableció el uso preferente del software libre y GNU/Linux en toda la administración pública, incluyendo ministerios y oficinas gubernamentales y se está fomentando la investigación y el desarrollo de software libre. Actualmente la Universidad de Los Andes desarrolla una distribución linux llamada ULAnix basada en Debian y que es la primera creada en ambiente universitario venezolano. Existe una nueva distribución desarrollada por el Ministerio del Poder Popular para las Telecomunicaciones y la Informática, denominada Canaima basada en Debian y se encuentra disponible en un sitio mantenido por el Centro Nacional de Tecnologías de Información.[32]
Como sistema de programación [editar]
La colección de utilidades para la programación de GNU es con diferencia la familia de compiladores más utilizada en este sistema operativo. Tiene capacidad para compilar C, C++, Java, Ada, entre otros muchos lenguajes. Además soporta diversas arquitecturas mediante la compilación cruzada, lo que hace que sea un entorno adecuado para desarrollos heterogéneos.
Hay varios entornos de desarrollo integrados disponibles para Linux incluyendo, Anjuta, KDevelop, Ultimate++, Code::Blocks, NetBeans IDE y Eclipse. Además existen editores extensibles como puedan ser Emacs o Vim que hoy en día siguen siendo ampliamente utilizados. GNU/Linux también dispone de capacidades para lenguajes de guión (script), aparte de los clásicos lenguajes de programación de shell, o el de procesado de textos por patrones y expresiones regulares llamado awk, la mayoría de las distribuciones tienen instalado Python, Perl, PHP y Ruby.
Copyright y denominación [editar]
Véase también: Disputas de SCO sobre Linux
A día de hoy, Linux es una marca registrada de Linus Torvalds en los Estados Unidos[33] .
Hasta 1994 nadie registró la marca Linux en Estados Unidos. El 15 de agosto de 1994 cuando William R. Della Croce, Jr. registró la marca Linux, pidió el pago de royalties a los distribuidores de Linux. En 1996, Torvalds y algunas organizaciones afectadas denunciaron a Della Croce y en 1997 el caso se cerró y la marca fue asignada a Torvalds.[34]
Desde entonces, el Linux Mark Institute gestiona la marca. En 2005 el LMI envió algunas cartas a empresas distribuidoras de Linux exigiendo el pago de una cuota por el uso comercial del nombre, algunas compañías han cumplido con dicha exigencia.[35]
El núcleo Linux y la mayor parte de GNU están licenciados bajo la GNU General Public License (GPL). La GPL exige que cualquiera que distribuya el software debe proporcionar al público el código fuente y cualquier modificación bajo las mismas condiciones. Como curiosidad cabe decir que, en 1997, Linus Torvalds afirmó, "Poner Linux bajo la GPL fue, sin duda alguna, lo mejor que he hecho jamás".[36]
Otros componentes clave del sistema GNU/Linux tienen otras licencias; muchas bibliotecas usan la GNU Lesser General Public License (LGPL), una variedad más permisiva de la GPL y el X Window System usa la MIT License.
Denominación GNU/Linux [editar]
Artículo principal: Controversia por la denominación GNU/Linux
GNU/Linux (GNU con Linux o GNU+Linux) es la denominación defendida por Richard Stallman junto con otros desarrolladores y usuarios para el sistema operativo que utiliza el kernel Linux en conjunto con las aplicaciones de sistema creadas por el proyecto GNU y por muchos otros proyectos de software. En la actualidad existe la tendencia de referirse a este sistema operativo como Linux, aunque por parte del proyecto GNU se sostiene que esta denominación no es correcta.


Richard Stallman, creador del proyecto GNU
Desde 1984, Richard Stallman y muchos voluntarios están intentando crear un sistema operativo libre con un funcionamiento similar al UNIX, recreando todos los componentes necesarios para tener un sistema operativo funcional. A comienzos de los años 90, unos seis años desde el inicio del proyecto, GNU tenía muchas herramientas importantes listas, como editores de texto, compiladores, depuradores, intérpretes de comandos de ordenes etc, excepto por el componente central: el núcleo.
GNU tenía su propio proyecto de núcleo, llamado Hurd. Sin embargo, su desarrollo no continuó como se esperaba al aparecer el kernel Linux. De esta forma se completaron los requisitos mínimos y surgió el sistema operativo GNU que utilizaba el kernel Linux como núcleo del sistema.
El principal argumento de los defensores de la denominación GNU/Linux es resolver la posible confusión que se puede dar entre el núcleo (Linux) y gran parte de las herramientas básicas del resto del sistema operativo (GNU). Además, también se espera que, con el uso del nombre GNU, se dé al proyecto GNU el reconocimiento por haber creado las herramientas de sistema imprescindibles para ser un sistema operativo compatible con UNIX.
GNU
/
Linux

+

Algunas distribuciones apoyan esta denominación, e incluyen GNU/Linux en sus nombres, tal es el caso de Debian GNU/Linux o GNU/LinEx. En el proyecto Debian también existe Debian GNU/Hurd y Debian GNU/kFreeBSD que combinan las aplicaciones de sistema de GNU con esos núcleos. Otras distribuciones, como Fedora, Gentoo o Ubuntu, eligen denominarse "basadas en Linux" [cita requerida].
En ocasiones, el proyecto KDE ha utilizado una tercera denominación: GNU/Linux/X para enfatizar los tres proyectos sobre los que se apoya su entorno de escritorio.
Críticas [editar]
Soporte de Hardware [editar]
Una de las criticas comúnmente extendidas sobre GNU/Linux sostiene que que no todo el hardware actual es soportado por este sistema operativo.
Debido a la naturaleza monolítica del kernel Linux, los controladores de hardware se suelen integrar directamente en el núcleo y dado que el kernel Linux usa la licencia GPL, provoca el rechazo por parte de algunos fabricantes de hardware opuestos a ella. Además, el modelo de desarrollo del kernel Linux y sobre todo su elevado ciclo de lanzamientos que puede provocar cambios que entren en conflicto con algunos controladores de hardware.
Sin embargo, empresas como IBM, Intel, Hewlett-Packard, Dell o MIPS Technologies[37] tienen programadores en el equipo de desarrolladores del kernel que se encargan de mantener los controladores para GNU/Linux del hardware que fabrican. Este grupo de programadores también se le suman los que provee grandes distribuidores de soluciones basadas en Linux como Novell o Red Hat.
Como nota adicional se debe comentar que hay empresas que proporcionan controladores de hardware para Linux pero sin liberar el código fuente. Esto implica que se deba depender de ellas para solucionar posibles errores o mejorar los controladores. Un ejemplo es el caso de Nvidia y AMD, aunque en el caso de esta última es importante aclarar que ayudó a la creación de controladores libres liberando especificaciones sobre su hardware y actualmente colabora en el desarrollo de un controlador libre[38] para sus tarjetas gráficas ATI de última generación[39] .
En resumen, el tópico de que GNU/Linux no soporta todo el hardware sólo se sostiene en algunos casos puntuales, en especial cuando hablamos de hardware relativamente reciente o de alguna empresa que no apoya a este sistema. Sin embargo, resulta curioso que exista hardware que, por su relativa antigüedad, sólo funcione en sistemas operativos basados en GNU/Linux.
Nivel de experiencia [editar]
GNU/Linux al ser un sistema Unix-like ofrece un forma distinta del ver el ordenador respecto a Windows, esto implica que, en algunos aspectos se necesita un cambio de mentalidad por parte del usuario que no siempre puede o está dispuesto a realizar.
Además la gran libertad de configuración que ofrece (normalmente orientada más a entornos de desarrollo o gestión de servidores) tiene como consecuencia directa que si el usuario final quiere aprovecharla al máximo, normalmente, deba poseer conocimientos del ordenador superiores a la media.
Para intentar resolver estos problemas se han creado distribuciones orientadas al usuario final (como Ubuntu, Mandriva u openSUSE) que se centran en mejorar la preconfiguración y la automatización, especialmente en la instalación y puesta a punto del hardware más actual. Así mismo los principales entornos de escritorio, como GNOME y KDE, guardan "ciertas" similitudes con algunos aspectos del escritorio de Windows con la idea de que la transición desde ese sistema operativo sea lo menos traumática posible

Microsoft Windows

Historia
Windows 1.0
Artículo principal: Windows 1.0
En 1985 Microsoft publicó la primera versión de Windows, una interfaz gráfica de usuario (GUI) para su propio sistema operativo (MS-DOS) que había sido incluido en el IBM PC y ordenadores compatibles desde 1981.
La primera versión de Microsoft Windows Premium nunca fue demasiado potente ni tampoco se hizo popular. Estaba severamente limitada debido a los recursos legales de Apple, que no permitía imitaciones de sus interfaces de usuario. Por ejemplo, las ventanas sólo podían disponerse en mosaico sobre la pantalla; esto es, nunca podían solaparse u ocultarse unas a otras. Tampoco había "papelera de reciclaje" debido a que Apple creía que ellos tenían la patente de este paradigma o concepto. Ambas limitaciones fueron eliminadas cuando el recurso de Apple fue rechazado en los tribunales. Por otro lado, los programas incluidos en la primera versión eran aplicaciones "de juguete" con poco atractivo para los usuarios profesionales.
Windows 2.0
Apareció en 1987, y fue un poco más popular que la versión inicial. Gran parte de esta popularidad la obtuvo de la inclusión en forma de versión "run-time" de nuevas aplicaciones gráficas de Microsoft, Microsoft Excel y Microsoft Word para Windows. Éstas podían cargarse desde MS-DOS, ejecutando Windows a la vez que el programa, y cerrando Windows al salir de ellas. Windows 2 todavía usaba el modelo de memoria 8088 y por ello estaba limitado a 1 megabyte de memoria; sin embargo, mucha gente consiguió hacerlo funcionar bajo sistemas multitareas como DesqView.
Windows 3.0
La primera versión realmente popular de Windows fue la versión 3.0, publicada en 1990. Ésta se benefició de las mejoradas capacidades gráficas para PC de esta época, y también del microprocesador 80386, que permitía mejoras en las capacidades multitarea de las aplicaciones Windows. Esto permitiría ejecutar en modo multitarea viejas aplicaciones basadas en MS-DOS. Windows 3 convirtió al IBM PC en un serio competidor para el Apple Macintosh.
OS/2
Artículos principales: OS/2
OS/2 es un sistema operativo de IBM que intentó suceder a DOS como sistema operativo de los PC. Se desarrolló inicialmente de manera conjunta entre Microsoft e IBM, hasta que la primera decidió seguir su camino con su Windows 3.0 e IBM se ocupó en solitario de OS/2.
OS/2.1
Durante la segunda mitad de los 80, Microsoft e IBM habían estado desarrollando conjuntamente OS/2 como sucesor del DOS, para sacar el máximo provecho a las capacidades del procesador Intel 80286. OS/2 utilizaba el direccionamiento hardware de memoria disponible en el Intel 80286 para poder utilizar hasta 16 MB de memoria. La mayoría de los programas de DOS estaban por el contrario limitados a 640 KB de memoria. OS/2 1.x también soportaba memoria virtual y multitarea.
Más adelante IBM añadió, en la versión 1.1 de OS/2, un sistema gráfico llamado Presentation Manager (PM). Aunque en muchos aspectos era superior a Windows, su API (Programa de Interfaz de Aplicaciones) era incompatible con la que usaban los programas de este último. (Entre otras cosas, Presentation Manager localizaba el eje de coordenadas X, Y en la parte inferior izquierda de la pantalla como las coordenadas cartesianas, mientras que Windows situaba el punto 0,0 en la esquina superior izquierda de la pantalla como otros sistemas informáticos basados en ventanas).
A principio de los 90, crecieron las tensiones en la relación entre IBM y Microsoft. Cooperaban entre sí en el desarrollo de sus sistemas operativos para PC y cada uno tenía acceso al código del otro. Microsoft quería desarrollar Windows aún más, mientras IBM deseaba que el futuro trabajo estuviera basado en OS/2. En un intento de resolver estas diferencias, IBM y Microsoft acordaron que IBM desarrollaría OS/2 2.0 para reemplazar a OS/2 1.3 y Windows 3.0, mientras Microsoft desarrollaría un nuevo sistema operativo, OS/2 3.0, para suceder más adelante al OS/2 2.0.
Este acuerdo pronto fue dejado de lado y la relación entre IBM y Microsoft terminó. IBM continuó desarrollando IBM OS/2 2.0 mientras que Microsoft cambió el nombre de su (todavía no publicado) OS/2 3.0 a Windows NT.
(Microsoft promocionó Windows NT con tanto éxito que la mayoría de la gente no se dio cuenta de que se trataba de un OS/2 remozado.) Ambos retuvieron los derechos para usar la tecnología de OS/2 y Windows desarrollada hasta la fecha de terminación del acuerdo.
OS/2 2.0
IBM publicó OS/2 versión 2.0 en 1992. Esta versión suponía un gran avance frente a OS/2 1.3. Incorporaba un nuevo sistema de ventanas orientado a objetos llamado Workplace Shell como sustituto del Presentation Manager, un nuevo sistema de ficheros, HPFS, para reemplazar al sistema de ficheros FAT de DOS usado también en Windows y aprovechaba todas las ventajas de las capacidades de 32 bit del procesador Intel 80386. También podía ejecutar programas DOS y Windows, ya que IBM había retenido los derechos para usar el código de DOS y Windows como resultado de la ruptura.
OS/2 3.0 y 4.0
IBM continuó vendiendo OS/2, produciendo versiones posteriores como OS/2 3.0 (también llamado Warp) y 4.0 (Merlin). Pero con la llegada de Windows 95, OS/2 comenzó a perder cuota de mercado. Aunque OS/2 seguía corriendo aplicaciones de Windows 3.0, carecía de soporte para las nuevas aplicaciones que requerían Windows 95. Al contrario que con Windows 3.0, IBM no tenía acceso al código fuente de Windows 95; y tampoco tenía el tiempo ni los recursos necesarios para emular el trabajo de los programadores de Microsoft con Windows 95; no obstante, OS/2 3.0 (Warp) apareció en el mercado antes que Windows 95 (que se retrasaba respecto a la fecha inicial de lanzamiento); como mejoras incorporaba una reducción en los requisitos de hardware (pasaba de pedir 8 Mb de memoria RAM de su antedecesor OS/2 2.1 a pedir sólo 4 Mb), y como gran añadido, incorporaba el llamado BonusPack, un conjunto de aplicaciones de oficina, comunicaciones, etc que ahorraban el tener que comprar software adicional como en el caso de Windows. Todo esto unido a una gran campaña publicitaria y a un muy reducido precio (el equivalente a unos 59.40 € frente a los 100 € de Windows) provocaron que mucha gente se animase a probarlo en lugar de esperar la llegada de Windows 95. Lamentablemente, el posterior abandono por parte de IBM hizo que fuese quedando relegado (aunque sigue siendo utilizado -cada vez menos- en sectores bancarios por su alta estabilidad).
Windows 3.1 y Windows 3.11
Artículos principales: Windows 3.1 y Windows 3.11
En respuesta a la aparición de OS/2 2.0 , Microsoft desarrolló Windows 3.1, que incluía diversas pequeñas mejoras a Windows 3.0 (como las fuentes escalables TrueType), pero que consistía principalmente en soporte multimedia. Más tarde Microsoft publicó el Windows 3.11 (denominado Windows para trabajo en grupo), que incluía controladores y protocolos mejorados para las comunicaciones en red y soporte para redes punto a punto.
Windows NT
Artículos principales: Windows NT y Windows NT 3.x
Mientras tanto Microsoft continuó desarrollando Windows NT. Para ello reclutaron a Dave Cutler, uno de los jefes analistas de VMS en Digital Equipment Corporation (hoy parte de Compaq, que en 2005 fue comprada por HP) para convertir NT en un sistema más competitivo.
Cutler había estado desarrollando un sucesor del VMS en DEC (Digital Equipment Corporation) llamado Mica, y cuando DEC abandonó el proyecto se llevó sus conocimientos y algunos ingenieros a Microsoft. DEC también creyó que se llevaba el código de Mica a Microsoft y entabló una demanda. Microsoft finalmente pagó 150 millones de dólares y acordó dar soporte al microprocesador Alpha de DEC en NT.
Siendo un sistema operativo completamente nuevo, Windows NT sufrió problemas de compatibilidad con el hardware y el software existentes. También necesitaba gran cantidad de recursos y éstos estaban solamente disponibles en equipos grandes y caros. Debido a esto muchos usuarios no pudieron pasarse a Windows NT. La interfaz gráfica de NT todavía estaba basada en la de Windows 3.1 que era inferior a la Workplace Shell de OS/2
Windows NT 3.1
Windows NT 3.1 (la estrategia de marketing de Microsoft era que Windows NT pareciera una continuación de Windows 3.1) apareció en su versión beta para desarrolladores en la Conferencia de Desarrolladores Profesionales de julio de 1992 en San Francisco. Microsoft anunció en la conferencia su intención de desarrollar un sucesor para Windows NT y Chicago (que aún no había sido lanzada). Este sucesor habría de unificar ambos sistemas en uno sólo y su nombre clave era Cairo. (Visto en retrospectiva Cairo fue un proyecto más difícil de lo que Microsoft había previsto y como resultado NT y Chicago no sería unificados hasta la aparición de Windows XP). Las versiones antiguas de Windows NT se distribuían en disquettes y requerían unos elevados recursos de hardware (además de soportar relativamente poco hardware) por lo que no se difundieron demasiado hasta llegar a Windows NT 4.0 y sobre todo a Windows 2000. Por primera vez daba soporte para el sistema de ficheros NTFS.
Windows NT 3.5/3.51
Cabe destacar que la interfaz gráfica de Windows NT 3.5 y Windows 3.51 era la misma que la de sus predecesores, Windows NT 3.1 y Windows 3.1, con el Administrador de Programas. Por otra parte, Microsoft distribuyó un añadido llamado NewShell, cuyo nombre completo es "Shell Technology Preview Update", que no era otra cosa más que una versión Beta de la nueva interfaz gráfica de Windows 95 y NT 4.0, con el botón y menú inicio, pero para Windows NT 3.5x. Su función principal era que los usuarios de Windows evaluaran el nuevo interfaz gráfico, que iba a ser presentado en Windows 95 y NT 4.0, pero como "daño colateral" le daba a Windows NT 3.5x la nueva interfaz gráfica.
Windows NT 4.0
Windows NT 4.0 presentaba varios componentes tecnológicos de vanguardia y soporte para diferentes plataformas como MIPS, ALPHA, Intel, etc. Las diferentes versiones como Workstation, Server, Terminal server, Advancer server, permitían poder adaptarlo a varias necesidades. El uso de componentes como tarjetas de sonido, módems, etc, tenían que ser diseñados específicamente para este sistema operativo.
Windows 95
Artículo principal: Windows 95
Microsoft adoptó "Windows 95" como nombre de producto para Chicago cuando fue publicado en agosto de 1995. Chicago iba encaminado a incorporar una nueva interfaz gráfica que compitiera con la de OS/2. Aunque compartía mucho código con Windows 3.x e incluso con MS-DOS, también se pretendía introducir arquitectura de 32 bits y dar soporte a multitarea preemptiva, como OS/2 o el mismo Windows NT. Sin embargo sólo una parte de Chicago comenzó a utilizar arquitectura de 32 bits, la mayor parte siguió usando una arquitectura de 16 bits, Microsoft argumentaba que una conversión completa retrasaría demasiado la publicación de Chicago y sería demasiado costosa.
Microsoft desarrolló una nueva API para remplazar la API de Windows de 16 bits. Esta API fue denominada Win32, desde entonces Microsoft denominó a la antigua API de 16 bits como Win16. Esta API fue desarrollada en tres versiones: una para Windows NT, otra para Chicago y otra llamada Win32s, que era un subconjunto de Win32 que podía ser utilizado en sistemas con Windows 3.1.; de este modo Microsoft intentó asegurar algún grado de compatibilidad entre Chicago y Windows NT, aunque los dos sistemas tenían arquitecturas radicalmente diferentes
Windows 95 tenía dos grandes ventajas para el consumidor medio. Primero, aunque su interfaz todavía corría sobre MS-DOS, tenía una instalación integrada que le hacía aparecer como un solo sistema operativo (ya no se necesitaba comprar MS-DOS e instalar Windows encima). Segundo, introducía un subsistema en modo protegido que estaba especialmente escrito a procesadores 80386 o superiores, lo cual impediría que las nuevas aplicaciones Win32 dañaran el área de memoria de otras aplicaciones Win32. En este respecto Windows 95 se acercaba más a Windows NT, pero a la vez, dado que compartía código de Windows 3.x, las aplicaciones podían seguir bloqueando completamente el sistema en caso de que invadiesen el área de aplicaciones de Win16.
Tenía también como novedad el incluir soporte para la tecnología Plug&Play. Windows 95 se convirtió en el primer gran éxito de los de Redmond a nivel mundial. La evolución de Internet y la potencia de los equipos, cada vez más capaces, dio lugar a un binomio en el que Intel y Microsoft dominaban el panorama mundial con solvencia. Los fabricantes comenzaban a volcarse en este sistema a la hora de sacar sus controladores de dispositivos y, aunque con algunos problemas por incompatibilidades inevitables, el éxito de la plataforma fue absoluto.
Más adelante fue lanzada una versión con compatibilidad para USB (1.0) que permitía ejecutarse en computadores (ordenadores) con pocas prestaciones en Hardware. Esta versión salió al mercado en octubre de 1998
Windows 98
Artículo principal: Windows 98
El 25 de junio de 1998 llegó Windows 98. Incluía nuevos controladores de hardware y el sistema de ficheros FAT32 (también soportado por Windows 95 OSR 2 y OSR 2.5) que soportaba particiones mayores a los 2 GB permitidos por Windows 95. Dio soporte también a las nuevas tecnologías como DVD, FireWire, USB o AGP. Era novedosa también la integración del explorador de Internet en todos los ámbitos del sistema.
Pero la principal diferencia de Windows 98 sobre Windows 95 era que su núcleo había sido modificado para permitir el uso de controladores de Windows NT en Windows 9x y viceversa. Esto se consiguió con la migración de parte del núcleo de Windows NT a Windows 98, aunque éste siguiera manteniendo su arquitectura MS-DOS/Windows GUI. Esto permitió la reducción de costes de producción, dado que Windows NT y Windows 98 ahora podían utilizar casi idénticos controladores.
Windows 98 Second Edition (SE)
Artículo principal: Windows 98 SE
A principios de 1998 se desarrolló este sistema operativo, saliendo al mercado a finales de 1998, cuando Microsoft sacó al mercado Windows 98 Second Edition, cuya característica más notable era la capacidad de compartir entre varios equipos una conexión a Internet a través de una sola línea telefónica. También eliminaba gran parte de los errores producidos por Internet Explorer en el sistema. Esta versión es la más estable de todas las de esta serie, y aún se sigue utilizando en muchos equipos, mejorando en sí dos cosas importantes:
1) El grave error de solicitud de licencia que simplemente se puede dejar pasar por alto en la instalación cuando se copian los archivos con extensión ".CAB" (sin comillas) a la unidad de disco duro de la computadora (CPU u ordenador) en la primera versión de este sistema operativo
2) Se corrigen las extensiones de archivo y aplicaciones para una optimización y mejor administración de memoria virtual, reduciendo así los famosos mensajes de error en pantalla azul.
Windows Millenium Edition (ME)
Artículo principal: Windows ME
En 2000 Microsoft introdujo Windows ME, que era una copia de Windows 98 con más aplicaciones añadidas. Windows ME fue un proyecto rápido de un año para rellenar el hueco entre Windows 98 y el nuevo Windows XP, y eso se notó mucho en la poca estabilidad de esta versión. En teoría, Windows 2000 iba a ser la unificación entre las dos familias de Windows, la empresarial y la de hogar, pero por retrasos se lanzó este pequeño avance. En esta versión se aceleraba el inicio del sistema y oficialmente ya no se podía distinguir entre el MS-DOS y el entorno gráfico (aunque aparecieron parches que permitían volver a separarlo como se hacía en versiones anteriores).
Esta versión no traía unidad de proceso de 16 bits y se centró únicamente en la compatibilidad con nuevo hardware de 32 bits. Como consecuencia, sólo funcionaba correctamente con los equipos nuevos que lo tenían instalado, ya que si se instalaba sobre un equipo antiguo (mediante una actualización de software) el hardware de 16 bits era más complejo de configurar, o bien no funcionaba en absoluto.
Cabe destacar que este sistema operativo fue muy poco popular por sus continuos errores y muchas desventajas de uso. Estos inconvenientes hicieron que, salvo en contadas ocasiones, sus usuarios retornaran rápidamente al uso de Windows 98, o bien que dieran el salto a Windows 2000.
Windows 2000
Artículo principal: Windows 2000
En este mismo año vio la luz Windows 2000, una nueva versión de Windows NT muy útil para los administradores de sistemas y con una gran cantidad de servicios de red y lo más importante: admitía dispositivos Plug&Play que venían siendo un problema con Windows NT.
La familia de Windows 2000 estaba formada por varias versiones del sistema: una para las estaciones de trabajo (Windows 2000 Professional) y varias para servidores (Windows 2000 Server, Advanced Server, Datacenter Server).
Windows 2000 incorporaba importantes innovaciones tecnológicas para entornos Microsoft, tanto en nuevos servicios como en la mejora de los existentes. Algunas de las características que posee son:
Almacenamiento:
Soporte para FAT16, FAT32 y NTFS.
Cifrado de ficheros (EFS).
Servicio de indexación.
Sistema de archivos distribuido (DFS).
Nuevo sistema de backup (ASR).
Sistema de tolerancia a fallos (RAID) con discos dinámicos (software).
Comunicaciones:
Servicios de acceso remoto (RAS, VPN, RADIUS y Enrutamiento).
Nueva versión de IIS con soporte para HTTP/1.1.
Active Directory.
Balanceo de carga (clustering)
Servicios de instalación desatendida por red (RIS).
Servicios nativos de Terminal Server.
Estos avances marcan un antes y un después en la historia de Microsoft.
Windows XP (eXPerience)
Artículo principal: Windows XP
La unión de Windows NT/2000 y la familia de Windows 9.x se alcanzó con Windows XP puesto en venta en 2001 en su versión Home y Professional. Windows XP usa el núcleo de Windows NT. Incorpora una nueva interfaz y hace alarde de mayores capacidades multimedia. Además dispone de otras novedades como la multitarea mejorada, soporte para redes inalámbricas y asistencia remota. Se puede agregar que inmediatamente después de haber lanzado el último Service Pack (SP2), Microsoft diseñó un sistema orientado a empresas y corporaciones, llamado Microsoft Windows XP Corporate Edition, algo similar al Windows XP Profesional, solo que diseñado especialmente para empresas. En el apartado multimedia, XP da un avance con la versión Media Center(2002-2005). Esta versión ofrece una interfaz de acceso fácil con todo lo relacionado con multimedia (TV, fotos, reproductor DVD, Internet...).
Windows Server 2003
Artículo principal: Windows Server 2003
Sucesor de la familia de servidores de Microsoft a Windows 2000 Server. Es la versión de Windows para servidores lanzada por Microsoft en el año 2003. Está basada en el núcleo de Windows XP, al que se le han añadido una serie de servicios, y se le han bloqueado algunas de sus características (para mejorar el rendimiento, o simplemente porque no serán usadas).
Windows Vista
Artículo principal: Windows Vista
Windows Vista apareció en el mercado el 30 de enero de 2007. Cabe destacar los continuos retrasos en las fechas de entrega del sistema operativo. Inicialmente se anunció su salida al mercado a inicios-mediados de 2006; posteriormente y debido a problemas durante el proceso de desarrollo, se retrasó su salida hasta finales de 2006. El último retraso trasladó la fecha hasta finales de enero de 2007. Estos continuos retrasos han llevado a Microsoft a tomar diversas medidas para minimizar los gastos extras derivados de los retrasos. Por ejemplo, en Argentina, se podrá comprar Windows Vista con un "ticket" que la persona adquiere al momento de comprar un nuevo PC que no tiene instalado todavía Windows Vista. Podrán canjear el "ticket" por una copia original de Windows Vista y así actualizar su sistema. También cabe destacar que Windows Vista trae una nueva interfaz gráfica llamada Aero, que es una evolución de la interfaz gráfica denominada Luna de Windows XP.
Este sistema operativo, como el Windows ME, ha sido criticado por su falta de compatibilidad, entre otras cosas, haciendo que la mayoria de los usuarios regresen a su antecesor Windows XP o migrar a Mac OS X o Linux.
Windows Server 2008
Artículo principal: Windows Server 2008
Al igual que su sucesor, Windows Server 2003 se basaba en la última version del SO doméstica publicada. Éste se basa en Windows Vista en cuanto a su interfaz Aero, mucho más amigable y sencilla, y en Windows Server 2003 SP2.
Windows 7
Artículo principal: Windows 7
Es la siguiente versión de Windows actualmente en Beta, la cual es sucesora a Windows Vista. Según Microsoft, "no se está creando un nuevo kernel para Windows 7, solo se está retocando y refinando el kernel de Windows Vista"[1] además Microsoft asegura se que necesitarán los mismos recursos que Windows Vista[2] . Algunas fuentes indican que Windows 7 se terminará de desarrollar a finales de 2009.
A pesar de los rumores recientes de que Windows 7 saldría a la venta en 2009, las últimas declaraciones de Bill Gates vuelven a poner como fecha de salida de este nuevo sistema operativo para 2010, estando disponible en 2009 una versión para Betatesters, y no para el usuario final.
Versiones para Tablet PC
Windows XP Tablet PC Edition
Versiones para dispositivos móviles
Windows CE
Windows Mobile
Windows XP Embedded
Aplicaciones populares de Windows
A continuación se muestran las herramientas más usadas y conocidas que incluye por defecto el sistema operativo Microsoft Windows. Contiene muchas más aplicaciones, pero mucho menos conocidas; la mayoría incluyen un nombre más o menos genérico en inglés, y algunas de ellas no se han actualizado o mejorado hace muchos años, como por ejemplo, el programa Paint. Sin embargo, las más usadas por las organizaciones se han ido actualizando, como es el caso de Internet Explorer y del Reproductor de Windows Media.
Internet Explorer
Artículo principal: Internet Explorer
Microsoft Windows Internet Explorer (también conocido antes como Internet Explorer, IE o MSIE) es un navegador de Internet producido por Microsoft para su plataforma Windows y más tarde para Apple Macintosh y Solaris Unix. Las versiones para estos dos últimos sistemas fueron descontinuadas en el 2006 y 2002 respectivamente.
Fue creado en 1995 tras la adquisición por parte de Microsoft del código fuente de Mosaic, un navegador desarrollado por Spyglass, siendo rebautizado entonces como Internet Explorer. Actualmente es el navegador de Internet más utilizado y conocido en el mundo, rebasando en gran medida a las competencias existentes, aun cuando algunas de éstas han incrementado su popularidad en los últimos años. Las primeras versiones, basadas en Mosaic, no supusieron ninguna amenaza para el entonces dominante Netscape Navigator, ya que eran bastante simples y no eran compatibles con algunas de las extensiones más populares de Netscape que dominaban la web de la época (como los marcos o JavaScript).
Reproductor de Windows Media
Artículo principal: Reproductor de Windows Media
Windows Media Player, Reproductor Multimedia de Windows o Reproductor de Windows Media' (abreviado frecuentemente WMP) es un reproductor multimedia creado por la empresa Microsoft. Se han lanzado varias versiones del reproductor. Actualmente la versión 11 es la última existente, que se incluye con Windows Vista, existiendo también una versión para Windows XP. Permite reproducción de varios formatos como lo son Audio CD, DVD-Video, DVD-Audio, WMA (Windows Media Audio), WMV (Windows Media Video), MP3, MPG, AVI, entre otros, siempre y cuando, se dispongan de los codecs. Incluye acceso a video en formato digital en servidores de pago.
También da la posibilidad de pasar canciones de un CD al disco duro de la computadora, y al contrario, de la computadora a un CD de música o de datos.
Además busca por Internet los nombres de las canciones y álbumes, y muestra la carátula del disco del cual provienen dichas canciones.
Otra gran función, que potencia su uso es la Biblioteca de Windows Media, que permite la creación de listas de reproducción, administración de música y edición de las etiquetas avanzadas; por ejemplo, se puede incluir la letra de la canción sincronizada para que se vea cuando se reproduzca.
Paint
Artículo principal: Microsoft Paint
Microsoft Paint (cuyo nombre original era Paintbrush) fue desarrollado en el año 1982 por la recién creada Microsoft, a cargo del programador de computadoras Bill Gates. Paint ha acompañado al sistema operativo Microsoft Windows desde la versión 1.0; Siendo un programa básico, es incluido en las nuevas versiones de este sistema. Desde los comienzos del Paint, los niños fueron los primeros en utilizarlo; es por ello que actualmente se utiliza este sistema incluso para la enseñanza básica en las escuelas.
Sistema de archivos
Artículos principales: FAT, FAT32 y NTFS
El sistema de archivos utilizado por estos sistemas operativos comenzó siendo FAT16 o simplemente FAT. La primera versión de Windows en incorporar soporte nativo para FAT32 fue Windows 95 OSR2. Por otro lado, los Sistemas Operativos basados en NT emplean los sistemas de archivos NTFS desde el origen y a partir de Windows 2000 se otorgó también soporte para FAT32.
Véase también: Sistema de archivos
Mercado y uso
Con la adopción por numerosas empresas fabricantes de PC, la mayoría de computadoras son vendidas con Microsoft Windows pre-instalado, esto a su vez la Unión Europea considero que violaba la ley antimonopolio con lo cual se les obligo a los fabricantes retirarlos del mercado.
Mercado
Numerosos estudios cuantitativos sobre software de código abierto están orientados a tópicos como la cuota de mercado y la fiabilidad, muchos de estos estudios examinan específicamente a Windows y Linux.[3]
Hay varias empresas que comercializan soluciones basadas en Windows: RadioShack, INEGI, Rayovac, HSBC, así como varios estados de México que ofrecen productos o servicios basados en esta tecnología.

Seguridad
Una de las principales críticas que con frecuencia reciben los sistemas operativos Windows es la debilidad del sistema en lo que a seguridad se refiere y el alto índice de vulnerabilidades críticas. El propio Bill Gates, fundador de Microsoft, ha asegurado en repetidas ocasiones que la seguridad es objetivo primordial para su empresa.[4]
Partiendo de la base de que no existe un sistema completamente seguro, son muchos los estudios que pretenden evaluar la seguridad de los sistemas operativos más frecuentes (Windows, Linux, Mac OS ...). Sin embargo, estos estudios son con frecuencia sesgados y sus criterios son sometidos a los intereses de las empresas auditoras y sus socios.
Como característica general del software no libre, uno de los pilares en que se basa la seguridad de los productos Windows es la seguridad por ocultación.
Criticas y polémicas
Windows, ya desde sus inicios, ha estado envuelto en la polémica. Al principio se decía que Windows era una copia del sistema operativo de Apple; más adelante se hablaba de si existía competencia desleal con algunos programas que se incluían dentro del sistema. Con la aparición del Software Libre las polémicas se orientan a si Microsoft debe publicar el código fuente de su sistema operativo o no[cita requerida]. Algunos afirman que Windows y Linux KDE poseen cierto parecido estético, especialmente Windows XP y KDE 3[cita requerida].
Desde la salida de Windows 95, Windows ha sido el Sistema Operativo más popular y usado entre usuarios, superando numéricamente a Apple y a otros fabricantes; también se le llama el SO "básico", ya que debido a su popularidad, la mayoría de software son realizados para plataformas de Windows. También por su facilidad de uso para principiantes.
Las mayores criticas que recibió Windows hasta la versión Windows XP Service Pack 2 era la estabilidad del sistema, el sistema operativo presentaba varios fallos de distinta índole y gravedad, los cuales fueron disminuyendo con el correr de las versiones. desde Microsoft siempre expresaron que estos fallos se debían a aplicaciones externas a Windows, pero algunos fallos se producían apenas instalado el sistema, sin siquiera haber agregado programa alguno[cita requerida].
Otra crítica que se le hace al sistema, específicamente a Windows Vista, es la gran cantidad de recursos del sistema que ocupa, estando "sobrecargado" de objetos, los cuales hacen que los computadores de hoy no soporten adecuadamente el sistema y no ofrezcan al usuario una experiencia fluida de uso.
Debido al fracaso de Windows Vista, Microsoft lanzó un parche para "downgrading" a Windows XP en las versiones Business, Entreprise y Ultimate.[5]