ASUS anuncia dos nuevas tarjetas madre basadas en el chipset Intel Z77, diseñadas para los recientes microprocesadores Intel Ivy Bridge-DT, las que promociona como “opciones económicas”; las nuevas tarjetas son:
ASUS P8Z77-V LK
Las más avanzada de entre las dos nuevas tarjetas madre, posee disipadores para las VRM, y tres ranuras PCIe 16X, capaces de funcionar en el modo 8X+8X+4X siendo compatibles con los modos multi-GPU 3-Way SLI/CrossFireX; además posee seis puertos SATA (2 SATA-3 y 4 SATA-2), seis puertos USB 3.0 (2 nativos y 4 gracias a un controlador USB 3.0 Asmedia). El precio sugerido de esta tarjeta madre es US$ 150.
ASUS P8Z77-V LX
La más modesta de las dos nuevas tarjetas madre de Asus, pero no por ello carente de calidad. La tarjeta madre posee dos ranuras PCIe 16x capaces de funcionar en el modo 8x+8x siendo compatibles con el modo multi-GPU 2-Way SLI/CrossFireX; además posee seis puertos SATA (2 SATA-3 y 4 SATA-2), dos puertos USB 3.0. El precio sugerido de esta tarjeta madre es US$ 140.
Intel hace apenas cinco días lanzó sus nuevos microprocesadores Ivy Bridge-DT e Ivy Bridge-MB, sus primeros CPU con un IGP DirectX 11 y soporte a cómputo acelerado por GPU (GPGPU) a través del API paralela estándar OpenCL 1.1; soporte que fue activado hace poco con el lanzamiento del ICD Intel SDK for OpenCL Applications 2012. Desde Geeks3D nos llega un mini-review mostrando las capacidades GPGPU del IGP HD Graphics 4000, el más potente de los IGP de Intel.
En efecto, el ICD (Instalable Client Driver) Intel SDK for OpenCL Applications 2012 proporciona soporte a OpenCL acelerado por GPU, el cual es correctamente detectado por las aplicaciones compatibles con el API.
Los de Geeks3D realizaron algunos test a un Ivy Bridge-DT cuádruple núcleo funcionando a 2.2GHz con el IGP HD Graphics 4000:
QJulia 4D demo, 600×600 (ventana):
Ivy Bridge HD 4000 OpenCL GPU test: 35 FPS
Ivy Bridge OpenCL CPU test: 15 FPS
Geforce GTX 680: 200 FPS
PostFX demo, 600×600 (ventana):
Ivy Bridge HD 4000 OpenCL GPU test: 20 FPS
Ivy Bridge OpenCL CPU test: 5 FPS
Geforce GTX 680: 120 FPS
Los resultados son algo mixtos, en algunas situaciones no siempre el rendimiento OpenCL por GPU supera al rendimiento por CPU en el ejemplar probado; pero en términos generales OpenCL acelerado por GPU muestra un mayor rendimiento, y si contamos con que algunas aplicaciones son capaces de usar ambos modos a la vez (CPU y GPU) tendremos que siempre OpenCL por CPU aportará en algo de rendimiento a su versión acelerada por GPU.
Los resultados no son nada malos considerando que esta es la primera implementación de OpenCL acelerado por GPU que realiza Intel, y quizá posteriores versiones del ICD añadan algo más de desempeño.
Desde mediados de octubre del año pasado, fecha en la que Tailandia se vio azotada por inundaciones que cobraron muchas vidas y dejaron serios daños a la infraestructura de muchas empresas entre ellas a las fabricantes de discos duros. Se ha informado sobre la lenta recuperación de las afectadas, y la “gran crisis” en la que quedó el mercado de los discos duros al reducirse notablemente el volumen de producción, lo que originó que el exceso de la demanda eleve considerablemente el precio de los discos duros.
La inundación fue real, la crisis una farsa bien orquestada por los fabricantes de discos duros. ¿Por qué decimos ello? Pues porque tanto Seagate como Western Digital anunciaron sus resultados financieros para el Q1 de este año (ventas de los meses de enero, febrero y marzo), y ambas informaron mejores resultados con un mayor volumen de ventas que en el mismo periodo del año pasado, mucho antes de las inundaciones causaran algún problema. ¿Dónde está la supuesta crisis que fuerza los altos precios actuales?
Los de Softpedia condenan el duopolio de la dupla Seagate y Western Digital, los que a su vez son los poseedores de las divisiones de discos duros de Samsung y Hitachi respectivamente.
Con más de mil trescientos millones de habitantes y un sistema de gobierno comunista no sorprende la noticia. Como ya ha ocurrido en otras ocasiones, China busca un conjunto de instrucciones estándar. Un conjunto de instrucciones, definido por las siglas ISA en inglés, son aquellas operaciones de bajo nivel que son capaces de ejecutar los microprocesadores y sobre las que se implementan soluciones como los sistemas operativos.
La búsqueda de un conjunto de instrucciones nacionales parece no gustar a las compañías desarrolladoras como ARM. Pero más allá de la unificación de hardware, el siguiente paso de la evolución podría seguir por una nacionalización del software que impusiera funcionalidades y estándares.
Y es que el gobierno chino espera que ese nuevo conjunto de instrucciones evite la dependencia de propiedad intelectual situada fuera de sus fronteras. Parece que son pasos que van hacia una dirección totalmente contraria a lo que se venía viendo, no obstante son noticias importantes que merece la pena seguir con detenimiento.
El nuevo iPad viene equipado con una espectacular pantalla que según
Apple “debido a la alta densidad de elementos de imagen (píxels) de la
pantalla “Retina”, el ojo humano es incapaz de distinguirlos”. ¿Es
cierto? El físico y óptico Pablo Artal, también algo fanboy responde en dos excelentes posts.
Retina es un display de 2048x1536 pixels frente el antiguo
diplay del iPad2 que tenía una resolución de 1024x768 pixels. Esto
supone 10,4 pixels por mm frente a los antiguos 5,2 pixels/mm. Más de 3
millones de pixels frente a 800.000 lo que supone 4 veces más. Dado que
el tamaño de los dos displays es el mismo, en un antiguo pixel caben 4 de los nuevos.
La distancia media de lectura de una tableta es de 33 cm. por lo que el
ángulo de visión de un nuevo pixel es de 1 minuto de arco mientras que
el pixel de un iPad2 ocupaba un ángulo de 2 minutos de arco.
¿Cuánto ve un ojo humano? Un ojo de una persona joven con buena visión es capaz de distinguir un ángulo de 1 minuto de arco.
Es decir, un joven con buena visión sí es capaz de distinguir un pixel de un nuevo iPad.
Pero en cuanto no sea tan joven o no tenga la visión tan buena, ya no
será capaz. Dicho de otra forma, es cierto el postulado de Apple: la mayoría no somos capaces de distinguir un pixel en una Retina. Respecto al antiguo iPad2, la inmensa mayoría si podíamos distinguir los pixels con claridad. Parece claro que Retina está en el límite de lo que el ojo humano puede distinguir,
y que pantallas de resolución superior no tendrán un efecto mejor. O
como dice el profesor Artal, es un excelente compromiso y encaja
perfectamente con la mayoría de los ojos.
En un segundo post, Pablo Artal discrepa de que el término Retina
sea el adecuado ya que la retina humana es muy superior. Aquí se
mezclan dos conceptos, la comparación entre ambas y el nombre comercial.
Es cierto que la retina es muy superior a Retina,
como dice Artal. Cada pixel de los 3 millones que contiene el
dispositivo ocupa 96 micrómetros. La retina contiene unos 120 millones
de bastones (para visión nocturna) y 7 millones de conos (para visión
diurna y en color). Cada cono ocupa 2,5 micrómetros. Es decir, los
pixels de Retina son 40 veces más grandes que los conos de la
retina por lo que en un pixel caben 1.500 conos. Y no solo eso, la
retina abarca 200 grados y Retina 30 grados. Además, el contraste de Retina va de 1 a 1000 y el de la retina de 1 a 1000 millones. Y respecto de los colores, Retina es capaz de mostrar solo una pequeña gama de los colores que la retina puede percibir.
Respecto al nombre, las empresas son muy libres de elegir los nombres comerciales. Los ingenieros de Apple, que han construido un excelente producto, no pretenden superar ni siquiera acercarse a una de las maravillas de la evolución, la retina humana. En mi opinión, Retina es un nombre tan bueno como cualquier otro, incluso diría que es muy bueno. Y como escribe el profesor Artal
Pero debo confesar… que a pesar de las críticas anteriores, paso horas
cada día con el iPad y que la pantalla del nuevo es claramente superior a
la anterior. Y que no pude esperar más de dos días para tener el nuevo
iPad deseando ver su nueva pantalla!
El efecto del malware llamado Flashback sigue activo en algunos ordenadores de Apple, y como consecuencia se ha reavivado el debate acerca de si los Mac siguen siendo tan seguros como antes o si ha terminado su época de "inmunidad" debido a que su adopción es cada vez mayor. Eugene Kaspersky lo tiene claro, y según él Apple lleva diez años de retraso "en términos de seguridad" respecto a Microsoft.
El fundador y CEO de Kaspersky Lab, compañía que detectó las amenazas de malware recientes para OS X, afirma que aunque el objetivo favorito de los hackers sigue siendo Windows "era cuestión de tiempo y de cuota de mercado" de que el peligro en OS X creciera. Añade, además, que Apple debería ser más rápida a la hora de ofrecer parches de seguridad de su sistema operativo si quiere seguir presumiendo de tener una plataforma más segura que Windows.
La disputa está servida: ¿Sigue siendo OS X tan seguro como antes o simplemente ha captado la atención de los creadores de virus? Por supuesto, y como mencionan nuestros vecinos en Applesfera, la mejor protección por el momento es tomar precauciones antes de navegar por webs con advertencias de seguridad y abrir archivos o aplicaciones de dudosa confianza.
Continuamos con esta serie de artículos rememorando nuestros clásicos del software, esos productos viejunos que todos hemos toqueteado de jóvenes.
Nos vamos a situar, concretamente, en abril de 1998. Microsoft estaba de fiesta: estaba enseñando al mundo lo que internamente había estado llamando Memphis. Windows 98 venía para sustituir a Windows 95 y tenía razones de peso para hacerlo.
Por fuera: casi todo igual, casi todo en el mismo sitio, pero todo mejor
El primer PC que entró en mi casa fue un Pentium de los que dividían bien, funcionando a 150Mhz, con 32MB de RAM, un disco duro de 3GB y Windows 98, junto con Office 97. Recuerdo haber pasado horas trasteando con él y recordando todo lo que aprendí en la biblioteca. Aunque en la biblioteca lo que existían eran PC con Windows 95.
Y es que Windows 98, cuando lo encendíamos, parecía Windows 95. La interfaz es básicamente la misma, el combo barra de tareas-botón de inicio sigue en el mismo lugar y con la misma funcionalidad que en la versión anterior, y todo está prácticamente en el mismo sitio.
No obstante esta versión de Windows incluyó numerosos cambios en la interfaz de usuario. El más llamativo fue que el explorador de archivos y el de Internet se encontraban unidos, juntos y revueltos. Esto permitía que pudiéramos personalizar la vista de ciertas carpetas mediante plantillas HTML, o que pudiéramos insertar widgets HTML en nuestro escritorio. Incluso podíamos poner una página Web como fondo de pantalla.
Y a estas alturas de la película todos conocemos los problemas de seguridad que acarreó este cambio y por qué Microsoft acabó por desecharlo. Originalmente Windows 98 incluía por defecto Internet Explorer 4.01 y estaba preparado para funcionar en Internet, incluyendo herramientas como Outlook Express o Frontpage (en algunas versiones).
Por dentro: muchas mejoras pero poco conocidas
Windows 98, por fuera, era prácticamente igual a Windows 95 (con las enormes salvedades que hemos tratado en el apartado anterior). Pero por dentro incluía mejoras técnicas que bien hacían valer la actualización. Aunque los early adopters tuvieran que pagar dos veces (luego explicaré por qué).
Por ejemplo, esta versión de Windows ya soportaba el nuevo modelo de drivers, WDM (Windows Driver Model), si bien fue un hecho poco conocido y provocó que los fabricantes continuaran desarrollando drivers VxD (como habían estado haciendo hasta entonces). Esto desembocó en algo muy curioso: hardware más moderno y que teóricamente no funcionaba en Windows 98 sí que funcionaba en este sistema operativo instalando drivers para Windows 2000 o XP.
Windows 98 también tuvo un soporte mucho mejor para dispositivos USB. Incluía por defecto drivers para escáners, hubs, teclados y ratones USB (el soporte para impresoras y discos USB no venía por defecto: otros fabricantes desarrollaron sus propios drivers).
También había soporte Plug’n‘play, que teóricamente nos permitía poder conectar un dispositivo al ordenador sin necesidad de reiniciarlo. En el vídeo superior, perteneciente a la presentación de esta característica de Windows 98, podemos ver… bueno, que la característica estaba pero que muchas veces no funcionaba tan fina como debería.
Otras mejoras estaban relacionadas con ACPI (Windows 98 fue la primera versión de Windows en soportarlo), siendo capaz de suspenderse e hibernar (si bien confieso que en mi viejo Pentium nunca fui capaz de hacerlo), así como mejoras de rendimiento bastante importantes. En ordenadores portátiles también hubo mejoras relacionadas con la gestión de energía.
Y es interesante mencionar que todavía arrastraba bastante código de Windows 3.1, por lo que su núcleo seguía siendo híbrido 16/32 bits, aunque requería obligatoriamente de un procesador con coprocesador matemático (el 386 barato, sin unidad de coma flotante no era capaz de ejecutar Windows 98).
La segunda edición: la que casi todos conocimos
Windows 98, como podemos imaginar, tuvo actualizaciones. Y la más importante fue Windows 98SE, una segunda versión de Windows 98 con numerosas mejoras respecto a su predecesora. Lanzada un año más tarde que la original, su principal problema para los early adopters es que éstos tuvieron que pagar dos veces por Windows 98, dado que la actualización no fue gratuita.
Windows 98SE incluía por defecto Internet Explorer 5 y un gritón de mejoras, como la posibilidad de compartir una conexión a Internet vía NAT, mejoras en DirectX, Wake-on-LAN si la placa base y laBIOS lo soportan y están presentes los drivers necesarios, compatibilidad con WebDAV (lo que se llamaron “Web folders”) y el parche que permitía que el sistema no se petara si lo manteníamos encendido por más de 2³² mili-segundos.
Windows 98: también tardó en desaparecer
Windows 98 ha sido proclamado por muchos como uno de los productos más robustos y estables de Microsoft, sobre todo si miramos a los primeros tiempos (es decir, a los anteriores al segundo Service Pack) de Windows XP. Y ha podido funcionar realmente bien y con software relativamente actualizado hasta hace relativamente poco tiempo.
Por ejemplo, era posible instalar Office XP (lanzado en 2002) en ordenadores con ese sistema operativo. Las primeras versiones del framework .NET también estaban preparadas para funcionar en él, así como Internet Explorer 6 y Windows Media Player 9. Si estoy seguro de que permanece instalado y funcional en alguno de los ordenadores de los que tenemos en nuestros trasteros.
Windows 98 fue la base para Windows Me, sistema operativo que muchos odian y que fue el último de la rama de Windows que funcionaba por encima de MS-DOS. A partir de ahí todo es historia: Windows XP como fusión de ambas ramas, etcétera.
Sin más que decir sobre Windows 98, comentaros que en pocos días veréis una nueva entrega de este especial Clásicos del Software, aunque no lo dedicaremos a un sistema operativo, sino a una aplicación. Os invito a que intentéis adivinar de cuál se trata.
El estándar DDR3 lleva seis años en uso, lo que es más que lo que duraron la DDR
y la DDR2. La razón parece ser que, sencillamente, no ha sido necesario
cambiarlo: el ancho de banda que permite ha sido hasta ahora
suficiente. Todo llega a su fin, sin embargo, y la DDR4 ya se acerca:
este mismo año se acaban de definir las especificaciones, y se empezarán
a distribuir muestras entre las compañías fabricantes. Aún queda para
que podamos instalar la DDR4 en nuestros PC, pero podemos daros algunos
datos de lo que podemos esperar gracias a VR-Zone.
Las
velocidades iniciales serán DDR4-2667 y DDR4-3200, y se espera que
asciendan hasta DDR4-4000 y DDR4-4266 rápidamente. Para mejorar la
latencia, habrá más bancos de memoria en cada die, con un total de 16.
El ahorro energético será también patente, con 1,2 V como voltaje
estándar, que puede reducirse hasta 1,05 V en el caso de la DDR4L. Otros
cambios en el diseño irán orientados a reducir al mínimo la latencia,
lo que ayudará a solucionar la alta latencia que se prevé en los
primeros modelos: DDR4-3200 tendrá inicialmente una latencia de CL15.
De todas formas, no esperamos tener modelos comerciales hasta 2014, a no ser que Samsung consiga adelantarlo, así que recibiréis muchas más noticias por nuestra parte.
Dedicamos la sección de historia de la tecnología a un personaje clave dentro del mundo de la electrónica, Robert Noyce,
uno de los grandes impulsores del Silicon Valley (de hecho se le
apodaba el “Alcalde de Silicon Valley”, co-fundador de Fairchild
Semiconductor y co-fundador de Intel. En estas dos aventuras
empresariales, Noyce formó equipo con Gordon Moore,
otra persona que también se convirtió en uno de los puntales de la
ingeniería electrónica y cuya ley enunciada en 1965 aún sigue vigente y
es fuente de alguna que otra discusión sobre su validez.
Gordon Earl Moore nació en San Francisco (California) el 3 de enero de 1929, aunque su familia era de Pescadero,
localidad en la que creció. Pasó dos años en la Universidad Estatal San
José (donde conocería a su esposa Betty) para pasar a la Universidad de
California en Berkeley donde se graduó en Ciencias Químicas. En 1954
obtuvo el doctorado en Química en el Instituto Tecnológico de California
(Caltech) además de graduarse en Ciencias Físicas y, en 1956, realizó
un trabajo post-doctoral en el Laboratorio de Física Aplicada de la
prestigiosa Universidad Johns Hopkins.
William Shockley,
premio Nobel de Física en 1956, abandonó su puesto en los laboratorios
Bell y fundó su propia compañía, Shockley Semiconductors Laboratory, en
Palo Alto (California) para trabajar en el campo de los dispositivos
electrónicos semiconductores. Intentó provocar una fuga de cerebros en
Bell hacia su empresa pero ninguno de sus antiguos compañeros se unieron
a él así que decidió buscar talento en el mundo de la universidad.
Shockley sumó a su proyecto a 12 jóvenes doctores, entre los que se
encontraba Gordon Moore, Julius Blank,
Victor Grinich, Jean Hoerni, Eugene Kleiner, Jay Last, Sheldon Roberts y
Robert Noyce. Estos 8 jóvenes doctores terminaron saliendo de la
compañía por las desavenencias con Shockley, convirtiéndose en los 8 traidores del Silicon Valley que fundarían Fairchild Semiconductor en 1957.
Durante su estancia en Fairchild Semiconductor, Moore publicaría un
artículo de investigación que marcaría el mundo de la ingeniería
electrónica. El 19 de abril de 1965, la revista Electronics publicó un documento escrito por Moore
en el que expresaba, en base a sus observaciones, una visión sobre la
complejidad de los circuitos integrados y los costes de fabricación. El
enunciado, conocido como la Ley de Moore,
indicaba que, aproximadamente, cada 18 meses se duplica el número de
transistores que se incluyen en un circuito integrado y su coste, a
pesar de la complejidad, también se reduciría .
La complejidad de los componentes se ha multiplicado aproximadamente
por 2 cada año. A corto plazo, se puede esperar que esta tasa se
mantenga o incluso que aumente. A largo plazo, la tasa de crecimiento es
menos predecible, aunque no hay razón para creer que no permanecerá
constante por lo menos durante otros 10 años. Es decir, en 1975 el
número de componentes en cada circuito integrado de bajo coste será de
65.000. Creo que un circuito tan grande puede construirse en una única
oblea de silicio
Habíamos duplicado más o menos cada año desde el primer transistor.
Habíamos subido a 64 en seis años, así que dije “¡Ah!, se está
duplicando cada año. Vale, entonces podría seguir así durante 10 años
más”. Así que extrapolé un factor de incremento de mil veces en la
complejidad de los circuitos, no esperando ninguna precisión, pero
queriendo remarcar la idea de la forma en que los transistores se iban a
usar
Gordon Moore permanecería en Fairchild Semiconductor
hasta el año 1968, momento en el que se unió a Robert Noyce para
emprender un nuevo proyecto: Intel Corporation,
donde ejercería de Vicepresidente ejecutivo hasta el año 1975, momento
en el que se convirtió en presidente de la compañía y CEO y en 1979
sumaría a sus cargos el del miembro de la junta directiva de la
compañía. Ya estando en Intel, en 1975, Moore actualizó su Ley para
aumentar a dos años el período de tiempo en el que se duplicaba el
número de transistores existentes en un circuito integrado (algo que se ha estado cumpliendo
hasta nuestros días).
Además, desde el punto de vista económico, la Ley
de Moore mostraba que los costes decrecían también de manera
exponencial, haciendo que los circuitos integrados cada vez fuesen más
baratos de producir gracias a la depuración de los procesos de
fabricación (extendiendo su uso en todo tipo de aplicaciones).
Moore estuvo a la cabeza de Intel hasta abril de 1987,
momento en el que abandonó su puesto de CEO aunque siguió vinculado a
la compañía como miembro emérito de la junta directiva (cargo que aún
ostenta). Desde entonces, Moore se ha convertido en un mecenas de la
investigación y ha donado dinero al CalTech (600 millones de dólares) y
ha aportado fondos para la construcción del mayor telescopio óptico (el TMT) entre otras donaciones.
Gordon Moore es miembro de la Academia Nacional de Ingeniería de
Estados Unidos y de la Real Sociedad de Ingeniería de Reino Unido, ha
sido galardonado con la Medalla Nacional de Tecnología y la Medalla
Presidencial de la Libertad en Estados Unidos y la Medalla de Honor del
IEEE por sus aportaciones al mundo de la electrónica y su liderazgo en
el desarrollo de las memorias basadas en transistores MOS.
Continuamos con una nueva entrega de nuestro especial Clásicos del Software. Nos ponemos en situación. Estamos a finales de agosto de 1995 y Microsoft está a punto de lanzar lo que fue una revolución en su sistema operativo. Windows 95 fue un producto que sentó las bases de lo que la mayoría de nosotros entiende por un ordenador. Una agresiva campaña publicitaria permitió, entre otras cosas, ver el Empire State Building iluminado con los colores de Windows, un anuncio con música de los Rolling Stones o a Matthew Perry y Jennifer Aniston explicando en una cyber-sitcom las bondades de este sistema operativo.
Y las mejoras respecto a su predecesor, Windows 3.11, son notables. Las más evidentes fueron las relativas a la interfaz de usuario: fue en Windows 95 cuando vio la luz el pack formado por la barra de tareas y el botón/menú de Inicio que se ha conservado prácticamente intacto hasta Windows Vista (en Windows 7 ya se atrevieron a hacer algunos cambios).
De la nueva interfaz de usuario: más que un simple cambio
Se puede decir que la interfaz gráfica de la cuarta generación de sistemas operativos de Microsoft sentó las bases de lo que hemos visto en las siguientes versiones de Windows, tanto en la rama 9x como en la rama NT. Y el horrible vídeo la verdad es que hace un buen trabajo enumerando las bondades de aquella versión del sistema operativo de Microsoft.
Algo de lo que estoy seguro de que la inmensa mayoría de nosotros, cuando encendió el primer ordenador de su vida (en su casa, en el colegio, o en una biblioteca como fue mi caso), lo primero que vio fue un escritorio con cuatro iconos, una barra gris abajo y un botón abajo a la izquierda que decía “Inicio”. “¿Qué será eso de Inicio?”, me pregunté allá con ocho años, cuando lo vi por primera vez. Luego aprendí a usar el ratón y lo descubrí por mí mismo.
Luego, investigando, trasteando y rompiendo cosas, descubriríamos las bondades de Internet Explorer (en sus versiones entre 2 y 4), veríamos nuestros primeros pantallazos azules y, si sabíamos cómo apagar el equipo (yo no aprendí hasta mis primeras clases de informática), esperaríamos pacientes a que apareciera aquel mensaje rojo con el texto “Es seguro apagar su equipo”, incitándonos a pulsar el botón de la CPU (que, si teníamos suerte, estaría al lado de otro que decía “Turbo”).
Todas esas bondades que vimos por primera vez hace más de quince años (que se dice pronto) se han conservado prácticamente intactas hasta Windows 7. Aun viendo la introducción de un nuevo menú de inicio en Windows XP (y otro en Windows Vista), y los cambios en la barra de tareas de Windows 7. Incluso sigue presente en Windows 8 como la barra de tareas del escritorio clásico.
De hecho estos componentes se pueden ver en otros entornos de escritorio, por ejemplo y sobre todo en KDE, que por defecto incluye la misma disposición: menú de inicio con una K a la izquierda, barra de tareas sobre la que se muestran las aplicaciones abiertas en forma de botón. Se ha transformado prácticamente en un estándar.
No todo es interfaz gráfica: las mejoras técnicas también tuvieron su lugar
La nueva interfaz gráfica permitió y facilitó la actualización de muchísimos usuarios. Pero, debajo de esa cortina bonita (por aquella época lo era, lo creamos o no), había una marabunta de mejoras técnicas que también fueron extremadamente importantes. Sin ir más lejos, Windows 95 era el primer sistema operativo de Microsoft listo para funcionar en procesadores de 32 bits.
Los recursos mínimos necesarios para ejecutar Windows 95 eran un procesador 386 con 4MB deRAM, si bien un Intel 486 y 8MB de RAM permitían un funcionamiento del sistema mucho más fluido (y usar un 386SX, sin coprocesador matemático, suponía sacrificar mucho rendimiento del sistema). No obstante no todo el sistema aprovechó la arquitectura de 32 bits: una gran parte seguía funcionando bajo arquitectura de 16 bits. Microsoft lo argumentó diciendo que migrar todo el sistema a 32 bits retrasaría demasiado el lanzamiento de Chicago.
Si nos fijamos en la parte técnica de este detalle, dado que Windows 95 funcionaba con mucho código de Windows 3.11 (de 16 bits y por tanto no aprovechando el modo de direccionamiento propio del 386 y posteriores, el modo protegido), todavía seguía sufriendo ciertos problemas de inestabilidadheredados de la versión anterior del sistema operativo.
Sin querer pararme demasiado a contar más detalles técnicos, también es interesante reseñar que en un principio Windows 95 no incluía soporte para el sistema de archivos FAT32 ni para USB; estas características fueron añadidas posteriormente en actualizaciones que, curiosamente, fueron distribuidas únicamente con equipos nuevos. FAT16 ya permitía el uso de nombres largos (más allá que los 8+3 que permitía en sus versiones anteriores, al menos).
Junto con Windows se incluía también Internet Explorer (2 en su versión original, 4 en posteriores actualizaciones) y con un acceso integrado a la Internet de Microsoft, MSN, que años más tarde veríamos como un fracaso de los de Redmond. Como curiosidad, al actualizar el usuario a Internet Explorer 4 se instalaba algo llamado Windows Desktop Update, que añadía a Windows 95 características propias de la siguiente versión de Windows, que ya trataremos en otro artículo.
Pero lo que sacamos en claro es que Windows 95, además de un éxito de ventas para la gigante de Redmond, fue un producto necesario y que acabó por sentar las bases de lo que sería Windows durante los años siguientes, para usuarios y clientes corporativos, incluso influyendo en la competencia. La próxima entrega aparecerá en unos días por aquí y tratará, atención, de los inicios de MacOS X. No os la perdáis.
El creador del núcleo de GNU/Linux, el finlandés Linus Torvalds, ha sido galardonado con el Millenium Technology Prize 2012. Este premio se concede cada dos años para premiar las innovaciones que mejoran la calidad de la vida humana y fomentan el desarrollo sostenible.
El Millenium Technology Prize es otorgado por la Technology Academy Finland (TAF), y ha sidoequiparado al Nobel de la Paz en el campo de la tecnología por Jim Zemlin, director ejecutivo de la Linux Foundation.
Los nominados para el premio son propuestos por universidades, instituciones de investigación, academias científicas y de ingeniería y empresas de alta tecnología de todo el mundo. La junta de la Technology Academy Finland, una fundación independiente establecida por la industria finlandesa en asociación con el Estado Finlandés, es quien decide finalmente el premiado sobre la base de las recomendaciones formuladas por el comité de selección internacional.
Entre los galardonados en ediciones anteriores podemos encontrar a Sir Tim Berners-Lee, creador de la World Wide Web. El premio, dotado con un millón de euros, se entregará en una ceremonia que se celebrará el día 13 de junio en Helsinki. El Dr. Shinya Yamanaka ha sido el otro galardonado en esta edición 2012.
Prolimatech es conocido principalmente por sus refrigeradores de CPU, pero también hacer que los productos de refrigeración para casi cualquier cosa en su PC. Ellos son probablemente mejor conocido por sus Megahalems y Super Mega refrigeradores. Todos sabemos lo bien que las que se realizan, así que estamos ansiosos por ver cómo las pilas Panther frente a otros bien conocidos los refrigeradores. Con el frío en la actualidad a un precio de 54,99 dólares , Prolimatech parece ser el objetivo de este producto más hacia el overclocker entusiasta.
La pantera es un enfriador de la torre de estilo sencillo, que puede ser utilizado con hasta dos ventiladores de 120mm. A pesar de la Pantera sólo viene con un ventilador de refrigeración, viene con clips de ventilador extra en caso de que desee añadir un segundo.
Prolimatech incluye una sola hoja de nueve, ventilador de 120mm con un cable de alimentación de manga al comprar el Panther. El ventilador funciona entre 800-1600rpm, empujando un buen 72,67 CFM a 29,91 dBA a su velocidad máxima. El ventilador tiene luces LED de color rojo en las esquinas y se ve bien en la oscuridad. El ventilador utiliza una cabecera 4-pin que tiene la capacidad de utilizar una señal PWM (modulación de ancho de pulso) para ajustar la velocidad de rotación sobre la marcha sin cambiar el voltaje de entrada entregada al ventilador de refrigeración en las placas base que soportan la característica. El cable de 4 pines de manga es de 250 mm de largo, por lo que fácilmente debería llegar a la cabecera de la CPU en la placa base.
Con un peso de 570 gramos, sin el ventilador instalado, la pantera no es definitivamente un enfriador de peso ligero. De pie en 6.33 pulgadas, usted quiere asegurarse de que tendría la autorización para obtener su panel lateral una vez que el refrigerador está montado.
Hay un total de 47 aletas en el disipador de calor que son cada uno 0,5 milímetros de espesor y 1,8 milímetros de distancia el uno del otro. Cada aleta tiene dos mitades que se sueldan a los tubos de calor. Esto es bueno, ya que garantiza una mejor transferencia de calor que montado a presión las aletas.
La Pantera Prolimatech tiene una base de cobre 40x38mm que ha sido niquelado, al igual que el resto de la nevera. La superficie se encontró que era plana, pero podíamos ver y sentir las huellas de la máquina fresadora que se utilizó para aplanarlo.