jueves, 23 de enero de 2014

Lenovo Compra el Negocio de Servidores de IBM por USD 2300 millones

La mayor parte del pago se realizará en efectivo, el resto en acciones. IBM busca deshacerse de un negocio en declive, mientras que Lenovo intenta aprovechar un área con un mayor margen de ganancia que la venta de PCs.

El mal negocio de IBM podría ser la oportunidad para Lenovo.

BM le ha vendido a Lenovo su negocio de servidores. No ha sido una decisión apresurada ni una negociación relámpago, las empresas han estado varios años discutiendo la operación. Según ha informado Lenovo a la bolsa de Hong Kong, la compra implicará el pago de unos USD 2.070 millones en efectivo a IBM. El resto del pago se realizará en acciones de Lenovo hasta alcanzar un total de USD 2.300 millones.

El antecedente de inevitable mención es la venta del negocio de hardware ThinkPad PC de IBM a la compañía de origen chino en 2005. Lenovo pagó unos USD 1.750 millones. En el negocio de servidores los ingresos han ido disminuyendo durante los últimos 7 trimestres. Una de las razones del declive es que las empresas tienden a pedir a los fabricantes la construcción de servidores a medida y más económicos. También aparece con fuerza el crecimiento de las empresas que brindan servicios en la nube. Algunos analistas han señalado que los servidores se han convertido en un commodity, es decir, un producto que se ofrece en el mercado sin que exista una diferenciación en términos de calidad. La causa sería el incremento de la competencia en el sector.

El negocio de servidores de IBM es el segundo a nivel mundial con un 22,9% de un mercado de USD 12.300 millones , según cálculo del tercer trimestre de 2013. Para Lenovo es una forma de crear otra fuente de ingresos en tiempos en que las ventas de PC todavía están en declive. En comparación, los servidores dejan un margen de ganancia más amplio del que ofrecen las PCs.Alberto Moel, analista de Sanford C. Bernstein & Co. señala: “si Lenovo puede controlar los costos y disfrutar del mayor margen de ganancias de este negocio, que están por encima de los márgenes de las PC de Lenovo, este podría ser un muy buen trato para ellos”.

Fuente:  Bloomberg

lunes, 13 de enero de 2014

Microsoft alista su futura API gráfica DirectX 12

Microsoft aún no proporciona ningún dato sobre el misterioso sucesor de DirectX 11.2.


El API gráfico Microsoft DirectX 11.2 hizo su debut a fines del año pasado con el sistema operativo Microsoft Windows 8.1 y la consola XBox One. Dado su relativamente “reciente” lanzamiento, empresas como AMD piensan que aún falta mucho para que veamos a su sucesor.

En las últimas semanas, APIs gráficas como Mantle han dado mucho de qué hablar, prometiendo superar significativamente a DirectX (por hasta 45% en Battlefield 4 y por hasta 200% en futuros juegos), haciendo notar los muchos aspectos en los que esta API no ha evolucionado desde su concepción (excesiva demanda de un único hilo de procesamiento y rápida saturación ante cerca de 15000 peticiones de dibujo simultáneas).

Al parecer lo anterior no ha pasado desapercibido por Microsoft, la que a pesar de encontrarse muy ocupada en futuros lanzamientos como el sistema operativo Windows 8.2 y el API de cómputo acelerado por GPU estándar C++ AMP (esta debutará a mediados de año), también está trabajando en el futuro sucesor de DirectX 11.2.

Según Fudzilla, al parecer Microsoft no está trabajando en una sub-versión con cambios menores (como un hipotético DirectX 11.3), sino en un rediseño completo al API, la que tendrá por nombre comercial DirectX 12.

Lamentablemente no se tienen detalles sobre las novedades que incorporará DirectX 12, pero suponemos que Microsoft trabajará en pulir los puntos débiles del API dejados en evidencia por Mantle, así como una serie de nuevas funciones aún no reveladas que mejorarán la calidad gráfica y experiencia de juego.


Ventas de PCs bajaron 10% en el año 2013, según Gartner

En todo el año, se vendieron 315,9 millones de PCs.


Aunque sea difícil de creer, las cifras nos dicen una vez más que las ventas de PCs van para abajo. La consultora Gartner señala que en todo 2013, calculan que se vendieron 315,9 millones de PCs, 10% menos de lo que se vendió en 2012.

Durante el cuarto trimestre del año, los envíos globales de computadoras fueron 82,6 millones de unidades en el cuarto trimestre de 2013, una baja de 6,9% respecto al mismo periodo de 2012. Se trata del séptimo trimestre consecutivo de caídas en los envíos.

La analista de Gartner, Mikako Kitagawa, observó que algunos mercados han "tocado fondo" en la caída de las ventas. Las nuevas compras de equipos corresponden a renovación de PCs antiguos, que se ha hecho mucho más lenta que antes.

"El fuerte crecimiento en tablets sigue impactando negativamente el crecimiento del PC en mercados emergentes. En estos mercados, el primer equipo conectado para los consumidores probablemente será un smartphone, y su primer dispositivo computacional un tablet. Como resultado, la adopción de PCs en mercados emergentes será más lenta, a medida que los consumidores se saltan el PC por los tablets", afirma.

Lenovo se posicionó como la compañía que más unidades vendió en el año, con 16,9% del mercado global de PCs. HP quedó segundo con 16,2%, y Dell se posicionó en el tercer puesto con 11,6%.

Fuente: Gartner


viernes, 10 de enero de 2014

Cómo abrir el Dr. Watson en MS Windows XP Professional

Dr. Watson es un depurador de PC para Windows XP (que también está disponible en las versiones anteriores de Windows). 

La información de error de Dr. Watson puede utilizarse para analizar y resolver los errores. Grupos de apoyo en línea o soporte técnico de Microsoft pueden utilizar la información para ayudar a solucionar los errores.

Normalmente, el depurador de Dr. Watson se inicia automáticamente cada vez que se produce un error del programa.

Para abrir el Dr. Watson en MS Windows XP Professional de forma manual:

1:   Ir al ejecutar la opción de Windows Start menú.

Comience Dr. Watson manualmente

2:   Introduzca drwtsn32 en el Abierto cuadro de texto.

3:   Haga clic en el Aceptar botón.

En el programa Dr. Watson se puede acceder a los errores de aplicación anteriores y compruebe el archivo de registro para los errores. El uso de la ruta del archivo de registro, puede acceder a los archivos físicos de registro en caso de que necesites para compartirlas con los demás.



jueves, 9 de enero de 2014

Conoce las novedades del nuevo Microsoft DirectX 11.2

Nueva versión del API multimedia y de cómputo acelerado por GPU de Microsoft antes conocida como DirectX Blue.


DirectX 11.1 llegó en octubre del año pasado, incorporado en el sistema operativo Windows 8 de Microsoft, pero desde hace algunos meses la propia Microsoft reveló que estaban trabajando en su sucesor conocido en ese entonces como DirectX Blue, API que hoy es lanzada oficialmente bajo la denominación oficial: DirectX 11.2.

Introducción

DirectX es un API conformada por diversos componentes, cada uno de los cuales orientado a administrar los diversos aspectos multimedia y de cómputo acelerado por GPU que son capaces de ofrecer los diversos integrantes de la dominante familia de sistemas operativos Windows.

Aunque muchos usuarios cometen el error de relacionar a DirectX con los juegos, en realidad ello es tan sólo una de las múltiples características que puede brindar el API gracias a sus diversos módulos, siendo en este caso Direct3D el componente de DirectX dedicado a gestionar los recursos gráficos 3D para juegos y aplicaciones gráficas.

DirectX 11.2, es 100% retro-compatible con las API DirectX 11.1 (hardware level), DirectX 11, DirectX 10.1, DirectX 10 y DirectX 9 (software level), permitiendo acceder a muchas de sus nuevas funciones tanto a los nuevos chips compatibles vía hardware (DirectX 11.2) como a los chips compatibles con versiones anteriores del API (aunque para ellos muchas de sus funciones se ejecutarán por software).

A continuación detallaremos algunas de las novedades de los principales componentes del nuevo DirectX 11.2:

Direct3D 11.2

Componente de DirectX conformado por una API orientada a la programación de gráficos 3D (polígonos, triángulos, líneas, texturas y otros elementos gráficos usados en juegos y aplicaciones). Entre las novedades de Direct3D 11.2 podemos mencionar:

  • Tiled Resources: Áreas lógicas eficientes en consumo de memoria gráfica, útiles para modularizar partes de los juegos como el terreno, o para la interfaz de usuario de aplicaciones.
  • HLSL (Highg Level Shader Language) shader linking: Brinda a los desarrolladores la capacidad de separar los procesos de compilación y vinculación de shaders, permitiendo crear funciones gráficas HLSL pre-compiladas.
  • Function Linking Graph (FLG): Elimina la necesidad de escribir código HLSL e invocar al compilador HLSL, permitiendo crear shaders conformados una secuencia de funciones pre-compiladas capaces de transferir sus valores hacia otras.
  • Soporte extendido a dispositivos WARP: Permite a hardware DirectX 11.1 total compatibilidad con Direct3D 11.2.
  • MSAA (Multi-Sampling Anti-Aliasing) 16X: Método de alisado con mayor calidad.

DirectX Graphics Infrastructure (DXGI) 1.3

API destinada a la programación de tareas gráficas de bajo nivel. Entre sus novedades tenemos:

  • Menor uso de memoria gráfica: Libera y limpia los recursos de memoria no usados o no asignados.
  • Multi-plane Overlays: Superposición de imágenes/objetos en múltiples planos.
  • Overlapping swap chains and swap chain scalling: Mayor tiempo de respuesta en los juegos sin degradar la calidad visual de los elementos de su interfaz como diálogos o puntajes representados en texto.
  • Lower-latency swap chain presentation: Menor latencia gráfica en los juegos al acelerar la generación de la siguiente imagen (cuadro).

Classic DirectX Graphics

Capa de compatibilidad con las viejas API DirectX 10 y DirectX 9, permitiendo ejecutar juegos y aplicaciones compatibles con viejas versiones de DirectX.

Direct2D 11.2

API enfocada a la programación de gráficos 2D. Entre sus novedades tenemos:

  • Geometry realizations: Mayor velocidad de renderizado de imágenes rasterizadas y mapas de bits.
  • Soporte a imágenes en formato JPEG YCnCr http://es.wikipedia.org/wiki/YCbCr .
  • Soporte a archivos en formato DDS (DirectDraw Surface).
  • Rendering Priority: Mayor rendimiento gráfico para las aplicaciones en primer plano, poniendo en baja prioridad las tareas de renderizado no críticas.

DirectWrite 11.2

API encargada de la tipografía en la interfaz de usuario, juegos y aplicaciones. Entre sus novedades tenemos el soporte acelerado por hardware al renderizado de tipos de letra a las que se les aplique colores (en versiones anteriores únicamente se aceleraba texto en colores negro y blanco.

Otros componentes

DirectX 11.2 también incorpora componentes enfocados a la programación de audio (XAudio2, remplazo de las viejas API DirectSound, DIrectSound3D y DirectMusic), dispositivos de juegos (XInput, remplazo del viejo API DirectInput), composición y transformación de mapas de bits (DirectComposition), imágenes digitales (Windows Imaging Component “WIC”), matemáticas y algebraicas (DirectXMath), cómputo acelerado por GPU (DirectCompute) entre muchos otros.

Windows Display Driver Model (WDDM) 1.3

Aunque la mayoría de componentes como dispositivos de juegos y chips de audio pueden beneficiarse de inmediato de las mejoras que trae DirectX 11.2; ello no es tan sencillo con los chips gráficos (GPUs), los que requieren de nuevos controladores diseñados específicamente para poder aprovechar las novedades de Direct3D 11.2, Direct2D 11.2, DirectWrite 11.2 y DXGI 1.3.

Los nuevos controladores gráficos WDDM 1.3 serán compatibles con los actuales GPUs DirectX 11.1 (Radeon HD 7000 Series) y con los futuros GPUs DirectX 11.2; productos que serán capaces de aprovechar todas las capacidades de la nueva versión del API DirectX de Microsoft.

Los usuarios de GPUs DirectX 11 podrán acceder vía software a muchas de las novedades de DirectX 11.2, a través de los controladores WDDM 1.2, WDDM 1.1 (DirectX 10.1 y DirectX 10) y WDDM 1.0 (DirectX 9.0C/B/A).



Conclusiones

DirectX 11.2 representa una serie de mejoras por sobre el API DirectX 11.1, a la vez que mantiene total compatibilidad con las versiones anteriores, gracias a sus diversos grados de emulación vía software (hardware level).

Aunque Microsoft no lo ha revelado aún, es muy probable que este sea el API que será usada en la aún no lanzada consola XBox One, por lo que marcará el camino a seguir para los juegos de nueva generación para las PC.

DirectX 11.2 es de momento exclusivo de Windows 8.1; pero no dudamos que algunas semanas después del debut de la versión final de Windows 8.1, Microsoft presentará nuevos Platform Update que les brinden a los viejos sistemas operativos Windows Vista y Windows 7, compatibilidad con el API y soporte a los nuevos controladores WDDM 1.3.

Fuente: DirectX Graphics and Gaming (Microsoft)



Hackers podrían vulnerar Windows usando los log de Windows Watson




Archivos .log del servicio de notificación de errores de Windows (Watson) podrían ser usados para tomar partido de vulnerabilidades de Windows.


Lanzado con el sistema operativo Microsoft Windows 3.1, el servicio Dr. Watson, fue evolucionando con cada nueva versión del sistema operativo, hasta convertirse en el actual servicio de notificaciones de errores de Windows (simplemente Watson), la principal herramienta para recopilar datos usados para la corrección de errores y fallos de seguridad de los sistemas operativos Windows de Microsoft.

Irónicamente, aunque la función de Watson es la de recopilar información sobre los fallos/errores/vulnerabilidades de Windows, para notificárselos a la propia Microsoft; sus registros de errores (archivos .log), podrían ser usados por piratas informáticos para obtener valiosa información sobre vulnerabilidades aún no descubiertas en los sistemas operativos de Microsoft, para posteriormente tomar ventaja de ellas.

No sólo los piratas informáticos pueden aprovechar Watson para tomar ventaja de vulnerabilidades aún no descubiertas en Windows, pues se reporta que la NSA (National Security Agency) cuenta con tecnologías de espionaje que le permiten interceptar los datos del sistema de notificación de errores de Windows.

Como medida de seguridad se recomienda modificar las políticas del servicio de notificación de errores, activando el cifrado de datos, o deshabilitarlo en sistemas operativos sin soporte como Windows 2000 o inferiores (el 8 de abril de este año, Windows XP se unirá a la lista de sistemas operativos sin soporte).


Intel lanza sus microprocesadores Celeron 1800 Series “Haswell-DT”

La gama ultra-económica de microprocesadores socket LGA 1150 por fin hace su esperado debut.


Hasta hace muy poco, los microprocesadores Pentium G3000 Series “Haswell-DT” eran los productos socket LGA 1150 más económicos de Intel, situación que se termina con el lanzamiento de los nuevos microprocesadores Celeron 1800 Series “Haswell-DT”.

Silenciosamente Intel ha introducido 3 nuevos microprocesadores Celeron 1800 Series “Haswell-DT” (LGA 1150 “Shark Bay”), los que remplazan a los microprocesadores Celeron 1600 Series “Ivy Bridge-DT” (LGA 1155 “Maho Bay”) y que detallamos a continuación:


Celeron G1830 “Haswell-DT”
El más potente integrante de la familia de microprocesadores Celeron de Intel, cuenta con la siguiente configuración:
2 núcleos Haswell funcionando a 2.8GHz.
GPU HD Graphics “Haswell Graphics GT1” con 10 EUs (40 shader processors) funcionando a 300MHz (1050MHz en modo Turbo).
128KB (32KB datos/instrucciones por núcleo) de memoria caché de primer nivel (L1).
512KB (256KB por núcleo) de memoria caché de segundo nivel (L2).
2MB de memoria caché de tercer nivel (L3).
Controlador de memoria DDR3-1333 doble canal integrado (máximo 32GB).
Controlador PCI Express 3.0 integrado (16 líneas).
Soporte al juego de instrucciones SSE 4.2 (no soporta AES/AVX/FMA3).
TDP de 54W.
Compatible con el socket LGA 1150.
Precio sugerido: USD$ 56.


Celeron G1820 “Haswell-DT”
Remplazo del microprocesador Celeron G1620 “Ivy Bridge-DT”, cuenta con la siguiente configuración:
2 núcleos Haswell funcionando a 2.7GHz.
GPU HD Graphics “Haswell Graphics GT1” con 10 EUs (40 shader processors) funcionando a 300MHz (1050MHz en modo Turbo).
128KB (32KB datos/instrucciones por núcleo) de memoria caché de primer nivel (L1).
512KB (256KB por núcleo) de memoria caché de segundo nivel (L2).
2MB de memoria caché de tercer nivel (L3).
Controlador de memoria DDR3-1333 doble canal integrado (máximo 32GB).
Controlador PCI Express 3.0 integrado (16 líneas).
Soporte al juego de instrucciones SSE 4.2 (no soporta AES/AVX/FMA3).
TDP de 54W.
Compatible con el socket LGA 1150.
Precio sugerido: USD$ 48.


Celeron G1820T “Haswell-DT”
Microprocesador dirigido al segmento OEM en remplazo de Celeron G1620T “Ivy Bridge-DT”, cuenta con la siguiente configuración:
2 núcleos Haswell funcionando a 2.4GHz.
GPU HD Graphics “Haswell Graphics GT1” con 10 EUs (40 shader processors) funcionando a 300MHz (1050MHz en modo Turbo).
128KB (32KB datos/instrucciones por núcleo) de memoria caché de primer nivel (L1).
512KB (256KB por núcleo) de memoria caché de segundo nivel (L2).
2MB de memoria caché de tercer nivel (L3).
Controlador de memoria DDR3-1333 doble canal integrado (máximo 32GB).
Controlador PCI Express 3.0 integrado (16 líneas).
Soporte al juego de instrucciones SSE 4.2 (no soporta AES/AVX/FMA3).
TDP de 35W.
Compatible con el socket LGA 1150.
Precio sugerido: USD$ 46.

Fuente: CPU World.



miércoles, 8 de enero de 2014

Intel anuncia Edison: Un computador del tamaño de una tarjeta SD #CES2014

El micrordenador está basado en la tecnología de 22nm y corre en Linux.


Hace cuatro meses, Intel dio a conocer su SoC Quark en el IDF. Hoy en el CES 2014, el CEO de Intel, Brian Krzanich presentó a Edison, un ordenador en miniatura basado en la misma tecnología, condensado en el factor de forma de una tarjeta SD.

La pequeña computadora se basa en la tecnología de transistores de 22nm, corre en Linux y se le ha incorporado módulos WiFi y Bluetooth, pudiendo conectarse a su propia tienda de aplicaciones.

Evidentemente, este dispositivo está dirigido a desarrolladores. Krzanich dice que espera se le utilice para desarrollar la próxima generación de dispositivos vestibles y conectables.

Intel aprovechó para mostrar una pequeña colección de productos bautizada "Nursery 2.0", que utilizan chips Edison integrados. Entre ellos, una rana de juguete que reporta los signos vitales de un bebé a sus padres a través de una taza de café con LEDs.

También mostró un calentador de leche que comienza a calentar cuando otro elemento conectado (como la rana) escucha el llanto del bebé.

Como Intel sabe que los desarrolladores necesitan más que buenos ejemplos para motivarlos a trabajar con Edison, la compañía ha anunciado el concurso "Make it werable" (Hazlo vestible), donde ofrecerá hasta USD $1,3 millones en premios para los desarrolladores que creen tecnología vestible con Edison.

Los detalles completos del concurso no se dieron a conocer en el CES, pero Krzanich dijo que el primer premio recibiría la flamante suma de USD $500.000.

Fuente: Intel


El ordenador cuántico

qubit

Hace poco más de un mes, fui a una charla de Juan Ignacio Cirac en la Ciudad de las Artes y las Ciencias de Valencia. Hizo un recorrido por los descubrimientos de la física cuántica, para llegar y profundizar sobre la aportación de la mecánica cuántica al tratamiento de la información. La unidad mínima de información es el bit, y éste puede tomar los valores 0 o 1. Cualquier ordenador actual, sea doméstico o un sistema de varios procesadores trabajando en paralelo, se basa en los bits, y por lo tanto en el sistema binario. Esta representación de la información, permite que con N bits, podamos obtener 2^N estados. He usado la palabra “estados” adrede para introducir el bit cuántico, también llamado qubit, la aportación de la cuántica. 

Los dos estados posibles son también el 0 y el 1, pero la mecánica cuántica aporta entre otras cosas, la superposición. Por lo que un qubit puede estar… ¡en ambos estados a la vez! Cosa que nuestro conocido bit, no puede permitirse. Cuando se busca potencia de cálculo, ponemos a trabajar varios procesadores en paralelo de N bits; de esta forma se reparten tareas y se realizan cálculos que no se pueden afrontar con un sólo procesador. Son los llamados supercomputadores, empleados por ejemplo en la predicción meteorológica. En un metro cúbico hay que realizar miles de cálculos numéricos de las cientos de ecuaciones diferenciales que se ven implicadas.

Volvamos a la superposición de estados de nuestros qubits. Lo primero de lo que nos damos cuenta casi de forma intuitiva, es que necesitamos muchos menos qubits que bits para representar la misma información. Y no menos importante, podemos hacer muchísimas más cosas a la vez. Con un bit sólo podemos hacer una cosa: apagar o encender el interruptor -y son excluyentes-. Con un qubit apagamos, encendemos… y estamos apagados y encendidos a la vez. El espíritu del minino de Schrödinger nos acompaña Ahora empezad a añadir qubits y sus distintos estados. Podemos poner un estado a hacer la tarea X, otro la tarea Y, y así sucesivamente, de forma no excluyente. Imagino que sois conscientes de la dimensión que esto empieza a tomar, con cada qubit añadido y sus posibles estados superpuestos. Sobre el papel la teoría es muy bonita, el modelo teórico está desarrollado. Pero llevar esto a la práctica, como dijo Ignacio, lo verán otros.

Y es que no sólo disponemos de las bondades de la mecánica cuántica para este modelo, sino también de los inconvenientes. Y uno muy importante es el principio de incertidumbre. Cuando observamos en un sistema cuántico, alteramos lo que estamos viendo/midiendo. Así que uno de los mayores retos es conseguir un sistema que se pueda aislar bien. En el sistema actual de microprocesadores, con el paso de los años se ha conseguido aumentar cada vez más el número de transistores por milímetro cuadrado, y ello ha conllevado un incremento en la capacidad de procesamiento y almacenamiento de la información. Hay un límite físico a la hora de seguir empequeñeciendo dichos transistores, porque precisamente los efectos cuánticos entran en juego y el material semiconductor no seguirá comportándose como se espera. Nuestro modelo de bit clásico ya no se puede desarrollar a esas escalas. De ahí que el qubit tome el testigo y podamos aprovechar toda su potencia, si finalmente se consigue llevar esto a un hardware físico de forma eficiente. Lo que sí que existen ya son simuladores cuánticos.

Las aplicaciones de un futuro ordenador cuántico no sólo estarían focalizadas en la potencia de cálculo y la realización simultánea de tareas, sino también en la seguridad de la información -recordad que cuando observamos, «modificamos»-. Pero esto es un tema para abordarlo en otra ocasión con más profundidad, y tras ver cómo está diseñada la transmisión de la información por internet, el tema de la privacidad -que por cierto no existe- y el espionaje, que es noticia día sí, día no, por el caso Snowden entre otros. No dudo que habrá futuras aplicaciones que surgirán precisamente del desarrollo de dicho ordenador cuántico, y que actualmente no existen o no imaginamos todavía. En este tipo de charlas, al final siempre se establece un pequeño coloquio entre el ponente y los asistentes, que puede llegar a veces a los 20 minutos o media hora. En este caso no fue así, según dijeron por el tiempo disponible. Una pena, porque estoy segura de que se hubiera generado un debate de lo más interesante. Yo iba con unas preguntas en mente, y he de confesar que tras la charla, me surgió una cuestión que no había considerado hasta ese mismo momento, y es la que voy a exponer al menos ahora aquí.

Con un ordenador hay que interaccionar, hay que decirle lo que tiene que hacer y cómo. Para ello hemos desarrollado los sistemas operativos y los lenguajes de programación. Pero los sistemas operativos se escriben en un lenguaje, así que voy a centrarme en los lenguajes de programación. Programamos, escribimos código con una sintaxis más o menos «humana», mezclamos operaciones aritméticas y lógicas, con sentencias de control en las que se usan palabras del lenguaje natural. Esto el microprocesador no lo entiende, él sólo entiende el lenguaje de unos y ceros, sólo maneja bits. Si estamos programando en C o en Java, tenemos un compilador o un intérprete, que se encarga de traducir el código que escribimos en unos y ceros. También está la opción de programar en código máquina o ensamblador de dicho procesador, que tiene una traducción directa. ¿Qué ocurrirá con el ordenador cuántico? ¿La interacción y la programación de tareas, se hará del mismo modo? ¿Los lenguajes de programación se tendrán que reinventar? Bueno, imagino que podremos seguir escribiendo en un lenguaje natural, pero los compiladores/traductores, ¿será necesario rediseñarlos para que interactúen como deben con los qubits? Evidentemente estos siguen siendo unos y ceros, pero sometidos a las leyes de la mecánica cuántica. ¿Implicará esto un cambio de paradigma para este menester? ¿O bastará seguir haciendo lo mismo pero metiendo más lógica para considerar las superposiciones y entrelazado de estados? Sé que se sigue haciendo lo mismo en los simuladores, y una cosa es un sistema con unos pocos qubits, y otra muy distinta un ordenador cuántico.

Desde luego ahora mismo no tiene sentido un ordenador doméstico cuántico, cuando se desarrolle será para hacer las funciones que ahora mismo están reservadas a los supercomputadores o servidores de internet -incluso para almacenamiento masivo en bases de datos-. Pero ahora es ahora, y mañana ya veremos. Así que para obtener la respuesta, esperaré a encontrarme con el espíritu del gato de Schrödinger. Mientras, me quedaré con el otro atravesando gateras. Ya sabéis, ése que no estiró la pata



La NSA trabaja en un ordenador cuántico capaz de descifrar cualquier contraseña

SEGÚN LOS DOCUMENTOS DE SNOWDEN

Sería mucho más rápido que uno común, tanto que podría descifrar todas las formas de codificación, incluso las de más alta seguridad.
Edificio de la NSA

El desarrollo de la computación cuántica es un objetivo que persigue desde hace años la comunidad científica y en el que la NSA, la Unión Europea y Suiza han hecho importantes avances en la última década.

Un ordenador cuántico es mucho más rápido que uno común, tanto que es capaz de descifrar todas las formas de codificación, incluso las de más alta seguridad que se emplean para proteger secretos de Estado, transacciones financieras, e información médica y de negocios.


Según los documentos proporcionados por Edward Snowden, los trabajos de la NSA para construir un ordenador cuántico forman parte de un programa de investigación de 79,7 millones de dólares que tiene por título "Penetrando objetivos difíciles".

Los expertos consideran que la NSA no está más cerca de alcanzar el ambicioso objetivo de la computación cuántica que la comunidad científica.

Hace una década, algunos expertos aseguraban que el ordenador cuántico podría llegar en los diez o cien años siguientes, mientras que hace cinco años consideraron que para alcanzar este objetivo aún quedaban al menos diez años.

La diferencia entre la computación cuántica y la clásica es que, mientras que ésta última usa el sistema binario de unos y ceros, la primera utiliza los "bits cuánticos", que son simultáneamente ceros y unos.

Un ordenador clásico, incluso si es rápido, debe hacer un cálculo cada vez, mientras que uno cuántico puede evitar hacer cálculos que son innecesarios para resolver un problema, lo cual permite encontrar la respuesta buscada más rápido.

Los ordenadores cuánticos son extremadamente delicados, por lo que si no se protegen adecuadamente el sistema puede fallar.

Fuente: libertaddigital


Reaparece el Germanio como alternativa del Silicio

Científicos de la Universidad Estatal de Ohio (EE.UU), han logrado resurgir al Germanio como una propuesta para suceder al Silicio entre las materias primas de semiconductores, al crear nuevas láminas monoatómicas que harían de la electrónica más poderosa y veloz.

El elemento químico número 32 de la tabla periódica, Germanio (Ge) ha vuelto a resurgir como materia prima para la fabricación de circuitos semiconductores, después de que científicos de la Universidad Estatal de Ohio (EU) dieron a conocer el desarrollo de láminas monoatómicas de Ge que podrían ser utilizadas para la creación de electrónica más rápida y eficiente en comparación con los dispositivos basados en Silicio (Si).

Germanano para ICs



Pero no sólo al Silicio pretende desbancar la novedosa tecnología basada en Germanio, sino que sus descubridores han advertido incluso de la posibilidad de competir con el Grafeno, otro material que a la fecha se encuentra en etapa de investigación y desarrollo para implementarlo en la fabricación de electrónica más poderosa.

Silicio
Silicio de gran pureza

De acuerdo a los académicos encargados del proyecto, el nombre asignado a esta nueva tecnología es Germanano, con el cual se lograron generar monocapas con el espesor de un átomo (monoatómicas) capaces de excitar los electrones para que circulen hasta 10 veces más rápido en comparación como lo hacen las capas de Silicio y 5 veces más veloz que como ocurre con el Germanio convencional.

Es importante recordar que hace aproximadamente 6 décadas que el Germanio apareció en escena de la industria electrónica como elemento primo para la fabricación de los pioneros transistores para la electrónica.

Tiempo después, la industria descubrió que el Silicio ofrecía mucho más ventajas que el Germanio para la fabricación de semiconductores debido a su abundancia en la corteza terrestre y su precio más económico, por lo que inmediatamente mandaron al Germanio a su jubilación comercial.

El grupo de investigadores de la Ohio State University se ha propuesto llevar a cabo el resurgimiento de este material a través de su variante revolucionada Germanano que promete cambiar la electrónica del futuro.

El grafito (izquierda) es la sustancia blanda con la que se fabrican las minas de los lápices, mientras que el diamante (en bruto, derecha) es el material natural más duro que se conoce
Entre las declaraciones de los científicos de la universidad, se encuentra que el Grafeno -del cual se extraen monocapas de Carbono- no resulta tan perfecto, pues de entrada no cuenta con una zanja de energía como sucede con los semiconductores convencionales.

En base con las explicaciones de los investigadores a cargo, la metodología para crear las monocapas atómicas de Germanano es muy similar al proceso que se sigue con el Grafeno, pero en el caso del Germanano, los átomos deben formar una red cristalina tridimensional y no monocapas.
Esta estructura resultante, depende de los enlaces químicos que se apliquen en el elemento así como a la manera en cómo se organicen bajo ciertas restricciones. Esta tecnología también se ha logrado intercalando los átomos de calcio entre las capas de Germanio, y posteriormente disolviendo la intercapa de calcio con agua.

Los científicos presumiblemente pueden mostrar mediante sus registros de documentación del proyecto que el Germanio obtenido del anterior proceso, es estable si se le expone tanto al aire como al agua, resolviendo cuestionamientos sobre su efectividad en condiciones naturales como lo tienen otros materiales de semiconducción. Además, su estabilidad presuntamente supera a la del Silicio y puede ser manipulado con técnicas convencionales, una ventaja importante si se considera que cada tecnología basada en nuevos compuestos químicos tiende a requerir procesos exclusivos, y aunque sean efectivos en comparación con las actuales, su adopción en la industria por parte de las compañías de electrónica, requeriría millonarias inversiones.

Manufactura de ICs
Los circuitos electrónicos basados en Germanano, pueden fabricarse siguiendo los mismos procesos en la electrónica moderna convencional, informan sus descubridores.
En su reporte, Joshua Goldberger, uno de los miembros del grupo científico de la Universidad Estatal de Ohio, aclara que, a pesar de que muchas personas creen que el Grafeno es el reemplazo único de la actual tecnología basada en Silicio, el Germanio podría significar menores costos en su adopción industrial en comparación con el Grafeno.

Los científicos creen que uno de los campos más beneficiados en el uso del Germanano, es de opto-electrónicos, ya que la zanga de energía de este compuesto hace que la luz sea absorbida fácilmente, mientras que en el Silicio y Germanio convencionales se realiza en un modo indirecto.

“Cuando tratas de usar un material con banda indirecta en células solares tienes que hacerlo grueso si quieres que pase suficiente energía a través para que sea útil. Un elemento con banda directa puede realizar el mismo trabajo con un material 100 veces más fino”, comentó Goldberger.

Debido a que la velocidad en la que se desplazan los electrones en un semiconductor está relacionada con la movilidad de electrones, la materia prima donde se desplazan los electrones es la clave para que un equipo de cómputo sea más potente.

En este aspecto, los transistores más pequeños requieren una movilidad significativa para que los transistores funcionen, y en esta fase, el Germanio resulta 10 veces superior a las cualidades del Silicio, lo que en términos de diseño electrónico, sería factible la fabricación de circuitos microelectrónicos más poderosos gracias al material.

Los investigadores creen que la tecnología podría estar lista para ser implementada de manera industrial a corto plazo, ya que por ahora solo se enfocan en ajustar las propiedades del Germanano mediante la aplicación de cambios en la configuración de átomos en las monocapas.


martes, 7 de enero de 2014

La información viaja ya a la velocidad de la luz

Fujitsu e Intel colaboran en la creación de un centro de datos que rompe las barreras de rapidez de procesamiento de la red actual

La información viaja ya a la velocidad de la luz
La fotónica de silicio es la tecnología aplicada que permite este avance. | INTEL
La compañía japonesa de tecnologías de la información y la comunicación Fujitsu presentó esta semana un nuevo y avanzado centro de procesamiento de datos que permitirá transmitir información a la velocidad de la luz. Se ha asociado con otro gigante, Intel, para desarrollar la denominada 'high-speed Silicon Photonics Tecnology', capaz de entregar los datos a la máxima velocidad, para eliminar los 'cuellos de botella' y permitir la realización de transacciones comerciales en tiempo real.


El tráfico de estos centros de datos del futuro, según estima la empresa a través de un comunicado en su web corporativa, podrá cuadruplicarse en los próximos tres años. La tecnología de red actual está empezando a tener limitaciones y por ello se producen retrasos en la transferencia de datos a alta velocidad entre las principales piezas de un centro de datos: servidores, almacenamiento y la red.

Con este nuevo avance tecnológico se "eliminan los límites en las autopistas de la información y proporciona una visión de futuro a los 'data center'", valora la empresa japonesa en el comunicado donde informa de la inauguración de su 'data center' avanzado.

Distintos transmisores

El aumento del rendimiento de procesamiento se debe a la adopción de la tecnología fotónica de silicio, que permite esta transferencia a velocidades ultra rápidas. Los cables de fibra óptica pueden transferir hasta 1,6Tbps por segundo y es suficiente para llevar la información a un disco duro de 1 TB en tan sólo 5 segundos.

La información también se puede transferir a través de distancias mucho más grandes y largas hasta 300 metros, más de lo que actualmente se realizan con cables Ethernet a base de cobre. A su vez, todo esto permite que el diseño y el servidor de aplicaciones optimizado allanen el camino hacia un nuevo centro de datos, gracias a la disociación de los recursos informáticos y del almacenamiento.

En cuanto a la reducción de costes energéticos, esta apuesta disminuye los costes de climatización (enfriamiento), ya que no necesitan estar en una misma habitación servidores y almacenamiento.

La transferencia de datos a través de cables de fibra óptica como fotones en lugar de impulsos eléctricos, disminuye el consumo de energía y significa una simplificación del cableado necesario. Por su parte, la fotónica de silicio simplifica el camino para el diseño de servidores de aplicaciones optimizados.

Estas soluciones representan la apuesta de futuro en materia de computación, red y almacenamiento.



lunes, 6 de enero de 2014

Sony gana $18 dólares por cada Playstation 4 vendida

Sony gana $18 dólares por cada Playstation 4 vendida
A tans solo unos pocos meses de haber salido a la venta el Playstation 4, ya se ha realizado el estudio del coste de fabricación de dicha consola y este ha arrojado que al fin Sony ve ganancias con esta consola, ya que con el Playstation 3 eran pérdidas. ¿De donde obtiene sus ganancias Sony entonces? La estrategia es muy simple, Sony pretende generar ingresos con la venta de juegos exclusivos para esta consola.
El costo de fabricación del Playstation 4 es de $381 dólares, por lo que solo le deja de ganancia $18 dólares, ya que se vende por $399 dólares.
Si lo comparamos con otras empresas, Apple por ejemplo gana $225 dólares por cada iPad que venden en $499 dólares, un margen de ganancia muy elevado.
Por otro lado Sony logró vender 1 millón de unidades en tan solo 24 horas, por lo que su ganancia fue de 18,000,000 millones de dólares en tan solo un día. Esperan vender 5 millones de consolas hasta marzo, que es cuando termina su año fiscal.

FELIZ 2014 desde Venezuela para el Mundo...



Desde reparaciondelpc-academia su WeBlogs de Noticias tecnológica les deseamos un Maravilloso año 2014.

Continuando lo que ya es tradición desde nuestros inicios informar de manera constante pero con muchas más ganas  traer los mejores reportes, novedades, trucos y un largo  Review con el apoyo de colabores y expertos en el Mundo Informático, Electrónico columna base de la Computación de estos tiempos.