viernes, 29 de noviembre de 2013

Microsoft alerta sobre bug en Windows XP que permite tomar control de un PC

Un tercio de los PCs del mundo sigue usando este sistema operativo.


Windows XP puede ser muy viejo, sin embargo sigue siendo usado por 30% de los PCs del mundo. Microsoft alertó hoy sobre una vulnerabilidad en este sistema operativo y en Windows Server 2003, que está siendo explotada por algunos ladrones cibernéticos y que permite tomar control de la computadora. 

Microsoft tomó la inusual medida de generar un parche para reparar la falla, sin embargo, advirtió que aplicarlo puede arruinar otras funciones de Windows como conectarse a la máquina de forma remota vía VPN, por ejemplo. 

La vulnerabilidad fue descubierta por la firma de seguridad FireEye. El bug permite a un atacante aprovechar una falla en versiones antiguas de Adobe Reader, y escalar el acceso al sistema operativo para instalar su propio código. Quienes estén usando la versión más reciente de Adobe Reader no son vulnerables al ataque. 

El soporte para Windows XP por parte de Microsoft acaba en abril de 2014.


jueves, 28 de noviembre de 2013

¿Por qué las ranuras de memoria RAM en las tarjetas madres tienen colores?

¿Has visto las ranuras de memoria RAM en las tarjetas madres? Las más nuevas son de colores que vienen en parejas o intercaladas. Esto se coloca así para que el usuario sepa exactamente dónde colocar las memorias y así sacarla el mayor provecho.

memoria ram

Si has visto una tarjeta madre recientemente quizás te habrás dado cuenta que las ranuras para la memoria RAM tienen colores. ¿Te has fijado y te has preguntado qué significa? Es posible que algunos ya lo sepan, pero para aquellas personas que desconozcan para qué es, la gente de HowToGeek ha compartido información al respecto gracias a los usuarios de sus foros.

La duda

¿Por qué algunas ranuras para memoria RAM en tarjetas madres tienen varios colores? Algunas vienen con el mismo color una junto a la otra y otras tienen los colores intercalados. Es decir, digamos que la tarjeta madre trae cuatro ranuras para RAM, dos pegadas de un lado y dos pegadas del otro. Los colores pueden estar distribuidos de la siguiente forma (usando colores al azar):

  • La primera ranura es amarilla, la segunda también. Luego la tercera es morada y la cuarta también lo es.
  • La otra forma es que la primera ranura sea amarilla y la segunda morada, mientras que la tercera es amarilla y la cuarta es morada.

Esto dependerá completamente de cómo sean puestas por el fabricante.

La respuesta

Los colores son una guía para saber que estas ranuras usan la tecnología de dual channel o doble canal. Esto aumentará el rendimiento del computador y de la memoria porque se va a acceder de forma simultánea a dos módulos al mismo tiempo. Es decir, deberás instalar un par de memorias iguales en los mismos colores y luego otra pareja en el color que sobre.

Siguiendo el ejemplo de las dos configuraciones de arriba con el color amarillo y el morado, las parejas de memorias idénticas deberán colocarse en donde esté el amarillo o donde esté morado. Se debe evitar instalar una en el amarillo y otra en el morado, siempre el mismo color.

Si la tarjeta madre con la que trabajas no tiene estos colores, posiblemente es más vieja, y en este caso tienes dos opciones: o instalar las memorias como creas que mejor van y ver si funcionan bien, o buscando el manual de esta tarjeta madre que te mostrará cómo deben ser colocadas las tarjetas.


miércoles, 27 de noviembre de 2013

Las primeras memorias RAM DDR4 llegarán en diciembre 2013

  • La memoria RAM DDR4 es dos veces más rápida que la DDR3.
  • Utilizará 20% menos de energía.
  • Mayor densidad de memoria será posible con esta nueva tecnología.
DDR4 Memory Modules  DDR4 Memory Will Be Released By Next Month
Si estás planeando en invertir en una gran actualización para tu equipo quizás deberías esperar un poco más para tomar las decisiones, es que las primeras memorias RAM DDR4 llegarán al mercado en el mes próximo y tienen ventajas muy interesantes sobre la tecnología anterior, las DDR3.

Si bien la tecnología ya existía no estaba disponible para ser adquirida por los consumidores todavía. Pero la empresa Crucial había prometido su lanzamiento para finales de 2013, y estando a mediados del mes de noviembre, queda claro que será el último mes del año en el que se concretará el anuncio.
Las nuevas RAM DDR4 requerirán una actualización de la placa madre y otros componentes del equipo ya que los que actualmente se venden son compatibles con la tecnología DDR3. Esto limitará su posibilidad de expansión en un primer momento pero a largo plazo significará una gran mejora en rendimiento, gracias a las posibilidades técnicas que esta nueva categoría de memorias puede alcanzar.

memoria ram ddr4

Ventajas de la memoria RAM DDR4

Mayor velocidad: hoy en día las memorias DDR3 tienen una frecuencia que ronda el 1 Ghz, alcanzando 1666 Mhz las de mejor rendimiento. La RAM DDR4 permite velocidad de 2 Ghz o más y esto se traduce al usuario como mayor velocidad del computador al manejar el sistema operativo, aplicaciones y juegos.

Mayor eficiencia: al consumir 20% menos de energía permite reducir el consumo del equipo y la batería. Esto permite, además, una mayor duración de la batería y un ahorro de energía que será algo influyente en instalaciones de gran escala como servidores.

Mayor densidad: una mayor densidad permite alojar más memoria en cada módulo de RAM. Un módulo de 16 GB será posible con la tecnología de la memoria RAM DDR4. Esto permite tener una mayor cantidad de RAM pero sin ocupar tantos slots del computador.


martes, 26 de noviembre de 2013

Todo lo que necesitas saber sobre el Hardware de la PlayStation 4

La competencia a muerte con Xbox 360, y el haber estado circunscrita solo a dos mercados no han hecho mella en lo absoluto en el inmaculado arranque de la PlayStation 4. La estrella de Sony campa a sus anchas, y mientras logras poner tus manos sobre ella, quizás te interesará hacerte agua la boca mirando sus especificaciones técnicas.

PS4
Ayer les estuvimos hablando en profundidad del Hardware que da vida a la nueva Xbox One de Microsoft. Pero Sony también puso a la venta su consola la semana pasada, y este par de bestias ya se están mostrando los dientes, jugando todas sus cartas para intentar aprovecharse de los errores del otro, o sacar jugo a sus principales ventajas.
Si estabas a la espera de analizar punto a punto el Hardware de la nueva consola de Sony, y compararlo con lo que se puede encontrar dentro de la Xbox One, entonces ten el gusto de servirte.

Nueva APU AMD Kaveri, todos los detalles

  • Las nuevas APU llegarán en enero 2014.
  • Mejorará en un 20% el rendimiento de la CPU, y 30% el de la GPU.
  • Aprovechará otras tecnologías de AMD.
  • Aún no hay precio confirmado.
amd a la venta

En la conferencia APU13 se ha hecho la presentación de la nueva APU AMD Kaveri. AMD ha anunciado que Kaverimejorará en un 20% el rendimiento de la CPU, y un 30% el de la GPU. El buque insignia de esta nueva tecnología será el chipset A10-7850K que contará con 3.7 Ghz de frecuencia potenciados por cuatro núcleos que funcionarán con dos módulos Steamroller, otra tecnología propietaria de la compañía fabricante de procesadores y tarjetas gráficas.
La mayoría de las ventajas se deben a su novedosa arquitectura. APU ha sido el nombre que se le ha dado a estas nuevas piezas heterogéneas que combinan en un solo elemento la CPU y la GPU. Esto permite varias cosas que antes eran imposibles. El sistema y el procesamiento gráfico comparten la misma memoria RAM y gracias al conector HUMA pueden traspasarse entre ambos datos que antes tenían la necesidad de más procesos para ser enviados de un lugar a otro.
amd-kaveri

Las consolas de videojuegos Playstation 4 y Xbox One utilizan APUs desarrolladas por AMD. Y pueden significar, junto a AMD Mantle (la API para optimizar videojuegos de AMD) el impulso que la compañía necesita para establecer su tecnología. Si bien en teoría las mejoras introducidas por el conector HUMA son muchas es necesario que los desarrolladores de software optimicen sus creaciones para que utilicen esto, y teniendo en cuenta que Intel sigue siendo dominante en el mercado, era complicado que suceda.
Veremos en un futuro como la nueva generación de APUs se establece en el mercado y si termina convenciendo o no a los consumidores. Cuenta con atractivos innegables para hacerlo: por un lado lamejora de rendimiento, por el otro lado su reducido precio, debido al compartir componentes. Además, las expectativas de crecimiento de este híbrido entre CPU y GPU es mayor mientras más crezca el número de portátiles y tablets en el mercado, que pueden aprovecharse del menor espacio requerido por esta pieza.
Los primeros chips de la APU AMD Kaveri desembarcarán el 14 de enero de 2014, aún sin precio confirmado.

miércoles, 13 de noviembre de 2013

Publican el Codigo Original de la Apple II

El trabajo de Laughton puede observarse en el sitio web del museo.
Es una donación realizada para el Museo de la historia de la computación. El trabajo fue realizado por Paul Laughton en 1978 y tomó unas 7 semanas. 

Apple II fue la primera computadora destinada al mercado masivo que utilizaba la tecnología del casete para el almacenamiento de datos. Tenía en ese momento la nada despreciable capacidad de 4K de memoria, costaba unos USD 1.298. Han pasado unos 35 años desde su lanzamiento y el Museo de la historia de las computadoras ha decidido poner a disposición del público el código original que dio vida al dispositivo. Esta oferta es posible gracias a la donación de Paul Laughton, creador del sistema operativo y el permiso de Apple.

La Apple II no tenía un dispositivo dedicado a los discos y las grabaciones en casete eran un sistema lento. Steve Wozniak logró diseñar un controlador para los discos flexibles con 8 circuitos integrados. Fue probado con un software rudimentario, pero la compañía necesitaba una solución más avanzada y ninguno de sus 15 empleados tenía el conocimiento y el tiempo para la tarea.

Laughton fue contratado en Abril de 1978. Trabajó contra reloj, con plazos que Steve Jobs había establecido para hacer que el controlador de disco de Steve Wozniak fuera capaz de ensamblar programas. La tarea incluía el administrador de archivos, la interfaz en BASIC y las utilidades. La fecha era el 15 de Mayo. En total, el trabajo demandó unas 7 semanas y le supuso una recompensa de unos USD 13 mil. En efecto, los tiempos de trabajo eran mucho más reducidos en esos tiempos y los salarios de la industria más modestos. El Apple II DOS versión 3.1 salió al mercado en Junio de 1978.

El código puede encontrarse en el sitio del Museo. Su valor es claramente documental y tal vez educativo. No es de esperar que alguien emprenda nuevos proyectos basado en el código de Laughton, pero si algo nos enseña la Internet es que siempre hay alguien dispuesto a hacer casi cualquier cosa. De todos modos el código ha sido liberado solo para fines no comerciales, por las dudas.


Microsoft pone Fin al sistema de Evaluacion Comparativa de sus Empleados

Los empleados de la empresa podrán trabajar en equipos sin preocuparse por el éxito de otros.
El cambio es parte de la nueva estrategia de la compañía conocida como One Microsoft. Se busca fomentar el trabajo en equipo y recompensar mejor a los empleados que más contribuyen. 

Este es un año de cambios para Microsoft, sobre todo en su estructura interna. Una de las más recientes modificaciones es el fin del sistema de evaluación comparativa (Stack rating). La idea de este sistema era alentar a los empleados a esforzarse para mejorar sus rendimientos e identificar aquellos que debían ser reemplazados. Sin embargo, en los hechos se alentaba la competencia interna, quizás demasiado. Steve Ballmer (pronto a retirarse de su posición como CEO de la empresa) ya había comenzado a cuestionar la efectividad de la técnica cuando realizó la re estructuración de sus departamentos y divisiones. La nueva Microsoft será una compañía que aliente mucho más el clima de colaboración.

El sistema de rankings suponía la evaluación de los empleados de cada unidad según su rendimiento en términos de porcentaje. Los valores obtenidos se utilizaban luego para establecer cuales empleados se ubicaban en la cúspide, cuáles eran regulares, y quienes ofrecían resultados pobres. Los empleados competían entre sí, dado que por defecto el sistema debía señalar a un grupo de ellos como de rendimiento pobre. Muchos ex trabajadores han señalado al método como un factor de destrucción dentro de la compañía.

El fin del sistema ha sido anunciado en un documento por la encargada de recursos humanos, Lisa Brummel. Según Brummel Microsoft apunta a lograr nuevos niveles en el rendimiento del trabajo en equipo y mayor agilidad para la consecución de las metas que tengan impacto en el negocio. En el futuro los directores de cada área serán libres de recompensar a los miembros de los equipos como ellos crean debido. La empresa tiene la intención de que las recompensas sigan estando vinculadas al impacto que producen las contribuciones de sus empleados. El otro factor clave presente serán los resultados del año fiscal.

Otro de los problemas que el sistema tenía era, según varios de sus críticos, que muchos empleados habían aprendido a utilizar el sistema a su favor. Jugaban con el tiempo de evaluación para obtener las mejores bonificaciones. El nuevo sistema apunta a un ida y vuelta sobre el rendimiento de cada quien mucho más frecuente. Otras empresas que tienen un sistema similar son Amazon, Facebook y Yahoo. Aunque en cada caso las versiones tienen características propias.
 
Fuente:  ZDNet
 

martes, 5 de noviembre de 2013

Hitachi lanza su disco duro UltraStar He6 6TB

[​IMG]


HGST, compañía propiedad de Western Digital, ha anunciado hoy en lanzamiento al mercado de sus discos duros Ultrastar He6 que se caracterizan por estar rellenos del gaseoso helio en vez de aire. Con sus 6 TB de capacidad, están pensados para los grandes servidores de datos, citando ellos mismos a los propios de marcas o instituciones como HP, Netflix, Huawai, CERN, Green Revolution Coding o Code42. Este es el disco duro de mayor capacidad disponible en el mercado y es mejor para el almacenamiento en la nube, RAID, entornos replicados y computación en la nube. Los entornos de escalado también se benefician de estas HDDs.

Anunciados el año pasado, HGST prometió que a fines de este año iniciaría la comercialización de sus discos duros llenos de helio, promesa que cumple con su nuevo disco duro Hitachi UltraStar He6.
El disco duro UltraStar He6 posee el formato estándar de 3.5”, junto con un motor y un "pin" de lectura, una velocidad de rotación de 7200 RPM, interfaz SATA-III (6Gbps) además de dejar un mayor espacio para añadir más platos. Así pues, al estar más juntos entre sí, estos HGST Ultrastar He6 cuentan con 7 platos de 877 Gigabytes, frente a los 5 platos con los que cuentan los discos duros normales como máximo, aumentando hasta los 6 Terabytes su capacidad máxima, ofreciendo una un consumo 23% inferior al de discos duros tradicionales de 4 Terabytes.

Gracias a una densidad 7 veces menor que el aire, el helio permite reducir el coste total del producto al reducir el consumo de energía necesario para dar vida a los elementos móviles del disco y reducir las temperaturas. Se consigue así un disco de 3.5” con una capacidad de 6 TB y un peso de 640 gramos que solo consume 5.3W en estado de reposo.

Como podéis ver en la imagen de arriba, además no se aumenta el grosor del disco duro, así que son igualmente discos de 3.5 pulgadas compatibles con lo mismo que los discos duros habituales. Además, es más ligero que las unidades de 3,5 pulgadas estándar, de cinco discos, a pesar del factor de forma idéntico, ya que dado que el helio pesa menos que el aire, estos Ultrastar He6 pesan unos 50 gramos menos que los discos duros normales de 4 TB de capacidad. Además, según el fabricante, estos discos duros tienen el mejor TCO (total cost of ownership) del mercado, dado que consumen un 49% menos de energía por TB que los discos duros convencionales.

Evidentemente, nada de esto sería posible sin que el disco estuviera totalmente sellado del mundo exterior. Para lograr esto, HGST implementó el proceso HelioSeal, que mantiene la HDD herméticamente cerrada para siempre, o al menos hasta que otras piezas fallen, algo que siempre sucede en algún momento.

Este disco duro está enfocado al segmento empresarial (servidores y micro-servidores), pero Hitachi espera tener disponibles dentro de algunas semanas otros discos duros llenos de helio para el mercado de consumo.

lunes, 4 de noviembre de 2013

Eric Schmidt afirma que es indignante el espionaje de la NSA a Google

El ejecutivo afirmó que enviaron reclamos tanto a la NSA como al gobierno de Barack Obama.

El presidente ejecutivo de Google, Eric Schmidt, afirmó en una entrevista con el Wall Street Journal que el espionaje de la NSA a los data center de su compañía resulta "indignante" si es cierto.
"Es realmente indignante que la Agencia de Seguridad Nacional (NSA) esté mirando entre los data center de Google, si es cierto. Los pasos que la organización estuvo dispuesta a tomar sin buen juicio para llevar a cabo su misión y potencialmente violar la privacidad de las personas, no está bien", aseguró. "Las revelaciones de Snowden nos han ayudado a entender que es perfectamente posible que haya más revelaciones por venir", agregó.

La semana pasada, nuevos documentos revelados por el Washington Post mostraban que la NSA se infiltró en los data center de Google y Yahoo, sin dar aviso a estas compañías, accediendo a los datos de usuarios.

El ejecutivo afirmó que enviaron reclamos tanto a la NSA como al gobierno de Barack Obama. Schmidt indicó que debe haber un equilibrio entre seguridad y privacidad, encontrando un "nivel apropiado" de vigilancia.
"Claramente hay casos donde existe gente mala, pero no tienes que violar la privacidad de cada uno de los ciudadanos de Estados Unidos para encontrarlos", dijo.
La NSA ha negado tener acceso a los servidores de Google o Yahoo, asegurando que los reportes de prensa han malinterpretado los documentos.
 
 
Link: Wall Street Journal


Android 4.4 estará optimizado para móviles de gama baja

Android 4.4 estará optimizado para móviles de gama baja
Android KitKat

Si consideramos que en el campo de los smartphones y tablets se está librando una batalla, Google y Apple serían los dos grandes ejércitos enfrentados. El caso de Apple es muy peculiar porque fabrica tanto el sistema operativo iOS como los dispositivos iPad y iPhone. La situación de Google es muy distinta puesto que crea el sistema operativo Android y está detrás de los dispositivos de referencia Nexus, pero son otros fabricantes como Samsung, LG o HTC los que inundan el mundo de dispositivos.

Lo llamativo es que Apple consigue que la mayoría de los equipos iOS en uso empleen la última versión del sistema mientras que el panorama en el mundo Android está mucho más fragmentado. Las últimas cifras apuntan a que Android Jelly Bean (versiones 4.1, 4.2 y 4.3) está en casi el 50% de los dispositivos, Android Ice Cream Sandwich (versión 4.0) un 20% y Android Gingerbread (versión 2.3) un 28%. El 2% restante lo ocupa Froyo (versión 2.2).

Esto no es debido a que los usuarios de Android sean unos dejados y no actualicen su sistema operativo, sino a que en dispositivos más económicos y de menor potencia no es posible instalar las últimas versiones, que tienen unas necesidades de procesador y memoria que estos dispositivos no alcanzan.
Android KitKat 4.4



Esta situación no es beneficiosa para Google/Android ya que una gran parte del parque instalado no dispone de las últimas características, mientras que su competidor Apple/iOS sí tiene un gran porcentaje de los dispositivos en uso con todos los últimos avances. Y que todos los dispositivos sean compatibles al máximo permite que las apps de ese ecosistema aprovechen todas las últimas posibilidades y ofrezcan una experiencia consistente en todos los equipos.

Google está situando a Android también en el salón con dispositivos como los televisores con Android o Google Chromecast, esa especie de stick USB que se conecta a un puerto HDMI del TV. Y le interesa, más que nunca, que todos ellos “hablen” entre sí y que las apps no se limiten a hacer cosas en cada uno de ellos, sino que establezcan una red personal de dispositivos conectados. Muy recientemente Samsung ha avanzado sus planes a este respecto.

La filtración de un documento interno de Google con características de Android 4.4 KitKat apunta a que quieren remedir esta situación y están afinando el sistema operativo para que pueda correr en dispositivos muy básicos, con sólo 512 Mb de memoria. Asimismo este documento indica que KitKat admitirá el uso de tres nuevos tipos de sensores: de detección de pasos, vector de rotación geomagnético y un contador de pasos.

Esto permitirá que los próximos smartwatches con Android aumenten sus posibilidades como ayuda para mantenerse en forma e incluso para tener mayor precisión de posicionamiento. Parece que también contarán con soporte para emplear un sensor de infrarrojos, que serviría para conectar con televisores, y para emular tarjetas de pago por NFC.



Usar programas de Windows en linux y Mac

Como usar Programas de Windows en Linux y Mac
Como usar Programas de Windows en Linux y Mac
Sabes que en Windows no está todo mal hecho, y si eres un ex usuario de Windows que ha migrado a otra plataforma, seguramente echarás de menos algunas de las características propias del sistema operativo de Microsoft. Ya sea que ahora pases tus días en Mac, Linux o FreeBSD, la incompatibilidad incomoda y por eso te mostramos estas herramientas para usar programas de Windows en Linux y Mac.


Migrar desde Windows es una de las experiencias más liberadoras en lo que hace al uso del software, pero también es cierto que este logro puede convertirse en un dolor de cabeza si no se está lo suficiente preparado o informado sobre los problemas de incompatibilidad existentes en un mundo que tiene a Windows como sistema operativo como dogma. Si eres alguno de los que recientemente se pasó a Linux, Mac OS X o FreeBSD y quieres utilizar aplicaciones de Windows sin tener que instalar el sistema operativo en paralelo, a continuación te presentamos un set de programas para que puedas crear un túnel de compatibilidad y usar programas de Windows en Linux y Mac.
- See more at: http://www.identi.li/index.php?topic=249774#sthash.e23pNWk7.dpuf


Como usar Programas de Windows en Linux y Mac

Sabes que en Windows no está todo mal hecho, y si eres un ex usuario de Windows que ha migrado a otra plataforma, seguramente echarás de menos algunas de las características propias del sistema operativo de Microsoft. Ya sea que ahora pases tus días en Mac, Linux o FreeBSD, la incompatibilidad incomoda y por eso te mostramos estas herramientas para usar programas de Windows en Linux y Mac.

Migrar desde Windows es una de las experiencias más liberadoras en lo que hace al uso del software, pero también es cierto que este logro puede convertirse en un dolor de cabeza si no se está lo suficiente preparado o informado sobre los problemas de incompatibilidad existentes en un mundo que tiene a Windows como sistema operativo como dogma. Si eres alguno de los que recientemente se pasó a Linux, Mac OS X o FreeBSD y quieres utilizar aplicaciones de Windows sin tener que instalar el sistema operativo en paralelo, a continuación te presentamos un set de programas para que puedas crear un túnel de compatibilidad y usar programas de Windows en Linux y Mac.