Novedades en Firefox 4

No hay comentarios:

Hace ya bastante tiempo que no publico nada en el blog, así que, para retomar la escritura quiero hacerlo comentando brevemente algunas de las novedades que incorpora Mozilla enla versión 4 de Firefox

Quizás, varios de ustedes ya están utilizando la versión preliminar del navegador, pero para quienes todavía no lo conocen, ahí vamos con el resumen.

Reubicación de las pestañas
Las pestañas reciben una prioridad mayor, para una navegación más eficiente e intuitiva


Cambiar a pestaña
Permite navegar más facilmente al cambiar a una pestaña abierta desde la barra de direcciones

Botón Firefox
Todos los menúes están en un solo botón para facilitar el acceaso y reducir el desorden

Pestañas de aplicaciones
Las páginas que generalmente están siempre abiertas -como el correo- reciben un lugar fuera de la barra de pestañas, otorgándoles un lugar propio en el navegador

Integración de Firefox Sync


Lo que hasta ahora era un complemento, en esta versión lo tenemos incorporado. Firefox Sync permite mantener sincronizados el historia, las contraseñas, las preferencias y pestañas abiertas entre distintas comnputadoras y celulares, para no dejar nada fuera de nuestro control




Organizacion de pestañas

Firefox 4 nos permite organizar las pestañas abiertas a nuestra conveniencia, armando grupos entre ellas, permitiendo tener una ventana con menos pestañas






Administración de complementos

Administración de complementos de una manera simple, para personalizar Firefox tanto como quieras







Ajustá tu cinturón
(Test realizados en un equipo Dell Optiplex 760 (Intel Core2 Duo) con Windows 7 Professional)
Firefox 4 integra varias mejoras de rendimiento, incluyendo el nuevo motor de JavaScript JägerMonkey. Un inicio más rápido y el renderizado de imágenes mejoran la velocidad de carga de las páginas; la mejora se notará desde el primer momento.

Para más información, pueden visitar la página de novedades (en inglés) de Firefox 4 aquí.

La primera vulnerabilidad "Zero-Day" que no será parcheada en Windows XP SP2

No hay comentarios:
Microsoft ha detectado ataques sobre una vulnerabilidad crítica en Windows Shell, y que afecta a todas las versiones de Windows XP, a Server 2003 y 2008, a Vista y a 7, tanto en versiones de 32 como de 64 bits, service packs incluidos. Esto la convierte en la primera vulnerabilidad grave y explotable que no será parcheada en Windows XP SP2, tras la retirada del soporte tanto para esta versión como para Vista RTM.

Si por el motivo que sea no has querido o no has podido instalar el SP3 en Windows XP (o el SP1 o SP2 en Vista), que sepas que tienes un sistema que sólo podrás proteger mediante trucos bastante incómodos. Aunque no aparece en la lista de Microsoft, hay que dar por hecho que Windows 2000 es vulnerable y no recibirá parche, al eliminarse su soporte por completo la semana pasada.

Aunque en la nota oficial afirman que la vulnerabilidad se está aprovechando usando pendrives infectados, también es posible explotarla a través de archivos compartidos por red o WebDAV.

El bug se encuentra en la gestión de los accesos directos (“shortcuts”) por parte de Windows, en concreto de los archivos donde se almacena la información relativa a dicho acceso (con extensión “.lnk”). Aparentemente, Windows comete un error al interpretar estos archivos, de tal forma que tan sólo hace falta que el usuario vea el contenido de la carpeta donde se almacena el acceso directo malicioso para aprovechar la vulnerabilidad. Ni siquiera es necesario ejecutar el acceso directo.

Debido a esto, tener desactivado el “autorun” y el “autoplay” no protege al usuario. Además, un rootkit que aproveche este fallo también evita todos los mecanismos de seguridad incluidos en Vista y 7, incluido el UAC (User Account Control).

Con la velocidad de reacción que le caracteriza, Microsoft aún no ha anunciado cuando resolverá el fallo, que suponemos no llegará hasta la próxima “fiesta del parche”, que toca el 10 de Agosto.

Mientras tanto, hay soluciones provisionales. Hay que evitar que Windows muestre los accesos directos, y también hay que desactivar el servicio WebClient. En ambos casos hay que trastear en sitios donde el usuario medio no debería ni mirar, con el engorro que supone además no disponer de accesos directos… teniendo que acudir directamente al ejecutable para abrir el programa que sea.


Fuente: Genbeta mediante GoogleReader

¿Hasta cuando existirá el software privativo?

No hay comentarios:

A mediados de los 70´,el mundo del software era muy distinto a lo que hoy conocemos. La informática todavía no había dado su salto comercial; las empresas que comercializaban mainframes y supercomputadoras no veían al software como un producto comercial. Era un simple agregado que venia incluido con el equipo en cuestión y no se lo pensaba como un producto. En este contexto, los programadores creaban y compartían el software que desarrollaban con total libertad. En muchas ocasiones, ellos mismos eran quienes creaban drivers y programas para el correcto funcionamiento de los dispositivos que utilizaban. Pero todo eso cambio, cuando las empresas comenzaron a poner clausulas al uso y distribución del software; así fue que Richard Stallman comenzó a gestar los ideales del Software Libre y la Free Software Foundation.

El software privativo se impuso y creó un mercado muy rico. La gran mayoría de personas que se iniciaron en la informática, lo hicieron de la mano del software privativo. Los años 90´ fueron el boom de la computación y el software en general; salían cientos de revistas “especializadas” donde buscar las ultimas noticias de este nuevo mundo tecnológico; el mercado de los videojuegos termino de asentarse y se vislumbraba un futuro muy esperanzador para cualquiera que se interesara en este rubro. Debemos reconocer que el software privativo fue el puntapié inicial para que todo el mundo sepa que una computadora es una herramienta de trabajo y entretenimiento.

Pero la década del 90´ ya paso. Estamos ante un nuevo escenario, muy distinto al de aquellos años. El acceso “casi” universal de Internet nos permitió conocer un mundo totalmente distinto al que estábamos acostumbrados a ver. Esto ayudo muchísimo al software libre; la difusión que tuvo en los últimos años es (me animo a afirmar) consecuencia directa de la ampliación del acceso a Internet. Hoy hay cientos de blogs, revistas, paginas web y documentación para que cualquier persona pueda conocer mas a fondo todo el software libre que hay a su disposición, cosa que en los 90´ no era tan fácil de hallar.

En pleno 2010 estamos viviendo un cambio de paradigmas inmenso. Hace apenas 20 años, no podíamos vislumbrar una PC sin Windows o Mac OS; hoy tenemos empresas, municipios y millones de usuarios alrededor del mundo utilizando solamente software libre. Algunos lo harán por cuestiones filosóficas, otros por su escaso (o nulo) costo y muchos mas, por su personalización. Pero se usa y se sigue difundiendo, eso es lo que importa. Hace 20 años, el software privativo llevo a las computadoras a cada rincón del planeta. Hoy lo sigue haciendo; pero detrás hay otro tipo de software que también esta tomando relevancia. Piensen en Ubuntu. Hace apenas 6 años que existe y ha cosechado enormes éxitos. ¿Alguien se imagino que la palabra “Linux” aparecería en los noticieros, de forma natural?

Creo que estamos en un momento crucial. No, perdón. Estamos en las etapas iniciales de un momento crucial en la informática. Estoy seguro que en los próximos años, el software libre seguirá creciendo a pasos descomunales y seguirá el mismo camino que su contraparte privativo en los años 90´: creará un nuevo mercado, más libre, más competitivo y más equitativo.

Las grandes discográficas ya están sufriendo las consecuencias de no aceptar los cambios. Todavía le queda mucha vida al software privativo, pero el avance del software libre es cada vez mayor. OpenOffice.org está creciendo a pasos agigantados; he leído estudios donde afirman que está instalado en un 15% de los equipos de todo el mundo. Firefox tiene una cuota de mercado mayor al 25%, mientras que Chrome trepa el 7%. En cuanto a OS, todavía falta para alcanzar una cifra significante. La última estadística que leí, situaba a Ubuntu con mas de 13 millones de usuarios y a GNU/Linux (en general) con un 1% de cuota de mercado mundial.

¿Cómo será el escenario en los próximos 5-10 años? Seguramente muy alentador para el software libre. ¿Dejará de existir el software privativo? Si, no me queda ninguna duda. Pero, lamentablemente, falta mucho para que eso suceda. ¿Ustedes que opinan?


Fuente: Puntogeek

Aceleración por GPU. Qué es?

No hay comentarios:

¡Yupiii, tenemos aceleración GPU! ¡No sé lo que es, pero suena guay!

Últimamente estamos hablando bastante de la aceleración por hardware o por GPU. Que si Internet Explorer 9 tendrá aceleración por GPU, que si Firefox usará aceleración por GPU, VLC decodifica por medio de la GPU... Pero, ¿qué es eso de la aceleración por GPU?

Realmente, esto no es algo nuevo. La aceleración por hardware se usa desde hace mucho en aplicaciones con una gran carga de gráficos, como por ejemplo, programas CAD, de diseño 3D o en videojuegos. Lo que pasa es que ahora otros programas que en un principio no trabajan tanto con gráficos, como los navegadores o reproductores de vídeo, también se están aprovechando de esta característica.

Antes de que me líes más. ¿Qué es la GPU?

Chip GPU. Fuente: Wikimedia.Por sus siglas, la GPU es la Graphics Processing Unit, o unidad de procesamiento de gráficos. Es un chip que está en la tarjeta gráfica del ordenador, podéis ver uno en la imagen de la derecha. Normalmente, llevan un ventilador o disipador encima para evitar que se sobrecaliente.

¿Qué ventajas aporta la aceleración por GPU?

La CPU es una unidad de procesamiento general, está preparada para operaciones matemáticas y lógicas para que con ella podamos realizar casi cualquier tarea a una velocidad más que suficiente. El problema viene cuando nos metemos en programas con una carga gráfica muy grande, como pueden ser videojuegos o programas de diseño 3D. Estos programas están continuamente procesando formas y texturas, y hacerlo por medio de la CPU no suele ser muy buena idea, ya que no está específicamente diseñada para estas tareas. Para eso está la GPU, que aporta varias ventajas.

La primera y más evidente: que tenemos un procesador más. Además, este procesador está específicamente diseñado para trabajar con gráficos, con funciones específicas y una arquitectura muy basada en el procesamiento en paralelo. En pocas palabras, con la aceleración por GPU lo que hacemos es quitar trabajo a la CPU y dárselo a la GPU, que lo hará más rápido y mejor.

Hay casos de programas que usan aceleración por GPU, pero sin embargo no trabajan con formas, como por ejemplo los reproductores de vídeo. Entonces, ¿para qué usan la GPU? Resulta que algunas tarjetas gráficas soportan la decodificación por hardware. Es decir, dan la posibilidad de decodificar un vídeo por medio de un chip integrado, que lo hace más rápido y quitando carga a la CPU.

¿Y funciona de verdad?

Sí, y lo hace bastante bien. Vamos a ver algún ejemplo aquí. El primero, el que nos enseñó Ryan Gavin durante la entrevista que le hicimos. Vamos a comparar el rendimiento de IE 9 con aceleración GPU y el de otro navegador sin aceleración GPU, como por ejemplo Chrome:

Realmente impresionante, ¿verdad? Mientras que sin GPU Chrome apenas podía con 36 imágenes, con laaceleración GPU hemos podido ver cómo IE 9 manejaba hasta 256 imágenes con bastante fluidez.

Otras aplicaciones también usan la aceleración por GPU. Desde la versión CS4, Photoshop y el resto de la suite de Adobe aprovecha la potencia de la tarjeta gráfica para aumentar el rendimiento de la aplicación, sobretodo cuando trabaja con gráficos 3D. Google Earth también tiene aceleración por GPU, y, en general, todos los programas que trabajen con 3D.

También hay programas que aprovechan la capacidad de decodificación por hardware de algunas tarjetas. La última versión de VLC o el reproductor Flash, por ejemplo, son capaces de decodificar vídeo H.264 por medio de la tarjeta gráfica, mejorando mucho el rendimiento de la reproducción.

Todo esto que dices es muy bonito, pero…

Sí, claro que hay inconvenientes, pero no muchos comparados con las ventajas en rendimiento. La mayoría de los ordenadores vienen con tarjetas gráficas integradas y lo suficientemente potentes como para soportar bien la aceleración por GPU. Los usuarios apenas tendremos que hacer nada para poder usar estas características, y de hecho puede que las estés usando en bastantes programas sin darte apenas cuenta. Siempre que veas un programa con alguna opción para configurar DirectX u OpenGL está casi seguro usando la GPU (Direct3D, dentro de DirectX, y OpenGL son librerías para trabajar con gráficos en laGPU).

En resumen, la aceleración GPU es algo muy sencillo. Se trata de derivar el trabajo con gráficos a quien está especializado en ello: a la tarjeta gráfica. De esta forma, mejoramos el rendimiento por dos vías: quitando carga a la CPU y usando los procedimientos de la tarjeta gráfica, que son más rápidos y eficientes.

Hasta aquí este artículo, espero que os haya aclarado las ideas y haya servido de ayuda, y si tenéis alguna pregunta, no dudéis en exponerla aquí para que os la intentemos resolver.



Fuente: Genbeta

Qué tan segura es una contraseña?

No hay comentarios:

Sin duda alguna, una de las mayores precauciones que debemos tomar para proteger nuestros datos en Internet y en nuestro propio equipo es crear una contraseña segura y fuerte.

Comúnmente las contraseñas más usadas son cortas, son palabras comunes y utilizan sólo letras minúsculas. Si nuestra intención es crear una contraseña fuerte debemos tener en cuenta los siguientes elementos:
  • Debe tener por lo menos 8 caracteres
  • Debe incluir mayúsculas y minúsculas intercambiadas
  • Debe incorporar por lo menos un número
Con esto en mente podemos llegar a tener contraseñas con una complejidad media hacia arriba, pero si queremos que sea verdaderamente segura
debería mezclar mayúsculas, minúsculas, números y caracteres especiales (@, =, %, ", etc)
  • debería tener más de diez caracteres de longitud
  • no debería estar compuesta por palabras sino por acrónimos (OmeGs = Oíd mortales el Grito Sagrado)
  • no debe incluir información que nos asocie con la contraseña (nombre, fechas, domicilio, etc)
A los fines de comprobar si una contraseña es segura o no existe el sitio howsecureismypassword.net que nos permite probar la fortaleza de una contraseña a medida que la escribimos

En este caso la contraseña a verificar es codexdigital

En este segundo caso se usaron dos mayúsculas. La contraseña es CodexDigital

En este tercer caso agregamos dos números. La nueva contraseña fue CodexDigital00.

Nótese el incremento en el tiempo de descifrado de la contraseña en la medida que agregamos elementos de seguridad
  • 8 dígitos = 10 segundos
  • 8 minúsculas = 5 horas
  • 8 mayúsculas = 5 horas
  • 4 dígitos + 4 minúsculas = 3 días
  • 4 mayúsc. + 4 minúsc. = 61 días
  • 8 caracteres combinados = 252 días
  • 13 caracteres (incl. especiales) = 654 billones de años
Así que ahora estamos en condiciones de experimentar nuevas combinaciones para disfrutar de mayor seguridad en la red de redes.

NOTA: No se debe pasar por alto que el cálculo se hace en base a la capacidad de cómputo de un equipo normal de escritorio, por lo que los tiempos mostrados pueden disminuir considerablemente si se trata de equipos más potentes los que se encargan de encontrar la contraseña