martes, 6 de octubre de 2009

Wave, el curioso servicio de Google


Por Pablo Martín Fernández (La Nación, Buenos Aires)

Google lanzó Wave a fines de mayo . Desde aquel momento las expectativas sobre el servicio, al que la firma le dedicó un video de más de una hora para explicar su funcionamiento, no dejaron de crecer sin tener demasiado en claro qué era esta nueva herramienta que esperaba revolucionar las comunicaciones online. Recién la semana pasada la compañía liberó 100.000 invitaciones . El visto bueno para lanacion.com llegó ayer, lunes, a la noche.
[Sigue +/-]

Luego de recibir la invitación Google pide, en caso de usar el navegador de Microsoft, que usemos Internet Explorer bajo nuestro propio riesgo. Luego de cambiar de browser para abrir la cuenta se necesita un usuario de Google. Después de este paso el usuario se encuentra con un inbox, así se llama, con dos mensajes (uno de bienvenida enviado por Doctor Wave y otro con las invitaciones para que terceros prueben el servicio).
Se podría decir que la pantalla inicial de Wave tiene tres cuerpos. A la izquierda se encuentra el menú principal con algunas opciones (en inglés: inbox, all, by me, requests, spam, settings y trash), luego en la columna central se encuentra el inbox con una suerte de mails, tecnicamente "waves", y a la derecha la última columna con el contenido de ese "wave".
Para crear un nuevo "wave" se clickea sobre el botón "New Wave". Así se abre un editor similar al de un e-mail pero con funcionalidades extras muy interesantes. Por un lado se puede invitar a terceros a trabajar sobre ese contenido. A esto se le puede sumar automáticamente, sin salir de la pantalla, el resultado de una búsqueda en Google Search, en Images, en Books y es esperable que a futuro en muchos otros servicios, como YouTube. Además, se pueden sumar aplicaciones directamente en el Wave recientemente creado. Si bien todavía no existe un posible ejemplo es una planilla de cálculo dentro del contenido editable.
Un ejemplo puede servir. En el supuesto caso de un trabajo en equipo sobre un proyecto del que forman parte tres personas, que entregan el borrador a otro individuo, hasta ahora se hubiesen cruzado varios e-mails, mensajes por chat, llamadas y con algo de suerte hubiesen tenido una reunión cara a cara.
El nuevo enfoque del servicio de Google permite que todas las personas trabajen sobre el "wave", no solo con texto sino con archivos multimedia y ,lo que tiene más potencial, aplicaciones que corren directamente sobre el sistema (en el ejemplo de la imagen, una encuesta). Luego pueden sumar a su jefe a la conversación y esté puede ver con un reproductor el paso a paso de la conversación (así el intercambio de participación es una suerte de película).
La sensación en el primer encuentro con Wave es que se está frente a una plataforma nueva que toma muchos elementos prestados de tecnologías anteriores pero con una vuelta de tuerca que parece tener mucho potencial. Habrá que ver cuantos usuarios sienten que el e-mail tradicional les queda chico.
Este comentario es una primera aproximación a Wave, realizada horas después de recibir la invitación. Eso sumado a que, como cualquier herramienta "social" cuanto más usuarios tenga más sentido va a tener (¿cuál es la gracia de tener contenido editable si no hay con quien editarlo?), hace creer que el servicio será totalmente distinto con el paso del tiempo. Si con el correr de los días se hace necesario profundizar en la herramienta lo contaremos en este mismo canal.

Presentación (en inglés)


sábado, 3 de octubre de 2009

Antivirus gratis de Microsoft. ¿Por qué?


Por Ariel Torres
(La Nación, Buenos Aires)

¿Hace falta otro antivirus gratis? ¿Necesita Microsoft entrar en el negocio de la seguridad? Si algo falla, ¿no ha acumulado la empresa ya suficiente publicidad negativa en este rubro? ¿O es que la compañía cofundada por Bill Gates sólo ve un fin para las crisis de seguridad informática en transformar el antivirus en algo gratis y para todos (todos, menos los que no tengan una copia legítima de Windows)? ¿Está Microsoft rindiéndose a la evidencia de que sólo obtendrá una parte de ese mercado regalando sus productos o ve en esta práctica la única forma de vencer a la competencia? ¿A los piratas? ¿A ambos?
Lo más importante: ¿en qué afectará al usuario final la aparición de un antivirus gratis del fabricante de Windows y Office?

[Sigue +/-]

Realidad y apariencia
El software de seguridad para usuarios finales es uno de los mercados más maduros de la industria informática. No sólo es prácticamente el único en el que el consumidor encuentra una oferta variada de marcas y modelos, sino que además provee suficientes opciones sin cargo. En casi todas las demás áreas de la informática, la concentración es manifiesta. ¿Cuántos sistemas operativos hay para PC? Uno, Windows. Dos, si sumamos Linux. ¿Plataformas? PC y Mac, nada más. ¿Fabricantes de microprocesadores? Existen varios, pero son los de Intel y AMD los que podemos poner en una computadora. ¿Paquetes de oficina? Uno solo domina por mucho: el Office, de Microsoft. Suman dos, si añadimos el OpenOffice.org , obra ejemplar de la comunidad del software libre. ¿Buscadores Web? Google domina con facilidad; los competidores tampoco son multitud: Yahoo! y Bing (Microsoft de nuevo), y ya. Hay pocos fabricantes de todo, menos de antivirus. En este rubro compiten Symantec, McAfee, Kaspersky, Panda, Sophos, Trends, ESET, F-Prot, BitDefender, F-Secure, e-Trust (Computer Associates) y otra media docena. Además hay tres excelentes antivirus gratis, el Avast!, AVG Free y Avira . En rigor, son más: ClamAV y Gateway Anti-Virus son de software libre; BitDefender pone versiones anteriores gratis de sus productos a disposición del público, tras registrarse en el sitio de la empresa.

¿Qué ve el coloso de Redmond en este terreno?
Hace rato que le busca la vuelta. O creemos que le busca la vuelta. En realidad, la estrategia puede ser muy diferente de lo que parece. En todo caso, hasta ahora, no ha tenido éxito en el mercado de la seguridad hogareña. Ni con el anti spyware Windows Defender ni con el servicio online Live OneCare. Desde el martes, con el lanzamiento semioficial del Microsoft Security Essentials ( MSE ; www.lanacion.com.ar/1180510 ), vuelve a arremeter para hacerse un lugar en el área de la seguridad.
Está trabajando en el proyecto desde noviembre de 2008. Como es de esperar, los ejecutivos de las empresas que hoy dominan este mercado no han estado durmiendo bien desde entonces. Aunque en público algunos hayan subestimado el valor del MSE , cuando una compañía cuyo valor de mercado es de 231.000 millones de dólares se le mete en la cabeza entrar en tu negocio, hay motivos para preocuparse.
Sin embargo, los fabricantes de potentes antivirus comerciales para uso doméstico pueden respirar tranquilos, en mi opinión. A Microsoft no le interesa para nada el negocio de la seguridad. Si hubiera querido competir con Symantec, McAfee o Kaspersky, habría lanzado un software en el nivel de los mejores mediante una multimillonaria campaña de marketing global. O habría adquirido alguna de estas empresas; no le falta ni el dinero ni la agresividad, como quedó demostrado con el intento de compra hostil de Yahoo!, el año último. Sobra de dónde elegir, además. De hecho, el software de seguridad que hoy ofrece es fruto de una adquisición que hizo en 2005, cuando se quedó con Sybari, un desarrollador de anti spam y antivirus para Exchange y SharePoint.
El plan de Microsoft es otro.

Windows AV
Si uno mira la historia de los sistemas operativos para PC ve que han ido incorporando funciones que antes estaban en manos de terceros, desde el cortafuegos hasta la compresión de archivos y discos (¿recuerda el affair Stacker , de 1994? http://en.wikipedia.org/wiki/Stac_Electronics#Microsoft_lawsuit ), pasando por la reproducción de películas y música, y la visualización y organización de fotos. El DOS, primero, y Windows, luego, han ido integrando funciones casi sin que nos diéramos cuenta. Incluso un navegador Web, que hoy damos por sentado. Un programa de correo electrónico. Copia de seguridad. Nada de eso estaba originalmente en el sistema operativo.
Sin embargo, más tarde o más temprano, y por los motivos que fuesen, una aplicación se volvía tan omnipresente que Microsoft la agregaba en su sistema. En ocasiones era simple sentido común, como la descompresión de archivos; en otras formaba parte de una estrategia para conquistar un mercado, como en el caso del Internet Explorer.
Así, Windows hoy integra reproducción de música, videos, CD, DVD, navegación Web, correo electrónico, cortafuegos. ¿Por qué no un antivirus?
La empresa posiblemente tendría problemas con los reguladores si quisiera incorporar un antivirus a Windows, arriesgándose a más juicios por abuso de monopolio. De hecho, algunas de las empresas antivirus más pequeñas ya pronostican prácticas de esta clase por parte de los creadores de Windows. Pero, ¿desde cuándo esto ha sido un obstáculo para Microsoft? Además, ¿por qué se le permite integrar un cortafuegos y no la otra herramienta fundamental de la seguridad, el antivirus?
Ya lo he dicho en numerosas ocasiones, e insisto: el antivirus siempre debió venir con el sistema operativo. Es responsabilidad de la industria en general y de Microsoft en particular que la PC sea tan vulnerable a los ataques informáticos. Un antivirus que venga con el sistema (Windows o cualquier otro, es igual), adecuado al uso doméstico y que se actualice automáticamente es una deuda que la informática personal tiene con los usuarios desde siempre. Y desde siempre hemos subsanado esto gracias a la buena voluntad de empresas como Alwill ( Avast! ), AVG Technologies y Avira. Es absurdo.
Uno no puede hoy comprar un auto sin cinturones de seguridad. No existen. No se fabrican. Si además queremos ABS, airbags, control inteligente de tracción, radar antichoque, HUD, visión nocturna, GPS y frigobar, bueno, hay que pagar más. Pero la seguridad básica ya no es opcional.
(Parece fácil rebatir el anterior argumento diciendo que si todos usáramos Linux entonces no harían falta antivirus. Esto no es así. El primer gusano de Internet, el Morris , lanzado el 2 de noviembre de 1988, aprovechaba una vulnerabilidad de sendmail , el agente de transporte de correo de Unix, y causó un desastre. En segundo lugar, la realidad es que la inmensa mayoría de las personas usa Windows, no Linux. La seguridad de las personas no se logra con aspiraciones, deseos o buenas intenciones; como dice el refrán, el pan se hace con la harina que se tiene. Y si bien el ciclo de correcciones de Linux es más veloz que el de Windows -lo sé por experiencia cotidiana-, eso no significa que sea invulnerable. Cuando los piratas se lo proponen, siempre encuentran la forma hackear un sistema.)

En el mundo real
Estuve probando el MSE . Está a la altura de los tres antivirus gratis mencionados. No se puede comparar con soluciones comerciales más complejas y abarcadoras, pero es pequeño, fácil de usar y con un buen nivel de detección. Básico pero suficiente, si se lo combina con una conducta prudente, un firewall decente y se mantienen el sistema operativo y las aplicaciones actualizados. En rigor, usa el motor y las bases de datos de virus y spyware del ForeFront .
Pero seguía sin entender qué motivo podía tener Microsoft para hacer esta movida. Y que la seguridad hogareña fuese un plato tentador para esta empresa me seguía pareciendo muy poco creíble. Así que hablé con Diego Pérez de Gracia, Product Manager de los soluciones de seguridad de Microsoft de Argentina y Uruguay. Acerca del porqué del MSE , me dijo: "Nosotros hace tiempo que estamos en el mercado de la seguridad corporativa. Hace unos años Microsoft adquirió una empresa llamada Sybari, que tenía una serie de soluciones denominadas Antigen ; el ForeFront se basa en esa tecnología. Ahora, ¿qué pasa con el mundo hogareño? En este caso el objetivo es que la gente no tenga una mala experiencia con nuestros productos, así que con el MSE tratamos de asegurarnos de que el crecimiento de los virus no opaque esa experiencia.

-Sin embargo, hay una cantidad de antivirus gratis muy buenos. ¿Por qué añadir otro? ¿Piensan que si el público ve la marca Microsoft lo va a instalar más?
-Queremos ofrecerle una solución antivirus Microsoft a nuestros clientes.

-¿Por qué no integrarla directamente en Windows?
-Por ahora no está previsto incorporar un antivirus en Windows.

-¿El MSE seguirá siendo gratis en el futuro?
-No hay planes para que deje de ser gratis.

Hasta aquí, la voz oficial. Como dije, tengo la sensación de que le ha llegado el turno al antivirus de formar parte del sistema. Es una especulación, claro, pero es la única explicación que le encuentro a un antivirus gratis de parte de Microsoft: que en el futuro se lo integre a Windows. Si es así, le doy la bienvenida. Es algo que debió estar presente desde el día 1 de la informática. El MSE podría ser el primer paso en esa dirección. Microsoft no lo hace por filantropía o altruismo. Simplemente, el nivel de inseguridad es tan serio que ya afecta a sus negocios.
Un estudio de McAfee reveló en 2007 que casi la mitad de los usuarios de PC cree que tiene un antivirus pero en realidad no es así, o en efecto lo tiene, pero no está actualizado. Cada una de esas máquinas es un agente potencial e involuntario al servicio de los piratas. La visibilidad de Microsoft y su dominio del mercado de los sistemas operativos para PC podrían contribuir a que más personas instalen un antivirus en sus equipos (en este caso, el MSE ) y lo mantengan debidamente actualizado.
No me explico, sin embargo, por qué no está abierto también para los Windows sin licencia validada. A fin de cuentas, los parches críticos sí están disponibles para esas instalaciones ilegales. Y a los piratas poco les importa si el Windows tiene licencia legítima o no; si pueden aprovechar el recurso, lo harán. La única lógica de esto es que en el futuro el MSE venga con Windows y que las actualizaciones de sus bases de virus y spyware se completen exclusivamente tras validar la licencia. En ese caso, el MSE le serviría a Microsoft no sólo para mejorar la seguridad de Windows, sino como un arma contra la piratería.
En última instancia, todo dependerá de la solidez del MSE , que sólo se verá en el día a día. Lo tengo instalado y la experiencia en contacto con el mundo real será la única jueza válida aquí.

sábado, 26 de septiembre de 2009

Seis de cada diez computadoras usan software sin licencia en la Argentina



Por Guillermo Tomoyose
(La Nación, Buenos Aires)

El uso de software ilegal alcanza a casi 6 de cada 10 computadoras en la Argentina, según un estudio realizado por Business Software Alliance (BSA). "Si bien desde 2006, año que usamos para la comparación, se observa un descenso en la tasa de piratería, del 77 al 73 por ciento en 2009, nos encontramos 32 puntos arriba de Chile y Brasil, los países mejor posicionados de la región", le dijo a lanacion.com María de Monserrat Guitart Piguillém, vocera y asesora legal del organismo que agrupa a diversas empresas del sector, tales como Adobe, Apple, IBM y Microsoft, entre otras .
[Sigue +/-]

Pese a contar con una alta tasa de piratería, el leve descenso que se produjo en los últimos años es el resultado de las campañas que se emprenden en el ámbito corporativo. "La regularización no sólo comprende la compra de licencias, sino que también contempla que la empresa opte por software libre", detalla la asesora. "De hecho, lo que se busca respetar es el derecho de autor y la propiedad intelectual".
En términos más amplios Guitart Piguillém destaca que, de a poco, este tema se instala en la sociedad. "El comportamiento de los usuarios también cambió. Ahora se adquiere una mayor cantidad de equipos de marca, que ya cuentan con software legal de fábrica, cuando antes la adquisición de un equipo prearmado o clon muchas veces contenían programas sin licencia".

jueves, 24 de septiembre de 2009

Google le agrega comentarios a todos los sitios web



Por Guillermo Tomoyose (La Nación, Buenos Aires)

Google presentó una nueva función denominada Sidewiki , que permite hacer comentarios sobre un sitio web, y ver las anotaciones que realizaron otros usuarios. Este agregado se incorpora a la aplicación Toolbar. A su vez, permitirá que los contenidos cargados también se puedan compartir en otras plataformas, tales como Facebook, Twitter o Blogger.
[Sigue +/-]

"En primera instancia estará disponible para los navegadores Internet Explorer y Firefox, y más tarde en Chrome", le dijo a lanacion.com Daniel Helft, gerente de Comunicaciones de producto de Google para América Latina.

A diferencia de las plataformas wiki, que se acceden desde una dirección web específica -un ejemplo típico sería Wikipedia- Sidewiki es una función que permite el ingreso de observaciones y la visualización de los comentarios realizados por otros usuarios de Internet desde Google Toolbar.
"Los comentarios serán visibles desde la función Sidewiki, disponible desde la última versión de Toolbar, y no estarán visibles desde una búsqueda web de Google", dijo el ejecutivo. A su vez, los administradores de un sitio web contarán con la posibilidad de moderar dichos comentarios, pero no podrán restringir este tipo de anotaciones.

Si bien Google Sidewiki puede ser útil para aquellos sitios que no ofrecen la posibilidad de realizar comentarios, esta función puede ser redundante en las plataformas de blogs.

"Además, Sidewiki contará con un algoritmo que clasificará cada uno de los comentarios ingresados, y mostrará en primer lugar aquellos cuyo contenido sea más relevante de acuerdo al perfil del usuario, según su relación con el tema y su presencia en la Red", dijo Helft sobre el posicionamiento de los diversos post publicados en el sistema.

sábado, 19 de septiembre de 2009

Lo bueno, lo lindo y lo malo del iPhone 3GS


Por Ariel Torres
(La Nación, Buenos Aires)
Como adelanté hace unos meses, decidí cambiar mi Nokia E70 (un modelo de 2006 robusto pero lento y, en muchos sentidos, obsoleto, es decir sin 3G y sin GPS) por un iPhone. Me armé de paciencia y esperé que llegara el 3GS, que ahora llevo usando desde hace más o menos una semana.

Dada mi profesión, pruebo una docena de celulares al año. Quien se especializa en el tema aquí, en la sección Tecnología, es Ricardo Sametband, pero los equipos pasan también por mis manos en algún momento. Cada tanto, cuando alguno me atrae particularmente, hago un videoanálisis.

Hasta ahora, sin embargo, ninguno me había tentado lo bastante para dejar el sólido y versátil E70 atrás. Excepto el iPhone.
[Sigue +/-]

Me gustó desde la primera versión, llamada 2G, y está a años luz de los demás móviles, y no por sus funciones, sino por la relación que establece con el usuario . Una vez más, como con las interfaces gráficas para computadoras hace 25 años y con el iPod en 2001, Apple marcó el rumbo por seguir. Hacía mucho que no disfrutaba tanto con un dispositivo electrónico, y ése es precisamente el secreto del iPod y el iPhone: es una placer usarlos.

Sin embargo, el nuevo modelo es una combinación de luces y sombras. Estaría bastante frustrado si no hubiera encontrado un atajo para su falla fundamental: la batería.

¡Además, no trae el trapito para limpiarlo!

Velocidad
Hablando en serio, el 3GS es notablemente más rápido que el modelo anterior, el 3G. Esto se nota sobre todo al abrir aplicaciones, no tanto al ejecutarlas. Que un programa tarde en arrancar me saca de quicio, así que para mí esta presteza es significativa. También cargan más rápido algunas páginas Web. En el desempeño del equipo (mensajes de texto, iPod e incluso los actuales juegos 3D) no hay una gran diferencia con el modelo anterior, no al menos una que justifique la compra. Por ahora.

Esta situación irá cambiando a medida que aparezcan aplicaciones que aprovechen la mayor potencia del 3GS. Aunque esto, como se verá enseguida, podría ser más un castigo que una bendición.

Por ahora, donde más se nota la mayor potencia del 3GS es en que la característica y todavía inigualada capacidad de respuesta de la pantalla sensible del iPhone ha mejorado aún más. Ya no hay que esperar un par de segundos hasta que se le ocurra rotar. Todavía no es instantáneo, pero casi.

Toma 3
Otros dos factores que ponen al nuevo modelo por encima del anterior son la cámara de video de 3 megapixeles con autofoco y la posibilidad de grabar videos (sin hacer un jailbreaking ; es decir, desbloquearlo). En ambos casos, el teléfono también enfoca cualquier parte de la imagen que toquemos en la pantalla. Excelente. Saca fotos aceptables y graba videos razonablemente buenos; las películas, además, pueden cortarse en el teléfono y guardar la copia editada o sobrescribir el video original.

Aunque con más megapixeles, la cámara del 3GS sigue dando fotos con bastante grano (se llama ruido, en la jerga), defecto que arrastra desde las versiones anteriores; en condiciones de poca luz, esto está muy por debajo de lo admisible para un celular de este costo.

Ahora, ¿tanto trabajo era agregar un botón de obturación? Yo entiendo que el diseño es para Apple más importante que el oxígeno, el agua y la luz solar. Pero un botón chiquito, a la derecha, que ni se note...

Nada, seguimos trabajando con ese botón en pantalla. No es que me saque muchas, pero adiós a las autofotos por ahora.

Wi-Fi
La recepción de Wi-Fi no ha mejorado ni un poco. En las condiciones adversas de mi caserón de paredes gruesas y mucho hierro, con el router inalámbrico a 20 metros y en el primer piso, ambos, el 3G y el 3GS son incapaces de captar la señal. En cambio, el veterano E70 la tomaba con la misma facilidad que una notebook. Para que quede claro, es prácticamente imposible para un celular captar mi router a esa distancia y con tantos obstáculos, pero tenía la esperanza de que hubieran mejorado un poco este aspecto y que estuviera a la altura del E70. No es así.

Dado el consumo de batería que impone la banda ancha móvil (llamada 3G; de allí el nombre de la segunda versión del iPhone), tendré que poner otro router en el medio para puentear la señal Wi-Fi o convocar a espíritus del más allá que empujen las microondas con más fuerza. También se puede reforzar la señal por medios físicos, pero eso puede ser visualmente grotesco; incluso en mi estudio atiborrado de hardware.

Lo peor del 3GS
El punto más débil del nuevo iPhone es la duración de su batería. Si se lo usa con todo lo que el teléfono tiene de interesante (banda ancha móvil, Push y GPS), no durará un día. De hecho, se reducirá a bastante menos de un día, si además se abusa de la aceleración 3D, el otro punto fuerte del nuevo modelo. Algunos han sugerido que los 3GS cuyas baterías duran poco están fallados. No lo están. Lo que está mal es la batería instalada por Apple.

La de este nuevo modelo es de 1219 miliamperios por hora (mAh), mientras que la del modelo anterior es de 1150 mAh. El procesador del 3GS (un ARM Cortex-A8) es 45% más veloz que el del 3G, y aunque es verdad que también es más eficiente, es imposible que sea 39% más económico en términos de consumo.

A esto se suma la aceleradora de video. En el modelo anterior era una PowerVR MBX Lite, diseñada para consumir poco. La del 3GS es una PowerVR SGX, más nueva y (adivine) más potente; una aceleradora de video con todas las de la ley, de hecho.

Sin analizarlo tanto, es muy fácil darse cuenta por qué el nuevo iPhone se queda tan rápido sin batería. Cuando se lo usa para tareas intensivas calienta, y calienta bastante más que el 3G o el iPod Touch. No llegó, al menos en mis pruebas, a niveles alarmantes, pero transpira mucho más que el 3G. Más calor disipado significa una sola cosa: más consumo de energía. Esto es genial porque se trata de una potente computadora de bolsillo (aquí hay un buen desglose, en inglés, del hardware del 3GS: www.phonewreck.com/2009/06/19/iphone-3gs-teardown-and-analysis/ ). Lamentablemente, la batería no está a la altura. Es, por mucho, lo más flojo del nuevo iPhone.

La autonomía del modelo anterior sufre horrores cuando se usan simultáneamente y durante mucho tiempo el GPS y la banda ancha móvil. Al 3GS esto lo lleva a la zona crítica, y si además se emplea la aceleradora de gráficos (jueguitos 3D, típicamente), la duración de la batería se desploma.

Houston, we have a problem
Lamentablemente, el GPS y la banda ancha móvil, combinados con la excepcional pantalla táctil del iPhone, son lo que vuelve a este teléfono tan interesante. Mi primera impresión fue que iba a tener que optar entre usarlo o mirarlo.

El iPhone es lindo, pero tampoco tonterías.

Así que me propuse encontrar una fórmula para emplearlo sin mayores limitaciones y que la batería durara al menos un día entero. ¿Acaso dos?

Descubrí que no existe forma de que el 3GS dure más de un jornada entre recargas, al revés que el modelo anterior, que puede alcanzar las 48 horas, si se hace un uso moderado de la banda ancha, los jueguitos y el GPS. Pero, ¿había una forma de configurar el iPhone 3GS para ponerlo a cargar sólo una vez por día?

Comencé mis experimentos con estos números: sin 3G y sin emplear GPS ni juegos, 1 hora y 23 minutos de uso (mensajes, telefonía, cámara) consumió el 27% de la batería. Eso proyectaría unas 5 horas de uso continuo. Pero, en realidad, ese 27% se fue en una noche de sueño más 7 horas de un día normal de trabajo, por lo que el teléfono debería durar cómodamente más de 24 horas.

Noté, sin embargo, que durante la noche se había evaporado un 10% de batería. ¿Qué estaba pasando? No lo sabía, pero primero me concentré en lograr que durara al menos 12 A 15 horas con sus funciones clave encendidas.

Si necesita autonomía, aquí va la receta:


Primero, hay que olvidarse de los juegos en 3D. La potente aceleradora de video del 3GS devora batería, y si el videogame usa vibración, peor. No tengo problema en estar sin juegos, pero para algunas personas ésta puede ser la diferencia entre comprar o no el nuevo iPhone. Paradójicamente, dado el hardware que trae, Apple estaba pensando en jueguitos cuando lo diseñó.


Segundo, hay que desactivar el Push (Ajustes> Mail, contactos, calendarios> Obtener datos ) y configurar el celular para que obtenga datos cada una hora o manualmente. Si recibe muchos mails y tiene activado Push, el servidor estará enviándolos todo el tiempo al teléfono, abusando de 3G y, con esto, gastando batería. Si la señal es pobre, el Push causará un estrago.


Tercero, desactive Wi-Fi hasta que necesite detectar una antena o cuando sepa que tiene un hotspot a mano (en casa, en la oficina). Tendrá así un componente menos gastando energía y evitará que se la pase rastreando y tratando de conectarse a cuanta antena se le cruce en el camino.


Cuarto, desactive Bluetooth, excepto cuando lo vaya a usar.


Quinto, baje el brillo de la pantalla. Excepto para estar a plena luz del día, el equipo viene de fábrica con demasiado brillo. A propósito, la del iPhone es una de las pantallas más visibles al sol. Pero no se exceda: el calor externo más el interno constituyen una pésima combinación para este equipo.


Sexto, apague la pantalla cuando no use el móvil y reduzca el tiempo de bloqueo automático a 1 minuto ( Ajustes>General ).

Pruebas
Puse en práctica esta receta y estos fueron los resultados.

Encendí 3G y apagué Wi-Fi y Bluetooth, y desactivé Push , dejando la obtención de datos en una hora por vez; podría mejorar ese valor más adelante, llegado el caso. Normalmente estoy cerca de una computadora, así que no necesito saber al instante cuándo me llegan los mensajes. De ser así, puedo verificar las casillas en forma manual. A fin de cuentas, es lo que uno hace cuando espera algo con ansiedad.

Me abstuve de los jueguitos por completo y dejé de hacer interminables experimentos con el GPS. Dicho sea de paso, la exactitud del sistema es excelente, tanto para la ubicación cuanto para medir velocidad. La brújula digital, un encanto.

Wi-Fi consume menos batería que 3G, por lo que conviene buscar una señal o usar nuestro router inalámbrico para mails y la Web o el chat. Pero si la meta es ahorrar cada gota de energía, es mejor desactivarla cuando estamos en movimiento.

Con esta configuración y hablando y mandando mensajes como siempre, el iPhone 3GS llegó casi al mismo nivel de consumo que en el experimento anterior. En un día tranquilo, luego de 8 horas de jornada laboral, todavía tenía una autonomía del 67 por ciento. Nada mal, aunque quedaban unas cuantas horas por delante.

Ahora, ¿por qué perdía 10% de batería por la noche? Eso es prácticamente el equivalente a 4 horas de uso normal, incluido el tiempo de espera.

Dormir en el avión
Como toda casa antigua, la mía es una gigantesca jaula de Faraday: vitrales con marco de hierro, persianas del mismo metal y vigas como para sostener un rascacielos ( http://es.wikipedia.org/wiki/Jaula_de_Faraday ). Así que las señales electromagnéticas encuentran mucha dificultad para entrar y salir. Desde el living, el iPhone me ubica por triangulación de antenas a dos o más cuadras de mi casa, y la señal de celular oscila entre poco y nada. En cambio, desde la terraza, me localiza con precisión por GPS dentro de la manzana donde vivo y la señal 3G sube al máximo.

A los fines de la duración de la batería, la mayoría de las casas son una pesadilla, sean viejas o nuevas, porque debemos ponernos detrás de rejas por razones de seguridad. Cuanto más pobre es la señal, más consume el teléfono. Esto no tiene arreglo, fuera de ir a la terraza, lo que no es aconsejable cuando llueve o hace -2°C, o hablar pegado a una ventana sin rejas.

Entonces entendí por qué el iPhone había devorado 10% de batería durante la noche. En mi dormitorio, ubicado en el corazón de la casa, la señal es prácticamente nula. Decidí hacer otro experimento. ¿Apagar el teléfono? No, algo mejor.

Si al dormir pone el celular en silencio (es lo que yo hago; alguna vez uno debe darse permiso para no estar disponible), conviene activar el Modo Avión . Hice la prueba y el consumo nocturno bajó del 10% al 1 por ciento. ¡Lo había logrado! Me sentía como en la película Apolo 13 .

En todo caso, esto cuenta para todos los celulares. Si tiene señal pobre en su casa y quiere ganar algo de autonomía, póngalo en Modo Avión durante la noche. Tenga presente, sin embargo, que en ese modo no recibirá ni llamadas ni mensajes de texto y quienes disquen su número recibirán el mensaje de que su teléfono está apagado o fuera del área de cobertura. Técnicamente, ha apagado la radio del celular.

Dicho sea de paso, no es lo mismo poner el teléfono en Modo Avión que apagarlo. El iPhone tarda en iniciarse casi lo mismo que una PC; bueno, no tanto, pero le lleva un rato. De hecho, todos los smartphones son computadoras que, además, sirven para hablar por teléfono. El proceso de arranque -y en menor medida el de apagado- consume más batería que simplemente apagar la radio del teléfono al ponerlo en Modo Avión .

El iPhone no es el celular que recomendaría sólo para hablar, mandar SMS y sacar fotos, pero su calidad de audio es tan buena que tiene sentido para reemplazar un iPod Touch u otros reproductores de música costosos. Si éste es su caso, es decir, si rara vez visita la Web o usa los mapas o el correo electrónico, conviene desactivar 3G. La pantalla pasará a decir EDGE. Eso es 2G y consume mucha menos energía que la banda ancha móvil. Para correo y calendarios, no sobra, pero alcanza.

Música, maestro
Una de las mejores noticias del iPhone 3GS es que su reproductor de música no consume casi nada, y la calidad de audio es excelente (para auriculares sólo aceptables, como los que trae el equipo, y considerando que se trata de MP3). Es un iPod, en definitiva, y está en el nivel de los mejores, incluso mejor que el 3G. No es alta fidelidad, pero es tan bueno como los mejores dispositivos portátiles de MP3. Así que ahora puedo tener mi hora de música obligatoria por día (de otro modo, uno se seca por dentro) sin perder llamadas y SMS.

Queda mucho por decir del iPhone 3GS. No es el teléfono más avanzado que existe. El Toshiba G01, el Nokia N900, el Palm Pre, el Sony Ericsson Satio y el HTC Hero ofrecen más megapixeles y multitarea, dos puntos muy flojos del iPhone, y con más autonomía. Sin embargo, es el más humano de todos, y no porque sí ganó tanto espacio en tan poco tiempo. A mi juicio, está haciendo un recorrido semejante al de las primeras computadoras personales con interfaz gráfica, las Mac. Por esto me resulta tan interesante.

Claro que, si estoy en lo cierto, entonces Apple podría estar cometiendo por segunda vez el mismo error.

Dejaré ese análisis para próximas columnas.

martes, 15 de septiembre de 2009

Google Fast Flip ofrece toda la prensa en un vistazo


El buscador Google presenta una nueva herramienta que permite echar un vistazo rápido a artículos del New York Times, la BBC o el Washington Post, entre casi una cuarentena de las principales publicaciones estadounidenses. Fast Flip permite hojear los reportajes, fotografías y artículos de opinión on line como si se tratara de una revista de verdad, sin que el tiempo de carga dificulte la lectura. De momento, se trata sólo de un experimento (aún no incluye medios europeos), pero ya cuenta con el beneplácito de casi una cuarentena de medios. El objetivo es que se financie con publicidad y que los beneficios se compartan entre el buscador y los medios asociados.
[Sigue +/-]
La herramienta permite leer la primera página de un artículo o reportaje, y, en caso de querer seguir leyendo, la herramienta redirige al lector al medio de comunicación que ha publicado el artículo. Ofrece la posibilidad de buscar términos clave y además ordena las publicaciones en categorías como populares, recientes, más vistos y recomendados. Además, también están ordenadas por las secciones habituales de cualquier publicación generalista, además de por temas de actualidad (Obama, Pakistan, Disney e Israel) y fuentes (medios de comunicación).

La aplicación, accesible desde fastflip.googlelabs.com, permite pasar revista a los artículos on line de los sitios de más de 40 socios de Google. Junto al New York Times, el Washington Post y la BBC, también se incluyen revistas de información internacional como Newsweek, Slate, BusinessWeek, y femeninas, como Cosmopolitan, Elle, Marie Claire, además de blogs influyentes, como la bitácora de tecnología TechCrunch.

El buscador, que mantiene unas relaciones tensas con los medios de comunicación estadounidenses, ya ha avanzado que compartirá los ingresos generados por la publicidad inserta en Fast Flip con sus los medios de comunicación asociados. "Permitirá que la prensa gane nuevos lectores", ha señalado en su blog Krishna Bharat, ingeniero de Google. "Además, demostrará la teoría de esta compañía de que la rápida lectura de los artículos significa un mayor número de visionados y mayores beneficios publicitarios".

En teléfonos móviles

El servicio incluye una versión para teléfonos móviles con el sistema operativo Android y los dispositivos iPhone, aunque contemplan la posibilidad de ampliar esta opción para "un futuro próximo", según avanzó Bharat. A día de hoy, el acuerdo alcanza a 36 medios de Estados Unidos, pero Google no descarta ampliar el servicio a los periódicos europeos. "Estamos deseando añadir más noticias de otros editores que colaboran con nosotros a medida que progrese este experimento", explican desde la compañía.

(El País, Madrid)

lunes, 14 de septiembre de 2009

Rebelión contra el gratis total en la red


Por Miriam Lagoa
(El País, Madrid)

Que los contenidos culturales o informativos no van a seguir ofreciéndose gratis en la Red para siempre lo intuye hasta el gigante Google, el gran beneficiado del modelo de gratuidad para el usuario imperante hasta hoy. Google, enfrentada con los editores de prensa por explotar sus noticias, se rinde a la tendencia y prepara herramientas para facilitar los micropagos a los medios de comunicación. Las industrias de la información se han lanzado a explorar fórmulas para rentabilizar su presencia en la Red más allá de la publicidad, hasta ahora principal y casi única fuente de ingresos. Y el cine o la música, alentados por el éxito de empresas como iTunes, ensayan nuevas fórmulas para cobrar por sus productos mientras crece la presión política contra el libre intercambio de archivos en la Red.
[Sigue +/-]
Micropagos por noticias, suscripciones de distintos niveles, radios personalizadas o el pago por visión de películas en alta definición se abren paso en un Internet que, desde su nacimiento, había sido sido sinónimo de gratuidad.

Millones de internautas se han acostumbrado a acceder a artículos, discos o películas sin costes. Pero lo que muchos usuarios consideran un derecho, para las industrias de contenidos se ha convertido en un problema económico y de propiedad intelectual. Las empresas que, como los diarios, creyeron que abriéndose a la Red lograrían un retorno adecuado en forma de publicidad están dando marcha atrás. Los banners no compensan igual que los viejos anuncios de papel y muchos editores han decidido volver al cobro.

Tras las protestas de la industria cinematográfica y musical, el sector mediático empieza a rebelarse contra la gratuidad, en medio de la peor crisis publicitaria de su historia. Rupert Murdoch, propietario de News Corporation, el mayor grupo de medios de comunicación, encabeza la manifestación. En agosto, anunció que cobrará por el acceso a la versión digital de sus diarios -entre ellos, The Wall Street Journal, The Times y The Sun- a partir de 2010. "La revolución digital ha abierto muchos canales de distribución nuevos y baratos, pero eso no convierte el contenido que transmiten en gratuito", aseguró. El magnate australiano argumenta que la calidad no es barata y "una industria que regala su producto está canibalizando su capacidad de hacer buen periodismo". Murdoch ya ha mantenido reuniones con sus principales colegas, entre ellos The New York Times, para crear un gran consorcio que impondría el pago por la lectura de sus contenidos digitales.

Otras voces del sector van por la misma línea y como sostiene el editor del Financial Times, Lionell Barber, "durante los próximos 12 meses la mayor parte de las organizaciones de noticias estarán cobrando por sus contenidos". L. Gordon Crovitz, fundador de Journalism Online, aseguraba en una entrevista con EL PAÍS que los accesos gratis a la información en Internet tienen los días contados -"el modelo de negocio actual de acceso libre al contenido en Internet claramente no funciona"- y apostaba por uno mixto: "El futuro será una combinación de modelos de pago y gratuitos. Los consumidores pagarán directamente y también habrá modelos en los que distribuidores de distinta naturaleza, como los libros digitales, pagarán royalties".

Los últimos movimientos apuntan en este sentido. Siguiendo el ejemplo de Murdoch, The Economist, la revista financiera más prestigiosa del mundo, acaba de anunciar que cerrará su web y dejará de ofrecer noticias gratuitas, como venía haciendo desde septiembre de 2006. En seis meses, organizarán un nuevo modelo que puede estar basado en los micropagos.

El diario francés Libération que, desde su ideología de izquierdas se ha caracterizado por la defensa del "todo gratis" también ha cedido por el mal momento financiero que atraviesa. Desde ayer, ha puesto una parte de su edición electrónica de pago, mediante dos tipos de abonos. El básico -Essentiel, a seis euros mensuales- permite acceder al contenido del diario de papel en formato PDF, a los archivos de los últimos 15 años y otros servicios; el Première, a 12 euros, da acceso a la edición a medida que se van cerrando las páginas en el diario.

El caso de Libération no es aislado en Francia. Le Monde tiene una edición digital especial para abonados -también a seis euros mensuales-, al igual que Le Parisien (ocho euros) y el diario económico Les Échos (15 euros), mientras que Le Figaro y el semanario L'Express también preparan ediciones electrónicas de pago.

En el otro frente está Google. La empresa del buscador es el primer y, en muchos casos, único beneficiario de esa revolución del gratis total. Sus costes por agregar contenidos son casi nulos, y alimenta su negocio publicitario (Adsense y Adwords). El anuncio el pasado mayo de que Google añadirá publicidad a su agregador de noticias, Google News, levantó las iras tanto de las asociaciones de editores europeas y norteamericanas, que acusaron a la multinacional de lucrarse con el trabajo ajeno y sin su permiso.

A Google no le conviene el enfrentamiento directo contra toda la prensa mundial. Por eso, ha iniciado en los últimos meses un movimiento de acercamiento. La empresa podría estar preparando un sistema de pago online que permitirá que los periódicos puedan cobrar a sus lectores por acceder a sus artículos, según ha señalado el centro de reflexión sobre los medios de comunicación de la Universidad de Harvard. Google habría presentado el proyecto a la Asociación de Periódicos de EE UU (Newspaper Association of America), después de que la compañía fuera requerida sobre la viabilidad del sistema. En la presentación de su proyecto enviado a la NAA, Google vaticina que "la publicidad seguirá siendo probablemente la fuente de ingresos más importante de las empresas de medios de información", pero que "hacer pagar a los usuarios podrá proporcionar un suplemento de ingresos nada despreciable".

Otro sector que ya ha sufrido una profunda transformación ha sido la industria musical. Tras presentar numerosas demandas contra portales y programas que facilitaban descargas gratuitas, ha empezado a consolidar estrategias adaptadas a conciliar las posibilidades que ofrece Internet y con la rentabilidad económica, tras años en los que la descarga gratuita de música hizo tambalear los cimientos del sector discográfico. Páginas de venta de música por Internet como Amazon y iTunes, que incluso ha superado en ventas a la cadena de tiendas Wall Mart, han experimentado un crecimiento notable y han dado lugar a nuevas modalidades de venta, distribución y consumo de contenidos musicales que impulsan a las discográficas a replantearse sus estrategias comerciales. Tras la caída de las ventas de CD en las tiendas, la tendencia dominante es la aportación de servicios añadidos y la fragmentación de contenidos: las ventas de canciones sueltas se imponen a las ventas de álbumes completos. La compra en tiendas virtuales se impone a la venta física de CD.

Durante 2008, se comercializaron 1.400 millones de temas por la Red, el 24% más que en 2007. Desde ese año, el crecimiento ha sido espectacular. Hace dos años la venta de música en Internet sólo representaba el 20% de todo el mercado. Y un estudio de la prestigiosa consultora NPD indica que las ventas de música a través de portales como iTunes o AmazonMP3 sobrepasarán las de los compactos en 2010.

Pero el mercado no deja de evolucionar y las descargas han dejado paso al streaming, la reproducción de contenidos en web sin necesidad de descargarlos. El éxito de servicios de reproducción online como Last Fm, Yes.fm o la sueca Spotify han revolucionado el mercado y han hecho que el streaming se consolide como la opción preferida de los consumidores. Spotify es un radio adaptada a Internet, que nació del acuerdo entre sus creadores y las grandes discográficas. Ofrece una modalidad gratuita, con breves cuñas publicitarias, que incluye una amplia biblioteca musical y permite al usuario confeccionar listas con sus temas preferidos. Cuenta también con una opción de pago sin publicidad y una colección más extensa de canciones. "Los jóvenes piensan en YouTube y MySpace como los lugares donde oír música al instante, y los nuevos dispositivos son capaces de ofrecer acceso a lugares como Pandora o Last.fm, que funcionan como radios personalizadas", aseguraba Eliot Van Burskik, de Wired.

Otra de las últimas iniciativas surgidas en el sector en los últimos meses, ha sido la presentada Virgin Media, que planea un servicio de descargas que "por el precio de un par de discos al mes" permite al usuario acceder a todo el catálogo disponible, sin ningún tipo de límites. Los temas ofrecidos por la empresa del magnate Richard Branson, que ha sellado un acuerdo con el mayor proveedor de música en el mundo, Universal, no estarán protegidos con DRM (Digital Rights Management), el sistema anticopia.

El éxito de estas iniciativas, incluso entre una audiencia que se estaba acostumbrando a no pagar por tener las últimas novedades antes de que salieran al mercado, parece que marcará la pauta del futuro de la industria, y no sólo de la discográfica. Daniel Ek, fundador de Spotify, sostiene que ese futuro está en "en el acceso no en la propiedad". "En el futuro a los consumidores les dará igual tener o descargarse canciones. Lo que quiere es acceder a ellas".

Las discográficas llevan años ensayando los sistemas de pago pero hay otros sectores que se han mostrado menos activos. La industria audiovisual observa como las redes P2P, como Torrent o Emule, el streaming y las descargas directas, que proporcionan páginas como Rapidshare o Megaupload, son cada vez más utilizadas. Las descargas por esta vía se han duplicado por segundo año consecutivo, según un informe publicado por Big Champagne.

El sector cinematográfico no quiere quedarse atrás y en las últimas semanas se ha hecho pública la alianza entre Paramount, Lions Gate y Metro Goldwyn Mayer para lanzar al mercado Epix, un servicio de películas de alta definición en streaming que ofrecería los últimos estrenos de cine bajo suscripción en un paso más de la integración del cine en la Red. El sistema se comercializará al mismo tiempo que el pay-per-view y antes que la edición en DVD. En España, empiezan a ver la luz los primeros proyectos de pago similares como Filmotech.

Youtube, el portal gratuito que revolucionó la forma de ver vídeos en la Red, también ensaya fórmulas de pago y negocia con algunos de los grandes estudios de Hollywood la distribución de películas bajo la fórmula de alquiler similar a la que ya emplea iTunes, a un precio de 3,99 dólares, según recoge The Wall Street Journal.

El fenómeno no es ajeno a los intentos de frenar las descargas gratuitas. Reino Unido ha planteado la posibilidad de cortar la conexión a los usuarios que descarguen contenidos protegidos con copyright y Francia, tras intensos debates en el Parlamento, ha aprobado una ley para imponer multas de entre 1.500 y 3.750 euros a los usuarios. En España, donde la descarga de archivos por programas P2P no se considera delito, cualquier medida debe surgir del acuerdo entre operadores, industria cultural y Gobierno, hasta ahora sin resultados. En vez de esperar, los proveedores de contenidos ya están cambiando el paso.

jueves, 10 de septiembre de 2009

Libros digitales de Google desatan controversia


Por Vanessa Mock
(Radio Nederland)

Con cierto temblor en su mirada, un joven se acerca al mostrador y le entrega una nota al vendedor: “¿Tiene este libro?” susurra.

Para este amante de los libros, ir a la caza de antiguas impresiones y raros tesoros es casi tan placentero como la propia lectura. “Mataría por encontrar el libro que busco,” bromea.

Pero, a pocos pasos de esta librería de libros de viejo o de segunda mano, en el centro de Bruselas, ejecutivos de Google están conformando su proyecto de construcción de un imperio global de libros digitalizados, que deberá revolucionar el estilo de lectura actual.
[Sigue +/-]
“Si por mí fuera, dentro de quince años se podría ir a una librería y comprar cualquier libro que se haya impreso alguna vez, ya sea en versión digital como impresa. Algunos preferirán la digital, otros la versión en papel, algunos optarán por ambas,” afirma Dan Clancy, director de Google Books Engineering.

Clancy ha mantenido una reunión clave esta semana con la Comisión Europea, para convencer a los editores europeos escépticos de que se adhieran al proyecto. En Europa, muchos temen que un caso judicial en Estados Unidos allanará el camino para que Google se convierta en un monstruo con poderes excesivos en el mundo editorial.

Monstruo editorial
Bajo los términos de una propuesta de acuerdo jurídico en Estados Unidos, Google obtendría los derechos exclusivos para vender libros que ya no están sujetos a los derechos de autor y aquellos que ya no se imprimen. Se trata de una cantidad de nueve millones de libros en el mundo. Se teme que este acuerdo tenga una influencia directa en los libros europeos. “Si una copia de un libro publicado en Europa aparece en una librería de Estados Unidos, Google podría 'escanearlo', aún cuando los derechos no hayan sido vendidos en el mercado norteamericano, lo que podría perjudicar las oportunidades del propio editor de vender esos derechos,” advierte Angela Mills Wade, del Consejo de Editores Europeos.

Esta semana, Google intentó aplacar los temores, quitando del mercado on-line norteamericano todos los libros que aún están a la venta en Europa. Pero muchos editores siguen en alerta.

“El problema es que es muy complicado para cualquier editor controlar qué libros ha puesto Google en línea,” explica Bernard Gerard en nombre de los libreros belgas, agregando que “llevaría años” antes de que Google satisfaga las exigencias de derechos de autor europeas, que difieren de país en país.

“El derecho de digitalizar un libro, en última instancia, reside en el editor,” explica Gerard, “no debería publicarse en línea ningún libro sin un acuerdo previo con el editor. Si esto no se cumple, se trata claramente de una infracción.”

¿Guerrero cultural?
Sin embargo, el proyecto ha sido bien recibido por otras partes, como el gigante editorial MacMillan, y bibliotecas universitarias como la de Gante y la Bodlean, en Oxford. Estas instituciones ya han registrado un aumento en el número de usuarios. “Si eres estudiante y sólo quieres leer un capítulo, como suele ser el caso, es mucho más simple buscarlo on-line. No tienes que perder una enormidad de tiempo buscando en una biblioteca,” afirma Dan Clancy, de Google.

Sorprendentemente, también muchos libreros se muestran entusiasmados, y afirman que Google contribuye de este modo al patrimonio cultural.
Pese a ello, el amante de los libros en la librería de usados de Bruselas está menos convencido. “Me gusta sentir, oler, tocar, un libro. Quiero tenerlo en mis estantes, a mano. Es una pasión. Nunca sería lo mismo buscarlo por Internet.”

Google, el gigante de los libros
El año pasado, Google llegó a un acuerdo con la asociación de editores en Estados Unidos, a raíz de un juicio por violación de los derechos de autor iniciado en su contra en 2005.

Bajo los términos de este acuerdo, Google se comprometió a pagar $ 125 millones para clausurar todos los reclamos pendientes y entregar el 63% de los beneficios a los editores y autores. Google se queda con el resto.

Los libros 'escaneados' que ya no están a la venta – en más de 400 idiomas – se pueden adquirir on-line, representando el 3% del total de ventas de libros.

lunes, 7 de septiembre de 2009

Google cuenta cómo funciona su controvertido buscador de noticias



Para informarse en Internet uno puede visitar ediciones digitales de medios de comunicación o, simplemente, entrar en Google News y encontrar jerarquizadas y extractadas las últimas noticias. El internauta quizá no pase de ahí y, si eso ocurre, una vez más será Google quien rentabilice clics gracias a un contenido ajeno. Es más, en mayo el buscador anunció que pensaba incluir publicidad en un servicio que, desde 2005, ha venido suscitando querellas y amenazas de grandes medios. Ahora Google ha lanzado un vídeo de un cuarto de hora dirigido a empresas periodísticas en el que explica cómo funciona su servicio de noticias y trata de ganarse la simpatía de los medios.
[Sigue +/-]
En la grabación, una programadora de Google, Maile Ohye, desgrana el funcionamiento del buscador de noticias: cuenta cómo un programa informático recolecta, agrupa y jerarquiza las noticias.

En la segunda parte la empleada de Google responde con una sonrisa a algunas de las preguntas más frecuentes que, según afirman, reciben por parte de profesionales del periodismo.

En la tercera parte del vídeo, Ohye ofrece consejos para los medios: técnicas para que sus noticias sean recolectadas y publicadas de manera más llamativa en Google News. En concreto animan a los medios a que realicen un News Sitemap periódicamente (algo así como un árbol genealógico con las últimas noticias estructuradas por secciones) y que se lo envíen a Google News cada vez que se introduzcan actualizaciones.

También se ofrecen trucos para que Google News seleccione las fotografías y vídeos de uno u otro medio. En cuanto a los vídeos, llama la atención que Google recomienda a las cabeceras que creen un canal en el portal YouTube, propiedad del mismo gigante informático. Pero este último dato es omitido en el vídeo.

La controversia

En 2005 la agencia France Presse se querelló contra Google porque éste utilizaba sin permiso sus titulares y sus fotografías. Tras años de negociaciones, en 2007 Google firmó un acuerdo con cuatro grandes agencias, entre ellas France Presse y Associated Press por el que adquiría el derecho a reproducir, previo pago, sus contenidos.

Ese mismo año, un tribunal de Bélgica resolvió que era ilegal la publicación de extractos de noticias de medios de aquel país.

Ya en 2009 Google anunció que pensaba incluir publicidad en su servicio de noticias. En mayo, la Asociación Europea de Editores de Periódicos (ENPA), de la que forma parte la Asociación de Editores de Diarios Españoles (AEDE), advirtió que se debían respetar los derechos de autor. Sin los contenidos de otros, casi siempre editores de prensa, "servicios como Google News ni siquiera existirían", decía el comunicad del escrito de ENPA.

Por último, la semana pasada la autoridad italiana de defensa de la competencia anunció que ampliaba su demanda contra Google News Italia y la hacía extensiva a la empresa matriz, Google Inc. La causa de la denuncia es, según el organismo italiano, que Google excluye de su buscador general los resultados relativos a medios que no se dejan indexar en el servicio de noticias.

Video (en inglés) en el que se explica cómo funciona Google News.

El Pais, Madrid

viernes, 4 de septiembre de 2009

Acceso directo al conocimiento universal



Por Ricardo Sametband
(La Nación, Buenos Aires)

En enero de 2001 nació la mayor enciclopedia conocida hasta el momento: Wikipedia, una creación de Jimmy Wales y Larry Sanger. Tiene la particularidad de que es creada por la comunidad y no se cobra nada por visitar sus 13,7 millones de artículos en varios idiomas. La versión inglesa tiene 3 millones de artículos; la española, medio millón.
Versa sobre todo lo que la comunidad quiere que hable, ya que cualquiera puede ser parte de esta enciclopedia y compartir su conocimiento con los demás.
Para la mayoría de nosotros, sin embargo, la Wikipedia es un sitio de referencia obligado, tanto para organizar un trabajo escolar como para despejar una duda trivial. Hay que recordar que es un referente confiable, pero siempre conviene contrastar la información con otras fuentes. Aun así, esta herramienta es excelente, sobre todo por la cantidad de información disponible en español, y por la sencillez de su uso.
[Sigue +/-]
La manera más básica de iniciar una búsqueda en Wikipedia es desde http://es.wikipedia.org . A la izquierda de la página hay una caja de búsqueda, con dos botones: Ir y Búsqueda . El primero lleva a una página específica con el nombre exacto que ingresamos. Si ponemos Argentina , nos lleva directo a http://es.wikipedia.org/wiki/Argentina ; el otro, a un listado de entradas que contienen esa palabra clave. De hecho, podemos tipear en el navegador http://es.wikipedia.org/wiki/{palabra clave} para ir directo a un artículo; si la página no existe nos ofrecerá crearla.
Los navegadores modernos, además, permiten buscar en Wikipedia sin visitar la página en sí. El Internet Explorer 8 , por ejemplo, permite agregar la Wikipedia a la lista de buscadores habilitados. En el botón de menú de la caja de búsqueda se despliega la opción Buscar más proveedores para agregar la enciclopedia.
En Firefox , el menú Administrar buscadores se despliega en la caja de búsqueda de la barra de navegación. Como es posible agregarle un comando clave, podemos iniciar una pesquisa escribiendo, en la barra de direcciones de Firefox, {comando} {palabra clave} . Basta con una letra (por ejemplo, la w ). El browser Opera ofrece algo similar. A propósito, esta semana salió la versión 10 de este navegador.
En Chrome , al cliquear con el botón derecho del mouse sobre la caja de búsqueda y direcciones aparece la opción Editar motores de búsqueda . Si no aparece Wikipedia, hay que ingresar el comando http://es.wikipedia.org/w/index.php?title=Especial:Buscar .
Los usuarios de Firefox , además, pueden visitar http://mycroft.mozdev.org/wikipedia-search-plugins.html para agregar más opciones de búsqueda (por ejemplo, Wikipedia en otro idioma). El agregado WikiLook ( https://addons.mozilla.org/en-US/firefox/addon/7675 ) despliega, al seleccionarse una palabra en una página cualquiera, los artículos relacionados de Wikipedia.
Más sutil, SmarterFox ( http://smarterfox.com ) ofrece búsquedas en varios servicios Web mostrando un globito al lado de la palabra seleccionada. Cleeki ( https://addons.mozilla.org/en-US/firefox/addon/7750 ) ofrece algo similar, pero mostrando primero un icono minimalista que permite desplegar un menú de opciones, con más buscadores. Además, Cleeki es capaz de importar a Firefox los denominados Aceleradores de búsqueda de Internet Explorer 8 . Son funciones extra que aparecen en el menú contextual al seleccionarse una palabra. Se descargan de www.ieaddons.com/en/accelerators/?sort=views y no tienen costo.
Una opción muy atractiva es usar el menú Inicio de Windows Vista. Lo probamos en Windows 7 y también funciona. Permite usar el cuadro de búsqueda del menú (normalmente reservado para listar coincidencias de la palabra clave en archivos de la computadora) para encontrar información en Wikipedia.
Para lograrlo, hay que ir al menú Inicio y en el cuadro de búsqueda tipear gpedit.msc . Esto abrirá el Editor de directivas de grupo local . Allí hay que navegar hasta la opción Configuración de usuario >Plantillas administrativas >Componentes de Windows >Búsqueda instantánea y hacer doble clic sobre Proveedor de búsquedas de Internet para búsquedas instantáneas personalizadas . Donde dice Cadena o recurso DLL debemos ingresar un nombre de fantasía para el servicio; en Dirección URL hay que escribir http://es.wikipedia.org/wiki/%w .
Luego de reiniciar, cuando ingresemos texto en el cuadro de búsqueda del menú Inicio, nos ofrecerá la opción de ir a Wikipedia con el navegador predeterminado para obtener la información.
Quienes requieran un sitio que les permita hacer búsquedas más complejas pueden aprovechar Powerset ( www.powerset.com , por ahora, sólo en inglés), un buscador creado por Microsoft para la enciclopedia, que permite iniciar pesquisas usando frases, y ofrece resultados organizados de una forma amigable.
Además, en WikiWax ( www.wikiwax.com ) y LuMriX ( http://wiki.lumrix.net/es/ ) al ingresar una palabra clave se irán listando los artículos que contengan ese texto en su título, una alternativa útil al buscador general, que nos permitirá ver qué entradas existen sobre un mismo tema.
También es posible consultar Wikipedia desde un teléfono móvil: recientemente la enciclopedia estrenó su propia versión para celulares, disponible en es.mobile.wikipedia.org . Una alternativa que puede resultar útil también (por como adapta los textos para el tamaño de pantalla de los teléfonos) es Wapedia ( http://wapedia.mobi/es/ ).
Aquellos que por alguna razón prefieran usar el correo electrónico (si, por ejemplo, tienen un móvil con servicio de e-mail ilimitado, pero no de navegación Web) pueden hacer consultas a ask@snapask.com , ingresando la búsqueda en el asunto del mensaje: en nuestro caso, sería eswiki {consulta} para recibir, a vuelta de correo, el artículo completo en un mensaje.
Para poner a Wikipedia en contexto, nada mejor que un mapa. Muchos artículos (sobre monumentos, batallas, edificios, etcétera) indican su ubicación geográfica en la página. Pero tanto la aplicación Google Earth como el servicio de mapas en línea de Google (en http://maps.google.com ) y el de Microsoft ( www.bing.com/maps/ ) permiten ver artículos de Wikipedia sobre lugares determinados. Placeopedia ( www.placeopedia.com ) y Wikimapia ( www.wikimapia.com ), por su parte, permiten vincular artículos con su ubicación geográfica.
Los interesados en tomarle el pulso a la enciclopedia comunitaria y conocer cuáles son los temas con más crecimiento en un momento dado pueden visitar WikiRage ( www.wikirage.com ). También es posible conocer a los editores más activos del momento. A propósito: según su fundador, Jimmy Wales, el 73,4% de toda la Wikipedia fue hecho por el 2% de sus editores (unas 1400 personas). Y sólo el 13% de los editores son mujeres. En www.aaronsw.com/weblog/whowriteswikipedia está la historia de este análisis, y una puesta en contexto de esos datos.
Por último, quienes quieran aportar su granito de arena a esta monumental obra comunitaria pueden leer los consejos ofrecidos en http://es.wikipedia.org/wiki/Wikipedia:Tutorial para transformarse en wikipedistas.

viernes, 28 de agosto de 2009

Si quiere ir más rápido, use óxido nitroso


Por Ariel Torres (La Nación, Buenos Aires)

Esta es una receta para impacientes. No pienso criticar a quienes padecen esa condición. Es un calvario, y lo sé porque formo parte del club. Mientras para mucha gente todos los minutos son más o menos iguales, para uno, inquieto de alma, el tiempo que le lleva a una computadora arrancar pertenece a un marco de referencia post-newtoniano. Diré más: a veces siento que envejezco mientras se inicia la PC.

Si alguna vez escribo un libro de memorias, dejaré en blanco todas las páginas de un capítulo, para representar esas semanas, quiero decir minutos, que lleva aplicar un efecto de sonido, abrir Facebook o compactar mis carpetas personales en Outlook .
[Sigue +/-]
Nosotros, los impacientes, querríamos tener acceso instantáneo a todos los recursos del equipo y de la red. Un nanosegundo de más al conectarnos al chat nos da tiempo para intentar abrir otros cuatro programas. ¡Después de todo, si la luz recorre 30 centímetros en ese milmillonésimo de segundo, cómo no aprovecharlo!

Tenemos constantemente la sensación de que la PC está por colgarse. Cada demora infinitesimal, esas que sólo sirven para medir la vida media de los quarks o la disparidad horaria relativista entre las naves espaciales y la Tierra, nos lleva a colocar el dedo sobre el botón de Reset, seguros de que el sistema ya ha tardado demasiado para que se trate de algo normal .

Si cargar un sitio Web lleva más tiempo que encender un velador, exclamamos iracundos: "¡Otra vez me quedé sin Internet!"

Reiniciar luego de instalar actualizaciones es para nosotros, los impacientes, un trance tan amargo que requiere psicoterapia.

En nuestro mundo, el overclocking se nos cobra aparte, en la factura de la luz. Y no vemos el día en que aparezcan microprocesadores tan potentes como para requerir un disyuntor integrado y refrigeración por helio líquido.

El impaciente de ley compra sólo aire acondicionado frío. No necesita calefacción. Su computadora disipa tanto calor que puede andar en remera dentro de su casa en pleno invierno. Con las ventanas abiertas.

Pero nunca alcanza. La literatura médica no explica cómo sobrevivimos a computadoras sin disco duro, chips que operaban a 12 MHz (sí, megahertz) y 640 KB (sí, kilobytes) de RAM. Se dice que hay sociedades secretas de veteranos gurúes informáticos que admiten nuevos miembros sólo si prueban que son capaces de instalar OS/2 Warp desde sus trece diskettes. Dos veces seguidas. Qué sádicos.

Impaciente se nace. El niño que, de adulto, sobrecargará computadoras con 84 GB de memoria y procesadores de 24 núcleos a 16 GHz es el mismo que antes de dormirse no solicita un cuento, sino una minuta. Bueno, todos los niños son impacientes, pero si aprende a tamborilear los dedos antes de hablar será de los nuestros en el futuro. Y pobre de la computadora que le toque en suerte.

Volcó en la curva

Aunque la inmensa mayoría de los seres humanos rara vez lleva su computadora hasta el límite, esos límites existen, y los sistemas operativos son bastante poco tolerantes cuando los sobrepasamos.

Como un corredor de Fórmula 1 o un piloto de combate, el impaciente empuja el hardware y el software justo hasta el punto de ruptura. No está ni bien ni mal. Es lo que es. "¿Qué tiene de malo -me preguntaba una persona hace poco- estar copiando un DVD mientras reviso mi Outlook (1,5 GB de mails), miro la Web (56 pestañas de Firefox), guardo un documento de Illustrator (de 159 MB) y renderizo un video (de 3 horas) con Premiere ? ¡Es una computadora, tiene que soportar!" Me lo decía por chat, mientras posiblemente conversaba con otras veinte personas. Un chat del que regularmente desaparece para volver con la misma excusa: "Se me colgó todo". ¡Ya lo creo! De hecho, eso no tiene nada de raro. Lo sorprendente es que en el interior de su máquina no se haya iniciado una reacción termonuclear espontánea.

El técnico bienintencionado le dará consejos de uso sanos y del todo razonables. No sirve para nada. Es como decirle a Schumacher que baje un cambio. No está en sus genes.

Mi receta, por lo tanto, no incluirá tales tips. Alguna vez los publiqué, si mi memoria no falla. Sirven para el impaciente promedio, pero no para el kamikaze del mouse, el Mika Häkkinen del multithreading. En estos casos extremos, hay que tomar medidas extremas.

Igual que no es posible doblar un auto más allá de cierta velocidad sin volcar, o realizar un giro más cerrado que el que se especifica para cada velocidad y altitud en cada avión, de la misma forma que poner un contenedor de 33 toneladas en el portaequipajes del coche causaría una catástrofe, en informática hay restricciones concretas. El impaciente, desde luego, las ignora con total desparpajo. Pero existen.

Está bien, ¿pero cuáles son esos límites físicos?

Random Access Massacre

Todo lo que haga en la máquina consumirá memoria física, esa que está en los chips insertados en el motherboard y que va de 512 MB a 2 GB de promedio hoy.

En general asociamos el uso de memoria de forma estática con cada programa. Por ejemplo, el Word consume tanto. En realidad, es más complicado. Los documentos, sobre todo los de imagen, video y sonido, hacen que los programas se disparen a la estratosfera de la RAM.

Un caso concreto: el organizador y editor de fotos XnView ( www.xnview.com ) usa 2,2 MB de RAM. No es nada. ¡Tenemos mil veces más memoria en la PC!

Sí, pero aguarde. Abramos un JPG de 1 MB. La lógica más elemental dicta que el XnView pasará a utilizar 3 MB de RAM. Error. Se irá a 48 MB. Y esto es perfectamente natural. El tamaño en disco es el de la imagen comprimida.

Ahora, ¿acaso el castigador de computadoras se contenta con abrir una (1) imagen en XnView ? Ja. ¡Ni en sueños! Al menos, una docena. Hagamos la prueba. Con doce JPG de 1 MB el consumo de RAM del XnView trepa a medio giga. Sumado a los otros 500 GB que usan Windows y un par de aplicaciones más, ya se nos fue 1 GB de RAM. Y lo único que estamos haciendo es mirar unas fotitos.

En el entorno laboral es muy probable que esos JPEG no ocupen 1 MB en disco, sino 4. Hice la prueba. El XnView llevó su uso de memoria a más de 1 GB y, por razones que enseguida explicaré, dejó de responder durante alrededor de tres minutos. En la mente del impaciente, esto equivale a unas cuatro semanas. Por si fuera poco, todas las demás aplicaciones empezaron a responder morosamente, y para sumar al insulto la humillación, al XnView le llevó casi un minuto devolver ese giga de RAM.

Un minuto, ¡una vida!

Daño colateral

Es público y notorio que el inquieto tiende a ser muy productivo. ¡Hay tanto que hacer y tan poco tiempo! Así que jamás se contentará con editar fotos. A la vez estará con una presentación que contiene docenas de imágenes y sonidos, un navegador con todos esos sitios Web que apenas tiene tiempo de leer, el Outlook , la VPN, el cliente de Twitter y el chat; el Messenger consume 15 MB. No es mucho. Mientras no tengamos muchas conversaciones abiertas a la vez. Ahí empieza a subir, progresivamente. Y puede ser que no devuelva todo lo que usó. El Firefox , por ejemplo, es un experto en quedarse con los vueltos.

Hay un efecto adicional que se produce al agotar la memoria física del equipo, y para entenderlo hay que comprender, al menos en parte, qué es lo que hace una computadora cuando se queda sin RAM.

Repito: todos los procesos de una computadora necesitan memoria física. No hay opciones para esto. No hay sustituciones. Sin embargo, una PC no deja de funcionar si agota su RAM, y al impaciente esto no sólo le ocurre a menudo, sino que es el estado normal de operación de sus máquinas. Por el contrario, llegado el punto en el que ya no hay más RAM disponible, la computadora empieza a liberar espacio en la memoria. ¿Cómo hace esto? Todo este asunto es extremadamente complejo, pero -simplificándolo mucho- funciona así: manda al disco rígido fragmentos de memoria de programas que no estén siendo usados en ese momento; esos fragmentos se llaman páginas y el proceso paginar .

Es como tener un ropero pequeño. Cada verano ponemos en la cochera la ropa de invierno. Y viceversa cuando llega el frío. Lleva tiempo. En las computadoras es igual, porque los discos son mucho más lentos que la memoria electrónica. Cientos de miles de veces más lentos.

Por eso, cuando queremos regresar al browser que hace un rato no usábamos la pantalla tarda en dibujarse y la aplicación parece un elefante con artritis haciendo Pilates. Si miramos el gabinete, observamos que el disco duro trabaja como loco. Adivine qué está haciendo. Por supuesto, está pasando alguna otra cosa de la memoria al disco duro para hacerle lugar al browser, que a su vez debe pasar del disco a la memoria.

Una pesadilla que, como anticipé, tiene un segundo efecto secundario. Cuando una sola aplicación devora mucha RAM, como antes el XnView , las demás también quedan afectadas. Cuando cerremos el XnView , Windows no irá devolviéndole a cada programa la memoria que le pidió prestada. Todas las aplicaciones tardarán en dibujarse y responder.

Le lleva un rato a la computadora reponerse de un abuso de RAM, pero para entonces el impaciente ya ha perpetrado doce veces el mismo exceso.

Tuneado para correr

Esto no se resuelve solamente poniendo más RAM, aunque, sin duda, ayuda mucho. Pero para el Increíble Hulk de las computadoras, para el T. Rex informático toda la RAM del mundo no alcanzaría. Así que hay que adoptar algunas medidas adicionales.

* Primero, sí, instale toda la RAM que pueda pagar.

* Segundo, si hay dos unidades de disco, coloque el archivo de paginación en el que no tiene instalado Windows. Recuerde elegir otra unidad física de disco, no simplemente otra partición en la misma unidad.

* Luego vaya a Mi PC> Propiedades> Opciones avanzadas> Rendimiento> Opciones avanzadas> Memoria virtual y cree un archivo de paginación con un tamaño de entre 1,5 y 2 veces la cantidad de RAM instalada. Establezca el tamaño mínimo igual al máximo.

* Tercero, mantenga desfragmentados los discos duros. Puede programarlo como tarea en Panel de control> Tareas programadas y olvidarse del tema.

* Cuarto, evite llenar el disco hasta que casi no le queda espacio libre. Si hace esto y además los archivos están muy fragmentados, el tiempo de paginación se irá a las nubes, y eventualmente puede fallar. Si está ocupando más del 75% del disco, es hora de liberar espacio o comprar otra unidad.

Nitro

Si todo esto no ayuda, entonces el castigo que está aplicándole al sistema es casi criminal. Dicho simple: usted tiene una vida informática peligrosa. Así que es momento de tomar medidas riesgosas. Lo que sigue es sólo para el acróbata sin red de la computación, el equilibrista de altura, el escalador libre de los riscos digitales. Tal como sale de fábrica, XP administra bien la memoria para aplicaciones de Escritorio; si usted está satisfecho con el rendimiento de su máquina, no necesita ir más allá de este párrafo.

Pero si vive al borde y tiene 1,5 GB o más de RAM y sabe cómo editar el Registro sin causar estragos, cambie estos dos parámetros, clásicos y bien conocidos entre los ajustes finos de Windows:

DisablePagingExecutive

LargeSystemCache

Se encuentran en:

HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Control\Session Manager\Memory Management

De forma predeterminada tienen valor 0. Páselos a 1.

En mis pruebas, el mismo ejercicio que antes le tomó al XnView tres minutos para cargar y otro minuto para devolver la memoria, luego de los cambios demandó menos de 15 segundos para abrir las imágenes y unos 5 para devolver la RAM (después de un reinicio, claro). Lo probé también en Vista y 7. Con un Pentium 4 a 2,8 GHz y 1,5 GB de RAM, abrió 91 JPG de entre 80 y 700 KB en 1 minuto y devolvió la RAM en 30 segundos. En un Core 2 Duo con 2 GB de RAM abrí 300 JPG de las mismas dimensiones sin colapsar el equipo y en cosa de un minuto y medio.

Por supuesto, tras forzar las cosas logré poner ambos equipos de rodillas. Ningún ajuste es suficiente, si lo que usted necesita es una supercomputadoras de 600 millones de dólares.

DisablePagingExecutive establece si se paginarán al disco el núcleo del sistema ( ntoskrnl.exe ) y los drivers en modo núcleo y en modo usuario cuando no se los usa. El valor 1 evita que sean paginados y, en teoría, Windows se vuelve un poco más ágil en condiciones de uso intensivo. Es relativamente seguro. Aquí, la información de Microsoft al respecto: technet.microsoft.com/en-us/library/cc757875(WS.10).aspx

LargeSystemCache puede traer problemas, algunos serios. Evite activar LargeSystemCache en notebooks y en PC con placas de video que usan la RAM común en lugar de su propia memoria. Nunca use este ajuste en equipos con poca memoria RAM; no menos de 2 GB, diría. Aquí la información de Microsoft sobre este ajuste: technet.microsoft.com/en-us/library/cc784562(WS.10).aspx

Una vez que haya inyectado nitro en el carburador de computadora, sepa que todo puede explotar. LargeSystemCache , aunque lo he probado sin problemas, puede producir pantallas azules, cuelgues y hasta que XP se niegue a arrancar. Cada PC es un mundo aparte. Queda debidamente advertido, pues.

Los primeros consejos están recomendados para cualquier usuario, y sobre todo para el impaciente incurable. Los ajustes del Registro son para quienes cada día van a la batalla con su equipo, y en la guerra y en el amor todo vale, ya se sabe. Estos ajustes pueden darle, si no una bala mágica, un empuje adicional y algo de velocidad suplementaria.

Si todo falla, no será la primera vez que tenga que reinstalar todo, y un moretón más no tiene importancia.

Pero haga un backup antes.

jueves, 27 de agosto de 2009

Truquitos para un mejor uso de Google













Como una suerte de mini manual, la agencia de noticias DPA difundió algunas ventajas desconocidas por muchos para lograr un mejor uso del ya más que reconocido buscador de Google.

En el mundo, según el país, el sitio engloba entre el 70 y el 90 por ciento del mercado de los buscadores. Sin embargo, y aunque pasaron más de diez años de su fundación, hay trucos que todavía se escapan de las manos.
[Sigue +/-]
Por ejemplo, si un sitio web no tiene un recurso de búsqueda dentro de su página existe una forma de usar Google para averiguar determinados contenidos sólo de ese sitio. Entonces, si alguien quiere buscar datos de “Windows 7” que sólo estén en el sitio de Microsoft lo que hay que hacer es escribir el prefijo “sitio” seguido de dos puntos y el nombre de la compañía: “sitio:Microsoft.comwindows 7”, sin comillas y pulsar enter.

Para quienes posean un sitio web y pretendan mejorar su clasificación haciendo que otras personas lo visiten hay una manera de averiguar quién lo visita. El “Inbound links” (“enlaces entrantes”) es la denominación oficial y se trata de los enlaces a un sitio en particular desde otros sitios en internet.

Google determina qué resultados de búsqueda favorecer a partir de la cantidad y calidad de los enlaces. Para conocer los sitios que se hayan conectado con el sitio basta con tipear el prefijo de búsqueda “link”.

En los casos que alguien quiera hacer en Google una búsqueda que haga la diferencia entre mayúsculas y minúsculas hay que ir al sitio “case sensitive Google search ”.

Algo que suele exasperar en ciertos casos a cualquier navegador de la web es la aparición de noticias o sitios publicados bastante tiempo atrás. El buscador permite, entonces, a partir de un prefijo habilitar un filtro para que aparezcan los resultados dentro de una franja determinada de fecha. Una manera de hacer es tipeando el término seguido del prefijo “daterange” y del rango de la fecha que se quiera buscar.

La forma más fácil de ejecutar tales búsquedas es no con Google mismo sino con Fagan Finder, que proporciona una interfaz fácil de usar para proporcionar franjas de fechas y pedir a Google documentos que caigan dentro de esas franjas.

(Crítica de la Argentina)

martes, 25 de agosto de 2009

Flickr, el mejor sitio web, según Time



NUEVA YORK, (EFE).- El sitio de fotografías Flickr es la mejor página web de 2009 para la revista Time, que publicó hoy una lista con las cincuenta mejores páginas de Internet del mundo, en cuyas primeras posiciones también se encuentran el sitio de marcadores Delicious y la plataforma de microblogging Twitter.

"Los computadoras no manejan las imágenes con la misma facilidad con la que analizan textos o números. Flickr fue el primer sitio web en resolver ese problema con algo llamado etiquetado colectivo", asegura la revista sobre el sitio web fundado en 2004, a la que coronó como la mejor página de la red.
[Sigue +/-]
Time reconoció así la importancia de que "se permita a todo el mundo etiquetar las imágenes que otros suben" a la web, ya que así surge un "sistema de catalogación improvisado gracias a la sabiduría del público".

Según la revista, se trata de un sistema que funciona "porque no hay suficientes bibliotecarios en el mundo para encargarse de los 3000 millones de imágenes del archivo fotográfico" de Flickr, una web que Yahoo! compró en 2005 , para dos años después cerrar su servicio Yahoo!Fotos y derivar a todos sus clientes a ese portal.

En la segunda posición de su lista se ubica California Coastline, una web también de fotografías, pero cuyo objetivo es mostrar al detalle cada una de las mil millas que forman la costa de California con hasta "10.000 imágenes tomadas desde un helicóptero y con una cámara digital", según explica la revista.

En tercera posición se sitúa Delicious, definida por Time como "el Flickr de los marcadores" -algo que "no es una coincidencia, porque ambos son propiedad de Yahoo"- y que "ahora, incluso, es más útil como un buscador" de Internet.

Twitter , el popular servicio de micro-blogging que permite colgar entradas de texto de un máximo de 140 caracteres en Internet fundado en 2006, aparece en sexto lugar de la lista de la revista, que asegura que es una página web que "o bien adoras o bien odias".
Sus detractores aseguran que no se puede decir nada que valga la pena en 140 caracteres", dice Time, que también sostiene que "la ubicuidad de Twitter depende de nosotros y, al menos, las meditaciones de Ashton Kutcher y Shaquille O´Neal duelen menos que sus películas".

Skype , el servicio que permite realizar llamadas de alta calidad a través de la Red , se sitúa en séptimo lugar del ránking gracias también a ofrecer la posibilidad de mantener videoconferencias, algo que transforma "una conexión a Internet en un videoteléfono".

El conocido buscador Google y su popular sitio de vídeos YouTube ocupan, respectivamente, las undécima y duodécima posiciones de la tabla de Time, en la que también destaca el portal Hulu , que ocupa la decimocuarta plaza por ofrecer películas y series de televisión de manera gratuita.

Un puesto por detrás se encuentra Vimeo , otro portal de vídeos parecido a YouTube, pero donde se puede ver "en alta calidad el trabajo de muchas personas creativas".

La tienda minorista Amazon se encuentra en la decimonovena posición, seguida del buscador de viajes Kayak y el servicio de alquiler de películas Netflix , y ya en el número veinticinco se encuentra la popular enciclopedia libre Wikipedia .

El listado completo

1. Flickr
2. California Coastline
3. Delicious
4. Metafilter
5. popurls
6. Twitter
7. Skype
8. Boing Boing
9. Academic Earth
10. OpenTable
11. Google
12. YouTube
13. Wolfram Alpha
14. Hulu
15. Vimeo
16. Fora TV
17. Craiglook
18. Shop Goodwill
19. Amazon
20. Kayak
21. Netflix
22. Etsy
23. PropertyShark.com
24. Redfin
25. Wikipedia
26. Internet Archive
27. Kiva
28. ConsumerSearch
29. Metacritic
30. Pollster
31. Facebook
32. Pandora y Last.fm
33. Musicovery
34. Spotify
35. Supercook
36. Yelp
37. Visuwords
38. CouchSurfing
39. BabyNameWizard.com´s NameVoyager
40. Mint
41. TripIt
42. Aardvark
43. drop.io
44. Issuu
45. Photosynth
46. OMGPOP
47. WorldWideTelescope
48. Fonolo
49. Get High Now
50. Know Your Meme

miércoles, 19 de agosto de 2009

Tócala otra vez (la pantalla)


Por Ramón Muñoz
(El País, Madrid)

Hace dos millones de años, unos primates evolucionados comenzaron a tallar y a asir rudimentarias hachas de piedra en las planicies de Tanzania. Se llamaban homo habilis y se les considera los primeros especímenes del género homo y los precursores de la tecnología. Desde entonces, toda la evolución técnica ha perseguido como fin último liberarse de ese yugo entre las manos y la herramienta, establecer una distancia entre el tacto y el aparato. Curiosamente, desde hace una década la tecnología está intentando volver a los orígenes, hacerse táctil, aunque integrando todos los objetos en una pantalla y haciéndolos ingrávidos y virtuales.
[+/-]
La explosión de la tecnología táctil ha venido de la mano del móvil. La aparición en 2007 del iPhone, el revolucionario terminal de Apple, arrastró al resto de los fabricantes a crear terminales con pantallas táctiles y hoy día la práctica totalidad de los modelos de alta gama los lleva incorporados. La tactilidad ha saltado del móvil a todo tipo de aparatos, desde ordenadores, reproductores mp3, terminales de punto de venta en comercios y restaurantes, paneles informativos en aeropuertos y museos. Pero, ¿es sólo una moda o es una tendencia imparable de la tecnología?

La mayoría de las grandes firmas de la electrónica y la informática se lo han tomado en serio y han derivado su batalla hacia lo táctil. Microsoft acaba de presentar su Windows 7, el primer sistema operativo diseñado específicamente para aplicaciones táctiles. Apple podría lanzar el próximo año su Tablet Mac, una adaptación multimedia de su famoso ordenador Mac, para contrarrestar a su gran rival. Y los fabricantes de chips y ordenadores como Intel, Hewlett Packard (HP) o Asus también confían ciegamente en que, en un futuro muy cercano, los ordenadores y los portátiles serán necesariamente táctiles.

No es ciencia-ficción. En el hotel Río de Las Vegas, los clientes disponen de mesas virtuales e interactivas donde usando sólo sus manos pueden pedir una copa, flirtear con otros clientes, consultar el menú, descargarse un libro, enviarse fotos, jugar a la ruleta, o desplegar un mapa de la ciudad en tres dimensiones. Para pagar sólo les hace falta depositar la tarjeta de crédito sobre el cristal. La mesa la reconoce y carga las cuentas. También interactúa con el móvil o con la cámara digital, con sólo dejarlos sobre el cristal.

Es el Surface, la gran apuesta táctil de Microsoft, la mayor empresa de software del mundo, que no deja de comparar esta pantalla interactiva con la de Minority report, la película de ciencia-ficción en la que el policía jugaba con las manos con hologramas. Pero Surface cuesta en torno a los 12.000 euros y en España se han vendido sólo 200 equipos.

Queda ahora por probar si la informática de consumo también aceptará el desafío táctil o si seguirá apegada a sus entrañables e inseparables teclado y ratón, y lo táctil será sólo un entretenimiento, un lujo para epatar a lo geek. Microsoft cree que se puede convertir en algo popular y ha diseñado su nuevo sistema operativo, Windows 7, para hacer posible ese universo masivo multitáctil.

Otros, sin embargo, piensan que se trata de una moda, una tendencia pasajera que no cuajará, porque la introducción de datos, por ejemplo, se asociará siempre a un teclado físico, o por la falta de aplicaciones efectivas y prácticas.

De hecho, éste es el segundo intento de la tecnología táctil. En 2001, Bill Gates, el fundador de Microsoft y entonces máximo responsable de la multinacional de Redmond, auguraba que los Tablet PC, que permitían tomar notas en la pantalla mediante un puntero y se supone que reconocían la escritura, sustituirían en cinco años a los portátiles. Pero llegó 2006 y los portátiles gozaban de más salud que nunca, y prácticamente ningún periodista ni ningún profesor utilizaban un Tablet PC en su trabajo diario, como había predicho erróneamente Gates.

"La tecnología del Tablet PC se anticipó un poco a su tiempo. Entonces no había los programas diseñados específicamente para sacarle un rendimiento óptimo. Además, el precio de los equipos no ayudó nada. El panorama ahora es completamente distinto. En HP creemos que la tecnología Touch será una norma en la forma de interactuar con los dispositivos, un medio intuitivo y mucho más natural que permitirá a los usuarios acceder a un montón de facilidades sin tener que saber nada de tecnología. Es mucho más natural jugar al ajedrez levantando una pieza y colocándola en el tablero, aunque sea virtual, que arrastrar la ficha con un ratón o un puntero", señala Carlos Vidal, director de informática personal de Hewlett Packard.

El móvil es el gran argumento a favor de lo táctil. El fabricante coreano HTC fue el pionero al lanzar su Touch en 2006. Pero el gran empujón vino de la mano del iPhone. El lanzamiento del terminal táctil de Apple fue un verdadero acontecimiento planetario, uno de esos hitos en la tecnología de consumo comparable a la aparición de Windows de Microsoft o del propio Mac de la marca de la manzana.

Los usuarios se volvían locos con su pantalla, en la que podían agrandar y achicar fotos con el movimiento de los dedos, o pasar las páginas en Internet. Sólo en el primer fin de semana se vendieron 270.000 terminales y actualmente ya hay 26,3 millones de iPhone en el mundo, un éxito inimaginable, sobre todo teniendo en cuenta que Apple era un intruso en la telefonía móvil.

Los fabricantes tradicionales pensaron que se trataba de un capricho para los fans de Apple (entusiastas del Mac). Pero ante el éxito incontestable del iPhone, no tuvieron más remedio que seguir sus pasos. Samsung, LG, Sony Ericsson y hasta Blackberry (RIM) cambiaron sus planes y dieron su brazo a torcer. La que más se resistió fue Nokia, el líder absoluto del sector, ya que acapara el 40% de los móviles que se venden en todo el mundo. Pero al final optó por un modelo mixto, con pantalla táctil y teclado físico, que ha integrado en sus modelos de alta gama, como el N-97.

"La estrategia de Nokia siempre fue tener un terminal para cada tipo de usuario. De ahí su amplia gama de terminales de todas las formas, funcionalidades y precios. Sin duda, la pantalla táctil es, según demuestra el observatorio de tendencias que hemos realizado con Conecta en el mes de mayo, el formato preferido por los jóvenes entre 15 y 35 años, ya que utilizan el terminal para conectarse a Internet, a sus redes sociales, para usarlo como navegador GPS, para ver fotos, películas o vídeos. Todo ello requiere una gran pantalla para poder visualizar bien los contenidos. Sin embargo, también podemos decir que el teclado qwerty (completo) es altamente valorado por quienes escriben de forma habitual correos electrónicos, mensajes o posts", señala Solange Cummings, portavoz de la marca finlandesa.

El segmento de la telefonía táctil supone en España el 13,1% de las ventas totales (y el 30% de la facturación, ya que son los teléfonos más caros), y un millón de terminales incorporan esta facilidad. La consultora Gartner Research estima que la mitad de todos los teléfonos inteligentes (smartphone) tendrán pantallas táctiles en 2012.

La informática no se quiere quedar atrás. Las pantallas táctiles aún están arrancando. En Estados Unidos sólo dos de los 300 millones de PC que se vendieron el año pasado iban equipados con ellas.

La principal barrera es el precio. Los fabricantes trabajan a contrarreloj para superar ese handicap. HP, una de las firmas de hardware que más ha apostado por esa tecnología, ha sacado su gama TouchSmart, en la que se puede encontrar un PC táctil en varios precios (999, 1.399 y 1.999 euros). Asus, a través de su gama Eee, intenta trasladar incluso esa técnica a los netbook, los miniportátiles, más asequibles (entre 200 y 400 euros) que están haciendo furor entre los consumidores. También están volcados Dell, Fujitsu, Toshiba o Lenovo.

No hay una tecnología única. Las pantallas táctiles pueden ser resistivas, capacitivas, por infrarrojos, por ondas sonoras o por sensores de luz. Las más usadas actualmente son las capacitivas y resistivas. Ambas utilizan los cambios en la corriente eléctrica para detectar las pulsaciones Las primeras permiten detectar más de una pulsación al mismo tiempo, no precisan presionar la pantalla, sino rozarla o deslizarse por ella. Pueden presentar problemas de precio y no es aconsejable utilizarlas con punteros. El iPhone, Blackberry (Storm) y HTC (Dream y Magic), entre otros, están equipados con ellas.

Las pantallas resistivas detectan la presión porque están formadas por dos capas que entran en contacto al realizar la pulsación. Mucho más baratas que las capacitivas, pueden ser utilizadas con punteros, no se rayan tan fácilmente y son más resistentes al polvo. En contra, su brillo es una cuarta parte menor. Equipan los táctiles de Nokia.

Synaptics, la firma taiwanesa que diseña pantallas para todo tipo de aparatos, es pionera en la llamada técnica multitouch, que permite reconocer y procesar simultáneamente las órdenes de los 10 dedos de las manos, un salto cualitativo si se tiene en cuenta que hasta hace poco una pantalla táctil sólo registraba el movimiento de un puntero o un dedo.

"Debemos pensar la evolución de las pantallas táctiles en tres categorías: hardware, aplicaciones novedosas y la interacción humana. Las pantallas táctiles están aquí para quedarse, son el interfaz ideal para controlar la electrónica más poderosa, una alternativa más elegante, intuitiva y productiva que los botones y los controles mecánicos. Para una gran parte de la población supondrá un enriquecimiento en su forma de utilizar los aparatos, que cada vez serán más finos, rápidos, baratos y más ampliamente adoptados. Los diseñadores tienen en esta tecnología oportunidades casi sin fin para crear interfaces alternativos a los botones", señala Andrew Hsu, responsable de estrategia de Synaptics.

En el campo del software, Microsoft está convencido de que su Surface, la mesa-ordenador que pesa 80 kilos, puede traspasarse al PC y al portátil, cuando los usuarios migren al Windows 7. "Hay 2.000 millones de Windows instalados en el mundo, así que el potencial es casi infinito. Además, hay miles de diseñadores desarrollando aplicaciones. Vamos a asistir a una revolución y a una democratización de la tecnología. No nacemos haciendo doble click o meneando un ratón, no es natural. Gente que jamás se acercaría a un ordenador va a tener la oportunidad de interactuar con una máquina sin tener que tener ningún conocimiento, simplemente utilizando sus manos naturalmente", señala Luis Martín, director de negocio de Windows en Microsoft Ibérica.

Todos insisten en que no se trata de tocar una pantalla sino de acercarse a la sensación del tacto. Los dispositivos más avanzados deben ser hápticos, es decir, que cuando uno pulse un botón virtual o pase una hoja de periódico, reciba una respuesta similar a la que siente en la realidad. Algunos móviles ya incorporan esta facilidad y pronto se generalizará en el resto de dispositivos.

Por eso, el futuro de la tecnología va más allá y se adentra directamente en el lenguaje gestual y en el reconocimiento de voz. La puerta la abrió Nintendo, con su consola Wii, que ha revolucionado el mundo de los videojuegos, haciendo que sus jugadores se calcen guantes de boxeo o empuñen raquetas para combatir o para jugar un partido de tenis, en lugar de accionar palancas y apretar botones. Nintendo ha probado que la fórmula funciona, desbancando a Sony y su PlayStation.

Microsoft prepara su proyecto Natal, que elimina completamente los mandos, y reconoce los gestos mediante sensores y cámaras. Siguiendo esta estela, los televisores también preparan un cambio radical de concepción mediante mandos que respondan a los gestos y voces de los televidentes.

La industria del automóvil y del entretenimiento están desarrollando proyectos de reconocimiento de gestos. Frenar el coche automáticamente por un bostezo o sumergirse en un mundo 3-D para combatir con monstruos virtuales será una realidad en pocos años.

La tecnología táctil también se ha implantado completamente en el comercio y la hostelería. De los 400.000 terminales de punto de venta (TPV) que existen en España, alrededor del 35% incorporan ya la tactilidad. Las aplicaciones van desde el campo industrial y médico a los quioscos multimedia, la atención al cliente, el transporte, la automatización de oficinas, cajeros automáticos y gaming (juegos). También la llamada cartelería táctil está cada vez más implantada en museos y exposiciones.

"De manera general, yo no catalogaría la tecnología táctil de moda, sino de una realidad que cada día avanza en el mercado y que convive con empresas y consumidores. Su validez y éxito descansa en que se trata de una forma intuitiva de, a través de iconos, navegar por los menús que nos ayudarán, en el caso de nuestro mercado, a gestionar mejor los negocios. Otro ejemplo, son los cajeros y las máquinas de vending, que a medida que se van renovando se van subiendo al carro de la tactilicidad, integrando en los nuevos equipos esta tecnología", señala María José Sánchez, responsable de unidades de comercio de Toshiba.

Lo táctil vuelve a invadir nuestras vidas. La tecnología se prepara para asistir a una nueva etapa, que bien pudiera llamarse la revolución de los limpiacristales. Todo será posible tocando la pantalla.