viernes, 31 de julio de 2009

Los diferentes colores y sabores de Windows 7



Por Walter S. Mossberg (Wall Street Journal)

La semana pasada, describí el agobiante y tedioso proceso que les espera a los usuarios de Windows XP en octubre si eligen actualizar sus computadoras con la nueva edición del sistema operativo de Microsoft, Windows 7. Esta semana, explicaré algunos otros detalles y cuestiones ligados a la puesta al día de una PC con Windows 7, aun si tiene Windows Vista, desde el cual es mucho más fácil hacer la transición.

A diferencia de la adaptación desde XP, que pese a sus años sigue siendo la versión más común de Windows, actualizar desde Vista es relativamente simple. Es un proceso directo que preserva todos sus archivos, configuraciones y programas personales.
[+/-]
No obstante, incluso esta transición más sencilla involucra algunas opciones y limitaciones que pueden ser confusas para la mayoría de los usuarios, así que trataré de aclararlas. En esta columna, escribiré sobre las actualizaciones simples y directas para el usuario promedio. No hablaré de métodos más complejos que requieren acciones como formatear o dividir discos duros.

A diferencia de Vista, Windows 7 no requiere hardware más potente. Debería funcionar bien en casi todas las computadoras que actualmente usan Vista, e incluso en muchos de los modelos más actuales que tienen XP. De hecho, exige un poco menos de capacidad que Vista. Por ejemplo, Microsoft ha demostrado repetidas veces cómo Windows 7 funciona en netbooks de baja potencia que se bloqueaban con Vista.

De todas formas, al igual que Vista, Windows 7 será vendido en una variedad de ediciones diferentes, por lo que decidir cuál comprar puede ser confuso. Existen seis versiones diferentes, algunas de las cuales sólo estarán disponibles en ciertos países. Una es para grandes empresas y otra, una edición llamada Starter, está dirigida para los mercados emergentes, entre los que la compañía incluye a América Latina. Según Microsoft, esta versión está diseñada para usuarios principiantes, con herramientas adicionales e instrucciones para hacerla aún más fácil de usar.

La mayoría de los consumidores probablemente elegirá Windows 7 Home Premium, que en EE.UU. costará US$120 para actualizar y posee todos los elementos clave de Windows 7. La versión que se encuentra un escalón arriba, llamada Professional, incorpora algunas funciones adicionales que pueden ser especialmente útiles para los usuarios que trabajen en empresas grandes o usen programas especiales más antiguos. En particular, esta edición, a diferencia de la versión Home Premium, puede conectarse de forma remota a ciertas redes corporativas que utilizan un sistema llamado "pertenencia a un dominio". Además, la versión Professional tiene la capacidad de ejecutar programas antiguos de Windows XP que de otra forma no funcionarían en Windows 7. Esta versión cuesta US$200 para los que quieran actualizar su sistema operativo.

La otra elección probable es la Ultimate, que combina todos los elementos de las otras ediciones pero cuesta US$100 más para actualizar que Home Premium.

Hay limitaciones sobre qué computadoras con Vista pueden ser actualizadas directamente a las varias versiones de Windows 7. En general, sólo se podrá actualizar la versión actual de Vista a la edición comparable de Windows 7. Por ejemplo, Vista Home Premium puede sólo ser actualizada a Windows 7 Home Premium. Esta regla tiene dos excepciones. Cualquier versión de Vista puede ser actualizada a Windows 7 Ultimate, si está dispuesto a gastar el dinero extra, y Vista Home Basic puede ser cambiada a Windows 7 Home Premium.

Las tres versiones comunes de Windows 7 para consumidores pueden funcionar dentro de máquinas virtuales, como las computadoras virtuales Windows creadas en computadoras Macintosh de Apple usando los software Fusion y Parallels. De todos modos, las reglas de actualización siguen vigentes.

Después de instalar Windows 7, podrá cambiar de Home Premium a Professional con poco esfuerzo extra, aunque por una suma adicional, usando un programa de Microsoft llamado Windows Anytime Upgrade. Esto desbloquea las funciones adicionales de Professional que, de hecho, ya estaban en su computadora pero estaban escondidas. Podrá hacer lo mismo para migrar a Ultimate.

Sin embargo, existe otra complicación. Para cada una de las tres principales versiones de Windows 7 para consumidores, en realidad hay dos ediciones. Una es para computadoras con procesadores estándar, de 32 bits, y la otra para las que tienen chips más modernos de 64 bits. El problema es que no se puede actualizar directamente de la versión de Vista para 32 bits a Windows 7 para 64 bits, lo que añade otra complicación.

La mayoría de los fabricantes de PC ofrece actualizaciones gratuitas, o muy baratas, a Windows 7 si compra una PC con Vista ahora. Hacen esto, en cooperación con Microsoft, para evitar que la gente espere hasta octubre para comprar una computadora nueva. Cada empresa tiene reglas ligeramente diferentes. Este programa de actualización gratuita no es de ayuda si usted simplemente desea quedarse con su actual computadora y actualizarla a Windows 7.

Para más información en español sobre las diferentes ediciones de Windows 7, vaya a http://www.microsoft.com/latam/windowsvista/getready/editions/default.mspx.

Cómo elegir tu próxima cámara digital de bolsillo



Por Ricardo Sametband (La Nación, Buenos Aires)

Fotos y más fotos. En el fotolog, en la red social, en el álbum online. En cualquier momento, desde cualquier lado. La fotografía es, por lejos, una de las actividades que mejor se adaptaron a la revolución informática. Desde la cámara de bolsillo hasta los nuevos equipos profesionales tipo réflex, capaces de grabar video en alta definición, los usuarios abrazaron de lleno la posibilidad de capturar un momento, sin preocuparse por los rollos o tener la duda de que la foto, revelada, esté oscura o fuera de foco.
Según Kodak, la gente antes sacaba un rollo y medio de fotos al año promedio, mientras que ahora toma unas 600 fotos digitales en el mismo período. Todo se registra. Y se comparte: en mayo último, Flickr tenía 3500 millones de fotos en su sitio, y Facebook, unas 15.000 millones, almacenadas por sus 200 millones de usuarios (hoy tiene más de 250 millones).
En nuestro país hay una gran oferta de equipos, pensados para diversos presupuestos e intereses. La amplitud de opciones complica a veces la elección de un modelo, por eso es conveniente tener en cuenta algunos elementos para decidir qué comprar.
[+/-]
Megapixeles, sí o no
Uno de los elementos distintivos de una cámara es la resolución de las imágenes que captura, medida en megapixeles; es decir, de cuántos millones de puntos de color (pixeles) estará constituida la foto. Aunque en teoría un número mayor debería resultar una mejor imagen, en la práctica esto no necesariamente es así.
La cámara genera la imagen digital usando un sensor que registra la luz ambiente y traduce esas señales eléctricas en pixeles; tiene millones de puntos sensibles en su superficie, y cada uno registra parte de la foto. Pero para producir una misma imagen con mayor resolución los fabricantes no aumentan el tamaño del sensor; lo que hacen es reducir el tamaño de ese punto sensible (también conocido como pixel o elemento). Esto trae aparejado una menor sensibilidad a la luz de cada uno de ellos, y la aparición de ruido en las fotos: puntos con un color distinto del que debería verse, sobre todo en zonas oscuras.
Así que una cámara de 10 megapixeles no necesariamente será dos veces mejor que una de 5 megapixeles; y con 3 o 4 megapixeles ya es suficiente para imprimir una foto con excelente calidad. No obstante, los fabricantes de cámaras han implementado técnicas para corregir estos errores, además de que dejan de vender equipos nuevos con sensores de pocos megapixeles, por lo que no está mal mirar un equipo con más resolución que otro. La mayor cantidad de pixeles, además, ayudará a que se pueda imprimir un detalle de una foto con buena calidad.
Lentes y sensores
Así como hay equipos con distintas resoluciones, también existen diferentes tamaños de sensor. Un mayor sensor permite tener pixeles más grandes, que serán más sensibles a la luz, pero es más cara su fabricación. Los sensores de algunas cámaras profesionales son iguales al negativo de film tradicional (conocidos como de fotograma completo ). La mayoría de las réflex digitales usan un formato de sensor conocido como APS. Entre los equipos de bolsillo, muchas usan otro estándar conocido como Cuatro tercios , pero la mayoría utiliza sensores de 1/2,3 o 1/2,5 pulgadas (aproximadamente 6 x 4 mm).
A su vez, el tamaño del sensor y la lente están aparejados. De nuevo, lo conveniente es una lente de mayor diámetro, porque dejará pasar más luz, pero esto aumenta también su peso, costo, y sobre todo su fragilidad.
En general, las compañías tradicionales de fotografía son las que tienen mejores lentes. En las cámaras de bolsillo, sin embargo, no son intercambiables, así que no hay mucho por discutir. Sí hay que mirar el zoom ofrecido.
Olvídese del zoom digital, que es un truco de software para agrandar el tamaño de un pixel (una técnica denominada interpolación) y no suma detalle a la fotografía. Lo que vale es el óptico, que sí permite un acercamiento al objeto fotografiado. Tradicionalmente, los equipos digitales ofrecieron un zoom de 3 aumentos (es decir, 3x), pero últimamente han aparecido modelos con mejores teleobjetivos, llegando a 5x o 7x. Aquí, cuanto más, mejor, pero el mayor zoom suele implicar una cámara más gruesa.
Estabilización y video
Hay otros elementos importantes, pero son más a gusto del usuario. Por ejemplo, el tamaño de la pantalla LCD, que sea sensible al tacto o que se pueda rotar. Y la calidad con que graba video. La mayoría de las cámaras lo hace en el modo VGA (640 x 480 pixeles por cuadro, 30 cuadros por segundo) aunque cada vez más modelos se acercan a la alta definición. Una mayor resolución permitirá lograr videos de mejor calidad, pero también requerirá más espacio de almacenamiento. La enorme mayoría de los equipos de bolsillo usa el formato SD y SDHC (para tarjetas de 4 GB de capacidad o más).
Algunos fabricantes apuestan por una mayor sensibilidad ISO de sus equipos, que permite tomar fotos con menor luz. Una cámara de bolsillo trabaja en un rango de 100 a 1600 ISO, aunque hay modelos que llegan a 3200 o 6400 ISO (a menor resolución que la máxima). Esta sensibilidad se ofrece junto a un estabilizador de imagen, que intenta neutralizar el temblor de la mano al sostener la cámara. Sirve para reducir el movimiento en las fotos tomadas con baja velocidad (en un atardecer, sin flash, por ejemplo). La mayoría de las cámaras ofrece un estabilizador óptico; algunas hacen una estabilización por software, recortando los bordes de la imagen, con una efectividad limitada.
Las cámaras brindan modos predefinidos de captura (automático, retrato, paisaje, objeto en movimiento, atardecer), pero no todas permiten configurar la apertura del diafragma y la velocidad de obturación de la cámara, algo valioso para algunos usuarios.
Lo que sí se incluye en un número cada vez mayor de modelos es la detección automática de rostros y sonrisas. El primer modo intenta poner todas las caras de una foto en foco, y ajusta su sensibilidad para que no queden oscuras; el segundo espera a que la persona retratada sonría para disparar. En general se pueden desactivar, así que su inclusión no molesta, y hasta puede ayudar en una foto compleja. Algunos fabricantes, además, incluyen una herramienta para esconder imperfecciones de la piel.
También hay modelos que resisten a golpes y chapuzones de hasta 2 o 3 metros de profundidad, y son capaces de preparar un video en un formato adecuado para YouTube, o etiquetar fotos para clasificarlas mejor, sobre todo si uno planea compartirlas en algún álbum de fotos en línea con amigos y familiares.
Algunos modelos disponibles en el país, además de los que aparecen sobre estas líneas:
Canon PowerShot A2000 (10 MP, zoom óptico 6x, estabilizador óptico, detección de rostros): $ 1399
Kodak Easyshare M340 (10 MP, zoom óptico 3x, función de captura inteligente): $ 849
Nikon Coolpix L100 (10 MP, zoom óptico 15x, ISO 3200, estabilización de imagen): $ 1590
Fujifilm FinePix Z30 (10 MP, zoom óptico 3x, estabilizador de imagen, detección de rostros): $ 1099
Olympus X-890 (10 MP, zoom óptico 3x, detección de rostros, modo automático inteligente): $ 1099+2GB
Panasonic DMC-FS6 (10 MP, zoom óptico 4x, estabilizador): $ 999
Samsung ES15 (10 MP, zoom óptico 3x, detección de rostros): $ 649
Sanyo VPC-S870 (8 MP, zoom óptico 3x, detección de rostros): $ 649,99
Sony DSC-W290 (12 MP, zoom óptico 5x, detección de rostro y sonrisa, estabilización óptica de imagen, graba video HD): $ 1999
Sony DSC-W180 (10 MP, zoom óptico 3x, detección de sonrisas, estabilización óptica de imagen): $ 1099

Tres dimensiones para la fotografía

La semana última, Fujifilm presentó la FinePix Real 3D W1, la primera cámara de bolsillo capaz de tomar fotos en tres dimensiones, gracias a sus dos lentes convergentes y dos sensores sincronizados. Incluso puede registrar video en 3D, ideal para el servicio tridimensional que YouTube presentó en estos días.
La compañía informó que el equipo incluye una pantalla LCD de 3 pulgadas, que permite ver estas imágenes en 3D sin requerir anteojos especiales, además de un accesorio de 8" con esta misma tecnología.
Fujifilm prepara incluso una impresora que usará un papel especial, con una cobertura lenticular, para tener estas fotos en papel con una ilusión de tridimensión.
La cámara también puede tomar fotos en dos dimensiones (como un equipo convencional), y es posible configurar el zoom de cada lente en una posición diferente, para tener dos imágenes distintas de un mismo objeto, al mismo tiempo.
La compañía anunció que la cámara y sus accesorios saldrán a la venta el mes próximo en algunos países del hemisferio norte. No se informó su precio.

jueves, 30 de julio de 2009

En 1969 llegamos a la Luna y al espacio virtual


Por Ariel Torres (La Nación, Buenos Aires)

A los ocho años ver a un astronauta poner sus pies en la Luna te cambia la vida.
En julio de 1969 tenía ocho años y el mundo era otro. Teníamos una Guerra Fría y la leche venía en botellas de vidrio. No había prácticamente nada de lo que conocemos hoy, en términos de tecnología.
Ni siquiera abundaban los televisores. Quiero decir los televisores valvulares en blanco y negro, pesados como un tren y casi igual de grandes y costosos. Por eso mi padre había armado el nuestro. También ensamblaría el primero a color, nueve años después. Pero de momento, la cantidad de televisores en Buenos Aires era tan insignificante, comparada con la actual proliferación de pantallas, que el 20 de julio mi padre se llevó la familia y el televisor al taller del diario La Prensa, donde trabajaba, para que todos vieran uno de los hechos históricos más importantes de la historia humana, la llegada del hombre a la Luna.
[+/-]
Me encantaba ir al taller, es decir, la planta impresora del diario, en la calle Azopardo. De hecho, el olor a tinta todavía hoy me trae recuerdos de la infancia.
Esa noche, con la pantalla puesta en un lugar alto y decenas de personas alrededor, vi al primer hombre caminar por la Luna. En blanco y negro, fantasmal, confuso y sin embargo evidente. Fue en un televisor valvular construido por mi padre. En un siglo que ya terminó. En una era ida.
Ahora estoy viendo esas mismas escenas en mi computadora. Bajé los archivos de video del Centro Espacial Goddard, de la NASA ( svs.gsfc.nasa.gov/vis/a010000/a010400/a010451/ ).
Alrededor el mundo es otro, sin embargo. Hay pantallas planas de alta resolución a color, una red global llamada Internet, más de 4000 millones de celulares, GPS en los autos y computadoras que caben en la palma de la mano.
Eso sí, ya no vamos a la Luna.
***
Tecnológicamente, 1969 fue un año extraordinario. No sólo hicimos pie en el espacio exterior, sino que pusimos los primeros cuatro ladrillos del espacio virtual. ¡En serio! En octubre de 1969 se conectaron los cuatro nodos iniciales de la abuela de Internet, Arpanet. El 21 de noviembre esa red estableció su primera conexión permanente entre la Universidad de California en Los Angeles y el Stanford Research Institute. Cuarenta años después, los viajes por el espacio virtual gozan de una salud mucho más robusta que los de las naves espaciales.
El mundo hoy no se concibe sin Internet.
Pero hubo más ese año. Poco antes del nacimiento de Arpanet, en septiembre, empezaría a desarrollarse un software llamado Unics.
Pronto cambiaría su nombre a Unix. Con sus pro y sus contra, dejaría una marca indeleble en la informática y su concepto daría origen a Linux, el clon de Unix creado por Linus Torvalds y la Fundación del Software Libre.
Linus nació el 28 de diciembre... de 1969.
***
La Luna, Arpanet y la computación tal como la conocemos hoy nació más por razones políticas que técnicas. Este es el único argumento decisivo contra los escépticos del alunizaje: era mucho menos riesgoso mandar hombres de verdad que jugarse a que una conspiración así se descubriese. Imagínese el desastre moral que semejante gaffe habría causado en una nación como los Estados Unidos, por entonces enfrentada a la Unión Soviética y, en gran medida, retrasada en la carrera espacial.
Lo realmente imposible es que no los hayan mandado.
Arpanet fue motorizada, de hecho, por el lanzamiento del Sputnik en 1957. Es que si los soviéticos podían poner una esfera de 58 centímetros de diámetro en órbita, entonces podían colocar una ojiva nuclear en el techo de la Casa Blanca. Arpanet se proponía mantener comunicados los centros de poder de Estados Unidos incluso si las bombas soviéticas empezaban a caer sobre su territorio.
La Luna era el premio mayor. Si llegaban primero, todos los demás atrasos y errores quedarían borrados de la memoria colectiva. Así fue.
Tanto, que poco después del Apollo 11 los viajes espaciales perdieron todo atractivo. Como ocurre cada vez que una meta científica queda amalgamada a una situación política, no importaba llegar a la Luna.
Importaba llegar primero. La hazaña técnica quedó opacada por el fatídico torneo de la Guerra Fría.
Pero a los ocho años uno sueña con ir al espacio -o con cualquier otra gran aventura- sin notar el mar de fondo. Para mí, y para muchos millones de chicos, esas borrosas imágenes en blanco y negro elevaron el horizonte de la fantasía más allá de los confines planetarios.
***
Muchas de las tecnologías que estaban sembrándose por entonces -el transistor (1947) y los circuitos integrados (1958), el láser (1960), las computadoras digitales, las redes- nos ofrecen hoy posibilidades inéditas en la historia humana. Esta mañana, por ejemplo, he estado paseando por la Luna. Bueno, casi. Vi lo mismo que los astronautas en su primer alunizaje. El incansable Google Earth ( earth.google.com ), para celebrar el 20 de julio, añadió nuestro satélite natural a su repertorio. Ahora, para viajar de la Tierra a la Luna, basta ir al menú Ver> Explora> Luna.
Como ocurre con Marte, se pueden descargar imágenes en alta resolución de ciertas zonas, haciendo clic en los cuadrados de color naranja.
Algunas visiones cortan el aliento. En la región donde alunizó el Eagle, en el Mar de la Tranquilidad, se vislumbra la abandonada plataforma del módulo lunar, proyectando todavía su sombra sobre el terreno alienígena.
Han pasado cuarenta años. Soy otro y el mundo es otro.
Pero el sueño de las estrellas y las interminables preguntas sobre el universo no han cambiado. Al menos para mí.

lunes, 27 de julio de 2009

El agua del Niágara moverá Yahoo



Por Juan Manuel Daganzo (Público, Madrid)

Algunas de las compañías informáticas y de Internet más importantes del mundo, como Yahoo, Google o IBM, están decididas a respetar el medio ambiente y a luchar contra el cambio climático. Y la forma que tienen de hacerlo es mediante la transformación de sus centros de datos en lugares ecológicos que reduzcan drásticamente las emisiones de CO2. No en vano, sólo en Estados Unidos, estos servidores utilizan 62.000 millones de kilovatios hora (kWh), una cifra que se podría doblar en 2011.

Una de las primeras en hacerlo será Yahoo. David Filo, el cofundador y director, anunció recientemente que su compañía daba un paso adelante con la puesta en marcha del centro de datos más ecológico del mundo, el primero de los que transformarán en todo el mundo.

La idea es alimentar el futuro centro de datos de Búfalo Lockport (Nueva York, EEUU) con la energía generada por las cataratas del Niágara.
[+/-]
El 90% de esa energía alimentará los servidores, cuando, de media, la energía que se aprovecha por un centro de datos normal "es del 50% o menos", según Filo. "El resto se dedica a mantener los servidores a la temperatura adecuada", añade. Pero la baza de Yahoo es que han diseñado un edificio, conocido como Yahoo Computing Coop, orientado a sacar partido del microclima de Búfalo y a utilizar el 100% del aire exterior para enfriar los servidores.

No es la primera iniciativa de Yahoo en esta línea. Sus oficinas de Washington se alimentan de energía eólica y recursos hidroeléctricos, con lo que han mejorado el rendimiento de los servidores y reducido su factura energética hasta en un 40%. La de Búfalo es una apuesta importante porque "los centros de datos generan la mayor parte del consumo, pues dar servicio a 500 millones de personas en el mundo requiere una gran cantidad de energía", dijo Filo durante la presentación del proyecto.

Yahoo no es el único imperio de la tecnología que persigue objetivos ecológicos. Google ya está iniciando experiencias en las que utiliza energía geotérmica para alimentar sus servidores. El buscador quiere refutar un estudio del pasado año, según el cual en 2020 los centros de datos de Google expulsarían más gases de efecto invernadero que toda la industria aeronáutica. Según varias fuentes y aunque la empresa no lo ha confirmado de forma oficial, el pasado septiembre Google patentó un sistema de servidores instalados sobre plataformas flotantes en el mar. Esta técnica permitiría acercar los servidores a los usuarios para evitar la transmisión de datos a largas distancias y que estuvieran alimentados por la fuerza de las olas con convertidores de energía Pelamis, una tecnología actualmente en fase de prueba.

IBM es otra de las grandes que se ha subido al carro de la eficiencia energética. Tiene entre manos el proyecto Smarter Planet, con el que construirá en los próximos seis meses un centro de datos en la Universidad de Syracuse (EEUU) que consumirá un 50% menos que las instalaciones actuales. Con un presupuesto de 8,7 millones de euros, IBM construirá además junto a los servidores un sistema de cogeneración de energía eléctrica basado en una microturbina alimentada con gas natural, que no sólo proporcionará energía a las máquinas, sino que también ayudará en la regulación de su temperatura y en la climatización de determinadas áreas del campus universitario.

El centro de datos de Syracuse se valdrá de un sistema de refrigeración por agua que convertirá el calor de la turbina en agua fría. "La tendencia es utilizar agua como elemento refrigerante, como se hacía hace 20 años, y corriente continua, que tiene menos pérdidas que la alterna. También el free cooling, es decir, refrigerar las salas de máquinas con aire procedente de la calle", dice Juan Carnero, director de proyecto de Site and Facilities de IBM. De esta forma, según sus datos, se producirán ahorros hasta del 75% en climatización.

"El objetivo es desarrollar una nueva generación de sistemas de fabricación de energía que se adapten a las iniciativas de reducción de consumo energético", afirma Vijay Lund, vicepresidente de desarrollo de IBM.

Borrá esas cadenas de mails

Por Pedro Lipcovich (Página 12, Buenos Aires)

Ese mail, que llega por cadena solidaria, que nos presenta la carita de un chico perdido, que sólo nos pide reenviarlo para contribuir, aunque sea un poquito, a que aparezca, ese mail que nos conmueve, ése... lo mejor es borrarlo.
Así lo pide, y lo explica, la entidad Missing Children, además de aclarar que “nunca, jamás, las cadenas de mails sirvieron para que apareciera un solo chico perdido”.
[+/-]
Estas cadenas “solidarias” diseminan, sin autorización, fotos de menores de edad, que en muchos casos hace años ya fueron recuperados por sus padres, y contribuyen a generar “una exagerada sensación de inseguridad”, observó la presidenta de esa ONG. Especialistas en seguridad informática explicaron a este diario cómo las cadenas de mail suelen ser, en realidad, “instrumentos de análisis de mercado”, que permiten detectar las actitudes de los distintos usuarios, captar sus direcciones de mail e inducirlos a aprovechadas “donaciones”. Y sugirieron recursos para prevenirse de estas trampas.

La organización Missing Children, dedicada a la búsqueda de niños perdidos, emitió un comunicado para aclarar que “nunca envía ni promueve cadenas de correos electrónicos”. Y recomienda “cortar la cadena de reenvíos, para evitar así difundir información que confunda”. Esto vale aun para “la mayoría de estos correos, que son hechos de buena fe”, y con más razón para los que “son utilizados con otros fines, como hoaxes (falsas informaciones) o para dirimir conflictos entre partes litigantes de una familia”. En todo caso, “de los más de 3200 chicos encontrados, ninguno fue por ser vista su fotografía en una cadena de mail”, advierte Missing Children.

Por ejemplo, “un chiquito había estado un solo día fuera de su casa, por un conflicto familiar, en 2005: desde entonces, su fotografía sigue circulando en cadenas de mail –contó Lidia Grichener, presidenta de Missing Children–. Muchas fotos de chicos que aparecen en cadenas se difunden sin autorización judicial o de los responsables del menor”.

“En algunos casos, sucedió que el padre o la madre se llevaran al chico y el otro progenitor lanza a circular la cadena de mails, con lo cual la imagen de la criatura se utiliza como elemento en un conflicto entre los padres. En otros casos, sí, efectivamente el chico está perdido y los padres intentan el recurso de la cadena de mails: es comprensible que lo hagan, en su desesperación. Pero, en nuestra experiencia, jamás se encontró un chico por una cadena de mails”, advirtió Grichener.

“Además –agregó la titular de Missing Children–, la proliferación de estas cadenas genera una idea de inseguridad, de caos, de que todos los chicos se pierden; hay gente que nos llama a partir de esta sensación, que da una falsa dimensión del problema. Una de las cadenas que circulan presenta una cantidad de fotos de chicos y afirma que están apresados ‘en redes de trata’: la mayoría son chicos que ya aparecieron hace mucho; también figura una chica que apareció muerta pero no por un tema de trata. Claro que la trata existe pero sólo se la puede enfrentar a partir de información verídica.”

Mi compu me engaña

“Muchas cadenas de mail son, en realidad, instrumentos de análisis de mercado –sostiene Arturo Busleiman, consultor en seguridad informática–: el hecho de que alguien reenvíe un mail sobre chicos perdidos, sin haber verificado la información, ofrece un dato sobre los intereses y las actitudes de esa persona. Si otra persona presta atención a una cadena de chistes, o de esoterismo, o a ‘las mejores fotos de trolas’, se ubica en determinadas categorías: se trata de armar bases de datos de gente alineada con ciertas temáticas. Estas bases de datos tienen valor comercial y se utilizarán para producir spam.”

En muchos casos, las cadenas orientan al receptor a determinados sitios de Internet: “Por ejemplo, para ingresar ‘donaciones’. Después de recibir por varias vías una cadena con alto contenido emocional, una persona puede estar dispuesta a consignar los datos de su tarjeta de crédito”, observó Busleiman.

Pero, el que diseñó la cadena, ¿cómo puede recibir información sobre los sucesivos destinatarios? “Los mail que se abren como HTML ofrecen al primer emisor la posibilidad de hacer seguimiento”, contó el consultor, y recomendó usar “el programa para correo electrónico llamado Thunderbird, que es gratuito en la web y se agrega a los correos ya existentes, sin sustituirlos: este programa permite la opción ‘HTML simplificado’, que impide ese seguimiento; también ofrece opciones para detección de cadenas y de phishing (envío a páginas engañosas que solicitan información del usuario)”.

Hugo Scolnik –titular del Departamento de Computación de la Facultad de Ciencias Exactas de la UBA– recordó que “las direcciones de mail, que pueden obtenerse mediante estas cadenas, se compran y se venden: en Internet hay ‘supermercados’ donde se comercializan de a miles”. Advirtió también que “en los mensajes, especialmente en las imágenes que puedan contener, pueden ir incrustados virus, que dañan los programas o destruyen el disco rígido, o también troyanos, que inadvertidamente toman control de la máquina, generalmente con fines de obtener información”.

El usuario puede no advertir la presencia de estos “códigos maliciosos”, ya que, observó Scolnik, “muchos usuarios no usan firewalls: entonces, es muy fácil hackear la máquina”. El especialista de la UBA advirtió que “hoy existen programas que examinan miles de direcciones de Internet y le entregan al hacker un mapa completo de la vulnerabilidad de cada una”. El usuario no suele enterarse porque “habitualmente, el hacker entra en la máquina, la revisa y, si no encuentra nada que le interese, se va sin dejar rastros”. Pero a veces encuentra datos que le interesan, por ejemplo passwords.

Scolnik sugiere “desactivar el firewall que viene con el Windows, que, por ejemplo, no va a revelar el hecho de que “el programa Microsoft Word se comunica permanentemente con Microsoft para dar información sobre el usuario, con propósitos comerciales”. En cambio, recomienda “un firewall gratuito como el Zone Alarm que se descarga desde la web en español. Una vez instalado, este programa le revelará al usuario qué programas están intercambiando información vinculada con su máquina y le preguntará qué hacer en cada caso. Si el programa en cuestión es el antivirus, está bien habilitar el intercambio, que permite su actualización periódica, pero es probable que el usuario se sorprenda al enterarse de cuántos programas intercambian información desde su máquina sin que él lo sepa”.

sábado, 25 de julio de 2009

El salto de XP a Windows 7, un dolor de cabeza

Por Walter S. Mossberg (The Wall Street Journal)


El 22 de octubre, Microsoft finalmente sacará al mercado una nueva versión de Windows que será tan buena como debió haber sido el terriblemente decepcionante Windows Vista cuando se lanzó en enero de 2007.

La nueva edición, llamada Windows 7, es significativamente mejor que Vista así como la versión de 2001, Windows XP, que todavía es ampliamente usada. El nuevo Windows será un rival de peso para el elegante y efectivo sistema de Apple, Mac OS X, (aunque Apple podría mantener su ventaja con una nueva versión llamada Snow Leopard, que saldrá en septiembre).

Pero ¿cómo adaptarán los usuarios de Windows sus computadoras al nuevo Windows 7?
[+/-]
Aunque el sistema operativo más reciente enfatiza la simplicidad, el proceso de actualización no será sencillo para la gran base de consumidores promedio que todavía usa XP, que probablemente supera en número a los usuarios de Vista. Será frustrante, tedioso y requerirá de mucho esfuerzo.

De hecho, el proceso será tan complicado que, para muchos usuarios de XP, la solución más fácil será comprar una nueva computadora con Windows 7 ya instalado, si pueden asumir un gasto semejante. De hecho, esa es la opción que Microsoft recomienda para usuarios XP. Esta opción también ayuda a los socios de Microsoft que fabrican PC.

Si usa Vista, la conversión a Windows 7 será un proceso relativamente sencillo. Debido a que la nueva versión comparte la mayoría de la estructura subyacente de Vista, se instalará en su computadora actual con relativa rapidez y facilidad, conservando todos sus documentos, carpetas, configuraciones y programas.

En una prueba de este proceso hace unos meses, usando una versión preliminar de Windows 7, actualicé una laptop Vista sin problemas y con poco esfuerzo en alrededor de una hora.

Pero los usuarios de Windows XP, incluyendo los millones que hace poco compraron netbooks baratas operadas con XP, deberán primero borrar todo lo que haya en sus discos duros antes de instalar Windows 7. De hecho, Microsoft ni siquiera llama a la migración de XP a Windows 7 una "actualización", sino una "instalación en limpio" o una "instalación a medida". Esta limpieza del disco se puede realizar manualmente o de manera automática durante el proceso de instalación de Windows 7.

Riesgo de perder todo

Si es usuario de XP, la limpieza del disco le hará perder su actual organización de archivos y documentos y todos sus programas, aunque no necesariamente sus documentos personales. Sin embargo, con el fin de preservar estos archivos personales, como documentos y fotos, deberá seguir un proceso largo y de muchos pasos, que normalmente requerirá usar un disco duro externo al que se puedan mover todos estos archivos, para luego volverlos a guardar en la computadora.

Eso significa que deberá comprar o pedir prestado un disco duro externo, o dejar libre espacio suficiente en el que ya tiene, para guardar todos sus archivos.

Y las dificultades no acaban ahí. Si es usuario de XP, pasarse a Windows 7 en su computadora actual significa que también deberá reinstalar todos sus programas y todos los drivers para sus impresoras y demás hardware. Eso podría requerir localizar los discos originales de los programas o los instaladores descargados de softwares y luego reinstalar los programas y las numerosas actualizaciones que se han publicado desde que los compró.

Y hay otro problema: los drivers de hardware XP no funcionan en Windows 7. Microsoft dice que puede reemplazar automáticamente miles de drivers antiguos comunes con nuevas versiones compatibles con Windows 7, pero admite que no tiene reemplazos para algunos. La compañía advierte específicamente que algunas netbooks podrían contener drivers obsoletos.

Los propietarios de netbooks se enfrentan a otro obstáculo. Aunque Microsoft dice que Windows 7 funcionará bien en netbooks, la mayoría de éstas no tienen una unidad de DVD, que se necesita para poner el disco de instalación de Windows 7. Así que tendrán que comprar o pedir prestado una unidad de DVD externa.

Microsoft ha adoptado algunas medidas para facilitar el proceso. Planea ofrecer un programa gratuito de "Transferencia Fácil" (explicado en http://bit.ly/M5Il7), que automatizará el proceso de mover sus archivos personales a una unidad de disco externa y luego devolverlos a su computadora tras la instalación de Windows 7. Pero este programa no transferirá sus programas, sólo sus documentos personales.

Asimismo, si no quiere usar un disco duro externo para guardar temporalmente sus archivos, los puede transferir a través de una red o de un cable a otra computadora. La compañía también tiene una alternativa mediante la cual guardará sus documentos personales en una carpeta especial llamada windows.old, en la PC actualizada. Pero después deberá transferir manualmente todos estos archivos a sus carpetas normales.

Finalmente, directivos de Microsoft señalan que el asunto de la actualización de XP a Windows 7 podría no ser aplicable a muchos propietarios de computadoras más viejas, ya que de todas maneras estas podrían no tener suficiente memoria, capacidad en el disco duro o potencia gráfica para instalar Windows 7. E incluso si una computadora muy vieja es capaz de operar el Windows 7 de manera marginal, es un error tratar de instalar un nuevo sistema operativo y esperar que funcione bien.

Pero si tiene una computadora capaz que por algún motivo opera con Windows XP, probablemente el proceso de actualización a Windows 7, si así lo elige, será complicado.

La súper herramienta de Google, a un paso de ser revelada

Infobae (Buenos Aires)



Se trata de Wave, servicio de comunicación que permitirá acceder al mail, mensajería y redes sociales en una ventana. A fin de septiembre, se enviarán 100.000 invitaciones, fase previa al lanzamiento definitivo.
[+/-]
Google Wave fue presentado durante la conferencia de desarrolladores en San Francisco Google I/O, realizada a fines de mayo.

Y ahora hay más novedades. En el blog oficial para desarrolladores de Wave -actualmente 6.000-, se anunció que esa cantidad será ampliada a 20.000 el mes próximo.

Pero lo mejor es que el 30 de septiembre se cursarán 100.000 invitaciones a usuarios comunes. Si Google actúa de la misma manera que con el lanzamiento de Gmail, los usuarios que estén probando el servicio podrán invitar a otros.

Ese es un punto aún no confirmado por Google.

Google Wave combina las funciones de Twitter, Facebook y Friendfeed en una sola ventana. Es decir, el usuario puede enviar mensajes directos a sus contactos, compartir fotos y documentos o agregar y quitar miembros a una charla.

Los hermanos Rasmussen -Lars y Yen, a cargo del desarrollo de Google Maps- dijeron que al pensar Wave se inspiraron en las dos formas más populares de comunicación en la web: el mail y la mensajería instantánea.

En Wave se agregaron funciones de otros servicios de Google, como Maps, para trabajar sobre él al mismo tiempo que se está usando otra función.

Pero no sólo las herramientas propias de Google están en Wave: Twitter, por ejemplo, también está incorporado.

El usuario final no será el único que podrá disfrutar de esta aplicación: las empresas pueden crear un entorno de trabajo colaborativo alrededor de Wave, facilitando las comunicaciones en tiempo real.

jueves, 23 de julio de 2009

Barnes & Noble, con su eReader, desafía a Amazón

d-blog



Amazon nació en 1995, y con los años se convirtió en una de las primeras grandes compañías digitales con éxito en el negocio de vender bytes, pero Barnes & Noble —que se dedica al negocio de los átomos desde 1873— amenaza con convertirse en su seria competencia en 2010. La mayor cadena de librería del mundo acaba de lanzar su propio mega-sitio de venta online: www.bn.com. Contiene unos 700.000 libros disponibles para leer en computadoras y celulares, de los cuales casi medio millón son gratis (de dominio público) tomados del catálogo de Google. Además, ofrece casi otro millón de ejemplares para encargar bajo la modalidad de print-on-demand.

miércoles, 22 de julio de 2009

Microsoft baja los precios

El País (Madrid)

Microsoft no quiere perder cuota de mercado y que el precio sea un obstáculo para la penetración de sus productos en los mercados menos desarrollados. Solución: bajar los precios. En España, las rebajas serán menos vistosas. Con todo, fuentes de Microsoft en España han manifestado a este diario que la licencia completa de la versión Home Premium del Windows 7 costará entre un 15% y un 35%menos, según sean licencias para el consumidor final o corporativas, que la versión similar de Vista.
[+/-]

Con el futuro Office 2010 ya anunció que ofrecería una versión menos poderosa de forma gratuita en la Red. En general, el nuevo sistema operativo que lanzará en octubre, el Windows 7, llegará a las tiendas del mundo a un precio unos 40 dólares inferior al que costó Vista (240 dólares), según Business Week. Se trata de la mayor rebaja de precio en el lanzamiento de un Windows.

Con la bajada de precios, Microsoft espera incrementar las ventas lo que compensaría la reducción de los márgenes comerciales. Distintas promociones de Office sitúan su precio real en los 100 dólares cuando el nominal es de 150. Pero en países como India o Brasil, se pueden encontrar mejores precios. Según la compañía, las unidades vendidas en esta segunda mitad del año han crecido un 415%.

La política más agresiva de precios la hará en China, donde el 95% de los programas de Office instalados en los ordenadores son piratas. Una oferta promocional lanzada en setiembre, que situaba el Office en 29 dólares ha hecho crecer las ventas un 800%. El propio Steve Ballmer, máximo ejecutivo de la compañía, ha admitido que no será fácil, pero que es una oportunidad para crecer en el beneficio total.

Esta política comercial responde no sólo a un intento para combatir la piratería de programas. También a la existencia de ofertas gratuitas desde Internet de programas hermanos por parte de Google.

La TV contraataca, menos en Argentina

Conectados



En la cada vez más agresiva batalla entre Internet y la TV, que ve amenazado su negocio tradicional (al igual que otros medios) por el crecimiento sostenido de la plataforma digital, llama la atención el contraste entre lo que ocurre en España y lo que sucede con los espacios on line de los grandes canales de TV argentinos.

Miren esta estadística de junio de este año:
[+/-]


Las señales ibéricas Telecinco.es (5.4 millones de usuarios únicos), RTVE.es (4 millones) y Antena3TV.com (3.3 millones) ya están entreveradas en el ránking de sitios de mayor tráfico en España, inclusive superando a algunos diarios y revistas de gran tiraje, y que tienen mayor trayectoria en Internet.

La mayoría de estos sitios ofrecen contenido “original” para Internet y desarrollan comunidades on line independientemente de su espacio tradicional, con estrategias de integración de plataformas y campañas de marketing asociadas y virales. Son canales de TV que asumen que el mundo cambió y muchos consumidores prefieren mirar contenido audiovisual -producido ad hoc- en Internet.

En la Argentina, en cambio, la gran mayoría de los sitios de las principales señales de TV (abierta y cable) tiene alguna de estas características:

Sitios institucionales con información estática.
Reproducción de algunos contenidos de la televisión, sin considerar la preferencia de los usuarios.
Nula o escasa presencia de formatos originales para Internet o webisodes.
Nula o escasa vinculación con la comunidad de usuarios a través de estos espacios.
Salvo las señales de noticias, que tienen algunas propuestas interesantes en la relación con su audiencia (TN y la gente, C5N Facebook, etc.), la gran mayoría parece estar mirando otro canal.
En España el desembarco de la TV masiva en Internet se produjo hace un par de años. En Argentina, ¿faltará un poco más de tiempo?

martes, 21 de julio de 2009

Yahoo renovará su página de inicio con nuevas funciones

Público (Madrid)

La nueva página web mezcla los contenidos online de Yahoo y sus productos con las populares redes sociales como Facebook y Twitter, en lo que un alto cargo de Yahoo describió como el cambio más "radical" de la web desde su creación hace más de una década.

"Es un gran cambio en cuanto a cómo pensamos en nuestros usuarios y la manera en que pensamos en nuestro negocio", dijo Tapan Bhat, vicepresidente de Yahoo en el área de Experiencia integrada del consumidor, en una rueda de prensa por teleconferencia antes del anuncio.
[+/-]
La nueva página de inicio llega ahora que las negociaciones entre Yahoo y Microsoft para asociarse y crear un servicio de búsquedas y publicidad conjunto están cobrando protagonismo de nuevo. Yahoo, que informará de sus resultados financieros del segundo trimestre, se enfrenta a una creciente competencia por parte de Microsoft, que lanzó su buscador Bing en junio.

Según comScore, la cuota de mercado de Yahoo descendió hasta el 19,6% en junio, desde el 20,1% que tenía el mes anterior, mientras que la cuota del servicio de búsquedas de Microsoft aumentó del 8% al 8,4%.

Sin embargo, la página web de Yahoo es una de las más visitadas en la web y es uno de los activos mejor valorados de la empresa. La web contó con 100 millones de visitantes estadounidenses en el mes de junio , según comScore, y 330 alrededor del mundo en mayo.
Poner orden en el caos

La nueva web de Yahoo será menos confusa que la anterior y ofrecerá menos servicios y productos. Una columna que se ve en la parte inferior izquierda de la página permitirá a los usuarios incluir aplicaciones que muestran el contenido de páginas de terceros como USA Today y Facebook, además de páginas de Yahoo, cuando los usuarios pasen el ratón por encima de ellas. Yahoo venderá publicidad, que se situará junto a las aplicaciones.

viernes, 17 de julio de 2009

Robo digital en Twitter

Por Tomás Declós (El País, Madrid)

Barcelona.- El popular sitio de microblogging Twitter ha sido objeto de un robo digital. Un pirata accedió a documentos y datos que guardaban algunos empleados y los ha remitido a varios sitios de Internet. Uno de los que ha recibido el material es Techcrunch que, tras estudiar el contenido de más de 300 documentos, ha publicado algunos referentes a proyectos de la compañía.

Según Twitter, hace un mes documentos y correos, albergados en Google Apps, de un empleado administrativo de la empresa fueron pirateados. El fundador de Twitter descarga Google de responsabilidad en el episodio. La acción se atribuye a un pirata francés, Hacker Croll, que habría accedido a contraseñas de miembros de la compañía.
[+/-]
Techcrunch es uno de los sitios que ha decidido publicar los contenidos del material robado que considera interesantes informativamente. Tras descartar, por ejemplo, entrevistas de empleo con personas trabajando en otras compañías, ha optado por hacer públicos informes sobre previsiones financieras y proyectos que Twitter ha considerado que son imprecisos. La decisión de Techcrunch ha creado polémica entre sus propios lectores. Algunos le reprochan que publiquen material robado. El propio editor de la publicación digital, Michael Arrington, responde a estas críticas afirmando que ellos publican información confidencial casi a diario, muchas veces filtrada por empleados de las compañías y que en este caso han escogido los documentos con valor informativo y cuya publicación era pertinente. Arrington asegura que ha consultado a abogados sobre las leyes que cubren la publicación de secretos comerciales y documentos robados.

El autor del robo ha publicado en un blog francés, Korben, que el objetivo de su acción era únicamente llamar la atención de los internautas sobre la vulnerabilidad de sus datos en la Red. Korben también publica el material robado y cuenta que Hacker Croll obtuvo acceso al correo de distintos empleados de Twitter, entre ellos los de Evan Williams y su esposa. Por este camino llegó a las cuentas de Paypal, Amazon, Apple y Gmail, entre otros, de distintos empleados. Entre el botín obtenido figuran documentos corporativos y otros menores como las preferencias alimentarias de los empleados, números de teléfono, currículos, resúmenes de reuniones internas, etcétera. Twitter ha anunciado que consultará si caben acciones legales sobre lo sucedido.

En la guerra de los navegadores, Firefox pierde ventaja

Por Walter S. Mossberg (The Wall Street Journal)

La guerra de los navegadores de Internet ha tomado otro cauce con el lanzamiento de una nueva versión del Mozilla Firefox, el navegador número dos en cuanto a participación de mercado, pero número uno en los corazones de muchos de los usuarios de computadoras más informados.

La nueva edición de Firefox supone el tercer lanzamiento de un gran navegador este año, tras las nuevas ediciones de Internet Explorer de Microsoft y Safari de Apple.

Walt Mossberg dice que la nueva versi'on de FireFox está llena de muchas funciones que igualan a otros productos, pero carece de innovaciones.

A diferencia de Firefox, estos dos navegadores vienen ya instalados con las dos principales plataformas de computación, Windows y Mac. En cambio, Mozilla debe convencer a los usuarios de que descarguen Firefox, que tiene versiones esencialmente idénticas para ambos sistemas. Y le ha ido bastante bien, ya que posee el 23% del mercado, según la mayoría de cálculos, comparado con entre 60% y 70% para IE, que es sin duda el líder.
[+/-]
He usado Firefox desde su lanzamiento hace años y he estado probando su última versión, la 3.5, desde que apareció el 30 de junio. Puedo seguir recomendándola como una muy buena herramienta para navegar la Web. La nueva versión ha sido mejorada y funcionó muy bien tanto en mi computadora Windows como mi Macintosh.

Pero, en esta fase de la batalla, el producto de Mozilla ya no se ubica en una posición claramente superior, por dos motivos.

Primero, Firefox ha perdido lo que tradicionalmente era su mayor ventaja: una mayor rapidez que sus rivales. Aunque Firefox 3.5 es dos veces más rápido que la versión previa, 3.0, y superó fácilmente al Internet Explorer 8, fue más lento que Safari 4.02 y que la edición beta de Chrome 2.0, el navegador de Google. En general, Safari fue el más rápido en la mayoría de mis pruebas, tanto en Mac como Windows (sí, Apple hace una versión poco conocida de Safari para Windows).

De hecho, Mozilla ya no está promocionando Firefox como el navegador más rápido. Ahora prefiere decir que es uno de los más "modernos", junto con Safari y Chrome, cuyas tecnologías los hacen mejores en el manejo de aplicaciones basadas en la Web que imitan programas de computadora tradicionales como los editores de fotografías, los procesadores de texto y las hojas de cálculo.

Segundo, esta versión de Firefox tiene relativamente pocas funciones nuevas y algunas de ellas son sólo un esfuerzo para ponerse al día con las que habían presentado antes Microsoft y Apple. La más notable entre estas funciones es un modo de navegación privado, que fue popularizado por primera vez por Safari, y fue expandido de forma importante en IE, que le permite al usuario navegar por sitios Web sin dejar rastros en su computadora.

Mozila afirma que su objetivo principal desde ahora será convertir Firefox en la plataforma ideal para utilizar aplicaciones basadas en la Web. Comparte la creencia, a la que Google se adhiere con fervor, de que los consumidores se pasarán gradualmente de los programas que se guardan en los discos duros de sus computadoras a los que se almacenan en "la Nube", el término que utiliza la industria para los servidores que están detrás de Internet.

Para demostrar esto, el nuevo Firefox puede hacer unos trucos nuevos, como reproducir video directamente desde páginas Web sin necesidad de plugs-ins como el Flash de Acrobat.

Firefox 3.5 incluye algunas funciones nuevas, además de la navegación privada. Puede localizar con precisión su ubicación, para que cualquier sitio Web configurado de forma apropiada pueda proveer contenido local relevante. Tiene una buena opción que le permite "olvidar" cualquier página Web en su historial, y borra todos los rastros de que estuvo allí, incluso si se olvidó de activar la función de navegación privada antes de empezar. Y puede recuperar sus pestañas abiertas luego de que la computadora se quede congelada y sea necesario reiniciarla.

Además, Firefox sigue a la delantera respecto a sus rivales en cuanto a la cantidad y variedad de agregados de terceras partes que mejoran la navegación de muchas formas, como el sumar funciones a sitios como Twitter‐ o hacer que añadir una página a los favoritos sea más fácil.

En cuanto a la velocidad, probé el Firefox 3.5 contra sus principales rivales al medir cuánto tiempo llevaba iniciar el programa desde la misma página Web, y cuánto llevaba cargar por completo sitios Web populares como Facebook y YouTube.

Probé cuánto llevaba cargar de forma completa carpetas que contenían numerosos deportes y sitios de noticias simultáneamente. También realicé una prueba de referencia de la industria que mide la velocidad del navegador para manejar un importante lenguaje Web llamado JavaScript. Realicé estas pruebas en la misma red de inicio tanto en una computadora Dell como en una Apple.

Aunque Firefox tuvo el mejor desempeño en algunas de estas pruebas, Safari y Chrome fueron los mejores en la mayoría. En un buen número de casos, las diferencias de velocidad no fueron grandes, excepto en el caso de IE, que fue muchísimo más lento que los otros. Pero esta es la primera versión nueva de Firefox que he probado que no ganó la mayoría de las pruebas.

Firefox sigue siendo un gran navegador Web y aún es mucho más rápido que su principal rival, Internet Explorer. Pero su ventaja se está diluyendo.

Una primera aproximación a Windows 7

Por Ricardo Sametband (La Nación, Buenos Aires)

Microsoft está haciendo una apuesta: recuperar el interés de los usuarios que no quedaron conformes con Vista, y atraer a los que prefirieron quedarse con el veterano y fiel XP. Por eso pondrá a la venta en todo el mundo, el próximo 22 de octubre, su nuevo sistema operativo, llamado Windows 7.

Con esta perspectiva es que la compañía puso a disposición de los usuarios, gratis, una versión en desarrollo del Windows 7, para que tengan un acercamiento sobre cómo será el sistema operativo de Microsoft. Es una versión provisional, conocida en la jerga informática como Release Candidate (RC), es decir, candidata a ser la edición final por su grado de madurez (ver recuadro para las instrucciones sobre su descarga).
[+/-]
Aunque de aquí a octubre algunas cosas pueden cambiar, el trabajo grueso está resuelto y este RC sirve para tener un panorama de lo nuevo que ofrece Windows 7 (W7).

Según Microsoft, los requerimientos mínimos son un procesador a 1 GHz, 1 GB de RAM, 16 GB libres en el disco rígido y una placa de video con 128 MB de memoria y gráficos DirectX 9 para habilitar el tema visual Aero. Lo probamos en varios equipos, algunos relativamente modestos, pensados en 2005 para Windows XP, pero con 2 GB de RAM. Y aun en ellos obtuvimos una muy buena experiencia.

La instalación, como en versiones anteriores, es muy sencilla y al poco tiempo de iniciar el proceso estuvimos frente al Escritorio de Windows 7. Durante la instalación nos ofreció conectarse a los servidores de Microsoft para descargar actualizaciones; aunque esto puede demorar el acceso final a nuestro Windows, es recomendable hacerlo, ya que así se instalarán parches de seguridad. Más tarde (cuando estaba iniciada la sesión) W7 buscó por su cuenta los drivers de video, audio y monitor del equipo.

El entorno gráfico con el que el usuario se encuentra no difiere, a primera vista, de lo que puede encontrarse en Windows desde la versión 95 ni en OS X o las principales distribuciones de Linux: una barra con el botón del menú principal y algunos iconos en el Escritorio.

Lo que en una segunda mirada será notorio es que dos cosas cambiaron desde Windows Vista. Primero, la barra vertical donde se ubicaban los gadgets (Sidebar) desaparece; ahora estas pequeñas aplicaciones se ubican sobre el Escritorio, donde lo prefiera el usuario.

El otro gran cambio está en la Barra de tareas, elemento base de Windows desde la edición 95. En su versión tradicional (que sigue disponible en W7) cada ventana ocupa su lugar en la barra; cuando ésta se llena los elementos de una misma aplicación se agrupan en un único botón. Pero Microsoft le dio una vuelta de tuerca a este lugar clave para cualquier usuario. El resultado es muy bueno, es fácil de acostumbrarse a él y realmente aprovecha el espacio disponible.

¿Qué han hecho en Redmond para lograrlo? Para empezar, ya no hay distinción entre los accesos directos de Inicio Rápido y las aplicaciones en uso. Todos aparecen de la misma manera, como un icono en la barra, y combinan sus acciones (abrir una aplicación, minimizarla o traerla al frente). Pero si tenemos varias ventanas de una misma aplicación (fotos, documentos, etcétera) todas quedan, siempre, bajo el mismo icono.

Basta con mover el puntero del mouse sobre el icono de esa aplicación en la barra de tareas para ver un listado de las ventanas abiertas y elegir la que queremos traer al frente. Incluso es posible cerrarlas con un clic desde ese listado. Si tenemos una placa de video compatible se muestra una miniatura en vivo de cada ventana y su silueta en el Escritorio. Podemos hacer que un programa quede siempre anclado a la barra, y en las aplicaciones que ya fueron desarrolladas con esta función en mente vemos un listado de tareas comunes.

Por ejemplo, el Internet Explorer muestra, en ese menú emergente, los últimos sitios visitados; el Explorador de Windows, los archivos y las carpetas que visitamos con más frecuencia (esos destinos también se pueden anclar al menú emergente); el acceso de Windows Media Player , los últimos discos que reprodujimos. Cambiar el orden de las aplicaciones en la barra es sencillísimo, basta con mover los iconos con el mouse.

Los iconos al lado del reloj quedan ocultos en un menú desplegable, como ya sucedía en versiones anteriores; es posible definir, aplicación por aplicación, cuál aparecerá en el área de notificaciones y cuál quedará oculta. Un practiquísimo agregado es la inclusión de un botón para minimizar todas las aplicaciones y mostrar el Escritorio. Esto no es nuevo, claro, pero ahora queda al lado del reloj y no ocupa lugar en la barra de inicio rápido.

Nos encontramos también con cambios que en general son más un ajuste sobre lo que ofrecía Vista, pero aun así son bienvenidos. Por ejemplo, en el Explorador hay un nuevo panel de vista previa para los archivos soportados (imágenes, documentos, etcétera); los que son multimedia se pueden reproducir dentro del mismo panel. Las carpetas de usuario ( Mis documentos , por ejemplo) ahora son bibliotecas, y pueden abrevar de más de una fuente (es decir, de varias carpetas), lo que facilita reunir archivos en un mismo lugar virtual. Y en el menú Inicio ya no hay un único elemento para ver los archivos abiertos recientemente, sino que esta opción aparece en cada aplicación: documentos al lado del procesador de texto, fotos junto a un editor de imágenes.

En términos generales, el sistema anda bien; es más ágil que Vista y los ajustes bien valen una actualización a partir de octubre. Los usuarios de XP son los que más ganarán con este cambio, aunque posiblemente sólo se justifique la migración si también se está pensando en un equipo con nuevo hardware o se instalará en una computadora medianamente reciente, sobre todo para aprovechar las bondades visuales de Windows 7.

Todavía es temprano, sin embargo, para entrar en las eternas discusiones sobre si esta versión supera, iguala o pierde frente al OS X de Apple, o a los últimos entornos gráficos disponibles para Linux; variará con cada usuario, con su dependencia de ciertas aplicaciones y la compatiblidad, el talón de Aquiles del Vista. Y aunque falta ver cómo se comportará la versión final de W7 en el día a día, la RC nos ha dado hasta ahora una experiencia estable y robusta.

Por la recepción que está teniendo entre los usuarios que están probando el Release Candidate, Microsoft realmente parece estar resolviendo los problemas que tenía Vista y pensando cómo mejorar el uso de su sistema operativo.

Cómo obtener la versión de prueba

En www.microsoft.com/latam/windows/windows-7/download.aspx es posible descargar el archivo de instalación del Windows 7 RC, que es de uso gratis y será funcional hasta el 1° de junio de 2010 (aunque a partir de marzo próximo se reiniciará cada dos horas). Sólo se necesita una cuenta de Hotmail, una conexión de banda ancha y un poco de paciencia para descargar el archivo ISO de 2,46 GB. Este debe grabarse en un DVD (usando la opción de grabación de imagen de disco en la aplicación que permite quemar DVD).

Hay que tener en cuenta que la versión del RC es Windows 7 Ultimate, y por lo tanto ofrece herramientas que no estarán en las otras versiones (Starter, Home Basic, Home Premium, Professional y Enterprise)

Diez claves básicas para usar Gmail

Por Guillermo Tomoyose (La Nación, Buenos Aires)

Continuamos con este recorrido para entender distintos programas, equipos o aplicaciones. Esta vez nos enfocamos en cómo usar Gmail, luego de haber contado los detalles de Yahoo! Mail y Hotmail . También hemos relevado las claves básicas de la navegación online .
[+/-]
Vistas. De forma predeterminada, Gmail cuenta con una interfaz que permite un manejo dinámico, con mayores funcionalidades, de los mensajes de correo electrónico. Sin embargo, se puede optar por una vista básica en HTML, si se cuenta con una conexión a Internet demasiada lenta.

Mensajes. Gmail posee la particularidad de agrupar los mensajes de una misma conversación. Posee un corrector ortográfico y permite que se realice una copia de resguardo, automática, a medida que se redacta el texto.

Chat. El mensajero instantáneo de Google, Gtalk, se encuentra integrado a Gmail. Además, si se utiliza de forma diaria el servicio desde un equipo personal, se puede activar la función del chat de voz y video, que permite realizar videoconferencia desde la interfaz web.

Administración. Para clasificar los correos electrónicos, Gmail emplea un sistema de etiquetas, en vez de carpetas. De esta forma, esta modalidad permite asignar "rótulos" a diferentes conversaciones realizadas, para luego poder identificarlas y encontrarlas con mayor facilidad. Además, utiliza un sistema de filtros, que se pueden activar desde la opción Configuración > Filtros.

Vista previa. Permite visualizar las imágenes cargadas en sitios como Picasa y Flickr, A su vez, permite ver los videos de YouTube y los documentos con extensión PDF.

Configuración General. Donde se podrán ajustar los parámetros personales de la cuenta, tales como el idioma de la interfaz o una firma predeterminada.

Temas. Se pueden realizar ajustes personales de la pantalla de visualización del servicio, o elegir algunas plantillas predeterminadas. Ésta es otra forma de cambiar el aspecto de la interfaz de Gmail

Labs. Un centro de pruebas experimentales con los desarrollos y aplicaciones que formulan los ingenieros de Google. El servicio "offline" es un ejemplo, que permite seguir trabajando sobre la plataforma Gmail aún con conexiones a Internet deficientes o nulas. Otras, por su parte, son bastante curiosas, como la función "deshacer el envío", que retrasa el despacho del mensaje y funciona como una suerte de "boton de pánico" para cancelar el envío.

Sin embargo, Google no garantiza que los servicios de Labs estén exentos de problemas, por su caracter experimental. Además, dichas aplicaciones pueden desaparecer si no logran una buena recepción entre los usuarios. No obstante, si la opción se vuelve popular, es posible que se incorporen de forma oficial al servicio de Gmail.

Estas funciones se pueden activar desde la opción Configuración > Labs.

Archivos adjuntos. Como todo servicio de correo electrónico web, cuenta con la posibilidad de agregar documentos de texto o imágenes al mensaje. En este caso, el límite que ofrece Gmail es de un máximo de 20 MB.

Revisar otras casillas de correo. Gmail permite que se pueda reenviar todo el contenido a otra casilla, y también descargar el contenido de otras cuentas. Esto se puede realizar desde la opción Configuración, en las solapas Cuentas y Reenvío y correo POP/IMAP.

jueves, 16 de julio de 2009

Un bazar con los datos del usuario

Por Miguel Ángel Criado (Público, Madrid)

Página del proyecto Know Privacy

Si la información es poder, la de los internautas se ha convertido en el gran negocio que sustenta Internet. Todas las páginas web más visitadas tienen políticas de privacidad que prohíben la cesión de los datos de sus visitantes a terceras empresas o, si lo hacen, piden su consentimiento. Sin embargo, la mayoría dejan la puerta abierta para que entren extraños y se los lleven.

Un informe realizado por un equipo de estudiantes de la Universidad de Berkeley (California, EEUU) ha analizado qué hacen las 50 principales web con los datos de sus usuarios. Aunque el trabajo fiscaliza sitios estadounidenses, entre ellos están páginas como Google, MySpace, Facebook, Blogspot, MSN, Yahoo o Monster, todas muy visitadas por navegantes españoles.

Todas recogen alguna información de quien las visita, como la dirección IP del ordenador desde el que se conecta, el sistema operativo del equipo o el navegador usado. Aunque sólo unas pocas reconocieron en un cuestionario ceder alguno de esos datos a otras compañías, el estudio revela que las 50 incluyen al menos algún mecanismo que recoge los datos y los manda a servidores externos.

Las técnicas de recolección son variadas. La más conocida es el uso de cookies. Se trata de pequeños archivos de texto que el dueño de la página instala en el ordenador del usuario. Pero las páginas llevan publicidad de terceros y estos también cuelan su cookie. Tras pasadas polémicas, los principales navegadores tienen la opción de rechazarlas o borrarlas.

Pero hay otro truco contra el que el usuario nada puede hacer, porque ni lo ve. Se trata de los web bugs , también conocidos como web beacon, clear GIF o bicho rastreador. Estos bichitos son imágenes de un píxel de ancho por uno de alto (el píxel es la unidad más pequeña a la que puede reducirse una imagen).

A pesar de su reducido tamaño, elegido para pasar desapercibidos, estos bichos son capaces de grabar mucha información. Por defecto, un web bug recoge la IP del ordenador, la dirección de la página donde se esconde o el tiempo que es visto (permanencia en la web). Pero también puede informar del sistema operativo, incluida la versión y, en general, los parámetros que desee su creador. Otra posibilidad es sustituir el formato de imagen GIF por un código Javascript inyectado en la página con la misma función.

Según el informe, basado en la navegación de entre 30.000 y 45.000 usuarios durante un mes, las 50 páginas más visitadas tenían al menos uno de estos bichos. Algunas como Blogspot llegan a contener 100. Esto no significa que un determinado usuario se vea invadido por todos a la vez. En realidad, sólo ve tres o cuatro, pero que van cambiando, o bien el bicho es diferente para cada visitante. En este elenco aparece otra plataforma de blog, como Typepad. En tercer lugar está Google.

Publicidad personalizada

Algunas de estas imágenes registradoras sólo tienen misiones estadísticas. Si un internauta entra en la web de Público, además del contenido alojado en el servidor del dueño, también se cargan rastreadores como Google Analytics o NetRatings SiteCensus que sirven para medir el tráfico del sitio. Pero en otras web, la misión de los rastreadores es comercial. Al ver la página graban toda la información que se pide y la mandan a servidores ajenos a esa web.

Entre estos bichos están Google Adsense o Doubleclick, ambos de Google, MSN Ads o ValueClick. Todos pertenecen a plataformas de marketing y publicidad y, con la acumulación de información, permiten adaptar los anuncios o mensajes que ve el usuario a sus gustos y preferencias. Es el sueño de toda empresa, poder segmentar su publicidad. En Google lo llaman relevancia.

Uno de los autores del informa, Ashkan Soltani, tiene sus dudas sobre la legalidad de estas herramientas. "Pero hay varios informes del Gobierno sobre la necesidad de regularlas porque estas prácticas podrían ser consideradas desleales o engañosas".

En España el problema se agrava porque aquí la dirección IP del ordenador está considerada como un dato personal y su cesión a terceros sin consentimiento está prohibida. En un documento de la Agencia Española de Protección de Datos (AEPD) con recomendaciones al sector del comercio electrónico, se recuerda que, en el caso de que se usen "procedimientos automáticos invisibles de recogida de datos", se debe informar al usuario.

Para el abogado Samuel Parra , el problema es que no hay una legislación específica sobre privacidad. "Hay que recurrir a la Ley de Protección de Datos", dice. La norma especifica que los interesados a los que se soliciten datos personales deberán ser previamente informados de modo expreso, preciso e inequívoco. Y la IP es un dato de carácter personal. Pero Parra matiza un detalle que permite una escapatoria a las web. La norma sanciona la cesión de datos a una persona diferente del interesado, "pero con los web bugs falta ese elemento subjetivo: no hay cesión o comunicación de datos de un sitio a otro, la empresa del web bug lo recaba directamente".

Omnipresencia de Google

El informe revela que Google es el rey también en este terreno. El buscador opera con cinco rastreadores, entre estadísticos y de fines comerciales. Al menos uno estaba en el 92% de los 100 primeros sitios de EEUU. Es más, durante el mes de realización del trabajo, el 88% de los 393.829 dominios analizados tenían uno de los bichos de Google.

Al experto en seguridad del Instituto de Física Aplicada del CSIC, Gonzalo Álvarez Marañón , no le preocupan tanto los web bugs, que considera una tecnología superada, sino la acumulación de tanta información en manos de unos pocos. "Los web bugs sólo afectan cuando hay muchos sitios afiliados entre sí o uno está en todos", como es el caso de Google con sus rastreadores. "Lo peligroso es que este buscador lo sabe todo de todos", dice.

Google redobla sus esfuerzos para lograr que el software en línea supere al tradicional

Por Jessica E. Vascellaro (The Wall Street Journal)

Los planes de Google Inc. de crear un sistema operativo basado en su navegador de Internet Chrome implican una apuesta a que el software en línea llegará a superar a los programas tradicionales para la mayoría de las tareas informáticas.

Ahora, el gigante tecnológico está concentrado en un gran esfuerzo para que esto se haga realidad y por eso insta a sus desarrolladores a que aprovechen varias herramientas para mejorar la velocidad, la estética y la fiabilidad del software que funciona desde un navegador de Internet.

Con esto, Google espera generar un nuevo mercado para esta clase de software. La compañía especializada en las búsquedas en Internet cree que las aplicaciones en línea se convertirán en uno de sus grandes negocios del futuro, a medida que madura el negocio de las búsquedas y de la publicidad para búsquedas que catapultó su crecimiento.

Sin embargo, enfrenta una dura competencia, incluida la de Microsoft Corp., que ayer anunció que ofrecerá de forma gratuita versiones en línea de su popular paquete de programas Office.
En un principio, los navegadores de Internet se utilizaban en mayor medida para abrir sitios estáticos compuestos por texto e imágenes. Su capacidad para reproducir video e imágenes animadas ha mejorado gracias a tecnologías como Flash, un software de Adobe Systems Inc. que es utilizado por el servicio de Google YouTube y otros, y que requiere que el usuario descargue un programa conocido como plug-in.

Pero los navegadores siguen sin poder llevar a cabo muchas tareas que los usuarios de software de PC dan por sentado, como utilizar atajos con el teclado para copiar y pegar texto o jugar juegos que emplean gráficos en tres dimensiones.

Google espera cambiar eso al acelerar la adopción de HTML 5, el acrónimo de una extensión de la expresión en inglés HyperText Markup Language que es parte del lenguaje básico de Internet. Los estándares de programación propuestos —a los que todavía les faltan años para ser terminados y que incluyen tecnología de Google y otros— están diseñados para dejar que los desarrolladores creen aplicaciones más avanzadas que funcionen dentro del navegador.

Algunos desarrolladores ya han incorporado algunos aspectos de HTML 5, como el streaming de video más rápido y la capacidad de almacenar más datos en el navegador para permitir una recuperación más veloz. Todo esto podría hacerse sin tener que descargar ni un solo programa.

Vic Gundotra, vicepresidente de ingeniería de Google, dijo en una entrevista ayer que buscan "asegurarse de que Internet avance". Así, Google insiste en la inclusión de funciones como la capacidad de arrastrar y colocar archivos desde un escritorio a un navegador Web, algo que todavía no es posible.

Decenas de compañías, desde Microsoft a pequeñas firmas recién creadas, también desarrollan tecnología para hacer que el software de escritorio y el que funciona en línea sean más parecidos. Por ejemplo, la semana pasada Microsoft presentó su última versión de Silverlight.

Google y otros defensores de HTML 5 creen que con el tiempo los plug-ins ya no serán necesarios, cuando los navegadores se hagan más potentes. Una vocera de Microsoft dijo que la última versión de su navegador Internet Explorer ya es compatible con algunos elementos de HTML 5 y que la compañía también es miembro del grupo de trabajo responsable de promover la adopción del nuevo estándar.

Estas tecnologías ya representan un cambio importante para algunos desarrolladores. Meebo Inc., un servicio que permite que los usuarios puedan chatear mediante varios servicios de mensajería instantánea dentro de un navegador de Internet, utilizó hace poco una función de HTML 5 llamada postMessage. Su objetivo era desarrollar una barra de chat que se mantenga actualizada con la conversación actual del usuario incluso cuando éste va de un sitio Web a otro.

Aun así, Seth Sternberg, presidente ejecutivo de Meebo, cree que aún es necesario desarrollar una cantidad significativa de tecnología antes de que las aplicaciones en línea puedan ser igual de potentes que las tradicionales.

Francisco Tolmansky, presidente ejecutivo de 280 North Inc., que desarrolló tecnología que facilita a las compañías de software crear programas para la Web, está de acuerdo. "Aún hay una gran diferencia entre los sitios Web y las aplicaciones en la Web", señala.

lunes, 13 de julio de 2009

Microsoft convierte Office 2010 en una aplicación online


Público, Madrid

Nueva Orleans, EEUU (EFE). En medio de la grave crisis económica mundial, Microsoft abre hoy su Conferencia Mundial de Socios en Nueva Orleans con el anticipado anuncio del lanzamiento de Office 2010 así como nuevos detalles de Windows 7, el sistema operativo que sustituirá a Vista.

A pesar de la crisis, Microsoft ha reunido en Nueva Orleans miles de socios (desde programadores a distribuidores de sus productos) procedentes de todo el mundo para presentar sus últimas novedades y explicar su estrategia.

Una de las novedades más esperadas será la presentación de la última versión de su popular grupo de aplicaciones Office. Otro anuncio anticipado por los especialistas del sector es el Office Web Applications (OWA), una alternativa al Office 2010 que se ejecutará desde el navegador de Internet.

OWA pondrá de nuevo a Microsoft en camino para enfrentarse con Google en el creciente sector de aplicaciones ejecutadas a través de Internet, en vez de tener el programa residente localmente en el sistema.

Allison Watson, vicepresidenta de Microsoft para del Grupo de Socios Mundial, anunció antes de la conferencia que la empresa de Redmond "está entrando el mayor año de lanzamientos de su historia".

domingo, 12 de julio de 2009

La crisis en Honduras se vive en la Red

Pablo Martín Fernández (La Nación, Buenos Aires)

Nadie hubiese dicho que América latina iba a sufrir un nuevo golpe de Estado, pero hace dos domingos Honduras sorprendió sacando del país a su presidente, Manuel Zelaya. Luego de la relevancia obtenida por Internet y, sobre todo, Twitter en las elecciones de Irán , los usuarios de la Web de la región fueron puestos bajo la lupa a la hora de contar el conflicto en primera persona.

En un contexto marcado por sitios oficiales de Gobierno y Congreso , sin cambios o fuera de línea, como si nada hubiera pasado, los blogs intentaron explicar el conflicto. Pese a la actividad en la blogósfera y en los grupos de Facebook, por su instantaneidad y la posibilidad de transmitir desde el lugar mismo de los hechos, Twitter volvió a ubicarse en el centro de las miradas. Según el servicio Twist , que mide el tráfico en la red social, la palabra clave, o hashtag #honduras llegó a mover el uno por ciento del total de los mensajes del servicio de microblogging tanto el día del golpe como el del aterrizaje fallido. También se generó contenido, en menor medida, alrededor de #hncrisis y #crisishn.

El domingo pasado, cuando se reprimió en el aeropuerto de Tegucigalpa a los seguidores de Zelaya, quienes seguían el tema en Twitter pudieron ver rápidamente las fotos del hecho que recibieron decenas de miles de visitas, a través de Twitpic, un servicio para compartir imágenes. Pero a diferencia de lo sucedido en Irán esta vez la mayoría del material era periodístico, tomado de sitios extranjeros, y no generado por los usuarios. Algo similar ocurría con los mensajes de texto en la red de microblogging: es difícil encontrar material creado en el lugar mismo de los hechos, como ocurría en Irán.

Pero más allá de Twitpic, las imágenes están presentes en Flickr , la red social de fotos de Yahoo!, donde se puede navegar por trabajos de alta calidad realizados en el momento mismo de la represión en el aeropuerto, estas fotografías toman especial valor si se tiene en cuenta que la prensa hondureña ha sido criticada por retocar la captura del momento en que los manifestantes cargan a un agonizante Isis Obed Murillo, el joven muerto ese día. Así, otra vez, la mirada de la Web tiene peso propio.

Editor de Tecnología de lanacion.com
conectados@lanacion.com.ar
Twitter moderado del autor de esta columna
http://twitter.com/pm_fernandez



La protesta del domingo pasado desde adentro
Recomendados

1- www.es.wikipedia.org/wiki/Golpe_de_Estado_en_Honduras_de_2009
Wikipedia
El impacto de la noticia llevó a que Wikipedia no sólo reflejara el cambio rápidamente en su entrada sobre Honduras, sino que también se creó un artículo especial denominado "Golpe de Estado en Honduras en 2009", en este se puede leer la historia día por día y el compromiso de cada país con la restitución de Zelaya en el poder. Esta página se encuentra encabezada por un aviso que reza: "Este es un tema polémico que puede estar disputado", quizás por eso para avalar lo escrito el trabajo cuenta con el respaldo de más de 250 fuentes.

2- http://www.flickr.com/photos/tags/crisishn
Fotos amateurs y profesionales
Ambos mundos mezclan su material en la red de fotografía de Yahoo!. En las tomas se pueden ver desde las manifestaciones que se han transmitido por televisión hasta imágenes relacionadas con los grafitis a favor y en contra del golpe de Estado

3- www.search.twitter.com/search?q=%23honduras
Twitter
Segundo a segundo, aparecen nuevos mensajes en la red de microblogging desde indicaciones para poder ver canales de noticias extranjeros por Internet hasta opiniones totalmente opuestas sobre el conflicto. Al utilizar la palabra clave "#honduras" se pueden encontrar en la búsqueda "twitteos" en distintos idiomas.

viernes, 10 de julio de 2009

Twitter no basta para la revolución

Silvia Blanco (El País, Madrid)

Twitter se ha convertido en un arma explosiva contra la censura. A veces, como en Irán, en la única arma a disposición de la disidencia. Y muchos Gobiernos, como el chino, la temen. Por eso el lunes, cuando estalló la violencia étnica en Xinjiang, Twitter fue bloqueado.

Twitter se ha convertido en un arma explosiva contra la censura. A veces, como en Irán, en la única arma a disposición de la disidencia. Y muchos Gobiernos, como el chino, la temen. Por eso el lunes, cuando estalló la violencia étnica en Xinjiang, Twitter fue bloqueado. "Lo han hecho porque es un medio instantáneo, y que los que mayores conocimientos tecnológicos tienen lo utilizan para enseñar a otros a lanzar mensajes al exterior", cuenta desde California Xiao Qiang, fundador de la web China Digital Times. Esta página está recogiendo y traduciendo del chino al inglés los tweets sobre la violencia en Urumqi que están logrando esquivar la censura.

Pero esta herramienta de los ciudadanos aún no saca gente a la calle. "Ojalá los revolucionarios de antes hubieran tenido Twitter", dice Enrique Dans, profesor de sistemas de información del IE Bussiness School y bloguero (www.enriquedans.com). "Su capacidad es la de calentar una protesta, amplificarla y acelerarla. Es muy fácil crear adhesiones, lo difícil es trasladarlas al mundo real. La chispa que prende una protesta virtual casi siempre viene de un hecho. Ocurrió con la represión en Tíbet el año pasado, y ha ocurrido en Irán. Las redes sociales amplifican la protesta, pero aún no la suscitan", agrega.

Movilizar la solidaridad y la adhesión de centenares de miles de personas en el mundo sobre lo que ha ocurrido en Irán ya es un cambio. Ramine Darabiha, francés de 25 años, pasó la madrugada del 13 de junio pegado al ordenador. A unos 3.000 kilómetros de Teherán, estaba igual de atónito que sus padres en París y que sus familiares y amigos en Irán por el hecho de que tanto Musaví como Ahmadineyad se atribuyeran la victoria en las elecciones. Primero rastreó las webs de noticias en busca de información; al poco se topó con cientos de frases en Twitter y dos palabras recurrentes: fraude y censura. Supo que Facebook estaba bloqueado, igual que los móviles y los SMS. Y que desde Tampere, en Finlandia, podía estar en las protestas.

Hace cinco años decidió mudarse a esta ciudad ideal para un emprendedor que quiere especializarse en negocios en Internet. Allí está el centro de I+D de Nokia, un imán para cerebros de las telecomunicaciones de todo el mundo. Y Nokia es, junto con Siemens, la empresa (Nokia Siemens Networks) que vendió a Irán la tecnología para filtrar y controlar las comunicaciones, como a otros 150 países, según The Wall Street Journal y la BBC. Además, la compañía estatal Iran Telecom es la que gestiona casi todo el tráfico de la Red, lo que supone disponer de algo así como el botón que permite apagar Internet y los móviles.

Cuando el Gobierno iraní decidió pulsarlo, se encendió una inmediata, gigantesca y global cadena de mensajes, de no más de 140 caracteres, para opinar, protestar y solidarizarse con los iraníes a través de la red social Twitter. Darabiha dio un paso más: contribuyó, como cientos de internautas de medio mundo, a crear puentes que sortearan la censura para quienes estaban en Irán. Se dedicó a poner en Twitter direcciones de sitios que no dejan rastro de adónde va la información ni de dónde ha salido.

Fotos, vídeos y testimonios empezaron a circular frenéticamente por la Red. Un estudio de The Web Ecology Project, adscrito a la Universidad de Harvard, el Berkman Center y el Massachusetts Institute of Technology (MIT), registró entre el 7 de junio (antes de las elecciones) y el 26 algo más de dos millones de mensajes en Twitter sobre el proceso electoral en Irán. Unos 480.000 usuarios únicos se sumaron a la conversación. Los medios de comunicación y las agencias, cuyos corresponsales sufrieron la censura cuando no fueron expulsados de Irán, bautizaron el fenómeno como la revolución Twitter. El semanario The Economist resumió en un titular: "Twitter 1, CNN 0". "Es la primera vez en la que cualquiera, esté donde esté en el mundo, puede participar" en la protesta, dice por teléfono Darabiha. Un inmenso caudal de voces en tiempo real, capaz de amplificar una causa de manera exponencial.

Hasta aquí las cualidades (muchas). Pero en el análisis de cómo inciden las redes sociales en contextos de crisis empieza a colarse el escepticismo. O más bien, una moderación del entusiasmo general. "Los medios de pronto se han fijado en Twitter quizá porque los periodistas no tenían otro modo de acceder a la información. Es un gran medio de comunicación, pero no para organizar manifestaciones, por ejemplo. Los líderes reformistas tomaron la decisión de salir a la calle en el mundo real y luego usaron distintas redes para difundirlo porque eran los únicos canales que tenían", explica Hamid Tehrani, responsable de los contenidos sobre Irán de Global Voices Online, una potente plataforma de blogs de protesta en la Red.

En opinión de Diego Beas, analista político que prepara un libro sobre el impacto de las nuevas tecnologías en la política de EE UU, "los medios buscan identificarse con las redes sociales, tienen gran interés en incorporar Twitter o Facebook y vídeos de YouTube. Se ha visto con Irán, cuando The New York Times o EL PAÍS abrieron en sus webs un canal de Twitter. Pero aún es pronto para saber qué alcance real ha tenido esa red social en las elecciones y en la posterior protesta".

Twitter es velocidad e intensidad. La madrugada del lunes pasado, cuando la atención internacional estaba puesta en Honduras, el canal dedicado al país en Twitter estaba muy activo. Anticipó que el depuesto presidente Zelaya no podía aterrizar. Que se dirigía a Nicaragua y luego a El Salvador. Que había muertos y heridos. Horas después, Honduras desapareció de los temas más comentados. Un twitt del lunes, traducido del inglés, resume la idea de protesta-suflé: "Ayer Honduras e Irán estaban todavía en las noticias. Hoy, Miley Cyrus [la actriz que interpreta a Hannah Montana] es uno de los temas de moda

[los 10 sobre los que más se habla]. Todo está bien ahora". No hay tiempo para el análisis. Twitter no requiere narración, como en un blog. Es más rápido. La conversación surge y se desvanece.

En Facebook, unirse a una causa es igual de sencillo. Cada cual elige el grado de implicación. Desde ese clic, a pasarse varios días enseñando a otros internautas a esquivar la censura como en el caso de Ramine Darabiah.

Cualquiera que utilice Facebook puede, con la misma naturalidad, "hacerse fan" de Chiquito de la Calzada y apoyar a uno de los grupos dedicados a Neda Agha Soltan (los hay por decenas), la mujer de 26 años que murió en una manifestación en Teherán. Se vio su agonía y su historia conmovió a medio mundo. Uno de ellos, llamado Neda, tenía ayer 37.956 miembros. La explicación sobre porqué Darabiah se involucró en ayudar a otros internautas es reveladora: "No soy un ciberactivista. Soy alguien que participa en la conversación [de las redes sociales], como cuando recomiendo una película que me gusta en Facebook. No lo hago como un militante. Esto

[la represión en Irán] es más importante, por supuesto, pero el proceso es el mismo", aclara por teléfono. Sin embargo, también es crítico con ese fenómeno. En su página web dice: "La gente se está uniendo al movimiento como si fuera parte de un juego. Quieren ver qué pasa en tiempo real. Quieren ser parte de algo excitante. Más noticias, más fotos gore". En algunos casos, son los propios promotores de grupos de adhesión los más sorprendidos. "No hubiera esperado tanta expectación por haber creado una página ni en mis sueños más salvajes", cuenta a través de Facebook, desde Nueva York, Ron Agam, de 50 años, que fundó el grupo Facebook for Democracy in Iran, con 1.700 seguidores. "Hay millones de personas normales como yo que hicieron algo para ayudar. Y de pronto nos dimos cuenta de que estábamos conectados, de que algo podía cambiar y de que mostrando nuestra solidaridad saben que no están solos".

Pocos iraníes, sin embargo, sintieron ese afectuoso apoyo al principio de las protestas, porque Facebook estaba bloqueado. Quedaba Twitter. La principal crítica a este canal es la de la credibilidad. Es una herramienta muy democrática, pero en todos los sentidos: cualquiera puede decir cualquier cosa. "No podemos estar seguros de la información que obtenemos de Twitter. Muchos de los iraníes que twittean son activistas, otros muchos no viven en Irán y sus mensajes no proceden de las manifestaciones, y alguna información es errónea: hace poco se dijo que se habían concentrado 700.000 personas en la mezquita de Ghoba en Teherán, ¡los medios de comunicación hablaban de 5.000! Al poco tiempo, el dato se podía leer en blogs estadounidenses. En esa mezquita no cabe ni una décima parte de gente de lo que se dijo", ejemplifica Teherani. Otro de los rumores más difundidos es que Musaví estaba bajo arresto domiciliario.

El asunto se enmaraña aún más cuando aparecen grupos como Twittspam.org, que, bajo el altruista pretexto de defender a los internautas, elaboran un listado de sospechosos que "pueden estar vinculados al aparato de seguridad iraní", y recomiendan que se les bloquee. Alguien hace el siguiente comentario en la página: "¿Por qué debería confiar en que Twitspam.org acusa con pruebas a estas cuentas? No lo digo porque dude, pero debemos estar seguros antes de negar a alguien el derecho a opinar".

La idea de que en esa minoría que usa Twitter en Irán haya espías del Gobierno que tratan de influir o de desinformar es una posibilidad, aunque los analistas la contemplan con cautela. Enrique Dans admite que "la parte represora en Irán se ha puesto muy bien las pilas, Ahmadineyad tiene su web y la usa", y advierte de que el Gobierno siempre puede jugar al mismo juego que los internautas: "Puede crear puentes, ceder esos mismos servidores proxy como los que han creado otros internautas solidarios, y cazarlos ahí. Por eso Twitter ha sido tan relevante en esta protesta, porque no hay que pasar necesariamente por la página web. Hay decenas de empresas intermediarias que los redireccionan a otras redes sociales. Pero sobre todo, es la tecnología centralizada que tiene Irán la que le permite inspeccionar correos, conversaciones...".

Muchos Estados tratan de controlar la Red. China, por ejemplo, aplazó la semana pasada su idea de incorporar a cada ordenador que se venda un filtro para bloquear páginas. El argumento oficial es que así frena la pornografía infantil. El de los internautas y organizaciones de derechos humanos, que es censura pura y dura. Australia tiene un sistema similar. "Son coartadas", dice Dans. "Los Gobiernos emplean la seguridad y la lucha contra la pornografía infantil para controlar. La diferencia es que, en las democracias, hay garantías de confidencialidad, pero insuficientes".

Si hay un político que ha logrado usar el potencial de las redes sociales a su favor es Barack Obama. El éxito de su campaña presidencial se debe, en gran medida, a que consiguió "conectar el mundo online con el offline", explica Diego Beas. "Obama tenía de su lado a la comunidad tecnológica. Y entendió que no se trataba tanto de lanzar mensajes como de motivar, de delegar en un equipo, de crear un movimiento continuado en el tiempo. Además, ya había un proceso de maduración de las redes sociales en EE UU, una cantidad de usuarios muy extendida, y estaba YouTube", comenta.

El afán por influir en la Red está inoculado en cualquier político. Pero los que pretenden censurar fracasarán a largo plazo: "Es imposible, no podrán poner puertas al campo", asegura Beas.