lunes, 28 de marzo de 2011

Google trabaja en tecnologia para pago a traves de moviles

Google se unirá a Citigroup y a Mastercard para implementar un sistema de pago móvil que convertirá a los teléfonos que usan el software Android en una especie de billetera electrónica, publicó el Wall Street Journal, citando a fuentes familiarizadas con el asunto.

La nueva tecnología, que está en etapas preliminares, le permitirá a los consumidores situar sus teléfonos con el software Android frente a un pequeño lector en las cajas registradoras para hacer los pagos, reportó el Journal.

El sistema de pagos le permitiría a Google; ofrecer a las minoristas más información acerca de sus clientes y ayudar a canalizar publicidad y ofertas de descuento a usuarios de teléfonos móviles cerca de sus tiendas, dijeron las fuentes al WSJ.

El diario reportó que no se espera que Google reciba una tajada de las comisiones por transacción.

Inicialmente, quienes tengan tarjetas de crédito y de débito de Citigroup se les permitirá pagar por compras activando una aplicación para pago por móviles desarrollada para un modelo actual y muchos de los próximos modelos de teléfonos Android, dijo el diario.

Reuters no pudo contactar inmediatamente a Google, Citigroup y Mastercard -fuera del horario regular de negocios en Estados Unidos- para que comentaran el reporte.

Fukushima y los mitos de la fuga radiactiva

Más de 10.000 personas murieron por el tsunami en Japón y los sobrevivientes tienen frío y hambre.

Pero los medios de comunicación se han concentrado en la radiación nuclear, por la que nadie ha muerto y por la que es probable que nadie muera.

La radiación nuclear a niveles muy altos es peligrosa, pero la magnitud de la inquietud que suscita está mal fundada.

La tecnología nuclear cura a incontables pacientes de cáncer cada día, y una dosis de radiación aplicada mediante radioterapia en un hospital no es diferente en principio de una dosis similar recibida en el medio ambiente.

¿Qué ocurrió en 1979 en el accidente nuclear en Three Mile Island, esa isla del estado de Pensilvania, Estados Unidos? Ahí no hubo muertos.

¿Y en Chernobyl, el accidente nuclear de 1986, considerado "el más grande de la historia"?

El más reciente informe de Naciones Unidas, publicado el pasado 28 de febrero, confirmó la cifra de víctimas ya conocida: murieron 28 de los trabajadores de emergencia. Además 15 niños fallecieron por cáncer de tiroides, muertes que pudieron haber sido evitadas si hubieran tomado tabletas de yodo (como lo están haciendo ahora en Japón).

En cada caso, las cifras son una minucia si se comparan con las 3.800 víctimas en Bhopal, India, en 1984, quienes murieron debido a la fuga de químicos de la planta de pesticidas Union Carbide.

¿Y la radiación en Fukushima? ¿Cómo se compara con la de Chernobyl? Miremos las mediciones.

El nivel más alto de radiactividad reportado hasta las 19.00 horas (GMT) del 22 de marzo, en cualquiera de las prefecturas de Japón era de 12kBq por metro cuadrado (para el isótopo radiactivo de cesio, cesio-137).

El becquerel (Bq) es una unidad que mide la actividad radiactiva, y equivale a una desintegración nuclear por segundo.

Un mapa de Chernobyl en el informe de la ONU muestra regiones con diferentes tonalidades según el nivel de radiación, con un máximo de 3.700 kBq.

Áreas del mapa con menos de 37 kBq por metro cuadrado no son marcadas.

En términos redondos, esto sugiere que la lluvia radiactiva en Fukushima es menos del 1% de la de Chernobyl.

El otro radioisótopo importante es el yodo, que puede causar cáncer de tiroides en niños.

Éste sólo se produce cuando el reactor está encendido y se deteriora rápidamente una vez que se apaga (tiene un promedio de vida de ocho días). Las viejas barras de combustible en Fukushima, aunque radiactivas, no contienen yodo.

En Chernobyl la cantidad total de yodo y cesio fue liberada durante la explosión inicial.

En Fukushima, por tanto, cualquier fuga de yodo debería ser mucho menos del 1% de la de Chernobyl, con un efecto aún más reducido por las tabletas de yodo.

Desafortunadamente, las autoridades reaccionaron ofreciendo una orientación excesivamente precavida, y esto simplemente escaló la inquietud del público.

Reacción exagerada

En el aniversario 16 de Chernobyl, las autoridades de radiactividad en Suecia, admitieron en un escrito publicado en el diario Dagens Nyheter, de Estocolmo, que su reacción fue exagerada al establecer el nivel seguridad a un grado demasiado bajo y al desaprobar el 78% de toda la carne de reno de manera innecesaria, a un gran costo.

El 23 de marzo, recomendaron que los niños no deberían de beber agua de la llave en Tokio, ciudad en la que, un día antes, se había detectado una actividad de 200 Bq por litro.

Pongamos esto en perspectiva.

La radiactividad natural en cada cuerpo humano es de 50 Bq por litro. Por tanto, 200 Bq por litro realmente no va a causar mucho daño.

Durante la Guerra Fría se hizo creer a la mayoría de la gente que la radiación nuclear presenta un peligro bastante excepcional comprendido sólo por "intelectuales" trabajando en establecimientos militares secretos.

Para enfrentar el "fuego amigo" de esta propaganda nuclear en el ámbito nacional, se establecieron las regulaciones más rigurosas que se hayan decretado hasta ese momento con el fin de mantener todo contacto con la radiación "tan bajo como sea razonablemente factible", principio que, en inglés, se volvió un acrónimo: ALARP, "As Low As Reasonably Practicable".

Este intento de tranquilizar es la base de las actuales regulaciones internacionales de seguridad radiactiva, las cuales sugieren un límite máximo para el público de 1mSv por año sobre los niveles naturales.

Esta cifra tan baja no es un nivel peligroso, más bien es una adición pequeña a los niveles encontrados en la naturaleza.

Un británico, por ejemplo, está expuesto a 2,7 mSv por año, en promedio.

El sievert (símbolo Sv) es una unidad que mide la dosis de radiación absorbida por la materia viva.

En mi libro "Radiación y Razón" aduzco que un nivel de peligro responsable basado en la ciencia moderna sería de 100 mSv por mes, con un límite total de 5.000 mSv, no 1 mSv por año.

Fuente: http://www.bbc.co.uk

Consejos para alargar la bateria de los actuales telefonos moviles

Los smartphones, o teléfono móviles inteligentes, están diseñados para hacer llamadas, pero también ofrecen un sinfín de posibilidades (Internet, WiFi,GPS, mayores prestaciones en imagen y sonido...) cuyo rendimiento inciden en una menor duración de la batería de estos.

Existe una decena de trucos, recopilados por Consumer, que ayudarán al usuario a contar con más tiempo de batería:

Usar aplicaciones para ahorro de energía: algunas de las más destacadas son Battery Go y myBatteryLife, para iPhone; NB BattStat y Radio Saver, para BlackBerry; Best BatterySaver, para móviles Symbian (Nokia y Sony Ericsson); Android lleva por defecto un programa llamado "control de energía".

Valorar el protocolo de red a usar en cada momento para navegar por Internet: siempre que se opte por redes de datos más lentas, como la 2G (GSM) o la 2,5G (GPRS), se ahorrará más energía que si lo hacemos con 3G, que en algunos lugares sigue teniendo una mala cobertura.

Mantener el 'modo wifi' activado en una zona wifi si no se va a conectar uno también consume bastante más batería que si se mantiene desactivado. Ocurre lo mismo con el Bluetooth, otra opción que consume demasiada energía activada.

Los GPS y programas de geolocalización suelen ser programas que se mantienen activados más tiempo del necesario y que pueden dejar a uno sin batería en el momento más inoportuno.

Programas de mensajería instantánea móvil, como el MSN Messenger, Fring o eBuddy quedan muchas veces en segundo plano, por lo que es mejor encenderlos y apagarlos solo cuando se vayan a usar.

Hacer la consulta del correo electrónico mediante el servicio web. Los servicios tipo "mail push", que descargan de manera periódica el correo que llega a la página web del servicio del usuario, tienen un gran consumo energético. Es mejor desactivarlos o fijar el periodo de descarga en varias horas.

Apagar la pantalla y regular su brillo: es aconsejable hacer uso del 'dimmer' (botón que apaga la pantalla). Evitar el apagado automático de ésta puede alargar la batería hasta una hora. Por otro lado, es aconsejable mantener el brillo de pantalla en niveles bajo, pues consume demasiada energía.

Usar el modo vibración cuando sea necesario: es otra función que usa más energía de lo que uno piensa. El sonido también repercute en la duración de la batería. Es preferible evitar un volumen alto de melodías y de recepción de sonido en llamadas.

Fuente: http://www.20minutos.es

Larry Page se prepara para tomar las riendas de Google

odavía le falta una semana para convertirse en el nuevo CEO de Google, pero Larry Page ya se ha incorporado a su puesto para recoger el testigo de Eric Schmidt sin hacer demasiado ruido. Según informa The Wall Street Journal, el co-fundador de Google ya ha empezado a tomar parte en reuniones de la junta directiva a la vez que participa en sesiones de brainstorming con otros empleados en los cuarteles generales de Google.

De cualquier forma, Eric Schmidt permanecerá durante un tiempo en la compañía para suavizar la transición, mientras se hace cargo de las relaciones exteriores de la empresa, en caso de que no se llegue a confirmar su salto a la Casa Blanca como nuevo Secretario de Comercio estadounidense.

Al parecer, el relevo de CEO supondrá también un notable cambio en la gestión de la compañía. Page pretende mantener reuniones diarias con los ejecutivos clave de la empresa y ha dado instrucciones a los altos cargos para que describan por email y en menos de 60 palabras en qué están trabajando exactamente. El uso de portátiles personales en las reuniones queda prohibido.

Las nuevas normas inquietan a algunos de sus empleados, y varios encargados creen que Page eliminará proyectos en los que no cree para centrar a sus empleados en iniciativas más importantes. Uno de los proyectos perjudicados podría ser Google Health. Lo que está claro es que, tal y como él mismo confirmó, Larry Page quiere devolver a Google a sus “raíces de startup“, permitiendo a algunos equipos de proyectos trabajar de manera independiente como lo haría una compañía más pequeña, del mismo modo en el que trabajan YouTube o Android.

Silicon Valley busca talentos brillantes en TIC

Los estudiantes prodigio están en la mira de las compañías tecnológicas más importantes del mundo. Se intensifican los acuerdos entre las universidades y las empresas tecnológicas

Las compañías TIC (Tecnologías de la Información y la Comunicación) recurren cada vez más a jóvenes licenciados o en vías de hacerlo "para imbuirlos desde un principio en su cultura empresarial", remarca la web Siliconnews.es.

Trabajar en Silicon Valley es el sueño de todo joven estudiante de Informática, y ahora las vías para llegar se facilitaron ampliamente debido a los acuerdos entre los empresarios y las universidades de California. Los universitarios "más brillantes" están en la mira de las compañías más importantes del mercado.

"La asociación estudiantes-empresarios de Stanford cuenta con 80 miembros, mientras que en Berkeley, una asociación homóloga tiene 400. Ambas organizan eventos que tienen que ver con el mundo empresarial y la búsqueda de talentos", publica la web.

Standford recibe al menos dos mails por día en los que se requiere personal de la asociación. "Los capitalistas de riesgo se han ido acercando a nosotros", asegura un estudiante.

"Realmente es una batalla por los mejores y más brillantes" asegura Gary Little, capitalista de riesgo de Morgenthaler. "Los mejores estudiantes están muy demandados y nosotros tenemos que seguir buscando y buscando".

La denominación Silicon Valley es un espacio geográfico de un enorme dinamismo empresarial que abarca la parte sur de la Bahía de San Francisco. "Ya en 1960, más de 60 firmas de la industria electrónica estaban instaladas en Silicon Valley", sostiene MateriaBiz.com.

"La computadora personal e Internet convirtieron a Silicon Valley en una referencia empresarial de industrias high-tech de orden mundial, lo que afecto la trasformación de la economía de la sociedad de la información en todo el planeta. Pocas regiones del mundo tienen una incidencia económica mundial tan decisiva", remarcan. Definitivamente, el paraíso para todo estudiante.

Google Music ya está siendo probado por la compañía

Según rumores publicados por el sitio web CNET, algunos funcionarios de la compañía Google estarían probrando internamente el nuevo servicio de música alojada en la nube que competiría con el iTunes, de Apple.

Los primeros indícios reales de que Google estaria trabajando para ingresar al mercado musical fueron conocidos en el día de ayer, caundo un grupo de desarrolladores que participan en el foro XDA Developers aseguraron haber encontrado algo llamado Google Music después de haber instalado una versión de prueba del sistema operativo móvil Android 3.0 Honeycomb.

De acuerdo con ellos, el servicio estará basado en la reproducción de música en streaming, aunque su versión final sería diferente. Por otra parte, las fuentes de los rumores señalaron que Google ya habrá comenzado las negociaciones con las compañías discográficas, aunque por el momento nadie ha mencionado ninguna fecha estimativa para el lanzamiento de Google Music.

Por otro lado, hace ya un tiempo que se rumorea que Apple podría lanzar una versión online de su servicio iTunes, por lo que Google Music no sería el único servicio de música de este tipo en estar alojado en la nube.
Hace ya un tiempo que venimos escuchando y leyendo sobre Google Music, pero recién ahora podemos decir que su lanzamiento estaría muy cerca debido a que, según las fuentes, ya habría comenzado a ser testeado por miembros de Google.

domingo, 20 de marzo de 2011

El derecho a ser olvidado en Internet‎

La Comisión Europea presentará una iniciativa que otorgará a los usuarios la posibilidad de exigir a empresas como Facebook o Google que borren por completo sus datos personales cuando se den de baja del servicio.

En la primera muestra de que Europa podría ir a la cabeza con la regulación de la privacidad, la Comisión Europea anunció que las redes sociales y los buscadores podrían ir a juicio si no cumplen las nuevas normas en este ámbito.

Según las propuestas que se presentaron para actualizar las leyes de protección (que ya tienen 16 años), Bruselas quiere obligar a las empresas que tienen datos de los usuarios a permitirles que los retiren de sus páginas, llamándolo el "derecho a ser olvidado". Además, las compañías tendrían que dar más información sobre qué datos almacenan de los usuarios y por qué.

"Cualquier compañía que opere en el mercado europeo o cualquier producto online dirigido a consumidores de la UE debe cumplir con las leyes europeas", señaló la comisaria europea de Justicia, Derechos Fundamentales y Ciudadanía, Viviane Reding.

"Para exigir el cumplimiento de las leyes, a los organismos que controlan la privacidad nacional se les concederá poderes para investigar y participar en procedimientos legales contra los controladores de datos de países que no son de la Unión Europea", expresó.

Reding pidió que las agencias encargadas de las cuestiones de privacidad en los países de la Unión cuenten con más competencias para exigir el cumplimiento fuera del territorio europeo, lo que podría incluir servidores de almacenamiento y otras fuentes de datos en los EEUU.

Aunque a los defensores de la privacidad y a los cibernautas pueden gustarles estas declaraciones, seguramente preocuparán en los EEUU, donde tienen su sede la mayor parte de las empresas de redes sociales y buscadores de internet.

Tradicionalmente, Europa y los EEUU tuvieron posturas divergentes en la privacidad, con un enfoque más proteccionista en el primero e insistiendo más en la necesidad de encontrar el equilibrio entre los empresarios y las demandas de privacidad, en los segundos.

Pero en las últimas semanas, expertos estadounidenses en este campo visitaron Bruselas para intentar reducir la brecha regulatoria y las autoridades destacaron que están trabajando juntos para acordar un enfoque común.

"Creo que nuestro entendimiento de base de las normas es muy similar", dijo Fiona Alexander, del Departamento de Comercio, que acudió a la capital comunitaria para reunirse este mes con reguladores europeos. "La aplicación en el pasado puede haber sido diferente".

Campo equilibrado

La UE y los EEUU ya están de acuerdo en algunos conceptos generales, como la idea de que las salvaguardias de la privacidad tienen que diseñarse en los productos web desde el principio. Ambos también quieren que los buscadores ofrezcan una opción de "no seguir" a los usuarios.

Pero sigue habiendo diferencias sobre la filosofía y sobre cuestiones concretas. Las autoridades europeas insisten en que las empresas tienen que obtener un permiso concreto de los usuarios para cada utilización que hagan de sus datos a través de una casilla en una ventana emergente, algo en lo que no tienen tanto interés los estadounidenses, según responsables comunitarios.

El "derecho a ser olvidado" es un concepto que también va en contra del parecer del regulador estadounidense, que prefiere una definición amplia de la libertad de información.

En una muestra de hacia dónde va Europa y lo complejo que podría resultar aplicar la ley, las autoridades españolas de protección de datos ordenaron a Google en enero que quitara los vínculos a más de 80 artículos de noticias que mencionaban a algunas personas por su nombre, por violar su privacidad. El caso ha sido remitido al Tribunal de la Unión Europea.

Algunas empresas como Microsoft apoyan que la UE y los EEUU unifiquen posturas, ya que dicen que así las normas serán más claras y uniformes.

"Las empresas necesitan normas claras y sólidas para seguir invirtiendo y ser competitivas", dijo John Vassallo, vicepresidente de asuntos europeos de Microsoft. "Ahora, hay demasiadas normas compitiendo".

Pero incluso dentro de los 27 estados miembros, las normas cambian tanto que los abogados dicen que sería casi imposible para una multinacional cumplir la legislación de todos ellos. Eso puede indicar que Reding y su equipo regulatorio tendrán que trabajar a conciencia para establecer una política clara y que funcione en los próximos meses y además una que encaje bien con las que están preparando en los EEUU.

Fuente: Reuters

Google ingresa al mundo de los pagos moviles

El gigante de la web instalará cajas registradoras con tecnología NFC en comercios de Nueva York y San Francisco. El sistema ya se utiliza en Japón y crece en Europa.

De acuerdo con un reporte difundido este miércoles por la agencia Bloomberg, Google probará sus sistemas de pago Near Field Communications (NFC) en los próximos meses en Nueva York y San Francisco.

El servicio de Google, dice Bloomberg, combina diversos datos financieros del cliente en un solo chip dentro del celular. Los sistemas NFC para realizar pagos no son algo nuevo, ya son utilizados en Japón y en otros mercados. Los analistas prevén que este mercado alcance cifras multimillonarias en los próximos años.

El gigante de Internet financiará la instalación de miles de cajas registradoras especiales fabricadas por VeriFone Systems en los comercios de esas ciudades. También habría negociaciones para extender el sistema a Los Ángeles, Washington DC y Chicago.

Google, sin embargo, no tiene muchos dispositivos con NFC en el mercado. El teléfono Nexus S , fabricado por Samsung, es el único smartphone de acuerdo con el deseo del gigante de la red. Los terminales están equipados con chips y software basado en NFC, una tecnología de corto alcance utilizada para establecer comunicaciones entre sensores y que se prevé que será la más utilizada en los pagos móviles.

Nokia y RIM aún preparan modelos con este sistema. Apple, en cambio, descartó por ahora incorporar esa tecnología a su iPhone 5. La apuesta de Google podría suponer una ventaja respecto a la empresa de Steve Jobs, que aunque parece haber rechazado la tecnología, parece estar trabajando en otra.
Eric Schmidt, CEO de Google, anunciaba el año pasado que el Android 2.3 Gingerbread incluiría la tecnología NFC y, de hecho, un mes más tarde la compañía presentaba su Nexus S, con soporte para NFC.

El tsunami tambien podria afectar al iPad2

Como resultado de la catástrofe en Japón, Apple podría sufrir una escasez de componentes clave para producir su nueva tableta informática.

Varios componentes de la nueva versión del popular Tablet PC de Apple proceden del país nipón, incluida la batería y la memoria flash usada para almacenar música y video en el dispositivo, según explicaron desde la firma de investigación IHS iSuppli.

La batería del nuevo iPad es fabricada por Apple Japón, y requiere tecnologías avanzadas de manufactura que se fabrican en la nación asiática. "Las interrupciones logísticas podrían ocasionar que Apple tenga dificultades para conseguir esta batería, y esto podría provocar que no sea capaz de asegurar el suministro de una fuente exterior no japonesa", agrega el informe.

La producción en muchas fábricas japonesas se ha visto interrumpida luego del sismo y posterior maremoto, que ha dejado más de 5.600 muertos y un escenario devastador en el país. Toshiba, que es una de las compañías que produce la memoria flash NAND empleada en el iPad 2, cerró brevemente unas instalaciones en Japón y advirtió que puede tener dificultades para distribuir sus productos.

Sin embargo, los proveedores de otros componentes cuyas fábricas no se vieron afectadas, probablemente notarán el impacto por asuntos de logística, como las dificultades para proporcionar materias primas y enviar productos acabados.

Apple lanzó el iPad 2 en los Estados Unidos la semana pasada con una gran demanda, y muchas tiendas ya han agotado su stock. Los analistas estiman que la firma vendió un millón de unidades durante el primer fin de semana de lanzamiento. El tiempo de espera actual para un iPad2 pedido por Internet es de cuatro a cinco semanas, pero Apple no quiso decir de qué forma se verían afectados esos pedidos.

Fuente: Reuters

Llega a su fin la era del transbordador espacial

El próximo 19 de abril, el Endeavor clausurará su carrera. El Atlantis lo hará el 28 de junio.

La máquina voladora más audazmente construida en la historia humana se yergue erecta sobre su plataforma de lanzamiento como una bestia encadenada a un altar de concreto. Tras meses de estar sometida a reformas exhaustivas en su piel, sus huesos, sus nervios y hasta su cerebro, está lista para remontarse de nuevo al espacio por vigesimoquinta y última vez.

Este 19 de abril, a las 7:48 de la noche, el transbordador espacial Endeavour clausurará su carrera. Su hermano Atlantis lo hará el 28 de junio, para terminar así 30 años de la era del shuttle con un memorable canto de cisne: el que presagia su propia muerte.

Un batallón de especialistas se inclina solícito sobre el Endeavour. Es un momento emocional. El fin de la flotilla de orbitadores marca el fin de la carrera de muchos de sus papás humanos. No es solo la parte financiera, sino la sicológica. Es perder el sentido del propósito profesional. Es no volver a cruzar por las mañanas el hangar donde el avión espacial es amamantado entre cada misión.

La Nasa debe retirar, por órdenes presidenciales, la flota de transbordadores, dejar a las empresas privadas tomar el control de los viajes a órbita baja y enfocarse en poner astronautas sobre un asteroide y luego en Marte. Cuesta adaptarse a un cambio tan radical.

La misma atmósfera extraña reina entre los periodistas. A punta de vernos durante las décadas que llevamos cubriendo la espectacular coreografía de un lanzamiento, nosotros también nos hemos convertido en una familia, y el centro de prensa es nuestro refugio.

Allí intercambiamos los últimos chismes del programa espacial, discutimos la ciencia arcana de poner un vehículo en órbita y competimos ferozmente por uno de los 16 puestos para ver un despegue desde lo alto del gran edificio de ensamblaje.

Fantasía de la ingeniería

Voy a echar mucho de menos al andamiaje de cohetes de 56 metros de altura que hace 30 años se convirtió en la fantasía de la ingeniería hecha realidad. Ahora mismo está envuelto en una matriz de cables y tubos vitales, que se abrirá lentamente unas horas antes del despegue. Su componente principal, el orbitador, tiene el tamaño de un DC-9 y está asido a un enorme depósito externo que contiene un tanque de oxígeno y otro de hidrógeno líquidos para alimentar sus motores principales.

Ese tanque anaranjado, que semeja una crayola gigante, está cubierto de una capa de espuma para aislar el frío al que está sometido el combustible líquido. Esa espuma se agrieta y salta en trozos endurecidos con gran fuerza bajo las presiones del despegue. Uno de esos trozos fue el causante del accidente del Columbia, al abrir un agujero en su ala izquierda.

La colosal crayola, a su vez, está unida a dos cohetes de combustible sólido, llamados propulsores, que están a los lados del andamiaje y cargan con todo su peso sobre la plataforma. Justo antes del despegue, la estructura pesa 2 millones de kilogramos, el 90 por ciento constituido por combustible. Es un momento dramático, rebosante de anticipación; el transbordador suelta vapores como si fuera el respirar de una cosa viva.

La ventana de lanzamiento puede tener solo unos cuantos minutos de duración. Está regida por la mecánica orbital y definida por la posición del lugar de destino, por lo general la Estación Espacial Internacional (EEI), nuestra casa-laboratorio en órbita permanente desde el año 2000, cuya construcción fue posible gracias al trabajo de carga del transbordador, que llevó la mayoría de sus componentes al espacio para ensamblarla.

Seis segundos antes del despegue se encienden los tres motores principales, que producen un empuje de más de 450.000 kilogramos. El orbitador, aún asido a sus sostenes, se mueve ligeramente hacia adelante y hacia atrás, como una palmera.

Los computadores de a bordo verifican sus sistemas cientos de veces por segundo, y proceden a encender los dos propulsores en forma de lápiz. Estos cohetes blancos son máquinas feroces. Rellenados con más de 500 toneladas de pólvora, cada uno produce un empuje de 1 millón 350 mil kilos. Una vez encendidos, no se pueden apagar ni controlar. El orbitador asciende, dejando la torre de lanzamiento a 161 kilómetros por hora, aunque es tan grande que desde lejos parece subir lentamente. Las vibraciones rasgan el cielo y penetran en el pecho de los observadores más cercanos, a casi 5 kilómetros de allí.

A los pocos segundos, el aparato rota y se orienta en la dirección correcta y se pone boca arriba bajo el depósito externo. En este momento, la aceleración es de solo 2,5 g, una moderada sensación de pesadez que presiona a los astronautas contra sus sillas. Unos 40 segundos después, el shuttle acelera a Mach 1, o 1.200 kilómetros por hora; 80 segundos más tarde, ha adquirido una velocidad de 5.470 kph y ha subido a una altura de 45,7 kilómetros. Entonces, los propulsores pierden potencia y se desprenden del ensamblaje, volando como misiles hasta que van a dar al mar para ser reacondicionados en un vuelo posterior.

Seis minutos después del lanzamiento, a 108 kilómetros, el vehículo apenas ha acelerado a 14.800 kph, más o menos la mitad de lo que necesita para sostenerse en órbita. Por eso inicia una ligera inclinación en picada hacia la Tierra, ganando 1.600 kph cada 20 segundos. Cuando llega a los 24.000 kph, el transbordador comienza a ascender de nuevo, hasta que, unos segundos después, ya en el espacio, alcanza la llamada velocidad orbital, o 28.000 kph.

Solo ocho minutos han pasado desde el momento del lanzamiento. Los motores principales se apagan y el depósito externo es descartado y cae hacia la Tierra para ser destruido por la fricción atmosférica. El transbordador espacial está en órbita, volando en su posición normal: boca arriba en relación con el planeta, y la tripulación se halla en microgravedad.

De vuelta a la Tierra

Tras su trabajo en el espacio, el orbitador debe regresar. El problema ahora es a la inversa: hay que deshacerse de toda esa energía acumulada en forma de velocidad. La penetración atmosférica consiste en una enorme desaceleración, durante la cual la resistencia del aire convierte la velocidad en calor.

Cuando está volando sobre el océano Índico, el comandante enciende un motor contra la dirección en que se está avanzando, el aparato frena un poco e inmediatamente inicia un vertiginoso descenso a 122 kilómetros de altura, la región donde comienza la atmósfera. El vehículo se coloca en un "ángulo de ataque", con la nariz 40 grados más arriba que el resto del cuerpo para crear resistencia y proteger sus partes más delicadas del intenso calor de la fricción atmosférica. De esta manera, son los bordes de ataque de las alas y las 24.305 tejas de sílice, silicio y carbono reforzado los que reciben el mayor impacto.

El piloto automático efectúa ahora una serie de giros en forma de S, inclinándose lateralmente en ángulos de hasta 80 grados. El aterrizaje, que puede ser tan enervante como el despegue, se efectúa a más de 322 kph, y puesto que el transbordador es básicamente un objeto planeador sin capacidad de intentar un segundo acercamiento a la pista, el comandante sólo tiene una oportunidad.

"Mejor estar muerto que verse mal", piensan al respecto los y las astronautas. Su sentido de competitividad es tan fuerte, que sus egos van por encima de sus vidas. Pero el entrenamiento de la Nasa es tan bueno, que están acostumbrados a operar en el borde del papel. Y se les nota en la mirada.

Es la misma que vi en los mellizos Kelly, cuando los conocí hace diez años: Scott, que acaba de regresar de comandar la Expedición 26 a bordo de la EEI, y Mark, el marido de la congresista abaleada Gabrielle Giffords, que ahora hace uso de esa voluntad para llevar adelante su trabajo como comandante de esta misión del Endeavour. Gabrielle ha prometido estar presente en el lanzamiento del 19 de abril. Su conmovedora historia es uno de los muchos hilos que ha entretejido la saga humana y tecnológica del shuttle.

Un aparato tan formidable como malcriado, complejo y peligroso, el enfant terrible de la ingeniería aeroespacial, hoy parece estar más tieso y erguido que de costumbre sobre su altar de hierro y concreto, como si intuyera que, cualquiera que sea la aeronáutica del futuro, el primer vehículo espacial que funcionó como lanzador, orbitador y avión será recordado como una de las obras maestras de la ingeniería del siglo XX.

La flotilla de transbordadores de la Nasa

1. OV-101 Enterprise

Fue el primer modelo y se usó en pruebas tripuladas para estudiar cómo planeaba en el aire al ser soltado desde un avión (1977), pero nunca voló al espacio. Fue bautizado con el nombre de la nave espacial de la popular serie de televisión 'Viaje a las estrellas', después de que cientos de miles de entusiastas escribieron cartas a la Nasa. Está en el Museo Smithsonian F. Udvar-Hazy, en Washington D.C.

2. OV-102 Columbia

Su primer vuelo fue en 1981. Fue bautizado en honor al buque que circunnavegó el globo por primera vez con una tripulación de estadounidenses. En 1998, voló la misión Neurolab para estudiar los efectos de la microgravedad en el sistema nervioso. Se desintegró en su regreso a la Tierra, en febrero del 2003. Voló 28 veces, pasó 300 días en órbita y viajó más de 125 millones de millas. Le dio la vuelta al planeta 4.808 veces y desplegó ocho satélites.

3. OV-103 Discovery

Su primer vuelo fue en 1984. Bautizado en honor a uno de los barcos del explorador británico James Cook. Puso en órbita el telescopio Hubble y al primer cosmonauta ruso en viajar en un vehículo estadounidense. Hizo el primer atraque en la estación rusa Mir. Llevó la primera mujer piloto de 'shuttle' y al astronauta John Glenn en su segundo regreso al espacio. El Discovery voló 39 veces, con las que cubrió un total de 148.5 millones de millas y pasó 363 días en el espacio. Le dio 5.800 veces la vuelta a la Tierra. Ninguna otra nave espacial ha sido lanzada tantas veces.

4. OV-099 Challenger

Su primer vuelo fue en 1982. Fue bautizado en honor al buque inglés que exploró los mares en el siglo XIX. En 1984, el astronauta Bruce McCandless fue la primera persona en realizar una salida espacial autónoma en una unidad de maniobra individual. Voló 10 veces y explotó durante su despegue en 1986. Viajó casi 28 millones de millas, pasó 62 días en el espacio y orbitó la Tierra 995 veces desplegando 10 satélites. Puso en órbita a la primera astronauta de EE. UU.

5. OV-104 Atlantis

Su primer vuelo fue en 1985. Fue bautizado en honor al velero del Instituto Oceanográfico de Woods Hole, que fuera el primer barco en ser usado para investigaciones marinas en Estados Unidos. Desplegó sondas hacia Venus y Júpiter, e hizo siete vuelos hasta la estación rusa Mir. Tras su último viaje, en junio, el Atlantis habrá sido lanzado 32 veces. Habrá cubierto al menos 120 millones de millas, orbitando la Tierra más de 4.700 veces y acumulando más de 300 días en el espacio.

6. OV-105 Endeavour

Es el más joven de la flotilla. Su primer vuelo fue en 1992, y fue construido para reemplazar al Challenger. Fue bautizado en honor al primer buque del explorador británico James Cook en las islas del Pacífico Sur. En el 2001, tuvo la crítica misión de instalar el brazo robot de la Estación Espacial Internacional. El Endeavour volará un total de 25 veces y acumulará al menos 290 días en el espacio, habiendo viajado al menos 115 millones de millas, orbitando la Tierra unas 4.600 veces.

Tres piezas de museo

El Discovery va para el Instituto Smithsonian

La Nasa ha dicho que le tomará varios meses tener listo el Discovery para entregárselo al Instituto Smithsonian y, específicamente, a su reputado Museo Nacional del Aire y el Espacio. Para ello, va a quitarle todos los elementos que lo hacen peligroso para su contacto con los visitantes de la institución.

Los otros dos transbordadores espaciales, Endeavour y Atlantis, han sido pedidos por varios museos de Estados Unidos, pero nada se ha definido hasta el momento.

miércoles, 16 de marzo de 2011

Un futuro que desafia a la imaginacion


Si gastara US$9.000 millones en investigación y desarrollo y empleara a 900 de los mejores expertos informáticos del mundo para crear nuevas ideas, ¿qué esperaría obtener?

Pero Microsoft –una compañía que bien puede gastar más en I+D (investigación y desarrollo) que cualquier otra firma- cree que su estrategia vale la pena y la prueba de ello es el sistema Kinect para Xbox.

En una visita a la sede central de la compañía, se tuvo la oportunidad de contemplar algunos de los proyectos que los científicos de los laboratorios de Microsoft situados en Redmond (EE.UU.), Pekín (China) y Cambridge (Inglaterra) creen que van a cambiar la forma en la que vemos las computadoras.

Y lo más sorprendente de todo lo que le mostró a los periodistas el jefe de investigación de Microsoft, Craig Mundie, es que prácticamente todo en lo que trabajaban involucraba a Kinect.

El sistema, que permite transformar el cuerpo del jugador en un control, fue desarrollado por siete diferentes grupos de investigación, localizados en sus tres sedes de desarrollo. Mientras unos se centraban en el reconocimiento de la voz, otros creaban sensores de movimiento y unos más nuevas herramientas interactividad entre máquina y usuario.
La evolución de Kinect

Vimos un sistema que permitirá a dos personas ver diferentes imágenes en la misma pantalla, mientras el movimiento de sus ojos es rastreado mediante la cámara de Kinect.

Otros científicos introdujeron las formas en las que la propia cámara puede grabar objetos y personas y mostrarlas en 3D. Esta tecnología podría incluso tener aplicaciones en futuros sistemas de telepresencia.

Había también mucho trabajo en materia de avatares, para su uso tanto en juegos como en videoconferencias. Dos investigadores chinos mostraron una cabeza parlante virtual. "Escribe algo y dirá lo que quieras, parpadeando y gesticulando casi como una persona real", señalaron.

Craig Mundie afirma que el éxito de Kinect, que acumuló casi 8 millones de ventas en sus primeros 60 días en el mercado, es la prueba real de que merece la pena la orientación actual del departamento de I+D de Microsoft.

"Microsoft se encuentra en un punto en el cual muchas de las cosas que hemos ido investigando en los últimos 20 años están empezando a cobrar fuerza y aportar soluciones", afirmó. "No puedes fiarte de un par de tipos en un garaje cuando se trata de llevar a cabo este tipo de avances. Algunas de estas cuestiones requieren de un elevado nivel de conocimiento y tecnología", sentenció.
"Guerra Santa de búsquedas"

Microsoft necesitaba desesperadamente de un impulso por parte de sus laboratorios de investigación.

Desde que Bill Gates decidió 20 años atrás que la compañía gastaría grandes sumas en acercar el futuro al presente han surgido cientos de ideas, pero pocas de ellas han llegado al mercado. Hace una década, por ejemplo, Gates hacía alarde de las tabletas electrónicas, pero fue Apple y sus iPad los que dieron popularidad al fenómeno.

Peter Lee, quien dirige el laboratorio de Redmond, asegura que las operaciones de investigación tienen sobre sí tareas que van desde hallar soluciones instantáneas hasta productos imaginativos.

Lee, que se unió a Microsoft el año pasado después de una distinguida carrera académica y un tiempo en el Departamento de Defensa de Estados Unidos, insiste en que el impacto de los laboratorios es notable en la actividad diaria.

Y pone como ejemplo la batalla entre Google y Bing, a la que describe como una "guerra santa de búsquedas".

"Hora tras hora tenemos un numeroso grupo de investigadores trabajando en Bing, constantemente añadiendo nuevas mejoras al producto", señaló en declaraciones a la BBC.

Pese a la exigencia de los efectos inmediatos, Lee cree que la investigación a largo plazo es igualmente importante.

"Algunos lo llaman mirarse al ombligo, nosotros pensamos que estamos haciendo empujar las fronteras del conocimiento”, apuntó sonriendo al tiempo que predecía que su laboratorio algún día ganaría el Premio Nobel.

Microsoft, que todavía genera amplios ingresos por sus productos básicos como Windows y Office, puede en buena forma seguir gastando en proyectos imaginativos. Pero habiendo realizado ya una gran apuesta en ciencia, estará deseando que los próximos años se vendan más Kinects y menos tabletas.


Quieren reducir la velocidad de internet. ¿Por que?

Desde hace algunos meses, cada vez más proveedores de acceso a internet están probando nuevas tecnologías que buscan dosificar cuántos datos pueden consumir sus usuarios, sin importar la velocidad máxima de conexión que hayan contratado.

Eso significa que a ciertas horas del día algunos internautas pueden notar que la velocidad de conexión cuando navegan o juegan un videojuego en la red, disminuye considerablemente.

Esta situación es particularmente notable en países como Estados Unidos o el Reino Unido en donde cada vez más hogares tienen acceso a servicios de banda ancha.

Las empresas aseguran que esto es necesario para que el desempeño de sus redes sea óptimo en el horario cuando más gente utiliza sus servicios desde casa, lo que usualmente ocurre después de las 18:00 y durante los fines de semana.

Pero los críticos aseguran que estas prácticas desembocarán en una internet de dos niveles. En un nivel algunos servicios requerirán pagar más para que sus usuarios acceden a ellos. En el otro los servicios que no desembolsen más dinero vivirán una experiencia limitada de acceso a la red.

Manejo de tráfico

La mayoría de los proveedores de servicios de internet (ISP, por sus siglas en inglés) varían la velocidad de las conexiones de banda ancha dependiendo del día o del volumen del tráfico en su red.

Las tareas que no son críticas -como descargar archivos o enviar correos electrónicos- son demoradas ligeramente para permitir que otros servicios, como la transmisión de video, se ejecuten sin problemas.

La mayoría de los analistas está de acuerdo en que se requiere un cierto nivel de manejo del tráfico.

"Ve y encuentra a alguien en los ISP que no administre su tráfico", asegura Andrew Ferguson, editor del sitio independiente Thinkbroadband.com.

"Cuando comienza la congestión un viernes por la noche, hay gente que no puede jugar en Xbox Live o PlayStation en línea, porque la latencia (la lentitud en la red) está por las nubes", dice.

Muchos ISP han comenzado a explorar la opción de ofrecer "servicios administrados", excluyendo así del control de tráfico a sitios web y aplicaciones que están dispuestas a pagar por ello.

Sin embargo, estas acciones se han topado con la férrea oposición de los defensores de la neutralidad de la red, quienes creen que todo el tráfico en internet debe ser tratado de la misma forma.

En Estados Unidos la Comisión Federal de Comunicaciones aprobó una legislación -que debe ser ratificada por el Congreso- para impedir que los proveedores disminuyan la velocidad de acceso a la red a ciertos servicios.

La medida ha recibido críticas de quienes, por un lado, consideran que las normas no toman en cuenta que se requiere administrar el tráfico de internet y por otro, afirman que la Comisión omitió incluir a la telefonia móvil en sus reglas.

Pero los expertos creen que en Europa los gobiernos están siendo más pragmáticos, dejando que sea el mercado el que decida el futuro de la neutralidad de internet.


Voyager: 17.000 millones de kilometros recorridos y nada la detiene

La extraordinaria nave espacial estadounidense Voyager 1 sigue demostrando su eficiencia, a más de 30 años de haber dejado la Tierra.

A la impresionante distancia de 17.400 millones de kilómetros, la sonda de la NASA es el objeto hecho por humanos que más distancia ha recorrido.

Pero parece que la edad y la lejanía no son obstáculos para este veterano explorador.

La nave espacial Voyager está ejecutando una serie de maniobras de despliegue para poner uno de sus instrumentos en la mejor posición para medir partículas "barridas" del sol.

Los controladores del laboratorio de Propulsión a Chorro de la NASA, centro de control de la nave en Pasadena, California, reportan una respuesta perfecta de la sonda.

"Yo comparo Voyager a un auto viejo", dice la directora del proyecto Suzanne Dodds. "Tiene una electrónica simple, no un montón de aparatos de lujo y por eso ha podido operar por más tiempo, no es tan melindroso".

Espacio interestelar

La sonda Voyager 1 fue lanzada en 1977, para un recorrido por los planetas exteriores. Desde que completó esa misión, ha estado rondando el espacio exterior.

Ahora, la sonda se dirige hacia el centro de nuestra galaxia, la Vía Láctea y, en los próximos años, dejará el espacio dominado por la influencia de nuestro Sol y entrará en el espacio entre las estrellas - el espacio interestelar.

Los científicos saben que será así debido a la forma en que se está comportando el viento solar en la actual ubicación de la Voyager.

Esta corriente de partículas cargadas forma una burbuja alrededor nuestro Sistema Solar conocido como la heliósfera. El viento se desplaza a velocidad "supersónica" hasta que cruza con una onda de choque llamado choque de terminación.

A este punto, el viento disminuye drásticamente su velocidad y se calienta en una región llamada la heliopausa. La Voyager ya determinó que la velocidad del viento en su ubicación presente se ha reducido a cero.

Esto significa que Voyager ya alcanzó la región donde el viento solar empieza a dar vuelta sobre sí mismo mientras se estrella contra las partículas del espacio interestelar.

Nuevas maniobras

Las nuevas maniobras están diseñadas para permitir que el instrumental de Partículas Cargadas de Baja Energía de la Voyager 1 (LECP) investigue precisamente lo que está sucediendo a su alrededor.

"Cuenta las partículas y mide su dirección", explicó Suzanne Dodds. "Esto nos dará una mucho mejor idea de lo que está sucediendo con el viento solar cerca de la heliopausa (el borde "oficial " del Sistema Solar). Podría ser que al hacer estas medidas veamos su cambio de dirección. Todo lo que tenemos allí son modelos y cada vez que obtenemos datos, los modelos no corresponden exactamente a lo que ve la sonda Voyager y entonces tenemos que actualizar los modelos".

La semana pasada Voyager giró 70 grados hacia la izquierda. La última maniobra semejante de la veterana nave fue en 1990 cuando tomó fotografías de los planetas que dejaba atrás.

Una vez terminó, la sonda Voyager dio la vuelta y se mantuvo a la caza de su estrella guía, Alpha Centauri.

Si la nave sigue funcionando correctamente, ejecutará una serie de giros semanales para obtener datos de las partículas cada tres meses.

La nave espacial Voyager 2 que fue lanzada también en 1977 no está tan lejos de la Tierra: a sólo 14 millones de kilómetros.

En estas grandes distancias, la comunicación con las sondas es un asunto demorado. El tiempo que tarda en llegar un mensaje de radio a la sonda es ahora de 16 horas.

Suzanne Dodds comentó: "La gente ama a la sonda Voyager. Yo creo que porque la misión ha durado tanto tiempo. Todavía estamos hablando con él y está tan lejos ahora en el espacio. La gente siente un apego real. Hizo su gran viaje pasando por los planetas y sigue, en su viaje de descubrimeinto".

martes, 15 de marzo de 2011

Que sucede dentro de los reactores nucleares en Fukushima, Japon

Tras las explosiones en la planta nuclear de Daiichi Fukushima, en Japón, una central afectada por el sismo y el tsunami de la semana pasada, las autoridades advirtieron de pequeñas fugas de radiación.

Durante un breve período las emisiones radioactivas llegaron a niveles peligrosos para la salud.

¿Pero cómo funciona un reactor nuclear? ¿Qué sucede dentro de los tanques de acero que, según el gobierno japonés, se han dañado en Fukushima?

El terremoto más grande en los registros de Japón desactivó la refrigeración de apoyo de varios reactores afectados en una planta nuclear en la prefectura de Fukushima al norte de Tokio, lo que causó una acumulación de calor y presión.

El núcleo de un reactor consiste en una serie de tubos o varillas metálicas de circonio que contienen pellets de combustible de uranio almacenado en los que ingenieros llaman equipos de combustible.

Se bombea agua entre las varillas para mantenerlas frescas y para crear el vapor que impulsa una turbina generadora de electricidad.

La refrigeración de apoyo tuvo problemas varias veces durante los últimos tres días en los reactores 1, 2 y 3 en la planta de Fukushima.

En el funcionamiento normal de un reactor, neutrones de energía alta del combustible de uranio golpean átomos y los rompen, en una reacción en cadena que genera calor, nuevos elementos radiactivos como estroncio y cesio, y nuevos neutrones que continúan el proceso.

Vea en este video de BBC Mundo con informacion mas explicativa



El mundo guarda mas informacion

Una sola memoria flash de 64 gigabytes puede guardar más de 20 000 imágenes de seis megapíxeles. Si toda esta información cabe en una memoria portátil, ¿cuánto más se podrá almacenar en unidades de mayor tamaño? Hoy, las computadoras personales para el hogar ya tienen discos de 1terabyte o más.

Una investigación, publicada en la revista Science, revela que la humanidad fue capaz de almacenar hasta el 2007, 295 exabytes de información en diferentes medios.

Entre ellos, están las memorias portátiles, los discos compactos, las tarjetas de crédito con chip, los discos duros de las computadoras, por mencionar algunos.

El estudio fue realizado por Martin Hilbert de la Universidad del Sur de California, y Priscilia López de la Universidad Oberta de Cataluña.

La investigación publicada este año en Science comprende el período que va de 1968 al 2007. Ellos averiguaron cuánta información existe y cómo su almacenamiento y procesamiento ha evolucionado con el transcurso de los años.

Es sorprendente que, según el estudio, el 75% de la información almacenada en el mundo todavía estaba en formato analógico en el 2000, en su mayoría en forma de cintas de video.

Siete años después, el 94% de la información del mundo ya era digital. Según los autores de este trabajo, aunque estos números son impresionantes, son minúsculos en comparación con el orden de magnitud en el que la naturaleza administra la información. Por ejemplo, el ADN de una persona puede almacenar alrededor de 300 veces más información de la que tenemos en todos nuestros equipos.

Leonardo Bacile, PhD en Física y profesor de la Escuela Politécnica Nacional, pone un ejemplo para explicar cuánta información se puede almacenar.

Dice que en un byte hay espacio para guardar una letra y en un megabyte se podría almacenar un libro. Pero el estudio habla de exabytes. ¿Cuánto significa esto? Bacile advierte que solo con un exabyte de información se pueden dar varias vueltas al planeta Tierra.

Un exabyte equivale aproximadamente a 10 millones de kilómetros de libros.

Al especialista le llamó la atención que esta capacidad de información crezca 58% al año.

Eso significa, que cada 18 meses la capacidad de almacenamiento se dobla, como lo señala la Ley de Moore.

Esta plantea que el número de transistores de un chip se duplica cada dos años. Esta observación la hizo Gordon Moore en 1965 y se ha mantenido hasta hoy. Esta ley se aplica a las computadoras y otros dispositivos digitales. Según la revista PC Magazine, el pronóstico de Gordon Moore fomenta la frenética carrera de diseñar nuevos y potentes procesadores, considerados el cerebro de las computadoras.

Por eso, no sorprende que, como producto de este esfuerzo, la computadora personal que el usuario adquiere hoy se quede obsoleta en poco tiempo.

Una de las razones es que aparecen nuevas computadoras con mejor capacidad de procesamiento. Ramiro Andrade, usuario, comenta que cuando compró una computadora con procesador Pentium III, pensó que duraría mucho tiempo; ahora ya está obsoleta.

Mientras la Ley de Moore impone un ritmo de crecimiento que se mantiene en el sector informático, Internet se expande de tal forma que cada vez permite mayor generación de datos. Tanto es así que hoy se habla de la computación en la nube.

Es decir, que en lugar de almacenar los archivos en el disco duro de la PC, el cibernauta puede albergarlos en Internet. Con tantos medios, este crecimiento difícilmente se detendrá.

Sismo en Japon golpea al mundo tecnologico

Los daños en las fábricas japonesas provocados por el tsunami ya se reflejan en la economía y llevaron a un aumento de precios en los suministros. Sony, Panasonic, Toshiba y Canon son las más afectadas

"Devastador para el mundo tecnologico. No hay otra palabra para describir la catástrofe ocurrida en Japón", publica la web Engadge, especializada en tecnología.

Japón es el primer productor mundial en la industria tecnológica, ya que aporta el 40% de los componentes electrónicos a todo el mundo y el desastre provocado por el terremoto afectó gravemente su mercado.

Gran parte de las fábricas están sin producción y los canales de logística, como puertos y aeropuertos, están paralizados. "Los componentes electrónicos, indispensables en muchas industrias, como la automovilística o aeronáutica, están llegando con cuentagotas".

Pero la industria tecnológica, a pesar de estar paralizada, hizo su gran aporte para ayudar a las tareas de rescate. Empresas como Canon y Panasonic donaron cerca de 3.670.000 dólares. Sony donó cerca de 30 mil radios para las tareas de socorro, mientras que Panasonic ofrece linternas y baterías.

Si bien todavía es prematuro para analizar el impacto del terremoto en la industria, la falta de piezas podría elevar los precios o retrasar la producción.

El precio de 32-gigabit Nand de Toshiba ya subió un 18%, después del anuncio del cierre de la planta en este grupo en la región de Iwate.

Panasonic, Fuji, Nikon y Canon cerraron todas sus fábricas en las zonas afectadas por el terremoto y el tsunami, lo que dificulta la producción de cámaras digitales y lentes.

Sony suspendió las tareas en ocho fábricas y Canon está analizando los pasos a seguir, ya que sus instalaciones se encuentran en el norte del país, la región más afectada por el terremoto. Esto significa que las baterías que se utilizan en las laptops de Sony "dejarán de verse por un rato".

SanDisk productora de memorias SD, también con plantas en Japón, reportó un corte de energía y daño en su materia prima para la fabricación de productos.

Además, la mayor parte de las empresas se encuentran sin suministro eléctrico, y las que tienen, deberán racionar su energía durante todo el mes de abril.

Según International Business Times, los GPS en Japón no podrán operar debido a que está demostrado que la costa de Japón se movió algunos metros de su ubicación original, o sea que los mapas digitales de Japón registrarán un desplazamiento en la ubicación de lugares confundiendo a los usuarios.

Internet Explorer 9 ya esta disponible

Microsoft anunció que la actualización ya está disponible para su descarga gratuita. Reproducirá videos en alta definición y promete mayor velocidad, potencia y seguridad. Su parecido con el navegador de Chrome es "llamativo"

La compañía quiere recuperar parte de la cuota perdida en este terreno por el navegador de Google, que ganó un importante lugar en el mercado.

A comienzos de marzo, la compañía lanzó una página web "para dar de baja" el Internet Explorer 6, todavía utilizado por el 12% de los usuarios en todo el mundo. "Es el momento de decirle adiós", remarcaron.

Ahora, su novena actualización "viene con varias promesas: más seguridad, potencia y rapidez. El IE9 ofrecerá los distintos menús en una sola pestaña, pero además es mucho más liviano y más rápido. Además, incorpora nuevos sistemas para la reproducción de vídeo, en alta definición. Igualmente, no funcionará con el Windows XP.

También se optimizó el desarrollo en soporte HTML 5 y nuevos sistemas que aseguran que mejorarán la privacidad de los usuarios en la red.

A su vez, incluirá las 'Jump list', que permiten al usuario acceder directamente a sus sitios favoritos sin necesidad de abrir Internet Explorer. "Tan solo con hacer click con el botón secundario del ratón en el icono de IE, el usuario verá los sitios más visitados", destaca Europa press.

El navegador llega poco después de nuevas versiones lanzadas de Chrome (3 de marzo), Firefox y Safari (9 de marzo), lo que significa que durante marzo estarán disponibles las actualizaciones de los tres navegadores más importantes en sus versiones finales.

Google Chrome 10 se encuentra disponible en 40 idiomas distintos, es un sistema multiplataforma y es usado por 30 millones de personas de todo el mundo, según la agencia española de noticias ABC.Según la empresa, el 65% de sus clientes usa Windows 7 o Vista, y hacia ellos está dirigido el IE9. "La Red demanda un sistema operativo moderno, un navegador moderno y máquinas más preparadas", argumentó su máximo responsable, Ryan Gavin.

Para descargar el Explorer 9, link aquí.

sábado, 12 de marzo de 2011

El iPad2 salio a la venta en los EEUU

La nueva tableta informática de Apple debutó el viernes en el mercado estadounidense con fuertes expectativas de venta. Su precio oscila entre 499 y 829 dólares.

Los más madrugadores pudieron encargar a través de la página web de Apple su dispositivo desde las 09.00 GMT. Pero aquellas personas que quieran tener este mismo viernes al aparato en sus manos tendrán que esperar hasta las 17, hora local, en cada Estado, cuando el iPad 2 ya esté disponible en las tiendas. Sin embargo, en México y España la tableta no estará disponible hasta el próximo 25 de marzo.

Aunque se esperan las habituales largas filas de personas que siempre acompañan a los lanzamientos de los produc suelen acompañar los lanzamiento de Apple, para esta ocasión, se calcula que las aglomeraciones en los Estados Unidos serán menores gracias a la mayor cantidad de puntos de venta.

El segundo diseño del popular dispositivo se podrá comprar en los 236 establecimientos de Apple, 15 más que los existentes para la salida del iPad en abril de 2010, así como también en la red de tiendas de Verizon, AT&T, Target, Best Buy y Wal-Mart.

El iPad 2 se puede adquirir desde 499 dólares por el modelo más sencillo con 16 gigabytes y WiFi y hasta 829 dólares por la versión de 64 gigayites con WiFi y conexión de datos 3G. Estos valores son idénticos a los que tenía el iPad original hasta este mes.

Se calcula que el iPad 2 alcanzará el millón de unidades vendidas en menos de 28 días, tiempo que tardó su predecesor en llegar a esa cifra.

El primer iPad supuso una revolución tecnológica en 2010 y lideró la creación de un nuevo nicho comercial en el que tiene una posición dominante, con una cuota de mercado que ronda el 90% luego de las casi 15 millones de unidades del aparato que se vendieron entre abril y diciembre.

Por su parte, el iPad 2 está llamado a consolidar la hegemonía de la tableta de Apple a pesar de la creciente competencia, especialmente de dispositivos equipados con el sistema operativo Android de Google, como por ejemplo el Xoom de Motorola o el Galaxy Tab de Samsung.

Además, según algunos analistas, el previsible éxito del iPad 2 podría, incluso, poner en apuros a algunos de sus rivales, debido a un exceso de oferta en el mercado.

El banco de inversión J.P Morgan estimó que en 2011 las empresas tecnológicas fabricarán 81 millones de tabletas, aunque las previsiones de demanda indican que 17 millones de esas unidades se quedarán sin comprador hacia fin de año.

Tablet de BlackBerry tendra su propio iTunes

RIM lanzará su Tablet PC PlayBook con la tienda de música británica 7digital preinstalada. El servicio cuenta un catálogo de más de 13 millones de canciones. El dispositivo estará a la venta en abril.

PlayBook llegará con música incorporada. Así lo confirma el reciente acuerdo suscrito entre el fabricante de la popular Blackberry, la canadiense Research In Motion, y la compañía de descargas musicales 7digital, que preinstalará su tienda online en el dispositivo que intentará comerle terreno al iPad de Apple.

Según informa Financial Times, la firma musical, con sede en Londres, ofrece más de 13 millones de descargas de archivos MP3 de alta calidad.

La PlayBook llegará primero a las tiendas de EEUU y Canadá a finales de este mes o a principios de abril, y se unirá a un próspero mercado dominado por el iPad de Apple y competirá con tabletas como las de Samsung, Motorola y Hewlett-Packard.

La semana pasada, Apple presentó el iPad 2, la nueva versión de su exitosa tableta. Con el modelo anterior, la compañía dirigida por Steve Jobs ya lleva vendidos más 15 millones de unidades en apenas nueve meses, lo que les da el control del 90% del mercado.

Los gobiernos latinoamericanos apuestan al desarrollo tecnologico

Cada vez más países suman distintos dispositivos al servicio de la población, que ofrecen soluciones en materia de seguridad, movilidad urbana e identificación de personas.

Muchos son los gobiernos latinoamericanos que, concientes de los adelantos tecnológicos a nivel mundial, apuestan por proyectos ambiciosos que permitan mejorar distintos aspectos de sus democracias. Algunos países, incluso, han logrado ponerse a la par de las potencias mundiales en asuntos tales como el registro de sus ciudadanos, alcanzando altos estándares de complejidad y brindando soluciones en temas como seguridad, justicia, y el acceso a distintos servicios.

El gobierno argentino, por ejemplo, adoptó recientemente un nuevo sistema para que sus ciudadanos adquieran el documento nacional de identidad. Algunas de las sofisticadas medidas de seguridad que incorporó son: la utilización de un papel especial y tintas e impresión de seguridad, numeración láser de tipo cónica, firma digital o de cubiertas holográficas y dos dimensiones que contienen los datos biográficos y biométricos, elementos que unidos permiten certificar la identidad de una persona con certeza y rapidez.

También México avanzó en ese sentido. Emprendió una modernización en el Registro Civil de los Ciudadanos y creó Centros de Comando y Control. El nuevo sistema ofrece información "confiable, ágil, homogénea y oportuna", optimiza el trabajo conjunto entre los gobiernos estatales con el federal y simplifica en costes y tiempo varios trámites personales.

La Ciudad de México, a través de sus Centros de Comando y Control, es un modelo a nivel mundial en lo que refiere a la vigilancia. Con una inversión superior a los 450 millones de dólares, instaló más de 5.000 cámaras de alta tecnología en las calles. Según las autoridades, el sistema permite triplicar la presencia de las fuerzas del orden en menor tiempo ante algún episodio ilegal, con el objetivo de convertir a la ciudad en un espacio más agradable y seguro.

El gobierno chileno anunció un proyecto similar: instalará más de 1.500 cámaras de seguridad y vigilancia en 50 trenes del metro, y espera que eso ayude a reducir los actos delictivos entre un 20 y un 30%. También dispondrá de una red de más de 300 cámaras en las 24 comunas de las Región Metropolitana, que estarán acompañadas de 11 centros de monitoreo. Además de reducir el delito, los promotores de la iniciativa apuestan a que las filmaciones se conviertan en un elemento probatorio para la persecución penal.

Estos ejemplos son sólo algunos de los cientos de emprendimientos y proyectos que numerosos países de la región exploran para mejorar la calidad de vida de sus poblaciones, en los que la tecnología desempeña un papel fundamental como elemento modernizador.

Gmail suma etiquetas inteligentes para clasificar correos

El servicio de email de Google introdujo Smart Labels, un sistema que permite ordenar de forma automática los mensajes. Esta nueva funcionalidad aún está en fase de prueba con Smart Labels, que se pueden activar en Gmail Labs, pretende ayudar a los usuarios a clasificar y organizar sus correos.

Así, categoriza de forma automática los mensajes como "Masivos" (newsletters, mails promocionales, etc.), "Notificaciones" (mensajes enviados de forma directa al usuario, como los de las redes sociales), y "Foros" (mails de listas de correo).

El autor del post oficial, Stanley Chen, indicó que la nueva herramienta todavía se encuentra en fase experimental, por lo que pide a los usuarios que reporten los problemas que puedan tener con esta nueva funcionalidad. Explicó también que los cibernautas pueden reemplazar los filtros que ya tienen por los nuevos o utilizarlos de forma complementaria.

En agosto del pasado año, Gmail habilitó de manera progresiva el servicio Priority Inbox, un sistema inteligente que organiza el correo según su importancia y lo manda a una inbox separada de la principal.

Google Chrome se vuelve mas rápido

La versión 10 del navegador de Google será más segura y sencilla de manejar. Con la actualización, intenta subir escalones en un mercado dominado por Internet Explorer

Tim Steele, ingeniero de Google, comentó a través del blog oficial de la empresa que estos cambios permitirán a los usuarios ahorrar tiempo. La característica más importante de la nueva aplicación es que será un 66% más rápida. La actualización es automática.

Las mejoras incluyen una mejor gestión de los favoritos y contraseñas. Accediendo a la opción "Cosas Personales" se podrán sincronizar las contraseñas, extensiones, favoritos y temas.

El nuevo navegador añade nuevas funciones de búsqueda, mayor facilidad a la hora de cambiar la página de inicio y más protección contra sitios maliciosos , especialmente si el sistema operativo que usa el usuario es Windows Vista o posteriores.



Las aplicaciones más complejas funcionarán mejor en el navegador, gracias a una mejora del 66 por ciento de su rendimiento en JavaScript con respecto a la versión anterior, según el blog oficial.

Se agregó también un buscador que muestra la configuración que el usuario busca a medida que escribe. Se podrá copiar y pegar un enlace directo en la barra de direcciones para saltar a una página de configuración específica.

La primera versión de Chrome fue lanzada en el año 2008, para contrarrestar el dominio de Internet Explorer (IE). Después de 10 versiones en dos años Chrome consiguió más de 30 millones de usuarios en 100 países.

No obstante, el mercado de los navegadores de Internet sigue en manos de IE de Microsoft, seguido por Firefox de Mozilla. Opera y Safari también se encuentran en una posición privilegiada entre los navegadores, pero el Chrome de Google, crece a pasos agigantados.

El Kinect es el producto electronico mas vendido en el mundo

Es oficial. Kinect, el dispositivo de la consola de videojuegos Xbox 360 que es capaz de detectar movimiento, es el producto electrónico que más rápido se vende en el mundo.

El periférico de Microsoft consiguió el récord mundial Guinness este miércoles.

El aparato vendió como promedio 133.333 unidades al día, para sumar ocho millones de aparatos comercializados en sus primeros 60 días en el mercado, tras su lanzamiento el cuatro de noviembre. Con dichas cifras supera tanto al iPhone como al iPad, que antes le habían arrebatado ese título al lector de DVD.

"Las cifras de ventas hablan por sí solas. Podemos confirmar que ningún otro dispositivo de consumo electrónico se vendió tan rápido en un periodo de 60 días, lo cual es un logro increíble, considerando la fortaleza del sector", aseguró Gaz Deaves, editor de la edición de juegos del libro mundial de récords, Guinness.

Por su parte, Microsoft aseguró que hasta la fecha ha vendido 10 millones de sensores Kinect en todo el mundo y 10 millones de videojuegos específicos para dicho aparato, adicionales a los incluidos en el producto.

¿Por qué se vende tanto?

Kinect les permite a los usuarios jugar con sólo mover su cuerpo, sin necesidad de utilizar un control. El sistema detecta el movimiento y reconoce a personas a través de una cámara y diversos sensores instalados en el dispositivo.

"Aunque no creo que en la actualidad Kinect tiene los videojuegos para convencer a los jugadores más entusiastas, la novedad del dispositivo y una publicidad muy inteligente de Microsoft ha hecho que sea atractivo para la mayoría de los consumidores", le dijo a BBC Mundo Tom Orry, editor de Videogamer.com.

"A pesar de que cuenta con menos de un puñado de juegos que valen la pena comprar, el aparato da la sensación de ser del futuro. También está diseñado para jugarse en familia o frente a amigos, lo que hace que a pesar de su alto precio (en comparación con PlayStation Move), para Microsoft sea fácil venderlo".

Pero más allá de los videojuegos, Kinect ha irrumpido en el mundo tecnológico y de investigación como una plataforma multiuso.

Varios programadores han comenzado a experimentar con el periférico para que éste pueda controlar acciones en computadoras personales, tanto en Windows como en Linux.

Otros científicos están usándolo para controlar robots en terrenos inestables, como escombros de construcciones en zonas de desastre.

Incluso Microsoft ha mostrado las posibilidades del sistema, creando un humanoide virtual llamado "Milo", con el que es posible interactuar a través de Kinect.

Académicos y programadores citan las posibilidades tecnológicas y el precio de Kinect como las principales razones que los llevan a comprar el dispositivo. En vez de gastar miles de dólares en productos especializados, con sólo desembolsar US$150 obtienen el aparato de Microsoft y lo modifican a su gusto.

Además, la empresa creadora de Windows realizó una fuerte estrategia de mercadotecnia que comenzó un año y medio antes de que el producto llegara a las tiendas.

En la convención de videojuegos E3 de 2009, la compañía adelantó la innovación a la que entonces llamó "Proyecto Natal", generando así la expectativa de consumidores y analistas, y dando pequeñas muestras del producto entre el anuncio y su lanzamiento en noviembre de 2010.

El proyecto originalmente se llamó Natal porque en esa ciudad brasileña nació el director de incubación de la tecnología, Alex Kimpan.

Kinect puede haber nacido para entretener a videojugadores, pero ahora parece llegar a más rincones que aquellos para los que fue creado.

Estudie Becado en China 2011

Estan abiertas las convocatoris para participar en las proximas becas que ofrece el Gobierno de China, a través de su Ministerio de Educación y en colaboración con la Organización de los Estados Americanos - OEA.

En el marco de esta colaboración, se está ofreciendo 10 becas para estudios de licenciatura, maestría, doctorado y estudios del idioma chino.

Las becas son para cualquier área del conocimiento, y están disponibles para cualquier ciudadano o residente permanente en cualquiera de los países de Latinoamérica, Norte América y el Caribe.

La fecha límite es el 25 de marzo. Para mayor información ingrese al link: http://www.educoas.org/Portal/en/oasbecas/OAS_CHINA_ANMT_2011.pdf

O escribe un correo con el asunto BECAS CHINA a la cuenta: Scholarships@oas.org.

Tel: +1 202 458 6166 (EE.UU.).

Google ayuda a buscar victimas del terremoto de Japón

Este viernes, Google puso a disposición de sus usuarios un servicio para buscar a personas desaparecidas por el terremoto de Japón.

El sitio funciona como un directorio de mensajes para que la gente pueda ubicar a sus seres queridos que han desaparecido, o incluso para escribir una nota diciendo que se encuentran sanos y salvos.

Su diseño permite que sea integrado a sitios de internet y a páginas de redes sociales, para que así la información llegue al mayor número de personas.

En desastres naturales anteriores, el sistema ha demostrado ser muy útil para restablecer el contacto entre personas.

Herramientas

A pesar de que la magnitud de los daños causados por el terremoto en Japón aún se desconoce en su totalidad, es muy probable que debido a su fuerza -y a la del tsunami posterior- existan miles de desaparecidos.

El buscador de personas de Google fue desarrollado precisamente para resolver ese problema recurrente después de una catástrofe: la desinformación.

Antes de la llegada de herramientas de este tipo, era mucho más difícil comparar la información recopilada por organismos independientes y ayudar a que familias y amigos pudieran reencontrarse.

Rescates online

Cuando ocurren desastres en algún país, voluntarios localizados en otros lugares investigan y buscan información en distintos sitios web, blogs y hasta Twitter, para nutrir la base de datos del buscador de personas de Google.

Las pruebas del sistema se realizaron en el año 2005, luego de la catástrofe ocasionada por el huracán Katrina en Nueva Orleans, Estados Unidos.

Pero la primera vez que se utilizó de manera seria fue tras el terremoto que azotó a Haití en enero de 2010.

Todo indica que, tal y como lo afirma Mark Lobel de la BBC, "ahora los esfuerzos de rescate también se hacen en línea".

Google Person Finder: 2011 Japan Earthquake http://japan.person-finder.appspot.com/?lang=es

viernes, 11 de marzo de 2011

El iPhone 5 no viene con problemas de Antena

Aunque faltan meses para que Apple presente su nuevo smartphone iPhone 5, aseguran que una carcasa de aluminio evitará los problemas de conexión de su antecesor.

Finalizaron las especulaciones en torno al iPad 2, y ahora son los fanáticos del iPhone los que aguardan con ansiedad la nueva actualización del teléfono.

La web Digital Trends asegura que la empresa de Steve Jobs hará "un movimiento de retorno hacia el diseño original". "Con el rediseño de la terminal y la sustitución de la carcasa de cristal, Apple espera acabar con los problemas que han perseguido al iPhone 4 desde su salida", aseguran.

El problema más grave que tuvo el actual teléfono fue el llamado Antennagate, un error en el diseño del móvil hacía que éste perdiese cobertura si era sujetado en una determinada posición.

Según un estudio, la carcasa de cristal del iPhone 4 es el smartphone con mayor facilidad para romperse si cae al suelo. Los usuarios consideraron que esta enorme fragilidad del dispositivo lo convierte en "defectuoso porque un uso normal y razonable del producto, incluyendo el uso que aconseja Apple, provoca la rotura de los paneles de cristal del terminal".

Además, será mucho más ligero y su sistema operativo será el iOS 4.3. También llegará en dos tonos, negro y blanco.

La tecnologia tambien es cosa de mujeres

La compañía Fast Company seleccionó por tercer año consecutivo a las mujeres más influyentes en el sector de las TIC (Tecnologías de la Información y la Comunicación).

Las seleccionadas están encuadradas en seis grupos distintos, según su perfil: emprendedoras, medios de comunicación, ejecutivas, "gamers" (sector del videojuego), 'advocates' (legisladoras) y 'braniacs' (pensadoras o innovadoras).

En el ranking se destaca la presencia de Heather Harde, vicepresidenta y CEO del blog tecnológico TechCrunch; Katrin Verclas, fundadora de MobileActive.org o Nichole Goodyear, CEO de la red social de marketing Brickfish.

Carol A. Bartz, la actual CEO de Yahoo!, tomó las riendas de uno de los símbolos de Internet en medio de especulaciones y planes pocos optimistas sobre el futuro de la empresa. Sin duda, fue gracias ella el acuerdo que se logró concretar con Microsoft para apoyarse mutuamente en el negocio de las búsquedas.

El contacto de Apple con los medios de comunicación está cargo de Katie Cotton, quien da a conocer los productos de la compañía por medio de comunicados, y cultiva la imagen de Steve Jobs a nivel mundial. Los correos electrónicos o los llamadas con los que la empresa mantiene su relación con los principales están bajo dirección de Cotton.

En el área de los videojuegos, Jade Raymond se encargó de darle el toque femenino a este segmento. Actualmente, es productora de videojuegos canadiense y directora de Ubisoft Toronto, Canadá.

La estadounidense Winifred Mitchell Baker es la presidenta de la Fundación Mozilla y la presidenta y directora ejecutiva de la Corporación Mozilla, una subsidiaria de la Fundación Mozilla que coordina el desarrollo de las aplicaciones de Internet del código abierto. Baker, con 54 años, empujo el desarrollo de Firefox, logrando que hoy sea el segundo navegador en cuota de mercado del mundo y el primero en algunos países.

Cher Wang, elegida por Forbes como la quinta persona más rica de Taiwán, es co-fundadora y CEO de HTC Corporation. La revista indica que la ejecutiva posee un patrimonio de 3.5 mil millones de dólares.

Mas info: http://www.fastcompany.com/women-in-tech/2011/full-list

El Flash llega a los dispositivos de Apple

Adobe desarrolló el software llamado Wallaby, que permitirá convertir su programa multimedia a la nueva norma de Internet, HTML5. Es una gran noticia para los desarrolladores web.

La compañía de software Adobe y Apple venían manteniendo un pulso para saber cual de los sistemas, Flash o HTML 5, terminaba por imponerse.

El iPhone o el iPad de Apple con el sistema operativo iOS no reproducen contenidos ni videos generados con el sistema Flash de Adobe y apuestan por el estándar abierto. La batalla dejaba dos damnificados: desarrolladores y usuarios. Todo parece que tendrá un final feliz gracias al lanzamiento de Wallaby.

Básicamente se trata de convertir los contenidos en Flash a HTML5 de forma sencilla. El lanzamiento del software, que por el momento está en fase beta, permitirá a millones de desarrolladores que usan Flash que sus animaciones web se vean también en aparatos que no soporten este programa.

La nueva herramienta se puede descargar desde el sitio de la compañía. Junto con la descarga se publicó una gran cantidad de información para programadores en la que se explica el funcionamiento de Wallaby. Está disponible para Windows y Mac OS.

Wallaby no traduce los datos finales en formato .swf, sino los de inicio, terminados en .fla. Tras la conversión las animaciones se ven en los aparatos con tecnología Webkit, es decir fundamentalmente los que tienen el navegador Safari de Apple y el Chrome, de Google.

Sin embargo, el programa sólo sirve para una parte de los contenidos Flash. No están incluido por ejemplo ActionScript. La herramienta está pensada sobre todo para transformar los "banners" publicitarios en Flash a HTML5.

Fuente: DPA

El exceso de tecnologia nos quita el sueño

La Fundación Nacional del Sueño de los EEUU asegura que la dependencia de los dispositivos "ha destruido nuestra capacidad de tener una buena noche de descanso"

El estudio muestra que el 95% de los estadounidenses utiliza un dispositivo de comunicación previa a la hora de acostarse, "lo que le impide tener una decente noche de sueño". La principal conclusión del estudio es que los estadounidenses no duermen lo suficiente en general, y que el sueño que se consigue no es "de buena calidad".

"Aunque estas tecnologías se han vuelto algo común, es claro que tenemos mucho que aprender sobre su uso y diseño adecuados para que complementen los buenos hábitos a la hora de dormir", aseguró David Cloud, director ejecutivo de la Fundación.

La hora anterior a acostarse es de vital importancia para un buen descanso. "Los mensajes de texto, Facebook, leer los tweets de Charlie Sheen, toda esta estimulación mental mantiene su cerebro despierto y evita la liberación de ciertas hormonas que advierten al cuerpo que es hora de ir a la cama", refleja el sitio Mashable.

"La exposición a la luz artificial que se da entre el atardecer y la hora en que nos vamos a la cama en la noche suprime la liberación de melatonina, la hormona que fomenta el sueño, refuerza un estado de alerta y provoca cambios en nuestro ritmo cardíaco, haciendo más difícil el caer dormido", afirmó Charles Czeisler de la escuela de Medicina de Harvard.

Android reina entre los smartphones de los EEUU

El sistema operativo de Google para smartphone: Android superó por primera vez al desarrollado por RIM para su BlackBerry y al de Apple para el iPhone, según un estudio de la firma comScore

Google consiguió el primer lugar en ventas en este país durante el trimestre que finalizó en enero de 2011, cuando se hizo con una cuota de mercado del 31,2 %, según detalló esa entidad de análisis.

El siguiente en la lista de comScore es RIM con un 30,4 %, seguido de Apple con un 24,7 %, mientras que Microsoft obtuvo un 8 % y Palm el 3,2 % del mercado de los llamados teléfonos inteligentes.

Según el estudio, 65,8 millones de estadounidenses son dueños de un smartphone, mientras que 243 millones de personas usaron un teléfono móvil durante el trimestre estudiado.

En cuanto a los fabricantes de los dispositivos móviles en general, Samsung encabeza la lista con 24,9% del mercado, lo que refleja un ligero aumento de 0,7 puntos en comparación con el trimestre anterior. Al gigante electrónico surcoreano le siguen a cierta distancia la firma del mismo país LG, con un 20,8%, y en tercer lugar se sitúa la estadounidense Motorola con un 16,5% del mercado. Completan la lista la canadiense RIM con un 8,6 % y la estadounidense Apple con un 7 %.

El sondeo de comScore también señala que un 68,1% de los usuarios emplearon el móvil para enviar mensajes de texto cortos (sms), mientras que el 37 % lo utilizaron para navegar por Internet. Además, un 35,3 % descargó aplicaciones, un incremento del 1,6 % respecto al período anterior, mientras que el 25,3 % accedió a redes sociales o blogs desde sus teléfonos.

Fuente: EFE