sábado, 31 de octubre de 2009

Los caracteres no latinos podran usarse en las direcciones de Internet

La organización privada reguladora de los nombres de dominio en Internet (ICANN, en inglés) acordó en su cumbre anual en Seúl la futura internacionalización del uso de caracteres no latinos en las direcciones web. Eso permitirá, previsiblemente desde el año próximo, que se utilicen nombres con caracteres hebreos, cirílicos, coreanos, hindis, chinos y árabes, entre otros, en las direcciones URL de Internet, según informan los medios surcoreanos.

La Corporación de Asignación de Nombres y Números en Internet (ICANN), una organización privada sin ánimo de lucro que coordina dominios, direcciones IP y protocolos de Internet en el mundo, tomó esa decisión, que en principio podría comenzar a aplicarse a partir de mediados de 2010.

A partir del próximo 16 de noviembre ICANN comenzará a aceptar las peticiones de cambio en los nombres de dominio, de forma que utilicen otros caracteres distintos a los latinos, para que puedan comenzar a funcionar por etapas desde mediados de 2010.

En un comunicado, el presidente de ICANN, Rod Beckstrom, dijo que se trata de un paso histórico para la internacionalización de Internet pues se hará más accesible para los 800 millones de usuarios que no hablan idiomas con alfabetos latinos.

Se espera que la aprobación de este sistema permitirá un mejor acceso a Internet de los usuarios procedentes de países como China, Corea del Sur, Rusia o las naciones árabes. Hasta ahora sólo los caracteres latinos eran válidos universalmente para transformarse en los códigos numéricos de las direcciones IP con las que se accede a las páginas web.

Algunos países, como Corea del Sur, ya han introducido sistemas para reconocer las direcciones de Internet en sus propias lenguas, pero el sistema no es generalizable a todos los ordenadores. Podrán utilizarse nombres en hebreo, cirílico, coreano, hindi, chino y árabe

Fuente: Larepublica.com

miércoles, 28 de octubre de 2009

La NASA lanzo el cohete Ares I-X

El cohete espacial Ares-1-X, que pertenece a la nueva generación de aeronaves espaciales desarrolladas por la NASA, y actualmente se ha completado con éxito su vuelo de prueba sobre el Centro Espacial Kennedy, en Cabo Cañaveral, en Florida.

El cohete, de unos 100 metros de altura, fue lanzado al espacio en un ensayo que la agencia espacial estadounidense NASA espera provea información crucial sobre la tecnología que reemplazará a la flota de transbordadores espaciales.

El cohete llevó un módulo simulador de tripulación a una altura de 46 kilómetros en su vuelo, que duró 369 segundos. La cápsula se separó del cohete a unos 40 kilómetros por encima del Océano Atlántico antes de caer de nuevo a la Tierra con un paracaídas. En una trayectoria separada, el cohete Ares se precipitó asimismo en un paracaídas de recuperación equipado con sensores, que también ayudarán a los científicos a recabar datos sobre sus rendimiento.

La prueba del Ares-1-X fue esperada con gran expectación, ya que es uno de los dos nuevos cohetes espaciales planeados por la NASA en el marco de su programa Constelación, que reemplazará a los transbordadores. Este vuelo fue el primero de tres vuelos de prueba del nuevo programa espacial de la NASA.

La prueba se realizó tras varios aplazamientos por mal tiempo. La principal preocupación de la NASA era que las nubes cubrieran la plataforma de lanzamiento, lo que podría haber causado lo que los científicos denominan tribo-electrificación, es decir, estática potencial generada por el vuelo a través de las nubes, lo que podría haber afectado el funcionamiento de los aparatos de comunicación de la aeronave.

El Ares-1 se utilizaría para trasladar a astronautas a órbitas cercanas a la Tierra, incluida la Estación Espacial Internacional (ISS), a bordo de la cápsula de tercera generación Orión. Más adelante está previsto fabricar una versión más potente, el Ares-5 para transportar astronautas a la Luna y a mayores distancias.

La NASA colocó cientos de sensores en el cohete para reunir información durante el vuelo de prueba, que costó 445 millones de dólares, para determinar la seguridad y efectividad del cohete. El test simuló la trayectoria que haría un cohete Ares portador de una cápsula tripulada Orión, que podría alcanzar hasta cuatro veces la velocidad del sonido. Además de la cápsula similar al Orión, llevó un cohete extra para simular lo más fielmente posible las condiciones actuales.

Los ingenieros usarán los datos del test para evaluar los sistemas de control de vuelo y controlar la fuerza que hace que el cohete rote cuando vuela. La NASA también observará detenidamente la separación del cohete y el sistema de recuperación del mismo.

Pero el desarrollo del programa y el Ares podrían estar en riesgo debido a la revisión dispuesta por el presidente Barack Obama del programa espacial de Estados Unidos. Una comisión independiente dijo este mes que la NASA no estará lista para enviar astronautas al espacio con estos nuevos cohetes hasta al menos el año 2017, es decir dos años más que lo previsto.

Esto amplía la brecha entre el retiro de los transbordadores el año próximo y la implementación del nuevo vehículo, por lo que Estados Unidos dependerá de las naves espaciales rusas para sus viajes a la Estación Espacial Internacional (ISS).

El panel de revisión también sugirió que las autoridades deberían considerar el uso de vehículos comerciales para llevar a humanos a órbitas cercanas a la Tierra, en lugar de usar Ares 1, lo que permitiría a la NASA centrar su atención en viajes más largos. Sin embargo, científicos de la NASA dijeron que, sin importar qué decisión política se tome, la prueba del Ares les permitirá reunir datos valiosos para aplicar en cualquier cohete, con el fin de avanzar en el programa espacial.

martes, 27 de octubre de 2009

Listas frecuencias para TV digital

El Ministerio de Tecnologías de la Información y las Comunicaciones y la CNTV lograron llegar a un acuerdo para conceder a los actuales canales privados y públicos las frecuencias necesarias.

Según se conoció, el Ministerio decidió otorgar para este fin los canales del 14 al 20 en la banda de VHF y será la CNTV quien decida qué frecuencia se le otorga a cada concesionario.

Se prevé que esta semana la ministra María del Rosario Guerra dejará en firme esta decisión mediante un decreto que establezca el traslado de por lo menos 4.000 enlaces de telecomunicaciones localizados actualmente en dichas frecuencias.

Incluso, el Ministerio expidió la semana pasada una resolución en la que congela la entrega de nuevas asignaciones en este lugar del espectro radioeléctrico.

El viceministro Daniel Medina explicó ayer que la limpieza del espectro para la TV digital podría tardar entre 6 y 12 meses, pues es necesario reubicar frecuencias de entidades como la Policía y el DAS, así como de empresas de valor agregado y operadores de servicios de taxi, entre otros.

Así las cosas, se estima que la CNTV y el Ministerio establecerán un cronograma para entregar oficialmente -a mediados del 2010 o antes- las primeras frecuencias a los canales privados y públicos nacionales, aunque estos sabrán en los próximos días la frecuencia en la que operarán para poder empezar a diseñar su red de transmisión.

Los canales privados deben terminar el 2010 con cobertura de su señal digital del 25 por ciento. Gracias a la implementación del estándar de TV digital con formato europeo (DVB) seleccionado por la CNTV, los colombianos podrán disfrutar desde el próximo año de una señal con imagen y sonido de mayor calidad, incluso en alta definición si los concesionarios deciden ofrecerla.

Fuente: http://www.portafolio.com.co

Facebook lanza una version para telefonos tactiles

Facebook ha presentado una versión de su web optimizada para teléfonos táctiles. Se puede acceder a ella desde la dirección touch.facebook.com/.

Los usuarios de smartphones táctiles sólo tienen que teclear “Facebook.com” en la barra de direcciones de su navegador, y serán automáticamente dirigidos a la versión mejor adaptada a sus teléfonos.

Ya existía una versión de Facebook para el iPhone (iphone.facebook.com) y otra para la plataforma Android (x.facebook.com), pero los usuarios de otros tipos de smartphone debían acceder a la red social utilizando una versión antigua, diseñada para los telefonos manejados con un teclado.


El Facebook táctil ha simplificado el diseño con iconos grandes y cuatro pestañas principales: Inicio, Perfil, Amigos y Buzón de entrada. Debajo, cada sección da paso a un submenú con tres opciones más.

Se calcula que actualmente alrededor de 65 millones de usuarios acceden a Facebook desde sus dispositivos móviles. La tendencia es claramente al alza, ya que en enero eran 20 millones los usuarios de Facebook desde el móvil.

Por ese motivo, la red social es consciente de la importancia de adaptar su versión móvil a todos los dispositivos y sistemas operativos, y optimizar la experiencia de uso sea cual sea el aparato desde el que se accede.

Precisamente, en el congreso Web 2.0 que se celebra esta semana en San Francisco, Mike Schroepfer, vicepresidente de ingeniería de la red social, ha hecho públicas algunas estadísticas sobre el uso de Facebook, ciertamente asombrosas.

Sus 300 millones de usuarios pasan al día 133 millones de horas conectados. En un día de tráfico intenso, cada segundo se ven 1,2 millones de fotografías. Más de 15.000 sitios web han integrado Facebook en sus páginas a través de APIs, con un total de 5.000 millones de accesos diarios desde las mismas.

Para garantizar el buen funcionamiento de la web ante esta avalancha de tráfico, Facebook ha reescrito su memoria caché varias veces, de forma que ahora la navegación es cinco veces más rápida. También ha aumentado el número de ingenieros en su plantilla: actualmente hay un técnico por cada 1.2 millones de usuarios.

Wave tardara todavia un año

Con Wave, Google quiere lanzar la herramienta para la comunicación total: un mismo interfaz que agrupa el correo electrónico, la mensajería instantánea, las redes de contactos y otras formas de interacción social.

Por el momento sólo se puede acceder a Wave a través de invitación. El estado actual del software sólo admite un número limitado de usuarios, y se está dando preferencia a los interesados en desarrollar aplicaciones o plug-ins que mejoren su rendimiento.

Entre quienes ya han probado Wave no faltan los que se quejan de su excesiva complejidad, y de la dificultad para definir en pocas palabras qué es exactamente y para qué sirve. Y sin embargo, la idea de Google es que el número de usuarios pase de los actuales miles a millones en el futuro.

Para eso habrá que esperar al menos un año, hasta finales de 2010. Es el tiempo que Lars Rasmussen, cofundador de Wave, estima que tardará la herramienta en abrirse a todo el público. Por ahora sólo 100.000 personas utilizan la versión beta, aunque Rasmmussen asegura que han recibido más de 2 millones de peticiones.

Antes de hacer pública la herramienta, Google debe solucionar los problemas de escalabilidad. Desde que se lanzaron las 100.000 invitaciones en agosto pasado, ha localizado y solucionado varios cuellos de botella, pero aún debe encontrar el modo óptimo de gestionar la gran cantidad de datos que genera cada “ola”.

Google también está estudiando la posibilidad de crear una tienda de aplicaciones, donde los usuarios puedan descargar programas o complementos que mejoren las funcionalidades disponibles en Wave. Seria un modelo del tipo de la App Store y otras tiendas similares, donde los ingresos se reparten entre los desarrolladores y el vendedor.

Cuando se abra al público, Wave deberá enfrentarse a la competencia de Raindrop, un proyecto presentado ayer por la Fundación Mozilla. Básicamente, se trata de una herramienta que integra diferentes modos de comunicación y prioriza la información personal.

Raindrop agrupa y ordena en una misma interfaz la gran cantidad de mensajes generados a través de diferentes vías, desde el correo electrónico, la mensajería instantánea, Facebook, Twitter, Skype o Google Docs, separando los que son relevantes para el usuario de los que no lo son.

Raindrop funcionará para los navegadores Firefox, Chrome y Safari, aunque no para Internet Explorer. El código fuente está abierto para los desarrolladores que quieran probarlo.

La TV 3D llegara a tu casa

Las tres dimensiones han sido siempre el mejor reclamo para las tecnologías que ya funcionaban pero que con el paso del tiempo parece que se han quedado obsoletas. En el cine tenemos tres dimensiones desde hace bastante tiempo, pero ha sido gracias a la aparición de las gafas polarizadas cuando las películas en 3D se han podido ver realmente en 3D, con todos sus colores y definición. Ahora le toca el turno al hogar y a esa televisión que tenemos en el salón: todas las grandes marcas de fabricantes preparan sus ofertas de televisión en alta definición con capacidad de mostrar imágenes en tres dimensiones, gracias al uso de las ya mencionadas gafas polarizadas.

En una sala oscura y perfectamente ambientada, una amabilísima azafata me condujo a unos minimalistas asientos y me entregó unas gafas polarizadas. Tras ponérmelas, encendieron las pantallas y empezó el espectáculo: un coche de Fórmula 1 de Toyota corriendo a toda velocidad entre varios contrincantes mientras las briznas de hierba de los laterales de la pista se le vienen a uno encima. La impresión fue bastante mejor de lo que pensaba. Las imágenes son realmente impresionantes en tres dimensiones, nada de colores rojos o azules, nada de problemas de enfoque o imágenes dobles de ningún tipo. Pero como casi todo, hay varios defectos que pueden echar por tierra las ilusiones de muchos usuarios: las tres dimensiones con este sistema funcionan siempre y cuando uno consiga olvidarse de las futuristas gafas que hay que ponerse, no precisamente ligeras, para ver la televisión. Es necesario un tiempo de adaptación y aprendizaje que permita dejar de fijarse en la montura de las gafas, y también acostumbrarse al hecho de que en cualquier momento las imágenes se le pueden subir a uno encima.

Y es este el principal problema de esta nueva fiebre de las tres dimensiones: para disfrutarlas, hacen falta unas gafas. Los que no las usamos habitualmente notamos un peso en la cara que puede llegar a ser molesto, pero es peor aún para quienes ya llevan encima sus propias gafas, porque se las tienen que colocar encima. Llevar dos gafas puestas al mismo tiempo para poder ver la TV es todo un espectáculo, dentro y fuera de la pantalla. Para los que tengan una sensibilidad especial a las distracciones, es recomendable seguir esperando a las tres dimensiones sin gafas, si es que algún día ven la luz. Para todos los demás, la propuesta en alta definición de Panasonic es espectacular. En particular, las imágenes que muestran de la nueva y muy anticipada nueva película de James Cameron, 'Avatar', que ha sido producida desde sus inicios teniendo en cuenta los canales de distribución en 3D, y que Panasonic utiliza para promocionar sus nuevos televisores.

No es la primera vez que Panasonic muestra sus televisores 3D. Ya el año pasado presentó una pantalla de plasma de más de 100 pulgadas y Full HD con estas posibilidades, pero ha sido este año cuando han apuntado al verdadero origen de sus beneficios: el hogar. Las pantallas presentadas este año tienen un tamaño todavía grande, pero que cabe por la puerta de un domicilio: 50 pulgadas. También de plasma y también HD, vienen con las gafas correspondientes y un lector de BluRay preparado para películas en este formato. Panasonic mostró un prototipo en el CEATEC 2009 pero, como he mencionado antes, la tecnología ya funciona, y lo hace muy bien. Es por esto que la firma de electrónica más famosa de Osaka tiene tiene planeado comenzar la comercialización a gran escala en el otoño del año 2010.

Ahora es el turno de los consumidores de decidir si realmente hace falta una dimensión más en añadidura a las gafas futuristas, o si, como yo, prefieren seguir disfrutándolas en cualquiera de las ya asequibles y delgadas pantallas que tenemos en las tiendas, sin molestias de ningún tipo.

Fuente: http://www.soitu.es

Cinco tendencias de la Web

ReadWriteWeb ha publicado recientemente una especie de guía (útil) de tendencias de la web de hoy.

En total son cinco:

  1. Datos estructurados o web semántica: la web está actualmente compuesta de más documentos. La capacidad de tratarlos de forma masiva da lugar a más inteligencia.

  2. Tiempo real: esta nueva forma de comunicación inmediata y pública está asociada a un gráfico social y a un "modelo implícito de federación".

  3. Personalización: ya no se trata realmente de elegir los colores de una página. Lo que cuenta hoy es poner a punto filtros y recomendaciones, los servicios que permiten recibir y encontrar lo que queremos.

  4. Web móvil / realidad aumentada: su tremendo crecimiento impone la web móvil como una de las tendencias más fuertes. Se trata de la capacidad de añadir capas de información para hacer más inteligible y aprovechable el mundo en el que nos movemos.

  5. La internet de las cosas: es la de los objetos conectados a la red y por tanto capaces de interactuar. Entre las tecnologías que lo constituyen están los chips RFID (radio frequency identification), los receptores y los teléfonos inteligentes.


Se puede acceder a una síntesis presentada en diapositivas en SlideShare.


Fuente: http://www.soitu.es

La Historia de Google


jueves, 22 de octubre de 2009

Windows 7 ya esta aqui


Microsoft Corp puso a la venta Windows 7 el jueves, su lanzamiento más importante en más de una década con el que busca reconquistar a los clientes luego de la decepción que significó el sistema operativo Vista y fortalecer su posición en el mercado de computadoras.

La mayor compañía de software del mundo, cuyos productos están en más del 90 por ciento de las computadoras personales, ha recibido buenas reseñas del nuevo sistema, con el que espera recobrar el liderazgo en nuevas tecnologías que actualmente poseen sus rivales Apple Inc y Google Inc.

"Es el primer lanzamiento realmente significativo de Windows en una década", dijo el analista Brendan Barnicle de Pacific Crest Securities a Reuters Television.

"Tomando en cuenta los tropiezos que rodearon a Vista, la gente realmente puso en duda la relevancia de Microsoft en el espacio tecnológico. Así que este es un paso crítico para que Microsoft recobre su credibilidad", agregó.

El nuevo sistema -que es más rápido, menos recargado y tiene nuevas funciones de pantalla táctil- sale a la venta casi tres años después del lanzamiento de Vista, cuya complejidad frustró a muchos usuarios domésticos y alejó a los clientes corporativos.

El éxito de Windows -que representa más de la mitad de las ganancias de Microsoft- es crucial para que el presidente ejecutivo Steve Ballmer reviva la imagen de la compañía como la firma de software más importante del mundo.

"Debo decir que estoy ansioso porque salga a la venta (I'm chomping at the bit)", dijo Ballmer el miércoles a una audiencia de clientes y socios de Microsoft en Toronto, agregando que estaba listo para hacer él mismo llamadas de venta para Windows 7.

Las ventas no tendrá un impacto inmediato en los resultados de Microsoft, que se prevé reportará una menor ganancia trimestral el viernes.

Microsoft cobrará 199,99 dólares por la versión Home Premium de Windows 7, o 119,99 dólares para los usuarios que sólo deseen actualizar versiones más antiguas del sistema operativo, en comparación muy por debajo de los precios de Vista.

La firma también ofrecerá una gama de ofertas en conjunto con el minorista Best Buy y fabricantes de computadoras como Dell Inc y Acer Inc.

Por primera vez, los clientes podrán comprar computadoras que ya tienen instalado el software directamente de una tienda de Microsoft. El primer local de una serie planeada abrirá sus puertas el jueves en Scottsdale, Arizona.

La temporada navideña pronto revelará si las ventas de computadoras personales recibe un impulso gracias a Windows 7, pero el éxito con las corporaciones -la clave del poder financiero de Microsoft- no quedará claro hasta el próximo año, dijeron analistas.

"Para junio del próximo año vamos a tener indicios reales del mercado corporativo", declaró el miércoles Mark Simons, presidente ejecutivo de la unidad estadounidense de Toshiba Corp, el quinto productor más grande de computadoras del mundo.

Los primeros indicios apuntan a que las compañías están listas para cambiarse a Windows 7.

"A la gente le gusta", dijo Michael Capone, presidente a cargo de tecnología de la firma de servicios de nóminas de pago ADP, resaltando su breve tiempo de reinicio y buena interfase para el usuario.

"Hay una fila de gente frente a mi puerta que quiere sumarse al programa piloto", dijo el miércoles Capone, en una conferencia tecnológica en Orlando, Florida.

Su compañía usualmente aguarda al menos 18 meses para comenzar el despliegue completo de una nueva versión de Windows, dijo Capone, pero esta vez podría ser más agresivo.

"En los sondeos que hemos hecho, cerca de la mitad de los presidentes de tecnología informática indicó que usará Windows 7 en computadoras existentes en lugar de reemplazar todo el hardware", dijo Barnicle.

"Eso sería muy positivo para Microsoft, pero quizá no tanto para los fabricantes de computadoras", agregó.

Las reseñas positivas y una subida extendida en las acciones del sector tecnológico han impulsado los papeles de Microsoft, que treparon un 80 por ciento desde marzo. El miércoles tocaron su nivel máximo en poco más de un año, cerrando a 26,58 dólares en el Nasdaq.

Fuente: Reuters.com

Mujeres en la Astronomía: conferencia en el Planetario de Medellín

El Planetario de Medellín recibe el próximo jueves 22 de octubre a la astrónoma Luz Angela Cubides para hablar acerca del tema mujeres en la astronomía. Para la IAU el tema de la promoción de la igualdad de géneros en el quehacer de la ciencia contemporánea ha sido un tópico central en las discusiones del Año internacional de la astronomía.

A pesar de la poca información estructurada sobre el papel de las mujeres a lo largo de la historia de la Astronomía, la investigación de las diferentes reseñas de observatorios y universidades muestran que ha existido un buen número de mujeres que con su trabajo, remunerado o no, que han contribuido de forma significativa a la concepción que hoy tenemos del Universo observable.

Luz Angela Cubides desde su punto de vista personal y como profesional en el área de Ciencias Espaciales nos presentará, en el marco de uno de los proyectos pilares del Año Internacional de la Astronomía IAU 2009, un análisis del rol femenino en el desarrollo de la Astronomía partiendo de una reseña biográfica de algunas astrónomas destacadas, para entender su relación con el entorno social y los factores que hicieron que las mujeres no tuvieran el merecido reconocimiento por tanto tiempo y como esos paradigmas han venido siendo derrumbados.

Lugar: Auditorio Planetario de Medellín
Fecha y Hora: jueves 22 de octubre, 6:30 p.m.
Entrada libre

lunes, 19 de octubre de 2009

Google anuncia una tienda de libros electrónicos

En la edición de la Feria del Libro de Francfort de este año, el mayor evento anual del sector, ha tenido especial protagonismo el libro electrónico. Aunque la industria aún tiene que alcanzar muchos consensos sobre la forma en que se comercializarán, todos parecen estar de acuerdo en que 2010 será el año del despegue definitivo de los e-books.

Y esta sensación, por si alguien tenía dudas, se ha visto reforzada con el anuncio que realizó Google a última hora en la feria alemana: la apertura el año próximo de una tienda electrónica dedicada a la venta de libros digitales.

Google tiene previsto inaugurar el año próximo Google Editions, una tienda donde venderá libros electrónicos compatibles con cualquier dispositivo de lectura. La intención de la compañía es estrenarlo durante la primera mitad de 2010, con un catálogo inicial de entre 400.000 y 600.000 libros que venderá directamente o a través de comercios asociados.

La gran novedad es que la tienda será accesible para cualquier aparato con un navegador y conexion a Internet: desde un teléfono móvil, un PC, un netbook o cualquiera de los modelos de e-readers que ya hay en el mercado, o los que irán apareciendo en los próximos meses.

De esta forma, Google quiere distanciarse de las compañías que restringen la venta de e-books a un lector exclusivo (caso de Amazon con su Kindle), o bien que incluyen DRM para limitar la circulación de los libros electrónicos.

“El mercado de los e-books va a evolucionar hacia el acceso universal, desde cualquier dispositivo y punto geográfico”, explica Tom Turvey, director de Google Book Search. Tampoco será necesario estar conectado a Internet para leer el libro, que será accesible en modo offline una vez descargado.

El precio de cada libro se establecerá por el editor. Los libros se podrán comprar directamente en la tienda de Google o en los comercios asociados, utilizando el sistema de pagos Checkout. Google Editions se encargará de alojar e indexar los catálogos de todos los comercios y editores asociados.

Cuando una venta se produzca directamente desde Google Editions, el 63% del importe será para el editor y el 37% para Google. Si se reenvía al comprador a otra tienda, el editor recibirá el 45% y el 55% será para el vendedor, con una pequeña comisión para Google.

Los servidores de Facebook

La red social mas importante del internet, el gigante Facebook.com revelo detalles de sus servidores que permiten el correcto funcionamiento de su plataforma.

Jeff Rothschild, el jefe encargado de la plataforma confirmo que la red social con mas de 300 millones de usuarios, corre con alrededor de 30.000 mil servidores que le dan soporte a la aplicación.

Esto colocaría a Facebook entre las más grandes compañías de internet que han expresado públicamente el número de servidores que componen su infraestructura, aunque todavía se encuentra muy por detrás de proveedores de hosting como Rackspace, 1&1 internet y OVH, donde cada uno ostenta más de 50.000 servidores en sus data centers.

Todo esto nos dejaría con la cifra de 20.000 servidores en 18 meses para Facebook, lo que también explica en que se han gastado los 100 millones de dólares que pidió prestado la compañía en mayo del 2008.

Rothschild también asomó unas cifras bastante impresionantes relacionadas con la operación de almacenamiento de imágenes en Facebook, que actualmente maneja 80 mil millones de imágenes (20 mil millones de imágenes, cada una en 4 tamaños diferentes). Rothschild indicó que el verdadero reto no esta en el almacenamientos sino en la distribución “despachamos hasta 600.000 fotos cada segundo” declaró.

Finalizó Rothschild resaltando la efectividad de la compañía en lo que respecta al departamento de ingeniería. Facebook cuenta actualmente con 230 ingenieros en su staff, que manejan la data de más de 300 millones de usuarios.

Nuestros sabios seguidores de Facebook no estaban tan mal, según nuestra encuesta de la semana el 36% de los participantes acertó en la respuesta sobre el número de servidores de Facebook.

martes, 13 de octubre de 2009

Mozilla 3.6 podrá reorientar el contenido en portátiles

La nueva versión del navegador Firefox 3.6, va a integrar soporte de los datos que aportan acelerómetros. De hecho los acelerómetros es algo que tiene los móviles que permiten entre otras cosas reorientar su pantalla.

Algunos portátiles como los últimos MacBook y algunos modelos Lenovo ThinkPad, también han integrado esos sensores, en un principio para evitar daños en el disco duro. Si el equipo detecta una aceleración muy brusca, similar a la recibida durante una caída para el funcionamiento del disco para evitar que se dañe. Con la nueva característica Firefox será capaz de que las páginas reorienten su contenido según la posición del portátil.

El desarrollador de Mozilla Christopher Blizzard ha confirmado: “Será nueva característica que posiblemente será incluioda en Firefox 3.6 con la capacidad de que las páginas web puedan acceder a los datos de orientación del equipo si está disponible. Muchos equipos modernos, MacBooks y ThinkPads, integran dispositivos y drivers que ofrecen esa información. Tambien se ha añadido soporte para Linux, Mac y Windows”

Esta nueva característica en un futuro podra ser aplicada por programadores en sus páginas web, aunque estamos hablando de un pequeño grupo de usuarios que podrían aprovechar la característica no está de más ir implementando posibilidades para disfrutar de la Red de redes de una forma más innovadora.



Mas info: http://www.mozilla.com

domingo, 11 de octubre de 2009

Desarrollan el motor de plasma de iones mas potente del mundo

Desde el 2005 la empresa fundada por el ex astronauta Franklin Chang-Diaz, Ad Astra Rocket, está trabajando en un revolucionario motor de iones, el VASIMR, con el que querían alcanzar una potencia muy superior a cualquier otro motor de plasma construido hasta la fecha. Pues bien, ya lo han conseguido.

Según nos cuentan desde New Scientist, Ad Astra Rocket acaba de dar un paso importante en el proyecto: han probado con éxito el motor prototipo VX-200 en una cámara de vacío, alcanzando el hito de los 200 kilovatios de potencia, siendo la primera vez que se llega a esa marca. Esto señoras y señores, mejora mucho las expectativas de futuro en cuanto a viajes espaciales.

Por el momento ya han firmado acuerdo con la NASA para probar el VX-200 en la ISS en 2013 y comprobar si puede proporcionar el impulso que necesitan las instalaciones espaciales para no salirse de su órbita, con un ahorro muy importante en combustible y por consiguiente en dinero. Y esto solamente es el principio, las ventajas del VX-200 son muchas más y siguen trabajando para aumentar la potencia del motor hasta donde se pueda (con 10-20 megavatios podríamos viajar a Marte en unos 39 días, por ejemplo).

Hasta emocionado y todo estoy, el ser humano necesita una cosa principalmente para poder seguir aumentando sus conocimientos sobre el espacio: potencia. Con fuentes que nos proporcionen más potencia los satélites podrán viajar más lejos y la idea de construir naves espaciales para realizar viajes por el cosmos en misión científica se convierte en algo mucho más viable. Estamos en el 2009 y se ha conseguido un motor con consumos eficientes y potencias nunca antes alcanzadas, ¿a qué potencia se llegará entonces en el 2020?

Fuente: http://alt1040.com

jueves, 8 de octubre de 2009

Dell planea entrar en el negocio movil

El fabricante de computadores y accesorios informáticos, la multinacional Dell planea lanzar en EEUU el próximo año su primer smartphone que empleará como sistema operativo Android y utilizará la red de la operadora AT&T. Supone el primer intento de la empresa de entrar en el competitivo mercado de móviles en los Estados Unidos.

De este modo, Dell entrará a competir en el mercado de la telefonía móvil buscando diversificar su negocio, apostando por la movilidad con un dispositivo que contará con pantalla táctil y cámara, según señalaron las fuentes.

El nuevo telefono móvil de Dell supondrá el debut de Android en la red de AT&T, la segunda mayor operadora de EEUU. El pasado martes, la mayor operadora del país, Verizon Wireless, anunció el lanzamiento de sus dos primeros teléfonos basados en Android.

De este modo, las cuatro principales operadoras de telefonía móvil de EEUU ofrecerán soporte a dispositivos basados en el sistema operativo Android, lo que supone un avance en la estrategia del popular buscador Google.com de ampliar su negocio al mercado de la telefonía móvil.

No obstante, Google aún debe lograr que este sistema operativo, que es ofrecido gratuitamente y de código abierto, contribuya de manera tangible a los resultados de la compañía.

NASA estrellará un cohete contra la luna


La NASA tiene previsto para este próximo viernes, 9 de octubre, hacer impactar contra la Luna su sonda LCROSS (Lunar Crater Observation and Sensing Satelite) junto a una fase propulsora del cohete Centauro que la trasladó desde la Tierra hasta la órbita lunar, para intentar localizar agua en nuestro satélite.

El cráter seleccionado, Cabeus A, se encuentra muy cerca del polo Sur de la Luna. El sitio exacto del impacto se sitúa en un punto del centro del cráter lígeramente desplazado hacia el norte, en una zona de sombra permanente. Los datos del Lunar Prospector indican que la parte específica del cráter podría contener hasta dos por ciento de agua en el metro superior del suelo.

El choque contra la superficie ha sido programado para las 11:30 UTC (4.30am hora colombiana). La etapa superior del Centauro impactará en primer lugar. Cuatro minutos más tarde, lo hará el propio LCROSS. El impacto y la nube de polvo levantado será observado y estudiado detalladamente por la nave espacial antes de su propia destrucción, pero también desde la Tierra, y no sólo desde grandes observatorios. También podrá ser seguido con un telescopio de aficionado.

En el momento del impacto, el punto elegido estará en oscuridad y el penacho de material expulsado aproximadamente alcanzará unos 10 kilómetros de altura. "La selección de Cabeus A fue el resultado de un intenso debate dentro de la comunidad científica lunar que incluyó la revisión de los últimos datos de observatorios terrestres y nuestros compañeros de Kaguya misiones a la Luna, Chandrayaan-1, y el Orbitador de Reconocimiento Lunar", declaró el investigador principal del proyecto, Tony Colaprete.

La misión LCROSS espera que en la nube se contengan signos de agua lunar. Los datos del Lunar Prospector muestran la presencia de hidrógeno dentro de este cráter, pero el agua es uno de los muchos materiales que podrían ser reservorio para el hidrógeno. "Sabemos que es el hidrógeno. Podría ser el agua. Podría ser el metano o los hidrocarburos, o sustancias orgánicas", dijo Colaprete, quien considera que la misión será un éxito científico, independientemente de lo que encuentre.

Se encuentra abierta la convocatoria para la competencia TIC Americas

Desde el jueves 1 de octubre las ideas empresariales innovadoras tienen la oportunidad de presentarse a uno de los concursos de emprendimiento más importantes del mundo: Competencia Talento e Innovación de las Américas (TIC Americas) 2010. El anuncio fue hecho por el Young Americas Business Trust (YABT).

A esta competencia, que cierra sus inscripciones el 1 de marzo de 2010, pueden presentarse equipos de jóvenes emprendedores menores de 36 años, quienes deben de inscribir su proyecto en la página web: http://www.ticamericas.net/

La premiación de este concurso se realizará en Perú en 2010. La versión de 2009 se llevó a cabo en Honduras y la de 2008 en Colombia, donde la ciudad de Medellín tuvo la oportunidad de recibir, en el marco de la Asamblea número 38 de la Organización de Estados Americanos (OEA), a los miembros del YABT.

“La competencia internacional de negocios TIC Americas / Perú 2010 ofrece nuevas oportunidades para que los jóvenes de las Américas y del Perú –donde serán las finales– expandan su idea de negocio. Anunciaremos nuevas categorías en el sector de recursos naturales, lo cual es sumamente emocionante”, comentó Roy Thomasson, presidente del Young Americas Business Trust.

Una de las innovaciones que tiene el concurso en el presente año es que los jóvenes emprendedores pueden presentar sus proyectos en español o en inglés, diferente a las versiones anteriores donde el inglés era el único idioma permitido. La intención es, según Roy Thomasson, dar a más jóvenes la oportunidad de beneficiarse de experiencias y la posibilidad de ganar el premio.

TIC Americas otorga premios como una competencia internacional de negocios y un acelerador para jóvenes emprendedores por medio de entrenamiento y expansión de sus redes de contacto. Los ganadores del concurso tienen la oportunidad de participar en el Global TIC en Asia.

Equipos participantes en años anteriores reportaron que TIC Americas fue lo que los impulsó a iniciar su negocio y les ha influenciado positivamente para acceder a mercados.

Compañías que operan en la región también pueden llegar a los jóvenes emprendedores a través de TIC Americas involucrándose como patrocinador de equipos locales y de los eventos regionales que forman parte de la competencia. En poco tiempo, YABT anunciará su nueva alianza con una compañía líder a nivel global.

Para mayor información sobre la competencia visite http://www.ticamericas.net/

miércoles, 7 de octubre de 2009

El Astrofísico Helio Rocha en el Planetario de Medellín

Este miércoles, 7 de octubre, a las 6:30 pm, en el marco de la celebración de los 25 años de labor del Planetario de Medellín "Jesús Emilio Ramírez", el Profesor Helio Rocha Pinto, astrofísico de la Universidad Federal de Río de Janeiro dictará la conferencia "La Vida en el Universo".

El doctor Rocha, cuando habla de "La vida en el universo", sostiene que "aunque seamos criaturas de la Tierra, la historia de la vida en nuestro planeta - nuestra propia historia -- está ligada a la historia del Universo, la Galaxia y el Sistema Solar".

"La tierra es el único planeta conocido donde ha surgido vida. La variedad de formas de vida y ecosistemas terrestres puede, fácilmente, hacer pasar desapercibida la fragilidad de la biosfera. La vida se distribuye a lo largo de pocos kilómetros encima y abajo del nivel del mar delicadamente protegida de las intemperies espaciales y del calor esterilizante en el propio interior planetario", afirmó el astrofísico.

Rocha Pinto es Doctor en astronomía de la Universidad de São Paulo, en la actualidad se desempeña como profesor adjunto del Observatorio de Valongo de la Universidad federal de Rio de Janeiro y coordinador del posgrado en astronomía de la misma institución. Ha sido evaluador del Instituto Nacional de Estudios e Investigaciones educativas y consultor científico del Consejo Nacional de desarrollo Tecnológico y Científico del Brasil, CNPq.

El área principal de actuación del profesor Rocha Pinto es la Evolución química de la galaxia y en la actualidad trabaja activamente en temas relacionados con estrellas de tipo tardío y astrobiología.

Entrada Libre

Fuente: Latekhne.itm.edu.co

Google festeja los 57 años del codigo de barras

El buscador mas importante de Internet Google.com presenta una edición especial con su logo el aniversario de la invención del código de barras, que hoy cumple 57 años.

El código de barras fue creado en 1952 por los inventores Joseph Woodland, Jordin Johanson y Bernard Silver en Estados Unidos. Pero fue recién en 1966 cuando se implementó y comenzó su popularidad.

El código de barras es un código basado en la representación mediante un conjunto de líneas paralelas verticales de distinto grosor y espaciado que en su conjunto contienen una determinada información. De este modo, el código de barras permite reconocer rápidamente un artículo en un punto de la cadena logística y así poder realizar inventario o consultar sus características asociadas. Actualmente, el código de barras está implantado masivamente de forma global.

La información, se procesa y almacena con base en un sistema digital binario donde todo se resume a sucesiones de unos y ceros. La memoria y central de decisiones lógicas es un computador electrónico del tipo estándar, disponible ya en muchas empresas comerciales y generalmente compatible con las distintas marcas y modelos de preferencia en cada país. Estos equipos permiten también interconectar entre sí distintas sucursales o distribuidores centralizando toda la información.

Gracias Google por no olvidar los pequeños detalles del conocimiento humano.

De la Tierra al Universo


Gentoo publica edicion especial 10 aniversario

Gentoo Linux es una distribución GNU/Linux orientada a usuarios con cierta experiencia en estos sistemas operativos, y tras pasar mas de un año sin publicar versiones estables, el equipo de Gentoo Linux ha lanzado un LiveDVD especial en conmemoración de su 10 aniversario, disponiendo de una serie de paquetes especialmente elegida para esta versión conmemorativa.

Esta versión especial incluye el núcleo Linux 2.6.30, que trae multitud de escritorios, entre los que se encuentran KDE, GNOME y Xfce. En la amplia selección de software de oficina, edición de imagen, multimedia, programación e Internet encontramos imprescindibles como GIMP, OpenOffice.org, Inkscape, Blender, Mozilla Firefox, Pidgin, Mplayer y Amarok.

La imagen del DVD ocupa un total de 2,5GB y puede descargarse en versiones híbrida para ordenadores de 32 y 64 bits y únicamente para ordenadores de 64 bits. También por ser una edición especial se han creado carátulas y fondos de pantalla conmemorando estos 10 años.

Algunas bonitas imagenes de esta versión especial de Gentoo


Ubuntu 9.10 para el 29 de Octubre

Canonical está avanzando rapidamente para el lanzamiento de su proxima distribución GNU/Linux de Ubuntu 9.10 Karmic Koala para este próximo 29 de Octubre disponibles en sus ediciones Desktop, Server y Netbook Remix.

Ubuntu 9.10 Karmic Koala incluirá novedades como el Kernel 2.6.31, el reciente GNOME 2.28, Ext4 como definitivo para esta versión, superando la velocidad al ya conocido ext3. También integrara GRUB2 configurados por defecto. También se destacan la integración del nuevo servicio de almacenamiento on-line Ubuntu One y Quickly para ayudar al desarrollo rápido de aplicaciones.

Además de las correspondientes versiones 9.10 Beta de Edubuntu, Ubuntu Studio y Xubuntu, Mythbuntu, con Kubuntu 9.10 Beta se incluye también el primer lanzamiento de Kubuntu Netbook Edition, cuya versión definitiva será lanzada junto con KDE 4.4 y como parte del próximo Kubuntu 10.04. En cuanto a actualizaciones de software la novedad es la inclusión de KDE 4.3.1, Amarok 2.2 RC, K3b 2 (Alpha 2) o la integración de OpenOffice.org con KDE. Xubuntu 9.10 Beta también se ha renovado con XFCE 4.6.1 y con algunas actualizaciones en sus paquetes.

También se espera que desde ya se puedan encontrar las imágenes de Ubuntu 9.10 Beta para su uso en la nube computacional de Ubuntu Enterprise Cloud (UEC) o Amazon EC2.

En esta edición hay nuevo tema visual, iconos, fondos de escritorio y una importante transición a Upstart, un nuevo mecanismo de inicio del sistema. También encontraremos el nuevo Ubuntu Software Center, que sustituye al tradicional “Añadir y quitar aplicaciones” del menú de aplicaciones, y que permite instalar nuevas herramientas con una interfaz visual muy atractiva.

Y con la versión definitiva de "Karmic Koala" llegando a finales de este mismo mes, los usuarios de la actual Ubuntu 9.04 "Jaunty Jackalope" pueden actualizarse inmediatamente, y con relativa seguridad, ejecutando el siguiente comando (como superusuario): # update-manager -d

Mas info: http://ubuntu.com

martes, 6 de octubre de 2009

Nobel de Fisica dominaron la Luz

Los científicos Charles K. Kao, Willard S. Boyle y George E. Smith, galardonados con el Premio Nobel de Física por sus importantes investigaciones en el campo de la comunicación por fibra óptica y la fotografía digital, dos avances científicos que han ayudado a sentar las bases de las actuales redes sociales de trabajo, ya que los premiados han creado muchas innovaciones prácticas para la vida cotidiana y han aportado nuevas herramientas para la exploración científica.

Tres veteranos científicos que lograron hace varias décadas dominar la luz y dieron lugar a aplicaciones prácticas en la electrónica y las comunicaciones, como los sensores de imagen de las cámaras digitales y la transmisión por fibra óptica a larga distancia, han obtenido el premio Nobel de Física. Charles Kao, nacido en China en 1933 y que trabajaba en los laboratorios de Standard, en el Reino Unido, puso las bases para una transmisión eficiente de una enorme cantidad de información a través de la luz por las fibras ópticas, sin la cual no existiría la comunicación casi instantánea como la de Internet. Se lleva la mitad del premio, dotado con 980.000 euros.

William Boyle (nacido en Canadá en 1924) y George Smith (nacido en 1930 en Estados Unidos) crearon en los Laboratorios Bell de Estados Unidos el circuito semiconductor de imagen CCD (Charged Coupled Device), el sensor que es la base de la fotografía digital y ha introducido los píxeles (unidades de información) en el lenguaje habitual. Por ejemplo, el telescopio espacial Hubble toma sus espectaculares imágenes a través de una avanzadísima cámara CCD. Estos científicos comparten la otra mitad del premio.

"Son inventos que han cambiado completamente nuestras vidas y también han proporcionado herramientas para la investigación científica", dijeron los representantes de la Academia de Ciencias sueca durante el anuncio del galardón, a las 11.45 en Estocolmo.

La tecnología CCD se basa en el efecto fotoeléctrico que predijo Albert Einstein, y que le valió el premio Nobel en 1921. Este efecto hace que la luz se transforme en señales eléctricas. El hecho de que permita captar imágenes sin recurrir a la película y en forma digital ha hecho explotar las posibilidades de la fotografía y el video, incluidas las científicas, y facilita la transmisión de las imágenes por las redes mundiales de comunicaciones, basadas en gran parte en la fibra óptica, de la que ya hay instalados 1.000 millones de kilómetros.

Fuente: http://www.elpais.com

Se anuncian los Windows Phone

Microsoft ha anunciado hoy el lanzamiento internacional de los nuevos Windows Phones, una nueva línea de terminales de última generación, de diferentes fabricantes, que pretenden combinar el uso personal y profesional.

Durante la presentación Microsoft ha hecho hincapié en el esfuerzo de la compañía por invertir en I+D en el terreno de los smartphones y los sistemas operativos móviles, una partida a la que se destinan unos 1.000 millones de dólares anuales. No en vano, se espera que los smartphones acaparen el 24% del mercado móvil en dos años, y Microsoft aspira a una presencia significativa en el sector.

Los nuevos Windows Phone, equipados con el nuevo sistema operativo Windows Mobile 6.5, se han desarrollado a partir de tres premisas: navegación sencilla, acceso instantáneo a aplicaciones y sincronización de la vida digital.

Además, incluyen dos aplicaciones gratuitas: la primera es My Phone, que gestiona y protege toda la información guardada en el teléfono (contactos, citas, textos, imágenes, vídeos, etc.) a través de un acceso web protegido por contraseña, y que ayuda a recuperarla en caso de pérdida o daño en el terminal. My Phone sincroniza automáticamente el contenido del teléfono, desde el terminal con un sitio web.

La otra novedad es Windows Marketplace, la tienda de aplicaciones móviles abierta a desarrolladores, que se quedan con un 70% del precio de venta de cada una. Todas las aplicaciones están certificadas por Microsoft para funcionar con Windows Phone y están respaldadas por una política de devolución que permite probarlas durante 24 horas y devolverla sin cargo si el usuario no desea conservarla.

Microsoft espera que para finales de año los consumidores de más de 20 países puedan elegir entre más de 30 modelos diferentes de Windows Phones. Los nuevos smartphones irán llegando a Europa principalmente de la mano de fabricantes como LG, Samsung, Toshiba, Sony Ericsson, HTC, HP, Acer o Asus.

De momento, ya se ha presentado el primer dispositivo equipado con Windows Mobile 6.5, Se trata del LG GM750, comercializado junto con Vodafone, con precios que oscilan de 0 a 49 euros mensuales en función del tipo de contrato.

domingo, 4 de octubre de 2009

Las TIC en la reduccion de emisiones de CO2

El uso de productos con las Tecnologías de la Información y las Comunicaciones (TIC) va a incrementarse en los próximos años de tal forma que se van a convertir en una variable casi omnipresente. Por tanto, su contribución total a la emisión de gases de efecto invernadero (GEI ) va a aumentar.

Diversos estudios examinados sitúan este aumento para el año 2020 entre tres y cinco veces superior a la contribución que el sector TIC realizaba en 2002. No obstante, el uso intensivo de las TIC puede hacer que las emisiones totales sean menores, gracias a su incidencia en tres sectores principales: transporte, construcción y energía.

Durante el año 2007, el efecto global del sector (TIC) en las GEI fue de 830 millones de toneladas de CO2, es decir alrededor del 2% del total de emisiones derivadas de la actividad humana.

Las medidas puestas en marcha por las empresas del sector de las TIC entre 2000 y 2003 permitieron reducir las emisiones totales de GEI en algo más del 11%, mientras que el consumo de energía total aumentaba un 4%. Se prevé que las compañías de telecomunicaciones en Europa, adoptando una serie de medidas sencillas, podrían ahorrar 10 veces más GEI que las emisiones adicionales causadas por el uso intensivo de las TIC

Las aplicaciones de las TIC que pueden tener un mayor impacto en la reducción de los gases de efecto invernadero en un futuro cercano son:

  • Las reuniones virtuales
  • El trabajo flexible
  • La desmaterialización de actividades
  • Las mejoras en la logística, los sistemas de transporte inteligente
  • Eficiencia energética de los vehículos
  • El hogar digital
  • Los sistemas inteligentes de infraestructuras de distribución de energía
  • La mejora de la eficiencia en el consumo energético de la industria.
  • Las e-aplicaciones: comercio electrónico, la administración electrónica y e-salud y e-educación.
Por otro lado, un informe de Bio Intelligence Services (2008) para la Comisión Europea indica que es posible llevar a cabo un ahorro total del 4,6 % de las emisiones de GEI con respecto al nivel de 1990 si se ponen en marcha las acciones que permitan mejorar la eficiencia energética por medio de las TIC.

También, según el reciente informe del GeSI, las TIC podrían en 2020, reducir hasta 5 veces más (7.800 millones de toneladas de CO2) las emisiones que ellas mismas causan, contribuyendo de forma muy significativa a los objetivos buscados. La misma fuente estima que los ahorros previstos por el efecto de las TIC provienen del transporte (2.200 millones de toneladas de CO2) con el protagonismo de los sistemas “inteligentes” de logística, de la construcción (2.400 millones) fundamentalmente de los edificios “inteligentes”, y de la energía (2.100 millones), donde el papel más relevante lo tienen los sistemas que permiten optimizar la eficiencia del sistema de distribución eléctrico.

Además de su efecto sobre sectores concretos, las TIC pueden servir para conectar muchas de las iniciativas dispersas que existen y para darle un sentido a los esfuerzos generales que hacen falta. Por tanto las TIC facilitan con la integración y system thinking, los elementos necesarios para un salto cualitativo como el que se necesita para la reducción de las emisiones de GEI y no meramente un salto incremental.

Si se quiere que las TIC contribuyan a reducir de manera significativa las emisiones de GEI en europa y el mundo, el cometido tiene que enmarcarse en un conjunto de medidas políticas y económicas, y, sobre todo, involucrar un cambio de mentalidad en las personas y las sociedades.

Fuente: Infobaeprofesional.com

Apple esta preparando su servicio de mapas

No cabe duda que Google Maps son una de las aplicaciones estrellas de Google, incluso las grandes ventajas de los smartphones son la posibilidad de geolocalización que ofrece servicios externos al dispositivo, por lo que los Mapas son una de las aplicaciones favoritas de los usuarios del iPhone, y Apple podría tener en mente desarrollar su propio servicio de mapas, después de conocerse la compra de la empresa especializada Placebase.

Placebase
es una compañía especializada en el desarrollo de APIs para integrar servicios de mapas dentro de un navegador. Ahora se ha conocido que Apple la compró el pasado mes de julio, lo cual ha desatado todo tipo de especulaciones.

Lo lógico es pensar que con esta operación, la intención de Apple es desarrollar su propio servicio de mapas y geolocalización para sus teléfonos iPhone y los iPod Touch, tal vez evitando así la dependencia de Google Maps.

De hecho, los productos desarrollados por Placebase son muy similares a los de Google Maps: un servicio de mapas de todo el mundo, navegables y con posibilidad de acercar y alejar el zoom.

La novedad es que la tecnología de Placebase introduce funciones que no se incluyen en Google Maps, como la posibilidad de personalizar los mapas o insertar diferentes capas de información, por ejemplo, datos demográficos de una ciudad o estadísticas de criminalidad.

Para aumentar las especulaciones, en el perfil profesional de LinkedIn del fundador y CEO de Placebase, Jaron Walkman, se informa de que ya no trabaja para su empresa, sino que forma parte del “Geo Team” de Apple.

Pero como siempre sucede con Apple, el secretismo rodea cualquier proyecto o novedad, por lo que la compañía no suelta ninguna novedad de sus intenciones. Será cuestión de esperar.

Fuente: Computerworld.com

Banda ancha en Colombia no esta acorde a la realidad de Internet

Estudio internacional revela que la capacidad técnica de acceso a Internet en América Latina es limitado.

Un informe de la Universidad de Oxford, Inglaterra, y de Oviedo en España, reveló el estado técnico y de capacidad de los accesos de alta velocidad a Internet que se ofrecen en 66 países de todo el mundo, incluida Colombia. Dentro de los resultados se encontró que el desempeño del servicio en América Latina, en general, no está acorde con las necesidades de los usuarios.

Dicho estudio, patrocinado por la empresa de comunicaciones Cisco, en varios países se ofrecen capacidades bajas, lentas, que no están en sintonía con la exigencia de aplicaciones muy populares como el video y las aplicaciones de Internet.

Los expertos desarrollaron el informe según tres criterios: la velocidad promedio de la banda ancha que se ofrece a las personas; la capacidad proyectada hacia futuro y la cantidad de usuarios y aplicaciones multimedia que usan.

En tal sentido, hay países preparados para los requerimientos actuales; listos para afrontar las exigencias futuras y otros que se encuentran por debajo de los requerimientos actuales y futuros.

Sólo nueve naciones (Corea, Japón, Suiza, Lituania, Bulgaria, Holanda, Rumania, Letonia y Dinamarca) cuentan con la infraestructura de comunicaciones justa para ofrecer buena calidad de banda ancha a futuro. 30 países cumplen o están a punto de cumplir con las exigencias actuales de navegación de sus ciudadanos, mientras que 23 naciones (entre esas Colombia) están por debajo de los requerimientos actuales.

Un servicio de banda ancha ágil, estable y suficiente, dice el estudio, se constituye en un diferencial de competitividad importante entre países.

Las universidades gestoras del análisis afirman que, para las necesidades actuales de navegación (video de alta definición, TV, publicación en línea de contenidos multimedia, etc.) se requiere de un servicio de no menos de 3,7 Mbps de capacidad. A la vuelta de cinco años, tal velocidad de la banda ancha debería no ser inferior a 11 Mbps. En Colombia, el promedio de la oferta en el mercado está entre 512 Kbps y 1 Mbps, según la Comisión de Regulación de Comunicaciones.

Fuente: Enter2.0

viernes, 2 de octubre de 2009

Planetario de Medellin celebra sus 25 años mirando al cielo

El miércoles 7 de octubre comienza la celebración de los 25 años del Planetario de Medellín Jesús Emilio Ramírez, con una variada programación de interés para científicos, académicos, estudiantes, empresarios y la comunidad en general.

Estarán como invitados especiales los científicos Helio Rocha, del Observatorio do Valongo en Rio de Janeiro (Brasil) y Giovanni Pinzón, del Observatorio Nacional de Colombia.

La programación gira en torno a la propuesta hecha por la UNESCO y la Unión Astronómica Internacional y busca recuperar el gusto por mirar al cielo, como una fuente de inspiración para la ciencia, la astronomía, biología.

Miércoles 7 de octubre
Hora: 7:00 pm
Lugar: Auditorio Planetario
Cielo de verano - Fundación EPM
Conferencia "La vida en el Universo (condiciones únicas de la tierra para la vida)" PhD Helio Jacques Rocha Pinto

Jueves 8 de octubre
Hora: 2:00 pm
Lugar: Auditorio Planetario
Instalación del evento "25 años del Planetario". Milena Isabel Patiño. Vicerrectora Académica ITM

2:15 pm
Lugar: Auditorio Planetario
Workshop: "Celebrando los 25 años del Planetario y planeando los 50"
• MSc Silvia Jimenez, Académica, Centro de Investigaciones
• ING William Lalinde, Sociedad Julio Garavito
• PhD Jorge Iván Zuluaga
• MSc Claudia Aguirre, Parque Explora
Foro - Debate

6:30 pm
Lugar: Auditorio Planetario
El cielo de verano - Fundación EPM
Conferencia: "Planetas extrasolares"
Oferente: PhD Jorge Ivan Zuluaga, Universidad de Antioquia

Viernes 9 de octubre
3:00 pm - 7:00 pm
Lugar: Auditorio Planetario
Jornadas Académicas, conferencias en Astrobiología y Planetas extrasolares
• PhD Helio Jacques Rocha Pinto, Observatorio do Valongo,
Universidad Federal do Rio de Janeiro.
• Físico Juan Fernando Duque, Universidad de Antioquia
• PhD Giovanni Pinzón. Observatorio Nacional de Colombia

7:00 pm -9:00 pm
Lugar: Palco parque de los deseos
El Cielo de Verano - Fundación EPM
Panel Académico con el tema: "Cielos Claros y cielos oscuros"
Invitados: Mauricio Ochoa, Universidad de Antioquia
León J. Restrepo Quiroz, Universidad San Buenaventura
Giovanni Pinzón, Observatorio Astronómico Nacional

Sábado 10 de octubre
10:00 am
Lanzamiento de cohetes y construcción de modelos del transbordador espacial

jueves, 1 de octubre de 2009

Ley de TIC en Colombia


Hace poco el presidente de la república Álvaro Uribe Vélez decretó la Ley 1341 del 30 de julio de 2009 que le garantiza a Colombia un marco normativo claro para el desarrollo del sector de Tecnologías de Información y Comunicaciones, promueve el acceso y uso de las TIC a través de la masificación, garantiza la libre competencia, el uso eficiente de la infraestructura y el espectro, y en especial, fortalece la protección de los derechos de los usuarios.

Luego de 10 años y seis proyectos de ley, el sector de las telecomunicaciones recibe con gran satisfacción la Ley TIC que brinda un marco legal consistente con la convergencia tecnológica que genera nuevas oportunidades de negocio para los proveedores de redes y servicios de telecomunicaciones, introduce en el país el principio de neutralidad tecnológica, crea la Agencia Nacional del Espectro para la gestión, planeación, vigilancia y control del espectro radioeléctrico y fortalece la Comisión de Regulación de Telecomunicaciones. Así mismo, promueve el desarrollo de contenidos y aplicaciones y la formación de talento humano en estas tecnologías.

La nueva Ley 1341 "Por la cual se definen principios y conceptos sobre la Sociedad de la Información y la organización de las Tecnologías de Información y Comunicaciones" permite a los operadores prestar cualquier servicio que técnicamente sea viable, pone en igualdad de condiciones a los operadores en el momento de prestar dichos servicios y hace especial énfasis en la protección de los usuarios de telecomunicaciones. En adelante los ciudadanos que tengan quejas en la prestación de servicios de telefonía móvil, internet o telefonía fija, podrán acudir a la Superintendencia de Industria y Comercio, única entidad encargada de resolver sus reclamaciones.

La Ley TIC es consistente con la políticas de Estado de largo y mediano plazo, como son la "Visión Colombia II Centenario- 2019" y el Plan Nacional de Desarrollo 2006-2010 "Hacia un Estado Comunitario."

Mas info: http://www.mincomunicaciones.gov.co