jueves, 27 de noviembre de 2008

Blu-ray 3D doméstico en 2010

Panasonic quiere revolucionar la tecnología del hogar con el Blu-ray 3D que mostró como su gran lanzamiento este año en CEATEC en Japón. Su reto ahora es que Blu-ray dé el paso definitivo hacia su consagración masiva. Esta semana ha hecho oficial su intención de ser el primero en tecnología 3D.

Panasonic está empeñada en que el Blu-ray triunfe aunque, en un principio, no está tan claro. La empresa ha hecho oficial esta semana el mensaje de querer ser la primera compañía en desarrollar el Blu-ray 3D para ámbito doméstico. No obstante, no ha dicho nada sobre el próposito de la BDA de crear un estándar para el nuevo Blu-ray 3D.

El objetivo principal de Panasonic es crear un estándar 3D con imagen HD Full en dos canales. Para este nuevo formato que desarrollará la empresa japonesa se necesitará un nuevo tipo de cable HDMI (High Definition Multimedia Interface) adaptado a las imágenes tridimensionales. La idea es que el auge de la televisión tridimensional le ayude a llegar a ser el primer estándar de este tipo en el mercado.

Sin embargo, la BDA no se lo pondrá fácil puesto que ha advertido que está trabajando rápidamente para crear su estándar y lograr ser los primeros. No obstante, la historia tecnológica nos dice que llegar el primero no siempre significa ser el ganador...

Norton Antivirus Gaming Edition


El fabricante de antivirus Norton, propiedad de Symantec, ha lanzado una versión de antivirus con todas las garantías de un producto de seguridad para los aficionados a los juegos. La aplicación dispone de un modo de juegos que impide que el usuario sea interrumpido en su partida por mensajes del antivirus y detiene los procesos hasta que termine la sesión.

Norton Antivirus Gaming pensado en los gamers que constantemente tienen que soportar mermas en el rendimiento de sus juegos y molestos mensajes de advertencia durante mucho tiempo, finalmente se han puesto de su lado para desarrollar una versión especial de su antivirus diseñado especialmente para ellos.

Esta versión dispone de un modo de juegos que bloquea los mensajes de advertencia, de actualizaciones y otros avisos. Esta función se activa automáticamente cuando jugamos y vuelve a la normalidad cuando salgamos del juego. También es posible detener manualmente todas las tareas del antivirus que se ejecutan paralelamente al juego y reanudar cuando terminemos. De esta forma el juego se ejecutará de forma más rápida y no se interrumpirá con mensajes al mismo tiempo que se mantiene la seguridad del sistema.

Más información | http://www.symantec.com

miércoles, 26 de noviembre de 2008

MD de cuatro núcleos en el 2010



AMD
lanzará en 2010 sus primeros microprocesadores para ordenadores portátiles de cuatro núcleos, los cuales vendrán además con otras sorpresas en forma de CPUs de 32 nanómetros para ordenadores de sobremesa. Todo esta información ha sido presentada por AMD a modo de road map, para dar a conocer sus planes a un medio/largo plazo.


Las CPUs Quad-Core de AMD para portátiles llegan muy tarde, demasiado. Intel ya lanzó en agosto del 2008 dos microprocesadores también de cuatro núcleos, y también enfocados a su uso en portátiles. Son los Core 2 Quad Q9100 y QX9300, pertenecientes a los Centrino 2 que, aunque no se ven en muchos portátiles, existir existen.

Los últimos lanzamientos de Intel, tanto la plataforma Montevina Centrino 2 completo como los Intel Core i7 para sobremesa, han creado una brecha muy grande entre los dos fabricantes. Sin embargo, donde AMD lo está haciendo mucho mejor que Intel es en la búsqueda del equilibrio entre consumo y potencia. Hacer microprocesadores que son mucho más eficientes energéticamente, y además, gracias a que no son lo más potente del mercado, resultan bastante asequibles economicamente al mercado.

Cisco System afectada por la crisis mundial

La famosa empresa de equipos de telecomunicaciones Cisco System cerrará sus puertas cuatro días durante la época navideña, una señal inequívoca de que hasta las más grandes de la tecnología están afectadas por la crisis económica. El objetivo segun sus voceros, es ahorrar 1.000 millones de dólares en costes operativos durante estos 4 dias.

La empresa está perdiendo fuerza comercial en los últimos meses debido a la crisis, y por ejemplo medios como The New York Times han señalado que el negocio ProCurve de HP está convirtiéndose en un rival muy importante para Cisco, que se está viendo perjudicado por esa rivalidad.

Esta y otras razones han hecho que suceda algo insólito en la empresa: durante los últimos días del año Cisco apagará todos sus sistemas según un informe de UBS Research. De hecho se esperaba un evento anual para esa época, pero también se ha retrasado su organización. Con estas medidas Cisco pretende ahorrarse 1.000 millones de dólares, aunque eso sí, garantizan que sus clientes críticos seguirán estando cubiertos por sus servicios.

Firefox 3.1 tendra otra Beta

Aún se rumora que Firefox 3.1 todavia no esta a punto para salir al mercado, por lo que Mozilla y su grupo de desarrolladores han informado de que el navegador aun tendría 3 betas antes de su lanzamiento final.

Las razones por las cuales se agrega un tercer beta es con el fin de identificar los posibles errores de la segunda beta (que se espera sea lanzada a comienzos de Diciembre) e incrementar las pruebas de las nuevas características que incluirá el nuevo explorador, como el motor de JavaScript (GreaseMonkey) y el modo de navegación segura que ya incluye Chrome y IE.

Claro que la inclusión de una beta extra en el calendario no se traducirá en un retraso de la publicación final de Firefox 3.1, el cual se mantiene en forma inalterable hacia finales del cuarto mes del año 2009

Según Mike Beltzner, responsable del desarrollo de esta versión, las mejoras introducidas en la versión 3.1 del navegador se beneficiarán con esta beta extra y así lograr un mejor producto final y poder competir por la cuota de usuarios que viene ganando Chrome, Safari y su primer competidor IE.

lunes, 24 de noviembre de 2008

Nikola Tesla, el genio invisible

Este extraño personaje que fue Nikola Tesla se adelantó tanto a su tiempo, sus inventos fueron tan extraordinarios y sus contactos extraterrestres tan increíbles, que muchos creyeron ver en él a un ser venido de otro planeta, más precisamente, de Venus.

Nikola Tesla nació en la zona de los Alpes, en Croacia el 9 de julio de 1856. Hijo de un pastor de la Iglesia y de una mujer muy famosa en la región por su extraordinaria inteligencia, una mujer que -por ejemplo- tenía una memoria fotográfica y recitaba de memoria miles de poemas servios y pasajes bíblicos.

Este extraordinario inventor fue básicamente un “descubridor de nuevos principios”. Fue el inventor de los generadores de corriente alterna multifásica que hoy iluminan todas las ciudades del mundo.

Fue el inventor original de la radio, hecho que registró en papeles y demostró públicamente cinco años antes que Marconi. También a comienzos de éste siglo discutía la factibilidad de lograr la televisión tal como la concebimos hoy y que apareció masivamente después de su muerte.

Creó también un desintegrador atómico capaz de evaporar rubíes y diamantes.

Construyó lámparas de neón sin hilos, que daban más luz que las actuales.

Entre sus fabricaciones se cuentan también los precursores de los actuales microscopios electrónicos, las fotografías láser y lo que el llamó las “sombragrafías” que no eran otra cosa que las placas logradas con Rayos X, que mando en 1895 a Roentgen, el descubridor de estos rayos, quien pudo constatar la similitud de las placas que había logrado, con las que mucho tiempo antes Tesla usaba.

También 75 años antes de que el gran investigador Kirliam diera su nombre a la máquina capaz de fotografiar el cuerpo energético de seres vivos y plantas, Nikola Tesla experimentaba con ella.

Todos estos excelentes inventos los logró antes del 1900.


Nikola Tesla murió en 1956, a los 87 años de edad.

Trabajo muy cerca de Thomas Edison, vendió sus patentes en un millón de dólares a George Westinghouse, fue gran amigo del escritor Mark Twain y contó con el apoyo financiero de J.P. Morgan, el magnate de su época; pero aún así, muy poca gente ha escuchado hablar de él; incluso se lo conoce más por la literatura ocultista que por sus inventos.

Y cuando hablo de su relación con el ocultismo, me refiero específicamente a la versión de su nacimiento venusino, apoyada esta creencia en la capacidad psíquica de Tesla, su celibato y sus contactos extraterrestres registrados en 1900; además de su capacidad inventiva adelantada a su tiempo.

Después de su muerte, en 1956, la escritora Margaret Storm en su libro “Retorno del Ave” y refiriéndose a Tesla decía que fue un hombre que “cayó a la Tierra” con la misión de iluminar a la humanidad y traer la automatización.

Tesla, por su parte, se reía de la parapsicología y el espiritismo y afirmaba que el hombre es una máquina. Atendía su cuerpo con lo que llamaba “principios de ingeniería”, seguía una dieta vegetariana y dormía solamente tres horas diarias.

Entre las proezas, se cuenta que miles de voltios eléctricos pasaron por su cuerpo para encender lámparas, explotar discos de plomo y derretir trozos de metal que sostenía en su mano, mientras la electricidad actuaba en él.

Creó también un disparador de 135 pies con ruido de trueno incluido, además de inventar el robot de control remoto, mucho antes que Marconi experimentara con ondas de radio, en 1890.

Nikola Tesla almacenaba todo en su cerebro. Ya en la escuela se destacaba porque resolvía los problemas matemáticos siempre en forma mental y ya de adulto, diseñaba sus inventos visualizándolos, y llevándolos a la práctica muchos años después directamente, sin bosquejos previos.

En determinado momento de su vida, debido a su tozudez en finalizar todos los proyectos que había iniciado, su sistema nervioso decayó y sufrió un colapso físico total.
Su supersensibilidad magnificaba su poder receptivo miles de veces. Fue así que sus agotados nervios se estremecían a la vista de la luz solar o ante el ruido del tráfico; incluso no soportaba el zumbido de las moscas o el tic-tac de un reloj ubicado en una habitación vecina, ya que esos pequeños ruidos, en su cerebro, retumbaban como puede retumbar en nuestras cabezas una gran explosión.
En ese momento de gran sensibilidad aseguraba que podía encontrar objetos en la oscuridad con la ayuda de una luz en su mente.

Luego, ya repuesto de este colapso, mientras realizaba una de sus primeras caminatas junto a un amigo, cayó en trance mientras recitaba el Fausto de Goethe. Cuando salió de su trance, se encontraba en un estado de completo éxtasis, ya que había descubierto el secreto para conducir la corriente alterna.

Su amigo y autor de la única biografía de Tesla, el Premio Pulitzer John O’Neill relata que en el momento del descubrimiento, Nikola Tesla le decía al amigo que lo acompañaba: ”Estoy hablando de mi motor eléctrico. He resuelto el problema. ¿No lo ves, aquí delante mío, marchado silenciosamente?. Es el campo magnético rotativo lo que lo mueve. ¿No es hermoso? Y tan simple!. Mi motor liberará al hombre, haciendo todo el trabajo del mundo” (Por supuesto que la visualización del invento era solamente de él, que tenía grandes dificultades, para separar sus imágenes interiores de la realidad).

En 1884 Nikola Tesla llegó a Nueva York con menos de un dólar en el bolsillo (ya que le habían robado el equipaje), un libro con sus poemas y una carta de recomendación.

En esa época Edison era ya famoso mundialmente, y Nikola Tesla ansiaba trabajar junto a él, lo que consiguió; pero lo que no pudo, fue convencerlo de que usara su motor de corriente alterna, en vez del pesado motor de corriente continua que vendía la compañía.

Como Edison no estaba dispuesto a renunciar al uso de su descubrimiento, aunque la aplicación de la corriente alterna de Tesla (que es, recordemos, la que usamos hoy) fuese más efectiva, hubo un choque de personalidades que terminó con el trabajo en conjunto.

Con el correr del tiempo, Nikola Tesla se fue popularizando en los medios científicos y
técnicos. Daba elegantes cenas en el Waldorf Astoria, supervisando personalmente la cocina y luego invitaba a sus comensales a visitar su laboratorio y ver sus recientes inventos. Su biógrafo O’Neill describe así su laboratorio: “Es un lugar consistente en una serie de fuerzas, aparentemente ultraterrenas, que con dedos invisibles ponen objetos en movimiento y hacen brillar con colores raros y resplandecientes a los tubos de ensayo, transformando la habitación oscura en otra distinta, llena de sibilantes llamas generadas en monstruosos calderos”.

Tenía un dispositivo inalámbrico para producir electricidad por medio de vibración sincronizada.

Presentó, por ejemplo, un barco de juguete accionado por control remoto en el Madison Square Garden, adelantándose en 50 años a las bombas alemanas V-1 y V-2 accionadas por control remoto.

Nikola Tesla, un hombre de gran visión, pensaba que si podía iluminar por inducción una lámpara a una distancia de 3 o 4 metros; también podía repetir la experiencia en gran escala, poniendo a toda la Tierra en oscilación, logrando así que la luz y la energía mundial fuesen gratuitas para toda la Humanidad, por medio de sincronizadores similares a nuestras actuales radios de transistores.

En 1893, en la Asociación Nacional de Energía Eléctrica, Nikola Tesla decía: “La idea de transmitir información en forma inalámbrica es la consecuencia directa de los más recientes logros … Ahora sabemos que las vibraciones eléctricas pueden transmitirse a través de un solo conductor. ¿Porqué no tratamos entonces de servirnos de la Tierra con ese propósito?. Un punto de importancia sería saber cual es la capacidad inductiva de la Tierra y que carga tendría al electrificarse”.

En 1891 inventó una lámpara que usaba la misma cantidad de corriente que la de Edison (de filamento incandescente), pero daba veinte veces más luz.
Su lámpara era un tubo de vidrio con un trozo de carbón fijado a un alambre, en el centro. Adentro había aire rarificado. Al electrificarse el carbón las moléculas de aire eran repelidas por el botón central, rebotaban contra la esfera y volvían nuevamente al centro; el carbón se calentaba, volviéndose incandescente.

De esta manera lograba las altas temperaturas con la que logró derretir rubíes y diamantes y que fue el principio para que años más tarde creara lo que el denominó “el rayo de la muerte” que según Tesla, podía hacer rebotar un rayo en la Luna y hoy sabemos que era el antecesor del Rayo Láser.

Viéndo a la Tierra como a una gran lámpara, Nikola Tesla realizó el experimento más increíble de la historia registrado antes de 1945.

Usando sus generadores y transformadores logró producir energía con un exceso de 4.000.000 de voltios.

Enviando alto voltaje a un mástil de 70 mts. creó el equivalente de docenas de rayos con un ruido ensordecedor. No solo fabricó un Polo Sur artificial en el lado opuesto de la Tierra; produciendo las oscilaciones mundiales que había previsto, sino que logró encender lámparas ubicadas a 40 kms. de su laboratorio. Este experimento hizo volar la usina de Colorado, lo que lo alejó de la comunidad, que lo empezó a mirar como a un ser peligroso.



Pero lo que lo convirtió en un alienado para la sociedad, fueron sus contactos extraterrestres. Cierto día, mientras se encontraba solo en su laboratorio, sus equipos recibieron una señal codificada; como aún no existían las estaciones de radio, la única explicación era una comunicación interplanetaria, que Tesla juzgó provenía de Marte o de Venus.

En 1901 escribió un artículo titulado “Hablando con los planetas”.
Cuando se inicia el siglo XX , Nikola Tesla volvió a Nueva York con una decisión tomada: Su plan de distribución gratuita a nivel mundial de energía.

Diseñó gigantescas emisoras, suponiendo que seis de ellas bastarían para proveer de electricidad inalámbrica y transmisión telefónica a todo el mundo.

Pero para este colosal emprendimiento necesitaba forzosamente un caudal importante de dinero, por lo que negoció con J.P. Morgan, quien le dio a Tesla u$s 150.000 a cambio del 51% de todas las patentes de su invención y las futuras estarían a nombre de Morgan y como Tesla estaba decidido a dar forma a su proyecto sacrificó sus ansias de fama y dinero en pos de su altruista plan.

Fue así que comenzó la construcción de Wardenclyffe en Long Island, el 3 de julio de 1901, cuando estaba por cumplir sus 45 años de edad.

La obra fue dirigida por Stanford White, el diseñador del Arco de Washington. Estaba prevista una torre de 65 mts. con una terminal esférica de 20 mts. de diámetro encima; pero los altos costos llevaron a no poder continuar la obra.
Entre octubre de 1903 y febrero de 1906 escribió más de
10 cartas a Morgan pidiéndole dinero para completar el proyecto; pero el magnate se ajustó a lo estipulado en el contrato firmado y le negó la ayuda económica.

Así fue que el quebranto económico y el mísero contrato firmado con Morgan no le permitieron completar la construcción de Wardenclyffe y lo privaron de su meta de entregar a la Humanidad toda, la energía necesaria, totalmente gratis.

No hay dudas que Nikola Tesla era un psíquico. Su memoria fotográfica, sus posibilidades de visualización y su fisiología supersensible lo ubican en una categoría única.

Cuando viajó a Europa en 1890 por la muerte de su madre tuvo la oportunidad de mantener interesantes charlas con el famoso parapsicólogo Williams Crookes y esos diálogos lo llevaron a creer en la telepatía y en la vida después de la muerte; pero ni siquiera la visión de la aparición de su madre el día en que murió le cambió (ni siquiera en el último minuto de vida) su “racionalismo científico”. A pesar de que sus inventos le llegaban como revelaciones, nunca se creyó metapsíquico.

Su contacto extraterrestre le dio fama entre los ocultistas y se tejieron leyendas sobre su nacimiento en una nave espacial y una herencia venusina.

La semana de su muerte tuvo una visión de su amigo Mark Twain e insistió en que se encontraba vivo, a pesar de haber muerto 25 años antes.

Aunque su patria natal le proveía una pensión de u$s 7.500 anuales y lo proclamó héroe nacional, Nikola Tesla murió en la extrema pobreza.

Su amigo John O’Neill autor de su biografía “Genio Prohibido” cuenta que Nikola Tesla murió en soledad y pobreza, pero interiormente satisfecho consigo mismo.

Sus obras sacaron a la humanidad del primitivismo y dieron al hombre una libertad tecnológica que nadie pensaba se podía lograr.

Lamentablemente, la avaricia ajena y los prejuicios de su época entorpecieron su gran proyecto, su meta altruista que hubiera permitido a toda la Humanidad contar con energía gratuita y permanente en todos los rincones del planeta.

Hoy nadie recuerda y muy pocos conocen a este ser, adelantado a su época, a quien le debemos muchos de los elementos que hoy disfrutamos.

Nikola Tesla, tal vez, un ser no-humano que llegó para cumplir una importante misión, como fue brindar a la Humanidad adelantos técnicos y utopías que todavía se pueden realizar.

Tomado de: Mazar Blog

miércoles, 19 de noviembre de 2008

Semana del Emprendimiento en Colombia

Estudiantes, profesores, empresarios, líderes de negocios, líderes sociales, miembros del gobierno y emprendedores se darán cita, entre el 18 y 22 de noviembre, en varias universidades y sedes de la ciudad de Bogotá para celebrar la Semana Global del Emprendimiento, trabajar en redes y conectarse con el mundo. Este evento, que se realizará en forma simultánea en 75 países del mundo, busca “generar nuevas ideas y mejores formas de construir el futuro”.

Colombia, durante los cinco días, ofrecerá 60 eventos que en su mayoría se realizarán en Bogotá; no obstante, otros departamentos como Boyacá y Nariño se unirán a este evento que, en nuestro país, pretender promover el emprendimiento, articular iniciativas y capitalizar intereses.

Esta es la primera vez que Colombia se une a esta iniciativa global, enmarcada en un compromiso público y privado en pro del desarrollo de los sectores económicos más importantes del país y de impulsar el emprendimiento como una de principales herramientas para promover el crecimiento económico.

El impulso al emprendimiento es una de las principales herramientas para promover el crecimiento económico de nuestro país. El desarrollo de esta semana, en simultánea con más de 75 países alrededor del mundo, es un gran logro, pues pone a Colombia en sintonía con las acciones globales articulando intereses, fortaleciendo el desarrollo de políticas y elevando el interés de las organizaciones mundiales por promover el emprendimiento en nuestro país en favor del desarrollo empresarial”, destacó Gaia de Dominicis, directora de Endeavor Colombia.

En el nivel internacional, la Semana Global del Emprendimiento fue fundada y es coordinada por la Fundación Kauffman (Estados Unidos) y la organización Make your Mark (Reino Unido). En Colombia, este evento ha sido promovido por las principales organizaciones públicas y privadas que están alrededor del emprendimiento.

En el ámbito privado se destacan la Fundación Endeavor Colombia; el programa Destapa Futuro, de Bavaria; la Fundación Colombia Emprendedora, de Junior Achievement; la Fundación Corona, a través del programa Jóvenes con Empresa; la Revista Dinero, mediante el concurso Ventures; la Cámara de Comercio de Bogotá; Crea-me, Incubadora de Empresas de Base Tecnológica de Antioquia, y la ANDI. De parte de la academia están liderando esta iniciativa las universidades de Los Andes, EAN, Javeriana y Eafit.

Dentro de las organizaciones públicas del país, la Semana Global del Emprendimiento cuenta con el apoyo y liderazgo del Ministerio de Comercio, Industria y Turismo, el SENA, el programa Colombia Joven y las Redes Regionales de Emprendimiento de los departamentos de Nariño, Atlántico y Risaralda.

“La Semana Global del Emprendimiento nos permitirá conectarnos a través de actividades globales, nacionales y locales diseñadas para ayudarnos a explorar y explotar el potencial como emprendedores, empresarios e innovadores. Durante cinco días, millones de personas alrededor del mundo estaremos integrados por el espíritu emprendedor”, puntualizó Gaia Dominicis.

Mas información | http://www.semanadelemprendimiento.com/

Conferencia sobre Inclusión Digital

Desde Radio Altair nos encontramos con una magnifica conferencia en streaming de Orlando Rincon, presidente del ParqueSoft de Cali, que con un lenguaje sencillo se dictó una conferencia sobre el “Primer Encuentro de Inclusión Digital del Oriente Antioqueño

Aquí habló de las políticas del gobierno, las infraestructuras y la brecha digital entre los educadores y los estudiantes; también habló sobre el evidente atraso del país con relación a otros paises.

Descargar Podcast | Radio Altair

Apple Store en Medellin

Finalmente Medellin tiene su tienda oficial Apple Store.
Desde el 7 de Noviembre en el Centro Comercial San Fernando Plaza Local 1-140 (Carrera 43a #1-50) se encuentra disponible una tienda oficial de Apple vendiendo todos sus productos.

Entre los productos que podemos encontrar estan: Macbooks Pro, Macbooks Air, Mac mini, iMac, Apple TV, iPods de todos los sabores, Accesorios, Software de Apple y hasta un Apple Cinema de 30 Pulgadas donde puedes probar todos los productos sin compromiso.

Para los seguidores de Mac en Medellin ya pueden encontrar una tienda de Apple al alcance de todos.

Mas fotos aqui: iStore Medellin

Empresas le apuestan al Open source

Las últimas cifras se hallan en una investigación que realizó la consultora Gartner, de la que enteró gracias a Siliconnews.es, donde se encuestó a 274 empresas de Europa, América del Norte y Asia. Encuestas que después de ser analizadas, arrojaron que el 85 por ciento de las empresas utiliza plataformas Open Source en la actualidad.

¿Interesante no? Sí, ya que es una porcentaje que ha ido aumentando con los años y que permite pronosticar el buen futuro que le espera al código abierto. Cabe añadir que el restante 15 por ciento de la compañías que no usan éste, esperan implementarlo durante el 2009.

Cuando se habla de open source, que en español significa código abierto, se hace referencia al software que se distribuye y desarrolla de forma libre. Remitiéndome a Wikipedia, éste fue utilizado por primera vez en 1998 por algunos usuarios de la comunidad del software libre, tratando de usarlo como reemplazo al ambiguo nombre original en inglés del software libre (free software).

Lo cierto es que una de las razones por las que las empresas escogen usar este software es el bajo costo que posee, pero no se puede olvidar que éste también cuenta con otras características como la rapidez y el hecho de que no existe un único proveedor y , por lo tanto, no hay que casarse con ninguno.

Jonathan Schwartz, actual director ejecutivo de Sun Microsystems, opinó que “El atributo más importante del open source es que representa un vehículo para presentarse al mundo, no hay resistencia para la introducción, pues es gratis”. Cita a la que hace referencia Fabio Víquez, quien hace un completo análisis de lo que representa la apuesta de software de Sun Microsystems.

Vale decir, que la encuesta también concluyó que el 69 por ciento de las empresas consultadas no cuentan con una política formal para usar estos sistemas. Llegado a este punto, es necesario que se establezca una reflexión entorno a la importancia no solo de las ventajas que tiene implementar una plataforma de código abierto, sino también las nuevas necesidad que esta acción con lleva.

¿Y en América latina?


En Latinoamérica ocurre algo similar. Incluso en una charla que diferentes periodistas latinoamericanos tuvieron con Marten Mickos, exdirector ejecutivo de MySQL, le preguntaron éste ¿Qué potencial hay en Latinoamérica para ustedes?, a lo que respondió: “Latinoamérica es como un dulce para nosotros”.

Nada, pues, más ilustrativo, porque al igual que miel que representa el mejor manjar para las abejas, Latinoamérica se convierte en un territorio perfecto para las apuestas de Open Source. Y a esto, ha apuntado MySQL, ya que como dijo Arnö, vocero de esta compañía, al diario digital Ebizlatam.com: “No es al azar que lleguemos a Argentina”. Precisando que para él Latinoamérica es “una región con fuerte presencia del Open Source y destacó como fortaleza para mejorar el posicionamiento en los nuevos mercados que el producto se ofrece en el idioma local”.

Para complementar esto, como se escribe en este mismo artículo, Del Ruiz, Sr. Account Manager MySQL Latin America opinó que “China, India y Latinoamérica son los que más demandan Open Source”.

Vislumbremos, entonces, el futuro del Open Source, pero apoyemos para ello en este video, donde Richard Stallman habla de forma lenta pero con gran sentimiento del movimiento del software libre y GNU/Linux. (Antes del final se enoja un poco y resulta muy simpático. También habla de su preocupación por la vigilancia a través del celular ).

Hay que tener en cuenta que la diferencia que existe entre Open Source y Software libre, son muy ligadas, segun como dice el quote popular: “El software libre y el código abierto tienen diferentes definiciones, pero no vas a encontrar un sólo programa que sea una cosa y no la otra, porque en la práctica coinciden”.



Fuente: Pulsosocial.com

martes, 18 de noviembre de 2008

El archivo secreto de Time ahora en Google

TimeWarner y Google han anunciado que a partir de hoy se pondrá a disposición en Internet millones de fotografías del archivo de la mítica revista LIFE. La gran mayoría (97 por ciento) de estas imágenes no han sido nunca publicadas ni vistas por el público. La mayoria son fotografias fisicas que han sido escaneadas y organizadas por Google.

Las fotos estarán disponibles también en los resultados de las búsquedas de Google.com y Google Imágenes. Todas estas fotografías están disponibles en alta resolución (5 y 6 megapíxeles). Actualmente hay disponibles 3 millones de imágenes, pero muy pronto se añadirán unos 7 millones más. Las imágenes son libres para uso personal o para fines de investigación.

Es una verdadera delicia dar una vuelta por el archivo. Me puse a buscar fotos de Medellin, Bogota, México, Venezuela, Chile y España. Con resultados increíbles, fotos históricas nunca vistas y alguna que otra obra maestra de la fotografía.

Buscando un poco encontré un set de fotos de la Nasa de 1960 alucinante, nunca lo había visto. No te pierdas las fotos del Himalaya y las de Marilyn Monroe.

Si encuentras alguna fotografía que quieras compartir, puedes dejar el enlace en los comentarios. Hay tantas cosas buenas que muchas personas descubrirán pequeñas joyas.

Enlace: LIFE photo archive hosted by Google | Vía: Google Blogoscoped

domingo, 16 de noviembre de 2008

Ya llega el IPv6

En mayo de este año, el ICANN, organismo internacional responsable de la asignación de direcciones del protocolo IP, hacía público que la previsión para el agotamiento de las direcciones IPv4 se sitúa entorno al año 2011. A día de hoy, tan solo queda un 15% del total de direcciones IPv4 disponibles y éstas van disminuyendo a un ritmo frenético. ¿Qué solución existe?

LA OPINIÓN DEL EXPERTO


La solución es un nuevo protocolo para dotar de más direcciones IP a Internet, el IPv6. Ya en 1992, la organización internacional encargada de estandarizar todos los aspectos técnicos de Internet (IETF) determinó que era necesario un nuevo protocolo IP ya que el crecimiento que se vislumbraba de Internet hacía saltar algunas alarmas.

Tras varias propuestas, en julio de 1994 se constituyeron las bases del protocolo que hoy en día se conoce como IPv6, llamado por esa época SIPP (Simple Internet Protocol Plus). La principal razón por la que se impulsó el IPv6 era la necesidad de más direcciones IP. El uso de direcciones privadas gracias al NAT y la asignación dinámica de direcciones públicas mediante el protocolo PPP han sido una solución para la escasez del espacio de direccionamiento IPv4 durante los últimos años.

No obstante, la creciente demanda de direcciones IP sufrida últimamente requiere otras soluciones. Es necesario implantar IPv6 lo antes posible. La necesidad de conectividad de nuevos usuarios en países emergentes como China o India ha disparado el consumo de direcciones IP. El problema es tan grande en algunos de ellos que se ven forzados a buscar soluciones para acelerar el cambio; China ha creado el programa China Next Generation Internet para la adopción temprana de IPv6.

La existencia de tecnologías como el ADSL y el cable, conectadas día y noche, hace que la asignación dinámica de direcciones ya no tenga sentido. Y la aparición de nuevos dispositivos con capacidades de conexión tales como teléfonos móviles, agendas PDA, electrodomésticos o coches, por poner algún ejemplo, a parte de los que vendrán en un futuro nada lejano, ha terminado acelerando la necesidad de más direcciones. Ya no se puede esperar más.

¿Qué aspecto tiene una dirección IPv6?

El aspecto de una dirección IPv6 es bastante diferente al de una dirección IPv4. Una dirección IPv4, que puede tener 2 elevado a 32 valores posibles, se representa mediante la unión de cuatro bloques de números que van del 0 al 255 mediante un punto, es decir, por ejemplo 192.0.2.1.

En cambio, una dirección IPv6 se representa mediante la unión de ocho grupos de cuatro dígitos hexadecimales mediante dos puntos (:), por ejemplo 2001:0db8:34bd:12fe:0121:ab74:6234:0dc1. Esto significa que una dirección IPv6 puede tener hasta 2 elevado a 128 valores posibles, aproximadamente 340 sixtillones de direcciones. ¡Nos tocan aproximadamente unos 50.000 cuatrillones de IPs por cada habitante del planeta! Con el IPv4 no llegábamos ni a una, de ahí el problema.

Visto esto, es evidente que la memorización de direcciones IP es una práctica que carece de todo sentido con el nuevo direccionamiento. El uso del DNS va a ser algo más vital, si cabe, de lo que lo ha sido con IPv4.

Otras ventaja
s

A parte de una mayor capacidad de direccionamiento, IPv6 incorpora muchas más ventajas. Una de las más conocidas es la auto configuración de la red, es decir, los equipos son capaces de determinar su dirección IP de forma automática y sin necesidad de un servidor adicional.

Para ello, hay diferentes mecanismos, pero uno de ellos es el de construir la IP utilizando la dirección MAC de la tarjeta de red. Por este motivo y por otros, la subred mínima estándar que se define en una red de área local tiene una máscara de 64 bits, lo que supone un total de 264 IP disponibles; unos 18 trillones de IP que están muy lejos de las 256 que teníamos en una clase C.

Esto tiene muchas implicaciones a la hora de gestionar una red de área local, pero una que sin duda agradecerán muchos es la imposibilidad de realizar escaneo de puertos, lo que evitará muchos sustos.

Otra ventaja es la implementación de IPSec en la misma pila del protocolo, lo que garantiza la posibilidad de configuración de conexiones seguras en cualquier tipo de dispositivo, ya que es obligatoria su implementación en todos ellos.

Los mecanismos de movilidad también han sido mejorados y ahora son mucho más eficientes que los que se definieron en IPv4 y que prácticamente nadie ha llegado a implementar nunca. Esperemos que esta ventaja pueda hacer que finalmente podamos llegar a ver la tan esperada IP móvil.

En IPv6 todas las direcciones globales son públicas, y esto facilita las conexiones extremo a extremo y con protocolos con los que hay problemas utilizando NAT, concepto que desaparece en el nuevo protocolo. La desaparición del NAT mejorará las actuales prácticas de seguridad; éste, a diferencia de lo que muchos creen, compromete la seguridad de Internet, así como sus prestaciones y manejabilidad.

En cuanto al rendimiento, IPv6 es más eficiente que IPv4. Se ha simplificado la cabecera del protocolo y se la ha dotado de algunos mecanismos como el etiquetado de flujo y un mejor soporte a opciones y extensiones. Sin embargo, la capacidad de la red IPv6 es aún menor que la IPv4 debido a una menor implementación del protocolo en todas las redes, lo que provoca en algunos casos unas latencias mayores. Esto, sin duda, irá cambiando a medida que dicha implementación avance.

Despliegue actual

Aunque el despliegue de IPv6 debería ser mayor, su desarrollo va en aumento y cada vez son más los operadores y proveedores ISP que ofrecen servicios comerciales. En España solo 24 operadores tienen asignado direccionamiento IPv6, lo que representa un 12% del total, y de éstos no todos tienen implementado el protocolo en su red. Este porcentaje se sitúa por debajo de la media europea, que es del 17%.

En cuanto a equipos y sistemas operativos, prácticamente todos los fabricantes importantes soportan IPv6 en sus productos, algunos incluso desde hace más de tres años. Este soporte es en muchos casos por defecto, como en el caso de Linux o Windows Vista, y en otros es necesario activarlo o realizar una actualización de firmware, pero en cualquier caso, cada vez es más difícil encontrar equipos o sistemas que no tengan este soporte.

No obstante, aún quedan muchas tareas pendientes. Es necesaria la implementación de todos los servicios disponibles en la actualidad sobre IPv6; webs, correo electrónico, ftp, etc. Muchos portales ya lo han hecho (ej. http://ipv6.google.com), pero aún queda la gran mayoría. Los operadores e ISP, más allá de implementar el nuevo protocolo en su red, necesitan desarrollar herramientas de gestión y monitorización para este nuevo escenario.

La formación del personal técnico es de suma importancia; IPv6 no son sólo más IP, se trata de un protocolo nuevo con diferencias sustanciales respecto al IPv4 actual. Y algo que no se debe olvidar, la demanda del usuario final. Independientemente de la escasez de direcciones IPv4, muchos operadores tardarán a implementarlo a no ser que sus clientes pregunten por él.

¿Significa esto el final de IPv4?

No. Al menos de momento. Se espera que los dos protocolos convivan durante más de 20 años; de hecho, hay algunos expertos que incluso afirman que siempre quedará algún resquicio de IPv4 en Internet. En este sentido, el cambio a IPv6 se plantea como una transición y para ello se han desarrollado una serie de mecanismos que permitirán la convivencia de los dos protocolos.

Estos mecanismos se pueden clasificar en tres grupos: túneles, traducción y pila dual. En el primero de ellos se han puesto muchos esfuerzos y ha sido el que ha permitido una mayor penetración del protocolo durante los últimos años. Ejemplos de mecanismos basados en túneles son Tunnel Broker, 6to4 o Teredo, este último impulsado principalmente por Microsoft.

Los mecanismos de traducción han tenido menos éxito y no son los más aconsejados por los organismos impulsores de IPv6. Y la pila dual es el mecanismo que últimamente están implementando todos los operadores que desean disponer de IPv6 nativo en sus redes. Este mecanismo consiste en la implementación de las pilas de ambos protocolos en todos los routers de la red, de manera que éstos son capaces de enlutar paquetes de ambos protocolos.

La necesidad de IPv6 ya no es discutida por nadie, y su implementación a nivel mundial, mediante el mecanismo que sea, crece día a día.

Dos soluciones caseras al problema de las tres luces rojas de la consola Xbox 360



Un amplio porcentaje de máquinas de la primera serie de consolas que Microsoft puso a la venta sufre un problema ocasionado por el sobrecalentamiento de la CPU y la GPU que puede llegar a inutilizar la máquina

Cuando se produce este error, tres de los cuatro leds que rodean al botón de encendido de Xbox 360 se iluminan en color rojo y la máquina se niega a arrancar. Para resolverlo, tenemos dos opciones. El primer procedimiento es el más simple y se conoce como el método de la toalla.

Requiere envolver totalmente la consola con una toalla de baño y dejarla encendida durante 20 minutos para que se sobrecaliente aún más. El incremento de la temperatura que ha provocado la avería puede haber dañado las soldaduras de la CPU y la GPU, por lo que un sobrecalentamiento aún mayor podría volver a fijarlas correctamente. Una vez que hayan transcurrido esos 20 minutos, apagaremos la consola y esperaremos otro tanto para que se enfríe por completo. Después, la encenderemos de nuevo para comprobar si funciona correctamente.

El segundo método resulta interesante si no hemos conseguido reparar nuestra máquina con el método de la toalla, pero conlleva riesgos importantes que podrían dañar la placa base de forma permanente.

Lo que debemos hacer es desmontar la consola (te recomendamos que primero veas alguno de los tutoriales publicados en www.youtube.com sobre como desmontar la consola), extraer la placa base, retirar los disipadores y aplicar calor sobre ambos chips durante 2 o 3 minutos utilizando una pistola de calor. Para no quemar el PCB es necesario realizar movimientos circulares de manera constante encima de los procesadores y nunca fijar el calor en una zona concreta.

miércoles, 12 de noviembre de 2008

IBM construirá banda ancha en tendido eléctrico

IBM Corp. ha decidido apoyar la idea de construir una red de banda ancha con la que acceder a la internet a través de la red ordinaria del tendido eléctrico.

La tecnología no es nueva y data de hace décadas, pero la mayor parte de las gestiones para adoptarla en gran escala no han colmado la expectativas que suscitaron.

Ahora, con una versión un tanto más reducida, una tecnología más avanzada y créditos federales a bajo interés, IBM se ha aliado con una empresa nueva, International Broadband Electric Communications Inc., para implantar la idea en zonas rurales que carecen de otros acceso a la banda ancha.

Su estrategia consiste en lograr que una cooperativa eléctrica distribuya electricidad en zonas rurales del este de Estados Unidos con escasa población. En lugar de competir con empresas tradicionales de distribución por cable o DSL, IBEC busca clientes que han sido soslayados mayormente a la hora de brindarles acceso de alta velocidad a la internet.

Su alianza con IBM, quizá la empresa más señera que decidió respaldar la idea, podría impulsar una tecnología que no ha logrado prosperar.

“La tecnología es importante pero lo verdaderamente importante en esto es la distribución de los servicios de banda ancha a los clientes rurales” , dijo Bill Moroney, presidente del Utilities Telecom Council (Consejo de servicios Públicos Telefónicos) , un grupo comercial que representa a esa industria. “Se trata de un comienzo y realmente de un fenomenal paso adelante”.

Esa afirmación será recibida seguramente con escepticismo. Otras empresas que ofrecieron la banda ancha a través del tendido eléctrico y los enchufes ordinarios han desaparecido, acosadas por dificultades técnicas y la oposición de los radioaficionados, según los cuales la tecnología interfiere con sus comunicaciones.

En los casos más recientes, una empresa eléctrica de Dallas que pensaba ofrecer acceso a la banda ancha a 2 millones de clientes a través de su red del tendido eléctrico decidió en mayo abandonar esa idea. En su lugar la firma, Oncor Electric Delivery Co., dijo que utilizará el equipo para vigilar la red eléctrica.

Las estadísticas de la Comisión Federal de Comunicaciones para el 2006 indicaron que menos de 5.000 clientes en Estados Unidos tiene acceso a la internet a través de la red eléctrica.

IBM e IBEC sostienen que su enfoque cuenta con mayores posibilidades de éxito.

Ninguna de ellas cree que las grandes empresas eléctricas adoptarán la idea de distribuir la banda ancha a través de sus redes, ya que simplemente no puede igualar la velocidad de las líneas telefónicas o de televisión por cable.

Agencia AP

Procesamiento de Audio Digital utilizando la Interfaz Wii




martes, 11 de noviembre de 2008

Se viene USB 3.0

El Universal Serial Bus (bus universal en serie) abreviado comúnmente USB, es un puerto que sirve para conectar periféricos a una computadora.
Fue creado en 1996 por siete empresas: IBM, Intel, Northern Telecom, Compaq, Microsoft, Digital Equipment Corporation y NEC.

El estándar incluye la transmisión de energía eléctrica al dispositivo conectado. Algunos dispositivos requieren una potencia mínima, así que se pueden conectar varios sin necesitar fuentes de alimentación extra.
Finalmente la version USB 3.0 sera lanzada por INTEL el próximo lunes 17 de noviembre para que los fabricantes de dispositivos se familiaricen con su diseño y comience su masificación entre 2009 y 2010 bajo el nombre comercial de “SuperSpeed USB

La gran novedad de este nuevo dispositivo será la velocidad del bus que alcanzara hasta diez veces más rápida que la del USB 2.0, y con una tasa de transferencia de hasta 4.8 Gbps (600 MB/s), debido a la sustitución del enlace tradicional por uno de fibra óptica que trabaja con conectores tradicionales de cobre, para hacerlo compatible con los estándares anteriores y hacerlo más rapido.

Asi que dentro de poco vamos a poder disfrutar de esta nueva tecnología con nuestros dispositivos haciendolo mucho mas eficientes!

domingo, 9 de noviembre de 2008

Se viene la STS-126: Como seguir el lanzamiento

El viernes 14 de noviembre, a las 20:55 (Hora Colombiana) 00:55 (GMT) despegará el transbordador Endeavour, en su misión STS-126, rumbo a la Estación Espacial Internacional.

Esta vez el transbordador llevará en su bodega al módulo italiano Leonardo, utilizado para este tipo de misiones logísticas; el módulo será acoplado a la ISS mediante el brazo robot y su contenido integrado por equipamiento, material científico y elementos renovables de los sistemas de vida, serán descargados en la estación. Al término de esta misión el Leonardo regresará a la bodega y será traído de regreso a la Tierra con experimentos científicos ya concluídos.

Además la astronauta Sandra Magnus integrante de esta tripulación, se quedará en la estación formando parte de la expedición 18, relevando así a Gregory Chamitoff, que llegó en junio pasado.

Magnus integrará, en su segundo vuelo y por vez primera una expedición de larga permanencia en la Estación Esacial Internacional, se quedará hasta febrero de 2009 cuando sea relevada por el astroanuta japonés Koichi Wakata, quien llegará a bordo de la STS-119.

Para los que quieran seguirlo en directo aquí van algunas opciones :

En Internet :

Programa Espacial (Seguimiento EN VIVO con imágenes de NASA TV, audio en inglés y textos en castellano)

NASA TV (imágenes EN VIVO, audio en inglés)

En Televisión :

CNN (En español) : Reproducción de NASA TV, lanzamiento EN VIVO, luego se pueden ver imágenes tomadas con las cámaras del transbordador, los comentarios son en castellano. (Canal 7 Multicanal y Cablevisión de Bs.As.)

Como Instalar Linux Ubuntu en la Computadora

Este video tutorial nos guia de manera MUY PRACTICA como instalar Linux Ubuntu en nuestra computadora.

Lo primero en tener en cuenta es que debes de haber descargado PRIMERO el sistema operativo, lo pueden descargar aqui: Download Ubuntu
Una vez instalado, puedes seguir los pasos del video! :)



sábado, 8 de noviembre de 2008

Crear Presentaciones con Slideshare

SlideShare es una poderosa aplicación web en la que se pueden almacenar presentaciones de diapositivas. Con esta herramienta es más fácil compartir una presentación de trabajo con los estudiantes, docentes y en general con quienes se desee. E incluso, dar una conferencia sin necesidad de cargar con la presentación, porque es posible acceder a ésta en línea.

Cuando el usuario sube la presentación a SlideShare, el sistema la convierte en 'Flash'. Esto quiere decir que se puede ver desde cualquier computador conectado a internet, desde el cual se abre la página web de Slideshare y se visualizan las presentaciones que allí se tengan. Una de las ventajas es que en lugar de guardar una presentación, que puede llegar a ocupar espacio importante en su disco duro, sólo hay que ponerla en SlideShare y enviar por e-mail el enlace de la página a las personas con quienes se quiera compartir. Incluso se puede hacer un enlace a una sola diapositiva dentro de la presentación.

En SlideShare todas las presentaciones están clasificadas con etiquetas, tags o palabras claves que cada autor les asigna según el tema. Esto se hace con el fin de que otros puedan encontrarlas con mayor facilidad. Para sacarle jugo a esta herramienta, es necesario registrarse y crear una cuenta de usuario, en la que además del perfil, se pueden gestionar los contactos, grupos, seleccionar y organizar las presentaciones favoritas, ver las estadísticas de las visitas y descargas, buscar, compartir, enviar por correo, descargar y recomendar, entre otras opciones que convierten a Slideshare en un recurso educativo con grandes posibilidades.

También se pueden incluir (embeber) las presentaciones en un blog o página web ya que al lado de cada presentación hay un código que se copia y se pega en la página para embeberlo.

¿Cómo hacerlo?

Siga uno a uno los pasos del siguiente tutorial de Slideshare para que cree y comparta sus presentaciones con esta herramienta de la web 2.0

viernes, 7 de noviembre de 2008

Windows 7 y su sistema Multitouch

Ultimtamente en internet, las noticias mas destacadas es el anuncio de Microsoft y su nuevo sistema operativo llamado Windows 7
Lo mas interesante de todo este nuevo anuncio, sin duda es la nueva tecnología con que Microsoft piensa implementar en su nuevo producto, y es el sistema MULTITOUCH

Hoy tenemos más videos de esta nueva tecnología de Microsoft que realmente está sorprendiendo a los críticos, no tanto por la innovación, sino también por lo estable que es el sistema en su temprana etapa de pre-Beta... aunque hay que esperar a su versión final.



Novedades de Ubuntu 8.10 Intrepid Ibex

Finalmente Canonical publica la segunda actualización del año de Ubuntu, la distribución Linux estrella que en poco tiempo se ha popularizado haciéndose más conocida que sus predecesoras, esta version es llamada Ubuntu 8.10 Intrepid Ibex

Esta nueva versión incluye la versión 2.6.27 del núcleo Linux, GNOME 2.24, soporte inalámbrico 3G, sesiones para invitados (permite a los usuarios compartir recursos), mejoras en el subsistema gráfico con la nueva versión de X.Org 7.4, KDE 4.1.2 y otras novedades

Lo malo (para algunos) es que la nueva versión ocupa un poco mas de espacio y consume mas recursos que su antecesor, se requiere de 386MB de Ram y al menos 4Gb de espacio en el disco duro, sin embargo las mejores novedades de esta nueva version son las siguientes:

Los pilares básicos que conforman Ubuntu han sido actualizados, como en cada versión. El Entorno de Escritorio por defecto, Gnome, incluye importantes novedades en su versión 2.24, como soporte para pestañas y ejecución de unidades extraíbles en Nautilus, gestión de archivos comprimidos mejorada en File Roller o un plugin para ver la BCC en streaming desde Totem.

Además, y como viene siendo costumbre, Ubuntu 8.10 trae un nuevo tema de Escritorio, de corte más oscuro, y un fondo de Escritorio mucho mas retro, lo que le imprime algo de calidad


Se renueva también el kernel, que pasa a la versión 2.6.27, ganando en estabilidad y reconocimiento de hardware de última generación, y el sistema gráfico X.org, que en su versión 7.4 ofrece reconocimiento mejorado de monitores, tabletas digitalizadoras y teclados.

Dell pone su granito de arena en Ubuntu 8.10 con DKMS, que permite reconstruir automáticamente los drivers del kernel cuando actualizamos el núcleo del Linux. Así, los controladores pueden ser usados al instante y evitamos reinstalarlos de nuevo.

La gestión de redes corre a cargo de Network Manager 0.7, que facilita las conexiones por cable, WiFi e incluso 3G. Y Samba pasa a la versión 3.2, con soporte para IPv6 y mejor integración con clientes y servidores con Windows.

Otra novedad bastante interesante de Ubuntu 8.10 es la posibilidad de crear una carpeta personal cifrada disponible en la carpeta personal, para salvaguardar nuestros datos más importantes de miradas ajenas.


Y para los más impacientes, la gestión de reiniciado y apagado del PC es ahora más rápida, ya que la pestaña de usuario del Panel de Control Gnome incluye accesos directos a estas opciones, además de poder cambiar a una sesión de Invitado, más segura y con menos privilegios.

Cómo actualizarme a Ubuntu 8.10


Si tenemos una versión anterior de Ubuntu, podemos actualizarla a la 8.10 presionando las teclas ALT +F2 y escribiendo sudo update-manager. El gestor de actualizaciones te avisará que está disponible la nueva versión 8.10 de Ubuntu y bajará los paquetes adecuados para realizar la actualización.

Tambien tienes la opción de descargar Ubuntu directamente desde la web: http://www.ubuntu.com

Cursos de ingeniería gratis en la Universidad de Stanford

La Escuela de Ingerniería de la Universidad de Stanford, con el aporte de Sequoia Capital, ha creado un programa llamado Stanford Engineering Everywhere (SEE)

La iniciativa es ofrecer cursos online totalmente gratuitos orientado a la Ingenieria Computacional para que cualquier persona pueda tener acceso a ella. Sorprende ver como algunas de las mejores universidades en tecnología, adoptan esta modalidad de ofrecer cursos en línea -y de forma gratuita-, con el único fin de difundir conocimientos en IT.

Los cursos ofrecidos son:
  • Introducción a las Ciencias de la Computación
  • Inteligencia Artificial
  • Sistema lineales y su optimización.
Los contenidos pueden ser descargados desde la web oficial (HTML, PDF, ZIP con contenido, WMV, MP4), o bien acceder a estos por medio de YouTube, iTunes o Vyew.
Sin embargo, el material no sólo está limitado a videos, también es posible descargar las transcripciones de los mismos, material de apoyo, tareas para el hogar, ejercicios resueltos y exámenes.

Todos estos recursos están bajo licencia Creative Commons, por lo tanto con sólo citar al autor de los mismos es posible utilizarlos y modificarlos sin fines comerciales.

Vale decir que de Stanford salieron personajes como Larry Page y Sergey Brin (Google), Jerry Yang (Yahoo) y Steve Ballmer (Microsoft) por nombrar algunos de los más conocidos hoy en día.

Una propuesta más que interesante para aquellos que gustan de estos temas, y teniendo en cuenta el costo que tiene asistir a una universidad en Estados Unidos, es una oportunidad para no dejar pasar.

Inscribite Ahora: http://see.stanford.edu

Duracell presenta sus Tarjetas de Memoria

La ya reconocida firma de pilas y baterías de alta duración Duracell, está incursionando en el mercado de las Tarjetas de Memoria, presentando nuevos modelos sumamente competitivos.

Con ésta noticia no se descarta que muy pronto podamos comprar packs de pilas con una tarjeta de memoria en cualquier lado.

Duracell
quiere presentar un producto sumamente competitivo, más sabiendo que éste no es precisamente su mercado, pero que su nombre tiene un respaldo importante de por sí. Lo que se sabe acerca de las tarjetas de memoria es que se enfocarán en las tarjetas MicroSDHC, SDHC y CompactFlash, con una capacidad desde 1GB hasta 16 GB.

También podemos prever que su precio será un poco más elevado que el del común de las tarjetas que podemos conseguir hoy en día, pero sabemos que compramos con un respaldo de calidad importante.

La firma también está trabajando en un lector de tarjetas 15 en 1, que valdrá aproximadamente unos 8 dolares.

jueves, 6 de noviembre de 2008

TV Digital en Colombia, a partir del 2009

La Comisión Nacional de Televisión (CNTV) anunció que muy pronto cerca de 11 millones de televidentes de la zona central de Colombia verán por primera vez el estándar europeo DVB-T en acción.

La directora de la CNTV, María Carolina Hoyos, dijo que la buena noticia tiene que ver con que se instalará un transmisor en el cerro de Majui, en Facatativá, Cundinamarca.


Desde esa cima se difundirá la señal digital de los canales públicos Señal Colombia y Señal Institucional a los departamentos de Boyacá, Cundinamarca, Huila, Tolima, Meta, Caldas y algunas zonas de Risaralda.

Recientemente Colombia adopto el estandar europeo para la Televisión Digital, el DVB -T (Digital Video Broadcasting) Se destaca por ofrecer mejores funciones para la transmisión de TV en dispositivos móviles. No tiene patentes. Los códigos de este formato son libres y pueden ser modificados para mejorar el estándar. En cuanto a la apariencia física de un televisor con formato europeo, japonés o estadounidense, no hay diferencias que se puedan detectar a simple vista. La gran diferencia está por dentro, en el sintonizador.

Ventajas de la televisión digital


Interacción:
con el control remoto, podrá hacer consultas sobre la programación, cambiar el idioma de transmisión, participar en programas de concursos y relacionarse con otros televidentes para establecer negocios.

Calidad de sonido e imagen:
el sonido será envolvente, tipo 5.1 Dolby Digital, y la imagen será de alta definición y con pocas interferencias.

Posibles nuevos canales:
en una misma frecuencia -en la que hoy se trasmite un solo programa- con la digital se podrán mandar varios programas en diferentes canales. Bajo un sistema de compresión, por un ancho de banda de 6 megahertz puedan ir hasta cinco canales.

Cantidad, variedad y calidad de contenidos:
permitirá una mayor cantidad de programas que se escogerán de una guía electrónica.

No es lo mismo que la señal de cable o satélite


Hay una gran diferencia entre la señal que en la actualidad se recibe por cable, fibra óptica o satélite, y la transmisión digital de TV abierta que se verá en el país a partir del 2009.

Por un lado, la señal de TV por suscripción puede ser 'digitalizada', pero su fuente sigue siendo una señal análoga. Por supuesto que al digitalizarla mejora en algo el tema de la calidad de audio y video y de la interferencia, pero no es digital de origen.

Además, la señal que en este momento se recibe de los operadores de cable no permite muchas de las ventajas de la TV digital verdadera, como son la mayor interacción del usuario, gracias a una autopista de datos (ancho de banda) más amplia, y la transmisión de TV digital de alta definición, que es otro de los beneficios que en últimas dependería de la calidad que quiera transmitir el canal.

Fuente: Portafolio.com

Lo nuevo de Windows 7

Como ya muchos de todos nosotros hemos podido conocer a traves de información en Internet, Windows 7 será la próxima versión de Microsoft Windows, sucediendo a Windows Vista. Este sistema será creado sobre un kernel basado en el Windows Server 2008 y permitirá la compatibilidad hacia atrás mediante la virtualización.

Windows 7 será una actualización de Windows Vista, similar a lo que ocurría entre Windows 95 y Windows 98. Lo que no causará problemas de incompatibilidad.

Windows 7 estará más enfocado en el rendimiento del sistema operativo. Entre lo mas relevante de este sistema será el Empleo de memoria, utilización de CPU, Operaciones de entrada y salida a disco, Operaciones de arranque, cierre y reposo, rendimiento del sistema base, mejor desempeño en procesadores multi-núcleo y empleo de disco virtuales.
También uno de sus principales objetivos es mejorar el arranque y tienen como proposito que inicie en menos de 15 segundos (esta por verse). Para esto se propusieron reducir la cantidad de programas y servicios que se inician al cargar Windows.

Pero sin duda, lo mas destacado de esta nueva version de Microsoft Windows será:

1. Tecnología Multi-Touch: Microsoft con su próximo sistema operativo será el primero en lanzar un sistema con esta tecnología, Apple ya lo ha lanzado antes al mercado pero en el mercado de los dispositivos móviles de la mano del iPhone.

2. Barra de tareas: gracias a sus funcionalidades y a su fantástico diseño, esta nueva barra de tareas de Windows 7 se conviene en uno de los aspectos más novedosos del sistema operativo.

3. Bibliotecas: gracias a esta nueva opción no tendremos la necesidad de andar moviendo nuestros archivos multimedia, ya que el sistema operativo moverá de forma automática nuestros archivos multimedia, por ejemplo nuestras canciones se moverán automáticamente a la carpeta ‘Mi música’, los vídeos a ‘Mis vídeos’, las imágenes a ‘Mis imágenes’, etc.

4. Juegos y Windows Media Center: esta funcionalidad nos permitirá enviar vídeo a una salida de audio, a una red habilitada, a un equipo de música, e incluso a otros computadores en red.

5. Gestión de dispositivos: en este sistema operativo no habrá que buscar en todo el sistema el nuevo dispositivo, ya que cuando lo conectemos nos aparecerá una ventana con todas las características disponibles, por ejemplo, manuales, detalles del fabricante, información del dispositivo, etc.

Las versiones cliente de Windows 7 serán lanzadas en versiones para arquitectura 32 bits y 64 bits en versiones para Professional y Home. No obstante, las versiones servidor de este producto serán lanzadas exclusivamente para arquitectura 64 bits.... ya veremos en el 2009

Nanotubos de carbono para altavoces

Imagina poder tener un altavoz o sistema de sonido literalmente pegado a un gadget o incluso un televisor. Como si de una pegatina se tratara. Es lo que podría conseguirse con los nanotubos de carbono, ese material que parece llegado del futuro para solucionar la mayoría de males de la electrónica de consumo en particular y la tecnología en general.

La nanotecnología, la ciencia de manipular la materia a nivel molecular, se estudian desde hace casi 20 años, hasta ahora no se habían buscado sus propiedades acústicas, que ahora ha quedado demostrado que pueden desarrollar sin problemas. Lo han hecho Shoushan Fan y su equipo de trabajo de la Universidad de Tsinghua en Pekín.

Este equipo ha logrado crear una superficie que podemos acoplar a un dispositivo como un iPod y que está compuesta por nanotubos enrollados con un diámetro de 10 nanómetros (nosotros no notaríamos que son en realidad tubos sino una superficie completamente plana) que al aplicarles una frecuencia audible, hacen que actúen como altavoces. Casi magia para nuestros ojos.

La base del funcionamiento de estos nanotubos de carbono como altavoces debemos buscarla en la diferencia de temperatura que ese material puede alcanzar respecto al ambiente cuando aplicamos una señal de sonido. Esa diferencia de temperatura provoca cambios en la presión del aire que rodea la superficie recubierta de nanotubos y se produce el sonido.

Este sonido generado es muy reducido en potencia, pero la especial estructura de los nanotubos permite que el sonido escuchado sea suficientemente potente.

Para fabricar estos altavoces, Jiang y sus colaboradores pusieron la película fina de nanotubo de carbono directamente sobre dos electrodos, formando un sencillo altavoz. Colocando varias películas delgadas juntas, se puede ampliar sin límite la superficie del altavoz. También se pueden dar diversas formas a las películas o ponerlas sobre superficies curvas para fabricar altavoces con unas funciones especiales.

Los altavoces de CNT tienen un excelente rendimiento acústico y, una vez conectados a un sencillo amplificador, presentan todas las funciones de un altavoz de bobina acústica, además de las ventajas de no utilizar imán y carecer de piezas móviles. A diferencia de los altavoces convencionales, son expandibles, transparentes y flexibles, lo que permitirá la fabricación de raras y novedosas aplicaciones para los altavoces. Un ejemplo podría ser reemplazar el sistema actual de sonido de los ordenadores portátiles poniendo, simplemente, una película de altavoz transparente sobre la pantalla. Otro ejemplo podría ser su aplicación en nuevos conceptos de diseño revolucionarios para futuros dispositivos electrónicos, como el teléfono móvil Morph de Nokia.

Otra de sus ventajas con respecto a los altavoces convencionales es que los altavoces de CNT no vibran y son tolerantes a los daños; funcionarán incluso si parte de la película delgada esta rota o dañada.

Según Jiang, los próximos pasos del equipo serán desarrollar productos reales de altavoces de CNT. "No hay duda de que con el paso del tiempo se desarrollarán cada vez más aplicaciones. Nuestra técnica puede abrir una puerta a nuevas aplicaciones y enfoques para la fabricación de altavoces y otros dispositivos acústicos".

miércoles, 5 de noviembre de 2008

Nueva tecnología celular en Colombia



Ahora se podrá ver televisión, navegar a altas velocidades en Internet y hacer videollamadas a través de los teléfonos celulares: la nueva tecnología 3G esta en camino!

Programación Jornada de Bienestar Noviembre 2008


Estamos de Regreso!!!


Despues de un corto pero sustancial receso en el blog ITM-Telecomunicaciones, estamos de regreso!!!
El motivo del particular paro en el contenido del blog se debio a problemas tecnicos que tuve a traves de este ultimo mes: perdida de disco duro en mi computador personal, intensidad academica muy fuerte y lanzamiento de un nuevo proyecto en el cual he dedicado todas mis fuerzas y corazon para que las cosas salieran como mejor lo espere!!
Si quieren averiguar un poco, pueden pasar por Monofonicos.net una nueva pagina con una orientación mas hacia la música electrónica y contenidos multimedia... un gran proyecto en el cual las cosas han salido demasiado bien!!!!!!

Por lo pronto, este blog continuara como es habitual trayendo más contenido tecnológico y por supuesto temas especificos en la cual todos vamos a poder aprender del mundo de las Telecomunicaciones!! :)
Gracias a los lectores del RSS que aun continuan vigentes y apoyando esta iniciativa educativa que genera conocimiento!!

Nos seguiremos leyendo!!!