Artículos Noticias

WiFiClub » Entries tagged with "blu-ray"

Se acerca el final de las webs?

El editor en jefe de la revista Wired, Chris Anderson, quien hace cuatro años publicara el libro “The Long Tail”, publicó ayer (junto a Michael Wolff) en la citada revista, un artículo titulado: “The Web Is Dead, Long Live the Internet“.

El título es bastante explicativo y se apoya sobre el gráfico que vemos debajo de estas líneas.

webchart_1El gráfico es bien elocuente

Básicamente, se trata de que la web ha perdido protagonismo en la internet como la principal fuente de contenidos y usos, siendo reemplazada por el mundo de las apps, (aplicaciones).
Las reacciones no se han hecho esperar y están prácticamente inundando la web (o la internet).

Si bien la reflexión del artículo de Wired es bastante completa y tiene múltiples aristas, es aconsejable leerlo por completo y hacerse de una opinión propia.
Como eso puede tomar cierto tiempo, lo medular tiene que ver con la manera en la que usamos internet ahora que tanta gente tiene smartphones con conexión a internet y se empiezan a masificar tablets y ebooks readers. Cada vez con mayor frecuencia se usan apps específicas en vez de usar la web como intermediario.
Apps de correo, apps de video, apps para escuchar podcasts y leer RSS…., al final hay gente que absorbe toda la información pertinente del día sin haber abierto el navegador ni una sola vez.

Paralelamente, los grandes sitios web del mundo están tendiendo a concentrar una tajada cada vez mayor del tráfico.
Nadie puede negar que Facebook sigue creciendo, que es ubicuo y universal. El punto es que está alcanzando un estado en que no es realmente parte de la web. Se visualiza a través del navegador, eso está claro, pero existe más allá de él. Hay apps de Facebook para casi cualquier plataforma: el hecho de que se pueda visitar via web es anecdótico. Segundo, los inversionistas están invirtiendo en sitios con nombre y apellido. Antiguamente era común que un VC invirtiera dinero en 30 startups de Silicon Valley esperando que alguno tuviera éxito: eso se terminó hace dos años y en realidad ahora los bolsillos más poderosos ponen sus fichas en unos pocos sitios selectos. La web sin diversidad no es web, sólo es un puñado de sitios grandes que un día cualquiera decidirán salir a través de una aplicación de escritorio y prescindir del navegador: no es del todo imposible.

La refutación del sitio GigaOM es interesante porque es  conceptual. Primero, le baja el perfil a las declaraciones de Anderson tildándolas de obvias, pero añade un punto crucial: Wired asume que la muerte del navegador es la muerte de la web, y eso es un error. Es cierto que más y más aplicaciones se saltan olímpicamente el browser para usar servicios como youtube, twitter o facebook, pero el uso que hay detrás sigue siendo tecnología web. En vez de un browser para ver todo, cada aplicación es un mini browser con una función específica. Tiene mucho sentido, máxime ahora que el advenimiento de HTML5 hace que puedas generar sitios web que funcionen como una aplicación.

El sitio BoingBoing dispara contra la metodología del argumento o, más bien, la del gráfico sobre el cual se apoya el argumento. Verán, esa imagen está elaborada con datos reales, pero en una escala engañosa. La escala vertical es la proporción del tráfico (en bytes) que ocupa cada tipo de comunicación. En ese tipo de gráficos se produce un estado de suma cero que omite el crecimiento inherente de la web. A simple vista podría parecer que el tráfico web está declinando, cuando en realidad sigue creciendo pero más lento que otros tipos de tráfico.

webchart_2Ahora, Si en vez de graficar la proporción se graficara el total, con los mismos datos podría llegarse al escenario que tenemos arriba, el cual muestra que el tráfico web no sólo está creciendo sino que sigue acelerando su tasa de crecimiento.

Pero hay otro detalle: ¿Tiene sentido comparar peso del tráfico?
A medida que aumentan la velocidad promedio de las conexiones de banda ancha la gente  ya no descarga un divx de 600MB, sino un Blu Ray de 60GB. Ya no se conforman con video web de 320×240, sino que quieren verlo en 1080p. En comparación, siguen consumiendo más o menos la misma cantidad de artículos en la web, porque no leen más rápido ni tienen más tiempo libre. Comparar volumen de tráfico siempre favorece a las aplicaciones más demandantes de ancho de banda. Habría que comparar, en cambio, qué proporción del día le dedican los internautas a cada tipo de tráfico.

Finalmente: ¿Tiene sentido separar el video en su propia categoría? Gran parte del video utiliza sitios web para viralizarse. Está claro que se puede ver youtube casi en cualquier smartphone y tablet, pero apostaría a que su uso sigue siendo mayoritariamente embebido en un sitio web.

El argumento de Gawker, más caracterizado por los comentarios ácidos, es una falacia ad hominem, porque abre los fuegos diciendo que Anderson declara la muerte de la web pero lo hace a través de un canal web: el artículo no está en la edición impresa de Wired ni en la app para iPad. Añade, además, que la edición web de Wired vende más publicidad que nunca así que, para ser un medio de difusión moribundo, no parece tan agonizante.

Todo eso es cierto, pero la validez de un mensaje no debiera verse alterada por quién lo diga. Los méritos personales de Anderson a la hora de diagnosticar el declive de la web pueden darle mayor o menor peso a lo dicho, pero el emitir el mensaje a través de una web que gana dinero no afecta su credibilidad. Por el contrario, cuando Anderson dice que la web está muriendo lo hace a riesgo de dañar colateralmente su propio activo.

Lo vimos en Wired y Fayerwayer

Archivado bajo: Noticias

Avances en tecnologías de almacenamiento

Con el avance casi vertiginoso en la miniaturización de equipos portátiles, vemos día a día como se generan nuevas tecnologías de almacenamiento, cómo se avanza en materia de compresión de datos, o al menos como se mejoran las actuales tecnologías.

Por ejemplo, en las laptops convencionales se utilizan discos de 2.5 pulgadas que vienen en tres versiones: de 9mm, 12.5mm y 7mm.
La versión de 9mm, es la más usada por los dispositivos portátiles, mientras que la de 12.5mm, es un nuevo estándar que ofrece mayor capacidad, pero que solamente funciona para notebooks, (debido a su grosor).
Ahora, los discos duros de 7mm, están siendo usado por ultraportátiles como netbooks o tablets, pero tenían un defecto, se trataba de un disco lento (si se lo compara con las otras versiones) que, además, no tenía la característica de venir en versiones con mucho almacenamiento.

Discos duros

Recientemente, la gente de Hitachi presentó una nueva serie, llamada Travelstar Z que posee una capacidad de hasta 320GB.
HitachiHDD1Lanzaron 2 versiones:

Travelstar Z7K320: Se trata del primer disco de 7mm y 2.5 pulgadas que tiene una velocidad de 7.200rpm, posee 16MB de caché y soporta Serial ATA de 3GB por segundo.
Según la compañía este dispositivo puede mejorar en un 18% la velocidad de los mismos modelos que funcionan a 5.400rpm, y se comenzará a producir masivamente en Agosto.

Travelstar Z5K320: Es un disco SATA de 3GB por Segundo con 8MB de caché y que gira a 5.400rpm, este se comenzará a producir en Julio.
Si bien aún no se sabe cuál será el precio, Hitachi anunció que será más barato, ya que si se consideran los beneficios y el coste por gigabyte, se trata de una unidad más avanzada y barata de producir.

Pero esto no termina aquí, ya que Hitachi junto a LG presentaron en el CES 2010 el HyDrive.
El HyDrive es una lectora y grabadora de DVD, que además tiene integrado un disco SSD de estado sólido.
Este híbrido, fue desarrollado especialmente para ahorrar espacio en netbooks y notebooks.HyDrive1
Esto permite (al tener las mismas medidas que un disco SSD portátil), que aquellos que tengan que transportar una lectora de discos no lo hagan más (recordemos que las ultraportátiles y la mayoría de las netbooks no tienen lectoras).
Las empresas presentarán el equipo en agosto de este mismo año en Corea del Sur, y en septiembre esté disponible para todo el mundo.
Las primeras versiones no tendrán demasiada capacidad interna (sólo 32GB y 64GB), pero para el 2011, vendrán en series de 256GB.

El grosor de este híbrido, es de 12.7mm pero la idea de las compañías creadoras es desarrollar uno que, además de tener mayor capacidad de almacenamiento, también sea más delgado, ya que la finalidad es llegar a los 9.5mm.

Ahora hablemos de los SSD.

Ya todos sabemos que en el futuro, se irán implementando cada vez más las unidades de estado sólido SSD.
Esto se debe a que de una manera o de otra, son lo mejor que hay actualmente a nivel de almacenamiento de información, no solamente porque poco a poco se van equiparando con los discos duros convencionales en lo que a la cantidad de data se puede almacenar, sino porque su velocidad es verdaderamente sorprendente.

SDD1Pero más allá de las obvias ventajas, también hay inconvenientes, y uno de ellos es el precio, ya que los costos de los discos SSD son realmente elevados.
Pero veamos unas comparativas de ventajas y desventajas de esta nueva tecnología para entender un poco más de que se trata:

Ventajas

  • Arranque de la unidad mucho más rápido.
  • Gran velocidad de escritura.
  • Mayor rapidez de lectura, hasta 10 veces más que los discos duros tradicionales más rápidos, (gracias a RAIDs internos en un mismo SSD).
  • Baja latencia de lectura y escritura, (cientos de veces más rápido que los discos mecánicos).
  • Lanzamiento y arranque de aplicaciones en menor tiempo (esto es el resultado de la mayor velocidad de lectura y del tiempo de búsqueda).
  • Menor consumo de energía y producción de calor , ya que no tiene elementos mecánicos.
  • Sin ruido, ya que la misma carencia de partes mecánicas los hace completamente inaudibles.
  • Mejorado el tiempo medio entre fallos, superando 2 millones de horas, muy superior al de los discos duros.
  • Seguridad (permitiendo una muy rápida “limpieza” de los datos almacenados).
  • El Rendimiento no se deteriora mientras el medio se llena, (por ejemplo una fragmentación).
  • Es más resistente, ya que sSoporta caídas, golpes y vibraciones ya que no tiene mecánica alguna.
  • Borrado más seguro e irrecuperable de los Datos, ya que no es necesario hacer mano del Algoritmo Gutmann para el borrado de un archivo.

Desventajas

  • Vida limitada – Las memorias flash tienen un límite de ciclos de escritura, normalmente desde 1.000.000 hasta 5.000.000 de ciclos. Algunos sistemas de archivos especiales pueden mitigar este problema repartiendo los datos a lo largo de todo el disco.
  • Precio – Los precios de las memorias flash son considerablemente más altos en relación Precio/GB, y la principal razón de su baja demanda. Sin embargo, ésta no es una desventaja técnica. Según se establezcan en el mercado irá mermando su precio y comparándose a los Discos Duros mecánicos, que en Teoría son más caros de producir al llevar piezas metálicas.
  • Menor recuperación – Después de un fallo mecánico los datos son completamente perdidos pues la celda es destruida, mientras que en un disco duro normal que sufre daño mecánico los datos son frecuentemente recuperables usando ayuda de expertos.
  • Vulnerabilidad contra ciertos tipo de efectos – Incluyendo pérdida de energía abrupta (especialmente en los SSD basado en DRAM), campos magnéticos y cargas estáticas comparados con los discos duros normales (que almacenan los datos dentro de una Jaula de Faraday).
  • Capacidad – A día de hoy, tienen menor capacidad que la de un disco duro convencional que llega a superar los 2 Terabytes.

Antiguas Desventajas ya solucionadas:

  • Degradación de rendimiento al cabo de mucho uso en las memorias NAND (solucionado con el sistema TRIM)
  • Menor velocidad en operaciones I/O secuenciales. (Ya se ha conseguido una velocidad similar)

Las compañías tecnológicas, están bien al tanto de todo esto, por eso están constantemente en la búsqueda de atraer al público hacia estos medios de almacenamiento.

Hace muy poco, la reconocida empresa desarrolladora de discos duros, Seagate, anunció el lanzamiento de una nueva serie de dispositivos de almacenamiento, llamados Momentus XT, que tendrán lo mejor de ambos bandos: la velocidad de los discos SSD y el precio de los HDD.
Son de unidades híbridas de 2.5 pulgadas, que emplean una combinación de discos SSD y están alineadas con las 7.200rpm de los HDD.

MomentusXT1Lo que hacen es usar una partición con la tecnología Adaptive Memory de Seagate que lo que hace básicamente es hacer, de manera inteligente, que el disco reconozca los archivos más utilizados por el usuario y ubicarlos en el espacio más veloz.
Según la empresa esto incrementaría nada menos que un 400% la performance de los discos HDDs regulares y, lo mejor de todo, costarán un cuarto de lo que cuestan actualmente los SSD.
Según comentaron desde Seagate, la tecnología Adaptive Memory va mejorando la velocidad.
Es decir que la primera vez que un usuario abre un archivo lo hará desde ambos lugares (veloz y convencional), la segunda vez lo ejecutará más con el lado más veloz y así sucesivamente…, resumiendo, esto quiere decir que cuanto más ejecutado más rápido se abrirá.

En cuanto a los precios, sabemos que la versión de 250GB costará US$113; la de 320GB US$122; y la de 500GB US$156, esto sin duda, es un fracción del costo de los SSD actuales, y si bien no es lo mismo, atrae la atención para migrar de tecnología.

Tarjetas de memoria

En cuanto a las tarjetas de memoria, las capacidades avanzan a pasos agigantados, ya que hoy estamos hablando de tecnologías SD 3.0.
Tal es el caso de  Kingston, que ya anunció que a finales de junio lanzará al mercado su primera tarjeta de memoria SDXC.

SDXC1La nueva tarjeta de Kingston.

Este nuevo modelo aumenta la capacidad de almacenamiento y proporciona una tasa de transferencia de datos de ultra-alta velocidad, además es capaz de proporcionar una capacidad de almacenamiento que va desde 32 GB hasta 2 TB.
Esta próxima generación de trajetas Kingston SDXC (Secure Digital eXtended Capacity) UHS-1 Class 10, son capaces de ofrecer velocidades de transferencia de hasta 60 Mbps en lectura y hasta 35 Mbps en escritura, por ahora estarán disponibles en versiones de 32 y 64 GB.

Pero con tarjetas de tanta capacidad, se van a necesitar nuevos lectores/escritores mucho más rápidos…
Pues si, y tal es el caso de la empresa de tecnologías Pretec, que han presentado en el Computex 2010 un lector de tarjetas que además puede leer datatravelers con tecnología USB 3.0.Pretec1
El P240 USB3.0 High-speed Multi-Card Reader, puede realizar transferencias de hasta 5GB por segundo desde las tarjetas de memoria al ordenador o PC.
Además de soportar USB 3.0, lee una gran cantidad de tarjetas y entre todas ellas también está incluido el formato SDXC (que citábamos más arriba).
También permite transferir archivos desde dispositivos SD, CF y el resto de los formatos de tarjetas más conocidos.
Por ahora el P240 es solo una muestra y comenzará a producirse masivamente en agosto, es por estos motivos, que el precio y la fecha exacta de su lanzamiento aún no fueron reveladas.

Medios extraíbles

Y que pasa con los medios que usamos hoy en día, por ejemplo los DVDs?
Bueno, si bien es cierto que las plataformas de almacenamiento evolucionan constantemente (y uno de los principales motivos es que los diferentes formatos llegan a un punto en los que no pueden mejorarse y la capacidad que se puede almacenar en ellos llega a un tope como vimos con la aparición del CD, después del DVD y más tarde la del Blu-ray), la tecnología no para de avanzar y ahora unos científicos anunciaron que descubrieron una forma de incrementar la capacidad de los DVDs, incremento que lograría nada menos que 1.000 veces más que lo que almacenan los discos Blu-ray, usando sólo una capa de metal sobre los discos.

DVD1Un nuevo comienzo para los DVDs?

Según explicó Shin-ichy Ohkoshi, el profesor de química de la Universidad de Tokio que lidera el proyecto, pintando una capa de un material que es variante del óxido de titanio en el DVD, se permitirá conducir electricidad cuando sea ubicado bajo la luz y, cuando sea quitado de la luz, se convertiría nuevamente en un metal negro (que no son capaces de conducir electricidad).
Pero la realidad es que estas mejoras (si bien son verdaderamente sorprendentes), no llegarán al mercado ya mismo, ya que recién están en sus primeras etapas y aún faltan cientos de pruebas para poder establecer un estandard, pero lo que si es cierto, es que más allá de que los reproductores de Blu-ray se están vendiendo mucho, también es cierto que hay millones de personas en todo el mundo que todavía tienen reproductores y lectoras de DVD y todas ellas se verían increíblemente beneficiadas con esta nueva tecnología.

Y las cintas magnéticas?

Hitachi Maxell, Ltd. y el Instituto de Tecnología de Tokio anunciaron conjuntamente que han desarrollado una cinta de ultra-alta capacidad que finalmente conducirá a desarrollar cartuchos de cinta magnética de más de 50TB de capacidad de almacenamiento.

Esto significa 33 veces más que los cartuchos LTO Ultrium que se utilizan en la actualidad y que pueden albergar hasta 1,6 TB de información con velocidades de transferencia de datos de 280MB/s.maxelllto1Para lograr este récord de almacenamiento, el Instituto de Tecnología de Tokio desarrolló un sistema de pulverización catódica del material ferroso hecho que permitió una reducción drástica del tamaño de cada “elemento” susceptible de ser magnetizado y orientado. A esto hay que agregarle la propiedad de la grabación magnética perpendicular que ha logrado reducir diez veces el tamaño de cada bit dentro de la cinta. Gracias a estas técnicas, se obtiene una cinta final de 4,5 micrones de espesor y con una capacidad de almacenamiento sorprendente.maxelllto2

La nueva tecnología en cintas magnéticas

Haciendo un poco de historia, podemos decir que la utilización de cintas magnéticas como soporte de datos, se comenzó a implementar en el mundo de los ordenadores de la mano de IBM en el año 1956, y a pesar de ser una de las tecnologías más amenazadas por la Ley de Moore, las capacidades de estos soportes se han incrementado casi exponencialmente.
Por otro lado, la realidad de que en la actualidad no sean tan populares y utilizadas de manera masiva, no significa que las cintas hayan perdido su potencial de trabajo y mucho menos su efectividad. Sin dudas que un sistema de almacenamiento de datos utilizando cartuchos de cinta magnética es mucho más caro que un sistema convencional de disco duro, pero Hitachi Maxell ha sorprendido al mundo con el logro de semejante capacidad de almacenamiento en una unidad portátil tan pequeña.

Comercial de HP acerca de las bondades de la cinta mágnetica

Volveremos a usar la cinta magnética para nuestros datos?
No creo, ya que más allá de lo que publicite HP, esta tecnología es más que nada aplicable para hacer respaldos de servidores o datos de gran volumen como los de bancos, gobiernos, instituciones financieras y para respaldar videos, música o los datos que se quieran preservar en gran volumen, porque si tomamos en cuanta el costo de las unidades lectoras grabadoras, es obvio que es una decisión acertada sólo para este tipo de backups.

Archivado bajo: Ciencia, Noticias, Tecnología

Google TV está online / al aire.

Es un hecho que hoy en día, también usamos las computadoras e internet para ver TV, películas, videos, recitales, eventos, etc…
Hay un montón de programas de uso común que nos permiten ver TV en vivo en nuestras PCs, disfrutar de un recital, un buen partido de fútbol o el video que estábamos buscando, pero ahora la cosa se puso más atractiva…
Hace un par de meses, anunciábamos los preparativos para este nuevo tipo de entretenimiento, se trata de la mezcla de internet con TV de alta calidad, el resultado…: Google TV.
Tal como se esperaba, el gigante de Mountain View reveló hoy Google TV, durante su conferencia de desarrolladores, estos hicieron especial referencia a que es un mercado interesante para Google, (nada mal, considerando que hay 4.000 millones de potenciales telespectadores en el mundo).

El líder del proyecto, Rishi Chandra declaraba durante su presentación que: “El video debería ser consumido en la pantalla más grande y más brillante de tu hogar, y esa es la TV”, así que la idea es fusionar la TV con internet sin comprometer la experiencia y la calidad de video, enfocándose en la personalización y búsqueda de contenidos.

Google ha estado teniendo algunos problemas con el sistema de búsqueda y el control remoto durante la presentación, cosa usual en algunos casos, ya que no podía faltar un fail.
Aún así, mostró canales de TV abierta, pero también tiene un sistema de navegación, de manera que los usuarios puedan utilizar su control remoto para abrir un “cuadro rápido de búsqueda” donde puedan ingresar programas de TV o un sitio web.
Si ingresan el nombre de un canal de TV, los resultados mostrarán el canal en vivo y los resultados de internet.

Cuando se busca una serie, los resultados muestran una lista con todos los episodios disponibles y sus horarios, las series en Hulu y si la quieres comprar en Amazon.
Si se perdió un programa, puede buscarlo y ver si está el video en internet.
También se puede poner un canal en picture-in-picture mientras ve un sitio web, o si quiere monitorear Twitter para ver qué dice la gente del programa que estás viendo.

Se pueden visitar redes sociales, sitios de juegos, música, fotos, etc., como así también guardar sitios web como canales para entrar directo con el control remoto.
También se puede entrar a YouTube y ver videos desde allí, ya que este presentó una nueva versión del portal de videos llamado “YouTube Leanback” (”reclinado”), que está optimizado para verse en la televisión.
Los videos comienzan a correr apenas el usuario entra al sitio, y el volumen del video se puede coordinar con el control remoto.

El acceso a Google TV se hará a través de un set-top box especial ,del cual no se dieron muchos detalles, pero ya se sabe que tendrá WiFi, Ethernet, salida HDMI y un “poderoso” procesador Intel Atom CE4100.
El control remoto tendrá un teclado y también se podrá utilizar cualquier equipo Android como control, incluyendo la búsqueda por voz y el envío de contenido desde el móvil a la TV. El software está basado en Android con Chrome y el navegador utiliza Flash 10.1.

sonyinternettvgoogle1Sony ya tiene equipos en su web.

Además existirán televisores y equipos de Blu-ray para hacer funcionar a Google TV.
Sony será la encargada de lanzar estos dos tipos de equipos antes de fin de año, aunque ya los anuncia en la web.
Informan que Sony Internet TV está programada para estar disponible en Estados Unidos en otoño de 2010, ofreciendo una televisión independiente y un set-top box que incorpora un reproductor de Blu-ray.

logitechgooglesettopbox1Logitech lanzará un set-top box con un control remoto Harmony y una cámara HD para chat en video.

No se tienen ideas de precios todavía, ni para adquirir los equipos ni sobre la posible mensualidad por el servicio…
Mas info, aquí…

Archivado bajo: Noticias