viernes, 10 de julio de 2009

Isobuster 2.5.5.1: Recupera los datos de CD/DVD/Blu-Ray dañados con Isobuster

IsoBuster es un software capaz de recuperar datos de soportes ópticos dañados tales como CD, DVD e incluso Blu-Ray con excelentes resultados. Pero ahí no acaba la funcionalidad de IsoBuster, ya que este programa permite además crear archivos de imagen y convertir entre diferentes formatos de imagen, todo ello mediante una intefaz muy sencilla y en español (tiene soporte para más 40 idiomas). Ahora en la web de Smart-Project vemos que se acaba de liberar su última versión IsoBuster 2.5.5.1

En IsoBuster 2.5.5.1 se corrigen algunos fallos presentes en versiones anteriores y se incorporan nuevas novedades que podéis consultar en su
listado de cambios
IsoBuster 2.5.5.1 se puede adquirir a un precio orientativo de 29.95 $ , pero se puede descargar una versión free con funciones limitadas desde el siguiente enlace:

Descarga Isobuster
Isobuster es compatible con Windows 95, 98, ME, NT 4.0, 2000, 2003, XP, VISTA y Windows 7

SofwareZone. Isobuster 2.5.5.1: Recupera los datos de CD/DVD/Blu-Ray dañados con Isobuster. [En línea] Fecha de publicación: 10/07/09
http://www.softzone.es/2009/07/10/isobuster-2551-recupera-los-datos-de-cddvdblu-ray-danados-con-isobuster/
[Fecha de consulta: 10/07/09]

lunes, 6 de julio de 2009

El CD, DVD y Blu-ray: diferencias y similitudes

Sabiendo cómo aprovechar nuestro equipo de cine en casa, es momento de saber qué formatos los exprimen mejor y qué diferencias hay entre ellos.

Imagen panorámica, sonido multicanal, varias pistas de sonido, etc.; todo es común a los formatos de cine en casa, pero lo cierto es que la hegemonía del DVD como rey de las películas está en peligro, al igual que en su momento lo estuvo el VHS.

El DVD y el Blu-ray comparten algunas características, sin embargo las diferencias son muy grandes. ¿Cómo saber distinguirlos y qué ventajas ofrecen uno y otro? Aquí les ayudamos a hacerlo.

El DVD es un disco del tamaño de un CD: 12 centímetros de diámetro, con un pequeño círculo en el centro para hacer más fácil su sujección. El Blu-ray tiene exactamente ese tamaño, así que a simple vista no hay diferencias. Sin embargo, este último tiene una protección contra las rayaduras mucho más resistente que el CD y el DVD.

Físicamente son iguales, por lo que las diferencias están en la parte más importante: tecnología. Mientras que el CD ofrecía un tamaño medio de 700 Megas llegando en algunos casos a 800 y en menos a superarlos, el DVD ofrece 4,7 Gigas si es de una capa, el doble si es de dos, y hasta el cuádruple si es de dos capas y dos caras, sin embargo lo habitual es la doble capa. El Blu-ray se distancia de sus "padres" y ofrece hasta 25 Gigas en una capa y hasta 50 en dos capas, y actualmente están trabajando en los nuevos que llegaría los 200 Gigas, pero aún queda tiempo hasta que lo podamos comprar.

Todas estas cifras implican una calidad: más cifras, más calidad. El DVD ofrece una resolución máxima de 720 líneas de ancho y 520 de alto. Una calidad suficiente pero que empalidece al lado de la del Blu-ray: hasta 1920 líneas de alto y 1080 de alto, casi como la que ofrece el cine. La diferencia de resolución puede no verse a simple vista si no se tienen medios para ver a la vez un DVD y un Blu-ray, pero hay páginas de comparativas donde se puede apreciar perfectamente. Puede ver un ejemplo aquí.

Para visualizar correctamente un DVD la mejor opción es disponer de un cable llamado "euroconector", y para el Blu-ray, de un "HDMI", acrónimo de "High Definition Multimedia Interface" o cable de alta definición. El Blu-ray también se puede ver con el "euroconector", pero la calidad no será comparable.

Por otra parte, el Blu-ray, al tener tanto tamaño disponible, admite muchas más opciones: más pistas de sonido con más calidad, extras en mayor calidad y duración, interactividad mientras se visualiza la película, etc.
Otra diferencia curiosa es la carátula: han cambiado y ahora son azules con el indicativo de "Blu-ray" y el logo en la parte superior.
Puede ver un amplio reportaje y comparativas entre formatos
aquí y aquí.

Miguel Soria. El CD, DVD y Blu-ray: diferencias y similitudes. [En línea] Fecha de publicación: 6/07/09
http://www.cope.es/tecnologia/06-07-09--cd-dvd-diferencias-similitudes-65701-1
[Fecha de consulta: 6/07/09]

domingo, 5 de julio de 2009

La muerte de la prensa escrita: una realidad a la vuelta de la esquina

Cuando se formula la pregunta: ¿es el periódico un medio en peligro en extinción?, los puristas no dudan en sentar cátedra y afirmar que es imposible su desaparición. Quizás se reduzca considerablemente el número de cabeceras o el clásico formato impreso sólo salga a la venta los fines de semana. Teorías y elucubraciones para todos los gustos que se ven fomentadas por una crudísima realidad.

En lo que llevamos de año cerca de 105 periódicos han echado el cierre mientras un total de 10.000 empleados han acabado de patitas en la calle. Si otras industrias han recibido estímulos o rescates para sortear su precaria situación, la prensa sigue el camino perfecto a su autodestrucción. Mientras en el primer trimestre de 2009 la venta de publicidad ha caído un 30 por ciento en Estados Unidos, los anuncios por palabras, que en su día fueron el gran pulmón de muchos rotativos, se han desplomado un 42 por ciento, según la Asociación de Prensa Americana.

Para colmo, la circulación de 23 de las 25 cabeceras más importantes a este lado del Atlántico se ha reducido entre un siete y un 20 por ciento en lo que llevamos de año. Según la publicación online, The Business Insider, cuatro grandes conglomerados de prensa en el país, Gannett, Gatehouse, The Sun-Times y The Journal Register, viven una tormenta perfecta que ha hecho desaparecer un total de 61 publicaciones diarias en lo que va de año.

Pese al prestigio que rodean a muchas cabeceras, últimamente las principales compañías de periódicos han perdido dinero o como mucho han conseguido cubrir los gastos sin endeudarse hasta las cejas. El dinero de sus subscripciones tan sólo cubre gastos de imprenta y distribución dejando el resto de los costes en manos de la publicidad. De un tiempo a esta parte, Internet a usurpado a la prensa convencional buena parte del oxígeno necesario para sobrevivir.
En EE.UU, la web Craigslist se ha llevado los anuncios por palabras, especialmente aquellos orientados a la búsqueda y compra de pisos. Compañías como eHarmony o Match.com han conseguido apropiarse de los anuncios personales mientras que Google ha hecho suyos el resto.

Actual panorama

Con este panorama no es de extrañar que cabeceras como The Tuscon Citizen haya apostado por trasladar su edición exclusivamente a la red, mientras que el Detroit Free Press ha reducido su salida al mercado a sólo tres días en semana, en lugar todos los días.

Como ya vaticinó el presidente de News Corp, Rupert Murdoch, el poderoso gurú mediatico que cuenta con más de 175 periódicos en todo el mundo, incluyendo el Wall Street Journal o el New York Post en Estados Unidos y el Times en Reino Unido, el mundo de la prensa escrita debe adaptarse a la tendencia del público joven, que prefiere Internet frente al papel a la hora de leer noticias o si no quedará obsoleto. Las principales editoriales de periódicos, tanto norteamericanos como extranjeros, llevan tiempo lidiando con el viraje entre sus ediciones impresas y digitales, pero nadie aseguró que esto sería la panacea al problema y que no habría daños colaterales.

Estrategias

Las estrategias que inundan las mesas de los directivos son muchas, pero tienen muy presente quienes se están haciendo de oro con las tarifas publicitarias. Google y Yahoo lideran todas las listas y a falta de poder combatir su rentabilidad publicitaria muchas compañías de prensa buscan aliarse con los dos poderosos colosos de Internet.

La aparición de nuevos soportes electrónicos, como el Kindle de Amazon y otra variedad de libros electrónicos además de PDA y Netbooks, abren un nuevo soporte para los periódicos que podría solventar la pérdida de circulación convencional. Eso sí, hace falta que tanto los directivos, como periodistas y lectores abran la mente hacia estas nuevas plataformas.

"Crónica de una muerte anunciada"

Lo cierto es que pese a las numerosas propuestas y tácticas puestas en marcha en la cabeza de muchos corre la incertidumbre si esta tendencia a la baja ya presente durante casi dos décadas es la "crónica de una muerte anunciada" para la prensa convencional o solo el tiempo necesario para que las ediciones impresas y las digitales terminen de limar asperezas para sincronizarse dentro del complejo rompecabezas mediático.

José Luís de Haro. La muerte de la prensa escrita: una realidad a la vuelta de la esquina. [En línea] Fecha de publicación: 5/07/09
http://ecodiario.eleconomista.es/cultura/noticias/1382708/07/09/La-muerte-de-la-prensa-escrita-una-realidad-a-la-vuelta-de-la-esquina.html
[Fecha de consulta: 5/07/09]

viernes, 3 de julio de 2009

El Blu-ray, un formato de alta definición que sucederá al DVD

En Mendoza aún son pocos los que ofrecen este producto, que tiene un valor aproximado a $2.500. Este soporte permite leer todos los discos digitales. Es el nuevo competidor que da batalla.

El disco versátil digital (conocido como DVD) tiene los días contados tanto como formato de reproducción de películas como en su función de dispositivo de almacenamiento.Si bien en un primer momento intentó renovarse a través de High Definition DVD (HD DVD, alta definición), nada detiene el avance de lo nuevo, su sucesor: Blu-ray.Está nueva tecnología (en castellano, rayo azul) es un formato de disco óptico de nueva generación de 12cm de diámetro (igual que el CD y el DVD), para video de alta definición y almacenamiento de datos de alta densidad.El Blu-ray se impuso a su competidor, el HD DVD, en la guerra de formatos iniciada para convertirse en el estándar sucesor del DVD, como en su día ocurrió entre el VHS y el Betamax, o el fonógrafo y el gramófono.

Este nuevo formato, desarrollado por Sony, cuenta con el apoyo de grandes empresas dedicadas al entretenimiento audiovisual, como Pioneer, LG, Mitsubishi Electric, Philips, Sanyo, Hitachi, Sun Microsystems, Panasonic, Dell, Playstation 3, HP, Sharp, Sony Pictures, Warner Brothers, 20th Century Fox, Lionsgate, Walt Disney y Thomson, entre los más importantes.Pablo Sánchez, especialista en tecnología de Mendoza Video Sistemas (MVS), explicó que el blu-ray llega para traer lo que se conoce como full HD (cada cuadro tiene una resolución de 1920x1080), lo que permite observar las películas con una mejor calidad de imagen y sonido.“Como van las cosas, la transición entre este nuevo formato y el DVD va a ser más rápida de lo que pasó con el VHS, por el gran avance de la tecnología y porque los reproductores de blu-ray también leen otras configuraciones”, señaló Sánchez.

Hoy en día conseguir un reproductor de blu-ray en Mendoza no es tarea fácil. Además de MVS, en la provincia sólo hay dos casas de electrodomésticos que lo están comercializando y su valor es de $2.500.A eso hay que agregarle que para aprovechar el video de alta resolución se tiene que contar con un televisor que sea plasma o LCD, ambos full HD, cuyos precios rondan los $5.000 los de 32 pulgadas, el conector High-Definition Multi-media Interface (HDMI) –interfaz multimedia de alta definición– además de contar con un sistema de sonido acorde (como un home theater) para tener un sistema surround.Pero no es el único inconveniente que tiene, ya que a Mendoza sólo han llegado dos títulos de películas –ambos de Disney– para disfrutar esta nueva tecnología.

Ni siquiera en los videoclubes más importantes se pueden encontrar películas en este formato.Ahora será sólo cuestión de tiempo para que el blu-ray se asiente en el mercado y desplace de su función al DVD, y así poder disfrutar en la comodidad del hogar de la alta definición.

Uno: el diario del hoy. El Blu-ray, un formato de alta definición que sucederá al DVD. [En línea] Fecha de publicación: 3/07/09
http://www.unosantafe.com.ar/05.07.2009/noticias/26192_El+Blu+ray+un+formato+de+alta+definici+n+que+suceder+al+DVD.html
[Fecha de consulta: 3/07/09]

martes, 30 de junio de 2009

Unidad externa Blu-ray ultradelgada de Asus

Asus esta por lanzar esta nueva unidad Blu-ray, que llegará en formato “ultra delgado”, que no es más que las unidades que se instalan en portátiles pero con una carcasa externa.
Asus
lanza esta unidad SBC-04D1S-U pensada para portátiles o netbooks que no tienen una unidad Blu-ray o que ni siquiera tienen una unidad óptica.
La velocidad de lectura es de 4,8x y hasta ahí llega, porque no es grabadora ni de discos Blu-ray, CD o DVD.

Manu Contreras. Unidad externa Blu-ray ultradelgada de Asus [En línea] Fecha de publicación: 30/06/09
[Fecha de consulta: 2/07/09]

sábado, 27 de junio de 2009

Sony Vaio NW, portátil con Blu-Ray y HDMI

Sony ha presentado hoy sus nuevos portátiles de la gama Vaio NW que traen como principal elemento una unidad de Blu-Ray en equipos con un precio de 880 dólares.
Los nuevos Sony Vaio NW vienen con el tamaño de pantalla clásico de los portátiles: 15 pulgadas, en este caso, 15.5 exactamente, con tecnología Xbrite-Eco. Disponen también de salida HDMI para aprovechar en pantalla grande su reproductor de discos de alta definición.
Además de en la pantalla, Sony ha colocado diversos sistemas que nos ayudan a ahorrar energía, como un botón para apagar la pantalla mientras el ordenador sigue trabajando o un arranque rápido con funciones de navegación sin esperar a que el sistema Windows se inicie completamente.
Los Sony Vaio NW vienen con procesadores Intel Core 2 Duo, gráficas ATI Mobility Radeon HD 4570 y Windows Vista Home Premium de 64 bits. El diseño sigue siendo con teclas separadas y se ha logrado reducir bastante el grosor de portátil.


Xataka. Sony Vaio NW, portátil con Blu-Ray y HDMI [En línea] Fecha de publicación: 19/06/09
http://www.xataka.com/portatiles/sony-vaio-nw-portatil-con-blu-ray-y-hdmi
[Fecha de consulta: 26/06/09]

viernes, 26 de junio de 2009

Internet, la nueva biblioteca de Babel

Los archivos y fondos bibliográficos crecen en la red, y ya se pueden recibir ejemplares impresos y encuadernados

Zaragoza. Impresión bajo demanda. Este es el nuevo servicio que desde ayer ofrece la Biblioteca Digital Hispánica a través de la Biblioteca Nacional y que facilita al lector la posibilidad de recibir en casa libros impresos y encuadernados, lo que evita la molestia de imprimir en casa y guardar los libros en folios sueltos.

Como si se tratara del laberinto infinito de galerías hexagonales repletas de libros con el que soñó Borges, la red de bibliotecas crece en la red. Ahora, la Biblioteca Nacional de España (www. bne.es) se convierte en la primera en ofrecer en Europa este servicio, un paso más que se une a las funciones propias de otras sedes que facilitan descarga, impresión y envío de los libros encuadernados.

Por el momento, solo se pueden comprar volúmenes impresos de 85 obras de las 18.000 disponibles, pero la cantidad se incrementará con 20 ejemplares cada mes. Los textos digitales a los que se puede acceder están marcados con un icono especial y la compra se realiza a través de Bubok (www.bne.bubok.com), gracias al convenio de colaboración que ha suscrito con la Biblioteca Nacional.

Entre las obras que ya pueden comprarse están El libro del Buen Amor, del Arcipreste de Hita (27,98 euros, gastos incluidos) o Vida y hechos del ingenioso caballero don Quixote de la Mancha: parte primera (1674, edición ilustrada), de Miguel de Cervantes por 88,42 euros.

"Es un sistema muy bueno, que que se adapta a cada tipo de necesidad, a la consulta y a la lectura, y que permite trabajar sin gastar ojos en pantalla o ampliar y desentrañar abreviaturas cuando sea necesario", señaló en la presentación del servicio Milagros del Corral, directora de la Biblioteca Nacional.

Antes de comprar un ejemplar, los usuarios de esta impresión "a la carta" pueden visualizar en su pantalla el 20% del contenido. También tendrán la opción de recibir la obra en color, en el caso de libros ricos en ilustraciones. El acuerdo con Bubok se suma a otro con Amazon (www.amazon.com), que facilita comprar el libro, en función del lugar en el que se resida.

"Todas estas noticias hay que recibirlas con alegría, porque, contrariamente a lo que pudiera parecer, no son competencia desleal para el mundo editorial, sino que se trata de un paso más dentro de los cambios que ha experimentado el mundo del libro desde sus orígenes", apuntó César Muñío, presidente de la Asociación de Librerías de Aragón y de la Comisión Permanente del Libro.

Un paso de gigante que, en el caso de los libros y bibliotecas digitales, se inició en el año 1971 de la mano de Michael Hart, un estudiante norteamericano, de la universidad de Illionis que puso en marcha el proyecto Gutenberg, con el objetivo de crear una biblioteca de libros electrónicos gratuitos.

Años después, se sumaron a esta iniciativa otros proyectos como Gallica, lanzado en 1997 por la Biblioteca Nacional de Francia (http://gallica.bnf.fr), con más de 90.000 documentos colgados en la red ; o Cervantes Virtual, en España (www.cervantes virtual.com), que cuenta ya con 500 millones de documentos digitalizados.

Pero ha sido el proyecto Google Books el que ha revolucionado el mercado editorial con sus planes de poder digitalizar todos los libros editados en el mundo para crear una gran biblioteca virtual: Internet Google.

Se trata de un proyecto al que le han salido numerosos detractores y que ha sido llevado a la Comisión Europea por considerar que podría burlar la ley de derechos de autor, ya que entre los libros que han escaneado, hay títulos que tienen derechos con propietarios europeos.
"Es fundamental que las administraciones salvaguarden a los autores con medios más eficaces. Es muy difícil hacer compatibles dos derechos contradictorios: que el autor vea su trabajo remunerado y el acceso libre y gratuito a la cultura. La Administración tendría que pagar mejor a los intelectuales, igual que se hace con los futbolistas. Los autores necesitamos vender libros porque si todo el mundo se los baja de Internet y los obtiene gratis, nosotros vamos a desaparecer", indicó José Luis Corral, presidente de la Asociación Aragonesa de Escritores.

El Heraldo. Internet, la nueva biblioteca de Babel. [En línea] Fecha de publicación: 26/06/09
[Fecha de consulta: 26/06/09]

sábado, 20 de junio de 2009

La literatura en soportes digitales, o cómo llorar sobre un disco duro

Lo digital como asunto cotidiano



Hay una serie de términos que, a fuerza de usarlos o escucharlos a diario, se nos han vuelto cotidianos, cercanos, casi inofensivos. Pero si prestamos atención, esos términos no han perdido en lo absoluto su críptico misterio, su amenazante incertidumbre: virtual, digital, electrónico... son algunos de los adjetivos que conforman esa jerga que acompaña un número importante de gestiones e intercambios de diversa índole que realizamos en nuestro diario trajinar. Depositar dinero en nuestra cuenta bancaria, hacer una transferencia a otra cuenta, pagar los servicios y hasta hacer trámites gubernamentales, son sólo algunos de ellos. De hecho, lo "virtual" tiene unas cuantas décadas entre nosotros, sólo que es ahora que ha invadido nuestra cotidianidad con la avasallante fuerza de un ejército de ocupación.

Si nos detenemos a pensar, nuestro dinero en el banco, por ejemplo, no es nuestro dinero en el banco. Es decir, no es un conjunto físico de billetes que almacenamos en la caja fuerte de una impoluta y confiable institución. Es, más precisamente, una cifra asignada a un número de cuenta, almacenada a través de series encriptadas compuestas unicamente de ceros y unos, que las instituciones bancarias utilizan para realizar complejas operaciones financieras y bursátiles, y que seguirá allí mientras los sofisticados sistemas electrónicos de nuestro banco se sigan comportando como los expertos esperan que lo hagan. Si nos permitiésemos fantasear por un instante en un inexplicable misterio (como aquel temido apocalipsis llamado Y2K) que sin razón aparente evapore o altere esas cifras que viajan en códigos binarios y se almacenan en gigantescos servidores, nos daríamos una idea del significado del término "virtual".

Lo que quiero significar, es que esos términos que, bien visto, entrañan retorcidas e intimidantes abstracciones, han estado conviviendo con nosotros desde hace mucho tiempo. Claro, que hará cosa de una década que el universo digital se ha convertido en parte integral de nuestras vidas, cambiando nuestra percepción de la realidad circundante, y modelando nuevos hábitos en nuestra vida cotidiana. Han sido tan súbitos y tan radicales esos cambios, que sólo un notable poder de adaptación ha hecho posible que una persona que haya vivido gran parte del siglo que dejamos atrás, se haya tenido que acostumbrar al funcionamiento del telegrama, para tener que asimilarse luego a ese prodigio inconcebible en su momento que fue el fax, y de ahí al asombroso correo electrónico y, más instantáneo aún, al mensaje de texto (conocido también por sus siglas SMS). Ya se ha dicho hasta el cansancio: la capacidad de adaptación marcará la diferencia entre lo que sobrevive y lo que perece. Ese axioma, aplicado al mundo de las comunicaciones, no podría ser más gráfico.

Daniel Pradilla, editor de la revista electrónica Panfletonegro.com y consultor en el área de automatización industrial, comentó en una ocasión que cuando alguien envía por primera vez un mensaje de texto, no sabe que con ese acto, en aparencia intrascendente, genera un cambio radical en su vida y, más específico aún, en su forma de comunicarse con el mundo. Un telegrama de 120 caracteres que llega directo al receptor, y que este pueda responder instantáneamente, sin intermediarios y a un costo insignificante. Cien años de evolución comunicacional, condensados en ese trivial acto. Un hecho de enorme significado, oculto entre la avalancha de acciones cotidianas.

Ya se ha dicho y no parece exagerado: la imprenta de Gutenberg, el telégrafo de Morse y la web inventada por el británico Tim Berners Lee, son los tres hitos fundamentales de la historia de la comunicación. Los dos primeros pertenecen a la historia. Con respecto al tercero, estamos asistiendo a su proceso de evolución, y todavía se desconoce a dónde nos conducirá.

Hace 10 o 12 años nadie conocía internet. De hecho, hace 10 o 12 años mucha gente no tenía acceso a una computadora casera para realizar sus labores cotidianas. Más aún, hace 10 o 12 años mucha gente no justificaba la existencia de una computadora en su casa. Y es que con internet vendrían cambios importantes en nuestra cotidianidad. Todo ese valioso material informativo y privado que atesoramos en nuestras cuentas de correo, en sitios públicos como spaces, blogs, páginas webs y servidores de fotos, audios y videos (es decir, gran parte de nuestra identidad y universo privado), así como nuestras listas de contactos de comunidades virtuales, todo reposa en algún lugar desconocido por nosotros, en un remoto confín de la geografía terrestre. Para acceder a todo esa información que celosa y cuidadosamente atesoramos, apenas poseemos una dirección virtual y una clave de acceso. Nada más. Fuera de eso, un oscuro limbo nos separa de ella. Como con el ejemplo del banco, sólo un acto de fe nos permite dormir en paz con la tesis, el trabajo de grado, la novela recién terminada o las únicas fotos de la abuelita ya fallecida, a miles de kilómetros de nosotros, en una ubicación desconocida. Este acto de fe se hace más evidente cuando esos documentos vitales se almacenan en servicios por los que no pagamos ni un centavo.

En adelante, conscientes de ello, debemos acostumbrarnos a que mucha de nuestra información vital no reposa ni siquiera en un disco duro doméstico, sino que debemos agregar la incertidumbre de no tener idea de en qué punto de la tierra se encuentra almacenada físicamente (si es que el término tiene cabida) nuestra data. Muy probablemente la única conclusión indiscutible para un gran número de personas es que la vida actual sin internet sería muy difícil de llevar, al menos haciendo las cosas que se hacen en la actualidad.

Ahora bien, ¿Por qué no la literatura?

Hay gente que se empeña en que la literatura, y las artes en general, carguen con el triste sino de pertenecer a ese género de actividades humanas marcadas por un romanticismo insólito, ubicadas en un sitio al que no le llega el polvo, la pobreza de la vida ni el cochino dinero. Sólo eso explicaría la actitud de algunas personas (incluso, lo que se constituye en un hecho más grave, de algunos intelectuales) cuando pretenden sustraer a la literatura del tiempo que a ellos les tocó vivir, para mantenerla en una edad de la historia grabada en sepia.

Es, por ejemplo, el caso de José Saramago. No queda claro si fue por oportunismo o por cursilería, pero lo cierto es que, consultado acerca de ese gastado tema sobre si el libro impreso sería suplantado por el e-book, cerró filas en torno a una causa perdida y lanzó aquella ahora famosa frase de: "Yo no podría llorar sobre un disco duro". Luego de esta tajante afirmación, valdría la pena preguntarse si una sonata de Bethoveen pierde algo de su belleza porque se escuche en un Ipod, o una foto deja de ser artística porque se registre con una cámara digital. No son pocos los cineastas que están recurriendo a la estrategia de "filmar" sus películas en video, para luego pasar la edición final al formato de cine, por un pragmático asunto de costos. Es el caso de Secuestro Express, por ejemplo, que se grabó totalmente en formato digital y se pasó a formato de cine luego de haber quedado satisfechos con la edición final, ahorrándose metros y metros de una cinta sumamente costosa. El cine, ellos lo saben muy bien, es el contenido, no el material. Así como saben que uno de los pecados del artista, del escritor, es volverse reaccionario, porque si no ha alcanzado la época en la que vive, ¿cómo podría interpretarla? ¿Cómo podría convertirse en la vanguardia del pensamiento de su época? Porque una cosa es dificultad de adaptarse a nuevos medios (cosa, por demás, comprensible) y otra cosa muy distinta es el desdén y el rechazo a los formatos que formarán parte, cada vez con mayor presencia, de la realidad cotidiana.

Por otra parte, si somos capaces de confiar documentos importantes a aparatos para los cuales estos documentos no son más que data que se mantiene en un líquido amniótico de dígitos sujetos electromagnéticamente a dispositivos que requieren de corriente eléctrica para ser leídos, ¿Por qué tanto prurito para que la literatura goce de los beneficios que ofrecen los actuales medios para difundirse con mayor eficiencia? Si tanto se habla de lo deshumanizado de estos tiempos, ¿Por qué no ponerle un poco de humanidad a los contenidos que circulan en la red, a fin de aprovechar su inmensa estructura?

Podría jurar que he leído pésimos libros impresos sobre genuina e inequívoca celulosa; lo que me lleva a concluir, una vez más, que la literatura no es el medio, y que tanto fanatismo purista sólo está logrando que aquella pierda una valiosa oportunidad para llegarle a nuevos lectores. Lectores que hay que irlos a buscar precisamente frente a los monitores de cientos de miles de computadoras regadas por el mundo. Y en momentos en que los códigos comunicacionales en boga (las mangas japonesas, la cultura de los mensajes de texto y del chat, las nuevas estéticas de los videoclips) demuestran su cabal capacidad para adaptarse al momento de la historia que les toca vivir.

Programas de radio y entrevistas que se bajan como podcasts, RSS que envían el último capítulo de una novela, recitales poéticos que se filman y se suben a youtube, haikus y microcuentos que se envían a través de mensajes SMS, constituyen sólo algunas pocas entre las infinitas posibilidades de aprovechamiento de los soportes y los medios actuales para transmitir, registrar y compartir ideas que susciten emociones. Que a fin de cuentas, es eso lo que aspira la literatura; en una remota época lo hacía en papiros, luego en papel, y ahora también grabada en medios digitales como libros electrónicos, ipods y teléfonos celulares con video. ¿Qué nos deparará el futuro respecto a ese tema? Vale decir, a manera de estribillo, que la capacidad de adaptación marcará la diferencia entre lo que sobrevive y lo que se anquilosa. Es la única certeza de la que disponemos.

De hecho, el término literatura digital, que usamos con frecuencia, ya contribuye a generar confusión en el asunto, ya que el mismo es esquivo e impreciso. El término sugiere algo así como el soporte en que fue escrito el guión de la película Matrix, o las obras de algunos connotados autores de ciencia ficción, así hayan escrito hace ya unas cuantas décadas. El término, hay que dejarlo claro, es inexacto. No existe literatura digital; existe literatura a secas. El soporte es el digital, y eso con el tiempo será transparente a efectos de los lectores. Porque en ese caso, ¿cómo decirle a la literatura impresa en tinta sobre papel? ¿Literatura impresa?

La literatura que se vale de internet y de los medios digitales para difundirse están allí. Con sus ventajas y, por supuesto, sus desventajas. Y están allí desde hace algunas años, con experiencias realmente enriquecedoras, respetadas y consultadas (legitimadas) por lectores e investigadores. Rompiendo el estigma de la legendaria brevedad que acompaña a muchos proyectos editoriales literarios (el sindrome del número único). Rozando (o pasándola de largo) la década, están Letralia y Ficción Breve Venezolana, en nuestro país; Ciudad Seva y el proyecto Sherezade, en otros países de la región, por nombrar sólo agunos. E incluso, se dan casos interesantes de revistas de sólido prestigio en el mundo del papel, que no pudieron obviar el formato digital, como les ocurrió a las emblemáticas Letras Libres y The New Yorker, por mencionar dos sólidos colosos en el mundo del papel.

Vale acotar que, alcanzar este punto en el que las revistas en formato digital adquieran respetabilidad, y las revistas impresas abrieran sus sucursales digitales, supuso un interesante cambio de paradigmas en la evolución de la cultura de las comunicaciones. Supuso que estos editores pioneros comenzaran a ganarse el respeto de los lectores. Un respeto labrado en base a la seriedad y la mística con la que ejercieron su oficio. De hecho, esos pioneros que comenzaron a producir contenidos para la red fueron responsables de crear un nuevo tipo de lector: el lector de hipervínculos. Un lector que aprendió a digerir nuevos códigos y formas más complejas de recibir la información que, durante muchísimo tiempo, conservó un mismo formato y una misma y única forma de leer: la lectura lineal.
En adelante, la aventura de leer supuso adentrarse en novedosas abstracciones. Supuso arborizarse en la medida en que se leía. Cada palabra podía sugerir nuevas acepciones, nuevos temas. No lo sabíamos, pero nos acercábamos a algo más natural, más parecido a nuestras conversaciones cotidianas: cada palabra usada iba adquiriendo potenciales nuevos matices, nuevos significados. Cada nuevo dato aportado sugería nuevos caminos. En adelante, sería el lector el que decidiría cuánto significado le agregaría a cada lectura, qué tanta carga tendría cada palabra. Y la lectura dejaría de ser lineal para ser un espacio tridimensional, como el pensamiento mismo.

Otra de las indudables deudas que tiene la sociedad con estos nuevos soportes, y esto quizá es lo más relevante desde el punto de vista cultural, lo constituye el hecho de que los ciudadanos han podido prescindir de los grandes intermediarios para producir (y recibir) información, comunicarse entre sí y desarrollarse en comunidades arborizadas y ubicuas (como aquella famosa esfera cuyo centro estaba en todas partes y cuya circunferencia en ninguna).
En adelante, gracias a ese revolucionario invento que democratizó la generación de contenidos, llamado blogs, cualquier persona que dispusiese de una comexión a la red y de una computadora, podía convertirse en un generador de contenido, en un medio de difusión de ideas y en una fuente de noticias. No conforme con ello, la visibilidad adquirida y la capacidad de convertirse en interlocutor de sus lectores, le daría un mayor conocimiento de las percepciones comunes de la realidad circundante, que a los viejos editores del mundo del papel, que no reciben el feed back de sus contenidos con la misma velocidad que aquellos.

Los blogs son, sin duda alguna, el soporte más democrático que se haya inventado hasta el momento. Con la facilidad con la que se crea una cuenta de correo, el blog permite la instantánea creación de un periódico para cada quién, y al alcance de todos. Un caso digno de estudi, que demuestra con claridad el alcance del fenómeno, lo constituye el blog Generación Y, de la bloguera cubana Yoani Sánchez. Escrito desde adentro, con un tono que más que de oposición frontal es de desencanto, Sánchez escribe sus comentarios sobre la realidad circundante en la isla, con un brillante sentido del humor y una concisa claridad, lo que le ha valido, no sólo el haber obtenido el Premio Ortega y Gasset 2008 de Periodismo digital, sino que, previo a eso, haberse convertido en un titán periodístico con cerca de millón y medio de visitas dirante el mes de marzo de este año, y post que alcanzan los cientos de comentarios, a favor y en contra de la psoción de la autora. ¿Podrán muchos medios con muchos más recursos jactarse de esas cifras? Y todo esto, apenas con una conexión a internet y una computadora (radicales favor abstenerse de sospechar la mano de la CIA en este asunto).

Y así como ese caso, existen muchos otros interesantes proyectos que, con mucha creatividad y una muy personal visión de la vida, nos llevan a mareavillosas interpretaciones de la vida cotidiana. Está el caso del archifamoso blog venezolano Archivos abandonados, cuyo éxito de lectores se deb a una fórmula sencilla, pero sumamente original: el autor visita cybercafés y copia las fotos que la gente deja abandonadas para luego, con un humor cáustico e irreverente, las publica acompañados de comentarios que van desde frases lapidarias hasta interpretaciones del contenido de las fotos. "Fotografías y otros archivos encontrados en computadoras de los cybercafés que visito. Abandonados por desconocidos imprudentes o conscientemente impúdicos. ¿Es esto legal? ¿Es esto moral? Lo dudo. Pero es divertido", es el explicación que, a manera de presentación, coloca el bloguero en el encabezado de su visitado blog. El comentario más común entre los que visitan el blog por primera vez es: ¿Por qué no se me ocurrió a mí?

Blogs colectivos: las nuevas revistas literarias

Ante las innegables facilidades que ofrece el blog, entre las que se pueden destacar que no se requiere saber de programación para manejar una poderosa herramienta con base de datos, o que no se debe saber de diseño gráfico para acceder y modificar las decenas de plantillas de las que se dispone, el mundo literario se ha lanzado a fundar las revistas literarias de estos tiempos. En Venezuela, diversas experiencias colectivas (aún jóvenes) se han asentado en la red, con ese propósito. Ejemplos de ellos son los colectivos El apéndice de Pablo (cada número es un blog distinto), la Revista El Salmón y Los Hermanos Chang. A ellos, suerte y constancia.
Esos entusiastas editores nacientes de seguro desconocen el largo camino que se ha andado para llegar hasta sus sitios. Desde aquellos diskettes con el número de turno que distribuían por correo ordinario los pioneros de la revista Axxon, el notable desarrollo que han adquirido esos medios no puede (y, de hecho, no lo está siendo) desaprovechado por las nuevas geenraciones, para crear contenido literario en los soportes en que sus congéneres están leyendo, usando las herramientas que permiten difundir las ideas de estos tiempos. Ya el tiempo se encargará de descubrir qué queda de todo esto. Pero está ahí, y a despecho de las afirmaciones de algunos, en el mundo de hoy se está escribiendo y leyendo mucho. Ya eso es una ganancia.



Héctor Torres. La literatura en soportes digitales, o cómo llorar sobre un disco duro [En línea] Fecha de publicación: 28/04/09
http://www.elportalvoz.com/index.php?option=com_content&view=article&id=396:la-literatura-en-soportes-digitales-o-como-llorar-sobre-un-disco-duro&catid=12:de-profundis&Itemid=105
[Fecha de consulta: 20/06/09]

jueves, 18 de junio de 2009

Javier Oliván: "Internet ha dejado de ser anónimo gracias a Facebook"

Javier Oliván es el Director Internacional de Facebook
De origen español, dirige a escala mundial la expansión de la red social
"El éxito de
Facebook está en la atención al usuario y en el uso de una identidad real" Asegura que en Internet "no volveremos a ser un número de IP" "Experiencias como la de La 2 Noticias hacen real la convergencia en Internet "
Avanza que la nueva herramienta de búsqueda dentro de Facebook sorprenderá al usuario.

Javier Olivan, nacido en Huesca hace 32 años, es uno de los responsables del fenómeno de moda en Internet, la fulgurante expansión de Facebook, una red social que ya tiene más de 200 millones de usuarios, 6 millones de ellos en España. Oliván, que habitualmente trabaja en Palo Alto, Estados Unidos, ha venido a Madrid para tomar parte en la Red Innova y, de paso, ha concedido una entrevista a RTVE.es.Pregunta: Las comunidades virtuales no son nada nuevo, ya hace 10 años que funcionaba en España Comm.com de Teknoland. Pero no triunfó.
¿Cuál es el secreto del éxito de Facebook?
Respuesta: Hay varios componentes. El primero, y más importante, es que hasta ahora no había cultura de tener una identidad real en Internet, con nombres reales y fotos reales. Cuando se creó Facebook, la gente tenía su identidad real, y eso se ha mantenido con el crecimiento del site. La gente imita ese comportamiento. Otro componente, el ADN de la compañía, es crear la mejor experiencia de usuario posible para darle más valor. Y, por último, la forma en que hemos crecido internacionalmente, a través de una plataforma abierta que el usuario ha ayudado a traducir y adaptar a cada país. Eso hace que sea mucho más natural y que Facebook sea único.
P: En Estados Unidos aumenta el número de usuarios mayores de 50 años, sobre todo mujeres, ¿pasa esto en otros mercados?
R: Los patrones de crecimiento varían un poco por países. En Estados Unidos nació como una comunidad universitaria cerrada y eso ha hecho que haya inicialmente cierta concentración por edad y una distorsión, y ahora se está incorporando el rango de edad de personas más mayores, que era lo que faltaba. En otros países, al llegar Facebook en abierto para todos y superada la barrera del idioma, el crecimiento ha sido más homogéneo, aunque destaca un tanto la parte más joven del espectro demográfico.Pero, claro, en general se da también un comportamiento similar al del uso de Internet, que decae a medida que aumenta la edad.P: En las últimas semanas, Facebook se ha extendido mucho por países como Irak.
¿Cómo se está expandiendo la red? ¿En qué nuevos países aumenta su presencia?
R: Crecemos con ritmos de tres dígitos de porcentaje en la mayor parte de los países. Algunos de los que mas rápido van son los del sudeste asiático, como Indonesia, Malasia, Hong-Kong... También crece muy deprisa España, Italia, Japón... De repente aparece un país nuevo que entra en la curva de crecimiento exponencial y, normalmente, está relacionado con la aparición del sistema en un nuevo idioma. Por ejemplo, en India está creciendo ahora mucho, porque hemos lanzado Facebook en cinco de las lenguas más utilizadas en el país, como el marati. También avanzamos mucho en Brasil, donde estamos registrando gran crecimiento ahora, aunque el interface en portugués lleva ya mucho tiempo activo.
P: En Brasil tiene mucha presencia Orkut, ¿ha hecho eso que se frene la expansión de Facebook?
R: Orkut es muy fuerte en Brasil. Pero hemos visto ejemplos en muchos países donde había redes establecidas y, poco a poco, Facebook ha acabado por ser la más utilizada. Se produce un ejemplo de `polinización': a medida que hay más usuarios que lo utilizan, otros muchos empiezan a simultanear su red local con Facebook y, al final, como Facebook mejora continuamente, la actividad se desplaza a nuestra plataforma. Lo hemos visto, por ejemplo, con Vivo en Inglaterra, o Skyblog, en Francia.
P: Se ha dicho siempre que Facebook tiene pocos ingresos publicitarios, entonces, ¿cuál es la rentabilidad real de la empresa?
R: La rentabilidad está en la publicidad. Una cosa es el tamaño de la publicidad y otra la calidad. Ahora mismo estamos probando formatos publicitarios muy innovadores, como anuncios en vídeo que pueden ser comentados por los usuarios y esos comentarios se incorporan a la publicidad y se puede ver el diálogo entre la marca y los usuarios. Es más esa calidad que la cantidad. Y estamos muy contentos con la forma en que se está monetizando el site.
P: Recientemente, Facebook ha expulsado de su red a dos empresas de publicidad que la utilizaban de forma fraudulenta y engañaban a sus usuarios. ¿Es frecuente este tipo de comportamiento?
R: Tenemos pólizas de utilización y, cuando no se respetan, se elimina de la plataforma al infractor. El activo más importante de Facebook es que el usuario confíe en la plataforma. Por eso, modelos fraudulentos que intentan engañar al usuario para llevarle a algún sistema de pago encubierto van contra la experiencia del usuario y lo eliminamos.
P: Tras las protestas de los usuarios, ¿cómo ha quedado el asunto de los derechos de propiedad intelectual sobre los materiales colgados en Facebook?
R: Todo el contenido es propiedad de los usuarios. Las cláusulas de derechos y obligaciones han sido decididas y votadas por los usuarios, que se pusieron de acuerdo. Es más, dos de los usuarios más activos a la hora de protestar en el cambio de las condiciones de uso fueron después de los más implicados en la redacción de las nuevas normas. Ahora es trasparente: es lo que ellos han decidido.
P: Facebook es una empresa y, como tal, quiere ganar dinero. Pero los usuarios consideran Facebook algo suyo y admiten mal las ingerencias en asuntos como la privacidad o la propiedad intelectual. ¿Cómo cree que evolucionará esta relación? ¿Pone en peligro el futuro de la red?
R: Nos halaga que la gente tenga esa cercanía con Facebook, ese compromiso. Esto no había pasado antes y es porque utilizas tu propia identidad y la relación con el usuario es muy personal. Uno de los valores de la empresa es respetar la confianza que los usuarios nos dan. Todo lo que hacemos va en función de respetar esa confianza y fortalecerla. No se puede contentar a todo el mundo, pero sí llegar a soluciones idóneas.en
P: El último rediseño de Facebook, que incluyó cambios en las funcionalidades, ha sido muy criticado ¿Se han acallado ya estas críticas? ¿Han aprendido los usuarios a manejar el nuevo Facebook?
R: Hemos visto que siempre que se cambia algo la gente se muestra reacia. Pero cuando hacemos un cambio es porque creemos genuinamente que s mejor para el usuario. Solemos hacerlo teniendo en cuenta patrones de conducta que observamos en los personas que utilizan la plataforma y que ni siquiera ellas se dan cuenta de que esa es su conducta habitual en Facebook. Por ejemplo, vimos que la gente actualizaba todo el tiempo la página para ver los `status' de sus amigos. Eso nos llevó a este cambio en el que hay un continuo de noticias y filtros por origen de estas noticias.Ahora estamos probando nuevos diseños híbridos, que tengan las mejores noticias de tu red de amigos en las últimas 24 horas, como había antes, y también lo que está pasando en vivo, como se muestra ahora.
P: En este rediseño, da la impresión de que Facebook busca aproximarse a la inmediatez de herramientas como Twitter. ¿Es así? ¿Qué importancia tiene la competencia de Twitter para Facebook?
R: Nosotros tenemos una cola casi infinita de nuevas ideas que queremos implementar. Y muchas llevan ahí mucho tiempo, porque no tenemos recursos para sacarlas todas. Esto hace que a veces digan que implantamos cosas que ya tienen otros, aunque lo más frecuente es que otros implanten funcionalidades nuestras. Nos enfocamos en lo que podemos controlar, que es nuestro producto. Y no podemos enfocarnos en lo que hacen otros.
P: ¿Qué le parece la aparición de herramientas nuevas como Wave, de Google, que propone una especie de comunidad colaborativa? ¿Podría afectar al predominio de Facebook en el mercado?
R: Parece un modelo interesante, pero no lo conozco bien y no sé qué tipo de adopción está teniendo por parte de los usuarios. Muchas de sus funcionalidades ya están en Facebook desde hace tiempo y estamos mejorando el Inbox (correo electrónico) para que tenga más opciones. Google tiene productos muy interesantes, pero creo que los tiros van por otro lado. Estamos tratando de facilitar la comunicación entre usuarios de la mejor forma posible y ahí es donde tenemos que trabajar.
P: ¿No asusta que Google entre en las redes sociales?
R: Google lleva ya mucho tiempo tratando de hacer cosas en este sentido, con herramientas como Open Social Google, Profiles... Tienen miles de millones de dinero en efectivo... Pero a nosotros nos preocupa tener la mejor plataforma posible. Y se puede decir que la cosa va bien: la gente sigue prefiriendo Facebook. Nuestra imagen de marca es buena y se ve en cómo se identifica el usuario con nosotros.
P: Parece que Facebook es cada vez más un lugar donde permanecer y del que salir sólo para navegar a contenidos que se ofrecen dentro del propio Facebook, como noticias de medios de comunicación. ¿Es el objetivo que la gente esté todo el tiempo ahí dentro?
R: No, no necesariamente. Nuestra plataforma es abierta, desde el código hasta el hecho de que cualquier contenido compartido en Facebook siempre lleva al sitio original donde se produjo. Somos una plataforma de comunicación y distribución, no queremos ser un `agujero negro¿ donde todo se queda. Pero sí queremos ser parte del tejido que forma Internet, y ahí somos buenos haciendo el mapa social de las relaciones que existen en la vida real, el gráfico social.
P: ¿Cómo evalúan ustedes el uso que hacen los medios de comunicación de las redes sociales? ¿Qué potencial queda en este campo de colaboración?
R: Por ejemplo, RTVE es pionera en el uso innovador de la plataforma. Nadie había hecho algo como hacer diariamente el informativo La 2 Noticias de forma interactiva con los usuarios. A nuestra generación le puede parecer algo normal, pero si te vas 20 años atrás, parecería mentira que se pudieran ver las noticias comentándoles e interactuando con los presentadores. Hoy es posible gracias a que medios como RTVE.es empujan los límites de lo posible y a que nuestra plataforma está abierta y es flexible, lo que demuestra que la convergencia Internet y Televisión ya es posible. Además, se están haciendo cosas muy interesantes con Facebook Connect en Digg, que filtra noticias en función de nuestro propio gráfico social; YouTube, que permite compartir vídeos y comentarlos; TechCrunch, LaNetro, Lainformacion.com...
P: Ya en 1980, el sociólogo Toffler hablaba de una ¿telesociedad¿ que llegaría con la sociedad del conocimiento. ¿Cree que Facebook puede ser uno de los primeros pasos de esa telesociedad en la que todos estemos conectados?
R: Desconozco el libro, pero pienso que, hasta ahora, todas las innovaciones en materia de comunicación se han dado en lo que es el hardware, desde el telégrafo, hasta los ordenadores. Pero ahora ya todo el mundo está conectado a todo el mundo de una forma u otra. Así que la próxima gran innovación está en el software, en gestionar toda esa información de forma más eficiente e inteligente. Plataformas como Facebook cambian la forma en que utilizamos Internet y hacen que sea más parecido a la vida real. Creo que es importante saber que Internet no va a volver a un estado anónimo en el que sólo seamos direcciones de IP, y eso será gracias a herramientas como la nuestra. Esto es lo que hace que Facebook sea algo rompedor.
P: ¿Qué más veremos próximamente de Facebook? ¿Quizá un correo electrónico y un chat más funcionales y estéticos?
R: La nueva herramienta de Búsqueda, que la estamos probando en beta, tendrá mucho valor. Permitirá hacer búsquedas a través de palabras claves en todos los contenidos y comentarios de nuestros amigos. Y eso permitirá optimizar la búsqueda de los mejores resultados y aprender con las búsquedas de los usuarios.También estamos trabajando en el Inbox y el próximo lunes, 22 de junio, se lanzará una nueva versión que permitirá filtrar correos por listas de amigos o por origen de las comunicaciones.

David Varona. Javier Oliván: "Internet ha dejado de ser anónimo gracias a Facebook" [En línea] Fecha de publicación: 18/06/09
http://www.rtve.es/noticias/20090618/javier-olivan-internet-dejado-ser-anonimo-gracias-facebook/281337.shtml
[Fecha de consulta: 18/06/09]

martes, 2 de junio de 2009

El desafío digital pasa por la pizarra

Nadie duda ya de que el futuro de las aulas pasa por las pizarras digitales, presentes ya en la mitad de los colegios. Quienes ya las disfrutan se deshacen en elogios pero ¿qué son exactamente? ¿Están todos los profesores capacitados para su manejo?

-En España hay instaladas unas 40.000 pizarras digitales y en 5 años su penetración será casi plena.

EL encerado y la tiza son casi piezas de museo. Ceden el testigo a la tecnología digital. No tienen cabida en la escuela 2.0 que formará a las nuevas generaciones. Su docencia se articula sobre dos elementos claves: el ordenador personal y la pizarra digital.
En el reciente debate del Estado de la Nación el presidente José Luis Rodríguez Zapatero prometió portátiles para casi medio millón de estudiantes de 5º primaria para el próximo curso y pizarras digitales para todos los colegios. Nadie duda de que el futuro de las aulas pasa por estas pizarras digitales, presentes ya en la mitad de los colegios y cuya financiación y despliegue está en estudio. Se calcula que en España hay instaladas unas 40.000 pizarras digitales y que en cinco años su penetración será casi plena. Quienes ya las disfrutan se deshacen en elogios. Pero ¿qué son exactamente? ¿Cuál es su coste? ¿Están todos los profesores capacitados para su manejo? ¿Hay dinero y capacidad para introducirlas en un curso que empieza en cinco meses?

"Las pizarras son el revulsivo para un sistema docente que será digital o no será", responde José Dulac, coordinador del Proyecto pizarra, docente de larga trayectoria y uno de los grandes expertos y valedores de esta potente tecnología. Unos ingenios que cambiarán radicalmente un sistema educativo que "cuenta con escuelas del siglo XIX, profesores del XX y alumnos del XXI", según se planteó en un reciente encuentro de fabricantes y vendedores de estas innovadoras pizarras luminosas.

Variedad
El vértigo tecnológico permite que haya tantos modelos de pizarras digitales como de ordenadores. Su precio varía en función del modelo y las prestaciones, "pero no será descabellado establecer una media de coste en torno a los 3.000 euros y con tendencia a bajar" explica Dulac. Su denominador común es un manejo intuitivo y no demasiado complejo pero que exige "una familiaridad con la técnica de la que carecen muchos profesores". "Una técnica que va muy por delante de la capacitación de los profesores, en cuya formación hay que invertir sin complejos", dice.

En esencia una pizarra digital es una pantalla de grande dimensiones, en torno a la 80 pulgadas, el doble que los monitores de televisión caseros más grandes, sobre la que se puede escribir e interactuar, bien mediante un sistema de proyección o retroproyección, y gracias a su conexión directa con ordenador y complejas herramientas complementarias, como el lápiz óptico que sustituye a la tiza. Esto hace que no se limiten a las funciones de proyector y se puede escribir y borrar como se ha hecho siempre en las pizarras. En las llamadas "pizarras blancas" no proyectadas, se puede capturar todo lo escrito y mostrado sobre la superficie y convertirlo en un archivo digital en los formatos más populares, como PDF o JPG. Esto facilita el almacenaje en los ordenadores de los alumnos, unos archivos que se pueden compartir, imprimir y enviar por correo electrónico.

En las interactivas, por lo general electromagnéticas, las más poderosas herramientas en este ámbito, se puede escribir, borrar, dibujar y consultar todo tipo de archivos exactamente igual que con la pantalla táctil de un ordenador de grandes prestaciones. Se puede hacer correr cualquier de los programas que usamos habitualmente en nuestros computadores domésticos o portátiles.

Infrautilizadas
Son una herramienta muy efectiva para promover la participación del alumnado, y a menudo permiten interactuar desde los ordenadores mediante Bluetooth. Son atractivas y asequibles a unos estudiantes familiarizados desde muy pequeños con la tecnología, "pero exigen un profesorado que también esté al día con estas nuevas tecnologías" destaca Dulac. Una circunstancia "que no siempre se da", lo que está obligando en los colegios a contar a con la nueva figura del asesor tecnológico.

"Se da la paradoja de que hay colegios que instalan pizarras digitales sin contar con acceso a internet, y eso es como tener un Ferrari y carecer de gasolina", lamenta José Dulac, entregado a esta tecnología y a su expansión desde hace cinco años.

Estima este experto que "en un plazo de cinco años las pizarras electrónicas estarán en el 90% de las aulas, ese es el reto". La pizarra negra, a su juicio "ha dejado de tener sentido". Calcula que hay 40.000 pizarras electrónicas en las aulas españolas, "pero apenas se les saca todo el partido y el provecho pedagógico a un 25%". "En buena parte se debe a la falta de formación de los profesores para extraer todas las posibilidades de la interacción digital", dice Dulac. Sabe que cualquier esfuerzo inversor para adquirir esta pantalla "debe suponer un esfuerzo parejo en la formación de profesorado que muestra cierto respeto cuando desconoce la tecnología".

La experiencia está siendo más que satisfactoria en los colegios que ya cuentan con ellas, como el centro Público San Miguel, en el populoso barrio de Hortaleza de Madrid, que dirige Rosario Castro. Todas las aulas desde 5º de primaria hasta 4º de la ESO tienen pizarra electrónica y "la experiencia es más que positiva". Los profesores han constatado una mejora sustancial en la atención y la motivación de los alumnos y que es obvio que éstos el aprendizaje les resulta más atractivo.

Pero no todo son facilidades ya que la revolución digital pone a prueba al profesorado, obligado a reciclarse y a adaptarse a las nuevas tecnologías, "algo que se está revelando costoso en los profesores mayores de cincuenta años". Para que la adaptación fuera más llevadera hubo un largo periodo de adaptación y ahora hay un par de horas semanales de formación para los profesores. Un tiempo "escaso" a juicio de Dulac. "Un buen usuario de pizarra ha de de ilusionarse e ilusionar, y llegar a crear sus propios contenidos con internet como gran herramienta"

En Europa el país más avanzado en este campo es el Reino Unido, donde la apuesta personal de Blair hizo que el 90% de los colegios tengan hoy al menos un dispositivo de este tipo, presente en el 60% de las aulas. En España según José Dulac, hay pizarras digitales en la red académica de todas las comunidades, si bien su penetración es muy desigual. Las Comunidades con más pizarras digitales son Castilla y León -una por centro- Murcia -con todos sus centros dotados de dos pizarras digitales-, Galicia, Extremadura y Asturias. Andalucía, Madrid, Cataluña y Aragón van más despacio.

lunes, 1 de junio de 2009

Llega el bibliomóvil del Congreso de la Nación a Santiago

El bibliomóvil de la biblioteca del Congreso de la Nación llegará a la provincia de Santiago del Estero y abrirá sus puertas en la Capital el próximo 8 de junio, este logro inédito para la cultura de nuestra provincia es posible gracias a la gestión de la Diputada de la Nación, Lic. Ana Z. Luna de Marcos ante el Presidente de la Comisión Administradora de la Biblioteca del Congreso de la Nación, Dr. Juan Carlos Gioja y ha merecido la adhesión del Gobernador Gerardo Zamora y de los Intendentes Julio Alegre, de Clodomira Marisa A. Herrera, de Forres, Rubén Blasquez y de Termas de Río Hondo, Luis Saleme.

Lunes 8, Martes 9 y Miércoles 10 en Plaza San Martín con la recepción de alumnos de escuelas ya inscriptas, talleres destinados a docentes, bibliotecarios, escritores y público en general, para quienes el cuerpo de profesionales de la Biblioteca del Congreso encabezados por la Directora de Cultura, Lic. Inés Williams ya están trabajando a fin de elaborar un programa de actividades, muestras y talleres pedagógicos que aprovechen a pleno todo el material cultural que traslada el Bibliomóvil en cada visita que realiza a los rincones del país y en nuestra provincia sería importante el aporte y las inquietudes que se puedan hacer llegar por parte de instituciones, entidades, organismos y centros de formaciones, a fin de colaborar en la confección del programa de actividades.

El BIBLIOMÓVIL, un colectivo de 14 mts. de largo, lleva una biblioteca con más de 3.500 libros, diez computadoras, cine, videos y juegos educativos, forma parte del Programa de Promoción de la Lectura y la Escritura, "Cultura en Movimiento" que, desde hace seis años, desarrolla la Dirección de Cultura de la BCN. en el bibliomóvil se realizarán actividades libres y gratuitas de promoción de la lectura / Funciones de cine / Narración de cuentos / Encuentros de Lectura / Multimedia: iniciación a Internet / Juego y Arte.

Los propósitos de este programa son: Reconocer y promover la lectura y la escritura como una necesidad básica para el crecimiento y desarrollo humano, difundir los recursos de la Biblioteca del Congreso de la Nación a todo el país y proponer un reencuentro con los libros, que nos abren las puertas hacia las palabras, el mundo, las imágenes y los juegos. Por cualquier inquietud, información o sugerencia se pueden comunicar al Tel 4213098 en horario matutino.

Panorama. Llega el bibliomóvil del Congreso de la Nación a Santiago. [En línea] Fecha de publicación: 28/05/09
[Fecha de consulta: 1/06/09]

domingo, 31 de mayo de 2009

Los 10 peores hitos tecnológicos

Los 10 peores hitos tecnológicos

En el mundo de la tecnología se suelen ver listas con los mejores y más interesantes productos de cada segmento, pero los malos desarrollos o productos que no han llegado a buen puerto en el mercado suelen caer en el baúl del olvido. Precisamente vamos a hacer un repaso de los 10 productos tecnológicos que con razón o sin ella han sido un verdadero fracaso en el competitivo mercado tecnológico. ¿Adivináis cuáles son?

La informática, como parte de la tecnología, es un mercado en constante evolución y cuando un producto sale al mercado puede "llegar tarde" o simplemente no cumplir las expectativas y pasar a un segundo plano. Este artículo especial está basado en el
reportaje original en inglés de PC Authority, y vamos a comenzar haciendo mención a dos proyectos, que si bien no catalogamos dentro de la lista de las 10 peores tecnologías de los últimos años, sí merecen cierto grado de atención.

Mención honorífica: Seguridad Biométrica

Pese a haber disfrutado en miles de ocasiones en películas y series de televisión con el concepto que proponen dichas medidas de seguridad, es cierto que en el día a día los portátiles han dejado de integrar lectores de huellas digitales. El motivo, además del sobrecoste para el fabricante, es que a la hora de la verdad no era utilizada por la gran mayoría de usuarios, aparte del hecho de que la seguridad proporcionada no era tan notable como muchos pensaban inicialmente.

Implementaciones de este tipo de seguridad se han visto violadas con materiales baratos, hasta en aeropuertos internacionales. Otros sistemas de seguridad biométrica como son el reconocimiento facial también han sido saltados de forma sencilla gracias a fotografías. De hecho los sensores de ADN en huellas dactilares tampoco son muy efectivos. Realmente nadie ha demostrado que no pueden haber dos huellas digitales iguales.

Mención honorífica: Ubuntu

Este es un asunto delicado, porque si bien Ubuntu lleva un ritmo de desarrollo frenético y ha conseguido muchos adeptos y usuarios a lo largo de los últimos años, el porcentaje de mercado al que ha llegado es más bien bajo en comparación con otras alternativas, principalmente de Microsoft. A día de hoy Ubuntu acerca GNU/Linux a los usuarios de forma sencilla, sin necesitar ningún conocimiento del sistema operativo para realizar funciones de todo tipo como navegar por Internet o editar documentos ofimáticos.

Ubuntu ha conseguido colocarse como la distribución GNU/Linux más popular, pero aún no ha conseguido desplazar a Microsoft de su posición dominante, y, al ritmo que vamos, pasarán muchos años para que algo así pueda pasar. Uno de los segmentos donde Ubuntu tiene gran futuro es el de los mercados emergentes así como en la educación y sistemas institucionales, donde se puede conseguir que los sistemas operativos y software sean de Código Abierto y, por tanto, accesibles a cualquiera, sin tener que pagar una licencia de uso por ellos.

Como afirmo al comienzo, es un asunto delicado y no hay que confundir que Ubuntu sea un buen sistema operativo con que la situacion actual en el mercado no sea tan buena.

10.- Realidad virtual

A lo largo de los años, pocas tecnologías han prometido tanto y ha acabado ofreciendo tan poco. Las primeras unidades de realidad virtual comenzaron a llegar en los años 90, constaban de un casco y un mando de dirección y eran capaces de sumergirte en un mundo virtual en el cual podías moverte e interactuar conel escenario representado en tres dimensiones.

Teniendo en cuenta la tendencia actual del mercado así como el momento económico actual, es muy posible que no veamos nada novedoso en este campo a corto plazo, puesto que el siguiente paso en la tecnología implicaría implantes en el sistema nervioso y ello está muy lejos tanto a nivel técnico como temporal.

La realidad virtual se puede catalogar dentro de ese grupo de tecnologías que parecen ser una gran idea, pero que no tienen una aplicación práctica rentable, o al menos no de forma sencilla. El uso para juegos es muy limitado y a nivel empresarial su utilidad actual es prácticamente nula. A día de hoy el término de realidad virtual está limitado a un par de pantallas y a una buena tarjeta gráfica. Si el precio del hardware y software fuera más asequible quizá podríamos ver mejores usos, pero a día de hoy parece que el teclado, ratón y pantalla seguirán con su supremacía frente a la realidad virtual.

9.- Motores de búsqueda alternativos

Nos estamos acercando a una década desde que Google reina de forma indiscutible en el mundo de los buscadores, y en este momento tenemos que aceptar que el sitio de Google es la forma principal de buscar información en la web. Yahoo! y Microsoft están buscando alternativas para intentar acaparar parte del mercado de búsquedas, pero Google ha conseguido posicionarse como "el buscador" de facto.

No siempre ha sido así, y tan sólo tenemos que remontarnos a finales de los 90 para recordar una época en que los motores y servicios de búsqueda eran numerosos y crecían día tras día. Hablamos de servicios como Hotbot, Lycos, Northernlight y AltaVista, entre otros, que luchaban constantemente por conseguir cuota de mercado suficiente para superar al resto.

Tras la caída de las compañías de Internet, Yahoo! y Google renacieron de sus cenizas junto con MSN y posteriormente la carrera ha sido de Google en solitario con la mencionada pareja siguiéndole muy de lejos, sobre todo en nuestro país donde la supremacía de Google es manifiesta.

8.- Reconocimiento de voz

La tecnología de reconocimiento de voz es una de las más prometedoras de los últimos años, pero sin embargo requiere mucha potencia de proceso así como memoria y no ha sido hasta el lanzamiento de los Intel Nehalem cuando los desarrolladores de este tipo de soluciones han afirmado que un procesador es capaz de rendir lo necesario para dicho tipo de aplicaciones.

El reconocimiento de voz es un compendio entre hardware y software, que tiene que ser inteligentemente desarrollado. El problema básico vienen a ser los dialectos regionales así como los distintos idiomas que existen, algo que el software actual no es capaz de gestionar con soltura.
Una consecuencia de dicho problema es que el servicio es uno de los que un usuario abandona cuando comprueba que no es fiable. Cualquier persona que haya tenido que tratar con sistemas de reconocimiento de voz sabrá de lo que hablamos. Ilustremos la experiencia con las llamadas a los servicios de atención al cliente y los largos tiempos de espera intentando "hablar con una máquina" que insiste en que no entiende qué queremos decir y, o bien nos pasa con un operador, o bien nos cuelga.

7.- Apple Lisa

No todo ha salido tan redondo como el iPhone y la gama de iPods en la compañía de Cupertino. El equipo Apple Lisa fue uno de esos equipos quizá demasiado novedosos para la época en la que fue lanzado pero que se vio hundido por una terrible carencia de demanda, debida en cierta forma a su alto precio.

El Apple Lisa fue uno de los primeros equipos integrados de Apple, anterior al Macintosh, y que acusan de copia del Xerox Alto, que sin duda era un sistema increíble para la época. La fabricación de los posteriores Macintosh hizo posible una caída en los precios de los componentes que ayudó a su venta. Sin embargo, Lisa tan sólo quedó como paso intermedio en la cadena de equipos Apple. Muchas de las características del mismo fueron heredadas por los Macintosh, como por ejemplo la multitarea y el entorno gráfico que revolucionó el mercado y sería adoptado a la postre por el resto de sistemas operativos.

El problema principal de Lisa fue el precio. Dado que por el precio de ocho ordenadores Lisa, en aquélla época uno ¡se podía comprar una casa!. Al final Apple tuvo que retirar 3.000 equipos Lisa que no se vendieron.

6.- Ethernet 10 Gbits

La industria nos había preparado para un 2009 que entre otras cosas supondría el año de la acogida masiva del nuevo protocolo de red 10 Gbit Ethernet, que fue anunciado hace tres años. Sin embargo, parece que dicho despegue se está retrasando debido a distintas razones. El hecho es que ningún fabricante está integrando soporte del mismo.

Además de ello, las conexiones actuales de Gigabit Ethernet funcionan suficientemente bien como para tener que desembolsar dinero en toda la infraestructura necesaria para 10 Gbits cuando realmente es algo poco necesario. Otro de los problemas de dicha tecnología es que el cuello de botella en sí no es la conexión de red local, sino más bien la conexión a Internet. Obviamente las redes de área local se beneficiarían de esta tecnología, pero por el momento el ancho de banda disponible en Internet no hace precisamente necesaria ese salto a 10 Gbit Ethernet.

5.- FireWire

La conectividad FireWire aún está en uso, aunque de una manera mucho más reducida de lo que se esperaba. Su lanzamiento llegó cuando USB 1.0 era dominante y apareció como alternativa de alta velocidad al mismo. Tras la llegada del estándar USB 2.0 la gran mayoría de impresoras, cámaras y unidades portátiles de almacenamiento acogieron esa interfaz, dejando de lado las distintas evoluciones de FireWire.

FireWire fue técnicamente superior en términos de rendimiento incluso frente a USB 2.0, pero tuvo muy poca llegada al mercado de consumo. Ésta fue otra lucha de estándares comparable a la que se dio con los formatos de vídeo Betacam y VHS o los formatos ópticos Blu-ray y HD-DVD.

4.- Bluetooth

La conectividad Bluetooth está tomando forma en conexiones esporádicas entre móviles, pero hay un gran problema en la tecnología en sí. Cada fabricante introduce su propio código en la pila Bluetooth y ello es una lacra en cuanto a compatibilidad. Los fabricantes aseguran compatibilidad entre sus productos, pero esa forma de actuar hace complicada su popularización.

Bluetooth se usa a día de hoy principalmente para conectar los terminales móviles a manos libres, transmitir algún archivo, y poco más. Realmente podría haber sido mucho más si la mencionada compatibilidad no hubiera sido un hándicap tan importante.

3.- Itanium

Intel lanzó el procesador puro de 64 bits Itanium envuelto en un manto de optimismo en 2001, pese a ello, las plataformas de servidores no acogieron el procesador tan bien como se esperaba. El problema principal es que los chips, pese a rendir excepcionalmente, no soportan código de 32 bits, lo que ha hecho más reducido el campo de acción de los mismos. Muchos de los posibles compradores de Itanium han decidido esperar a que los desarrolladores optimicen su software para los nuevos chip, es decir para 64 bits.

La espera ha durado más de lo que se esperaba, y aún a día de hoy los desarrollos de 64 bits son contados. El destino de los Itanium se vio aún más complicado tras el lanzamiento por parte de AMD de los procesadores Opteron, que, aunque no eran tan potentes, sí que disponían de compatibilidad para los actuales programas de 32 bits y los venideros en 64 bits.

Intel no ha abandonado completamente esta gama de productos y sus Itanium 2 -que han evolucionado y han adoptado nuevos procesos de fabricación y cambios en su arquitectura- siguen vendiéndose. De hecho curiosamente
su cuota de mercado ha crecido en 2008, pero en cualquier caso se trata de un producto minoritario con respecto a otras ofertas en el mercado de los microprocesadores para servidores.

2.- Zune

El éxito de Apple en el terreno de los reproductores de música portátiles con su gama iPod era evidente cuando Microsoft decidió lanzar un producto para competir con ellos. Aquel producto era el llamado Zune, que para muchos analistas resultó ser un reproductor mediocre a pesar de los medios con los que cuenta el gigante de Redmond.

El problema de Zune es que realmente no destacaba en nada, era un reproductor más, pero incluso un poco peor en algunos aspectos y realmente peor en otros con respecto a sus competidores. Microsoft sigue confiando en este dispositivo, que se ha visto renovado con la aparición hace unos meses de un firmware mucho más potente y que ofrece funciones más avanzadas para sus propietarios. Es más: parece inminente la llegada de un
Zune HD que tendrá un lanzamiento internacional -hasta la fecha el Zune solo estaba disponible en EE.UU.- y que podría impulsar el papel de Microsoft en este mercado.

1.- Windows Vista

Seguramente a estas alturas todos los que nos leéis sabéis de sobra qué es Vista y qué problemas ha sufrido / hecho sufrir. El sistema operativo de Microsoft tardó más de cinco años en aparecer, y cuando lo hizo surgieron multitud de problemas que limitaron su éxito y popularidad.

Microsoft quiso hacer ver que Vista era el gran sistema operativo que vendría a sustituir a XP en sus últimos años, y a la hora de la realidad, nos encontramos con un sistema operativo en estado prácticamente beta, en palabras de Steve Ballmer.

El problema principal de Vista fueron sus altos requisitos técnicos que, en comparación con los de Windows XP prácticamente exigían una máquina nueva. Por ello, además de los problemas de compatibilidad, las empresas decidieron no dar el paso al frente y la mayoría de usuarios no ha actualizado sus máquinas, manteniendo el antiguo Windows XP aun hoy en día, cuando ese sistema operativo ya ha cumplido 8 años en el mercado.

Microsoft está cambiando su filosofía con Windows 7, un sistema que ya han lanzado en versión Release Candidate abierta, para que los usuarios lo prueben y reporten problemas, y que está resultando mucho más prometedor que su predecesor.

Antonio Moreno. Los 10 peores hitos tecnológicos. [En línea] Fecha de publicación: 19/05/09 http://muycomputer.com/FrontOffice/ZonaPractica/Especiales/especialDet/_wE9ERk2XxDDe_HwF6fwH_CpMf3inlQAPFHI26TO2-FLRVfcYjF7OwIssvgIaqvvL
[Fecha de consulta: 31/05/09]

sábado, 30 de mayo de 2009

La culpa de todo la tiene internet

El eco digital
Resulta esencial que la industria de los contenidos aparque su tecnofobia, abrace los métodos de distribución de la nueva era, se ponga manos a la obra y deje de perder energías en la fútil lucha contra la piratería.

Sorprende que en pleno 2009 todavía andemos discutiendo de ciertos temas, que a estas alturas deberían estar superados. Pero aquí estamos. Otra vez con la matraca de que internet es el hombre del saco de la industria de los contenidos, y de que la creatividad perecerá y el caos reinará si no se le pone freno. En Francia están en ello y, aunque hablaremos de ello en otro momento, el país vecino va a ser un ensayo de lo que pasa cuando criminalizas a la sociedad en su conjunto. La ley seca también se revocó. En Estados Unidos, el consejero delegado de Sony Pictures manifestó hace poco: "No veo nada bueno que haya salido de internet. Y punto".

El genio iluminado que pronunció estas palabras, Michael Lynton, tuvo a bien hace unos días desarrollar su postura en un artículo en el Huffington Post. Su tesis principal es que toda la industria de los contenidos ha sufrido enormes daños por culpa de internet, incluyendo cine, música, periódicos y libros. Y la causa fundamental de ese daño ha sido la piratería. Lo cual ya es de por sí llamativo, porque no recuerdo grandes titulares relacionados con la piratería de libros o de periódicos.

Que la industria de los contenidos está en un cruce de caminos no es nada nuevo. Que no saben hacia dónde ir, tampoco. Que disparan a lo primero que se mueve sin estudiar detenidamente su impacto o sus consecuencias, tampoco. El trascendental cambio de la industria tiene componentes estratégicos de tal calado que la piratería es tan sólo uno de ellos y ni siquiera el más importante. Algunos argumentos al respecto:

Los soportes se mueren: Ni el CD, ni el DVD, ni el Blu-Ray, ni el papel, ni ningún otro soporte van a ser la única forma de entrega de un producto. Además irán en declive. Las formas de entrega se multiplican: portátiles, móviles, mp3, lectores de libros o periódicos electrónicos, etc... Ante esta realidad, ¿qué han hecho las industrias de contenido?: restringir el uso del contenido mediante DRM, vender contenido de menos calidad al mismo precio o superior, o restringir los usos del contenido e incomodando al usuario, que tenía un incentivo mayor en la descarga del contenido P2P (mejores prestaciones, menor precio) que en la compra del contenido. Para empezar no está mal: penalizo a quien me compra. Tras muchos años, han dado marcha atrás y venden sin DRM, curiosamente en los últimos meses no oigo nada negativo sobre la venta de música online. Ahora tanto el cine como los libros están siguiendo el mismo camino, y cometiendo los mismos errores: la industria no aprende.

El recurso escaso por el que compite toda la industria de los contenidos es la atención de sus usuarios, que pese a la multiplicación por millones del volumen de información, sigue manteniéndose constante. Es decir, que compites por la atención de los usuarios, en competencia, no con música, periódicos y libros, sino con millones de sitios web, video web, podcast, emisoras de radio web, y un largo etcétera. Es decir, que el contenido se ha devaluado de manera natural porque, lejos de ser rey, es una commodity. La mayor superproducción de Sony Pictures compite con el vídeo de Susan Boyle, por poner un ejemplo cualquiera. No sólo hay que pegarse por la atención de tus consumidores, hay que incluso incentivarla para arrancársela a la "competencia".

El usuario manda. Un ejemplo para el señor Lynton: históricamente, las salas de cine han ido primero, meses después los canales de televisión de pago, meses después el DVD, etc... Al usuario los timings de mercado no le interesan lo más mínimo. El usuario quiere elegir dónde, cuándo y cómo ver una película, y no entiende de planificación. Si el usuario quiere ver Lobezno en el sofá de su casa el día del estreno se lo bajará y lo verá. Y si Sony Pictures se adelanta a esa necesidad tal vez saque mucho dinero de ella. O tal vez no si la película es una porquería. Porque esto de "me he gastado 20 millones de dólares en una película, luego voy a conseguir rentabilizarla en dos fines de semana" también es parte del pasado. Lo mismo con la televisión: el usuario quiere ver el capítulo cuando se emite, ya sea en directo o en diferido, bajado de internet o no. Nada de esperar meses a que el capítulo llegue, sea pésimamente doblado y se emita en una televisión española. Se baja el capítulo original, los subtítulos trabajados por voluntarios apasionados, y listo. ¿Dónde está la industria en medio de todo este tinglado? Moviéndose a paso de tortuga y criminalizando a sus usuarios. Pura estrategia, oiga.

Los cambios tecnológicos son amenazas: La industria del contenido lleva viendo fantasmas desde hace 15 años. En todo ven problemas: dar su contenido en abierto en internet era un problema, durante un tiempo lo hicieron de pago (los periódicos, así les fue); incentivar la venta de ebooks no es una prioridad, pese a que podría salvar muchos periódicos; los mp3 son instrumentos del diablo, el usuario debe pagar un canon para usarlos (y así con tantos y tantos soportes). Y lo mismo harán con los media centers que reproducen formatos "piratas" y otros dispositivos parecidos. En realidad, deberían estar fomentándolos. Deberían darle al usuario millones de opciones y luego venderle un producto sobresaliente a un precio imbatible. Incluso gratis si cabe.

El copyright no tiene sentido tal y como está legislado en el mundo occidental. Cuanto antes se den cuenta los legisladores de que las protecciones que están imponiendo no van en beneficio del autor ni del consumidor, mejor.

El talento, lejos de disminuir, aumenta. Cada vez más autores publican su trabajo en internet: canciones, dibujos, libros, cortos, series, artículos, etc. La falacia perversa de que la piratería acaba con el talento porque nadie querrá ser autor choca con la realidad y deja en evidencia a la industria de la intermediación. El coste de los medios de producción, distribución, promoción tienden a cero, facilitando esa multiplicación del talento. La experiencia única del concierto en vivo crece en relevancia... y en precio.

La falta de adecuación de la industria a estos aspectos es lo que debería quitarle el sueño al señor Lynton, y no que cuatro millones de personas se bajaran la película de Lobezno (¿cuántos la vieron realmente? ¿Y en el cine, cuántos millones la han visto?). Bajarse un contenido no significa consumirlo, sino solamente descargarlo, un acto de curiosidad, un try before you buy de los usuarios que más contenido consumen. Es decir, de los usuarios que más dispuestos están a pagar por ello.

La piratería es lo de menos. Lo de más es que la industria de los contenidos aparque su tecnofobia, abrace los métodos de distribución de la nueva era, se ponga manos a la obra y deje de perder energías en la fútil lucha contra la piratería. Eso implica mayor agilidad, probablemente implique ganar menos dinero (o más bien, márgenes razonables), y sin duda no volveremos a la poderosa industria del siglo XX, pero también implica sobrevivir. Si lo hacen bien, la piratería pasará a ser un fenómeno anecdótico y poco relevante económicamente hablando (en muchos aspectos, ya lo es). Si siguen como hasta ahora, las guerras de la propiedad intelectual continuarán dentro de 10, 15 años, sin solución de continuidad y sin ningún equilibrio de fuerzas: el consumidor se saldrá con la suya, cueste lo que cueste. La corporación, no.

Eduardo Pedreño. La culpa de todo la tiene Internet. [En línea] Fecha de publicación: 30/05/09
http://www.libertaddigital.com/opinion/eduardo-pedreno/la-culpa-de-todo-la-tiene-internet-49452/
[Fecha de consulta: 30/05/09]