31 marzo 2009

Tecnología líquida, en El Mundo

Si no has comprado El Mundo hoy, te recomiendo que te bajes al quiosco: el especial de tecnología que publica hoy con motivo de los veinte años de la web es de los que vale la pena guardar hasta que amarillee. Entrevistas interesantes, artículos de coyuntura, una cronología histórica con los principales hitos tecnológicos del período 1989 - 2009, perfiles de los veinte personajes más influyentes de la historia de la red… si te gusta la tecnología (y si estás aquí leyendo ésto asumo que sí), es un suplemento con el que seguramente disfrutarás.

En su página 28, me publican un artículo prospectivo, “Tecnología líquida” (pdf), cuyo texto reproduzco a continuación. Además, me citan en “Las caricias del nuevo milenio” hablando de redes sociales, y como miembro del comité de selección de los veinte personajes influyentes de la historia de la red, ejercicio que fue verdaderamente difícil, pero muy entretenido.

A continuación, mi columna:

Tecnología líquida

Los líquidos se caracterizan por adaptarse siempre a la cavidad que los contiene, y por penetrar superficies permeables. La tecnología de hoy es como un sólido: vive en compartimentos estancos y definidos. Se asocia a dispositivos concretos, a funciones específicas, a públicos determinados. Hay generaciones impermeables a la tecnología, que se resisten a impregnarse de ésta como si fuese a sustituir o desvirtuar, en lugar de complementar, las actividades que llevan a cabo. Existen políticos que intentan detenerla, como si eso fuese posible, como si alguna vez en la historia hubiesen ganado alguna batalla los del bando que se opone al progreso tecnológico. Hay empresas que la marginan a determinadas áreas funcionales o la restringen a determinado personal, y hasta países que intentan bloquearla para que sus ciudadanos no accedan a ella. Constantemente, nos encontramos situaciones en las que nuestras posibilidades de utilizar la tecnología como querríamos resultan escasas o nulas, bien por la imposibilidad de acceso a un determinado dispositivo, por la ausencia de conectividad o la alimentación eléctrica, o por nuestra pura y simple ignorancia.

¿A dónde se dirige la tecnología en el futuro? Imaginemos un mundo en el que muchas de las actuales limitaciones desapareciesen, una economía de la abundancia en recursos tecnológicos: baterías cuya duración no resultase limitante, conectividad ubicua, dispositivos omnipresentes y de uso sencillo… En algunos temas, la economía de la abundancia ya está aquí: en el acceso a la información, por ejemplo. Nunca en la historia de la humanidad ha tenido una persona tanta información al alcance de su mano, y la posibilidad de manejarla, además, con procedimientos razonablemente sencillos. En los últimos años, se unió al manejo de la información la capacidad de las personas de añadir a ese enorme repositorio su propia información: fotografías, anotaciones, opiniones, vídeos, recursos favoritos, etc. Para un joven despierto, hoy resulta perfectamente familiar manejarse en la red entre una multiplicidad de herramientas para desarrollar estas funciones, herramientas que, además, interactúan entre sí. La tecnología, hoy, está presente en casi todos los aspectos de su vida: cuando accede a información, cuando se relaciona con otras personas, cuando les dice dónde está o qué hace, cuando lee, cuando estudia, cuando se documenta, cuando mantiene conversaciones casuales… y la tecnología no solo está ahí, sino que le acompaña cuando abandona la pantalla del ordenador, a pesar de encontrarse todavía importantes limitaciones para ello.

El futuro de la tecnología es un cambio de estado: de permanecer en compartimentos estancos, a penetrarlo todo, hasta el escepticismo; a empapar todas nuestras actividades. En décadas anteriores creamos protocolos y lenguajes. pasamos de ideas a código. En los últimos años, hemos solidificado su uso y desarrollo. En el futuro, la tecnología estará en todas partes: será una tecnología líquida.

(Enlace a la entrada original - Licencia)

El síndrome de Diógenes y el correo electrónico, en El País

El País publica un artículo sobre la gestión del correo electrónico, “Y el síndrome de Diógenes llegó al ordenador” (pdf), inspirado en aquella vieja entrada que publiqué en 2005 sobre la gestión personal de mismo. Para el artículo mantuve una conversación telefónica larga con su autora, Cristina Castro, que me llevó a pensar un montón en cómo han cambiado las cosas desde la fecha de publicación original de mi entrada, hace ahora cuatro años, un mes antes del debut en la red de ese Gmail de Google que para mí marcó un antes y un después en la gestión del correo electrónico: antes de Gmail, me dedicaba a ejercitar lo que llamaba “el perfil auditor”; clasificar mis correos, meterlos en carpetas, hacer copia de seguridad cada cierto tiempo… el programa que usaba, Outlook, permanecía siempre abierto en mi máquina devorando memoria, tenía una búsqueda que no era ni buena ni mala, sino simplemente patética, y si pretendía acceder desde la web, me hacía usar aquel OWA que parecía un chiste de feo, lento y malo que era. Y si quería tener mi correo en la web, mi alternativa era usar correos como Hotmail, Yahoo! o Terra que insertaban publicidad en el pie de mis mensajes, que me daban unos pocos megas de capacidad, y que estaban habitualmente de spam hasta las orejas.

Cuatro años después, mi correo está todo en la red (tras cuatro años sin hacer clic en el icono de Outlook, ya casi ni recuerdo como era), accedo a él desde cualquier sitio y dispositivo, busco en él y encuentro siempre lo que necesito, tengo ocupados 5.6GB (32%) de 17.1GB disponibles, ocupo únicamente la memoria que usa mi navegador, el spam ni lo veo porque se organiza él solito en su carpeta sin intervención mía de ningún tipo, y unos cuantos filtros automáticos son toda la organización que necesito. Hoy en día, mi organización del correo es, como comentaba en mi entrada de Marzo de 2005, puro Síndrome de Diógenes: no borro prácticamente nada, almaceno todo en aparente desorden, pero cada vez que necesito algo de mis últimos cuatro años de correo, lo encuentro sin ningún problema esté en un ordenador o en un teléfono móvil. La tecnología, la buena tecnología, me ha permitido una gestión infinitamente más eficiente a cambio de una inversión en recursos personales muy inferior.

Que viva Gmail y que viva Diógenes :-)

(Enlace a la entrada original - Licencia)

La comunicación en una sociedad hiperconectada: el caso de los helados D?Onofrio a un sol

donofrioOtro de esos temas de comunicación cada día más habituales en una sociedad hiperconectada (gracias por la pista, Enrique): los Helados D’Onofrio, líder histórico de mercado en Perú, lanzan una promoción denominada “Gracias Perú” consistente en poner todos los productos de la compañía que se venden en los triciclos de los heladeros a un precio de un sol (unos 24 céntimos de euro) durante dos días, viernes 27 y sábado 28 de Marzo. Para lanzar la promoción, utilizan fundamentalmente Internet: mensajes de correo electrónico en cadena, y promoción en su página web.

Sin embargo, parece que la compañía deja “algunos cabos sueltos” en la comunicación de la promoción a lo largo de su cadena de distribución, lo que provoca que numerosos heladeros se nieguen a vender los helados a ese precio, sirvan únicamente los helados de precios más baratos, o pretendan obligar al cliente a adquirir dos helados para hacer uso de la oferta. El resultado es inmediato: empezando a las diez de la mañana, Twitter se llena de mensajes de clientes insatisfechos denunciando la imposibilidad de encontrar heladeros que sirvan la promoción anunciada. En muy poco tiempo, una búsqueda en Twitter con la palabra “heladeros” devuelve infinidad de páginas de comentarios de clientes insatisfechos: en cuestión de horas, la protesta llega además a Facebook y a YouTube, con grupos creados denunciando la promoción como una estafa y vídeos con pruebas de la imposibilidad de conseguir productos en los términos de la promoción y entrevistas a los heladeros. Recorrer las páginas de búsqueda en Twitter se convierte en una retransmisión completa de la frustración creciente de los clientes que no encuentran el producto, y de cómo las dudas iniciales se acaban convirtiendo en sonoras protestas contra la compañía.

Tras el escándalo inicial desatado a través de la red, la “crisis de los heladeros” ha desembocado en denuncias a la compañía ante INDECOPI (Instituto Nacional de Defensa de la Competencia y de la Protección de la Propiedad Intelectual) por parte de los clientes, denuncias de los heladeros, y posibles sanciones importantes por publicidad engañosa. Dale a la sociedad un vehículo de comunicación eficiente, y cosas que antes habrían quedado en unos cuantos consumidores frustrados por no encontrar la oferta prometida, se convierten en cuestión de horas en escándalos a toda plana en prensa nacional. Toda una crisis desatada a “velocidad Internet”, y que la mayoria de las empresas, a día de hoy, no son capaces de gestionar con eficiencia.

(Enlace a la entrada original - Licencia)

30 marzo 2009

The Open Cloud Manifesto

Tras ser objeto de una cierta polémica durante la semana pasada, está ya finalmente disponible el texto del Open Cloud Manifesto, una iniciativa de varias empresas entre las que destacan IBM, Sun Microsystems, Cisco, Novell, Red Hat, EMC y varias más (entre otras la española Telefonica), para definir lo que serán las reglas de juego de las iniciativas de Cloud Computing que estamos ya viendo y que se generalizarán como el nuevo esquema computacional característico de los tiempos en que vivimos.

La polémica se desató la semana pasada a partir de una entrada de Steven Martin, de Microsoft, en las que atacaba la iniciativa y la tildaba de secretista y de oscura.  Steven afirmaba que lo que había que hacer era poner el documento en un wiki y discutirlo abiertamente, y que la cuestión de los estándares precisaba una discusión larga hasta que el proceso se solidificase. El recurso a este tipo de técnicas no es nuevo en la estrategia de Microsoft: reclamar el desarrollo de un proceso supuestamente abierto en el que poder intervenir, para poder llegar a posiciones de fijación de estándares ventajosas mediante la saturación del proceso con “votos amigos” y estandarizaciones de facto. En realidad, el Open Cloud Manifesto es un documento enormemente generalista y abierto, que pretende sentar definiciones y bases de funcionamiento de cara al futuro, y en ese sentido resulta de lo más recomendable revisar cada una de sus seis páginas.

Junto con ese reciente vídeo de Salesforce.com, el Open Cloud Manifesto es una manera interesante de visualizar los futuros escenarios en los que empresas y particulares desarrollaremos nuestra actividad en los próximos años, lejos ya de la visión ordenador-céntrica propia del siglo pasado. Sin perder de vista los peligros y limitaciones, pero con la mentalidad clara acerca de dónde vamos: un mundo caracterizado por la escalabilidad, el adelgazamiento del datacenter corporativo, la mejora de los procesos de negocio y la reducción de costes para las compañías que inician sus actividades. El documento define las seis principales barreras y desafíos a tener en cuenta de cara a la adopción: la seguridad, la interoperabilidad de datos y aplicaciones, la portabilidad basada en estándares, la gestión y gobernanza de las iniciativas, y la medición y monitorización de los sistemas. Los objetivos propuestos, por tanto, son la libertad de elección de proveedor y arquitectura, la flexibilidad basada en interoperabilidad, la velocidad y agilidad para el cambio y el redimensionamiento, y la disponibilidad de profesionales formados en un conjunto menor de tecnologías.

Para lograr los objetivos, los firmantes del Open Cloud Manifesto ratifican seis principios:

  1. Trabajar juntos para que los retos fundamentales en la adopción sean solucionados mediante colaboración abierta y el uso adecuado de los estándares
  2. No utilizar su posición de mercado para convertir a sus clientes en cautivos de una plataforma concreta  y limitar su libertad de elección
  3. Usar y adoptar los estándares existentes siempre que sea posible, para evitar así reinventarlos o duplicarlos
  4. Recurrir con prudencia a la creación de nuevos estándares, y cuando así sea por necesidad, hacerlo con pragmatismo, reduciendo el número de estándares necesarios, y asegurando que éstos promueven la innovación en lugar de inhibirla
  5. Llevar a cabo iniciativas en función de las necesidades del cliente, no de las necesidades técnicas de los proveedores
  6. Trabajo conjunto y coordinado de todos los actores implicados para evitar que sus iniciativas entren en conflicto o se solapen.

De cara a ver el establecimiento definitivo de esta serie de principios generales, falta por ver cuál es la posición que adoptan algunos de los actores principales al respecto: entre otros, faltan por definirse tres actores importantes y muy activos: Google, Amazon y Salesforce, con iniciativas muy importantes dentro del Cloud Computing a día de hoy. En cualquier caso, el desarrollo de este proceso normativo es importante, y a pesar de toda la parte política involucrada en el tema, parece intentar aprender claramente de los errores del pasado. Veremos como se sigue desarrollando.

(Enlace a la entrada original - Licencia)

29 marzo 2009

Dos columnas pequeñas y una entrevista

Dos columnitas cortas escritas recientemente: por un lado, Caja Navarra, entidad con la que colaboro como miembro de Saviálogos, me pidió una pequeña columna para una de sus publicaciones, que titulé “Recuperar la conversación“. Por otro lado, Diego Pontones me pidió una columna muy corta para una revista internacional sobre cultura española, Babylon Magazine, para su sección “It’s on me”. Se titula Speed y el tema es la velocidad de la tecnología y las reacciones de los medios de comunicación.

Y de propina, una entrevista, la que me hizo Miriam Reyes tras mi intervención en las 2es Jornades de la Catosfera.

(Enlace a la entrada original - Licencia)

Dos columnas pequeñas

Dos columnitas cortas escritas recientemente: por un lado, Caja Navarra, entidad con la que colaboro como miembro de Saviálogos, me pidió una pequeña columna para una de sus publicaciones, que titulé “Recuperar la conversación“. Por otro lado, Diego Pontones me pidió una columna muy corta para una revista internacional sobre cultura española, Babylon Magazine, para su sección “It’s on me”. Se titula Speed y el tema es la velocidad de la tecnología y las reacciones de los medios de comunicación.

(Enlace a la entrada original - Licencia)

28 marzo 2009

Las 2es Jornades de la Catosfera y los espacios lingüísticos

cdigital09Segundo día en las 2es Jornades de la Catosfera, y sensaciones francamente agradables. Me invitaron a abrir las jornadas ayer, y dado mi escaso manejo del catalán, me limité a traducir los textos de mi presentación (en mi caso, eso significa traducir la primera y la última diapositiva, dado que el resto carecen de texto) y a una breve salutación inicial de esas típicas de “bon día a tothom, gràcies per la invitació i… hasta aquí llega todo mi catalán”.

El programa está conformado por una combinación de conferencias y mesas redondas mayoritariamente en catalán, pero con inclusión de algunos castellanoparlantes, y hecho con absoluta naturalidad, asumiendo dos realidades: una, que todo catalanoparlante entiende el castellano, y dos, que para cualquier castellanoparlante, resulta suficientemente sencillo entender y seguir una conferencia o conversación en catalán. Y efectivamente, así ha sido: no hemos tenido ningún problema para seguir las conferencias, y las situaciones podían ser, en ocasiones, de personas que preguntaban en catalán a un castellanoparlante que contestaba en castellano, o viceversa, de preguntas en castellano a catalanoparlantes que contestaban en catalán. Con total y absoluta naturalidad, con conciencia de que el espacio lingüístico de una persona está compuesto por todos aquellos idiomas que es capaz de entender, y que en muchas ocasiones resulta absurdo convertir en excluyente lo que no tiene ninguna necesidad de serlo. Mientras tanto, me lo paso la mar de bien practicando mi catalán en Twitter y en Facebook: no parlo català, m’agradaria però no m’atreveixo. El que passa és que en realitat, s’entén perfectament, i per escriure’l m’ajuda una miqueta el senyor Google ;-)

(Enlace a la entrada original - Licencia)

27 marzo 2009

Tecnología y curvas de difusión

doi1La archiconocida curva de difusión de la innovación de Everett Rogers (aquí, en su forma acumulativa) y el posterior, menos conocido pero más riguroso modelo de difusión de Bass son dos de los modelos que más utilizo habitualmente para intentar explicar los procesos de popularización de todo tipo de tecnologías: fácilmente modelizables, incluso cuando se truncan por fenómenos de sustitución (un elemento no recogido en el primero, pero claramente presente en el segundo), son seguramente una de las mejores guías que toda persona con capacidad de toma de decisiones en entornos tecnológicos debería manejar como manual de cabecera. En el modelo de Bass, los parámetros que definen de manera más clara la forma de la curva son p, el coeficiente de innovación; y q, el coeficiente de imitación (además de los evidentes: potencial de mercado, base instalada y tasa de cambio de la misma) y son perfectamente estimables con un nivel de información adecuado y reservándose el adecuado análisis de sensibilidad.

En un entorno como el de la tecnología, tener el acierto de apostar o de no hacerlo por la tecnología adecuada resulta fundamental. Pero cada día más, la palabra “apostar” pierde más su justificación, y se convierte en algo cada vez más científico: enmuchos casos, estimar cuando una innovación va a triunfar en el mercado o no va a hacerlo es algo que puede hacerse con un buen nivel de certeza si conocemos algunos de los parámetros de la curva de difusión. En otras ocasiones, las curvas de difusión sufren impactos derivados de, por ejemplo, el apoyo de un actor importante en el mercado, cuya adopción modifica los parámetros - no todos somos iguales ni ejercemos la misma influencia sobre los mercados, y el fenómeno, por ejemplo, de las redes sociales nos ha demostrado a todo color hasta qué punto importa obtener el apoyo de los actores adecuados en cada momento. En tecnología, saber escoger la tecnología adecuada y el momento de apostar por ella puede suponer ventajas competitivas importantes, o dar lugar a sonoros fracasos si, por ejemplo, nos adelantamos a la acogida del mercado sin tener el pulmón financiero suficiente como para aguantar hasta que ésta se produzca.

Algunos casos son de libro: Amazon, por ejemplo, es un jugador habitual de tecnologías tempranas. Toda su historia - la entrada en el comercio electrónico, la adopción de tecnologías de recomendación mediante filtrado colaborativo, la oferta de servicios en la nube, los lectores de libros electrónicos, etc. - son casos de estudio de la curva de difusión y de toma de una decisión de entrada muy temprana, apoyada tanto en el papel de “juez y parte” de la compañía por su valor de referencia, como en el hecho de poseer la capacidad financiera adecuada - no hay como salir al mercado en plena euforia puntocom - para esperar a que el mercado se desarrolle y beneficiarse del efecto pionero de quien prácticamente define la categoría.

Obviamente, nadie tiene la bola de cristal ni puede hacer predicciones con un cien por cien de seguridad. Pero estudiar estos modelos y aplicarlos a los casos recientes de difusión de fenómenos tecnológicos conocidos (blogs, redes sociales, microblogs, geolocalización, etc.) es algo que cada día aporta más valor a quien toma decisiones en el ámbito de la tecnología, sean éstas para decidir comprar un gadget determinado o para comprometer la inversión tecnológica de toda una compañía.

(Entrada inspirada por las discusiones en mi clase de ayer en el Advanced Management Program de Zaragoza. Que no sé qué tal estuvo, porque aún no tengo encuestas ni las tendré hasta que termine el próximo jueves, pero en la que yo, al menos, me lo pasé fenomenalmente bien. ¡Vaya grupo! :-)

(Enlace a la entrada original - Licencia)

26 marzo 2009

Experimentando con la participación ciudadana

openforquestionsComo un “Tengo una pregunta para usted“, pero a lo bestia: en lugar de cien ciudadanos escogidos por TNS-Demoscopia, la participación proviene en este caso de cualquiera que pueda acceder a Internet, registrarse, y apuntar con su navegador hacia Open for Questions, la página que el Gobierno de los Estados Unidos ha preparado para recoger de manera abierta las preguntas en una plataforma de filtrado colaborativo e el más genuino estilo de Digg, Reddit o Menéame. Por el momento - la página está abierta desde el pasado martes y se cierra este jueves - han participado más de sesenta y siete mil ciudadanos, que han formulado más de setenta y tres mil preguntas, y emitido más de dos millones setecientos mil votos. El jueves a las 11:30, el Presidente Obama dará un discurso en el que se espera que responda a muchas de las preguntas planteadas.

La página constituye un experimento de primera magnitud en la gestión de la participación ciudadana, a la que muchas instituciones o partidos políticos deberían prestar atención: la mejor traslación que he visto hasta el momento del ágora ateniense a nuestros días, y desarrollada además con un derroche de simplicidad. Las preguntas pueden enviarse en modo texto o vídeo, y son sometidas a la votación positiva o negativa de los participantes en el sitio, que pueden emitir un “like”, un “don’t like” o un “Flag as inappropriate”. La herramienta ha sido desarrollada por el equipo de Presidencia utilizando Google Moderator, una aplicación construida sobre App Engine y que se utiliza habitualmente en la empresa para desarrollar sesiones de preguntas y respuestas (Q&A) con los directivos e invitados. En esta ocasión, como comentan en el blog oficial de Google, la herramienta es puesta a prueba y escalada hasta el extremo.

Las páginas de filtrado colaborativo sufren problemas por todos conocidos: iniciativas más o menos coordinadas de grupos de interés que quieren promocionar sus preguntas, ataques de trolls, etc. y, por otro lado, como detalla un buen artículo de Wired al respecto, el Gobierno tampoco puede usar cualquier tipo de herramienta: no puede recopilar información sobre los participantes de una manera que pueda considerarse intrusiva, ni discriminar o eliminar determinadas preguntas sin correr el riesgo de ser acusados de censura. Por el momento, el primer grupo en organizarse para lograr hacerse oír en la página han sido los activistas pro-legalización de la marihuana, que han inundado el sitio con preguntas referentes al tema y se votan entre ellos para elevarlas a la categoría de las más votadas: todo ello, no lo olvidemos, en un debate sobre economía donde tal cuestión tiene entre poca y nula relevancia. Tales iniciativas, en cualquier caso, chocan con la voluntad de los ciudadanos interesados en un debate legítimo, que votan negativamente aquellas preguntas que consideran irrelevantes, al tiempo que promocionan aquellas que les parecen interesantes. Los mecanismos de dicha participación, acompañados por los criterios que el Presidente muestre a la hora de escoger las preguntas - no se ha revelado si escogerá sobre las más votadas aquellas que le parezcan más interesantes, si contestará en orden de relevancia o si simplemente responderá aquellas en las que tenga posibilidad de mencionar políticas que su administración haya avanzado.En cualquier caso, hablamos sin duda de un nuevo tipo de política, apoyada en herramientas tecnológicas, para pulsar la participación ciudadana y responder a la misma con eficiencia. Un gobierno con orejas, un experimento más que interesante - aparte del gustazo que es ver a una institución del calibre del Gobierno de los Estados Unidos experimentando con semejante tranquilidad - y una iniciativa que seguramente veremos muy pronto en muchos otros sitios.

(Enlace a la entrada original - Licencia)

25 marzo 2009

Sabes que el mundo ha cambiado?

skype… cuando la compañía más importante en número de llamadas internacionales con gran diferencia ya no es una empresa de telecomunicaciones clásica, sino Skype, una empresa que hace cinco años ni siquiera existía.

Probé por primera vez Skype allá por Junio de 2004. Desde entonces, es una compañía de la que hemos hablado en infinidad de ocasiones, sobre la que he escrito en medios, y que me ofreció la oportunidad de traer a IE Business School tanto a uno de sus fundadores, Niklas Zennström, como a algunos de sus principales ejecutivos con cierta regularidad. A lo largo de su corta historia, Skype ha protagonizado historias de todo tipo, que la han llevado a recibir innumerables calificativos, ha provocado que algunas telcos clásicas tuviesen que remodelar sus estructuras de precios para evitar fugas de clientes, se la ha intentado bloquear en determinados países, se la ha querido bloquear porque no daba servicio de llamadas de emergencia, ha sido cuestionada, adquirida… sin duda, una historia muy movidita.

Recuerdo que durante mucho tiempo tenía una dispositiva en mis presentaciones en la que actualizaba cada vez el número de descargas de Skype y el número de minutos servidos, mediante unos datos que la empresa actualizaba periódicamente en su página, hasta que dejó de tener sentido hacerlo. El dato sorprendía siempre a muchos de los asistentes, que veían Skype como “algo de frikis” y que no otorgaban validez alguna a sus posibilidades. Hoy, es el mayor proveedor de minutos de comunicaciones a larga distancia del mundo, por encima de todos los monopolios o ex-monopolios nacionales y de empresas multinacionales de primer nivel. Y por supuesto, nos lleva a plantearnos de nuevo qué pinta una compañía como ésta dentro de eBay, que ha sido completamente incapaz de extraer de ella sinergia alguna y que más que posiblemente lastre su desarrollo potencial con una estructura que no le permite poner el énfasis adecuado en su expansión.

(Enlace a la entrada original - Licencia)

24 marzo 2009

IPREDATOR, la solución de The Pirate Bay contra la vigilancia en Internet

ipredatorSabíamos que iba a pasar, y quienes lo ha llevado a cabo han sido precisamente The Pirate Bay, en el ojo del huracán por su juicio ante las autoridades suecas: hasta el momento, una persona que quisiese esconder su identidad en Internet, evitar barreras geográficas, saltarse sistemas de censura o descargarse lo que quisiese sin temor a ningún tipo de represalias podía contratar un servicio de VPN (Virtual Private Network), que a cambio de una cantidad determinada al mes, cifraba su tráfico, lo redirigía a través de los servidores de la empresa, y le proporcionaba además una dirección IP que enmascaraba la suya. Sin embargo, existía todavía la posibilidad de que la empresa detrás de la VPN fuese requerida judicialmente por las autoridades para facilitar los nombres de sus usuarios y sus actuaciones.

Ahora, The Pirate Bay anuncia el lanzamiento en beta de IPREDATOR, una herramienta de anonimización que, además, no almacena logs de la navegación de sus usuarios, convirtiéndose por tanto en completamente opaca. A cambio de un pago de cinco euros al mes, IPREDATOR ofrece seguridad y enmascaramiento absolutos, y se convierte en la reacción ante la presión del lobby de la propiedad intelectual ante los gobiernos y los ISP: como decíamos ya hace tiempo, hay cosas que están embebidas en el mismísimo protocolo de Internet, y que no pueden ser evitadas de ninguna manera. Así tengamos que cifrar toda la red.

El servicio será presentado en beta cerrada - puedes apuntarte para la misma en esta página - y se irá abriendo a medida que pruebe su funcionamiento con cargas progresivas.

(Enlace a la entrada original - Licencia)

No salgas de casa sin seguro

camaratraficoSe calcula que en los Estados Unidos, uno de cada cinco conductores circulan sin el seguro obligatorio, y que este número crece a medida que se incrementa la incidencia de la crisis económica. Los conductores sin seguro, además de incurrir en una ilegalidad, contribuyen al incremento del coste de las pólizas del resto de los conductores, que se ven obligados a cubrir la eventualidad de tener un accidente contra un vehículo no asegurado. Sin embargo, los conductores no asegurados únicamente son identificados cuando son detenidos por alguna otra violación del código o inspeccionados de manera rutinaria, dado que hasta el momento, no existía ninguna manera de comprobar el estado del contrato de seguro de un vehículo en tiempo real.

Una empresa norteamericana, InsureNet, ha desarrollado una tecnología de interconexión de bases de datos múltiples con el fin de poder verificar de manera instantánea la validez de la póliza de seguro de un vehículo en circulación: la empresa se alimenta con los datos de las aseguradoras, y crea un código único (UC) formado a partir del número de póliza y del número de identificación del vehículo (VIN). En el momento en que un vehículo pasa por una cámara de control de tráfico sin estar provisto de una póliza válida, el sistema genera de manera automática la correspondiente multa, como aplicación inmediata del principio de “si no tiene usted seguro, no puede estar ahí”. Del mismo modo, un policía equipado con su infraestructura habitual de comunicaciones - PDA, radio, etc. - puede verificar de manera inmediata el estado de la póliza de un vehículo en circulación. El servicio, que intenta consolidarse como un estándar, se está ofreciendo a las administraciones estatales, que se plantean su adopción no solo por los evidentes beneficios de retirar a los conductores no asegurados de la circulación, sino también por su enorme potencial recaudatorio: la idea de una red de cámaras ya existente que se convierte en una máquina de enviar multas sin intervención humana de ningún tipo ni escalar en costes salariales es un escenario que las administraciones ven sin duda con sumo interés.

Lo cuenta Wired en New database tells Big Brother you’re uninsured, un artículo en el que además de detallar el funcionamiento del sistema (más profusión de detalles en la descripción del servicio de la propia compañía), trae a colación, lógicamente, el eterno debate entre seguridad y privacidad: en el fondo, lo que hacemos es retornar la discusión al escenario con el que yo fantaseaba hace unos años, el de una combinación de tecnologías comletamente a la Minority Report que permiten que un vehículo - o una persona - sea identificado cuando accede a una vía, y permanezca enviando datos sobre su velocidad e incidencias de circulación, de manera que las infracciones son conocidas, reportadas y aplicadas en tiempo real. Un escenario de vigilancia permanente completamente digno del 1984 de Orwell y que a muy pocos dejará indiferentes, pero que tecnológicamente está mucho más cerca de lo que parece: vehículos dotados de transmisores obligatorios con GPS que reportan la velocidad y coordenadas a intervalos regulares o en función de las condiciones establecidas para la ruta, cámaras que monitorizan el tráfico y toman nota de las matrículas… nada que no se pueda construir con la tecnología existente, y que además, desde el punto de vista de la Administración, ofrece mayor seguridad y, además, se paga solo mediante las sanciones impuestas. Pasar de “pagar cuando infringes y te ven” a simplemente “pagar cuando infringes”, porque “verte, te ven en todo momento” requiere algo más que un planteamiento teórico o de vialbilidad tecnológica: es prácticamente cambiar la naturaleza del contrato social.

¿Estamos los ciudadanos dispuestos a aceptar un papel semejante para la tecnología? El debate entre privacidad y seguridad no es nuevo, pero se torna cada día más candente a medida que la tecnología ofrece nuevas posibilidades. Por el momento, según fuentes de la empresa, la ciudad de Chicago y el estado de Mississippi han declarado su interés por el sistema, y se espera que otras administraciones las sigan a medida que se desarrollan los primeros proyectos piloto. De esto al uso de biometría y a la monitorización permanente cuando vamos por la calle, va un suspiro: tecnologías en su mayoría ya existentes, únicamente en espera de su despliegue e implantación.

(Enlace a la entrada original - Licencia)

{Disarmed} En Cámara Abierta (TVE)

El pasado 9 de Febrero estuve grabando con Daniel Seseña y con el equipo de Cámara Abierta, de TVE. El programa salió la semana pasada, el miércoles 18.

(Enlace a la entrada original - Licencia)

23 marzo 2009

El Barclays y el efecto Streisand

BarclaysUn nuevo caso de “efecto Streisand“, aplicado esta vez a un banco: el Barclays ve como unos documentos confidenciales dedicados a instruir a sus clientes sobre una serie de esquemas para evitar el pago de impuestos mediante inversiones en paraísos fiscales son filtrados a The Guardian, un periódico británico, que los publica en su integridad. El asunto era especialmente delicado: en un momento en que los bancos piden ayuda al Estado para tapar sus agujeros, el Barclays aparece como el banco que ayudaba a sus clientes a “optimizar” sus inversiones en paraísos fiscales para robarle dinero a ese mismo Estado. Con una mano te pido, con la otra te robo.

Y como en otras ocasiones, el problema no es la publicación de los documentos en sí. Fugas de información puede haber en cualquier sitio, solo hace falta un descuido o un interés de alguna persona por provocarlas. De hecho, hasta que el Barclays tomó cartas en el asunto, los documentos publicados por The Guardian habían sido accedidos únicamente por ciento veintisiete personas - es bien sabido que la estructura de los periódicos tradicionales en la web no estimulan el hábito de hacer clic sobre los vínculos de las noticias, fundamentalmente porque durante muchos años estos mismos periódicos preferían no poner enlaces en las mismas con el erróneo fin de “evitar proporcionar puntos de fuga a sus lectores”. Lo que desencadenó el “efecto Streisand” y la tormenta que ahora vive el banco británico fue, una vez más, la actuación de sus abogados: en un alarde de desconocimiento de los principios más básicos de la web, se les ocurrió la “brillante idea” de acudir a un juez para conseguir que los documentos conflictivos fueran retirados de la web. Y eso equivale, ni más ni menos, que a enviar un fax a una oficina precedido por una página con un letrero de “CONFIDENCIAL” en letras de tamaño 50: la garantía de que todo el mundo en dicha oficina, implicado o no, se enterará de lo que dicho fax cuenta.

Una vez que la acción de los abogados de Barclays nos indica a todos en qué dirección hay que mirar, lo siguiente es, simplemente, mirar. De manera automática, los documentos pasaron a Wikileaks, que a día de hoy se encuentra colapsado por los intentos masivos de acceso, y de ahí a todas partes (si te interesa, simplemente baja hasta el final en esta entrada de TechCrunch). Como ocurrió en España con aquella famosa portada de El Jueves secuestrada por un juez, la prohibición se convirtió en la manera perfecta de asegurar que todo el mundo vería los documentos, y de atraer la suficiente luz sobre el tema como para motivar una denuncia del Partido Liberal.

¿Habría tenido estas consecuencias la fuga de información de no haber mediado la acción judicial por parte de los abogados del banco? No existe manera de averiguarlo con garantías. Pero lo que parece claro es que el “efecto Streisand” en un entorno como la web es uno de los temas fundamentales que deben manejarse en comunicación.

(Enlace a la entrada original - Licencia)

22 marzo 2009

El blog y el eco

echochamber-hughmacleodEl eco es, en su primera acepción de la RAE, la “repetición de un sonido reflejado por un cuerpo duro”, y en su acepción octava, que también podría resultar de aplicación, la “resonancia o repercusión de una noticia o suceso”.

En Internet, el eco se suele interpretar en forma de cita, de manera habitual y deseable provista de un enlace, aunque en muchas ocasiones sin él. El eco incrementa la visibilidad de un contenido en función del número adicional de personas a las que es capaz de hacerlo llegar: en muchos casos, el eco ha sido utilizado como medida de relevancia, como cálculo de la influencia que un medio determinado posee, tanto mayor cuantos más sitios “se hacen eco” del contenido que publica.

De manera habitual, el trackback recoge algunas de las citas que se hacen a una entrada, aunque no lo hace en todas las circunstancias. En mi caso, muchos trackbacks en una entrada son indicativos de relevancia, aunque para saber realmente el número de referencias que ha cosechado tendríamos que irnos a un motor de búsqueda como Technorati o BlogPulse, y en ocasiones ni eso funciona. Poniendo como ejemplo una entrada reciente como ésta, en la que podemos ver doce trackbacks al pie de la misma, podemos ver cómo Technorati nos devuelve únicamente seis resultados, mientras el Conversation Tracker de BlogPulse  nos ofrece resultados similares. Sin embargo, podemos hacer un ejercicio adicional utilizando Google: tomemos el título literal de la entrada, suponiendo que no sea una frase de uso común, entrecomillémoslo, y lancemos una búsqueda. El resultado es, si hiciésemos caso al número que proporciona el buscador (que hay que tomar con natural cautela), de unas 1430 apariciones. Tras recorrernos hasta el final, llegamos hasta un total de 292, que tras marcar “repeat the search with the omitted results included” se convierten en 832 comprobables recorriendo hasta la última página de resultados (aunque el buscador siga afirmando que existen 1430). En los últimos tiempos, este efecto resulta mucho más pronunciado: un examen de las últimas diez entradas del blog ofrece una media de alrededor de 650 resultados comprobables mediante este mecanismo.

Cualquiera que sea el resultado entre 292 y 1430, la evidencia es clara: el eco generado por una entrada en el blog es muy superior a lo recogido por los trackbacks o por los buscadores especializados. Muchos de dichos resultados adicionales son los llamados “blogs copy&paste“, que se limitan a generar una página a partir del feed de un tercero o terceros y, típicamente, suplementarlo con publicidad de relleno o con AdSense, esperando obtener algunos ingresos de visitantes despistados. Se trata de una práctica que va en aumento, que en ocasiones aparecen en los trackbacks, pero que habitualmente, al no aportar valor añadido de ningún tipo, son calificados como spam y consecuentemente eliminados. Otros resultados son generados automáticamente por herramientas de diversos tipos, o sirven como repositorios personales o para diversos colectivos. Y si tienes suerte, puede que incluso tengas algún anti-blog, resultado inequívoco de la popularidad, que recoja tus entradas con el fin de criticarlas, ridiculizarlas o de incluir supuestos comentarios censurados, intentando servir como punto de encuentro para pobres y patéticos resentidos en pos de una supuesta “justicia divina”. En su conjunto, unos y otros conforman “el eco del blog”, algo que juega un papel fundamental en el impacto del mismo: amplifica los resultados en las búsquedas, aproxima los contenidos a quienes de manera natural no los habrían visto, y colaboran a la hora de dotarlo de relevancia. En ocasiones, cuando en algunos de esos sitios, como es el caso de Menéame, se desarrolla una conversación que puede aportar algunos elementos interesantes, hasta se puede capturar para mostrarla dentro del propio blog si ellos resulta interesante, dotándola de los mismos mecanismos de control que el propio blog tiene.

De un tiempo a esta parte, el número de C&P blogs se ha disparado. Dada la naturaleza ilimitada y no espacial de la red, la cosa tiene entre poca y ninguna importancia: Internet no “se llena”, e incluso cuando explotan los contenidos de terceros mediante publicidad, el impacto en las cuentas de resultados de los blogs comerciales objeto de la copia es entre poco y nulo. Independientemente de la licencia que el blog original utilice para sus contenidos, la idea de perseguir semejante insignificancia mediante los correspondientes mensajes a Google, a las redes de publicidad, a quienes hospedan los contenidos o incluso a abogados especializados resultará seguramente en un conjunto de frustraciones poco recomendables, a cambio de una eficiencia más bien escasa. En mi caso, ni puedo hacer nada, ni mucho menos me interesa: la licencia de mis contenidos es un CC BY, por convicción y porque, siendo profesor de una escuela de negocios, tiene poco sentido intentar limitar los ingresos que otros puedan generar con mis contenidos (y más aún cuando el ruido generado me beneficia claramente). Los ingresos económicos directos vía publicidad no son ni mucho menos la razón de ser de esta página, e incluso suponiendo que dichos blogs me restasen ingresos de alguna manera (cosa más que dudosa), el papel amplificador que juegan compensa con mucho dicho efecto.

¿Tiene importancia esta creciente proliferación de C&P blogs? Desde mi punto de vista, ninguna. Ni creo que se deba hacer nada para evitarlos, ni que siquiera se pueda hacer. Mi preocupación vendría precisamente al contrario, si en el futuro, cuando haga búsquedas como las arriba descritas, obtengo páginas de resultados escasas o vacías en lugar de obtener varios cientos de impactos como ocurre hoy en día. La naturaleza de Internet requiere de un importante reajuste mental a la hora de considerar este tipo de temas. ¿Nos dirigimos a una web en la que determinados contenidos aparecen repetidos hasta la saciedad por todas partes? Pues sí, puede ser. ¿Y qué?

(Enlace a la entrada original - Licencia)

21 marzo 2009

Control gubernamental: la experiencia australiana

australiacensoredEl gobierno australiano ha tenido a bien permitirnos vislumbrar de manera clara y contundente lo que algunos querrían que fuese el futuro de Internet: un mundo bajo el control gubernamental, en el que todo aquel contenido que es designado como inadecuado en una lista completamente arbitraria y sin controles de ningún tipo se convierte en inaccesible para los ciudadanos.

Una filtración ha permitido el acceso a la lista secreta de sitios prohibidos, y la patente comprobación de que dicha lista, además de ser mucho más larga de lo que el gobierno afirmaba, incluía sitios de todo tipo: dos mil trescientas noventa y cinco páginas que incluyen desde webs pornográficas o relacionadas con el juego, hasta cosas tan absurdas como páginas de dentistas o de venta de casetas para perros. Una lista en la que se entra por criterios desconocidos, y se sale solo tras saborear la inmensa burocracia gubernamental. Eso sí, todo ello en pro del supuesto bienestar del ciudadano.

La experiencia australiana de intentar convertir un país supuestamente democrático en la triste parodia de una sociedad sin libertades deja perfectamente claro a qué podemos aspirar si permitimos el control gubernamental de la red: no solo profunda arbitrariedad y posibilidad de ser sometidos a criterios sesgados de todo tipo, sino también una clarísima ineficiencia e ineptitud capaz de excluir cosas que nunca deberían ser excluidas, o de rellenar con una inmensa burocracia lo que antes se autogestionaba tranquilamente al margen de todo control, sin más problemas que los que han surgido toda la vida fuera de la red. Primero intentan convencer a la ciudadanía de que Internet es un lugar terrible donde campan a sus anchas todo tipo de jinetes del Apocalipsis con nombres como “piratería”, “pornografía infantil”, “terrorismo”, “fraude” y no se cuantas cosas más, para inmediatamente después pasar a intentar protegernos de tan terribles males gracias a su acción supervisora. ¿La teoría? Como el ciudadano es imbécil y no se sabe proteger solo, el gobierno debe controlar Internet. Y dado que la experiencia australiana está todavía en sus inicios - hablamos de las páginas que el gobierno planea excluir de la red, no de las que ha excluido - nos falta por comprobar la segunda derivada: el cómo dicha censura acabará siendo además completamente inútil merced a las vías alternativas que, sin lugar a dudas, se acabarán desarrollando. Porque en los países donde la censura de Internet funciona, no lo hace merced a los sofisticados medios técnicos empleados dentro de la red, sino a la fortísima represión utilizada fuera de la misma.

Censurar Internet es un contrasentido tan absurdo, que todo aquel que lo propone deja en evidencia su falta de conocimientos al respecto. Sin embargo, la lista de países que lo están intentando, apoyándose generalmente no tanto en la tecnología como en regímenes profundamente represivos es ya importante: Arabia Saudi, Bielorrusia, Birmania, China, Corea del Norte, Cuba, Irán, Libia, Maldivas, Nepal, Siria, Túnez, Turkmenistán, Uzbekistán y Vietnam. Ahora, Australia pretende unirse a tan impresionante club mediante el desarrollo de un organismo, la Australian Communications and Media Authority (ACMA), con autoridad para decidir lo que está dentro de los límites de la red para un ciudadano australiano y lo que está fuera de ellos. Y pretende hacerlo (se supone) sin las acciones represivas que el resto de los países del club de la censura ejercen sobre su ciudadanía: no se espera que los australianos sean represaliados o encarcelados por intentar acceder a dicha información, aunque tal y como se está poniendo la cosa, todo sería posible. El recorte de las libertades democráticas es un camino sin retorno.

(Enlace a la entrada original - Licencia)

20 marzo 2009

En La Razón, hablando de Spotify

Gonzalo Suárez, de La Razón, me cita brevemente en este artículo, “Spotify: el fin de las descargas musicales“, para cuya preparación cruzamos un par de preguntas por correo electrónico. A continuación, el intercambio completo:

P. ¿Crees que el éxito de plataformas como Spotify abre una vía de futuro para la industria musical?

R. Spotify ofrece una vía de consumo de música conveniente, sencillo y desarrollado con sensibilidad, algo que permite ver que quienes lo han diseñado son a su vez usuarios de la red. Sin embargo, hace mal en ir por el mundo diciendo que “retira a los usuarios de la piratería”, porque esa tal “piratería” no existe más que en las costas de Somalia: descargar música de la red o escucharla en sitios de streaming es perfectamente legal y puede hacerse sin problemas, ni legales, ni de conciencia. Lo que hace Spotify es financiar los derechos de la música mediante la emisión de publicidad, y por interesante que parezca el modelo, todavía está por ver que el tipo de atención que la música demanda sea compatible con un aprovechamiento como soporte publicitario que compense a las tres partes implicadas: anunciantes, plataforma y usuarios. El futuro de la industria musical es usar la red para popularizar sus creaciones, intentar ofrecer alternativas que planteen una ventaja al usuario a cambio de unos ingresos, y ser muy creativo en la procedencia de esos ingresos, que podrán venir en algunos casos del usuario (modelo iTunes y similares), de un anunciante (Spotify, YouTube, etc.), de un sponsor, de un subsidio cruzado, de un modelo freemium, etc. Lo único que no se puede hacer es demonizar Internet y decir que está acabando con la música y que debemos restringirlo, como hace el ministro de cultura. Eso solo denota desconocimiento y, valga la paradójica redundancia, una gran incultura a la hora de entender lo que la red significa.

P. Hay gente que dice que si todas las canciones del mundo están disponibles “en las nubes”, el concepto de propiedad de la música deja de tener sentido. ¿Estás de acuerdo?

R. Una canción es como una idea: su propiedad es un concepto complejo. Yo puedo tener una idea, pero en cuanto la cuento, la tienen todos los que me han escuchado. Para protegerla, solo puedo desarrollarla, y aspirar a hacerlo mejor que otros, porque las patentes no protegen simples ideas, protegen modelos más concretos. En la música, una vez que alguien la compone y la interpreta, esa música está sometida a un concepto de propiedad igualmente complejo: nada ni nadie puede evitar que yo guarde una copia en mi cerebro, que la cante en la ducha o que la silbe mientras paseo por el parque. Nada ni nadie podrá evitar que me la baje de Internet, porque el mismísimo protocolo con el que Internet está construido lo permite y anula completamente todo intento de restricción. Sin embargo, sí se puede impedir que otros exploten comercialmente la obra, porque eso deja una huella, tiene una trascendencia económica, y puede ser rastreado. La propiedad en la música se refiere a su comercialización, no a su difusión. Pensar en modelos de ingresos en función del número de copias en una economía en la que todos podemos hacer copias a coste nulo es engañarse a uno mismo.

(Enlace a la entrada original - Licencia)

La cara lo dice todo

carasUn artículo breve de The Economist, About face, reseña un experimento llevado a cabo utilizando fotografías de personas que solicitaban créditos en Prosper.com y un grupo de evaluadores en Amazon’s Mechanical Turk: se pidió a un grupo de veinticinco evaluadores que juzgasen, en una escala de uno a cinco, la confianza que les ofrecían 6.821 fotografías de personas que habían solicitado un crédito (733 de las cuales lo habían obtenido) y la probabilidad que tenían de devolver un crédito de cien dólares. Todo ello sin aportar ningún otro tipo de dato adicional. En Prosper.com, las personas publican una foto y piden dinero para un proyecto determinado sobre el que ofrecen información, y otras personas les ofrecen dicho dinero o parte del mismo a un tipo de interes que se acuerda en cada caso.

El resultado resulta cuando menos sorprendente: las dos variables evaluadas, confianza y probabilidad de repago de la deuda, tenían una muy elevada correlación entre sí, pero también o tenían con sus evaluaciones crediticias basadas en su historial personal. Cuando se controlaba estadísticamente la posible incidencia de factores como obesidad, raza o belleza, la correlación se mantenía consistente, demostrando que este tipo de factores no afectaban a la percepción. Además, las evaluaciones se demostraron consistentes con las efectuadas por usuarios de la propia Prosper.com: aquellas personas evaluadas como poco fiables en función de su cara, acababan teniendo que pagar un diferencial medio de 1.82 puntos porcentuales más que los que parecían fiables para obtener una cantidad de dinero similar.

La fisiognomía, considerada habitualmente una ciencia folklorica, parece que tiene algo de base científica. De aquí al intento de aislamiento de factores específicos (prominencia del mentón, forma de los ojos, etc.) y a la aplicación de cirugía estética destinada a moderar su efecto nos separa únicamente el tiempo. Hace años, se contaba la anécdota de determinado banquero español que recibía a los solicitantes de crédito acompañado por su perro, y que concedía o denegaba los créditos en función de las reacciones del animal. Dentro de poco, entraremos en un banco, y de un vistazo se nos contestará directamente “uy, ¿con esa cara?… váyase por donde ha venido”. Sin duda, este tipo de cosas me van a ahorrar mucho tiempo del que utilizaba para poner notas en mis cursos :-)

(Enlace a la entrada original - Licencia)

19 marzo 2009

El sol y las nubes

ibmsunComo no podía ser de otra manera, toda la red habla de las filtraciones de las conversaciones de adquisición entre IBM y Sun Microsystems: hablamos de dos empresas históricas en la escena de la tecnología, cuya combinación podría alterar el panorama de la industria.

O no. Y es que como todo, la adquisición de Sun por parte de IBM por un montante de seis mil quinientos millones de dólares en cash plantea luces y sombras. Por un lado, tiene el atractivo de ser una operación motivada fundamentalmente por las perspectivas de futuro de la industria, su más que evidente orientación a eso que se ha dado en llamar “la nube”, y el detalle añadido de incluir a la empresa que más visionaria se mostró en ese sentido con su archiconocido the network is the computer. Por otro, posee las sombras de la posible intervención de las autoridades antimonopolio, y del interés de IBM por eliminar un competidor tras hacerse con sus “joyas de la corona” y vender el resto del negocio. Cualquiera que sea el resultado, tendrá un importante impacto sobre la escena del software libre, dado el fuerte compromiso que ambas compañías tienen con el mismo.

Históricamente, las dos compañías tienen poco que ver. Mientras IBM ha ido reconvirtiéndose cada vez más para ser una compañía de servicios que compite en el terreno de las grandes consultoras, Sun desarrolló su negocio centrándose en workstations y servidores (fue el proveedor de servidores más importante de la época puntocom), y solo tras el relevo de Scott McNealy por Jonathan Schwartz ha comenzado a centrarse de manera más decidida en la innovación en software y servicios. Sin embargo, la posición financiera de Sun ha ido erosionándose con el tiempo (la mayoría de sus ingresos siguen dependiendo del negocio del hardware), y las filtraciones hablan de aproximaciones recientes a empresas como HP y Dell en busca de voluntarios para una posible adquisición. Una adquisición que, en caso de producirse, sería la más cara de las llevadas a cabo por la compañía y supondría un desvío en su estrategia de dejar de depender del negocio del hardware: IBM obtiene a día de hoy la mayoría de sus ingresos de la venta de software y servicios, y la compra de Sun haría que el hardware representase en torno a un tercio del total. Por otro lado, la fuerza y predicamento de IBM aplicada a productos emblemáticos como Java o MySQL podrían suponer un avance importante en su ya muy significativa difusión. La cartera de productos de Sun está muy orientada a la infraestructura, software y servicios del entorno del cloud computing, y para IBM, sin duda, es un posicionamiento muy adecuado: si quiere asegurarse una relevancia significativa en ese nuevo entorno, la adquisición de Sun decididamente la fortalece. Y además, evitaría que quien llevase a cabo la adquisición fuese Cisco, que también estaría en disposición de hacerlo.

Financieramente, la compra supondría un 100% de premium sobre la última cotización de Sun previa al anuncio, para muchos el coste de hacerse con una de las marcas míticas en el mundo de la tecnología, pero encuentra a una IBM muy bien capitalizada y con más de trece millones en cash. Por el momento, no obstante, la respuesta de los mercados ha sido tibia. En cualquier caso, lo que no cabe duda es que nos hallamos ante una de las operaciones potencialmente más importantes de la historia de la tecnología, con posibilidades de impactar en gran medida el panorama futuro. Habrá que estar atentos.

(Enlace a la entrada original - Licencia)

18 marzo 2009

Los ISP irlandeses se plantan

noEl camino hacia la instauración de un sistema de tres avisos en Irlanda se ha encontrado con un obstáculo importante: los proveedores de acceso a Internet del país han decidido plantarse ante las demandas de la industria discográfica y decir simplemente NO.

Hace varias semanas, la Irish Recorded Music Ass. (IRMA, que representa a las cuatro grandes de la industria: EMI, Sony-BMG, Universal y Warner) envió cartas a los proveedores de acceso del país demandando la implantación inmediata de un sistema de tres avisos y el bloqueo de todas las páginas de Internet que la asociación considerase ilegales como The Pirate Bay, y advirtiendo que el operador incumbente irlandés, Eircom, ya había llegado a un acuerdo a tal efecto.

Tras varias semanas, la respuesta de los proveedores de acceso ha llegado en forma de una carta abierta de la Internet Service Providers Association in Ireland (ISPAI), en la que, tras la correspondiente  se posicionan claramente en contra de la medida y afirman que no están bajo la obligación legal de cumplirla y que, por tanto, no lo harán. El documento contiene lindezas como ésta:

“Privacy of user communications is protected in European and Irish legislation. ISPs can not be expected to ignore these merely because it does not suit another private party. To do so would breach the privacy of our users as well as having serious implications for the continued location of international e-business in this country and the jobs these generate.”

“La privacidad de los usuarios está protegida en las legislaciones irlandesa y europea. No se puede esperar que  los ISP ignoren ésto simplemente porque no le conviene a una serie de entidades privadas. Hacer eso sería una clara infracción del derecho a la privacidad de nuestros usuarios, y tendría fuertes implicaciones tanto para el desarrollo de nuestro país como nodo internacional en e-business, como para los puestos de trabajo que dicha actividad genera.”

Y esta otra, que alude a la consabida falta de visión de la industria discográfica:

“ISPAI is disappointed that the great potential of the internet, to provide opportunities to connect with users in new ways and develop new business models, is being missed by the music recording industry. The Internet has revolutionised countless other services where consumers have benefited from any-time accessibility, wider choice and reduced prices.”

“ISPAI lamenta que la industria de la música se pierda el gran potencial de Internet para ofrecer oportunidades para conectar con los usuarios de maneras innovadoras y para desarrollar nuevos modelos de negocio. Internet ya ha revolucionado muchos otros servicios, en los que los clientes se benefician de características como acceso ilimitado, posibilidades de elección más amplias y precios más reducidos.”

Más claro, agua: ¿qué parte de NO no has entendido? Internet es BUENO, los que sois MALOS sois vosotros y vuestra patética incapacidad para la adaptación. Y la pregunta, por supuesto, es… ¿qué proveedores de acceso españoles se atreverán a dar una respuesta similar que defienda a sus usuarios en lugar de entrar en apestosa connivencia con el ministro de la SGAE y con su defensa de modelos de negocio del siglo pasado?

(Enlace a la entrada original - Licencia)

Música 2.0, un recopilatorio estructurado de artículos del blog

Música 2.0 es un artículo recopilatorio de nueve páginas construído a partir de varias entradas escritas en el blog al respecto del tema, ordenadas para proporcionarles una cierta estructura común y coherencia, y en muchos casos enriquecidas con ideas procedentes de los comentarios recibidos en las mismas.

(Enlace a la entrada original - Licencia)

17 marzo 2009

Despierta la internet móvil

mobileAyer se publicaron nuevos datos de comScore acerca de la internet móvil, que reflejan crecimientos espectaculares muy en línea con lo que veníamos comentando hace tiempo.

Lo primero que llama la atención es el fortísimo incremento de la frecuencia de conexión, que permiten visualizar la transición entre la conexión en movilidad como actividad esporádica y habitual. El incremento en el número de personas que afirman haber consultado noticias e información (excluyendo redes sociales) desde dispositivos móviles con frecuencia diaria es de un 107%, que supone unos 22.4 millones de usuarios, que duplica la audiencia del año pasado. El 35% de los usuarios de internet en movilidad se conectan diariamente.

El segundo dato importante proviene de la consolidación de uno de los drivers fundamentales en la movilidad: la participación en redes sociales. El  incremento en el número de personas que afirman utilizar internet móvil para conectarse a redes sociales y blogs se cifra nada menos que en un 427%, consecuencia directa de que el año pasado viviésemos una verdadera explosión en la popularidad de este tipo de sitios, pero también del patrón de uso habitual de estas aplicaciones: a medida que ponemos una parte sustancialmente mayor de nuestra vida en la red, nuestras preferencias de actualización reflejan el hecho de que una parte importante de nuestro tiempo no transcurre delante de una pantalla convencional, pero sí con la pantalla de un dispositivo móvil al alcance de la mano. Si añadimos a esto la progresiva desaparición del “efecto taxímetro” debida a la popularización de tarifas planas asociadas a dispositivos como iPhone o BlackBerry, o la progresiva importancia de las aplicaciones de geolocalización (8.2 millones de usuarios utilizan aplicaciones de mapas en el móvil), los elementos de la ecuación aparecen claros. Por supuesto, no todo es perfecto: el acceso en movilidad sigue chocando con la ergonomía discutible de los dispositivos de entrada o de las pantallas pequeñas y con el factor limitante de la vida de las baterías; pero con crecimientos de este tipo, parece claro que a la internet móvil le queda mucho, mucho recorrido.

(Enlace a la entrada original - Licencia)

{Disarmed} Explicando los peligros de las botnets


Las botnets o redes de PCs zombies se están convirtiendo en uno de los problemas más acuciantes de la red, un fenómeno de una elevada incidencia estadística detrás del cual se esconden la gran mayoría de los robos de información, el spam, los ataques de denegación de servicio o el click fraud, controlados por mafias organizadas que obtienen a través de ello elevados beneficios económicos. El mes pasado, el descubrimiento de un repositorio que albergaba los datos de una red de más de 160.000 ordenadores e incorporaba cinco mil nuevas victimas cada día permitió a los investigadores entender un poco mejor cómo funcionan este tipo de redes desde dentro.

ReadWriteWeb dedica esta entrada, Is Your PC Part of a Botnet?, a intentar explicar de manera sencilla el concepto, y lo acompaña con el vídeo introductorio que podéis ver sobre estas líneas, creado por Symantec. ¿Qué hacer para comprobar si tu PC forma parte de una botnet? Siguiendo las instruciones de Prevx, la idea es intentar detectar conexiones entrantes o salientes desde tu ordenador que no han sido gestionadas por una petición tuya: conexiones que se vuelven inexplicablemente lentas en ocasiones cuando intentamos realizar determinadas tareas pueden ser una señal de alarma. En sistemas Windows - para Mac, la incidencia estadística de este tipo de temas es prácticamente nula - la determinación comienza cerrando todos los programas que usen Internet (navegador, correo, gestores de descarga, etc.), abriendo el administrador de tareas (Ctrl+Alt+Supr), y comprobando el uso de recursos de red en la pestaña correspondiente: un porcentaje de uso elevado puede suponer la presencia de alguien que está utilizando la conexión sin tu permiso. El siguiente paso, dado que tu software de seguridad habrá sido ya comprometido, es instalarse un segundo producto alternativo de empresas como AVG, Kaspersky, Panda, Sophos y otras, o utilizar alguna herramienta de diagnóstico online. Como en todo este tipo de temas, lo importante es elevar el nivel de conocimiento acerca del problema, con el fin de desarrollar más la conciencia en este sentido.

(Enlace a la entrada original - Licencia)

16 marzo 2009

Los insultos de Teddy Bautista

Teddy Bautista, Presidente Ejecutivo de la Sociedad General de Autores y Editores (SGAE), me califica de “imbécil, inane o cualquiera de las dos cosas” en esta entrevista de Juan Carlos Rodríguez para el Magazine de El Mundo:

P. Perdone, ¿es usted el “ministro no oficial de Cultura”? Así lo cree Enrique Dans, profesor de Sistemas de Información en el Instituto de Empresa y gurú de Internet, quien además considera a César Antonio Molina “el ministro de la SGAE”…
R. Bueno, este señor es un imbécil o un inane, o cualquiera de las dos cosas. Llamarme a mí “ministro de Cultura” es una estupidez, y llamar a César Antonio Molina “ministro de la SGAE” es un insulto.

P. Interpreto que Dans recoge una percepción que hay en la sociedad…
R. ¡Será su percepción! Y si es su percepción está desorientando a la gente.

P. Decía que el profesor alude a la cercanía de la SGAE con el poder.
R. Noooo. Eso es un lugar común completamente equivocado.

P. ¿Nunca le ha cantado al ministro de Cultura Ponte de rodillas?
R. No, en absoluto. Yo a los ministros de Cultura siempre les he tenido un gran respeto. El sentido de aquella expresión [Get On Your Knees, título original en inglés] no era la de ponerse de rodillas, sino la de postración, en actitud orante.

Interesante tema, éste de los insultos a través de los medios de comunicación… :-)

(Enlace a la entrada original - Licencia)

15 marzo 2009

Amistad 2.0, artículo en EPS

Sergio C. Fanjul, de El País Semanal, me cita en su artículo titulado “Amistad 2.0″, en el que se plantea la evolución de las relaciones de amistad en nuestros tiempos y hasta qué punto las redes sociales suponen una devaluación de las relaciones o una herramienta que potencia las mismas. Para la preparación del artículo, me hizo la siguiente entrevista:

P. ¿Crees que las redes sociales modificarán el concepto tradicional de amistad?

R. El concepto de amistad es único, entero y verdadero, no puede ser modificado por algo como las redes sociales. La palabra “amigo” sí puede llegar a devaluarse, porque algunas redes sociales la usan como sinónimo de “contacto”, cuando el concepto es realmente diferente. Pero sobre todo, lo que entra aquí es un tema de convencionalismos sociales y normas de educación acuñadas en la tradición que actúan de diversas maneras: por ejemplo, en personas de más de treinta años, la idea de decir que no a una petición de amistad de alguien que no conoces o no consideras tu amigo es vista como relativamente complicada. Muchos años de educación tradicional basada en el mundo analógico nos han enseñado que a una persona que viene “con la mano tendida” no podemos simplemente decirle “no, no quiero ser tu amigo”, razón por la cual lo que hacemos es entrar en una dinámica de comportamiento muy extraña, en la que nos autojustificamos con razones para poder decirle que sí (”no me suena, pero seguro que sí lo conozco, voy a ver quiénes son sus amigos”, etc.) e incluso, si realmente no lo conocemos, optamos, en lugar de responderle, por “dejarlo en la nevera”, como si por no responderle fuésemos menos “bruscos”, cuando en realidad no es así. En este tipo de conductas se dejan ver, incluso, sesgos en función del género: sin ánimo de querer sonar chauvinista, para las mujeres, típicamente, decir que no a una petición de amistad en una red social de alguien que no conocen o no consideran amigo resulta más sencillo y se considera culturalmente más aceptado, mientras que en los hombres no suele ser así, y tienden a aceptar con mayor amplitud de criterios. Y en los jóvenes, la conducta es mucho más excluyente, y normalmente solo aceptan a quienes realmente conocen fuera de la red. Es un tema interesante, porque la condición de “inmigrantes digitales” conduce a conductas complejas en el mundo digital.

P. ¿Crees que el uso de redes sociales quita tiempo a las relaciones reales, es decir, estamos cada vez más tiempo conectados en vez de estar en un bar de cañas o en un parque con nuestros amigos?

R. No, no es así. El uso de las redes sociales, exceptuando cuestiones casi patológicas, es complementario, no excluyente. Mi hija, por ejemplo, tiene Tuenti cargado en cualquier ordenador que tenga cerca, y refresca la página con relativa frecuencia. ¿La aísla de alguna manera ese comportamiento? En absoluto, de hecho lo que la aislaría sería que se lo restringiese, porque pasaría a ser “la que no se entera”. Y por supuesto, no ha dejado de ver a sus amigos, ni de quedar con ellos, ni de salir a la calle, ni tiene la piel blanquecina por la radiación de la pantalla… todo eso son mitos de quienes no han entendido el cambio. En realidad, la red social permite complementar las relaciones, mantenerlas en circunstancias que antes no lo permitían (yo mantengo relación con algunos de mis amigos que viven en otros lugares, con un nivel de proximidad que antes nunca podría haber tenido), y enriquecerlas con muchos más matices.

P. En las redes sociales no se diferencia entre amigos y conocidos. ¿Es esto correcto?

R. No es correcto. En algunas redes sociales se diferencia hasta en cuatro escalones: todo el mundo, contactos, amigos y familia. En otras, se pueden establecer grupos y tratarlos por separado, compartiendo algunas cosas con unos y otras con otros. Las herramientas lo permiten, lo que pasa es que nos falta aprender a utilizarlas correctamente. Como siempre en tecnología, la adopción y la popularización se desarrollan antes que los protocolos sociales de uso.

P. ¿Crees que la gente hace amigos nuevos en las redes sociales o simplemente reproduce su círculo real?

R. Depende del contexto. En algunas redes se estimula el descubrimiento de amigos, y algunas personas lo utilizan para establecer nuevas relaciones con otras personas. Existen todo tipo de patrones, algunos de ellos muy interesantes: entre los jóvenes, en general, prima la reproducción del círculo que tienen fuera de la red, pero también existe el “fenómeno fan”, poder contactar con alguien con quien mantenías una relación de naturaleza asimétrica (un famoso, una persona que posiblemente te conoce pero no te recuerda, etc.), el “reflejo genealógico” que te lleva a contactar con personas que tienen tu mismo apellido, etc.

P. ¿Estás de acuerdo con que los usuarios coleccionan amigos "como quien colecciona sellos"?

R. En algunos casos es así, y a veces es hasta lógico: pensemos, por ejemplo, en un uso con fines políticos (perfectamente lícito, la política es una parte de nuestra esfera social), comercial, de búsqueda de apoyos para una causa, etc. En otros casos, lo que se da es un fenómeno que se conoce como “escalada de privilegios”: entras en la red, y das de alta a tus amigos. Pero un día aparece alguien que no es amigo y, por alguna razón, lo aceptas, momento en el que pasas a aceptar a personas que, aunque no sean amigos, cumplen el mismo requisito que esa persona que aceptaste antes. Al final, acabas aceptando a quienes tienen conocidos comunes, o incluso a todo el mundo si tu perfil es mínimamente público, lo que da lugar a redes de baja calidad.

P. ¿Existe el peligro de crear identidades falsas?

R. El anonimato es un derecho que Internet ofrece y que debe mantenerse. Sin embargo, un perfil con un nick o con un nombre falso ofrece menos confianza, y en el contexto de una red social, tiene menos sentido, es como andar por la calle con una media en la cabeza. Por otro lado, algunas personas precisan, por la asimetría de sus relaciones sociales (personas muy conocidas o expuestas), algún tipo de recurso al anonimato o a la discreción, y retirárselo no sería lícito. No hay ningún problema en el anonimato mientras se mantenga un control del mismo: si en la lista de contactos de mi hija veo a un tal “vengador enmascarado”, mi preocupación no será su seudónimo, sino saber si ella está segura de quién es realmente.

P. En definitiva, son perjudicial o beneficiosas las redes sociales para la amistad.

R. Decididamente beneficiosas. Permiten relaciones de mayor intensidad, con mayor profundidad en el intercambio de datos, con recurso a la multimedia y a compartir fotografías y vídeos, y sobre todo, permiten mantener relaciones de amistad cuando la proximidad física desaparece, no solo por la disponibilidad del canal - todos sabemos que ya existe el teléfono - sino por el cómodo balance síncrono-asíncrono que tiene. A ver, por muy amigo que sea de mis amigos… ¿cuándo habría podido pensar que estaría viendo un programa en la tele a las once y media de la noche, y al ver algo que me apetece comentar con un grupo de amigos, los tendría ahí, a tiro de Twitter o de chat de Facebook? Nunca me he sentido tan cerca de mis amigos como desde que los tengo conectados a través de redes sociales.

(Enlace a la entrada original - Licencia)