28 febrero 2010

Diez años haciendo las cosas bien en educación online

Suelo ser en esta página bastante prudente con las menciones a la empresa en la que trabajo, IE Business School. Este blog es mi página personal, y en ningún caso quiero que se vea como una especie de “visite nuestro bar” de la empresa en la que trabajo. Aunque se cumplan este año ya nada menos que veinte desde que empecé a trabajar en el IE y esté enormemente orgulloso de trabajar ahí, creo que es bueno mantener una cierta separación entre temas.

Pero que The Economist reconozca el International Executive MBA como mejor master online del mundo es una noticia que no podía dejar de comentar. Porque el International Executive MBA es un producto que he vivido a lo largo de sus diez años de historia, porque cuando el IE empezó con él, pocos creían en ese producto, y porque me parece un buen ejemplo de adaptación al escenario tecnológico y de reinvención de un producto, hasta el punto de que ahora, las actividades online suponen una parte muy sustancial de los ingresos de la compañía. Y por lo que puede verse cada vez más, también de su prestigio. Para entenderlo, me ha gustado especialmente este artículo de Gamaliel Martínez, Director del programa, en The Economist, titulado How a distance-learning MBA works. O puedes echar un vistazo al blog que los propios alumnos escriben con sus experiencias.

A pesar de toda la presunta negatividad y complejo de inferioridad que conlleva la etiqueta de “a distancia”, el International Executive MBA es el master de IE Business School con perfil de estudiantes más elevado en cuanto a experiencia profesional, y tiene un precio sensiblemente más elevado que los masters presenciales, cuestiones que provocan obviamente un fortísimo nivel de exigencia por parte de unos estudiantes que, a pesar de ello, evalúan sistemáticamente su experiencia con puntuaciones por encima de la media de otros cursos. El participante medio es una persona con una muy fuerte experiencia internacional, que suele viajar mucho y tener un nivel de responsabilidad elevado, circunstancias que hacen muy difícil someterse a la rigidez de horarios y situaciones que conlleva un programa de carácter convencional.

La apuesta por el uso de la tecnología ha conseguido crear, a pesar de los clichés del mercado con respecto a la educación a distancia, un producto mejor. Hablamos de un curso que cuenta con alumnos de un perfil muy elevado y radicalmente diverso en su procedencia, que pasan dos períodos de seis meses interaccionando exclusivamente a través de la red (unidos a dos períodos presenciales de dos semanas en Madrid y otro en Shanghai) y que, a pesar de la lejanía física, se sienten completamente implicados con su grupo, con los profesores y con el grupo con el que interactúan todos los días. Más implicados y con más conciencia de grupo que en un programa presencial convencional, donde se ven todos los días y se sientan horas y horas en la misma habitación. Que usan herramientas tecnológicamente sencillas, pero que se exprimen para extraerles un gran potencial, y para conseguir, como ya he comentado en otras ocasiones, una experiencia de aprendizaje que acaba siendo incluso superior en su alcance y profundidad a la de un master presencial. Discusiones de casos que se prolongan a lo largo de varios días, con comentarios por escrito, sensiblemente más elaborados y profundos que los que pueden hacerse simplemente levantando la mano en clase, con mucho más aporte de datos, de información… con todo lo que en la red puede encontrarse, crearse o compartirse a un solo clic de distancia.

Para mí, un fantástico ejemplo de cómo la tecnología, bien dosificada y utilizada, puede llegar a aportar mucho valor. Y como participante en el programa desde su primera promoción, todo un orgullo que no podía dejar de comentar.

(Enlace a la entrada original - Licencia)

27 febrero 2010

Entrevista sobre ?Todo va a cambiar? en ExpansiónEmpleo

Ángela Méndez me entrevistó el pasado martes acerca de “Todo va a cambiar” para Expansión&Empleo, y hoy lo publica bajo el título “La llegada de un cambio inevitable“. Dedica además algunos comentarios al tipo de licencia del libro, primera experiencia del Grupo Planeta con una edición impresa registrada bajo licencia Creative Commons, en “‘Todo va a cambiar’, una obra con licencia para compartir“.

(Enlace a la entrada original - Licencia)

El que escribió esto debe hacérselo mirar

La persona que escribió el documento que la presidencia europea española ha dirigido al consejo de la Unión Europea en donde se equipara la la vulneración de la propiedad intelectual con cuestiones como la pedofilia o la propaganda fundamentalista y xenófoba debería, sin duda, hacérselo mirar por un buen médico. O mejor dicho: debería abandonar la vida política. Una persona que tiene una visión tan profundamente negativa, limitada, siniestra, asquerosa, ignorante y malintencionada de Internet no debería desempeñar ningún cargo de responsabilidad política. La imagen que semejante basura de documento transmite de España como país es profundamente triste y retrógrada, justificando esa habitual comparación jocosa con los tiempos de la Santa Inquisición.

La noticia ha aparecido ya en medios como Público, El Economista o El Mundo, que lo describen como “una redacción desafortunada”. Obviamente, la cosa va más allá de ser un simple problema de redacción: refleja la actitud de un gobierno empeñado en intentar “controlar” Internet, en luchar contra su naturaleza, en convertirlo en lo que no es.

Coincido completamente con la posición expresada conjuntamente por RedS@S y La Quadrature du Net: el documento es oscurantista y malintencionado. Proviene de alguien educado en la más absoluta ignorancia de la red, de esos que cuando la miran, solo son capaces de ver cosas perniciosas, vicio, perversión y peligro. Una actitud absolutista, maniquea, como si esos vicios, perversiones y peligros no existieran fuera de Internet, o como si dentro de Internet todo se redujese a ellos.

Citando una frase de la Secretaria de Estado de los Estados Unidos, Hillary Clinton,

Internet libre es un derecho humano de naturaleza integral que debe ser protegido en las sociedades libres. Aunque todas las naciones deben protegerse contra los abusos, la existencia de material ofensivo no debiera ser una excusa para violar este derecho fundamental.”

(Enlace a la entrada original - Licencia)

26 febrero 2010

?El informe 301 y el euro de madera?, columna en Expansión

Mi columna en Expansión de esta semana se titula “El informe 301 y el euro de madera“, y habla de lo inaceptable que resulta que un gobierno pretenda alegar “presión internacional” a cuenta de un informe escrito por una entidad privada que agrupa a los representantes de todas las industrias de la propiedad intelectual (cine, software propietario, videojuegos, editoriales, cadenas de televisión y música), plagado de incorrecciones y de análisis sesgados, y que no solo critica despectiva y torpemente el entorno legal español, sino que llega además al descaro de recomendar la retirada de medidas que apoyan el software de código abierto. El informe 301 es la “carta a los Reyes Magos” de las patronales de las industrias de la propiedad intelectual, disfrazada de sesudo informe internacional, y usado para presionar a los gobiernos. Es más falso que un euro de madera. Y al gobierno español se lo han colado.

(Enlace a la entrada original - Licencia)

25 febrero 2010

Recognizr: la realidad aumentada aplicada al reconocimiento facial

Estaba claro que iba a suceder, porque solo se trataba de unir tecnologías ya existentes: se anuncia una aplicación, de nombre Recognizr, que utiliza la tecnología de realidad aumentada para enfocar a una persona con la cámara de un teléfono móvil y obtener de manera automática su nombre y los vínculos a sus perfiles en los sitios sociales en los que se encuentra. Para cualquiera que hubiera probado las tecnologías de reconocimiento facial en aplicaciones como Picasa o iPhoto, estaba claro que una cosa así era técnicamente posible. Pero verlo en funcionamiento provoca un importante debate entre lo verdaderamente conveniente y lo sencillamente inquietante.

La aplicación, desarrollada por la empresa sueca TAT, The Astonishing Tribe, es, en principio, respetuosa con el criterio de privacidad: toma la imagen de una persona, y la busca en la base de datos de la propia aplicación, donde la persona debe haberse dado previamente de alta si quiere ser encontrada, y añadir también los perfiles de redes sociales que desea vincular a su identidad. El paso peligroso, que también consiste en unir tecnologías que ya existen, sería obviamente el de utilizar como base de datos no la misma aplicación en la que las personas se han registrado voluntariamente, sino la propia red, utilizando para ello un buscador de imágenes que rastrease fotografías y uniese los rostros encontrados con los nombres que se encontrase próximo a éstas. Un sistema al que, una vez aplicados los correspondientes algoritmos de corrección estadística, ofrecería seguramente una identificación de una gran fidelidad. La misma aplicación lo dice: cuando la tecnología de reconocimiento se utiliza no para una amplia gama de objetos diversos que hay que reconocer, sino para identificar únicamente caras, la calidad de la identificación mejora notablemente.

Las aplicaciones del programa son inmensas: desde las más inofensivas cuestiones sociales (¿cómo se llamaba esta persona?) hasta el control de acceso por motivos de seguridad (si quieres entrar, registra tu cara aquí). Pero el debate es evidente: la cara es algo de lo que difícilmente te puedes desprender, y una aplicación así, usando como base de datos la propia web, pasa a ser como llevar tu nombre y datos personales tatuados en la cara a la vista de todo el mundo. De nuevo se demuestra que la tecnología crea constantemente situaciones para las que no necesariamente estamos preparados.

(Enlace a la entrada original - Licencia)

24 febrero 2010

Twitter: la expansión internacional

Leo en TechCrunch, “Only 50% of Twitter messages are in English, study says“, la referencia a un estudio de Semiocast sobre 2.8 millones de actualizaciones, en el que se observa como el inglés sigue siendo el idioma predominante en Twitter, con un 50% que desciende desde los dos tercios que representaba en el primer trimestre de 2009, seguido del japonés (14%), portugués (9%), malayo (6%) y español (4%).

Los datos merecen una reflexión, sobre todo si puedes comparar percepciones recientes a uno y otro lado del charco: en España, los que estáis leyendo esta entrada ahora mismo tenéis cierta percepción de que Twitter está en todas partes. Leéis noticias relacionadas con ello, os llama la atención verlo incluso en los telediarios algunas veces, lo utilizáis vosotros mismos en muchos casos, etc. En varias ocasiones, os habéis enterado de noticias y temas que os han interesado a través de Twitter, o habéis seguido con curiosidad su progresiva popularización. Pero en realidad, como bien decía Andreu en un comentario reciente,

Twitter en España es poco más que una anécdota geek, totalmente desconocida por el gran público, y usada apenas pasivamente por los más techies“.

Estoy completamente de acuerdo con esa afirmación. Doy clase a grupos de muy diferente composición: en mis clases puedo tener desde un porcentaje importante de twitteros en grupos con más afinidad tecnológica como el Master in Telecom and Digital Business, a “uno o ninguno” en grupos más generalistas como la mayoría de los programas de alta dirección. En los primeros, obviamente, huelga explicar lo que es Twitter, aunque las disquisiciones sobre su papel e importancia en el desarrollo de la real-time web tienen una gran aceptación. En los segundos, es necesaria una explicación básica de “por qué Twitter no es una estupidez propia de exhibicionistas” y una iniciación al interés de la herramienta de cara al negocio, pero en lo demás, te limitas a delinearlo un poco para que quien quiera más, sepa dónde ir a buscarlo. No, no caigamos en el tan habitual error de pensar que el mundo es como nosotros: Twitter en España dista mucho de tener una amplia implantación, lo que se refleja en ese porcentaje del 4% que incluye a países hispanohablantes de todo el mundo.

La diferencia con un mercado avanzado como Estados Unidos, en particular en ambas costas, es tanto la penetración como la intensidad de uso. En San Francisco, ves Twitter en las marquesinas de los autobuses, en cada programa de televisión para provocar interacción con la audiencia, en periódicos y revistas, en todos y cada uno de los personajes famosos… básicamente, en todas partes. Twitter es ya un sistema de relación habitual y una forma de estar enterado de la actualidad. La prueba evidente está en los trending topics: si los manejas sin filtrar geográficamente, el 90% de las etiquetas que verás son norteamericanas. La idea de Twitter de facilitar un filtro geográfico, de hecho, tiene un potencial enorme, porque facilita el desarrollo de una capa que permite dotar de relevancia al entorno de un país o ciudad determinado. Pena que, por el momento, se limite a un experimento con trece ciudades norteamericanas y cinco países, más una brevísima muestra internacional limitada a Sao Paulo y Londres como ciudades, y Brasil, Canadá, Irlanda, México y UK como países, porque estoy convencido de que la llegada de un país o ciudad nueva a la lista tendra una repercusión tanto en nivel de uso como en numero de usuarios.

Sin embargo, la reflexión adecuada no se produce en términos de “qué pequeños somos”, sino de “cuánto recorrido queda”. La futura popularización de Twitter a una base amplia de usuarios no se pone en duda: no es una cuestión de si ocurrirá o no, sino de cuándo. Cuando llegue, las posiciones que las empresas, los medios o los personajes famosos hayan tomado previamente jugarán un papel interesantísimo en el desarrollo de ese “ecosistema Twitter”, como ya hemos podido ver en escalones anteriores del proceso de difusión.

(Enlace a la entrada original - Licencia)

23 febrero 2010

Página de Facebook de ?Todo va a cambiar?

Mi editorial, Planeta, ha creado una página en Facebook para “Todo va a cambiar”, con el fin de informar sobre fechas de presentaciones, firmas, críticas y otras novedades relacionadas con el lanzamiento del libro. Por el momento, las presentaciones serán las siguientes:

- Madrid, 4 de marzo, a las 19:00, en el Salón de Actos de IE Business School, en María de Molina, 11.
- Barcelona, 8 de marzo, a las 19:00, en FNAC Diagonal Mar
- Valencia, 9 de marzo, a las 19:30, en la Casa del Libro
- Madrid, 10 de marzo, en el Salón MiEmpresa, a las 16:00, en el Palacio de Congresos
- Zaragoza, 11 de marzo, a las 19:00, en la FNAC
- Madrid, 16 de marzo, a las 19;30, en la Casa del Libro de Gran Vía
- La Coruña, 30 de marzo, a las 20:00, en la Casa del Libro del Centro Comercial Dolce Vita
- Barcelona, 23 de abril (detalles más adelante)

Además, se ha anunciado tanto la versión para iPhone/iPod para el mismo día del lanzamiento del libro, como a partir del mes de mayo en formato ePub en las principales tiendas de libros electrónicos.

Hoy me han llegado las dos primeras copias del libro, hasta el momento había trabajado con galeradas encuadernadas en canutillo. La verdad es que es un momento la mar de bonito, hoy ando por ahí “como niño con libro nuevo” enseñándoselo a todo el que pasa cerca :-) Estoy cerrando los invitados para las distintas presentaciones, según vaya teniendo confirmaciones, lo iré contando.

(Enlace a la entrada original - Licencia)

Twitter: el desarrollo de un género comunicativo

No es habitual tener datos concretos acerca de Twitter. Por eso, la reciente entrada de Kevin Weil, analista de la compañía, en el blog corporativo me ha resultado muy interesante: casi cincuenta millones de actualizaciones emitidas diariamente por sus usuarios, descontando spam. El alcance, o número de actualizaciones enviadas a éstos, es obviamente muy superior dada la naturaleza asimétrica del canal.

La gráfica permite observar las primeras fases de una curva de difusión tecnológica de las que salen en los libros de texto. Mi primera entrada sobre Twitter, en marzo de 2007, viene a caer casi a la izquierda de todo del eje de abscisas. En aquella época, la totalidad de la comunidad de usuarios de Twitter producía unas cinco mil actualizaciones al día. Desde entonces, he dedicado toda una larga secuencia de entradas a lo que entiendo como el desarrollo de un nuevo género comunicativo, que ha devenido en la creación de esa real-time web que hoy cada vez más personas consideran de vital importancia y por cuyo control e indexación estamos viendo cada día más interés. De una actividad que muchos juzgaban banal y una empresa que era tildada de poco seria, a las permanentes discusiones sobre su modelo de negocio, y a una fase ya de franca popularización con usuarios famosos, portadas de revistas de management y rentabilidad obtenida gracias a haberse convertido en el verdadero pulso de la actualidad, en la respuesta colectiva a esa pregunta de “What’s happening?”, “¿Qué está pasando”?

Una empresa que nació de manera casi accidental, tras ver la herramienta que los empleados de Odeo habían creado para simplemente saber dónde estaba y qué estaba haciendo cada uno y poder poner reuniones, y que creció con la idea de que aquello debía servir para algo y tener una viabilidad económica, sin saber exactamente cuál sería el modelo para ésta. La historia ya casi nos resulta familiar. Hoy hay más de cincuenta mil aplicaciones corriendo sobre todo tipo de dispositivos y servicios web, y una empresa que forma parte de la vida cotidiana de cada vez más gente.

Trepa un poco -escala, mejor – por la curva de la gráfica. Es la historia reciente, solo tres años, de una compañía tecnológica. Revisa cuáles fueron tus percepciones sobre ella, tus primeras impresiones, tus sensaciones al probarla, tus análisis más o menos acertados al respecto… hay mucho que aprender ahí.

(Enlace a la entrada original - Licencia)

22 febrero 2010

La verdadera amenaza: ACTA

ACTA, el Anti-Counterfeiting Trade Agreement, es una propuesta para un acuerdo comercial multilateral de aspecto sumamente siniestro cuyas negociaciones, en sucesivas rondas, se estaban llevando hasta el momento con el más absoluto secretismo. Ayer, finalmente, se filtró el capítulo de ACTA referente a Internet, y en efecto, se demuestra que todos los temores estaban justificados: se trata del mayor ataque a la libertad de la red jamás concebido, con provisiones para convertir a Internet en un auténtico estado policial, y pasado por la vía de un acuerdo multilateral de comercio que los países se verán obligados a ratificar si no quieren ser objeto de sanciones comerciales.

En el documento filtrado aparecen provisiones destinadas a forzar a cualquier actor en la red o fuera de ella, desde empresas proveedoras de tecnología hasta proveedores de acceso, pasando por empresas de hosting, operadores móviles, universidades, etc. a detener la actividad de todo aquel que se crea pueda estar tomando parte en infracciones de cualquier tipo a la propiedad intelectual o las marcas registradas, en lo que se constituye como un auténtico cajón de sastre susceptible de ser utilizado contra absolutamente cualquier cosa. Incluye también sanciones contra quienes desactiven medidas anti-copia, o la extensión de la política de desconexión de Internet de usuarios que sean acusados de infracciones. ACTA es, sin ningún lugar a dudas, el mayor intento hecho hasta el momento de ejercer un control sobre Internet, de perpetuar los conceptos relacionados con la propiedad intelectual y el copyright antes de que estos puedan ser redefinidos en función del nuevo escenario sociotecnológico, crear un nuevo estándar de aplicación de propiedad intelectual más allá de los estándares existentes. ACTA es, a día de hoy, la verdadera amenaza.

Con ACTA no podemos andarnos con tonterías: crea un marco legislativo que puede ser utilizado para recortar de manera drástica las libertades más básicas. Como en ocasiones anteriores, pretenderán convencer a la opinión pública de que se trata de acciones contra las grandes redes de piratería o contra organizaciones internacionales, pero nunca de actuar contra los ciudadanos. En función de lo que nos temíamos y de lo que el documento filtrado revela claramente, es mentira. Es preciso hablar del tema, estar plenamente informados, tener las ideas muy claras al respecto, y que no haya voces discordantes: en el momento en que se plantee, el rechazo debe ser total y efectivo, y manifestarse en forma de una fuerte presión ante los gobiernos y representantes políticos de cada país. En mi caso, había evitado hablar de ACTA debido a que carecía completamente de información fiable al respecto. Hoy, tras leer el documento filtrado, inauguro decididamente la etiqueta y el capítulo. Ten tus antenas activadas: oirás hablar de ACTA, no lo dudes. Nunca unos pocos intentaron de manera tan clara y resolutiva recortar las libertades de todos.

(Enlace a la entrada original - Licencia)

21 febrero 2010

Siete años de blog

Hoy se cumplen siete años – que se dice pronto – desde que el 21 de febrero de 2003 aproveché el final de una mañana tranquila para escribir aquellas dos entradas, un saludo y un comentario sobre la adquisición de Blogger por parte de Google.

Muchas cosas han cambiado desde entonces. En el 2003, yo era el único en toda mi empresa que tenía un blog. Ahora, hay un buen montón de ellos, y muchos de ellos muy buenos. Ahora tengo más visitas, más comentarios y más canas también. Pero otras muchas cosas siguen igual: me lo sigo pasando esplendorosamente bien haciendo lo que hago. Sigo disfrutando de cada clase, de cada conferencia, de cada columna y de cada entrada en el blog, y eso es lo que ha hecho que desde que empecé a tomármelo en serio al año siguiente de haberlo empezado, en 2004, no haya dejado de escribir en él ni un solo día, fuese laborable o fin de semana, festivo o vacaciones, estuviese animado, triste, ocupado o tranquilo. Mucho tiempo dedicado a una actividad, el blog, que fue capaz de integrarse perfectamente con el resto de mis responsabilidades y, en muchos casos, de potenciarlas notablemente.

Nuevos tiempos, nuevos diseños, nuevas metas… pero lo fundamental permanece. Cada día, me sigo levantando con ganas de proponer temas, de lanzar ideas y entradas encima de la mesa para que reciban vuestros comentarios. Siete años son muchos años, y sin embargo mi dedicación al blog, lejos de hacerse monótona, repetitiva o aburrida, me divierte más cada día que pasa. Sigo dedicando mucho más tiempo a leer que a escribir – algo normal en un profesor en un área como la tecnología y que, en cualquier caso, sería necesario para mí aunque no tuviese blog – y sigo beneficiándome de tener un sitio en la red que recoge toda mi actividad de manera ordenada y me alimenta constantemente con nuevas ideas.

Son ahora mismo 89.614 comentarios sobre un total de 4.283 entradas, una media muy razonable de veintiún comentarios por entrada, cantidad que permite un nivel de conversación habitualmente interesante, manejable y enriquecedor. La moderación de comentarios no ha restado al blog ni un ápice de frescura: el tiempo máximo que un comentario suele permanecer sin moderar es normalmente de menos de treinta minutos (mis clases en IE Business School duran hora y media), muchos de los comentaristas habituales están en lista blanca (no pasan por moderación), los hilos de conversación se desarrollan con normalidad, y únicamente me veo obligado a enviar a la papelera unos dos o tres comentarios por semana, comentarios que, podéis creerme, están mucho mejor ahí. Los comentarios del blog son una fuente de satisfacciones y de inspiración permanente, que agradezco con muchísima sinceridad. Lo mejor del blog sigue estando en los comentarios.

Muchas gracias a todos por seguir ahí.

(Enlace a la entrada original - Licencia)

20 febrero 2010

Una lección de sentido común de un estudiante de 17 años

Techdirt, uno de mis blogs favoritos, recoge la publicación en un diario canadiense, el Winnipeg Free Press, del ensayo ganador de un concurso de la Balmoral Hall School, un instituto local, para su clase de Ética. La pregunta hecha a los alumnos era “¿Es correcto descargar canciones, películas o juegos sin pagar?” El ensayo ganador, escrito por un estudiante de nombre Kamal Dhillon y titulado Not wrong, just illegal, es una auténtica gloria de lectura, completamente recomendable (si no lees habitualmente en inglés, puede entenderse relativamente bien usando Google Translate).

Sin estar completamente de acuerdo con el artículo, sí hay que valorar enormemente la valentía de su publicación en un medio generalista: que haya sido premiado ya supone de por sí una prueba del cambio de mentalidad que se está operando en Norteamérica. El artículo argumenta claramente que por mucho que las leyes digan que las descargas son ilegales, la realidad es que existe una justificación moral perfectamente clara para realizarlas, y que el resultado neto es claramente positivo para la sociedad. Los jóvenes cuestionan las leyes que convierten en ilegales las descargas, porque perciben claramente que esas leyes son de todo punto injustas y absurdas, y porque además saben que resultan de imposible ejecución, que no les pueden capturar cuando lo hacen. Está claro: por más esfuerzos de comunicación que lleven a cabo los lobbies de la propiedad intelectual, por más personas que persigan y lleven a juicio, sus argumentos no engañan a nadie, y mucho menos a unos jóvenes capaces de cuestionarlo todo.

El artículo revisa argumentos palmariamente estúpidos como el que afirma que “una descarga es una venta perdida”, e invita a una reflexión como sociedad acerca de la adecuación de las leyes de propiedad intelectual al escenario sociotecnológico actual, para evitar una prohibición que es a todas luces injusta, inconsistente, e irracional.

Una prueba de que las cosas están empezando a cambiar. Y una lectura verdaderamente recomendable.

(Enlace a la entrada original - Licencia)

Explicando la neutralidad de la red

Dado que la semana que viene veremos varias columnas y artículos en prensa poniendo en duda el concepto de neutralidad de la red y pretendiendo confundir al respecto con argumentos falaces inspirados por quienes trabajan en las operadoras o para las operadoras (eso de “Telefonica es nuestro principal cliente… claro, y el de media España”), vamos adelantándonos con algún vídeo que lo explica de manera extremadamente sencilla y en castellano. Las cosas claras, y el chocolate espeso (gracias, Javier).

(Enlace a la entrada original - Licencia)

19 febrero 2010

Entrevista en Conocer al Autor

En Conocer al Autor me grabaron esta entrevista sobre temas relacionados con los nuevos modelos de negocio en Internet, las posibilidades de los productos culturales en la red, los libros electrónicos, la importante pero tantas veces ignorada diferencia entre libre y gratis, los derechos de autor en Internet, y otros temas relacionados. Son unos doce minutos de entrevista.

(Enlace a la entrada original - Licencia)

La real-time web, en Expansión

Mi columna de Expansión de esta semana se titula “La real-time web“, e intenta explicar el término, su importancia, y situar a los principales actores en un contexto de evolución histórica fácil de entender.

(Enlace a la entrada original - Licencia)

18 febrero 2010

Francia, ese estado policial

Francia, ese estado policial situado al norte de España, pasa a liderar la clasificación de países que censuran la red y vigilan a sus ciudadanos al llevar al parlamento un paquete de medidas, conocido como LOPPSI2, que incluye desde troyanos gestionados por el Estado destinados a vigilar las acciones de los usuarios, hasta una base de datos (Pericles) que recoge los hábitos de los ciudadanos en la red, pasando por una larga lista negra de sitios a los que los franceses no podrán teóricamente tener acceso de manera directa.

Bajo la teórica y patética excusa de proteger a los ciudadanos contra la pornografía infantil, el paquete de medidas propuesto arrasa con los derechos fundamentales y aboca al país vecino a una suerte de Résistance que se plasmará en el florecimiento de una auténtica darknet, una red completamente cifrada que convertirá en patéticos los intentos de ese liberticida llamado Sarkozy por controlar cosas más allá de lo legítimamente controlable. Pretender controlar Internet a costa de las libertades fundamentales es un camino que no solo no va a ningún lado, sino que puede acabar en el desastre, contribuyendo a un enrarecimiento del entorno que derivará en situaciones mucho más graves y más difíciles de monitorizar.

La propuesta de medidas convierte a Francia en un país con un sistema de censura comparable al de China o Irán, en la auténtica caricatura de una democracia, y a Sarkozy en una especie de “gran hermano bajito” del que circulan ya hasta muñecos para la práctica del vudú. Una situación con respecto a los derechos fundamentales que se convierte en un verdadero descrédito para un país, y que además, curiosamente, no servirá para nada.

Decididamente, un camino que no vale la pena seguir.

(Enlace a la entrada original - Licencia)

17 febrero 2010

Fuerte ofensiva contra la neutralidad de la red

Las empresas de telecomunicaciones, claramente descontentas con el resultado de la batalla de la neutralidad de la red en los Estados Unidos, inician una fuerte ofensiva en Europa, donde la tibieza o abierta connivencia de los políticos parecen ofrecerles mejores perspectivas para sus interesadas maniobras.

Mientras en Estados Unidos la respuesta del Presidente Barack Obama ha sido clara, inequívoca y categórica en apoyo de la neutralidad de la red y se ha plasmado con el nombramiento de Julius Genachowsky como Director de la FCC, una persona de inequívoco discurso al respecto, en Europa estamos presenciando un rosario de malintencionadas declaraciones encadenadas de personajes como César Alierta, Vittorio Colao o la peor de todas, la del ministro Miguel Sebastián, encaminadas a cuestionar la naturaleza abierta de Internet y queriendo reabrir el debate con respecto al tema.

Que las empresas de telecomunicaciones pretendan matar la naturaleza abierta de Internet para poder ganar así más dinero a costa de convertirlo en una especie de “televisión por cable” donde solo tiene voz el que paga la cuota correspondiente es algo clarísimamente negativo para los usuarios y que debería levantar voces de alarma más que justificadas. Pero que esos mismos argumentos sean defendidos por un ministro de Industria, una persona además con preparación y criterio académico, entra dentro de la irresponsabilidad más escandalosa, y recuerda las respuestas de su hombre fuerte – o mejor, del hombre fuerte de Telefonica – dentro de su ministerio hace ya casi dos años, al ser preguntado por la neutralidad de la red, un concepto que claramente no le gusta nada.

La neutralidad de la red es un concepto absolutamente no negociable, y como tal se debe mantener. La posibilidad de que las operadoras discriminen el tráfico en sus redes en función de su procedencia, naturaleza, origen, destino, aplicación o protocolo utilizados es algo que destruye la naturaleza abierta de Internet, dificulta claramente la innovación y el desarrollo de nuevos modelos de negocio en este ámbito así como la creación de empleo y el crecimiento económico en su conjunto, trasladando el valor desde la sociedad en su conjunto hacia las cuentas de resultados de las operadoras. Crear “aduanas” en Internet que cobren tributos arbitrarios en función de criterios absurdos impide que personas que no tienen acceso al pago de esos tributos puedan acceder a la red en igualdad de condiciones que otros que sí lo tienen, destruyendo la propuesta de valor de una red democrática y abierta. En esta lucha, Google es solo una excusa: primero van a por Google, pero luego, tras conseguir consagrar el absurdo principio de que no solo hay que pagarles por el uso de sus cables sino también por la rentabilidad de los negocios que se desarrollan a través de ellos, irán a por todos los demás. En este tema, a Google hay que pedirle que en ningún caso transija y pague – que podría hacerlo, – porque eso permitiría todo tipo de abusos posteriores y la destrucción de la Internet que conocemos. Pero a nuestros políticos hay que pedirles que controlen la desenfrenada ambición de unas operadoras que quieren extraer más dinero de determinados clientes a costa de distorsionar lo que Internet es y representa. Que Google (u otros) acaben pagando extra a las operadoras para poder llegar a los usuarios no es el verdadero problema. El verdadero problema será qué pasará con los que no pagan.

Recordemos la frase que Barack Obama pronunció durante su campaña en Noviembre de 2007:

once providers start to privilege some applications or web sites over others, then the smaller voices get squeezed out, and we all lose. The Internet is perhaps the most open network in history. We have to keep it that way.”

“a partir del momento en que los proveedores comienzan a privilegiar determinadas aplicaciones o páginas web sobre otras, las voces pequeñas se verán excluidas, y todos perderemos. Internet es seguramente la red más abierta que hemos tenido en la historia. Tenemos que mantenerla así.

Las operadoras se juegan mucho, no faltan políticos que las apoyan en contra de los intereses de sus ciudadanos, y nos disponemos a ver muchos más ataques al concepto de neutralidad de la red, pretendiendo confundir e intoxicar para llevar el agua a su molino. Si alguien tiene que estar de acuerdo y convencido en este tema, esos somos los usuarios: entendamos el concepto, repitámoslo hasta la saciedad, contribuyamos a explicarlo, privilegiemos a las operadoras que la garanticen, huyamos de las que la cuestionan, exijámoslo a nuestros políticos, o acabarán teniendo razón quienes afirmaban que “todo esto de la libertad que disfrutamos en Internet era una ilusión o un paréntesis”. Vienen malos tiempos, estemos preparados. Es importante.

(Enlace a la entrada original - Licencia)

16 febrero 2010

Hablando sobre Tuenti en Commerce International

Élodie Cuzin, de la revista Commerce International, publica un artículo sobre Tuenti en francés, Tuenti fait de l'ombre à Facebook et Google e inglés, Tuenti, success story of a network, en el que cita algunas de las opiniones que tuvimos ocasión de comentar por teléfono acerca de la publicidad y el modelo de negocio de la red social española.

(Enlace a la entrada original - Licencia)

Está claro: era una mala idea

El informe del Consejo Fiscal sobre el Anteproyecto de Ley de Economía Sostenible demuestra de nuevo que las cosas que empiezan mal, suelen acabar mal. Para empezar, recordemos cómo empezó todo este lío: cuando, el día 1 de diciembre del año pasado, titulé una entrada nada menos que “Involucionismo digital, la vergüenza de la democracia o el gobierno de Los Otros“, la cosa, realmente, no era para menos. Ver a un lobby industrial metiendo mano de manera manifiestamente antidemocrática en un anteproyecto de ley, añadiendo a él de manera burda una disposición final no relacionada para nada con la temática tratada en la ley, y celebrando posteriormente en un restaurante el “haberle colado un gol” al gobierno es algo que hace que se tambalee la fe en la democracia del más pintado. Efectivamente, era lo que parecía: un intento de “colar” legislación favorable a los intereses de unos pocos, aprovechando un anteproyecto de ley convertido a tal efecto en “cajón de sastre”. La incorporación, de hecho, fue tan burda, que ni siquiera aparece recogida en el listado de reformas propuestas, ni en la información facilitada tras el Consejo de Ministros en el que se trató por primera vez el tema, ni en las declaraciones de los responsables al respecto. Estaba clarísimo: era un “añadido de última hora”, que además introducía temas relacionados con la propiedad intelectual en un ámbito donde no correspondía, y desnaturalizaba completamente la Subcomisión que en el propio Congreso de los Diputados tenía supuestamente como encargo plantear las bases de la reforma de la misma.

La reacción fue inmediata: el “gol” no solo estaba marcado “en fuera de juego”, sino que además, violaba las normas más elementales del juego político. Al estar hecha de tan mala manera, metida con calzador y a toda prisa, la Disposición Final Primera se llevaba por delante los derechos fundamentales de los ciudadanos al proponer la creación de una comisión administrativa con capacidad censora, una potestad reservada a los jueces por mandato constitucional. La rápida difusión del Manifiesto “en defensa de los derechos fundamentales en Internet” que comenzó al día siguiente forzó una serie de reacciones del gobierno, pero en la dirección equivocada: en lugar de reconocer el error de haber permitido que sus “amistades peligrosas” modificaran a su antojo el Anteproyecto, intentaron “arreglar el desaguisado” dándole apariencia legal, y para ello entraron en una espiral que terminó por llevarles a plantear la modificación de dos leyes, una Ley Orgánica y un Real Decreto con el fin de intentar parchear el tema de alguna manera. La cuestión seguía siendo burda, porque respondía a una pretensión tan clara como espantosa: “como los jueces no nos dan la razón, prescindamos de los jueces”. Para ello, pretendían justificar la creación de todo un “aparato legal” en forma de justicia paralela hecha a la medida de las pretensiones de las sociedades de gestión de derechos de autor, a las que se otorgaba el privilegio de tener sus propios tribunales y procesos.

El informe del Consejo Fiscal pone las cosas en su sitio: efectivamente, las cosas no se pueden arreglar así. Y no se puede, porque los comienzos son erróneos. Para empezar, porque la propiedad intelectual no se puede equiparar con los derechos fundamentales. No, ni parecía lógico, ni lo era, poner la salvaguarda de los derechos de propiedad intelectual al mismo nivel que cuestiones como el orden público, la investigación penal, la seguridad pública, la defensa nacional, la salud pública, la dignidad de la persona y la protección de juventud e infancia. Sencillamente, es erróneo: por mucho que se pretenda confundir interesadamente, la propiedad intelectual pertenece, como su propio nombre indica, al ámbito de los derechos de propiedad, no al de los derechos fundamentales. Y si la propiedad intelectual no es de por sí un derecho fundamental, mucho menos lo es el negocio derivado de la comercialización de la misma, un negocio que, como tal,  únicamente debe someterse al ámbito de las leyes del mercado. Una cosa es la creación, y otra muy distinta su comercialización.

El informe del Consejo Fiscal pone las cosas en su sitio: suspende al gobierno en Derecho, deja claras las incoherencias derivadas de pretender enrocarse en el error, y pide a gritos la verdadera rectificación necesaria: la eliminación de la Disposición Adicional Primera del Anteproyecto de Ley de Economía Sostenible, y el planteamiento de un verdadero y legítimo debate sobre la reforma de la propiedad intelectual en el foro que legítimamente le corresponde, en el que se traten mucho más aspectos de un asunto cuyas implicaciones van, sin duda, mucho más lejos que lo que torpe y apresuradamente se planteaba en esa ominosa Disposición Final Primera.

Efectivamente: era una mala idea.

(Enlace a la entrada original - Licencia)

15 febrero 2010

Prólogo de ?Todo va a cambiar?, escrito por Vint Cerf

Con Vint CerfEs todo un placer para mí compartir con vosotros el prólogo de mi libro, “Todo va a cambiar“, escrito por Vint Cerf, sin duda una de las personalidades más relevantes para todos los que consideramos la red una parte importante de nuestras vidas. Escribir un libro que intenta analizar la influencia de la red y la tecnología sobre las personas, las empresas y la sociedad en su conjunto, y que te lo prologue una de las personas que más contribuyeron a dar origen a esos cambios tiene un fantástico punto de “lógica aplastante”, y estoy sinceramente agradecidísimo a Vint por haber accedido a escribirlo.

Mi editorial ha puesto la versión maquetada y traducida del prólogo en su cuenta de FileSocial. Para quienes prefiráis leerlo en versión original, tal y como la recibí directamente desde el teclado de Vint, os la dejo aquí.

(Enlace a la entrada original - Licencia)

14 febrero 2010

Google Buzz: los efectos colaterales

Tercera entrada larga dedicada a Google Buzz en un corto espacio de tiempo, pero es que su lanzamiento está siendo muy interesante para los que nos dedicamos a estudiar y analizar estas cosas: la llegada de Google Buzz está teniendo una interesante serie de efectos colaterales. A la espera de datos sólidos al respecto, tengo algunas impresiones que, de comprobarse, demostrarían que lo que la gente de Google tenía buzzing in their heads cuando diseñaron el producto era una jugada de mucho más calado destinada a ser mucho más que un simple servicio más.

Por efectos colaterales no me refiero a las múltiples quejas o problemas derivados del lanzamiento: hay cuestiones como los esquemas de opt-in o el opt-out y su relación con la privacidad, o el esquema de integración con Gmail, que pueden ser sometidas a análisis interesantes y a las que, según se comenta, Google está prestando muchísima atención y tratando de reaccionar muy rápidamente, pero no es el análisis que pretendo hacer ahora. Procuraré más bien centrarme en las implicaciones estratégicas del tema.

En primer lugar, el efecto ya comentado anteriormente de creación de una capa de replicación, un instrumento para hacer de repositorio o consolidar otros servicios: todavía no suficientemente abierto ni perfeccionado, pero una idea muy interesante reforzada por la posibilidad de realizar búsquedas sobre ella.

En segundo lugar, al lanzar un producto social como Buzz vinculado de manera irremisible a Gmail, Google se ha asegurado una fuerte inyección de popularidad para un tercer producto relacionado: Google Profiles, sus perfiles personales. Este producto, en realidad, es central y clave en las llamadas Identity Wars, una de las batallas más interesantes que se están jugando en la web, con jugadores tan importantes como Facebook o Twitter, y con intervención de piezas como OpenID u OAuth. Todavía no he visto números publicados, pero estoy seguro de que Google Profiles ha debido experimentar un ascenso fuerte, un paso interesante a la hora de definir quién termina convirtiéndose en las “páginas blancas” de la red. Además, Google Profiles tiene, frente a competidores como Facebook o Twitter, un diseño que refuerza y hace mucho más visible la parte social, con todo lo que ello conlleva.

En tercer lugar, la creación de una capa de “metacomentarios” con una organización curiosa: en el apartado de Buzz aparece un contador que se actualiza con todas aquellas personas que sigues, pero aquellos hilos en los que participas pasan automáticamente a la bandeja de entrada. Esto provoca un fenómeno curioso y que, de hecho, no me gusta: que en ocasiones aparezcan conversaciones interesantes que se “deslocalizan” de su fuente original. Lleva varias ocasiones en las que veo comentarios a entradas mías que me encantaría tener recogidas en la entrada correspondiente, pero que al aparecer en el hilo de Buzz, se “pierden”. En ese sentido, Buzz tiene un punto de “apropiación de la conversación” que, como generador de contenidos, no me termina de convencer, y que podría crecer si el uso directo de Buzz se populariza (algo de lo que todavía no estoy completamente convencido). La fuerte integración con Google Reader es otro punto más que permite tangibilizar esa capa social: ver de repente los artículos que compartes en Reader sometidos a un nivel adicional de visibilidad en Buzz proporciona una sensación de “mayor potencia de fuego”: en Reader ya existía la posibilidad de comentar sobre los elementos compartidos, pero desde que apareció Buzz, el número de comentarios en mis entradas ha crecido sensiblemente. La última vez que me pasó algo así fue con Menéame, y lo solucionamos mediante un plugin de WordPress desarrollado por mis amigos de Blogestudio.

En cuarto y último, la aparición de una nueva fuente de tráfico social: es pronto para decirlo, pero de nuevo, si el uso directo de Google Buzz crece, veremos cómo se convierte en un importante referral de tráfico para los creadores de contenido, como algunos ya hemos experimentado con Facebook o, sobre todo, con Twitter. Este posible desarrollo se vería acompañado con total seguridad por la aparición de botones del tipo “enviar a” (Buzz this, como ya ha hecho por ejemplo Mashable) que los creadores de contenido pondríamos visibles junto con su respectivo contador para potenciar el efecto, lo que otorgaría una visibilidad adicional a la aplicación.

En resumen: es todavía muy pronto para vaticinar si Google Buzz progresará en su curva de adopción o quedará como un intento de los muchos que Google no ha conseguido posicionar. Según algunos, Buzz está siendo un enorme éxito de adopción, con estadísticas que ascienden a más de 160.000 entradas y comentarios por hora, y se habla del servicio como de un auténtico game changer, y no olvidemos un efecto adicional que podría funcionar incluso aunque el modelo de adopción directa no fuese masivo: la capacidad que daría a Google de convertirse en un actor importante a la hora de indexar la real-time web. Pero consigan o no dinamizar la adopción directa, tengo pocas dudas acerca de que estos efectos colaterales estaban ya bien factorizados y tenidos en cuenta en su diseño.

(Enlace a la entrada original - Licencia)

13 febrero 2010

El frío viento del norte (y la pasta que te ahorras con él)

Veo en Slashdot, HP’s new data center cooled by glacial wind, la noticia de la finalización del nuevo data center de EDS en el noreste de Inglaterra, en Wynyard, que consigue índices de eficiencia energética muy brillantes – PUE, o Power Use Effectiveness, de un 1.2 – gracias al uso de los vientos fríos provenientes del Mar del Norte para la refrigeración de los más de 33.500 metros cuadrados de instalaciones.

El viento es recogido por colectores, pasado por un sistema de filtros, y circulado directamente sobre los frontales de los racks, lo que resulta en una temperatura constante del local de 24ºC. Si la temperatura del viento disminuye demasiado, el aire más caliente de la salida del circuito es vuelto a mezclar con el de entrada, hasta obtener la temperatura adecuada. Además, las instalaciones tienen un echo colector de agua de la lluvia, que es utilizada para el control de la humedad ambiental. Hay algo más información en este artículo de ZDNet y en este otro del International Business Times.

La tendencia se une a muchas otras iniciativas de empresas que están trabajando para mejorar de manera notable las métricas propuestas por la EPA, cuyas recomendaciones empiezan a parecer, en muchos casos, casi desfasadas: frente a la meta propuesta de reducción del PUE a valores de 1.9 para el año 2011, empresas como EDS o Google están obteniendo ya valores situados entre 1.13 y 1.29, que producen importantísimos ahorros energéticos. En el caso de Wyndyard, el ahorro se estima en unos tres millones de euros anuales. La tendencia apunta a un progresivo uso de este tipo de métricas para el control de las actividades de los directores de tecnología, que pasan de estar medidos por sistemas centrados únicamente en la minimización del tiempo de downtime a estarlo por criterios de eficiencia energética, un dinero que va directamente a la última línea de la cuenta de resultados.

Además, esto tiende a privilegiar la instalación de data centers en zonas frías y con bajos niveles de oscilación térmica a lo largo del año, con lo que ello conlleva de aprovechamiento de recursos naturales frente a los comparativamente caros sistemas de refrigeración artificial. El Green IT como tendencia es uno de los temas que comento habitualmente en varios de mis cursos en IE Business School, si quieres ver más datos, puedes buscar en el blog con la etiqueta correspondiente.

(Enlace a la entrada original - Licencia)

12 febrero 2010

¿A Alierta no le gusta Internet?, en Expansión

Mi columna de esta semana en Expansión se titula “¿A Alierta no le gusta Internet?”, y ahonda en el hecho de que las declaraciones de César Alierta el pasado viernes en el Hotel Ercilla de Bilbao fueron o una cuestión de profunda ignorancia de quien no entiende el funcionamiento de Internet y la neutralidad de la red, o de profunda megalomanía de quien cree que puede cambiar dicho funcionamiento. En uno u otro caso, las declaraciones son profundamente desafortunadas, y suponen un atentado al concepto de neutralidad de la red, algo que alteraría la naturaleza de Internet y que nos llevaría a situaciones impensables, imposibles y de todo punto INACEPTABLES.

Tonterías con la neutralidad de la red, ni una.

(Enlace a la entrada original - Licencia)

11 febrero 2010

El buzz sobre Google Buzz: la prueba del uso

A medida que Google va dando entrada a más usuarios en Buzz, empiezan a escucharse las primeras reacciones tras la prueba del uso: en general, predominan los comentarios de tipo “mucho ruido” o “claramente invasivo”, llegando incluso a quienes lo desconectan rápidamente tras darle menos de un día de uso.

¿Mi impresión? Que Google en ningún momento ha intentado hacer una red social ni que Buzz reciba el mismo nivel de atención que un usuario otorga a una red social en la que tiene un perfil activo, fundamentalmente porque lanzarse a competir con jugadores tan establecidos como Facebook o Twitter sería un suicidio. Que lo que ha hecho Google es limitarse a proporcionarnos una capa que repite lo que hacemos y lo que nuestros amigos hacen en otros sitios. Para mí, Google Buzz es una capa de replicación, pero con un valor fundamental, que es el que Google siempre me ha dado con buenos resultados: la búsqueda.

Me explico: si alguien ha podido pensar que Google Buzz iba a hacer que abandonase Twitter o Facebook, que me preste un poco de lo que fuma. Mis actualizaciones van a seguir yendo a los sitios habituales donde las hacía y donde mis comunidades están consolidadas, con o sin Buzz. Entonces, ¿para qué es Buzz y qué uso pienso darle? Buzz replica, como decíamos, muchos canales sociales en los que sigo a mucha gente conocida. Antes de Buzz, tenía un verdadero problema: no era nunca capaz de recordar a través de qué canal había visto qué cosa. Podía recordar, en ocasiones, haberle leído algo a alguien que me había gustado, pero incluso en ese caso, encontrar por qué canal se lo había leído se convertía en un desafío. ¿Qué hago ahora? Simplemente, abro Buzz y lo busco.

Como canal directo, Buzz tiene un uso limitado, como limitado es el conjunto de personas con las que hablo a través de GTalk. Aquellos hilos de Buzz que debo seguir porque estoy realmente implicado en ellos (porque he escrito algo en un tema que me interesa) aparecen en mi bandeja de entrada, y o bien los sigo ahí o los borro si ya no me interesan. El apartado Buzz, ese cuyo indicador crece tan rápidamente, me limito a entrar de vez en cuando, darle un clic para que se reinicie el contador, y hacer un screening rápido. En lectura diagonal, veo si hay muchas cosas nuevas compartidas, y sobre todo, si hay opiniones de temas que me interesan (me gusta especialmente la integración con Reader, pero hay que entender que para mí, como profesor y como blogger, Reader es una herramienta fundamental). Un momento, un solo sitio, con búsqueda por si la necesito, y a otra cosa. Lo dicho ayer: una capa de social awareness.

Obviamente, para que Buzz sea útil en esa modalidad de uso, hay que pasar por un proceso de limpieza inicial. La lista inicial que Google te coloca en Buzz es de todo menos razonable, y exige una revisión para decidir quienes quieres ahí generando buzz y quienes no. Los criterios son variados y personales, como siempre en estos casos. Se tarda en tener ajustada una capa social para que sea completamente útil, pero me parece interesante explorarlo.

¿Usaré Buzz? Lo usaré para eso, para ver el buzz y para buscar cosas en él. Si consigo organizar adecuadamente Buzz, no será una fuente de ruido adicional, sino lo contrario, una capa de consolidación. No es una YASN (Yet Another Social Network, “otra red social más”), sino algo diferente, un consolidador / buscador (que es lo que, por otro lado, estoy convencido que Google quiere realmente desarrollar, un buscador eficiente para la real-time web, con capacidad de sofisticarlo más que lo que podría hacer únicamente con los servicios de Twitter). En ningún caso sustituirá – ni creo que Google lo pretenda – a Facebook, a Twitter o a servicios similares. Con el tiempo y el uso, Buzz se irá dotando de funciones para, por ejemplo, agrupar usuarios en listas, filtrar determinados canales de un usuario manteniendo otros, etc. Pero como está, me parece útil, sin que vaya a pasar a estar para nada en un punto central de mi vida online. Es más: si simplemente lo usase para recoger el buzz sin entrar nunca en él más que para hacer alguna búsqueda ocasional o contestar algún comentario, creo que estaría satisfecho con la herramienta a pesar de dedicarle ese reducido nivel de atención, ese “uso indirecto”. Y curiosamente, tengo la impresión de que Google también.

(Enlace a la entrada original - Licencia)

10 febrero 2010

Semana negra para Sinde, en La Gaceta

Víctor Domingo me cita en su columna “Semana negra para Sinde” en La Gaceta de los Negocios, al hilo de mi comparecencia ante la Subcomisión de la Propiedad Intelectual. Concretamente, la cita dice:

El profesor del Instituto de Empresa, Enrique Dans, afirmó: “hemos vivido doscientos años en una época en la que toda la propiedad intelectual estaba estructurada en torno al concepto de copia, pero hoy en día no tiene sentido, y mucho menos condicionar el futuro de todos los posibles modelos de negocio a través de Internet a un mercado que en este momento está viciado y vive una situación de monopolio absoluto”.

La columna aparece también en la web de la Asociación de Internautas.

(Enlace a la entrada original - Licencia)

?La generación interactiva?, en Misión

Lourdes Téllez mantuvo una larga conversación telefónica conmigo sobre el uso de tecnología entre los jóvenes actuales, y ha publicado este reportaje, “La generación interactiva“, en la revista Misión, de la Universidad Francisco de Vitoria. Mis contestaciones fueron en mi línea habitual, intentando desmentir mitos, leyendas y cuentos de viejas sobre los “terribles peligros” de la tecnología: ayer fue, por lo visto, el “Día europeo de la Internet Segura”, y en una entrevista en radio sobre el tema contesté que “lo más inseguro para un joven hoy en día es estar fuera de Internet”.

(Enlace a la entrada original - Licencia)

Google Buzz y el social awareness

Si ayer por la tarde (hora española) estuviste pendiente del lanzamiento de Google Buzz, si has visto el vídeo, si estás todavía esperando a ver aparecer la opción en el menú de tu Gmail, o sobre todo, si lo has podido probar; te habrás dado cuenta ya del verdadero significado de la aplicación: la creación del llamado social awareness, una capa de compartición social de contenidos geosensible y en tiempo real. Una capa destinada a que estés en ella de manera casi inadvertida, casi aunque no quieras: con que seas usuario de Gmail, te encontrarás con Buzz de manera más o menos directa, como en su momento te ocurrió con GTalk.

La primera sensación al probar Buzz es de cierto descontrol: todo está hecho, los amigos ya están definidos (se toman de aquellos con los que cruzas más mensajes o hablas por GTalk más a menudo), tu situación aparece inmediatamente previa petición de permiso, y si te descuidas, te encuentras ya compartiendo a través de Buzz cosas como tus compartidos de Google Reader, o metido en conversaciones con personas con las que no hablabas habitualmente. Todo en un momento. Sorprende, en cuestión de minutos, encontrarte con que tienes tres vecinos en tu misma urbanización metidos en Buzz, y pensar que ellos te estarán viendo a ti de la misma manera que tú les ves a ellos aunque el contacto habitual sea poco más del cordial “hola” y “adiós” al cruzarse en los ascensores o en la piscina. Buzz es, en el fondo, la traslación a aplicación de aquel análisis que escribí hace exactamente un año hablando de dos variables fundamentales para entender la web en tiempo real: estado y presencia. Con Buzz convenientemente integrado, estaremos informando de nuestro estado y nuestra presencia en tiempo real a todos aquellos a los que consideremos adecuado informar, mediante una herramienta simple y completamente integrada en nuestro gestor de correo electrónico.

La apuesta de Google por Gmail como futuro de la comunicación es total: en lo que se suponía era una herramienta de correo electrónico, tiene ya completamente integrada la mensajería instantánea, la voz IP, el vídeo bidireccional, y ahora toda la capa social que lo recoge e indexa. Si quieres, puedes tener hasta consolas para manejar tu Twitter y tu Facebook sin salir de la ventana del propio Gmail. Y además, en una plataforma que ya ha mostrado su potencia a la hora de alcanzar los dispositivos móviles con un éxito notable.

Lo que más importante me parece de Google Buzz es el componente integrador: construido mediante arquitecturas abiertas y con una API disponible para hacerlo funcionar con aplicaciones de todo tipo, tengo la impresión de que Buzz va a funcionar fundamentalmente como contenedor. Como un “punto neutro” en el que concentrar mucha de tu actividad en diferentes redes. Contrariamente a los que piensan que Buzz es un ataque de algún tipo contra Twitter o Facebook, mi impresión es que el tema no va por ahí. Buzz no pretende que dejemos de usar ninguna de esas aplicaciones: pretende que las integremos. ¿Para qué? Fundamentalmente por dos razones: porque al hacerlo, dispondremos de un punto en el que poder hacer búsquedas sobre la totalidad de nuestro social timeline, de nuestra secuencia de actualizaciones a través de muy diversas herramientas. Y segundo, pero mucho más importante para Google, porque al hacerlo, ofreceremos a la empresa la posibilidad, ahora, sí, de manejar e indexar el pulso de la real-time web, de la web en tiempo real. Si la estrella de la real time web es Twitter con sus actualizaciones constantes y Google tiene que pagar por el acceso a su timeline para su indexación, Buzz es la manera de que los usuarios, voluntariamente, consoliden tanto esas actualizaciones como muchas otras en un punto al alcance de las arañas indexadoras de Google.

No, Twitter no debería preocuparse porque Buzz vaya a hacerle la competencia como herramienta para que los usuarios respondan a esa pregunta de “What’s happening?”, “¿Qué está pasando?”. Como mucho, deberá preocuparse de qué hacer cuando esos ingresos anuales procedentes de Google desaparezcan porque Google ya no necesite pagar para tener acceso a esa información, porque sus propios usuarios se la lleven empaquetada. El carácter abierto de Buzz llevará, si la dinámica de adopción es adecuada, a que un número cada vez mayor de usuarios lo usen como contenedor de su actividad social, como punto central de consolidación de la misma. ¿Cuánto tiempo estarán las actualizaciones de Facebook fuera del sistema? Seguramente poco, a no ser que la propia Facebook haga algo por evitarlo mediante ofuscación, una opción impopular y poco probable.

Para Google, Buzz es una apuesta importante: representa la opción para seguir siendo el jugador central en la indexación de la real-time web. Que la jugada le salga o no, por supuesto, dependerá de la curva de adopción: si Buzz prende entre los usuarios, si éstos lo configuran con sus servicios habituales, aunque luego sigan utilizando éstos, habrá funcionado. Si el lanzamiento a nivel corporativo funciona, podría suponer la llegada de esa capa social al mundo de la empresa, algo que todavía se ha visto en muy pocos casos, y que podría tener su importancia y su efecto en la forma en la que muchas personas trabajan habitualmente. Pero lo más importante de Buzz no son esas conversaciones casuales que han empezado a aparecer en nuestras bandejas de entrada de Gmail, sino el poder que tendrá de indexar toda la información que pueda llegar a contener.

(Enlace a la entrada original - Licencia)

09 febrero 2010

Alierta y la neutralidad de la red ? reacciones

Algunos medios recogen hoy reacciones a las declaraciones de César Alierta en el Hotel Ercilla de Bilbao, en algunos casos incluyendo comentarios míos al respecto. El Mundo publica en su versión papel “¿Debe pagar Google un peaje por la red?”, mientras que Público sale con un reportaje a doble página de Blanca Salvatierra y Miguel Ángel Criado titulado “Los dueños de la red quieren que los contenidos paguen” (aquí en pdf), en el que sin embargo cometen importantes errores a la hora de analizar el concepto de la neutralidad de la red: en la versión papel, el reportaje comenta como factores a favor de una red no neutral cuestiones como la imposibilidad de priorizar determinados servicios (cita la telemedicina, que según el artículo “debería disponer de más ancho de banda que un correo electrónico”) o el freno a la aparición de productos premium.

Esa argumentación es, en los dos casos, completamente falsa: la neutralidad de la red no significa en modo alguno “que todos vayamos a la misma velocidad”. La neutralidad de la red significa que si yo tengo contratados veinte megas de bajada y uno de subida, obtenga la velocidad que debo obtener (en función de la distancia a mi centralita y otros parámetros técnicos) de manera completamente independiente al tipo de contenidos que circulen por esa red. Si quiero asegurarme un ancho de banda muy elevado porque, por ejemplo, soy un hospital y me dedico a la telemedicina, nada me impide pagar por ese ancho de banda. Lo que no puede ocurrir es que si hago clic en un vínculo de un proveedor determinado que ha pagado a la empresa de telecomunicaciones, sus contenidos bajen más rápido que los de uno que no lo ha hecho por razones completamente independientes al ancho de banda que éstos tengan contratado. Eso sí es una violación de la neutralidad de la red. Pero que alguien que necesita más ancho de banda lo contrate, no lo es. Del mismo modo, no existe ningún freno a la aparición de productos premium: todos podemos contratar, dentro de la gama de oferta disponible, el ancho de banda que deseemos, pero eso no debe significar que determinados contenidos se vean privilegiados con respecto a otros por otros factores diferentes a los puramente técnicos.

La neutralidad de la red es un concepto perfectamente claro y bien definido:

Los ciudadanos tienen derecho a que el tráfico de datos recibido o generado no sea manipulado, tergiversado, impedido, desviado, priorizado o retrasado en función del tipo de contenido, del protocolo o aplicación utilizado, del origen o destino de la comunicación ni de cualquiera otra consideración ajena a la de su propia voluntad. Ese tráfico se tratará como una comunicación privada y exclusivamente bajo mandato judicial podrá ser espiable, trazable o analizable en su contenido (como correspondencia privada que es en realidad).

Es decir, que la red no estará sujeta a ningún tipo de discriminación en función de contenidos, sitios web, origen, destino, plataformas, modos de comunicación o protocolos, limitándose las empresas proveedoras a ofrecer un canal de comunicación con un ancho de banda contratado por el usuario, sin ningún tipo de injerencia en lo que por él circule y, por supuesto, cumpliendo el derecho universal al secreto de las comunicaciones.

No confundamos términos, por favor. La red es neutral por definición, y deberá seguir siéndolo sin que ello impida que cada uno pueda contratar el ancho de banda que estime adecuado a sus necesidades, en el régimen que estime oportuno para las mismas. Estar a favor de la neutralidad de la red implica no estar de acuerdo con que tu proveedor de telecomunicaciones pueda decidir qué contenidos van más rápido o más despacio en función de sus acuerdos comerciales o intereses en los mismos. Estar a favor de la neutralidad de la red implica no permitir que la oferta de contenidos o servicios de un proveedor de telecomunicaciones sean privilegiados con respecto a los de su competencia. Nada, repetimos, NADA tiene que ver con una red en la que todos circulen a la misma velocidad o en la que no se puedan ofrecer servicios premium con mejores anchos de banda. Eso no sería ser neutral: sería ser simplemente absurdo.

(Enlace a la entrada original - Licencia)

08 febrero 2010

Alierta y la neutralidad de la red

Las declaraciones de César Alierta en el Hotel Ercilla de Bilbao recogidas por EiTB son de esas cosas que te dejan impresionado, sin palabras. Son, como decimos en tono jocoso en los exámenes de tribunal del MBA, una respuesta de A+: a más tiempo que hubiese hablado, no podría haberlo estropeado de semejante manera.

Cuando César Alierta se hizo cargo de la Presidencia de Telefonica en el año 2000 a instancias del gobierno del Partido Popular, el comentario de Jose Mario Álvarez de Novales, Profesor de Dirección Estratégica y mi mentor en IE Business School, que aparece recogido en Wikipedia, fue claro y contundente: Alierta no conocía el negocio de las telecomunicaciones cuando tomó el mando de la empresa. Diez años después, las declaraciones del Ercilla dejan claro que la situación no ha cambiado un ápice: Alierta sigue sin conocer el negocio de las telecomunicaciones. Para la dirección de la compañía, que lleva a cabo con criterios exclusivamente financieros, se rodea de un gabinete de asesoría en el que figuran algunos profesionales de gran talla y conocimientos, pero que no pueden evitar que de vez en cuando ocurran estas cosas: que su jefe se suelte la lengua por la razón que sea, y diga verdaderas tonterías.

En esta ocasión, César Alierta ha manifestado su absoluto desprecio por el concepto más importante de Internet: la neutralidad de la red. Reconocida hasta por el propio presidente de los Estados Unidos, Barack Obama, como la piedra angular que define la naturaleza de Internet, la neutralidad de la red ya no es un concepto sujeto a discusión, sino una palmaria evidencia, un axioma fundamental: sin neutralidad, Internet deja de ser Internet, y pasa a ser otra cosa. La pretensión de Alierta de “cobrar a los motores de búsqueda” como si eso fuese posible sin desnaturalizar completamente la esencia de lo que Internet es y representa solo puede explicarse recurriendo a la ignorancia – o a la estupidez.

Internet es, sin ningún lugar a dudas, un formidable generador de riqueza, un papel que se acrecienta enormemente a medida que aumentamos el horizonte temporal con el que lo contemplamos. Mentalidades ignorantes y estrechas de miras como las de las sociedades de gestión de derechos de autor o las del máximo responsable de Telefonica son una verdadera amenaza para la red, y son muestra de una irresponsabilidad absoluta, que la Historia se encargará de poner en su sitio.

El pasado martes, en mi comparecencia ante la Subcomisión de Propiedad Intelectual del Congreso de los Diputados, una pregunta del diputado Joan Tardà acerca del papel de las operadoras me llevó precisamente a elaborar sobre la peligrosidad de éstas en todo lo referente a la neutralidad de la red. Específicamente, insté a los diputados presentes a no fiarse ni lo más mínimo de unas operadoras dispuestas a sacrificar la naturaleza de Internet y su capacidad de generación de riqueza a cambio de la rentabilidad cortoplacista, y anticipé que recibirían importantes presiones para desnaturalizar dicha red intentando poner fin al principio de neutralidad de la red. Sin duda, dado el tono de mi respuesta, los siete diputados presentes habrán tenido ocasión de sonreírse al ver las declaraciones de César Alierta: ha tardado menos de una semana en darme la razón. Esperemos que los políticos sepan estar, y contesten a personajes como éste con la firmeza que corresponde: la neutralidad de la red no se toca, ni aquí ni en ningún sitio. Es una característica fundamental de la red, y como tal se quedará, independientemente de las fanfarronadas de Alierta y sus delirios de “la calle es mía”.

Telefonica es una empresa privada que se debe a sus accionistas. Sin embargo, no es cualquier empresa privada. Los ciudadanos no olvidan su papel como monopolio, la enorme infusión de dinero público de todos los españoles en las infraestructuras que hoy posee, y el importante papel que el gobierno juega en su gestión (y en particular, en la designación en su momento de César Alierta). Que el presidente de la empresa incumbente de telecomunicaciones del país manifieste semejante nivel de ignorancia y un desprecio tan olímpico por Internet como el que manifiesta en esas declaraciones, en las que habla de la red como quien habla de un cortijo privado sobre el que puede hacer y deshacer a su antojo, es una muy mala noticia para todos, empezando por la propia Telefonica. De una empresa así dirigida se puede esperar muy poco en términos de entender la red y de crecimiento a la sombra de la misma. De un presidente así, que pretende romper Internet y convertirlo en un sistema de canales donde solo los que le pagan pueden transmitir sus bits con calidad, solo cabe esperar que se vaya lo antes posible, para dejar paso a alguien que entienda las importantes oportunidades que la red representa para los operadores que sepan entenderla.

Las declaraciones de Alierta en el Ercilla son una irresponsabilidad. Una irresponsabilidad y una muy mala noticia. Ignoro si volveré a reunirme con Telefonica en los términos en que habitualmente me reúno, pero si vuelvo a hacerlo, no me callaré ninguna de estas apreciaciones ni los análisis que las sustentan.

(Enlace a la entrada original - Licencia)

07 febrero 2010

Publicidad y redes sociales: segunda etapa

Leo en The Register y en TechCrunch que Facebook ha decidido no prolongar su acuerdo de gestión publicitaria con Microsoft, aquel que hace tres años firmó con gran fanfarria e intercambio de $240 millones por una minúscula participación del 1.6% en la red social. Al tiempo, veo que Google también finaliza el próximo junio su acuerdo con MySpace, aquel por el que decidió en agosto de 2006 inyectar $900 millones en la red social de News Corp. a cambio de un inventario que, desde entonces, no ha dejado de descender.

Con el fin de estos acuerdos termina lo que podríamos considerar la primera época de las redes sociales: la que se caracterizó por una fortísima popularización y la llegada de miles de millones de páginas vistas, de un inventario de un tamaño brutal que las incipientes empresas no sabían cómo gestionar de manera eficiente. Ante la imposibilidad de crear rápidamente infraestructuras comerciales para tratar de aprovechar ese inventario, las redes sociales lo subastaron entre los que presuntamente sí sabían qué hacer con él: Google y Microsoft. El resultado fue que el primero que movió ficha, Google, se quedó con la gestión de la que era en 2006 “la niña bonita”, MySpace, mientras que Microsoft luchó por hacerse con la que era “promesa emergente”, Facebook, pagando cantidades que en ninguno de los dos casos han llegado a amortizar. Mientras Google se encontró con una MySpace que bajo la gestión de News Corp. no ha dejado de decrecer en importancia y valor hasta convertirse en muy poco relevante en el panorama de las redes sociales, Microsoft se encontró con una Facebook en fuerte crecimiento (ya cuatrocientos millones de usuarios), pero que le ofrecía un inventario que no sabía llenar más que con CPMs misérrimos y anuncios completamente indiscriminados, simples residuos de inventario sin ningún tipo de valor añadido.

En adelante, veremos cómo las redes sociales aprenden a arreglárselas solas. En esta segunda etapa, las redes tendrán que desarrollar métodos que les permitan gestionar ese enorme inventario de páginas con un nivel de aprovechamiento adecuado, con fórmulas que tengan en cuenta que los visitantes no llegan en “modo búsqueda” ni en “modo compras” sino en “modo social”, y que por tanto son poco susceptibles de dirigir su atención hacia nada que no venga envuelto en dicho modo. Por el momento, Facebook ha optado por evitar la dispersión: seguirá utilizando a Microsoft para búsquedas en la web y para la publicidad asociada con éstas, y lo extenderá a todo el mundo (hasta ahora su uso se restringía a los Estados Unidos), pero seguirá desarrollando su propia tecnología para búsquedas sociales – mucho más relacionadas con su actividad principal – y para su propio sistema de publicidad, asociado a la enorme cantidad de información que maneja de sus usuarios procedente de su propia red y de los más de sesenta millones de usuarios de Facebook Connect, que entregan a Facebook cumplida información acerca de muchos de los sitios por los que navegan.

En este tema, sin duda, nos queda mucho por ver.

(Enlace a la entrada original - Licencia)