30 septiembre 2008

Alucinando con el 609 de Telefonica

Acabo de colgar con el 609 de Movistar. Y necesito escribir algo para que se me quite la cara de pánfilo que se me ha quedado. Para empezar y sentar el contexto, puedes leerte esta entrada antigua, “¿Tima Movistar a los clientes novatos de BlackBerry?“, en la que comentaba cómo Movistar introducía de manera intencionada confusión mediante logotipos casi idénticos para que los clientes de BlackBerry navegasen a través de Emoción en lugar de hacerlo a través de la tarifa plana asociada al contrato BlackBerry, induciendo así un gasto de cincuenta céntimos por conexión.

Pues bien, después de aquel episodio, llamé al 609 de Movistar para desactivar completamente mi servicio de Emoción. Sinceramente, fue complicado, pero tras un largo rato de navegación entre los departamentos de un servicio al cliente que se supone diseñado para ayudar y que en realidad hace todo lo contrario (ponerte anuncios, músicas de fondo interminables y pedirte a cada paso datos como tu número de teléfono - desde el que estás llamando, ¿es que no lo ven? - y tu DNI), conseguí la proeza. Tras la desactivación, recibí un mensaje de texto comunicándome que acababa de desactivar mi servicio GPRS… y claro, inmediatamente, ¡¡ALARMA!! ¡¡SOCORRO!! ¡¡La he liao parda, y ahora en vez de BlackBerry tengo un ladrillo completamente inútil!! ¡¡Una BlackBerry sin GPRS es como un jardín sin flores y una rosa sin olores!! Sin embargo, tras comprobar que todo seguía en su sitio, que todos los servicios funcionaban, y que los mensajes se recibían y enviaban con total tranquilidad, decidí ignorar el mensaje y achacar el tema simplemente a una mala redacción.

Hasta aquí, hablamos de eventos sucedidos hace tiempo, algo así como año y medio. Pero he aquí que de repente, al ver mi factura de este mes, me encuentro con un cargo de un euro por una conexión de datos realizada el 22 de Agosto… ¿cómo puedo tener un cargo en un servicio que desactivé? Obviamente, el euro me trae completamente al fresco, pero que el servicio de Emoción hubiese vuelto de entre los muertos cual zombie de película de serie B me preocupaba más, porque nunca sabes cuando a alguna de las aplicaciones del BlackBerry le puede dar por utilizar Emoción en lugar de la conexión normal, y dedicarse a engrosar las arcas de un servicio que Telefonica debería, lógicamente, desactivar para aquellos contratos para los que no tiene ningún sentido. O directamente eliminar, porque estoy seguro que se podría demostrar que la gran mayoría de los ingresos de Emoción se reparten entre conexiones erróneas y golpes accidentales con el dedo al botón situado estratégicamente en el centro del teclado en algunos modelos de teléfono.

El caso es que, visto lo visto, llamé inmediatamente al 609 para preguntar qué había pasado. Tras la preceptiva espera y tras tragarme varios anuncios situados en donde el más elemental CRM desaconsejaría siempre su colocación, accedo a hablar con una amable señorita, que me pide el número de teléfono (pues ese que ves ahí, hija… ¿o es que Movistar no paga su propio servicio de identificación de llamadas para ahorrarse un dinerito?) y el DNI, y me confirma que, efectivamente, el servicio de Emoción está desactivado en esa línea. Tras darme un número de referencia, me pasa con otro departamento, en el que me vuelven a pedir tanto el número de teléfono como el DNI (!!!!!!!), para después informarme… ¡¡que yo desactivé el servicio de Emoción a través de GPRS, pero no lo hice a través de GSM!! Pero por el amor de dios… ¿cuántas veces hay que disparar al vampiro con balas de plata para conseguir matarlo? Pero la cosa no acaba aquí: cuando, ya con voz de infinita paciencia, le pido que por favor me desactive el servicio de Emoción a través de GSM, y por si acaso también el que va a traves de tam-tam y de señales de humo… ¡¡me dice que no puede, y que tengo que ir en persona a una tienda Movistar!! O sea, que no solo hay que desactivar separadamente “Emoción a través de GPRS” y “Emoción a través de GSM”, sino que además, el primero lo puedes desactivar mediante una llamada al 609, y el segundo únicamente yendo en persona a una tienda. Genial. Todo muy claro y muy coherente. Y sobre todo, muy emocionante.

(Enlace a la entrada original - Licencia)

La clave está en la Y

Ayer tuve la oportunidad de compartir unas cuantas horas con unas ciento ochenta personas (Aula Magna del Instituto de Empresa a tope y con algunas personas sentadas en las escaleras) hablando de plataformas móviles y de la dinamica de ese mercado en el Mobile Monday Madrid, MoMoMa para los amigos, que se ha consolidado como un foro interesantísimo para pulsar el mercado de la movilidad y para conocer startups e iniciativas en ese ámbito. En mi presentación, que precedió a las de los representantes de Yahoo! (Alex Romero), Microsoft (Iván Lozano) y Google (Jose Antonio Rodríguez Aguilar), por un lado, y a las elevator pitch de Solaiemes (Juan Mateu), Ta with You (Diego Bartolomé) y Tooio (Rafa Casado), intenté hacer un resumen de los factores que están desencadenando el que nos aproximemos a esa “tormenta perfecta” de la movilidad, factores que muchos interpretaron como parecidos a los que ya vivieron en épocas pasadas como la del WAP, y que desencadenaron en general en grandes decepciones.

Entre los factores que cité, se encontraba la llamada Generación Y, también conocidos como Millennials, esos adolescentes para los que, en muchos casos, Internet es algo que siempre ha estado ahí y el móvil una prolongación más de su anatomía en la que hacen de todo, desde mirar la hora hasta usarlo como despertador, radio o linterna. Dediqué a la Generación Y una diapositiva, pero pensándolo, bien podría haberles dedicado toda la presentación: cada vez tengo más la impresión de que la clave del mercado de la movilidad está en la Y, y que el problema de su lento desarrollo viene del hecho de estar manejado por personas de cuarenta años lanzando productos para personas de cuarenta años cuyo mercado en realidad desarrollarán personas de quince años. Me explico: si analizamos estrategias recientes de lanzamiento, como las del iPhone o la BlackBerry Bold en España, ¿qué vemos? Un posicionamiento claramente orientado al mercado adulto, al del ejecutivo, al de la persona que se gasta sin pestañear doscientos euros o más en su factura de móvil… y, en muchos casos, tristemente, al que considera el teléfono como un símbolo de estatus o un objeto de moda y quiere presumir de teléfono. Un mercado sin duda rentable y poco sensible a un precio que en muchas ocasiones es pagado por terceros, pero que curiosamente desencadena, en un número sospechosamente alto de ocasiones, un fenómeno por todos conocido: el de la persona que reconoce abiertamente que “él, el teléfono lo usa para hablar por teléfono”, un auténtico desperdicio en el caso de terminales sofisticados como los citados.

En realidad, la clave para el desarrollo del mercado está en conseguir que esos terminales aparezcan en manos de quienes no tienen ni la más mínima duda a la hora de sacarles partido, y en quienes se puede desarrollar sin problemas el hábito de pagar una tarifa plana por conectividad. El caso de iPhone o BlackBerry es sorprendente: ponlo en manos de cualquier adolescente, y en cinco minutos estará enganchado a la mensajería instantánea o a una red social, intercambiando mensajes, escribiendo en tablones, subiendo fotos, actualizando su aplicación de nanoblogging, leyendo páginas web y probando cuanta aplicación nueva le comenten sus amigos. Sin embargo, y especialmente cierto en el caso de BlackBerry, ven ese tipo de terminales como algo “típico de mayores”, lejano, inalcanzable o incluso aburrido.

Por un lado, la Generación Y es tecnófila y disfruta del nivel de gasto discrecional más elevado de todos los tiempos: una tarifa de datos plana de veinticuatro euros como la que yo pago por mi servicio BlackBerry es algo perfectamente razonable dentro del presupuesto del adolescente de hoy. Por otro, ni se plantean acceder a la gama de terminales cuyo uso podría realmente dinamizar el mercado de la movilidad, porque simplemente ni las operadoras ni los fabricantes los consideran un target válido para ellos, a pesar de que ya hace años dieron “el campanazo” protagonizando el desarrollo del mercado del SMS, que sorprendió a todas las operadoras y se convirtió en una fuente de ingresos impresionante para ellas. Si de verdad quieres desarrollar el mercado, no pongas a ejecutivos de cuarenta años a vender terminales a otros ejecutivos de cuarenta años. La clave está en la Y.

(Enlace a la entrada original - Licencia)

29 septiembre 2008

Blogs grandes, blogs pequeños y comunidades

Interesante columna de Sarah Lacy en Business Week, Blogging: in praise of small, en la que describe cómo muchos blogs, al crecer, se convierten en medios de comunicación y pierden algunas de las señas de identidad del género: entran en el juego de las marcas para informar sobre nuevos productos, escriben contenidos para tener más publicidad, y provocan que se desvanezca en gran medida la sensación de comunidad.

En cierto modo, es como si muchos blogs hubiesen decidido que “de mayores querían ser medios de comunicación clásicos”, y hubiesen heredado algunas de las peores características de éstos: la mediatización, el sesgo y la despersonalización. El articulo es exactamente lo que dice el título: un elogio de los blogs pequeños, con comunidades sólidas y asentadas, esas en las que el autor conoce a los comentaristas y se cruza comentarios con ellos y entradas con otros blogs vecinos, en esa conversación que se suponía era parte de la esencia primigenia de los blogs como medios personales.La autora de la columna divide a los bloggers en tres tipos: los profesionales que escriben por dinero, los amateurs que siguen haciéndolo for the love of it, y los pioneros que empezaron fascinados por el medio, lo abandonaron para pasarse al nanoblogging con Twitter, Friendfeed y afines, y que seguramente se pasarán también al siguiente medio que aparezca en el panorama de la red.

Por supuesto, tengo un gran interés por ver cuál es vuestra interpretación con respecto a la tesis del artículo aplicada a esta página. Desde mi punto de vista, este blog ha ido creciendo de manera muy constante, sin grandes saltos. Manteniendo esa conocida proporción de 1:9:90 (uno escribe, nueve comentan y noventa se limitan a leer) o participation inequality que lleva visos de convertirse en una especie de proporción áurea de la red, mi impresión es que esta página sigue siendo una especie de “bar de pueblo”, donde conozco a la gran mayoría de los que comentan habitualmente, aunque todos los días aparezcan algunos espontáneos a tomarse un café. Sigo intentando mantener la casa limpia eliminando spam y actitudes insultantes o persistentes que dificulten la conversación, sigo leyéndome absolutamente todos y cada uno de los comentarios con detenimiento, y si no participo más en ellos, es porque en ocasiones me da la impresión de que cuando lo hago, “mediatizo” y “condiciono” demasiado. Se mantiene una sana cuota de comentarios discordantes o contrarios a la opinión expresada en la entrada, correspondiente con el hecho de que sigo considerando los comentarios como la verdadera razón por la que escribo un blog. La página sigue siendo estrictamente personal; habla de lo que me ha interesado en mi lectura diaria de noticias, de lo que se me ha pasado por la cabeza hablando con unos u otros, o de lo que he escrito en otros sitios, aunque parte del componente de “mi querido diario” que tuvo en otras épocas ha desaparecido para asentarse sólidamente en ese Twitter que refleja lo que hago a cada momento. Aunque efectivamente empecé a poner publicidad y ésta me deja sólidas ganancias mensuales, sigo intentando que no moleste, que tenga un componente de coherencia con los contenidos, y rechazándola cuando no es así: prefiero no tener campañas, como es el caso en este mismo momento, a tenerlas molestas o poco relevantes, y supongo que eso es lo que contribuye en parte a que mi publicidad mantenga casi siempre el clickthrough más elevado de toda la red a cuyas estadísticas tengo acceso.Y por supuesto, no me obsesionan las visitas ni jamás he escrito pensando en maximizarlas a toda costa.

Vamos, que si intento medirlo desde mi lado, y aunque todo sea obviamente mejorable, estoy en general bastante contento de cómo va ésto. Pero como siempre, mi impresión es una, y en este caso, no precisamente la más importante. ¿Y tú? ¿Te sigues encontrando cómodo en este bar, o sientes que se ha convertido para ti en una impersonal cadena de comida rápida?

(Enlace a la entrada original - Licencia)

28 septiembre 2008

Redefiniendo la beta

Una entrada de Slashdot me lleva hasta Almost half of Google products - including 4-year-old Gmail - remain in beta: Why?, un artículo de NetworkWorld en el que se plantean hasta qué punto Google ha redefinido el significado del calificativo “beta” desde su sentido primigenio, algo que resulta completamente evidente si partimos del significado de “versión beta” en Wikipedia:

“Una versión beta o lanzamiento beta representa generalmente la primera versión completa del programa informático o de otro producto, que es probable que sea inestable pero útil para que las demostraciones internas y las inspecciones previas seleccionen a clientes.”

Frente a esa idea de inestabilidad, de prueba en condiciones de carga limitada y de “solo apto para valientes”, Google ofrece, como comenta el título del artículo, prácticamente la mitad de sus productos en esta fase (veintidós de cuarenta y cinco), incluyendo algunos como Gmail, con ya cuatro años de antigüedad. ¿Qué significa para Google, por tanto, el calificativo de “beta”? Según un portavoz de la empresa que ha dejado un comentario en la entrada, el concepto de “beta” se ha redefinido completamente:

We have very high internal metrics our consumer products have to meet before coming out of beta. Our teams continue to work to improve these products and provide users with an even better experience.  We believe beta has a different meaning when applied to applications on the Web, where people expect continual improvements in a product.  On the Web, you don’t have to wait for the next version to be on the shelf or an update to become available.  Improvements are rolled out as they’re developed.  Rather than the packaged, stagnant software of decades past, we’re moving to a world of regular updates and constant feature refinement where applications live in the cloud.”

Es decir, que la beta se refiere a la fase de “aprendizaje promovido por el uso”, a las actualizaciones continuas y el refinamiento de funciones mientras las aplicaciones viven en la nube, algo que se separa completamente de la época en la que había que esperar a que la siguiente versión de un programa con las correspondientes mejoras llegase a las estanterías de las tiendas en una caja forrada en celofán. Y en ese sentido, resulta razonable pensar que un producto permanezca en beta cuatro años o los que hagan falta, si en efecto está incorporando mejoras gracias a las sugerencias y a la utilización constante.

La cuestión, bastante evidente por otro lado, me recuerda a una conversación que tuve hace bastante tiempo con un banco, que me preguntaba si tenía sentido que una entidad bancaria lanzase un producto con etiqueta de beta o si, por el contrario, haría que sus usuarios lo rechazasen por considerarlo inseguro y por eso de “con las cosas de comer no se juega”, pregunta a la que di una respuesta en exactamente esos mismos términos: “beta” no significa necesariamente “inestabilidad” o “exención de responsabilidad, sino “planteamiento inicial a la espera de mejoras promovidas por la experiencia de los usuarios”. Algo que, como en todo cambio de significado, puede ser necesario explicar para evitar malas interpretaciones. En cualquier caso, la propia Google muestra algunas incoherencias en esta redefinición: por un lado, el lanzamiento de Google Checkout, en el que la compañía estimó que, dada la función del producto, una etiqueta de “beta”podría perjudicar su adopción. Por otro, como comentan en Royal Pingdom, las implicaciones de que productos como Blogger o Google Analytics carezcan de dicha etiqueta: ¿significa acaso que esos productos no están siendo continuamente mejorados y refinados? O más importante todavía, el asunto de la limitación de responsabilidad, punto 15 de los Terms of Service de servicios como Gmail, que parece haber perdido toda relación con la consideración de “beta” y haberse convertido ya en moneda común en este tipo de servicios.

Decididamente, las betas ya no son lo que eran… :-)

(Enlace a la entrada original - Licencia)

27 septiembre 2008

RIM, los costes y la complejidad

BlackBerry BoldUn artículo de Business Week, Research In Motion’s costs are on the rise, me trae a la cabeza mis primeras reacciones cuando empecé a probar la BlackBerry Bold, sin ninguna duda, el mejor terminal que he tenido nunca: el diseño, fabricación y acabado de este dispositivo está claramente por encima del nivel habitual de RIM. Por fuera, pantalla más grande, metal en los bordes, cuero en la parte posterior, y un tacto sólido y agradable que evoca calidad por todas partes. Por dentro, una mejora impresionante: 3G, conectividad WiFi mejorada, entrada de tarjeta Micro SD sin necesidad de desmontar la batería, vídeo, reproducción de vídeos de YouTube sin necesidad de descarga previa, y un navegador completamente distinto, que accede directamente a las páginas en su versión completa y proporciona una lupa para aumentar las secciones a las que se quiera acceder con un nivel mayor de detalle, al estilo de Opera MIni, pero con una usabilidad muy superior. Las bondades del dispositivo han sido ampliamente comentadas en numerosos sitios, y tras algunas semanas de uso solo se oscurecen al comprobar que la duración de la batería ya no es la habitual en los dispositivos de la marca: el 3G tira mucho del consumo, y eso significa que un usuario “torturador” como yo, que no suelta el terminal en todo el día ni a sol ni a sombra, no consigue en ocasiones llegar a la jornada completa sin necesitar alguna recarga intermedia.

Lo interesante del tema, en este caso, es comprobar el axioma de que la calidad cuesta: el fabricante del dispositivo, forzado por la creciente competencia, anuncia un incremento notable en sus costes que hace descender la cotización de sus acciones. Para los que seguimos desde hace tiempo la marcha de RIM, la impresión es un poco que marchan a más revoluciones de lo habitual: el ritmo relativamente cansino de desarrollo de nuevos dispositivos se ha convertido en un frenesí de anuncios y filtraciones, que evidencian además una tendencia diferente a la habitual. Múltiples terminales con formas diferentes se acumulan en los titulares: al Kickstart con formato clamshell se une el Storm con pantalla táctil, dos avenidas hasta entonces inexploradas por el fabricante, y convierten la gama en una auténtica locura: donde hace años había un modelo y un formato de pantalla, que se convirtieron en dos con la llegada de los terminales con SureType (teclado comprimido), ahora, solo en formatos de pantalla, tenemos cinco: Pearl, Curve/8800, KickStart (8220), Bold y Storm.

Para los clientes, genial: más elección y más adaptación a distintas necesidades. Pero obviamente, mayores costes de desarrollo, y mayor complejidad para el enorme ecosistema de desarrolladores de RIM, que ahora deben adaptar sus aplicaciones a una amplia gama de dispositivos con diferentes capacidades, tamaños y proporciones de pantalla. Indudablemente, se trata de un interesante caso de dinamización por presión competitiva: la irrupción de un competidor como Apple en el sector smartphone ha supuesto un auténtico cataclismo, y aunque por un lado, como me comentaba Mike Lazaridis, sea una buena noticia por lo que tiene de dinamización y de “marea que eleva todos los barcos”, por otro conlleva un esfuerzo muy importante en desarrollo, fabricación, marketing, etc., realizado además en una época marcada por una crisis que puede afectar en gran medida al gasto de algunos de los clientes más fuertes de la marca. Para los clientes, mejor, y en cualquier caso, pocas alternativas más allá de intentar hacer frente al nuevo entrante, al que en ningún caso se puede ningunear por el hecho de ser “una marca de electrónica de consumo“. La competencia es lo que tiene…

DISCLAIMER: aunque obviamente intento que no afecte a mi objetividad al analizar su estrategia o sus dispositivos, mantengo una relación constante con RIM desde hace varios años, que incluye el disfrutar de sus dispositivos con antelación, el acceso a sus directivos, o el haber asistido a la última edición del Wireless Enterprise Symposium (WES).

(Enlace a la entrada original - Licencia)

26 septiembre 2008

Hablando de ultraportátiles en Cinco Días

En Cinco Días publican hoy “La industria del PC busca en los ‘low cost’ un nuevo motor de crecimiento” (en pdf), un artículo de Marimar Jiménez y Santiago Millán en el que en el citan algunas de mis opiniones acerca de este interesante segmento.

(Enlace a la entrada original - Licencia)

Google at 10, una serie que vale la pena leer

La serie de entradas en The Official Google Blog etiquetada como Google at 10 y que culmina hoy me ha parecido enormemente interesante, y es una lectura muy recomendable para todos los que hacemos de la tecnología y la red una parte importante de nuestras vidas. The Official Google Blog juega un papel muy central en la vida de la compañía, homogeneizando una serie de visiones que muchas personas de la compañía, por su lejanía con respecto a la sede central o por tener trabajos muy vinculados a lo operativo o a unos objetivos muy inmediatos, no llegan a proyectar a largo plazo. La entrada de hoy, titulada The next Internet, está escrita nada menos que por Vinton Cerf y tiene todo el interés de ver como uno de los padres fundadores de la red habla de la ubicuidad de las conexiones alcanzando al 70% de la población entre acceso fijo y móvil, de la “Internet de las cosas” o de la integración de Internet en la vida cotidiana. La serie completa está integrada por los siguientes diez artículos:

Las visiones de futuro de una compañía que participa en él al nivel que lo hace Google me parecen una lectura muy recomendable. Si no tenías la serie en tu radar, te la recomiendo sinceramente.

(Enlace a la entrada original - Licencia)

25 septiembre 2008

El GPS interior

Los GPS funcionan perfectamente bien para decirte dónde estás o para llevarte de un sitio a otro, pero siempre que el sitio en el que te encuentres, lógicamente, tenga cobertura GPS, es decir, esté “a la vista” de los satélites que permiten al receptor determinar su posición.

¿Problema? El hecho de que la mayor parte de las personas hoy en día pasen la gran mayoría de su tiempo - el 90%, según algunos estudios - en lugares interiores, bajo un techo que impide el contacto con la constelación de satélites emisores de la señal. Hogares, oficinas, centros comerciales, aparcamientos cubiertos… todos ellos son lugares donde un GPS no tiene la más mínima utilidad.

Nokia, a través de su Nokia Conversations, comenta brevemente sus investigaciones en indoor positioning, una tecnología que podría ser utilizada, por ejemplo, para localizar una tienda determinada en un centro comercial, un coche en un aparcamiento, un asiento en un estadio, un producto en un supermercado, o un despacho en un edificio, entre muchas otras posibilidades. Aunque no da explicación ni detalle alguno acerca de la tecnología, indica que se basa en el uso de redes inalámbricas, una tecnología barata y ya extendida ya en muchos lugares de cuyas posibilidades ya había hablado un artículo del pasado Enero en Science Today.

Nokia está ensayando la tecnología en cuarenta de sus sedes en todo el mundo, y ha mapeado ya algunos edificios públicos como centros comerciales, aeropuertos y universidades. El primer desarrollo comercial para explorar posibles fuentes de ingresos para el servicio tendrá lugar a finales de este año en un centro comercial del Helsinki. Si además llegan a emplear la tecnología en los larguísimos túneles de la M30 de Madrid, que todavía no figuran en los mapas del GPS de mi coche y que consiguen que siempre opte por la salida equivocada (mi sentido de la orientación no es malo, sino simplemente inexistente), seguro que evitarían una buena dosis de frustración tanto a torpes como yo como a recién llegados que no conozcan la ciudad…

(Enlace a la entrada original - Licencia)

24 septiembre 2008

Nubes por todas partes

Veo nubes por todas partes. Y no, no estoy dando el parte metereológico. La idea del cloud computing, la materialización de la mítica frase acuñada en Sun Microsystems, “the network is the computer”, aparece cada día más como la frontera principal entre la informática del siglo pasado y la de éste. Un siglo pasado anclado a la máquina, al ordenador personal, al sueño de “un ordenador en cada casa“, enfrentada a un momento actual que extiende el concepto mucho más allá: múltiples ordenadores adaptados a cada uso, unidos a una pléyade de dispositivos de otros tipos, y todos ellos accediendo a la misma información con idéntica facilidad y coherencia.

Un mundo en el que el sistema operativo pierde toda su importancia más allá de proporcionar el acceso a los recursos de la máquina, convirtiéndose en una capa finísima, casi invisible al usuario, que éste prácticamente no toca, y que se limita a garantizar eficiencia, estabilidad y seguridad. Sobre él, el navegador como ventana abierta a la red, interactuando con los recursos de la máquina para gestionar las diferentes situaciones de conexión/desconexión, y accediendo a aplicaciones y datos situados en la red de manera natural, en los diferentes proveedores, donde pueden ser accedidos desde cualquier máquina por todos aquellos que deben acceder a ellos.

La nube va a ser, sin duda, la nueva frontera. Y lo va a ser en los dos ámbitos clásicos de la tecnología: en el personal, y en el corporativo. En el mercado de consumo, el de los usuarios de a pie, estamos ya viviendo una notable transición a la nube de la mano de algunas empresas entre las que se destaca Google: correo, agenda, documentos, fotos, referencias, anotaciones… todo lo que un usuario necesita, disponible desde cualquier terminal tras una autenticación simple. Unido al auge de la ultraportabilidad, a la conectividad cada vez más barata, plana y ubicua, y al crecimiento del mercado de los smartphones - con BlackBerry, iPhone y el recientemente anunciado G1 como protagonistas principales, - nos disponemos a ver una evolución vertiginosa en el modelo de uso por parte de los particulares: ¿quién quiere su correo, su agenda o ese proceso de textos de cuyas prestaciones no llega a usar jamás más del 3% confinados en el disco duro de un solo ordenador, inaccesibles cuando está lejos de él o se encuentra apagado?

Pero la evolución en el mercado de consumo no será nada comparado con la del mercado corporativo. Caracterizadas por su lentitud y conservadurismo en la toma de decisiones, las empresas, procedentes de un doloroso pasado de implantaciones faraónicas costosísimas, verán disipados los cuentos de viejas sobre los terribles peligros de tener los datos más allá de los protectores muros de la sede corporativa gracias a historias de éxito como Salesforce y muchas más, y presenciarán como aquellas empresas más ágiles en la migración a la nube empiezan a disfrutar de costes mucho menores, funcionalidades enormemente extendidas en la dirección adecuada, y soporte para colaboración simple, eficiente y seguro. En poco tiempo, el data center corporativo estará tan fuera de lugar como construir tu propia central eléctrica o tu propio pozo de agua, salvo en el caso de aquellas empresas, no muchas, que por dimensión o tipo de negocio opten por “construir su propia nube”. Decididamente, en la informática corporativa nos disponemos a presenciar una revolución.

Hace varios meses, tuve una reunión con mis amigos de Oracle. Oracle es una emrpesa a la que tengo un gran cariño: la primera que, a mi vuelta de Estados Unidos, confió en mi capacidad de dirigirme a una audiencia de manera independiente para hablarles de mi visión de las tendencias en tecnología, para que ellos enmarcasen posteriormente sus productos en lo que representaba su interpretación de aquellas tendencias. En aquella ocasión había sido en torno al CRM: en esta ocasión, me pedían repetir algo parecido, pero para sus aplicaciones de PYMES. Sin embargo, y a pesar del gran incentivo que supone trabajar con buenos amigos, esta vez no funcionó: mi visión de la tecnología para las PYMES ya no coincidía con la que ellos presentaban. Mientras ellos seguían “en La Tierra” con aplicaciones clásicas, yo ya tenía claramente “la cabeza en las nubes”, y nuestros mensajes no podían ser alineados fácilmente. Por eso me ha encantado escuchar, en ese Oracle Open World que se está celebrando en San Francisco al que me invitaron pero al que no he podido asistir por problemas de agenda, las declaraciones del Vicepresidente Ejecutivo de Desarrollo de Producto, Chuck Rozwat, en las que deja ver un futuro de orientación a la nube:

“The currently experimental market will mature into a service for businesses as people will migrate more and more serious/mission critical applications to the cloud”

convirtiendo así a la división de products on-demand de la compañía y a las iniciativas de trabajo con la Amazon Elastic Computing Cloud en uno de sus activos más estratégicos. La transición a la nube no va a ser sencilla para Oracle, como no lo será para muchas otras empresas de tecnología acostumbradas a un modelo más de producto que de servicio, pero claramente, nos muestran cuáles son las tendencias y donde se encuentra el futuro. En breve veremos muchos más capítulos de esta saga: proveedores migrando sus ofertas, y empresas anunciando su adopción. El futuro está en las nubes.

(Enlace a la entrada original - Licencia)

23 septiembre 2008

Este negocio no es para débiles

Decididamente, el hosting se ha convertido en un negocio que no es para débiles, que no puede admitir disculpas. Cuando el flujo de ingresos de una empresa empieza a depender en gran medida, como ocurre en una aerolínea, o en su totalidad, como en el caso de una red de blogs comerciales, de la presencia en la red, el nivel de exigencia que tienes necesariamente que tener con el hosting que has contratado es elevadísimo. El coste del downtime hoy en día para muchas empresas se mide en miles o millones de dólares: la Wikipedia cita como referencia los $5.45 millones en que se estima la hora de caída de servicio en un servicio de brokerage o los $2.5 millones por hora de un centro de autorización de operaciones de tarjeta de crédito, pero no hay que irse a semejantes ejemplos para entender que una noche entera de caída supone un grave perjuicio para cualquiera que tenga puesta parte o la totalidad de su negocio en la red, en las manos de un proveedor que, cuando el problema ya es imposible de solucionar, da disculpas como que el sistema eléctrico, a pesar de estar duplicado, no estaba bien dimensionado y no podía con la carga de los sistemas de alimentación y el aire acondicionado, crucial en todo data center.

Telvent, un importante data center situado en Alcobendas, cayó ayer por la noche por un fallo eléctrico, y dejó a clientes como Spanair, la COPE, Weblogs, S.L. y muchos otros más completamente desconectados durante toda una noche. Por muchas disculpas que vayamos a escuchar en las próximas horas - y las escucharemos todas, porque cuando hay que responder ante clientes importantes, lo que sobran son siempre sitios de donde sacar disculpas - no es de recibo vender una infraestructura y un nivel de servicio, y después que ésta no sea real, no responda al dimensionamiento necesario o falle miserablemente ante la más mínima eventualidad o fallo eléctrico, dejando a tus clientes desaparecidos en la más negra invisibilidad durante toda una noche. Anuncios que no se ven, billetes de avión que no se venden, clips de radio que no se escuchan, búsquedas que no se resuelven, deterioros de imagen… todo eso forma una parte cada vez más importante de nuestras vidas y nuestros negocios, una parte que no puede detenerse con ligereza. Para evitarlo, los buenos proveedores de hosting construyen infraestructuras duplicadas, con acometidas de corriente eléctrica redundantes y bien dimensionadas, con sótanos llenos de descomunales parques de baterías y con varios generadores eléctricos construidos para no ser utilizados, pero que tienen que estar ahí y forman parte de la estructura de costes del negocio. Infraestructuras tan a prueba de todo que, como me decían una vez, sólo dejan de dar servicio si lo que ha ocurrido es tan, tan grave, que el servicio ya no es lo importante para nadie. Si ofreces hosting con una calidad que hace que determinados clientes te confíen sus operaciones más críticas, tienes que ser capaz de responder a esa calidad. Si no, dedícate a ofrecer hosting barato, sencillo, sin garantizar nada, y nútrete de clientes para los que el nivel de servicio no resulte una variable tan crítica, que también existen en el mercado y tienen derecho a encontrar soluciones a precios razonables.

No es momento para disculpas, sino para exigencias.

(Enlace a la entrada original - Licencia)

22 septiembre 2008

Las conversaciones de Menéame, en WordPress

La verdad, así da gusto comentar las cosas: en la entrada del pasado miércoles mencionaba lo interesante que me parecería que los comentarios generados en Menéame a raíz de una entrada en un blog pudiesen aparecer de vuelta realimentando la conversación en éste. La entrada recibió una contestación casi inmediata por parte de Ricardo Galli en la que comentaba la existencia de todos los elementos necesarios para que esa “conexión inversa” se pudiese realizar (RSS de comentarios por entrada, y la metainformación para recuperarlos de manera automática), y confirmaba que la idea estaba perfectamente alineada con su sensación de “deuda” con los sitios originales:

Menéame tiene muchos comentarios porque es fácil y rápido, creo que es un mérito de sus usuarios pero también de que les hemos facilitado las cosas. Creemos que tenemos una “deuda” y es poder "compartir" los comentarios con los sitios originales. Por eso vamos a prepara una interfaz XML muy simple para poder hacerlo. Al menos un periódico lo hará, pero cualquier otro sitio o blog podría usar la misma (estaría bien que alguien luego haga un plugin para Wordpress, Drupal, etc.

También de manera rapidísima, un comentario, como no, de mis amigos de Blogestudio, en el que comentaban su interés por desarrollar el plugin con esa funcionalidad para WordPress:

Ricardo, estamos mirando la opción de hacer un plugin para WP que permita esto de "traerse" los comentarios de Menéame. Tal y como comentas, el desarrollo no es difícil, detectar la acción del pingback en WP y conectarse a la url de RSS que tenéis generada para insertarlos en la bbdd de WP. Después durante X días conectarse cada Y horas para traerse los nuevos. A la hora de mostrarlos en el template ya habría que ver si se separan del resto de comentarios o cómo diferenciarlos, por aquello de las referencias entre comentarios/comentaristas y las diferentes numeraciones.

Pues bien, estamos a lunes, tan solo cinco días después de esta conversación, y ya tenemos versión alpha, que procedo rápidamente a probar entusiasmado: un plugin que al recibir el pingback del Menéame, recoge los comentarios hechos allí, y los trae a la entrada originalmente “meneada”, dándoles un formato diferente - un fondo transparente en tono naranja - y con el icono de Eli como gravatar. Tras la activación, el plugin controla la aparición de nuevos comentarios durante siete días, momento en el que se cierran en la entrada del Menéame, de manera que quedan referenciados en la entrada original del blog. El plugin está, como decíamos, en versión alpha, de manera que no pasará aún al repositorio de plugins de WordPress hasta que se termine su depuración. Pero si tienes un blog hecho en WordPress y quieres probarlo en su estado actual, pásate por la entrada del blog de Blogestudio y solicítalo dejando un comentario.

A lo largo del día, estaremos con los ajustes: al lanzarlo, el plugin hace la primera carga, que en mi caso no es una tarea sencilla por el hecho de tener que traerse los mil novecientos setenta y ocho comentarios de las doscientas cuarenta y cinco entradas meneadas que ha tenido esta página desde los orígenes del Menéame, tarea a la que, además, debo superponer mi labor de “jardinería” de acuerdo con las condiciones de participación de mi página. Tras la carga, podréis ver, en las entradas que fueron meneadas en su momento o en las que lo sean a partir de ahora, los comentarios procedentes del Menéame con su fondo naranja, su Eli como gravatar, y el nombre del comentarista original.

Obviamente, la cosa tiene sus problemas: al final, se trata de unir dos conversaciones sobre un mismo tema, pero originadas cada una en un sitio diferente, lo que conlleva, por ejemplo, que las respuestas a otros comentarios del hilo lleven una numeración paralela que en ocasiones resultará confusa, o descontextualizaciones aparentes procedentes del hecho de que cada una de las dos conversaciones lleve su propia dinámica y ritmo. Pero sin duda, va a ser un experimento muy interesante…

ACTUALIZACIÓN: Bien, tras la primera fase del experimento, con subida a la portada del Menéame incluida, parece claro en función de las experiencias de muchos usuarios que la cosa no iba bien. Los principales problemas eran que comentarios importados del Menéame perdían su coherencia al dejar de funcionar las referencias entre ellos, creándose una doble numeración que impedía saber quién contestaba a quién. El problema afectaba también a la conversación entre comentaristas del blog no procedentes del Menéame: si alguien contestaba a un comentario determinado citando su número según la práctica habitual, corría el riesgo de que, al ser importados los comentarios del Menéame e intercalarse en función de fecha y hora, su referencia pasase a ser a un comentario diferente, con lo cual perdería su validez (además de poder dar lugar a confusiones de todo tipo entre divertidas y desagradables). Para evitar este efecto, hemos optado por mantener los comentarios hechos en el blog en su lugar natural, y desplazar el hilo de comentarios procedentes del Menéame a la parte inferior. La conclusión, en resumen, parece clara: aunque ambas conversaciones tienen el mismo objeto, cada una tiene su dinámica, su secuencia y sus referencias propias, por lo que el intercalarlas no tenía demasiado sentido.

(Enlace a la entrada original - Licencia)

21 septiembre 2008

El reflejo online de la actividad de un blog

Un artículo en El Mundo, “Los flujos de opinión en internet, el nuevo reto del marketing y la publicidad“, me llama la atención por lo que conlleva de aproximación al gran público del tipo de cosas que llevo mucho tiempo contando a las empresas sobre cómo evaluar su imagen en la red. En el caso del artículo, se limita a contar un poco principios generales y a hablar de herramientas de Nielsen como BlogPulse, pero he aprovechado la ocasión para hacer algo que hacía tiempo que no hacía: comprobar el impacto de mis entradas en los últimos meses.

Tras comprobar la evolución de mis menciones en Technorati y en BlogPulse, y contrastarlos con mis propias estadísticas de tráfico internas, me he encontrado tres picos especialmente marcados: el primero, en torno al 10 de Mayo, corresponde al reflejo online de un evento offline, concretamente el Foro de Internet 2008, en el que di la ponencia inaugural, y no tiene por tanto más historia que lo que conlleva hablar a una audiencia llena de bloggers que en cierto porcentaje comentan posteriormente aspectos de lo que salió en una conferencia que, después de todo, estaba diseñada para dejar temas encima de la mesa (un aspecto del que ya hemos hablado en otras ocasiones). Los otros dos picos corresponden a dos entradas: la primera, mi carta de despedida a Bill Gates, que por lo que veo generó bastantes reacciones y comentarios. La segunda, mi auto-inculpación como delincuente, con un impresionante registro conversacional.

Un aspecto que no suelo comprobar demasiado - habitualmente me quedo simplemente con “la intuición” al respecto vía comentarios y estadísticas de visitas - pero que me ha resultado llamativo, y que me parece un ejercicio muy recomendable para todo aquel que escriba con regularidad en la red, además, por supuesto, de una necesidad creciente para las empresas.

(Enlace a la entrada original - Licencia)

20 septiembre 2008

La propiedad intelectual debe ser redefinida

Se ha convertido ya en una verdad a gritos: las leyes actuales que definen y gobiernan la propiedad intelectual se han convertido en algo inútil, absurdo, causante de flagrantes incoherencias, incompatible con el progreso y responsable de todo tipo de problemas, que van desde injustas sanciones a inocentes hasta la muerte de miles de personas. La propiedad intelectual en su acepción actual es la gran piedra, el gran escollo en el medio del panorama del progreso. El nivel de hipocresía necesario para defender a día de hoy la propiedad intelectual tal y como fue concebida en la era anterior al desarrollo de la sociedad de la información es ya tan elevado, que únicamente aquellos que se benefician de la misma se atreven a sostenerlo sin que se les caiga la cara de vergüenza.

A día de hoy, la propiedad intelectual ya no sirve para justificar un incentivo a los creadores: sus creaciones, que sin excepción, se asientan en las de muchos otros anteriores formando parte de un producto social, no reciben la protección que demandan en un mundo en el que los bits circulan libremente sin restricción posible. Ni siquiera la doctrina Sarkozy, que pisotea algo tan básico en los países civilizados como el derecho a la privacidad de las comunicaciones, consigue parar lo que es por naturaleza imparable. Cuando el avance de la tecnología desequilibra de manera permanente la ecuación, la idea de promover el desarrollo de nuevas ideas restringiendo la libertad de otros para utilizarlas se convierte simplemente en un contrasentido, en algo que ya no beneficia a quien supuestamente tenía que beneficiar, ni incentiva los fines que debía incentivar. Algo que, por universal y asentado que parezca, por muchos convenios internacionales que invoque, resulta completamente absurdo y cómplice intentar mantener.

La noción actual de propiedad intelectual resulta más ridícula cada día que pasa, con cada noticia que lees: persecuciones dignas de la Santa Inquisición, largas manos de turbios personajes que convierten en ilegal lo que hasta entonces era comportamiento general y aceptado, subterfugios legales constantes para intentar mantener vivo al zombie, juegos sucios para subvertir la voluntad popular y legislar en contra de sus intereses… Mires donde mires, todo forma parte de la misma gran mentira, impulsada únicamente por sus beneficiarios y sostenida por la complicidad de unos políticos que no saben y que no quieren ver más allá.

Un reciente informe, Toward a New Era of Intellectual Property: from Confrontation to Negotiation, subraya la imperiosa necesidad de redefinir los términos de la propiedad intelectual para adaptarlos a los tiempos en que vivimos. Una alternativa a quienes, directamente, abogan por su directa abolición. Voces que, sin duda, habrá que escuchar y tener en cuenta en un debate que aparece como una tarea imposible, por los importantísimos intereses económicos que lo impiden y la magnitud del consenso que sería preciso alcanzar para el mismo. Sin embargo, una cosa es clara: empeñarse en defender las teorías clásicas no nos lleva a ningún sitio, más que al sinsentido, al beneficio de unos pocos interesados y al perjuicio del progreso en general.

(Enlace a la entrada original - Licencia)

19 septiembre 2008

El futuro de la búsqueda

Gracias a Ander llego a esta entrada en el Official Google Blog, The future of search, que me ha resultado enormemente inspiradora e interesante: búsquedas ubicuas, mediante dispositivos especializados y de acceso instantáneo, con lenguaje natural, con voz, con entrada de imágenes (como el sorprendente concepto que planteaba Mac Funamizu el pasado Febrero) o de audio en directo, o incluso (y esta idea será atacada inmediata y ciegamente por los activistas de la privacidad) capaz de escuchar conversaciones y construir listas de resultados relevantes para documentarlas.

Diferentes modos de entrada en la búsqueda, y salidas igualmente adaptadas para mostrar no únicamente una serie de vínculos a páginas, sino vídeo, imagen, herramientas de análisis,o cualquier otra cosa que se entienda como una respuesa razonable a la pregunta introducida. Además, completamente personalizada, con resultados distintos para personas diferentes en función de su localización, su contexto social (en función de lo que resulta habitual en tu red social) y abarcando todos los idiomas, incluso aquellos que no puedes leer. De “búsqueda en Internet”, a “búsqueda como método natural de interacción”, ya no únicamente cuando estás sentado delante de un navegador en Internet, sino con todo. En realidad, no hablamos ya del futuro de la búsqueda, hablamos del futuro de la red y de su integración y presencia en la vida cotidiana.

Una entrada muy inspiradora y recomendable: en algo como la búsqueda, que lleva con nosotros desde que empezamos a navegar por Internet, estamos dando aún los primeros pasos…

(Enlace a la entrada original - Licencia)

18 septiembre 2008

¿Quién le tiene miedo a Google?, en Radio France Internationale

Me llamó Asbel López, de Radio France Internationale, para hablar de la amenaza que representa Google, y el audio completo está disponible en su página. Mis declaraciones fueron, como ya he sostenido en otras ocasiones, en la línea de intentar reducir el tremendismo: crecer es una obligación de toda empresa en un mercado capitalista, y a medida que crece, Google se hace obviamente más poderosa. Por supuesto, es preciso controlar más a una empresa enorme que sabe lo que buscamos, lo que leemos, lo que escribimos y hasta quienes son nuestros amiguitos y cuántas estrellas les ponemos, que a una start-up simpática con una tecnología con buen potencial. Pero de ahí a la paranoia de esa “Google Master Plan” que llevo tienpo utilizando para motivas discusión en clase, va un trecho muy amplio: en el fondo, estamos juzgando a una empresa por su potencial de ser mala, cuando hasta el momento mantiene un track record que yo calificaría de impecable en el manejo de nuestros datos. Y además, hablamos de clientes voluntarios, que pueden abandonar los productos de la compañía si lo desean en cualquier momento, para irse a unos competidores que están únicamente a un clic de distancia.

¿Mi impresión? Google puede estar aproximándose al monopolio en algunos mercados - en el de la publicidad, por ejemplo, es algo que hay indudablemente que controlar, como comentaba aquel informe de Scott Cleland - y todo monopolio debe estar bajo en control de la correspondiente legislación para evitar que, como ha ocurrido en otras ocasiones y en particular en la tecnología, se convierta en un obstáculo a la inovación o a la legítima competencia mediante prácticas colusorias, de precios predatorios, etc. Pero en el caso de Google, por el momento, hablamos de un tipo de monopolio de un pelaje muy diferente a los que nos ha tenido acostumbrada la industria de la tecnologia a lo largo de toda su historia, con una fortísima vocación y necesidad de auto-regulación: en el momento en que sus clientes se sientan amenazados o simplemente incómodos, abandonarán la empresa como en su momento hicieron con AltaVista, de un día para otro. Un monopolio no es bueno para nadie, en muchos casos ni para la empresa que lo disfruta, que se vuelve menos innovadora ante la ausencia de presión competitiva. Pero en un sector en el que la fidelidad no existe más allá del pragmatismo, en el que la innovación no está restringida, y con unos productos que no provocan ningún tipo de cautividad, creo que la consideración debe ser diferente, y que la alarma no está justificada, y sí es, en cambio, una posición muy interesada. Si los competidores de Google quieren ganar cuota de mercado a su costa, tendrán que hacerlo ofreciéndome mejores productos que los que Google tiene, no intentando convencerme de la amenaza que representa para mí.

(Enlace a la entrada original - Licencia)

17 septiembre 2008

Filtros sociales, tráfico y aportaciones

Hace un par de días, Millán me envió un mensajito en el que, al hilo de mis reflexiones veraniegas sobre el “efecto Menéame“, me daba cuenta de su experiencia al respecto, relatada en esta entrada: a pesar del pico de afluencia de tráfico al blog, unas trece mil visitas en un día, Millán se mostraba muy poco satisfecho por la participación en el mismo (visitas de escasísima duración, participación de baja calidad que precisó de abundante “labor de jardinería” y nulo interés en el resto del blog) y por el nulo impacto en términos de incremento de suscriptores y de rentabilidad del AdSense. Para él, la aportación de Menéame había sido nula, y hasta se planteaba el uso del atributo noshare, que evita su uso en este tipo de filtros.

Ha sido el mensaje de Millán me ha llevado a escribir la entrada: precisamente porque mi experiencia es la contraria. Para mí, Menéame es una fuente de visitas interesante desde el punto de vista de difusión, pero ese es el menos interesante de todos los efectos. Diez mil visitas adicionales conforman un pico de actividad apreciable en mi gráfica de estadísticas, pero su impacto es escaso, como Millán pudo comprobar, desde el punto de vista de permanencia, de suscripciones o de clic en anuncios. Pero es que, en mi caso, esos son precisamente los objetivos secundarios, no los principales… Es decir: el blog, por mucho que me genere dinero vía publicidad, que lo hace, está en realidad hecho para otras cosas.

Para mí, la aparición en Menéame es un medidor muy directo e instantáneo de las reacciones que despierta lo que escribo: ver que una persona se ha tomado el trabajo de enviarme ahí, entrar a leer los comentarios que aparecen en la entrada, observar la velocidad con la que se vota, ver la acogida en votos negativos o positivos… puro feedback en estado puro que me mantiene en contacto con las preferencias, visiones y sesgos de toda una comunidad (que efectivamente, y como todas las comunidades que se precien, los tiene, algo que hace poco se planteaban algunos alrededor de Digg). De hecho, si algo lamento o echo en falta en Menéame es que, como autor de la entrada “meneada” no pueda, de alguna manera, “traerme” al blog los comentarios que aparecieron en Menéame a raíz de la misma, porque para mí son una parte a veces importante de la conversación generada por la entrada pero la realidad es que, transcurrida la escasa duración del “efecto Menéame” (un día o día y medio como mucho), muy poca gente los vuelve a ver o a tener en cuenta en la discusión. Es una parte de la discusión que, aún con permalink y todo, se pierde en gran medida.

La reacción de disgustarse con los comentarios de los visitantes que vienen de Menéame o con los propios comentarios en el sitio - que en muchas ocasiones tienen un nivel de virulencia superior al que se generaría en la propia página de la noticia - la veo típica de cuando, por así decirlo y sin ánimo de dármelas de veterano, “la piel está todavía tierna”. Efectivamente, a mí hubo una época en la que los comentarios agresivos, los insultantes, o las impersonaciones destructivas de quienes no tienen nada mejor que hacer me molestaban. Hoy, me limito a borrarlas, tras haberlas interpretado como una prueba de un impacto que decididamente prefiero tener a no tener. No me molestan, forman parte del juego. Como una métrica de popularidad. Si los comentarios de Menéame pasasen directamente al hilo de comentarios de la entrada original - cosa que me encantaría - les aplicaría exactamente los mismos criterios de “jardinería” que le aplico a los que se hacen aquí: borraría los insultantes y destructivos hacia terceros o hacia mí, el hate speech que llaman los americanos, el astroturfing y demás hierbas afines, y a los que se convierten en pesados, recurrentes y repetitivos, pero tendría en el mismo hilo de conversación otras cosas que la entrada generó, algo que, aunque la naturaleza de la conversación en la red sea - y deba ser - descentralizada, podría llegar a aportar bastante valor.

(Enlace a la entrada original - Licencia)

16 septiembre 2008

Departamentos de IT: recortando por arriba

Una entrada del siempre provocativo púlpito de Robert X. Cringely, Fire Your Boss: The best place to cut IT organizations is generally at the top, plantea cómo afrontar el seguramente inevitable recorte presupuestario que afectará, entre otros, al Departamento de Tecnología, y llega a la conclusión que el mejor sitio para recortar viene a ser precisamente por arriba, por los responsables corporativos de IT, por dos razones: porque el impacto de sus sueldos se nota más, pero sobre todo porque los acusa de haberse separado de la tecnología, de no entender qué es lo que pasa en sus departamentos ni la misma tecnología cuyos presupuestos gestionan, y de no ser capaces de reaccionar a la crisis más que haciendo lo mismo de siempre. Según el artículo, la reacción más habitual de las compañías ante la crisis será recortar puestos en la base de la pirámide, personas que proporcionan servicio a los usuarios o que llevan a cabo tareas verdaderamente productivas, cuando en realidad se obtendrían mejores resultados si se recortasen puestos de trabajo por la parte superior.

El articulo afirma que muchos responsables de tecnología en muchas empresas están en el puesto equivocado, y afirma que un CIO tendría que ser perfectamente capaz de

“… escribir el código que genere un ‘Hello World’ en C, HTML y PHP, y extraer ‘Hello World’ de una base de datos MySQL usando un script en Perl”

Tareas que, señala, no implican una habilidad técnica especialmente brillante, sino que pueden ser perfectamente extraídas de una serie de búsquedas en Google razonablemente bien compuestas, es decir, que son más una prueba de saber usar correctamente Internet más que de tener habilidades de programación. A pesar de esto, afirma, muchos responsables de tecnología no serían capaces de hacerlas y deberían ser puestos directamente de patitas en la calle, porque “no puedes gestionar lo que no puedes entender”.

Con todo lo que la afirmación de Cringely tiene de generalización grosera - doy clase en el Master en Dirección de Sistemas de Información y me consta que hay directores de sistemas que superarían la prueba con los ojos cerrados y que sí entienden perfectamente bien lo que tienen entre manos, - también es cierto que la provocación tiene su base razonable: muchos responsables de tecnologías se caracterizan por haber pasado toda su vida profesional en un entorno que los mide exclusivamente por mantener el sistema funcionando, se alejan permenentemente de toda innovación por lo que tiene de riesgo para la estabilidad, y ni se plantean soluciones que podrían tener mucho sentido de cara a la crisis - cloud computing o software libre, por ejemplo - porque simplemente no lo entienden o les supone un desafío inaceptable. Desafío ante el cual optan sin dudarlo por seguir los viejos axiomas de los ‘80, “no han echado a ningún responsable de tecnología por comprar IBM” o de los ‘90, “no han echado a ningún responsable de tecnología por comprar Microsoft”, y por comprar costosos informes de Gartner, Forrester e IDC en un desesperado intento por entender unas tendencias tecnológicas que, como en Matrix, “has de ver con tus propios ojos”.

Y es que, en muchos casos, la concentración de muchos responsables de tecnología en la gestión de contratos de outsourcing y su enfoque exclusivo a la estabilidad en lugar de a la innovación han llevado a muchos directores de departamentos tecnológicos a convertirse en fósiles que gestionan cementerios de elefantes, en los que toda innovación recibe la calificación automática de “extravagancia” o “pérdida de tiempo” y donde los perfiles más innovadores sales huyendo como de la peste, haciendo bueno el recientemente mencionado “efecto Mar Muerto“: un lugar en el que predominan las personas menos brillantes o con menor capacidad de moverse en el mercado.

Una afirmación que, como la reciente de Pedro Solbes en la que afirmaba que la crisis era buena porque permitía “limpiar la economía”, está destinada a ser polémica. ¿Es necesario redefinir o “limpiar” los departamentos de tecnología, empezando por sus directivos, en busca de perfiles “menos viciados” y de nuevas visiones en la informática corporativa? ¿Está tu departamento “fosilizado”, dedicado como las aves a “migrar” constantemente de un lado a otro sin criterio propio ni análisis adecuado?

(Enlace a la entrada original - Licencia)

Entrevista en Hábitos Vitales

Eric me envió seis preguntitas para una entrevista en su blog, Hábitos Vitales, sobre objetivos, métodos de trabajo, productividad, etc.

(Enlace a la entrada original - Licencia)

15 septiembre 2008

Spore: DRM, protesta en Amazon, y rectificación

Si has seguido el lanzamiento de Spore, el juego de EA, sabrás seguramente que su recepción en el mercado se vio empañada por los comentarios de los usuarios, molestos por un DRM tan excesivo que convertía la experiencia de jugar en un verdadero martirio y llegaba incluso al punto de convertir en más conveniente para sus usuarios obtener una copia de BitTorrent para poder jugar decentemente.

La protesta de los usuarios se cristalizó con una auténtica flash mob electrónica, o protesta organizada, utilizando las user reviews.com de Amazon: de repente, una oleada de comentarios negativos de usuarios - en este momento, más de 2.300 - contando su mala experiencia, otorgando masivamente la puntuación mínima, y criticando duramente la actitud de la compañía.

Finalmente, ante una protesta masiva que amenazaba con dañar las ventas del producto (los user reviews de Amazon se consideran un factor importante a la hora de tomar decisiones de compra en el sitio), parece ser que EA ha tomado la decisión de intentar corregir el tiro en su próximo lanzamiento: en Red Alert 3, según cuenta Slashdot, no se requerirá la presencia obligatoria del CD en la unidad de disco para poder jugar, solo habrá que autenticarse una vez para jugar online (en lugar de hacerlo cada cierto tiempo) y se permitirán cinco reinstalaciones, en lugar de las tres de Spore.

Resulta la mar de interesante ver el funcionamiento de los mercados hoy en día: lo que en un mercado tradicional eran simples comentarios negativos a tus amigos y conocidos cuando el artículo surgía en una conversación, en los mercados electrónicos se convierten en prácticamente empapelar de protestas detalladas el escaparate de la tienda precisamente en el lugar en el que está el producto y donde los clientes toman la decisión final de compra. Reacciones más rápidas, más virulentas, potenciadas por las posibilidades de la red, que una compañía puede ver surgir a su alrededor en cuestión de pocas horas. Y que en este caso, han posibilitado una lección clara, y  una primera reacción rápida y en la dirección correcta.

(Enlace a la entrada original - Licencia)

14 septiembre 2008

El 911 y la sociedad panóptica

El panóptico fue un modelo de cárcel diseñado por el filósofo Jeremy Bentham en 1791, con el fin de que un vigilante pudiese observar a todos los presos sin que éstos pudieran saber si estaban siendo observados o no.

Algunas ciudades, debido al uso ubicuo de cámaras de seguridad, se han convertido en verdaderos panópticos en los que casi toda la vida transcurre ante una cámara. Pero ni siquiera es necesario pensar en semejante despliegue: el servicio de emergencias de la ciudad de Nueva York acaba de incorporar la posibilidad de recibir fotos y vídeos para formular denuncias, llamadas de auxilio, reportar sucesos y problemas, o simplemente enviar la imagen de un bache peligroso en la calzada. (C|Net, via Slashdot). Y la noticia me llama la atención por lo que supone de reconocimiento de la ubicuidad del teléfono móvil con cámara, y por la reflexión interesante de qué cambios ocurren en la sociedad cuando un porcentaje elevado de sus integrantes llevan una cámara en el bolsillo, convirtiendo de hecho la sociedad en un panóptico en el que siempre puede haber alguien mirando, fotografiando o grabando. En Nueva York, las fotografías o películas enviadas serán utilizadas para cualificar la emergencia y tomar decisiones al respecto, y serán en algunas ocasiones puestas a disposición del público o compartidas con los servicios de emergencia que estén acudiendo a la llamada. El servicio de emergencias 911 recibe más de once millones de llamadas al año, y la actualización de sus capacidades ha sido un proyecto que ha durado dieciocho meses y ha costado $250.000, algo completamente justificado según el alcalde Bloomberg por las nuevas posibilidades que ofrece para evitar o perseguir delitos de una manera más eficiente (no obstante, el alcalde recordó que lo inmediato que se debe hacer en caso de presenciar un delito es llamar al 911, antes de ponerte a “documentarlo”).

Sin duda, una innovación como ésta, un “panóptico 2.0″ o participativo, puede hacer que algunos delincuentes se piensen hacer según qué cosas en según qué sitios en los que puedan estar expuestos a cámaras indiscretas: sus acciones pueden acabar ante la mirada atenta del 911 en cuestión de minutos. Pero tambien hace posible que algunos tomen fotografías en las que las cosas “no son lo que parecen”, y efectúen denuncias no fundamentadas que provoquen actuaciones erróneas de las fuerzas del orden, o reacciones ante supuestas emergencias que no lo son. Resultará interesante ver cómo evoluciona el uso de este servicio.

(Enlace a la entrada original - Licencia)

13 septiembre 2008

Hipocresía en la vida moderna

Por mucho que nos hayamos acostumbrado a verlo de manera completamente natural, no deja de llamarme la atención la profundísima y patente hipocresía de la vida moderna. Hablo con frecuencia con políticos, con profesionales, con personas de la calle, y en todos los casos, a partir de un cierto nivel de uso de Internet, todo el mundo utiliza Internet para bajarse música, películas y básicamente lo que les viene en gana. Todo el mundo. De manera completamente natural. Con diferentes patrones de uso, unos más regulares, otros más intensos… el que “se lo bajó todo” durante una temporada de uso muy intenso pero ahora lo usa menos, el que lo hace de manera aislada, el que no lo desconecta en todo el día, el que no lo hace porque no sabe pero lo hacen sus hijos… No hablo necesariamente del P2P, de la mula ni del torrent: hablo de buscar en Google, de descargar videos de YouTube, de RapidShare y Megaupload, de pasar una canción por Bluetooth en el patio del colegio… hablo de que, en la red de hoy, los contenidos son tan, tan profunda y fácilmente accesibles en todo momento con un simple clic, que el que paga simplemente lo hace porque le da la gana. Que no digo que esté mal, me parece perfecto que alguien escoja iTunes o cualquier otro sitio de pago porque le apetece, porque no se quiere molestar en buscar o porque se siente más a gusto pagando, pero que la opción de descargar gratis está ahí y está accesible de manera ubicua es completamente real, es premisa cierta. Y a medida que pasa el tiempo y cuando ya tenemos la perspectiva suficiente como para apreciarlo, la facilidad es cada vez mayor.

La veracidad del argumento la compruebas cada vez que hablas, por ejemplo, con políticos. Todos ellos admiten, tras preguntarlo de la manera adecuada, que se bajan contenidos de la red por todo tipo de métodos. Ellos, sus hijos, sus amigos… todo el mundo que quiere y sabe hacerlo. Lo admiten, y si eres “de los que saben de eso”, hasta te preguntan dudas, trucos y sistemas que lo optimicen entre guiños de complicidad. Sin embargo, todos sin excepción se ponen la máscara a la hora de legislar: deciden ignorar la realidad, dan la espalda incluso a lo que conocen por experiencia, hablan de “piratería”, afirman que “es terrible”, que “pobrecitos artistas”, que “la música se muere”, que hay que “compensar a los creadores”, que se “destruye valor”… todas las mentiras habituales, una detrás de otra, como quien lee un guión malo. Al ser presionados por los lobbies de los artistas, de los editores, de los intermediarios de la propiedad intelectual o de esos que se hacen llamar “creadores” en modo excluyente como si el resto no lo fuéramos, los políticos ponen gesto contrito, esconden esos argumentos del tipo “es que tenéis que adaptaros a los tiempos” que en algún momento les pasaron por la imaginación pero que no terminaron de cuadrar bien, y se alinean para legislar estupideces inútiles y sin sentido como perseguir a los ciudadanos, anular derechos tan basicos como el de la intimidad, nombrar vigilantes a los prestadores de servicios de conectividad, cortar el acceso a la red, llevar a juicio a quienes hacen lo mismo que ellos, confundir términos interesadamente entre quien tiene ánimo de lucro y no lo tiene, etc.

La palabra es “estupor”. Por mucho que un político sea alguien a quien se paga por poner cara de “A” mientras dice “B” y piensa “Z”, el nivel de hipocresía y de falsedad al que hemos llegado es tan profundamente absurdo, tan de pastiche, de sainete, que por algún lado se tiene que romper. No podemos seguir aceptando sin pestañear que exista una industria que por un lado se aproveche de los creadores, de los que realmente generan el valor, mientras por otro pone en el mercado productos innecesarios y del siglo pasado, y además se lo lleven crudo por métodos tan simples como robarnos con permiso de la ley cada vez que compramos determinados productos. Que hacer dos clics en dos vínculos de mi navegador sea una acción ilegal, pero estafarme diez euros por una tarrina de CD que vale ocho no lo sea es un contradiós tan grande y tan absurdo que simplemente clama al cielo.

¿Somos todos conscientes de que todos esos argumentos sobre la propiedad intelectual son hoy en día basura incomestible, inútil en los tiempos que corren y que es preciso reescribir de arriba a abajo? ¿Que el Convenio de Berna se escribió en una época en la que Internet no existía, y hoy solo vale para legitimar que algunos se sigan enriqueciendo sin generar valor alguno? La respuesta es sí: son conscientes, del primero al último, incluyendo a políticos, artistas y hasta sociedades de gestión. Pero mientras dure, duró. Paguemos entre todos su negativa a reinventarse, que es más fácil seguir como estamos y eso de reinventar da mucha pereza. Sea injusto, sea absurdo, o tengamos que mantener el gesto hipócrita detrás de la careta, aquí lo importante es lo importante: que podamos cambiar las leyes a nuestro antojo mediante métodos tan viles y alucinantes como las “enmiendas torpedo” introducidas por la puerta de atrás (ironía intencionada) o que podamos chupar del bote noventa y cinco años en vez de cincuenta. Cada día que pasa, con cada nuevo intento de cambiar la ley, de redefinir la verdad, de recortar libertades o de anunciar el apocalipsis, se nos queda más cara de imbéciles, se nos agota el recurso a la sorpresa. Es contrario a la lógica, al sentido común, y a todo lo que se nos ocurra. Es, simplemente, la hipocresía en la vida moderna.

(Enlace a la entrada original - Licencia)

12 septiembre 2008

¿Copyright o ley seca?, columna en Público

Ayer salió esta columnita mía en Público, “¿Copyright o Ley Seca?” (pdf), al hilo de la vergonzosa jugada de la ampliación de la duración del copyright desde los cincuenta años actuales hasta noventa y cinco, en contra de todo tipo de análisis y opiniones al respecto.

El artículo de Daniel Basteiro que da contexto a la columna, “Las discográficas exigen pensiones“, es de lectura muy recomendable, y contiene, entre otras cosas, esta “perla” de Carlos Sánchez Almeida que funciona muy bien como explicación de porqué tienen lugar este tipo de abusos:

(…) Internet no tiene líder, y las asociaciones de autores y discográficas sí intereses muy concretos”

A continuación, el texto de mi columna:

¿Copyright o Ley Seca?

Sobre los turbios manejos de la industria del copyright con la clase política podrían escribirse varios tomos de una obra que rivalizaría con las mejores tramas de la novela negra. El copyright, que nació para proteger al creador, se ha convertido en nuestros días en algo contra natura, en una manera de perpetuar un modelo muerto que pide a gritos ser enterrado para librarnos de ese olor desagradable y dulzón de la podredumbre. Convertido en un modelo para el beneficio casi exclusivo de la industria creadora de copias, que en poco o nada beneficia a los autores, el modelo actual persiste en contra del sentido común, únicamente gracias a la habilidad de sus defensores para moverse entre las bambalinas de la política. Y dispara a todo lo que se mueve: lo mismo da que haya que violar el secreto de las comunicaciones para castigar a pacíficos internautas, o que sea necesario ignorar los resultados de estudios rigurosos que demuestran que incrementar el período de protección de 50 a 95 años no beneficia a nadie más que a la industria, ni siquiera a los propios artistas a los que originalmente se pretendía incentivar. En pleno siglo XXI, el copyright evoca los peores tiempos de la tristemente célebre Ley Seca: inútil, injusta y contraria a los fines para los que fue concebida.

(Enlace a la entrada original - Licencia)

11 septiembre 2008

De vinos en Amazon.com

Comenta el WSJ($), Amazon gets into wine, los próximos planes de Amazon.com para empezar, a partir de finales de Septiembre o principios de Octubre, la comercialización de vinos en su página. La noticia no iría mucho más allá de no ser por el especial interés de esta categoría y por su buen encaje con los demográficos del público online: aunque al principio, la oferta se limitará a vinos procedentes de Napa Valley y otras regiones norteamericanas, no cabe duda que el movimiento se convertirá, sobre todo en cuanto tenga alcance internacional, en una puerta de entrada muy interesante para bodegas de todo el mundo interesadas en explorar nuevos mercados de una manera más sencilla que a través del método tradicional de trabajo con cadenas de distribución largas. Por el momento, las asociaciones de productores de Napa Valley ya están desarrollando workshops para explicar a sus miembros el funcionamiento de la tienda online.

El proceso de compra de vino en un mercado como el estadounidense, en el que tiene un importante aura de producto caro y refinado, puede encajar muy bien con el esquema de “venta tranquila” y sin presiones de Amazon, así como de sus sistemas de “información extendida”: críticas de entendidos, puntuaciones de otros clientes, comentarios, etc. Aparte de que a Amazon le pueda funcionar el tema, algo que habrán sin duda calculado y estudiado bastante, creo que puede acabar siendo una fuente de oportunidades interesantes para la industria del vino en general.

(Enlace a la entrada original - Licencia)

10 septiembre 2008

Apple entra en la recomendación con Genius

Ha sido prácticamente el único anuncio de cierto calado en la presentación de Apple de ayer: el desarrollo de Genius, una aplicación de recomendación para contenidos en iPod. La inclusión de la aplicación en iTunes 8 confirma la pujanza actual de las tecnologías de recomendación, y posiciona a la combinación iPod-iTunes como un soporte ideal para ellas, al combinar lo que un usuario hace en su dispositivo (playcounts, listas de reproducción, contenidos más reproducidos, ratings, etc.) con el poder de agregación colectiva de dichos datos a modo de filtro colaborativo en la plataforma - lógicamente, anonimizados (bueno el chiste que hacía el propio Steve, “nadie tiene porqué enterarse del mal gusto musical que tienes”) y con el correspondiente proceso de opt-in.

En un iPod podemos tener treinta mil canciones, con lo que el problema no es simplemente tenerlas, sino acceder a ellas de una manera que tenga sentido. Resulta interesante que una de las empresas destacadas en este tipo de tecnologías, la española Strands, tenga mucho que ver en su origen con la interacción de su fundador, Francisco Martín, con iTunes, programa del que en 2003 era un usuario intenso y con cuyos datos empezó a especular para construir sus primeros sistemas. Ahora, cuando Strands ya aplica sus sistemas de recomendación a todo aquello que podamos pensar, es el momento que Apple escoge para lanzar Genius, haciendo que el iPod no sea simplemente un almacén de música, sino un recomendador presuntamente inteligente que escoge qué canciones de nuestra librería combinan bien juntas, y nos permite incluir también si queremos canciones procedentes de la tienda iTunes, lo que podría suponer una dinamización en su consumo. Una función, la de construcción automatizada de playlists, que ya no resulta especialmente sofisticada hoy en día, pero que va a suponer una popularización fuerte de este tipo de tecnologías, a modo de “marea que eleva todos los barcos” en un segmento en el que sin duda vamos a seguir escuchando cosas cada vez más interesantes.

(Enlace a la entrada original - Licencia)