29 agosto 2013

Entendiendo la psicología del abuso en la red

Image: Ochikosan - 123RFEl CTO de The Huffington Post, John Pavley, avanza algunas de las ideas de cara al plan de acabar con los comentarios insultantes o abusivos en su página, y continúa vinculando el abuso en la red con la necesidad de un sistema consistente de autenticación, y de avanzar con proveedores de correo electrónico y de conectividad para evitar, o cuando menos dificultar, la obtención de una nueva identidad virtual.

El problema, que avanzamos ya hace pocos días en una entrada titulada “El anonimato como derecho“, radica desde mi punto de vista en una inadecuada comprensión de la psicología del abuso en la red. El problema, sin duda, es serio: hablamos de tragedias personales y de víctimas reales y potenciales, no simplemente de una palabra más alta que otra, pero debemos ser muy cuidadosos y resistir, como en tantas otras ocasiones, la tentación de hiperlegislar y de crear monstruos.

En efecto, una parte del fenómeno asocia los comportamientos abusivos, los insultos, las amenazas y el trolling en general con factores relacionados con el efecto Giges, o efecto de desinhibición online provocado por la ausencia de retroalimentación en el córtex orbitofrontal, como el psicólogo Daniel Goleman detalló en un artículo de 2007 en The New York Times titulado Flame first, think later: new clues to e-mail misbehavior.

Sin embargo, mi impresión es que el aspecto neuropsicológico es tan solo uno de los factores implicados en el fenómeno. Eliminar o dificultar el anonimato puede contribuir a reducir el abuso, pero también se lleva por delante importantes derechos, desde empobrecer de facto el diálogo en la red suprimiendo posturas que solo pueden expresarse desvinculadas de una identidad, hasta desproteger a las mismas personas a las que pretendía supuestamente proteger. Es preciso avanzar en una línea diferente: la que afirma que cualquiera, incluso personas educadas y bien ponderadas en su vida cotidiana, pueden convertirse en trolls o escribir comentarios inadecuados si se dan determinadas circunstancias.

La pregunta es tan fundamental como “¿el troll nace o se hace?” ¿Es adecuado, una vez identificada la persona que ha cometido abusos en la red  - insultos, amenazas o hate speech en general – tratar de excluirla completamente del diálogo en la red? ¿Debería el hecho de haber actuado como un troll convertirse en algo, por así decirlo, vinculado a su curriculum, como si fueran unos antecedentes penales? Confieso que, en algunos momentos, he fantaseado con la idea de identificar y avergonzar públicamente a determinados trolls anónimos, pero por lo general, esa tentación desaparecía cuando veía que en muchos casos se trataba o bien de adolescentes con granos que seguían dinámicas de grupo absurdas y que solo habrían requerido de unas cuantas azotainas de sus padres en los momentos adecuados, o de personas que, en su vida cotidiana, resultaban ser perfectamente normales y educados. Si efectivamente hay circunstancias en los que casi cualquiera puede llegar a comportarse como un troll, ¿no deberíamos tal vez centrarnos en el control del contenido y no tanto en el de la persona?

Algunos temas, indudablemente, exacerban la violencia. Del mismo modo que una persona pacífica y civilizada puede soltarle una serie de barbaridades a otra por el simple hecho de ir vestida de árbitro en un encuentro de fútbol, hay temáticas y circunstancias – el deporte, la religión, la política, o incluso cosas más curiosas y aparentemente menos obvias como los sistemas operativos – en las que los comentarios tienen habitualmente mayor tendencia a salirse del tono adecuado. Además, sabemos que la violencia engendra violencia: no es lo mismo tirar la primera piedra que responder a una serie de pedradas, o que unirse a una batalla campal en la que todo el mundo está tirando piedras. Todo indica que, en realidad, lo correcto no es necesariamente etiquetar a la persona por un comportamiento que tal vez pueda ser aislado, sino tratar de poner freno al comportamiento en si.

La respuesta, en mi experiencia de más de diez años gestionando una página con abundante participación, aunque obviamente no comparable a la de un medio como The Huffington Post, está en el establecimiento de un sistema que ponga el énfasis en el control de los contenidos, no tanto de las personas. Que los contenidos deban pasar un filtro asociado con su contenido, una pre-moderación por defecto que combine elementos algorítmicos y manuales, que cubra también todo lo derivado del “factor forma”: algunos de los comentarios que más me han irritado y que, sin ninguna duda, he identificado como un abuso o incluso con un claro acoso intencionado no tenían una palabra más alta que otra. Esta pre-moderación se elimina únicamente cuando el comentarista, de forma voluntaria, decide ofrecer un elemento, nombre o seudónimo, que permite su identificación y certifica una tendencia a comportarse de manera habitualmente respetuosa o acorde a las reglas establecidas para la participación en ese foro. Eso limita el abuso a casos aislados, porque el usuario que goza de un estatus de “parroquiano habitual” no quiere perderlo y pasar por otro período de “demostración de buena conducta” para volverlo a obtener. Y por supuesto, no impide llevar a cabo un control más rígido en los casos en los que las circunstancias del abuso conlleven un posible delito: no es lo mismo un simple insulto expresado de maneras más o menos directas, que una amenaza de muerte o de violación, o un acoso sostenido.

Un sistema así, combinado con mecanismos sociales que colaboren a identificar comportamientos infractores, no elimina el derecho al anonimato: simplemente obliga al anónimo a pasar por una pre-moderación. Si el anónimo quiere pasar a un estatus superior en el que sus comentarios aparecen automáticamente tras darle al botón “Publicar”, puede optar por un pseudónimo, que pasará a obtener dicho beneficio tras un cierto período de prueba, y lo perderá en caso de abuso, o mantenerse como anónimo. Desde un punto de vista operativo, la pre-moderación supone un esfuerzo importante en el primer momento de su establecimiento, pero todas las pruebas efectuadas afirman que dicho esfuerzo disminuye notablemente cuando la comunidad generada se estabiliza: el incentivo al comentario violento desaparece, los trolls se van a otro sitio, y la autorregulación tiende, por lo general, a prevalecer. El sistema, por supuesto, no es perfecto: puede permitir ciertos esquemas de abuso, generalmente leves y que se pueden obviar mediante un incremento del componente manual de la supervisión. El problema es sin duda complejo, y no hay sistema perfecto Pero sobre todo, sus efectos, en todos los sentidos, son mucho menos perniciosos que la obligatoriedad de una identificación y el sacrificio taxativo del derecho al anonimato.

Casi veinte años después del inicio de la popularización de la red, ésta continúa siendo un entorno en el que muchos de los protocolos de uso están aún a medio desarrollar, y en el que conviven personas con muy diferentes niveles de experiencia. Los sistemas de educación mediante los cuales las personas adquieren dichos protocolos de comportamiento están, en la mayoría de los casos, aún enfocados únicamente al mundo offline: en pocas clases en los colegios se educa en temas relacionados con la participación y el comportamiento en la red, y muchas familias tienden a obviar el tema por puro desconocimiento. No hay tanto “nativos digitales” como hay “huérfanos digitales”, personas que aprenden a desarrollar sus comportamientos en la red en ausencia de toda supervisión. Con el tiempo, el desarrollo de la netiqueta se verá tan natural como se ven las reglas de educación más básicas fuera de la red, sin que nadie nos haya obligado a circular por la calle con nuestra identidad en un badge en el pecho. Mientras tanto, intentemos atajar los problemas profundizando en la psicología del abuso, sin que ello conlleve perder derechos ni desproteger a aquel al que supuestamente intentábamos proteger.








(Enlace a la entrada original - Licencia)

0 comentarios:

Publicar un comentario

ATENCIÓN: Google ha metido en Blogger un sistema antispam automático que clasifica como spam casi lo que le da la gana y que no se puede desactivar.

Si después de hacer tu comentario este no aparece, no se trata del espíritu de Dans que anda censurando también aquí, es que se ha quedado en la cola de aceptación. Sacaré tu mensaje de ahí tan pronto como pueda, si bien el supersistema este tampoco me avisa de estas cosas, por lo que tengo que estar entrando cada cierto tiempo a ver si hay alguno esperando. Un inventazo, vaya.