New feature in PageOneX: Switch on and off layers in the data visualization

New feature in PageOneX.com: now you can switch topics on and off in the data visualization just by clicking on the topics in the legend. New …

Vueven los colores a las portadas #colorcorrupción

140213-colorcorrupcion-spain-febrero2014

13 febrero 2014

Tras el climax con la declaración de la infanta (verde) vuelve el resto de casos de corrupción a portada:

  • El País y El Mundo con la imputación de directivos de la CAM (violeta)
  • ABC y La Razón con la imputación del vicepresidente de la junta de andalucía del PSOE (rojo)

Puedes ver la versión interactiva de este gráfico, actualizada día a día, PageOneX.com.

Este post también se publica en colorcorrupcion.tumblr.com.

Investigación Sprint vs. Investigación de largo recorrido

Este post es parte de la serie “Investigación colaborativa, divertida, barata, transmedia. Otras formas de entender la investigación” publicada a modo de cruce de posts entre numeroteca.org y voragine.net. Este trabajo se enmarca dentro de un estudio sobre Investigación en red coordinado por Mayo Fuster Morell parte de un proyecto más amplio sobre Juventud, Internet y Política bajo la dirección de Joan Subirats en el marco del grupo IGOPnet.cc, con la colaboración de Montera34, para la Fundación Museo Reina Sofía sobre adolescencia y juventud. #otrainvestigación es el hashtag.

#OccupyData Hackathon

Uno de los grupos de trabajo de los que formaba parte dentro de Occupy Research, red abierta y distribuida de investigación, que comentaba en la anterior entrega fue Data and Visualization, que consistía en recopilación de datos sobre el movimiento Occupy y tratar de visualizarlos. Como contaba el resumen de este apartado en la wiki de Occcupy Research cuando interactuamos en redes sociales en Internet dejamos una huella en forma de datos. Muchos de esos datos son esos registros a los que hacía referencia Alfonso en la entrega anterior, Investigar sin darse cuenta: archivos personales: dominios que visitamos, términos de búsqueda, y también los más obvios y visibles como tuits, estados de Facebook, “me gustas” que más tarde pueden ser recogidos y analizados. Este análisis lo pueden hacer las empresas en Internet para ofrecernos conocer mejor a los usuarios y proporcionar publicidad más personalizada para así obtener más beneficios. Pero también, como está destapando el caso Snowden sobre la Agencia Nacional de Seguridad (NSA) de EE.UU, las agencias de inteligencia de los estados pueden obtener información de las redes sociales, tanto datos oficialmente públicos como los supuestamente privados, para estudiar el comportamiento de los ciudadanos según su actividad en Facebook, skype o emails.

occupydata-poster-1

Occupy Data trataba de obtener y utilizar esos datos que vamos dejando en las redes sociales para aprender sobre el movimiento Occupy visualizando la información de forma inteligible. Había gente interesada en compartir diferentes métodos de obtención de datos (entrevistas en las acampadas, scrapers que descargaban datos atomáticamente), y otros en compartir bases de datos que habían generado. Nos llegó una base de datos de un particular que había recopilado por su cuenta información relacionada con cada uno de los nodos de Occupy: sus cuentas de Twitter, Facebook, dirección física, teléfono, email… todo un ejemplo de investigación no distribuida pero de gran calidad.

A raíz del anuncio de publicación de un archivo de varios millones tuits sobre Occupy, que la organización R-Shief (r-shief.org) había recopilado, organicé junto con Sasha Costanza-Chock, profesor del MIT y co-director del Center for Civic Media, un hackathon desde Occupy Research para analizarlos colectivamente y hacer visualizaciones. Se trataba de un evento deslocalizado y pensamos que era una buena oportunidad para juntarnos y crear colectivamente. #OccupyData hackathon iba a ocurrir simultáneamente en diferentes ciudades del mundo los días 9 y 10 de diciembre de 2011.

Un Hackathon, que viene de Hack y Marathon, es un evento en el que durante poco tiempo se juntan varias personas para desarrollar intensamente un proyecto, habitualmente de software. En esta ocasión se partía de varios millones de tuits que contenían hashtags relacionados con occupy (#occupy, #OccupyWallSt, #OccupyBoston, #OccupyOakland, etc.). Un hashtag es la forma de etiquetar el contenido de un tuit. La palabra que sirve de etiqueta, el hashtag, debe estar precedida del símbolo “#”. Si el usuario hace click en ella puede ver el resto de mensajes que otros usuarios han publicado con esa etiqueta.

El hackathon empezó exponiendo a los participantes con qué datos contábamos para pasar rápidamente a una lluvia de ideas sobre qué hacer con ellos. Entre todos evaluamos las diferentes propuestas que habían quedado dibujadas en la pizarra para decidir cuáles podíamos llevar a cabo, dado el tiempo y las capacidades técnicas de las que disponíamos. Cada cierto tiempo había preparadas conexiones por videoconferencia (Google Hangout) con otras ciudades para compartir avances y exponer los prototipos generados.

Compartir espacio físico durante unas horas o unos días es un buen método para forjar alianzas y conocerse. Puede dar pie a que los proyectos tengan recorrido más allá del tiempo programado del hackathon. Como comentaba Charlie DeTar, doctor por MIT Media Lab y colega del Center for Civic Media, un hackathon es un buen método para concentrar creatividad multidisciplinar e inspiración en un corto periodo de tiempo, a la vez que puede ayudar a atraer la atención sobre un determinado tema.

OccupyTweets: de la idea al programa en dos días

OccupyTweets: cada pixel representa un link. El color es la categoría a la que pertenece.

OccupyTweets: cada pixel representa un link. El color es la categoría a la que pertenece.

Una de las propuestas de esa lluvia de ideas inicial era clasificar y cuantificar visualmente los enlaces (las url) contenidos en los tuits. En vez de analizar las palabras del mensaje nos queríamos centrar en las url, la mayoría de las veces indicativo de dónde quería fijar la atención el usuario que enviaba o retuiteaba un mensaje. Pensamos que clasificando cada uno de esos enlaces por tipo de página web enlazada, podíamos entender qué sitios en internet estaban teniendo más importancia dentro de la temática occupy.

La primera dificultad técnica era ‘extraer’ las url de los mensajes, ya que en Twitter los enlaces aparecen acortadas (con url’s como t.co, o bit.ly) para ahorrar espacio de los limitados 140 caracteres que permite cada mensaje. Así una dirección como “http://www.ustream.tv/channel/occupy-chicago” está insertada en el tuit como tiny.cc/b7f6h, y a su vez acortda como http://t.co/mjoQVsQr. Para poder clasificar las url necesitamos obtener los enlaces originales.

Una vez resuelto este paso había que clasificar las url  y para ello creamos una serie de categorías. Las que más se repitieron fueron: imágenes (123.683 veces), vídeos (89.139), Twitter (68.711), blogs (41.468), noticias (35.610), facebook (19.188), video stream (3.462), Google (2.868), sitios web de occupy (2.064), Wikipedia (2,030) y a campañas de donaciones (381).

Una primera versión, en la que usamos solamente los tuits sobre #OccupyBoston para probar el sistema, estuvo disponible el segundo día por la noche, al terminar el hackathon. Para entonces ya habíamos publicado un post explicando lo que queríamos hacer, un vídeo de cómo lo hacíamos y otro explicando el resultado obtenido. El código estaba disponible también online: se trataba de hacer herramientas que otros investigadores también pudieran usar y modificar.

Si todo el proceso está bien documentado, diferentes personas pueden colaborar en su desarrollo aportando su conocimiento y capacidades en diferentes momentos del mismo. Una documentación de calidad convierte un proyecto en verdaderamente abierto, especialmente si se trabaja deslocalizadamente, pero también si se está en un mismo lugar físico.

En un breve lapso de tiempo, tan solo dos días, habíamos podido ir de un borrador en una pizarra a una primera herramienta para estudiar una ingente cantidad de datos. Fue posible porque habíamos seleccionado una idea que era factible realizar en el tiempo y con los recursos que teníamos disponibles. Esto incluía contar con alguien que pudiera  programar el código necesario. En este caso contábamos con Charlie DeTar, que hizo toda la programación.

Sin embargo, es importante señalar lo que Charlie comentaba en su post “los hackathons no resuelven problemas”. La mayoría de los prototipos que salen de un hackathon requieren casi siempre retoques y desarrollo posterior para que sean usables por el gran público una vez ha terminado el hackathon. En el caso de la visualización de tuits, si echamos un ojo a las líneas de código que escribió, veremos que una vez terminado el proyecto siguió mejorando la herramienta y corrigiendo errores días después de que el evento hubiera acabado. Añadía también que los resultados de un hackathon no suelen tener la calidad y complejidad para resolver los problemas complejos del mundo real. Si son útiles, es sobre todo por el contexto dentro del que se desarrollan y por la red de usuarios y gente que los apoyan y usan.

Un proyecto como OccupyTweets, que esencialmente es una herramienta de análisis de links tweets emparentada de alguna forma con Eventweet, tiene mucho margen de mejora: búsqueda por fecha, añadir captación de tuis en directo, etc. Lo que es necesario para que eso ocurra es un grupo de usuarios que lo usen, que demanden implementaciones en el código, y unos desarrolladores que puedan dar respuesta a esas necesidades.

HurricaneHackers: ¡Esto es sólo una demo!

 Documento en Googledocs, índice de HurricaneHackers. http://bit.ly/hh-index

Documento en Googledocs, índice de HurricaneHackers. http://bit.ly/hh-index

Otro grupo de investigación informal que surgió animado por los acontecimientos que nos rodeaban fue el de HurricaneHackers. Un día antes de la llegada del huracán Sandy a la costa este de Estados Unidos un grupo de personas, animados por Sasha Costanza Chock, se empezó a organizar a través de Internet bajo el nombre de HurricaneHackers, lo que viene a ser algo así como los hackers del huracán. Se pretendía pensar colectivamente qué podían hacer los ciudadanos para ayudar y coordinarse frente a la ‘supertormenta’ Sandy.

El grupo, de número y composición indefinida, se coordinaba a través del hashtag #hurricanehackers en Twitter y de un canal de chat en IRC. La información sobre los diferentes proyectos se iba escribiendo en un googledocs que centralizaba la información. Paralelamente se iba completando una lista con todos los enlaces relevantes para estar informado sobre Sandy: http://bit.ly/hh-linklist. 1 Al carecer de un espacio físico común, todo el proceso de lluvia de ideas, evaluación y desarrollo de proyectos, similar al proceso de un hackathon, se hacía online. El proyecto atrajo la atención de los medios de comunicación (boing boing, cnet, techpresident) y muchas personas se acercaban por el canal de char de IRC de hurricanehackers. Enseguida nos dimos cuenta de que era importante tener a alguien para la dar la bienvenida a los recién llegados y redirigirlos a donde hicieran más falta. Si no, mucha gente con ganas de ayudar podría verse abrumada con la conversación y los proyectos ya empezados.

El sentimiento de urgencia puede provocar querer empezar proyectos que ya existen. Siempre será mejor empezar donde otro lo dejó que desarrollar un herramienta desde cero, uno de los lemas del software libre aplicable a cualquier tipo de investigación. Muchas veces no hará falta escribir ni una línea de código, sino pensar cómo usar las herramientas existentes.

Como Sasha comentó en una entrevista, era importante centrarse en proyectos realistas que pudieran funcionar directa y rápidamente, especialmente en una emergencia como aquella, donde muchas personas quedaron aisladas sin agua ni luz durante días. Los proyectos que tendrían mayores posibilidades de funcionar eran aquellos que se basasen en necesidades reales de grupos trabajando en lugares específicos.

Unos días después, HurricaneHackers se unió a la iniciativa Sandy CrisisCamps, que consistía en una serie de hackathons promovidos por CrisisCommons en diferentes lugares del mundo para ayudar a las víctimas de Sandy, y empezamos a organizar un hackathon en el MIT Media Lab, que coorganicé con Denise Cheng. La tarea que teníamos por delante era mucho más compleja que con el hackathon de OccupyData: había víctimas, gente necesitada y mucha urgencia.

Aunque organizamos el evento invitando a expertos en emergencias y a desarrolladores de software (hackers) para intentar conseguir resultados tangibles, los resultados del hackathon no llegaron a producir ninguna herramienta lista para ser usada. Probablemente porque los datos y la situación eran demasiado complejos y porque entraron en juego problemas de coordinación con otros grupos en la definición misma de los problemas a solucionar.  Como advierte un informe de la Universty of Missouri “no intentes organizar una web de ayuda a no ser que estés preparado para ocuparte de ella 24 horas al día”.  Al menos el proceso sirvió para concienciar a los que asistieron al hackathon de la complejidad de desarrollar software para este tipo de situaciones y para revivir temporalmente el grupo de CrisisCommons Boston.

Una de las lecciones que aprendimos de este hackathon, junto con Denise Cheng, fue que es muy importante explicar a los periodistas y a los lectores que se habían acercado a la iniciativa que estábamos desarrollando prototipos y no herramientas listas para usar que sustituyeran a organizaciones como FEMA o Cruz Roja. El proyecto #SandyAid, por ejemplo, quería proporcionar ayuda a víctimas de Sandy a través de Twitter, pero estaba lejos de estar terminado y de tener un equipo detrás que pudiera proporcionar la ayuda y soporte necesarios. Otros proyectos promovidos por ciudadanos proporcionaron ayuda in situ y siguen en activo a día de hoy como por ejemplo una de las secuelas más fecundas de Occupy: occupysandy.net.

La lista de proyectos sobre mapas Sandy Crowdsourced Data Projects: Stage & usage

La lista de proyectos sobre mapas Sandy Crowdsourced Data Projects: Stage & usage

Uno de los proyectos del hackathon, realizado por Mayo Fuster, se dedicó a documentar cómo y cuánto eran usados los diferentes proyectos basados en la recolección colaborativa de datos (crowdsourced). Una de sus conclusiones fue que los proyectos más localizados tenían más probabilidades de ser usados que los más generalistas. Así pensar en un proyecto que quiera mapear toda la información sobre el huracán Sandy en la costa Este de EE. UU. (megalomanía no infrecuente en muchos hackathons) tiene menos probabilidades de funcionar que un pequeño proyecto sobre una ciudad afectada, donde los propios ciudadanos paticiparán más ávidamente.

Otros proyectos tuvieron mucho más largo recorrido hasta poder ser usados. Remembers site sí que llegó a ser un prototipo listo para su uso, gracias a la perseverancia de Sasha. Remembers es una web de homenaje a las víctimas fallecidas en el huracán y que es fácilmente editable a través de un googledocs. El software permite hacer otras webs de homenaje con un simple click y rellenando una nueva hoja de cálculo en googledocs.

-

Incluir en investigaciones de largo recorrido breves periodos de intensidad (sprint), mediante un hackathon por ejemplo, puede ayudar a introducir nuevos agentes e ideas que mejoren y hagan la investigación más rica. Estos sprint son lugares idóneos para dar lugar a ideas innovadoras y encontrar soluciones inesperadas. Como hemos visto, pasado este periodo de intensidad inicial hará falta tiempo para darles forma y llegar a un prototipo usable. Documentar, hacer rápidos tests y difundir son buenas prácticas para probar si las herramientas desarrolladas son útiles. Esto ofrece la posibilidad a que otros investigadores se sumen al proyecto y colaboren.

La respuesta a este texto llega el jueves 13 de febrero a las 9.00h en el blog de voragine.net.

Entregas anteriores de la serie:

  1. Investigar (es ir) haciendo y compartiendo: Demo or die, en numeroteca.org.
  2. Investigar sin darse cuenta: #meetcommons, acción y documentación colectiva, en voragine.net.
  3. Investigar (es ir) haciendo y compartiendo: Public Lab y PageOneX, en numeroteca.org.
  4. Investigar sin darse cuenta: archivos personales, en voragine.net
  5. Liveblogging, cómo documentar en directo en numeroteca.org
  6. Espacios autónomos de experimentación e investigación en voragine.net

Notes:

  1.  Los links acortados tipo bit.ly eran usados para facilitar el compartir url difíciles de memorizar. Una url como https://docs.google.com/document/pub?id=1SGcfQz13ce4FfB-QHKF3WLwxHoCRGBouuvZn-3aoX0k se convertía en http://bit.ly/hh-index.

Liveblogging, cómo documentar en directo

Este post es parte de la serie “Investigación colaborativa, divertida, barata, transmedia. Otras formas de entender la investigación” publicada a modo de cruce de posts entre numeroteca.org y voragine.net. Este trabajo se enmarca dentro de un estudio sobre Investigación en red coordinado por Mayo Fuster Morell parte de un proyecto más amplio sobre Juventud, Internet y Política bajo la dirección de Joan Subirats en el marco del grupo IGOPnet.cc, con la colaboración de Montera34, para la Fundación Museo Reina Sofía sobre adolescencia y juventud. #otrainvestigación

All those moments will be lost in time, like tears in rain. Time to die.
Blade Runner

Casi cada día hay una o varias ponencias impartidas por algún invitado o investigador en alguno de los 26 grupos de investigación del MIT Media Lab. A eso hay que sumar los diferentes  eventos de carácter informal pensados para que los investigadores de diferentes grupos se conozcan entre sí. Se quiere construir un ambiente propicio para que unas disciplinas “polinicen” a otras y que surja la colaboración entre personas. Aun perteneciendo a la academia, al fin y al cabo Media Lab está en el MIT, intenta escapar de la ortodoxia de la investigación.

A las charlas que se organizan en el MIT Media Lab hay que sumar el resto de actividades que ocurren en el campus de MIT o en la vecina universidad de Harvard. Capturar y nutrirse de toda esa cantidad de información es una tarea imposible. Si alguien fuera a todos los eventos no tendría tiempo para hacer nada más. Para hacer frente a esa situación, aunque no solo por eso, dentro del Center for Civic Media se ha extendido la costumbre de pedir que alguien transcriba una charla cuando uno mismo no puede asistir al evento, lo llaman liveblog. Este tipo de documentación en directo se ha extendido a otras áreas, como reuniones internas o lluvia de ideas. El documento generado sirve para fijar la información en directo y en internet, y permite ampliar la difusión de la misma.

Una conferencia o una presentación de un libro son eventos efímeros. Habitualmente se les dedica un gran esfuerzo e intensidad para comunicar una información. Es una pena que una vez que han terminado se pierda lo allí ocurrido, como se pierden las vivencias del replicante al final de la película Blade Runner. Para contrarrestar esto, en lo que a divulgación científica se refiere, siempre ha existido la posibilidad de tomar notas, transcribir la charla, o bien, que el evento haya sido convenientemente grabado.

En el MIT Center for Civic Media existe la costumbre de transcribir colectivamente y en directo, liveblog en inglés, las charlas y presentaciones de los ponentes que pasan por allí. Como apuntan Matt Stempeck y Ethan Zuckerman, ávidos livebloggers, de este modo se consigue producir un tipo de documentación de encuentros y presentaciones que de otro modo no existiría. Esto permite ampliar la audiencia de un evento a gente que no haya podido asistir y genera un artefacto, un texto, que puede ser leído y reutilizado.

Siempre ha existido la posibilidad de grabar un evento, y desde hace menos tiempo la tecnología ha hecho asequible y sencillo incluso retransmitirlo en directo, en streaming, sin necesidad de grandes conocimientos técnicos. Sin embargo un liveblog genera una documentación instantánea mientras se produce el evento que es más sencilla y rápida de revisar que el formato audio o vídeo.

Las herramientas de software que permiten la edición simultánea de documentos de texto han revolucionado la forma en que se toman notas. Ver a varias personas transcribiendo por separado, cada uno en su ordenador portátil sin compartir lo que escriben, se ha convertido en algo obsoleto, al menos en el contexto del Center for Civic Media. ¿Por qué no intentar juntos una más completa y mejor documentación que luego se puede compartir con el mundo?

Stempeck y Zuckerman proponen un mínimo de 3 personas para hacer liveblogging mejor y más eficientemente:

Antes de comenzar cualquier evento alguien comparte el enlace al documento online que se va a utilizar. Programas como Googledocs o Etherpad permiten a varias personas editar simultánea y colaborativamente el mismo texto a través de un navegador de web estándar. Este software permite también un canal de chat paralelo a la charla que permite comentar y aclarar cuestiones entre los transcriptores. Para no tener que deletrear decenas de letras incomprensibles (https://docs.google.com/document/d/1dsyL8R3Jt7KIGK…) el creador del documento puede compartir por Twitter o enviar un email con el enlace, o bien crear una dirección acortada legible tipo http://bit.ly/linkaestacharla.

Habitualmente, el que empieza es el transcriptor, aquel que transcribirá lo más fiel que pueda lo que el orador está diciendo. No se trata de escribir palabra por palabra el discurso, a veces habrá que parafrasear para clarificar lo que dice. También se pueden incluir citas literales, convenientemente marcadas entre comillas. En ponencias prolongadas, y dependiendo de la pericia del transcriptor, será necesario más de un transcriptor para poder hacer turnos. A veces 2 transcriptores pueden ir turnándose por frases o ideas.

El buscador de links es el encargado de buscar enlaces relacionados o fuentes originales sobre lo que el orador está hablando. Dependiendo del tipo de evento esta función puede ser muy laboriosa o ligera.

El pulidor presta atención al evento en su conjunto y va limpiando y reordenando lo que ha sido transcrito. Su función es la de convertir un texto que no tiene por qué ser coherente en algo organizado y legible para alguien que no haya estado en el evento. Para ello puede añadir información de contexto o eliminar párrafos innecesarios. Habitualmente va 10 ó 20 minutos detrás del transcriptor para no pisarse en la edición de las mismas frases.

Mediante este método, unos minutos después de terminado el evento, preguntas y respuestas incluidas, puede publicarse un resumen muy completo de lo que ha ocurrido. Esta inmediatez es especialmente útil en el contexto de conferencias con muchas ponencias o de cualquier vida ajetreada, donde no hay tiempo para revisar nuestras propias notas y publicarlas. El esfuerzo colectivo puede ayudarnos a publicar algo que de otra manera se quedaría en nuestra libreta o disco duro sin ver la luz. Hará falta un editor final que revise y dé la forma final al texto, pero el proceso distribuido facilita la tarea.

La ponencia, ahora plasmada en forma de texto, es más fácil que sea leida y usada (remezclada). Los 30-40 minutos de palabras en el aire han quedado traducidos a un texto. Del texto se pueden extraer párrafos o frases para difundir a través de email o redes sociales, o resumir y contrastar con otras ponencias. Se facilita que la información fluya por diferentes canales y plataformas online, posibilitando, o mejor dicho ayudando a que surjan narrativas transmedia. Tener la charla transcrita tan solo unos minutos después facilita el proceso transferencia de conocimiento, cuando todavía las ideas están calientes en nuestra cabeza.

Este proceso es válido también para reuniones internas de un grupo, donde antes era necesario la figura del secretario o tomador de notas que levantaba acta. Ahora esa labor puede ser compartida por diferentes participantes, convirtiendo las notas en una construcción colectiva que puede servir también para estructurar la reunión. Es especialmente útil para reuniones en conferencia, donde los presentes no comparten el mismo espacio físico.

El cambio en la dinámica de documentación de la investigación es reseñable. Ya no se documenta para después compilar y difundir. La documentación, con leves retoques, es la difusión a la vez que el archivo del proceso.

Usamos este tipo de tácticas de documentación en diferentes grupos de investigación. Son especialmente idóneas cuando se dispone de poco tiempo y la estructura de la organización es ligera sin roles claramente definidos. Este era el caso de Occupy Research.

Occupy Research: red abierta y distribuida

Unas semanas después de que el movimiento Occupy empezara a andar en septiembre de 2011 en Nueva York, un grupo de gente conectada con el movimiento puso en marcha Occupy Research. El objetivo era activar una red de personas para coordinar las diferentes investigaciones que se estaban haciendo desde dentro y fuera del movimiento sobre Occupy. La idea era compartir y hacer distribuida y abiertamente lo que algunos grupos y personas ya estaban realizando, entre otras cosas: entrevistas en las acampadas o archivos de tuits (mensajes de Twitter). El objetivo era estudiar el movimiento Occupy a la vez que “ocupar” (occupy) también la investigación. Esto es, aplicar prácticas horizontales y distribuidas a la investigación y liberar con licencias libres lo investigado, al hilo de la filosofía de lo que estaba sucediendo en las acampadas y plazas.

Después de algunas reuniones en Boston, y en algunas de la acampadas que habían establecido sus propios grupos de trabajo de investigación, relacionados o no con la iniciativa Occupy Research, se organizó una quedada online para conocerse y compartir los intereses de cada uno. Unas 30 personas desde varios países hablaban a la vez que tomaban notas online en un documento compartido. El enlace a las notas de la reunión se difundía a través de una wiki, de la lista de correo y de las redes sociales del momento (Twitter, Facebook). No era necesario que “pasar a limpio” las notas: el documento que servía para organizar el orden del día de la reunión era el lugar donde se anotaba todo lo que se decía: presentación e intereses de cada uno, objetivos del grupo, investigaciones en marcha o propuestas de grupos de trabajo. Los que no habían podido asistir a la reunión podían enterarse de lo que había ocurrido y ponerse al tanto.

En una estructura ligera y distribuida como Occupy Research era necesario que el mantenimiento fuera distribuido y descentralizado. Cuanto menos carga de trabajo, mejor para permitir su funcionamiento, ya que no contaba con nadie que se dedicara en exclusividad a ello. Aún así era necesario que alguien se encargara de alimentar y apoyar esa red para que continuara activa: organizando las llamadas y anunciándolas o limpiando y reorganizando los contenidos en la wiki, un trabajo de editor.

Muy pronto la wiki tuvo que protegerse de los trolls mediante una contraseña, para prevenir la vandalización de los contenidos. Como estaba puesto en uno de los documentos compartidos: PLEASE DON’T TWEET LINK TO NOTES UNTIL AFTER CALL – NO TROLLS! Es el peligro de lo abierto, pero también síntoma de que el proyecto ha atraído suficiente atención como para que alguien lo quiera estropear. Como regla general suele ser mejor dejar que los usuarios contribuyan libremente hasta que esto pueda suponer un problema, en vez de cerrar la libre participación desde el inicio.

[En el próximo capítuo veremos cómo se puede mantener viva una red de investigación distribuida: los pros y los contras de los hackathons.]

La respuesta a este texto llega el jueves 6 de febrero a las 9.00h en el blog de voragine.net.

Entregas anteriores de la serie:

  1. Investigar (es ir) haciendo y compartiendo: Demo or die, en numeroteca.org.
  2. Investigar sin darse cuenta: #meetcommons, acción y documentación colectiva, en voragine.net.
  3. Investigar (es ir) haciendo y compartiendo: Public Lab y PageOneX, en numeroteca.org.
  4. Investigar sin darse cuenta: archivos personales, en voragine.net

Investigar (es ir) haciendo y compartiendo: Public Lab y PageOneX

Este post es parte de la serie “Investigación colaborativa, divertida, barata, transmedia. Otras formas de entender la investigación” publicada a modo de cruce de posts entre numeroteca.org y voragine.net. Este trabajo se enmarca dentro de un estudio sobre Investigación en red coordinado por Mayo Fuster Morell parte de un proyecto más amplio sobre Juventud, Internet y Política bajo la dirección de Joan Subirats en el marco del grupo IGOPnet.cc, con la colaboración de Montera34, para la Fundación Museo Reina Sofía sobre adolescencia y juventud. #otrainvestigación

Public Laboratory: comparte y cuida a la comunidad de usuarios

The Public Laboratory for Open Technology and Science, o mejor Public Lab, desarrolla su actividad en otro campo completamente diferente al del estudio de los flujos de información: diseña y construye herramientas de software y hardware de bajo coste en torno a temas relacionados con el medio ambiente. Un tipo de ciencia ciudadana, investigación científica desarrollada por científicos no profesionales (ciudadanos), que se desarrolla en formatos abiertos en torno a una comunidad de usuarios-desarrolladores interesados.

Los orígenes del proyecto fueron cuando Jeff Warren, todavía estudiante en Media Lab empezó a experimentar a hacer fotos desde el aire con una cámara compacta normal (=barata) colgada de un globo para producir imágenes aéreas de alta resolución, lo que más tarde sería su tesina de master.  Por aquel entonces se llamaba Grassroots Mapping. Quería desarrollar técnicas y enseñárselas a comunidades de base para que pudieran producir sus propios mapas. La cámara hacía fotos en formato continuo mientras se elevaba: bastaba con unir esas fotos para poder tener el mapa de la zona mapeada.

Con el tiempo las actividades de Public Lab se han expandido a otra áreas de la ciencia, como son la espectrofotometría y la fotografía infraroja, a la vez que siguen compartiendo tanto el hardware y software que desarrollan como los datos que archivan con esas mismas herramientas.

Cuando en 2010 la plataforma petrolífera de BP estalló en el golfo de México, Jeff envió un email a la lista de correo de Grassroots Mapping, creada 6 meses antes, para preguntar cómo se podría empezar a mapear lo que el vertido de petróleo iba a destruir. Unos días después viajó a Nueva Orleans junto con Oliver Yeh y se empezaron a organizar con la Louisiana Bucket Brigade para hacer fotos de antes y de después de que llegara la marea de petróleo a la costa. Hacer las fotos cumplía una doble función: por un lado querían tener la documentación, ya que serían relevantes en un más que probable futuro juicio contra BP y no contaban con las fotografías de los satélites para apoyarles; por otro, el acto mismo de mapear servía para atraer la atención, y la colaboración, de la ciudadanía.

El proceso de hacer las fotos y enseñar a otros la técnica redundó en una mejora de las herramientas y en la creación de una comunidad de usuarios que detectaban problemas y proponía sus propias mejoras técnicas. Es un ejemplo idóneo para entender cómo hay que equilibrar el desarrollo de una herramienta y el cuidado del grupo de usuarios. Es tan importante el desarrollo de una tecnología que la gente pueda usar, porque es sencilla y asequible, como la creación de una comunidad de usuarios que la apoye y la use. En el proceso de diseño es también fundamental contar desde las primeras fases con los futuros usuarios (co-design o co-diseño). La experiencia del mapeado del vertido de petróleo del golfo de México y el trabajo en común fue el germen de Public Lab.

Public Lab como organización (hace poco consiguieron el estatus de organización sin ánimo de lucro en EE.UU.) empezó a andar gracias a el primer premio del News Challenge de la Kight Foundation. Desde entonces han buscado otras fuentes de ingresos para mantenerse, por ejemplo, sus campañas de crowdfunding para desarrollar projectos, como el caso reciente de infragram, o mediante la venta a través de su propia tienda de los productos de ciencia ciudadana que van desarrollando.

La investigación compartida se desarrolla principalmente a través de sus múltiples y abiertas listas de correo, organizadas temática y geográficamente. En su web también publican posts sobre las investigaciones y proyectos en marcha y animan a que cualquiera pueda publicar allí. Los modos de documentar se amplian haciendo que la web entera sea una wiki, esto es, que cualquiera pueda colaborar en editar, añadir y corregir cualquier parte de ella.

saugus-map-3b

Mapa del vertedero de cenizas provenientes de la incineradora de Boston, en la localidad de Saugus, realizado desde una cometa y ensamblado con Mapkintter.org.

Hacer un mapa con este método es ir recomponiendo el terreno a partir de los cientos de imágenes que la cámara tomó en modo automático. Es un proceso que permite el trabajo colaborativo en Mapknitter.org, el software que ha desarrollado para componer ese puzzle de imágenes. Cuando el año pasado hacíamos fotos desde una cometa del vertedero de Boston en Saugus, donde se dejan las cenizas de la aneja incineradora, cumplíamos el doble propósito de estudiar cómo era ese vertedero a la vez que queríamos llamar la atención sobre su existencia y sobre la incineración de residuos. Además, la excursión al vertedero, anunciada públicamente en la lista de correo de Public Lab, era también un evento para enseñar esta técnica a quien quisiera acercarse a participar. El mapa producido quedó publicado con licencia CC-BY en el archivo de mapas de publiclab.org.

Mapa de Saugus en Google Maps. El vertedero no está dibujado.

Mapa de Saugus en Google Maps. El vertedero no está dibujado.

Mapa de Saugus en OpenSteetMap. La mancha marrón es el vertedero.

Mapa de Saugus en OpenSteetMap. La mancha marrón es el vertedero.

Sin embargo, ir al lugar y mapear algo físicamente es sólo una de las formas posibles para estudiar un lugar, a la vez que llamar la atención sobre él. En Google Maps (el que muchos entienden como el mapa online por defecto), el vertedero no aparece y la incineradora es difícilmente identificable como tal. En OpenStreetMap, un mapa construido colaborativamente por usuarios de todo el mundo, algo así como la Wikipedia de los mapas, fuimos nosotros los que dibujamos el perímetro del vertedero para hacerlo visible (la zona marrón). Es un proceso análogo a cuando un usuario corrige o escribe un artículo en Wikipedia: puede estar documentando para sí mismo, pero también sirve para compartir con otros lo que ha investigado.

Algo así me ocurrió en mayo de 2011 cuando iba siguiendo desde Boston todo lo que estaba ocurriendo en Madrid al hilo del movimiento 15M. Empecé entonces mi propio archivo personal de imágenes, documentos y prensa (online, televisión, papel), quería archivar todo lo que estaba aconteciendo. Después de leer varios comentarios sobre la pobre cobertura que las movilizaciones estaban teniendo pensé que se podía enfocar la respuesta como una visualización de datos. Descargué “a mano” las diferentes portadas de los periódicos más importantes, las ordené en una matriz y dibujé unas áreas naranjas allí donde había noticias relacionadas sobre el 15M. Publiqué en Twitter el gráfico y me fui a dormir. Cuando me levanté el viernes por la mañana aquel gráfico se había difundido y republicado en varios medios. Su amplia difusión seguramente se debía a la rapidez con que se leía el gráfico: hasta el jueves 19 de mayo los periódicos no se habían volcado enteramente a cubrir las movilizaciones. Era el inicio de lo que más tarde sería PageOneX.

15m-portadas

Primer tuit sobre cobertura sobre el 15M en las portadas de los periódicos en España hasta el jueves 19 de mayo 2011.

PageOneX: del prototipo a la herramienta buscando usuarios

La buena acogida que tuvo el gráfico sobre la cobertura del 15M me llevó a continuar en el desarrollo de ese tipo de visualizaciones. Al igual que Nathan Matias, con su proyecto análisis de género en las noticias, quería automatizar el proceso de codificación de portadas lo más posible y permitir que otros lo usaran. Lo que había empezado como una respuesta al aparente blackout de los medios de comunicación, se iba a convertir en una de mis principales líneas de investigación.

Las portadas son el lugar donde los periódicos condensan la información más importante del día, y constituyen un elemento muy importante dentro del ecosistema de medios a la hora de definir la agenda mediática. La selección de noticias y su enfoque en la portada configuran su línea editorial, más casi que su línea editorial oficial. Utilizar la cantidad de espacio que ocupan en portada determinadas noticias ha resultado ser un buen atajo para estudiar a qué dedican su atención los periódicos. PageOneX, la herramienta que empecé a desarrollar entonces, automatiza y simplifica el proceso de descarga de las portadas, codificación, análisis y la visualización de los datos.

El proceso de desarrollo se ha basado en los retos y necesidades que aportaban los diferentes casos de estudio que fui haciendo: comparativa de cobertura de noticias en diferentes países; análisis cualitativo (positivo – negativo) de la cobertura sobre un tema; comparativa la cobertura en portadas, mass media, con datos de Twitter, social media;

El paso más trabajoso fue convertir la versión inicail del software, que funcionaba en mi ordenador usando diferentes programas y que requería conocimientos técnicos, en un programa online listo para ser usado por cualquiera. Proceso que llevó más de un año de desarrollo, primero con Ahmd Refat dentro del Google Summer of Code y luego apoyado por el MIT Center for Civic Media con Edward L. Platt y Rahul Bhargava. Recién llegados a una versión estable, lo que hace falta para seguir desarrollando, aprendiendo del ejemplo de Public Lab, es usuarios que la usen para sus investigaciones y que guíen hacia donde debe ir la herramienta. Por ejemplo como con el estudio sobre la cobertura de las protestas de Brasil de junio de 2013 por Débora Leal o recientemente con El Estado del periodismo, que analiza un año de portadas en México, por articulo19.

Superficie dedicada a casos de corrupción clasificado por partido/institución en El País, El Mundo, ABC, La Vanguardia y El Periódico. Del 4 de enero (izq.) al 8 de febrero (dcha.) de 2013.

Ejemplo de PageOneX en uso: Superficie dedicada a casos de corrupción clasificado por partido/institución en El País, El Mundo, ABC, La Vanguardia y El Periódico. Del 4 de enero (izq.) al 8 de febrero (dcha.) de 2013. Más sobre este tema en El Color de la corupción.

-

Cuando se comparten el proceso y los datos de una investigación se está facilitando la inclusión de otros investigadores e interesados en la misma, incluso antes de tener unas conclusiones o resultados terminados. El proceso de investigar se abre de este modo a la colaboración y puede nutrirse de críticas y sugerencias ajenas al mismo. Inicia así la difusión del mismo antes de haber concluido, sin necesidad de emplear recursos extra para publicitarlo. El mejor artículo publicado en una publicación especializada, aunque sea de acceso libre, puede no llegar al público u otros investigadores y no ser el motor de cambio deseado. Tener en cuenta cómo se va a difundir la investigación y convertirla en un proceso abierto aumenta las posibilidades de impacto de esta.

La respuesta a este texto llega el jueves 30 de enero a las 9.00h en el blog de voragine.net
Anteriores posts en esta serie:
1. Investigar (es ir) haciendo y compartiendo: Demo or die (numeroteca.org)
2. Investigar sin darse cuenta: #meetcommons, acción y documentación colectiva (voragine.net)

 

Investigar (es ir) haciendo y compartiendo: Demo or die

Este post es parte de la serie “Investigación colaborativa, divertida, barata, transmedia. Otras formas de entender la investigación” publicada a modo de cruce de posts entre numeroteca.org y voragine.net. Este trabajo se enmarca dentro de un estudio sobre Investigación en red coordinado por Mayo Fuster Morell parte de un proyecto más amplio sobre Juventud, Internet y Política bajo la dirección de Joan Subirats en el marco del grupo IGOPnet.cc, con la colaboración de Montera34, para la Fundación Museo Reina Sofía sobre adolescencia y juventud.

El propósito de este informe es reflexionar sobre diferentes prácticas de investigación y de difusión de ésta que son caminos alternativos al tipo de investigación standard que se practica en la universidad en España. Para ello me he servido de proyectos que he conocido durante mi estancia como investigador visitante en el MIT Center for Civic Media (Civic Media).

Este programa de investigación, con una pata en el MIT Media Lab y otra en el departamento de Comparative Media Studies, enfoca sus actividades a

  1. entender cómo funcionan los medios de comunicación y flujos de información actuales, desde blogs a páginas de noticias, desde la evolución de un meme a ataques DDoS;
  2. desarrollar prototipos para apoyar el activismo cívico y político de grupos o comunidades de base.

Demo or die

El prototipado rápido es una de las características del tipo de investigación que se fomenta en el MIT Media Lab. Bajo el lema “demo or die”, que vendría a ser algo como “prototipa o muere”, se promueve el desarrollo rápido de prototipos para su rápido testeo. Se pretende así que un estudiante-investigador desarrolle varios proyectos hasta el punto que puedan ser usados, pero sin la necesidad de que sean productos 100% terminados. Se anima así a que sus investigadores — estudiantes de máster, doctorandos o personal contratado — exploren diferentes ideas aunque no estén relacionadas estrictamente con su línea principal de investigación ni su disciplina. La línea que apoya esta metodología es que crear un espacio antidisciplinar donde puedan ocurrir conexiones entre personas de distintos departamentos puede conducir a proyectos e ideas inesperadas en los más diversos campos.

Como ejemplo de una prolífica producción de proyectos e ideas de un estudiante en el MIT Media Lab conviene ver la presentación que Dan Schultz dio en 2012 en la conferencia que Civic Media organiza cada año. En vez de exponer un proyecto durante los 5 minutos y 20 diapositivas que se nos daban a cada ponente en un formato exprés de ponencia llamado ignite talk, expuso 18 proyectos diferentes. Iban desde ideas mínimamente desarrolladas a prototipos en funcionamiento. Uno de ellos era Truth googles, una especie de detector automático de mentiras en Internet, orientado a mostrar datos incorrectos en webs de noticias. Fue parte de la tesina de su máster. Otro era NewsJack una herramienta que permite modificar las páginas de inicio de páginas web de noticias y compartirlas en Internet. Básicamente un proyecto y su némesis: un sofware que permite hackear las portadas de los periódicos online y publicar noticias falsas con otro que detecta datos erróneos. Este ejemplo nos puede dar idea de cómo de amplio es el concepto de investigación en el MIT Media Lab.

newsjacktruthgoogles

La investigación entendida como “demo or die” promueve la creación de prototipos: tanto para crear herramientas que faciliten el proceso de investigación como para inventar nuevos dispositivos que resuelvan problemas o desempeñen nuevas funciones. La documentación del proceso es parte fundamental de la investigación y contribuye al resultado de la misma.

Desarrolla las herramientas que quieras usar

Nathan Matias, colega y estudiante de máster en Civic Media, quería  responder a la pregunta ¿quién escribe las noticias en la prensa? Para ello quería mostrar cuántos artículos eran escritos por mujeres en la prensa de Reino Unido. La hipótesis que quería probar era que existe una desigualdad en quién escribe las noticias, y eso influencia qué, cómo y cuales noticias leemos.

Desde hace mucho tiempo, este tipo de estudios cuantitativos se han hecho codificando manualmente noticias a partir de periódicos de papel. Sin ir más lejos, en 2011, un grupo de investigadores codificó a mano todas las noticias de 7 periódicos durante un mes según el género de su autor. Nathan, en vez de clasificar manualmente uno por uno todos los artículos (de los tres periódicos a estudio en Reino Unido: Guardian, Daily Mail y Telegraph) escribió un programa que los descargaba de sus páginas web y los clasificaba por el género del autor. Automatizó el proceso que había supuesto para otros grupos de investigación jornadas enteras de tabajo.

Para clasificarlos por género tenía que primero construir una base de datos con los artículos de prensa y sus autores. En términos informáticos esto se llama scraping (raspar, arañar), conseguir que un programa descargue todos los artículos de la web de un periódico y vaya llenando una base de datos con los datos que interesan, en este caso: nombre de autor, título, fecha de publicación, contenido del texto, sección…

Porcentaje por género y sección de los 3 periódicos a estudio en el UK News Gender Project.

Porcentaje por género y sección de los 3 periódicos a estudio en el UK News Gender Project.

Una vez obtenida esa base de datos tenía que cruzar los nombres de los autores con otra base de datos de nombres de bebés, que previamente estaban clasificados por género. De este modo obtenía el número de artículos por género. Con estos datos se podía probar la hipótesis: el porcentaje de mujeres que escribe en la prensa es menor que el de hombres. El resultado del estudio se difundió a través de un blog de uno de los periódicos estudiados y de la propia página web del estudio, donde se podía interactuar con los datos en una visualización interactiva y comparar por periódico y por secciones quién ha escrito las noticias.

El proyecto pretende conseguir que el usuario busque entre los datos y extraiga sus propias conclusiones, en vez de ofrecer una serie de ideas a priori. El estudio se complementó analizando cuánto se compartían esos mismos artículos en las principales redes sociales en internet (Facebook, Twitter y Google⁺), para probar si la “dieta de noticias” que los medios ofrecen es la que el público decide consumir. O lo que es lo mismo, si los contenidos que publican los medios de comunicación coinciden con lo que los usuarios quieren compartir y difundir, que es una medida del interés que muestran los lectores a determinadas noticias.

Para hacer esta investigación Nathan tuvo que desarrollar una serie de herramientas que le permitieron automatizar la codificación de los artículos de prensa y visualizar los datos obtenidos. Hacer el prototipo e investigar es parte del mismo proceso en este caso. El resultado es un gráfico interactivo y una base de datos publicadas abiertamente que pueden ser la base para futuras investigaciones, tanto por él mismo como por otros investigadores o público en general interesado en el tema. El código para repetir este tipo de investigación está disponible en opengendertracking.org que ha desarrrollado junto con Lisa Evans, Irene Ros y Adam Hyland. Mientras, Nathan sigue buscando periódicos, especialmente en castellano, que estén interesados en participar en su proyecto.

Un paso más allá fue el proyecto que ha desarrollado Nathan con Sarah Szalavitz. Ambos compartían las mismas ideas sobre lo importante que era medir y cambiar las diversidad de género en los medios de comunicación. En vez de escribir el enésimo artículo sobre la escasa presencia de mujeres que firmar artículos en la prensa, desarrollaron followbias.com, una herramienta que muestra el porcentaje de hombres y mujeres a los que sigues en Twitter.

Porcentaje según género de los seguidores de @numeroteca en Twitter según Followbias.

Porcentaje según género de los seguidores de @numeroteca en Twitter según Followbias.

El cambio es sustancial: en vez de analizar cómo de sesgada es la información que el lector recibe en función de los editores de un periódico, ahora la herramienta mide cómo es el sesgo de información que el propio usuario ha decidido recibir. Puede analizar de este modo cómo de diverso es el grupo de cuentas que sigue en Twitter (followers), que es es el filtro de la información que recibe a través de esa plataforma. La herramienta ayuda a codificar y corregir el género asignado a tus followers. El hecho de colaborar en esta codificación, hace que el usuario se involucre el análisis y se dé cuenta de cómo funciona.

Así, la investigación atrae la atención sobre un determinado tema. No es solamente relevante por los datos que produce o por la información que nos suministra. Pero no solo eso, el usuario también participa en el análisis, ya sea explorando los datos a través de interfaces gráficas o ayudando a codificar esos mismos datos.

La respuesta a este texto llega el jueves 23 de enero a las 9.00h en el blog de voragine.net.

 

 

Investigación colaborativa, divertida, barata, transmedia. Otras formas de entender la investigación

Os presentamos el texto “Investigación colaborativa, divertida, barata, transmedia. Otras formas de entender la investigación”, que hemos escrito a cuatro manos, Alfonso Sánchez Uzábal y Pablo Rey Mazón. Este trabajo se enmarca dentro de un estudio sobre Investigación en red coordinado por Mayo Fuster Morell parte de un proyecto más amplio sobre Juventud, Internet y Política bajo la dirección de Joan Subirats en el marco del grupo IGOPnet.cc, con la colaboración de Montera34, para la Fundación Museo Reina Sofía sobre adolescencia y juventud. #otrainvestigación

En el texto reflexionamos en voz alta sobre las diferentes prácticas-métodos de investigación y de difusión de la investigación que hemos estado practicando y aprendiendo estos últimos tiempos: por mi parte desde Boston a su paso por el Center for Civic Media en el MIT, y por parte de Alfonso desde Madrid. Intentamos explicar modelos alternativos al modelo estándar de investigación de la academia, y que habitualmente se apoyan en las nuevas tecnologías de información.

Este informe, una investigación en sí misma, quiere ser un análisis sobre diferentes proyectos que muestran cómo es posible llevar a cabo una investigación relevante, y seria y divertida, por caminos alternativos a los estándares de la academia apoyados por las “nuevas” tecnologías de la información.

El texto original tiene más de 40 páginas y consta de cuatro partes; la primera y la tercera están escritas por mi, y la segunda y la cuarta por Alfonso. La quinta es un breve resumen y conclusión. Hemos pensado que una manera más digerible de presentarlo en la web es en fragmentos más cortos.

Inicialmente pensamos el texto como un dialogo entre nosotros, contándonos las experiencias vividas y las lecciones aprendidas, en Boston y en Madrid. Quizás dentro del informe se ha difuminado esa manera de narrar. Ahora la recuperamos: durante las próximas cuatro semanas publicaremos una serie de posts concatenados en voragine.net y numeroteca.org, a modo de diálogo: los martes a partir de mañana publicaré desde numeroteca.org, los jueves Alfonso responderá desde voragine.net.

Índice

  1. Investigar (es ir) haciendo y compartiendo: Demo or die, en numeroteca.org.
  2. Investigar sin darse cuenta: #meetcommons, acción y documentación colectiva, en voragine.net.
  3. Investigar (es ir) haciendo y compartiendo: Public Lab y PageOneX, en numeroteca.org.
  4. Investigar sin darse cuenta: archivos personales, en voragine.net
  5. Liveblogging, cómo documentar en directo en numeroteca.org
  6. Espacios autónomos de experimentación e investigación en voragine.net
  7. Investigación Sprint vs. Investigación de largo recorrido en numeroteca.org
  8. Snippets: un gran repositorio de código distribuido en voragine.net
  9. Conclusiones #otrainvestigación: inventa las herramientas que quieras usar en numeroteca.org

Avance del informe #ColorCorrupción 2013. Parte 1

Superficie en portada  dedicada a casos de corrupción  Junio - Diciembre 2013

Superficie en portada dedicada a casos de corrupción junio – diciembre 2013

Hace casi un año publiqué un análisis sobre la cobertura de la corrupción en los medios de prensa escrita en España, a raiz de la publicación de la supuesta contabilidad B del PP recogida en las llamadas notas de Bárcenas. En junio publiqué un artículo al respecto en la revista del Colegio de Periodistas de Cataluña que dio nombre al proyecto: El color de la corrupción. Desde entonces he ido analizando día a día las portadas de la prensa en España, codificando cómo cubrían las noticias relacionadas con la corrupción. Puedes ver todos los meses codificados en PageOneX con la etiqueta #colorcorrupción. He abierto también un blog dedicado al tema específicamente: http://colorcorupción.tumblr.com

Ahora es el momento de analizar y comparar todos los datos acumulados para ver si se puede extraer alguna conclusión interesante. Para ir dando forma a esas ideas y al informe sobre el 2013 voy a ir publicando algunas visualizaciones de datos que he ido generando. He hecho un esfuerzo por ser didáctico y lo más claro posible para que se puedan entender fácilmente. La primera que comparto hoy analiza el porcentaje de superficie que los periódicos han dedicado cada mes en sus portadas en una matriz de datos.

Puedes ver los datos por mes y por periódico, la media de cada mes y el total acumulado de cada periódico. Como esto que presento son resultados preliminares, agradezco críticas y sugerencias antes de que complete el informe final #ColorCorrupción 2013.

Uno de los objetivos de este trabajo es mostrar las diferencias en la cobertura de las noticias de corrupción entre unos medios y otros de una forma objetiva para hacer reflexionar al lector sobre sus elecciones a la hora de informarse.

Un auto para la hija del rey

Coincidir ante la realidad suele ser normal porque la realidad se presta a ser imitada o compartida por varias personas. Coincidir, en cambio, en el error no debiera en principio ser tan frecuente pero a veces acontece.
Auto 7 de enero de 2014. Folio 25.866. José Castro Aragón.

Hace pocos días el juez José Castro Aragón, del juzgado de instrucción nº 3 de Palma de Mallorca, publicó el auto de instrucción (descarga parte 1 y parte 2) que razonaba la imputación de la Infanta Cristina. Como explica el propio juez, más que un auto, el texto parece un tratado de derecho procesal. Tiene una fuerte vocación didáctica para explicar a todas las partes (fiscal, abogados de las acusaciones y defensas, abogado del estado, audiencia provincial), y quizás también a la opinión pública, cuáles son las razones por las que mantiene su decisión de imputar a la Infanta.

El auto es una pieza de literatura del más alto nivel. Lo he disfrutado y releído en mis paseos por la ría de Bilbao. En algunos momentos me ha recordado a alguna parte del Quijote, en otros a algún texto de Borges. Quería compartir con vosotros esos momentos y este comentario de texto, ya que sé que no tenéis tiempo de leer las 227 páginas que componen el auto.

Decir que el auto es un texto del juez Castro es una forma reduccionista de verlo. El texto está compuesto por otros textos que a su vez citan a otros textos. Supongo que es algo habitual en en este tipo de documentos jurídicos. No deja por ello de presentar una estructura unitaria. Por otro lado, como dirá algún contemporáneo, es un texto de carácter hipertextual. Los diferentes autores, cada una de las partes personadas en el juicio, tiene un espacio para exponer sus motivaciones y razones. Cada uno de ellos cita a los otros, y a otros informes de la Agencia Tributaria o sentencias del Tribunal Supremo, en un juego de cajas chinas que parece no tener fin. Algo así ocurre en El Quijote, donde aparecen relatos dentro de relatos en la historia principal. Además, en el propio libro se aclara que el autor de casi toda la obra no es el propio Cervantes, sino Cide Hamete Benengeli, un supuesto “historiador arábigo” que escribe en árabe la historia del protagonista. Un relato dentro de un cuento dentro de una historia. Me gusta hojear el auto como si José Castro fuera el escritor que ha creado al “personaje Juez Castro”, que es quien verdaderamente escribe este texto.

La primera parte del auto lleva por nombre “Antecedentes de hecho” y se compone de dieciocho secuencias tituladas con su número ordinal correspondiente: primero, segundo, tercero… sin salto de página que las separe. Un recurso que bebe directamente de la novela moderna. Esta primera parte funciona como un diálogo de voces disonantes, o un grupo de monólogos dirán algunos, que intentan razonar y entender unos mismos hechos. Una suerte de evangelios discordantes. Supongo que sorprenderse por esto denota la falta de costumbre lectora de este tipo de documentos. Imagino que en casi todo juicio los relatos de los mismos hechos deben de ser igual de incompatibles que en en el caso que nos ocupa.

Castro va listando de forma ordenada los escritos de todos los implicados. Añade secas frases que introducen a los personajes y sus textos, por ejemplo “Que en fecha 14 de noviembre de 2.013 el ministerio Fiscal presenta escrito del tenor literal siguiente”. Estos textos hacen a su vez referencia a otros textos y a veces a documentos que el propio auto no recoge (emails, artículos de prensa). Si bien estos documentos están seguramente disponibles en alguno de los miles de folios de la causa, no están incluidos en el auto y quedan fuera del alcance del lector. Este hecho refuerza el carácter literario del texto. Recuerda al recurso literario de citar textos inventados que utiliza Borges repetidas veces: “Mejor procedimiento es simular que esos libros ya existen y ofrecer un resumen, un comentario”.

Toda esta primera parte conforma un collage de textos de diferente proveniencia: desde el más técnico de la Abogacía del Estado, a los más ácidos de la defensa de Diego Torres o de la acusación popular a cargo de sindicato Manos Limpias. Si imaginamos a Castro como único autor de todo el texto inventando las diferentes voces y tonos de todos los personajes, ¿no sería el juez una de las plumas más destacadas de nuestra literatura?

La segunda y última parte, titulada “Fundamentos jurídicos” y dividida en 25 secuencias, recurre también a recursos intertextuales pero de una forma mucho más contextualizada. La voz del juez pasa a un primer plano y abandona su función de mero introductor de los otros autores. Las voces de los personajes de la primera parte retornan, pero el autor establece un diálogo con ellos y les responde. El último capítulo, el único que no lleva por título un número ordinal sino “Dispongo”, sirve de conclusión y cierre. La voz del autor hila el discurso y hace que sea mucho más fácil de leer que la primera parte.

Esta segunda parte es rica en formatos. Se incluyen en ella documentos de todo tipo, como facturas, cuadros de datos, contratos, textos en francés, haciendo uso del tipo de técnica literaria denominada pastiche. Entre sus referentes más cercanos en literatura en castellano, y que probablemente han influido a Castro, es inevitable recordar La verdad sobre el caso Savolta, la primera novela de de Eduardo Mendoza, que suele utilizarse precisamente como ejemplo de novela puzzle o pastiche. Los parecidos no acaban ahí: en la novela el protagonista relata en un juicio una historia que ocurre en Barcelona sobre empresarios, abogados y luchas de poder. ¿Coincidencia?
Sin embargo, el texto no es simplemente interesante, atractivo e imprescindible por su formato o calidad literaria. La trama que describe es ya interesante de por sí y atiende a las preocupaciones e intereses de la sociedad actual. En ella confluyen personajes de todo tipo que configuran un retrato de la España de principios de siglo XXI. Aparecen personajes de toda clase social y condición: la realeza (el Rey y su hija la infanta Cristina), empresarios (Diego Torres y su esposa), deportistas (Iñaki Urdangarín), abogados, jueces, fiscales, sindicatos y empleados del hogar. Como Truman Capote en A sangre fría, Castro no necesita recurrir a la ficción, y le basta entrevistar o interrogar a los personajes para completar un relato que toca todo el espectro social. La trama se desarrolla además en diferentes ambientes del mundo contemporáneo global, de Barcelona a Washington DC pasando por Ginebra y Mallorca.

El lenguaje utilizado, propio de la jerga judicial, es muchas veces farragoso y difícil de entender. La elección de esta forma de escribir es deliberada, ya que ayuda a reforzar a su propio personaje de juez dentro de la historia. El texto está así plagado de latinismos, tecnicismos (“peculio”), números, largas frases subordinadas y extensas enumeraciones.

Las enumeraciones son un recurso necesario dentro del lenguaje procesal para listar todo tipo de cosas o eventos, habitualmente sin mayor interés. Sin embargo, en algunos casos, Castro las utiliza de un modo diferente, acaso con afán literario, para aportar ritmo a su discurso y apoyarse en dilatados listados para cargarse de razón. He querido ver la influencia directa de autores como Bolaño en el cansino cuarto capítulo de 2666, donde lista asesinato tras asesinato durante 346 páginas; o el listado nada arbitrario de obras que asigna Borges a Pierre Menard en Pierre Menard, autor del Quijote.

Por ejemplo en los folios 25.794-25.796 repite hasta nueve veces la siguiente estructura verbal (de 2004 a 2012) separada por puntos y seguido:

“Al folio xx.xxx figura otro certificado supuestamente acreditativo de que la Junta General Ordinaria de la sociedad, con la misma sede social, se reunió el xx de xxxxx de xxxx y aprobó las cuentas del año xxxx con un resultado positivo que ascendió a xxx.xxx,xx euros y que también pasó a remanente”.

Podría haber comunicado esta información con una sencilla tabla de datos (o con una lista, como hace en el folio 25.855), pero prefiere narrar sucintamente cada encuentro para conseguir mayor énfasis. Otros sugerirán, no sin razón, una explicación más sencilla: que más que un recurso literario es un simple “corta y pega” de otro documento. En cualquier caso, después de haber enunciado reiterativamente toda esa retahíla de fechas, lugares y cifras, concluye que “esta contabilidad distaba mucho de ajustarse a la realidad”. El lector, adormecido tras una monótona página y media de certificados de reuniones de la Junta General Ordinaria, descubre súbitamente que todo eso que ha leído no es cierto. Castro ha conseguido crear un momento de tensión donde no se esperaba.

Otro tipo de enumeración hilarante es el listado de facturas narrado a partir del folio 25.805. El juez trata de demostrar que los gastos declarados de Aizoon S.L. no tienen que ver con la actividad profesional desarrollada por la entidad y enuncia los establecimientos o gastos realizados en varias listas que ofrecemos aquí en formato resumido:

tiques de aparcamiento; repostaje de combustible; consumiciones de escasa cuantía en bares y cafeterías; servicio de limusina; entradas Estadio Olímpico de Roma; hotel Las Arenas; hotel de Washington; hotel del aeropuerto de Phoenix; hotel Millenium de New York; hotel Marriot de Detroit; hotel en Philadelphia; estancias en la Pestana Kruger Lodge; estancia en el Zongoene Lodge de Mozambique; trattoria del Pantheon; restaurante Gouthier de Barcelona, especializado en marisco; restaurante Zambi; 10 comensales en Casa Irene; 6 menús en Racó d’En Cesc; restaurante Tragamar en Calella; 4 buffets infantiles; renting vehículos con matrículas 7851FVK y DLP7558; vinos de bodegas Baigorri SA; casco y guantes para moto; botas de señora en tienda de New York; tintorería en Philadelphia; alquiler de vehículo en Washington DC; o alquiler de vehículo en Málaga; viaje a Rio de Janeiro para el matrimonio y cuatro hijos; vajilla de la entidad La Muy Noble y Artística Cerámica de Alcora S.A.; cuadro en la galería Sala Parés; mobiliario infantil; mobiliario para vivienda; reformas en piso; confección e instalación de cortinas y rieles; 4 libros de Harry Poter y uno sobre creatividad; dos ramos de flores; un iphone exclusivo; un servicio de decoración con globos; contratación de animador infantil; contratación de organización y decoración de varias fiestas; alquiler de material audiovisual; alquiler de altavoz; cocktail para 81 personas; montaje de carpas de grandes dimensiones; cocktail para 50 adultos y merienda para 30 niños; alquiler de tres estufas de jardín; servicios de asesoramiento y “coaching”; curso de baile de salsa y merengue; selección de personal; equipos de telefonía y comunicaciones; instalación de parabólica, monitor y receptor; seguro del hogar; doble acristalamiento aislante.

El listado de todos esos gastos constituye a fin de cuentas un retrato de un tipo de vida contemporáneo (un smart phone, libros de Harry Potter, limusina, bares y cafeterías, tiques de aparcamiento, viajes a América). Además, el juez indica que es difícil que todos esos gastos pudieran estar relacionados con la actividad profesional de la empresa Aizoon S.L. a la que habían sido imputados. Un relato abierto sin orden aparente que nos habla de las costumbres y lugares que frecuenta un matrimonio con cuatro hijos. Como apuntan algunos, el relato es una especie de Sin noticias de Gurb contemporáneo, casualmente también situado en la ciudad de Barcelona. Es tarea del lector reconstruir la vida de esa familia. En algunos momentos el juez no se priva de comentar con sorna algunos de los gastos, como en el caso de la decoración con globos para un cumpleaños “sin saber por qué, al parecer ha propiciado cierta ironía en un determinado ámbito” o cuando se habla del curso de baile de salsa y merengue a domicilio “se antoja harto difícil que pueda ser satisfactoriamente explicada pero que, no obstante, se deberá habilitar la posibilidad para que pueda hacerlo”. En otros casos arbitrariamente se posiciona y expone su opinión personal sin tapujos, como cuando habla de la vajilla “en cuya elección no parece descabellado pensar que interviniera Doña Cristina Federica de Borbón y Grecia”.

Otra desternillante lista es la siguiente (folio 25.874):

“la teórica plantilla de la sociedad está integrada por 4 empleados del hogar, una estudiante, una encuestadora que dice trabajar para otra persona, un asesor, 2 personas que nunca nadie ha visto trabajar para la sociedad, un “chico de los recados”, un analista del estilo de vida de los deportistas y una con 1º de estudios de enfermería haciendo “corta y pega” de internet.”

si bien es parte de un informe de la Agencia Tributaria y no de la pluma del juez, vista a la luz de la anterior enumeración, parecen escritos por la misma mano. Un listado de personas aparentemente inconexo, pero que en el fondo constituyen otro retrato del matrimonio de la Infanta y Urdangarín a través de la órbita de personas que les rodeaban y que supuestamente eran los empleados de Aizoon S.L., una empresa de consultoría.

Sea como fuere, su enumeración más lograda no llega hasta el folio 25.878, cerca ya del final de la segunda parte. Con objeto de demostrar al Ministerio Fiscal y a la defensa de la Infanta Cristina que no es necesario para citar a una persona a declarar en calidad de imputada que se aporten las pruebas objetivas que demuestren su participación en un delito, se dispone a listar y comentar a modo de ejemplo una por una las 42 convocatorias que ha realizado hasta la fecha para realizar imputaciones. De este modo repite una y otra vez la misma estructura; vaya la primera a modo de ejemplo:

“Don Diego Torres Pérez fue llamado en virtud de una Providencia de fecha 31 de mayo de 2.011 que textualmente se limitaba a decir: ” 1º Abrir con la documentación aportada el Anexo Nº 42; y 2º Recibir declaración en calidad de imputado y con instrucción de sus derechos de Don Diego Torres Pérez, señalándose …”.

Unas líneas más abajo, después de comentar que ninguna de las partes “plantearon reproche alguno sobre una supuesta indefensión” pone como ejemplo la segunda imputación:

“Don José Luis Ballester Tuliesa y Don Raimundo Alabern de Armenteras fueron convocadas para que prestaran declaración en calidad de imputados por Providencia de fecha 18 de julio de 2.011 que literalmente decía: “5º Recibir declaración en calidad de imputados y con instrucción de sus derechos a Don José Luis Ballester Tuliesa y a Don Raimundo Alabern de Armenteras, señalándose…”.

Y de este modo se suceden los textos de las 42 convocatorias de imputaciones y los comentarios del juez diciendo que ni el Ministerio Fiscal ni nadie pusieron objeción, tanto antes como después de la citación de la Infanta Cristina. Comenta casi todas las veces de forma reiterativa con un sencilla frase tipo “ningún evento impugnatorio se produjo” o “tampoco esta convocatoria mereció controversia alguna”. Ninguna controversia claro está, salvo en el caso de la imputación de la propia Infanta Cristina. Es gracias a la apelación del primer auto de imputación de la Infanta, por parte del fiscal y de varias defensas letradas, que el juez escribe el texto que estamos comentando. En vez del habitual párrafo con el que suele despachar una imputación se explaya durante más de doscientas páginas. Esta sección concluye con un párrafo para la posteridad:

Cuando finalice la instrucción de esta Pieza Separada y se vuelva a la normalidad procesal quizás pocas personas quieran recordar que para llamar a una persona a prestar declaración en calidad de imputada, trámite este que por millares se viene llevando a cabo cada día en los Juzgados de España con total respeto a las garantías procesales y sin que absolutamente a nadie se escandalice, se habría precisado escribir poco menos que un tratado de derecho procesal.

Con esta larga frase hace explícito su cansancio por la instrucción del caso. La agotadora lista de imputaciones a lo largo de una docena de páginas ha servido para hacer que el lector empatice con su hastío.

Para ir cerrando este comentario de texto —no nos podemos extender ya más— al modo castriano listaremos algunos otros temas (junto con los números de folio correspondientes), por si el lector quiere acercarse a ellos bajo su propia responsabilidad y tiempo: el caso del ticket de compra de chocolatinas del aeropuerto de Ginebra (folio 25.774); la demostración de la coincidencia en el error de la defensa de la Infanta y la acusación, el ministerio fiscal (sección DECIMONOVENA, folio 25.864 y siguientes); la demostración de que la defensa de la Infanta está de facto respondiendo por la Infanta en vez de dejar que la Infanta se exprese por sí misma (folio 25.868); la errata de la “base imposible” en vez de la base imponible, que pudiera ser un guiño del autor hacia una instrucción que está siendo muy complicada y tediosa (folio 25.797).

Cerca del final del texto Castro nos indica que este auto es parte de una obra mayor mucho más extensa: “…. esta misma resolución no tendrán cabida en el Tomo LII de esta Pieza, incorpórese al mismo hasta el folio 25.566 inclusive y ábrase el Tomo LIII al que se incorporará el resto”. Un último aviso para compartir con el lector la carga de los más de cincuenta tomos que se han escrito hasta el momento en el proceso.

Un proceso judicial que pretende dilucidar si el yerno del rey, Iñaki Urdangarín cometió malversación, fraude, prevaricación, falsedad y blanqueo de capitales y si su esposa, la segunda hija del rey, Cristina Federica de Borbón y Grecia, cometió delito contra la hacienda pública y/o blanqueo de capitales. En estos tiempos oscuros, en los que todas las instituciones del Estado están salpicadas de un modo u otro por escándalos de corrupción, es esperanzador contar con la prosa de Castro que nos ilumina y acerca la verdad. Esperamos con impaciencia nuevos textos del juez y la resolución del juicio.

Bilbao, 14 de enero de 2014

pd: Agradecimientos a Jesús, Patricia, Miguel y Lourdes.

El silencio del rey


Hace un año, poco antes de salir para la cena familiar de nochebuena, decidí aprovechar que la casa real había publicado todos los vídeos de los discursos del rey para construir el infierno real (puedes ver la versión mejorada en El infierno real 2.0). Por entonces mi ordenador no era capaz de reproducir todos los vídeos, pero el ejercicio mereció la pena.

Hoy propongo otro ejercicio usando esos mismos vídeos: El silencio del rey 1975-2012, mi primer supercut.

En colaboración con @guillelamb y a @mikiroi.

Registro a UGT o Registro a PP

Cobertura de corrupción en las portadas de las prensa española en diciembre 2013.

Cobertura de corrupción en las portadas de las prensa española en diciembre 2013. Accede a la versión interactiva.

A veces la realidad nos regala hechos casi simétricos que permiten estudiar las decisiones editoriales de unos u otros periódicos. Oportunidad que no podíamos dejar de aprovechar. Ayer, durante todo el día, se procedió al registro de la sede de UGT en Andalucía y durante toda la noche al registro de de la sede del PP en Madrid. Los periódicos tuvieron tiempo (el registro en la sede del PP empezó a las 21.00h) de elegir qué noticias irían a sus portadas y con qué importancia.

Estos fueron los periódicos que recogieron una u otra noticia en sus portadas:

  • Registro de UGT-A: El Mundo, ABC, La Razón.
  • Registro de PP: El Mundo, La Gaceta, La Vanguardia
  • Caso ERE (PSOE): El País, La Razón
  • Caso ITV (CiU): La Razón
  • Caso PP en Caja Madrid: El País
  • Fútbol (investigación de Bruselas): El País

El registro de UGT-A fue cubierto por los periódicos esperados, los que en los últimos meses han dedicado la mayor parte de su cobertura de corupción al escándalo de las facturas falsas de UGT en Andalucía: El Mundo, ABC y La Razón (en contra de lo que se podŕia esperar La Gaceta solo lo ha llevado un día a su portada a UGT por casos de corrupción desde que se destapó este caso). Sin embargo, sobre el registro del PP en Madrid fue interesante la ausencia de esa noticia en la portada de El País, mientras que El Mundo, La Gaceta y La Vanguardia si que la llevaron.

Es cierto que es un día complicado mediáticamente por la subida de la tarifa de la luz, que ha puesto bajo sospecha el ministro de hacienda José Manuel Soria, pero creo que el ejercicio sigue siendo válido.

Os dejo con los datos acumulados de los últimos meses, sin incluir este mes de diciembre. Cuando pasen estas prisas y las navidades más información en El color de la corrupción.

Porcentaje de superficie que cada periódico dedica por partido/institución sobre el total de artículos de dicho periódico sobre corrupción durante el periodo estudiado. Porcentaje de superficie que cada periódico dedica por partido/institución sobre el total de artículos de dicho periódico sobre corrupción en ese mes. Todos los datos están disponiles en PageOneX/Colorcorrrupción

131219_policia-en-genova_guardia-civil-en UGT

Las dos noticias en la portada de El Mundo ayer jueves 19 de diciembre

3 años de movilizaciones en red, 3 años de gráficos de portadas con PageOneX

globalrev-banner

He pasado los dos últimos días en el encuentro/congreso #GlobalRev, hablando de cómo investigar, entender y apoyar las movilizaciones en red: desde la primavera árabe de Túnez y Egipto a las últimas movilizaciones en Brasil, pasando por 15M, occupy y Turquía. He desvirtualizado con mucha alegría (un verbo que se usa para decir que has visto en carne y hueso a gente de la cual solamente conocías su avatar en Twitter) a muchas personas que he seguido en la distancia desde Boston y a través de las cuales he seguido, visto y entendido más el 15M: @suysulucha y sus video streamings o a casi todo el equipo de DataAnalysis15M.

El objetivo, en pocas palabras, es organizar una plataforma de investigación abierta sobre los movimientos sociales en red que estudie comparativamente los casos de los 3 últimos años. En muchos aspecto me recuerda a la red que se intentó establecer con OccupyResearch: compartir datos, herramientas, reflexiones, ideas para pensar e interconectar las diferentes luchas. ¿Qué se puede aprender de los aciertos y errores de OcccupyResearch? ¿Cómo de abierta puede ser una red de investigación? ¿Cómo mantener viva la ilusión y las ganas de trabajar juntos? OccupyResearch funcionó para poner en contacto a diferentes personas que estaban investigando occupy por separado y generar grupos de trabajo que llegaron a desarrollar proyectos como la Occupy Research General Survey o los hackathons de OccupyData. Sus datos y metodologías aún se siguen usando y, según he visto estos días, son fuentes de inspiración. OccupyResearch no fue tan efectiva a la hora de lograr una colaboración estable y de largo recorrido entre sus participantes, y su participación fue poco a poco decayendo. Actualmente la red está casi inactiva, aunque algún nodo se mantenga activo fuera de la red inicial. Habría que poner por escrito en algún momento todo lo que hemos aprendido de la experiencia.

Volvamos al encuentro #Globalrev: si quereis ver lo que se habló el primer día de presentaciones de diferentes países, podéis consultar los estupendos liveblogs en ictlogy.net o las notas que tomamos colectivamente en un etherpad. El segundo día se dedicó a pensar conjuntamente cómo debía ser esa plataforma/grupo de investigación comparativa internacional. Un proyecto ambicioso, que cuenta con Javier @Toret y @DataAnalysis15M como núcleo duro, lo cual es esperanzador a la hora de pensar en un plan de investigación que abarca tantos contextos diferentes (de momento 7 países). Esperanzador porque hará falta un motor fuerte y organizado para coordinar y dinamizar a todo aquel que se sume al proyecto, y su recientemente autopublicada investigación “Tecnopolítica y 15M, la potencia de las multitudes conectadas. El sistema red 15M, un nuevo paradigma de la política distribuida” (junio 2013) es un buen precedente que ha consiguido dar sentido a la complejidad de millones de tuits, hashtags y movilizaciones en las calles.

Pero yo escribía este post para “hablar de mi libro” y de la alegría que ha sido ver las diferentes visualizaciones de PageOneX en varias de las presentaciones. Haciendo repaso mentalmente me daba cuenta de que había al menos una visualización de portadas de prensa por cada uno de los movimientos en red estudiados, menos del #yosoy132 mexicano. La serie se completó justo cuando estaba llegando a Barcelona hace dos días y recibí un email de Benjamín Arditi contándome que había acababa de completar un primer análisis de portadas sobre #yosoy132 en la prensa mexicana.

De hecho, el origen de PageOneX fue durante la primera semana del 15M, y surgió para medir y mostrar visualmente la escasez de cobertura de los medios tadicionales sobre un movimiento social entonces recién nacido. Estos casi 3 años de movilizaciones también han sido la evolución de la herramienta de análisis de portadas: desde una imagen en un tuit hecho descargando y organizando las portadas “a mano” hasta una herramienta online que cualquiera puede usar. He pensado que sería interesante repasar estas visualizaciones, verlas juntas y recordar cómo fueron realizadas y ver cómo la prensa escrita cubrió estos movimientos sociales en red.

Justo hoy, en unos de los infinitos pads en torno a los que se organiza #globalrev y DatAnalysis15M (o GRRN), @Toret había recopilado ya estos gráficos en una única lista, bendita lógica distribuida. Sin un estilo uniforme, pero con los mismos mimbres, pongo todas las imágenes juntas.

15M: blackout de los medios y método casi artesanal

ss

Uno de los primeros gráficos: las fechas van en vertical, las áreas son opacas. Se hizo descargando a mano cada una de las portadas y reorganizándolas después en inkscape.

rtj

Reeleboración del gráfico sobre 15M y Twitter. Los datos de twitter eran pantallazos de la web de la desaparecida trendistic.indexrank.com, de ahí su pixelamiento. Elaborado en inkscape a partir del archivo generado con la primera versión de PageOneX escrita en Processing. Para medir las áreas utilizaba un plugin de inkscape y las calculaba mediante una hoja de cálculo.

 Primavera árabe. Túnez, Egipto, Libia.

svsvsvsv

A raiz de los gráficos sobre el 15M, iecah.org me encargó monitorizar la cobertura de prensa sobre la primavera árabe en la prensa española. El proceso era el mismo: Script en Processing me generaba un fichero svg, que desde Inkscape podía usar para codificar las portadas. Hice un minisite para publicar los diferentes análisis. en este caso se analiza: Egipto y Libia.

Occupy. USA.

ww

Nunca había hecho un análisis con tantas portadas: periódicos estadounidenses subriendo el movimiento Occupy.  Era demasiado para manipularlo en un único archivo de svg y tuve que dividirlo en partes. Datos de Twitter de r-shief.org, se aprecia como los tuits comienzan a aparecer en el archivo una semana después de comenzadas las movilizaciones, justo cuando la gente de r-shief empezó a recopilar los datos.

#direnGezi #OccupyGezi. Turquía

csc

Hecho a partir de 2 hilos en pageonex.com: OccupyGezi en periódicos internacionales y OcccupyGezi en periódicos turcos en colaboración con @matrushka y @bilgenkurt, datos de Twitter de Topsy. Todo ello unido en inkscape pasando por gnumeric.

Brasil protests #VemPraRua #BRevolução

protests-vandals-brazil-june2013

Protesters or Vandals? Para responder al debate de cómo los medios narraban las protestas, Débora Leall usó la ya para entonces en march versión beta de pageonex.com online. Hilo disponible en PageOnex: Violence x Protest. Los datos deTwitter son de topsy y los de las protestas de periódicos y Wikipedia. Todos ls datos se juntaron en Inkscape pasando por gnumeric.

 #YoSoy132. México

Cobertura en portadas de las movilizaciones de #yosoy132 en méxico por la prensa mexicana. Realizado por Benjamín arditi en PageOneX. Hilo disponible en PageOneX.com

Cobertura en portadas de las movilizaciones de #yosoy132 en México por la prensa mexicana. Realizado por Benjamín Arditi (politicaviral) en PageOneX. Hilo disponible en PageOneX.com

Éste listado cronológico de visualizaciones es un ejemplo de cómo a medida que PageOneX se convierte en una herramienta más fácil de utilizar más gente puede usarla autónomamente sin depender de mi. En los primeros casos era una labor en solitario: dadas las características de la herramienta. Después, cuando pageonex.com versión beta ya estaba activo, mi papel ha podido pasar a ser el de guía, apoyo o compilador para generar las imágenes finales, pero no he tenido que codificar las portadas (portadas de periódicos turcos, periódicos brasileños). En el caso de México no he tenido más que imprimir pantalla.

-
Actualización 4 noviembre 2013: el trabajo que queda pendiente es poner en formatos visualmente comparables las diferentes visualizaciones; completar el estudio con la prensa local en los países (primavera árabe) de los que no se ha analizado: y hacer un análisis cualitativo de cómo era la cobertura en cada caso: favorable, desfavorable, etc. Como algunas visualizaciones son previas al lanzamiento de pageonex.com habrá que recodificarlas de nuevo en la nueva plataforma. Si alguien se anima a participar que me lo haga saber, ahora PageOneX permite que varias personas codifiquen un mismo hilo.