Brand new features: edit areas, fork threads, multi taxonomy!

After a while we are glad to announce brand new features in PageOneX.

We developed these features last summer, but until now they have not been available in the hosted version at pageonex.com. We worked with Juanjo Bazán (@xuanxu) in this.

Export a thread in raw format

Download raw areas

Rebuilding the thread in R it is now possible. It also works for multiple newspapers. Here a cleaner version. Compare it with the thread in @PageOneX website. You can do it downloading Raw Areas Data json. R code available: https://t.co/4bVMRMbRws pic.twitter.com/gQXBhR2T1Y

— numeroteca (@numeroteca) May 10, 2019

Until now you could export the percentage of coverage per day and paper in json and spreadsheet, now there is an extra feature that allows you to export the raw data: the extact location of every area and all its classifications (read following feature). We are starting a new project pageonexR that allows you to import your threads to R and analyse their data.

Classify by multiple taxonomies

This new feature would add the capability to add extra information to drawn areas. A highlighted area could have multiple taxonomies and open fields.

Until this new release you could only classify each area with one taxonomy. For example, an area could be categorized as “International coveragae” but not as “International  coverage” AND “Nigeria” AND “positive framing”. Now you can do it . This feature is only available for certain users. If you want to use it write a comment to this post. We are studying how to make this available for all the users.

Fork a thread

Another cool feature is that you can fork a thread in @pageonex.
If you see a thread that you like you can clone it and work on it! pic.twitter.com/BxsH9wq6Ub

— numeroteca (@numeroteca) May 10, 2019

If you like another’s user thread: you can clone and edit it.

For a thread in PageOneX

Edit and remove areas

Something basic that is now possible is to edit and delete areas in https://t.co/TSwWbvktjk. Very useful for everyone, specially for heavy users. Before you have to delete all the areas in a day to edit the category of one! @PageOneX pic.twitter.com/PosXAwteTl

— numeroteca (@numeroteca) May 10, 2019

Before you had to erase all the areas in a front page to remove one. Now you can remove them separately and re-classify them.


Another great thing is the new containerized versions of PageOneX. Rafa Porres (@walter_burns)  developed it and Rahul Bhargava  (@rahulbot) deployed it at Civic media server. Thanks for your support!!

Containeraized versions, make your own deployment

Pageonex is an open-source project. Thanks to Rafa Porres (@walter_burns) we have PageOneX ready to use in a docker container. In fact, the new containerized version is what we are using now in the production version at pageonex.com. If you don’t want to use the hosted version of pageonex at http://pageonex.com you have a few options to run it yourself. Read our documentation and choose the best option for you. We hope this helps other developers help extending the features of PageOneX.

x-posted from PageOneX blog.

Cobertura de partidos en páginas de inicio en elecciones generales 28A

Sacado de este hilo de twitter:

He analizado los titulares de las páginas de inicio de algunos periódicos online antes del #28A para medir la cobertura de los principales partidos de ámbito estatal. Cuento nº de titulares que contengan los nombres, siglas o líderes de cada partido #homepagex c @PageOneX

He calculado también el porcentaje de esos titulares sobre el total de titulares de cada página de inicio #28A.  Una forma de medir automatizadamente la cobertura que realiza cada medio.

Y aquí agrupando por partido, que facilita la comparativa entre cabeceras. Las líneas finas son los datos por hora y las más gruesas el redondeo que permite ver las tendencias más fácilmente #28A

Son análisis preliminares mientras refino la herramienta. Encantado si queréis aportar vuestra lectura y crítica. Hoy no me dará tiempo a más. Se basan en una base de datos que recopila hora a hora las páginas de inicio de cada periódico

Este análisis trata de aplicar una metodología parecida a la que hago con @PageOneX con las portadas de los periódicos impresos https://ijoc.org/index.php/ijoc/article/view/4442 …

Primer museo de las letras en Berlín

Escribí este artículo hace 10 años para la revista Pasajes. Lo rescató con motivo de la exposición Paco Graco sobre rotulación comercial rescatada que cierra hoy.


Se prepara en Berlín el museo de las letras: rótulos y letras de todos los tamaños esperan en su almacén mientras buscan dónde ser expuestos. Desde las letras de la AEG de Behrens hasta la U de su U-bahn. Para visitar una parte del Berlín que ya no es el que era (ni nunca lo fue).


El legado tipográfico de de las ciudades ha sido recopilado hasta el momento, si hubo suerte, en catálogos fotográficos. Existen extensos libros que recogen las gráficas de las ciudades pero hasta el momento no se conocía un lugar donde mostrar los rótulos que las ciudades van tirando a la basura. Por cualquierchatarrería del mundo van pasando siempre kilos de letras que ya nadie quiere, como las toneladas que vieron los ferro-velhos de São Paulo tras la ley que suprimía toda la rotulación de sus calles.

En Madrid hemos visto desaparecer hace poco tiempo uno de sus más bellos rótulos, tanto por su tipografía como por su contenido. Estaba en la Plaza de los Mostenses y ha sido sustituido por unvinilo infame. Además, el rótulo daba nombre a uno de los primeros libros sobre la gráfica de Madrid: El sol sale para todos. Seguramente tendría que haber viajado a este nuevo Walhalla de la letras,  pero ¿no hubiera sido suficiente con que los nuevos dueños se dieran cuanta de lo que tenían entre manos?

Para echar un ojo al museo buchstabenmuseum.de

Siguen las tribulaciones de un autónomo vizcaíno

Desde hace un tiempo me debato entre contratar a alguien para que me solucione todos mis asuntos con Hacienda (vizcaína) o seguir por mi cuenta. En el fondo, me gusta estar al tanto de mis obligaciones fiscales, de lo que tengo que preparar, pero también pienso que puede que no sea la mejor inversión de mi tiempo. Los trámites que tengo que hacer, iguales para cualquier autónomo, son presentar los modelos 303 (trimestral) y 390 (anual) de IVA, los 110 (trimestral) y 140 (anual) de IRPF, el 140 (anual) , que es el libro de con todas las facturas emitidas y recibidas y la declaración de la renta.

Me lo he he tomado como una gincana en la que cada año se van añadiendo nuevas pruebas que tienes que aprender cómo solucionar. Desde hace poco, por ejemplo, hay que enviar en febrero el libro de facturas, que te obliga a meter una a una a mano todas las facturas de gastos y las emitidas. No te facilitan un método para poder introducirlas masivamente.

Así que hoy, 25 de abril de 2019, aquí estoy de nuevo entregando el documento que acredita mis ingresos y gastos del IVA trimestral. Esta vez me salía a compensar y he tenido que instalar una nueva cosa (id@zki) para que me permitiera firmar digitalmente con mi certificado digital habitual de la FNMT.

Habitualmente, como los bancos donde tengo cuenta, no son entidades colaboradoras con la hacienda vizcaína, tengo que hacer la engorrosa operación de sacar el dinero en efectivo y pagarlo en cualquier de los bancos que sí tienen un convenio colaborador. Esto obliga, cuando el importe supera los 3.000€, a que la entidad informe a la AEAT o hacienda correspondiente, para prevenir el blanqueo de capitales.

Además está el repetido tema de tener que pagar el IVA de facturas que no has cobrado todavía. Si esas facturas son de la Diputación de Vizcaya la cosa tiene se da la paradoja de tener que pagarles (“devolver”) el IVA que no te han pagado.

Bueno, lo dejo por hoy, es un post de queja, que hacía casi 6 años que no escribía sobre el tema. Estamos en el cierre de la campaña electoral y escucho hablar a muchos candidatos de apoyar a los autónomos, pero en nada se han simplificado mis trámites (al contrario) o reducido los costes en mis 15 años de autónomo. Sigo pagando a la Seguridad Social un fijo, da igual lo que facture, ni puedo pagar digitalmente (ni domiciliando cuenta ni con tarjeta de crédito o débiro).

Lo que he mejorado ha sido la gestión de mis facturas con unas tablas dinámicas desde LibreOffice. Algo básico pero que me ha facilitado la vida. Os lo cuento en otra ocasión. O no.

Actualización (octubre 2019): si se realizan operaciones intracomunitarias, esto es, facturas a mientros de la EU que están dados de alta (comprobar aquí http://ec.europa.eu/taxation_customs/vies/?locale=es con su número identificador) hace falta presentar el modelo 349 trimestralmente, no llevan IVA. Se incluirá la cantidad en el modelo 303 del IVA trimestral en la casilla 108 “Prestaciones intracomunitarias de servicios localizadas fuera del territorio de aplicación del impuesto (TAI)”. En la casilla 106 “Otras operaciones no sujetas o exentas con derecho a deducción” se indican las que no llevan IVA por otras razones (por ejemplo, las que docentes).

¡Soy profesor! algunas referencias sobre visualización de datos para dinamizar el foro

Este curso he empezado como profesor colaborador de la asignatura de Periodismo de datos para estudiantes del máster de ciencia de datos en la Universitat Oberta de Catalunya (UOC). A principios de año preparamos desde Montera34 (con Alfonso) tres ejercicios prácticos sobre análisis y visualzición de datos: análisis de Twitter, de datos de Airbnb y sobre segregación escolar.

Para dinamizar la clase y dar algunas referencias que he ido viendo estos días he escrito lo siguiente en el foro de la clase:

Recopilo en este hilo algunas referencias que pueden ser de interés e inspiración:

Recopilaciones de proyectos como Fivethirtyeight (https://projects.fivethirtyeight.com/) o The Pudding (https://pudding.cool).

El canal de Telegram de DataLab Madrid (de Medialab Prado) suele tener referencias interesantes: https://t.me/joinchat/AAAAAA3XteJ2mWKCwBRIvQ

Politibot: un bot de Telegram que te manda cada día una temática y (a veces) visualizaciones de datos: https://telegram.me/politi_bot

Dive. Una herramienta relativamente reciente para visualizar datos online (que aún no he probado), de Kevin Hu y César Hidalgo del laboratorio Collective Learning Group de Medialab de MIT https://dive.media.mit.edu/ (código https://github.com/MacroConnections/DIVE-backend/).

Y unos artículos:

Y dos artículos críticos con el Índice de Desarrollo Humano:

Uso de infraestructuras digitales en Montera34

A raiz de un hilo de correo sobre uso de las redes sociales en Internet en Wikitoki y de nuestras infraestructuras digitales, he enviado esto sobre Montera34:

  • Nuestra web (montera34.com) como centro de comunicaciones: publicamos anuncio de actividades que luego son el archivo (recopilación de documento de la actividad). Si no llegamos a tiempo para anunciar, se publica el proyecto/actividad a toro pasado, para el archivo. Una vez se publica en la web se empieza la difusión en las diversas redes.
  • Blogs: lo tenemos descentralizado entre los blogs personales de Alfonso (voragine.net) y yo (numeroteca.org). Pensando siempre si habilitar uno para M34 (montera34.com/blog).
  • Wiki: para documentos activos en colaboración con otras gentes. Documentación de talleres, manuales, recetas, investigaciones abiertas. Ver la del proyecto Efecto Airbnb, por ejemplo: wiki.montera34.com/airbnb
  • Newsletter: sin periodicidad clara pero más o menos cada mes. Anuncio de protyectos/actividades futuras o pasadas. La hacemos con un pllugin desde nuestro WordPress (montera34.com/suscribete).
  • Repositorios de código: usamos github.com y nuestra propia guenta de gitlab en nuestro server. Ver código de proyectos (montera34.com/project-list).
  • Servidor autónomo: todo ello alojado en nuestro server asociativo que pronto será una máquina propia: hosting.montera34.org
  • Redes
    • Twitter: canal más activo de redes sociales en internet donde publicamos o RT cosas en proceso, anuncios, respondemos preguntas. Tanto desde la cuenta de @montera34 como de las nuestras personales. Se publica info ya publicada en la web. Es el canal donde estamos más activos. También manejamos otras cuentas de proyectos en que colaboramos (cadáveres inmobiliarios, bilbao data lab, datahippo, pageonex, kulturometer…).
    • Instagram: abierta pero poco activa. Se publica info ya publicada en la web.
    • Google+: la teníamos poco activa, y ya por fin google va a cerrar el servicio.
    • Youtube: para publicar los streamings y hangouts en directo que hacemos.
    • Facebook: lo mismo que las otras. Se publica info ya publicada en la web… si llegamos a tiempo. Cada vez menos.

En resumen: intentamos publicarlo todo en nuestras propias infraestructura para luego redifundirlo por otros canales. En Twitter es donde más conversamos con otros.

El escándalo del TFM de Cifuentes en las páginas de inicio

Esta es una reproducción de un hilo publicado en Twitter sobre el anáisis de noticias en portadas online del 9 de abril de 2018):

Para poder analizar las portadas de los último días he descargado cada hora el html de la portada de cada periódico con storytracker.

Está disponible el código para procesar los html de las portadas online con R (llamado HomePageX, en honor a PageOneX).

Too long & do not read Spanish: How to parse and make the visualizations based on the archive of digital home pages built with storytracker: R code available.

Bueno, por fin puedo ponerme a contar noticias de Cifuentes en portada de los periódicos digitales. A ver qué sale:

Para poder el porcentaje de noticias sobre Cifuentes en portada necesitamos saber cuál es el total de noticias en cada momento (cada hora) en cada periódico:

Noticias en portada por hora en eldiario.es.

Después hay que contar los titulares en portada de las noticias que contienen “Cifuentes” (y palabras relacionadas con el caso de su máster) para un periódico. Ejemplo con eldiario.es:

Número de noticias en portada en eldiario.es sobre Cifuentes.

Para hacer el cálculo del número de noticias se han elegido todas aquellas que incluyen una de las siguientes palabras o grupos de palabras en su titular: “Cifuentes|Javier Ramos|Enrique Álvarez Conde|Pablo Chico|María Teresa Feito|Alicia López de los Cobos|Cecilia Rosado|Clara Souto|Amalia Calonge|Universidad Rey Juan Carlos”.

Continue reading

Paseando con el globo para fotografiar desde el aire el polígono industrial El Serrallo, en el puerto de Castellón de la Plana

Three Public Lab DIY open-source projects in a peer-reviewed article

Paseando con el globo para fotografiar desde el aire el polígono industrial El Serrallo, en el puerto de Castellón de la Plana
Paseando con el globo para fotografiar desde el aire el polígono industrial El Serrallo, en el puerto de Castellón de la Plana.

After a very long and exhausting peer review process, we started this back in 2014, the paper we co-wrote with Hagit Keysar, Shannon Dosemagen, Catherine D’Ignazio and Don Blair is finally up there: “Public Lab: Community‑Based Approaches to Urban and Environmental Health and Justice”.

Abstract
This paper explores three cases of Do-It-Yourself, open-source technologies developed within the diverse array of topics and themes in the communities around the Public Laboratory for Open Technology and Science (Public Lab). These cases focus on aerial mapping, water quality monitoring and civic science practices. The techniques discussed have in common the use of accessible, community-built technologies for acquiring data. They are also concerned with embedding collaborative and open source principles into the objects, tools, social formations and data sharing practices that emerge from these inquiries. The focus is on developing processes of collaborative design and experimentation through material engagement with technology and issues of concern. Problem-solving, here, is a tactic, while the strategy is an ongoing engagement with the problem of participation in its technological, social and political dimensions especially considering the increasing centralization and specialization of scientific and technological expertise. The authors also discuss and reflect on the Public Lab’s approach to civic science in light of ideas and practices of citizen/civic veillance, or “sousveillance”, by emphasizing people before data, and by investigating the new ways of seeing and doing that this shift in perspective might provide.

Rey-Mazón, P., Keysar, H., Dosemagen, S., D’Ignazio, C., & Blair, D. (2018). Public Lab: Community-Based Approaches to Urban and Environmental Health and Justice. Science and engineering ethics, 24(3), 971-997.

You can read here the full paper (and download PDF until June 3rd, 2018). If you read this too late, you can always ask me for a copy.

We used three different case studies to: Aerial Photography and Community Building in Castellón, Spain, 2014; The Aerial Testimony: Silwan, East Jerusalem, Israel/ Palestine, 2011; and Open Water Science for Civic Veillance.

The story of this paper began after my talk in Ispra (italy) at the “Emerging ICT for Citizens’ Veillance” workshop about the balloon and kite mapping workshop in Castellón (Spain) I did with Basurama in January 2014. Then… I hope we will be able to write down how was the entire publication process.

Special thanks to Hagit, who pushed the paper all the way until publication, despite the different obstacles we found in the way.