Crónica de las Jornadas de Periodismo de Datos 2017: cada dato cuenta

500_0.png

Uno de los espacios más transformadores que he visto en los últimos años es Medialab Prado, un hervidero cultural donde siempre se cuece algo, un hogar que da cobijo a numerosas comunidades interesadas en reinventar nuestras caducas instituciones y sustituirlas por algo que aún está por inventar y que está en nuestra mano hacerlo.

En Medialab Prado se celebrarban estos días las V Jornadas de periodismo de datos, organizadas con bastante voluntad y tesón por el DataLab madrileño comandado por el infatigable general Bravo, aka Adolfo Antón, aka Adolflow. En Twitter se podía seguir a través de los hashtags #jpd17 y #cadadatocuenta. En ellas he tenido la oportunidad de disfrutar con sesiones sobre periodismo, datos, visualización, cartografía, nuevas herramientas y código, mucho código, el idioma del futuro que aquellos que hemos llegado algo más tarde a la revolución digital tratamos de aprender siempre que podemos. En mi caso, me vuelvo a Granada con bastantes ganas de desarrollar un poco más mis conocimientos de HTML y usar más editores de texto como Atom o emacs, para destripar las webs y entenderlas mejor por dentro, y así poder aplicar herramientas como Bootstrap, todo un lujo de descubrimiento de la mano de Karma Peiró y su gente de Nació Digital (que por cierto sigue a la vanguardia con productos como Screple). En general, entiendo y comparto la necesidad de aprender a usar lenguajes de programación como los lenguajes básicos de uso de terminal y UNIX que nos mostró el propio Adolfo o los distintos lenguajes de marcas que enseñó David Arroyo en la clausura, como el HTML y el CSS, porque implican también una nueva forma de pensar, más computacional, algo que debería aprenderse ya en las escuelas. Como recordaron varios ponentes, aplicado al mundo profesional, la autoedición y la publicación de los trabajos periodísticos en formato web son ya imperativos para el periodista de forma que integre, desde el principio, en su lenguaje periodístico el uso de estos lenguajes de programación. Hoy día resulta más fácil que hace apenas uno o dos años con las nuevas herramientas que siguen surgiendo cada día.

También me vuelvo ilusionado con las cosas que están haciendo los jóvenes que se están formando en los Másters de Unidad Editorial-URJC y de Villanueva-UCM, capaces de mezclar lo mejor del periodismo de investigación más clásico con estas nuevas herramientas que les permiten crear narrativas transmedias e historias tan ricas audiovisualmente como en información. El periodismo de datos tiene el futuro garantizado con esta cantera, pero, como puso de manifiesto Antonio Rubio, director del Máster, hay que seguir poniendo hincapié en nuestro mayor handicap: saber contar historias. Como también mostró Auri García, del Diario Ari catalán, el público se interesa más cuando empatiza con una historia, cuando la siente cercana y la hace suya. Por eso a veces no triunfa tanto una recopilación de gráficos y datos enormemente densos en información y rico en historias como descubrir una pequeña historia surgida de esa enormidad sobre alguien que podría ser el vecino de al lado. A veces los outliers son más interesantes que los patrones globales. Su charla también fue interesante al mostrar las formas que el periodismo tiene a la hora de adaptarse a la nueva situación y los nuevos consumos que no tienen por qué significar el abandono del papel, sino la comprensión de sus diferencias con el formato digital, para lo bueno y para lo malo.

La cartografía se posiciona como un elemento cada vez más importante en las visualizaciones de datos, como nos mostró Alejandro Zappala, ya que llevamos siglos acostumbrados a leerlos y es difícil entender muchas de las noticias de actualidad sin localizarlas geográficamente en un mundo globalizado. En contra de lo que pueda parecer en sociedades cada vez más inmateriales, seguimos necesitamos nuestro anclaje al territorio, entender nuestra posición espacio-temporal para ver nuestro lugar en el mundo.

Disfruté mucho con la charla que Esperanza Zambrano, jefa de reclamaciones del Consejo de Transparencia y Buen Gobierno dio sobre las peticiones de datos, lo difícil que es hacerlas bien para que te hagan caso, y cuántas se han realizado en los dos años y medio de existencia de este órgano: apenas unas 8.000, muy pocas en realidad. Queda mucho por hacer, pero, como también mostró Antonio Rodríguez, del Centro Nacional de Información Geográfica, se está trabajando mucho para responder a esa creciente demanda social que pide datos abiertos para trabajar con ellos libremente, y para ello las Administraciones tienen que reformular sus estructuras y sus políticas de datos. En esta apertura juegan un importante papel las APIs y las herramientas basadas en ellas, como mostraron los talleres para usar la API del New York Times, insultantemente perfecta, o TCAT, algo técnica en su instalación pero enormemente útil para la minería de datos en Twitter. Sin embargo, APIs como la del INE siguen resultando aún farragosas y difíciles de usar, aunque, al menos, ya se está en el camino correcto para emular a otras instituciones como Eurostat, que incluso tienen un paquete para R con el que acceder directamente a sus bases de datos.

La apertura también pasa por la replicabilidad o reproductibilidad de los resultados. Vi cómo en el periodismo de datos se extiende también la doctrina, algo más extendida en la comunidad científica (aunque quizás no tanto como debiera), de la investigación reproducible, la necesidad de abrir no solo los datos y resultados, sino también el proceso de su consecución y la metodología empleada, para que alguien más de la comunidad interesada en el mismo tema pueda replicar, y sobre todo, mejorar la investigación, construyendo así inteligencia colectiva.

En definitiva, las jornadas de periodismo de datos han supuesto una buena muestra, quizás no tan espectacular ni amplia como las jornadas del año pasado, del estado actual del periodismo de datos, cómo seguir avanzando con las nuevas herramientas que siguen surgiendo y cómo hacerlo además acompañado de gente dispuesta a enseñarte sin pedir nada a cambio, gracias también a la cobertura que proporciona Medialab Prado acogiendo este tipo de eventos. Desde aquí quisiera agradecer a Sara por su ayuda y a Adolfo su trabajo por sacar adelante estas jornadas, así como el proyecto Open Knowledge Spain, y espero que seamos cada vez más gente los que apoyemos este tipo de iniciativas de una forma más proactiva para que las jornadas del año que viene sean aún mejores. Yo, por mi parte, me comprometo ya a ello y a moverlo también a través de MediaLab UGR.

¡Hasta el año que viene, JPD!

Análisis del hashtag #TransmediaUGR

Para seguir en Twitter la celebración del Congreso Internacional de Narrativas Transmediales, celebrado en la Universidad de Granada del 4 al 8 de abril en la Facultad de Comunicación, se lanzó el hashtag #TransmediaUGR. En MediaLab UGR tuvimos la oportunidad de participar en dicho Congreso organizando una mesa redonda el viernes 8 de abril con motivo además del Día Internacional de las Humanidades Digitales, en la que participaron gente tan interesante como Nuria Rodríguez o Enrique Villalba. Si no pudiste asistir, aquí tienes el vídeo.

El caso es que, como ya había hecho en la Open Education Week, y para practicar un poco varias herramientas como NodeXL, Gephi o el lenguaje de programación R decidí realizar un análisis del mencionado hashtag para observar cómo se relacionaron, a través de twitter, los diferentes tuiteros que participaron en el evento.

Algunos datos generales: logre recuperar a través del hashtag 1.724 tuits procedentes de 185 cuentas de twitter, que tuvieron un alcance potencial del total de 8.295.787 seguidores de dichas cuentas. Otros datos que nos proporciona la página Hashtracking, que escogí porque era la que incluía más tuits para el análisis (de manera gratuita, claro, si pagas tienes webs a mogollón): aproximadamente un tercio de los tuits es original, siendo el resto retuits y, en menor medida, menciones directas, con un alcance de 312.769 personas.

Captura de pantalla 2016-04-13 08.26.55

Con los datos extraídos en R he confeccionado una pequeña historia interactiva en Tableau. Inserto aquí las imágenes de los gráficos pero os recomiendo que entréis en el anterior enlace para que disfrutéis de su interactividad completa. Hay varios gráficos: uno sobre la evolución temporal del hashtag (es decir, la frecuencia de tuits con #TransmediaUGR a lo largo de la semana del evento y días posteriores), el ranking de tuiteros en función de los tuits realizados, retuits y citas en conversaciones y la correlación entre los tuits realizados y los retuits y citaciones.

Como podéis ver, en el Top 10 están Domingo Sánchez-Mesa, director y coordinador del Congreso; MediaLab UGR, que estuvo (estuvimos) retransmitiendo el evento por twitter y streaming; Transmedia_UGR, la cuenta oficial del evento; Nieves Rosendo, también de la organización y que realizó también un estupendo Storify a modo de resumen al final del Congreso; Javier Cantón (el que os habla); Enrique Villalba, participante en la mesa redonda y también muy activo en la red; el conocido Carlos Scolari, experto en alfabetización transmedia y ecología de medios; Laura Borràs, experta en Humanidades Digitales y participante en una mesa redonda sobre literatura digital; Esteban Romero, director de MediaLab UGR y organizador de la mesa redonda del día 8; y por último, Juan Gómez Becerra, que también siguió el evento activamente. No obstante, la posición en el ranking de cada uno de los mencionados depende, en unos casos, de la cantidad de tuits (como es mi caso), de las veces que es retuiteado, como es el caso de Domingo o Nieves o de las veces que es citado en el tuit, como ocurre con Scolari. Esas diferencias también pueden verse en el gráfico de correlaciones, dependiendo de la posición del tuitero en el gráfico. Hay cierta correlación, por nada significativa, puesto que es lógico que a más tuits realizados haya más probabilidades de ser citado o retuiteado. La línea de tiempo muestra el pico que se produjo el día 8 durante la conferencia de Scolari (por la tuit-crónica que hicimos MediaLab y yo) pero también se ven los picos de actividad de las tardes de los primeros días del Congreso y las mañanas de los días 7 y 8 (dedicadas a cuatro paneles de comunicaciones). La actividad de la tarde del 8 serían los agradecimientos y despedidas, así como va cesando la frecuencia durante días posteriores.

También he podido crear un gráfico de red social con Gephi, tras extraer datos con NodeXL, un añadido para Excel que desgraciadamente sólo funciona bajo Windows (versión Mac YA, por favor, quizás así sí que me plantearía comprarlo). Es la imagen que tenéis a continuación, aunque también tenéis a vuestra disposición la misma imagen para descargar en SVG y la versión web interactiva, que os recomiendo porque permite buscar por usuarios y ver sus conexiones (¡venga, entrad y buscaos!).

Transmedia

La red dibujada muestra varios centros principales y subgrupos, así como un flujo principal de conexiones derivadas de la conferencia de Scolari del día 8. El primer centro es la cuenta Transmedia_UGR, que conecta a los diversos subgrupos que surgieron en los primeros días del Congreso, así como en las mesas redondas sobre periodismo (en celeste, arriba a la izquierda) o en el encuentro de profesionales (en naranja, a la izquierda) del día 7. El diálogo con Agustín Fernández Maíllo del miércoles (en morado, abajo a la derecha) también fue especialmente activo a la hora de crear relaciones tuiteras. Pero indiscutiblemente el mayor flujo de conexiones (en color verde, arriba a la derecha) es la que se produjo el día 8, con un nodo principal de unión entre Transmedia_UGR y MediaLab UGR: Domingo Sánchez-Mesa (@elquellegatarde).

Por último, con la web wordclouds.com (R también tiene un paquete llamado igual para hacerlo, pero la verdad es que con esta web es más rápido y cómodo) he elaborado una ‘tag cloud’ o nube de palabras con el contenido de los tuits. ¿Os imagináis cuál fue la palabra más repetida?

wordcloud 2

Efectivamente: “transmediaUGR”, que era el hashtag analizado y propuesto y fue mencionado en todos los tuits analizados (obviamente, ya que fue el hashtag usado para recuperar los tuits). Las palabras/expresiones más usadas, por tanto, descartando la obvia, fueron “dayofdh2016” (222 apariciones) y “dayofdh” (126), hashtags usados el 8 de abril con motivo del Día Internacional de las Humanidades Digitales; “transmedia”, usada en 204 tuits; “mesa” (125), en relación a las distintas mesas redondas del Congreso; “hoy” (114), mostrando la inmediatez para la que se usa Twitter; “the”, que nos habla del carácter internacional del Congreso y el inglés como lengua franca (Domingo, por ejemplo, tuiteaba frecuentemente en inglés); y otras palabras que contextualizan bastante el contenido del Congreso: “medios” (106), “periodismo” (95), “humanidadesdigitales” (89), “diálogo” (68), “proyecto” (54), “activista” (49) y “activismo” (48), “relato” (48) o “futuro” (44).

Y hasta aquí el pequeño análisis de #TransmediaUGR. Si has llegado hasta aquí (¡gracias!) y, además, has asistido al Congreso probablemente puedas hacer más lecturas de estos datos, así que te invito a que me ayudes a seguir interpretando estos datos o a que me propongas algún otro tipo de análisis. Gracias de nuevo por leerme. Nos vemos en el siguiente análisis.

#dataviz sobre #OEWUGR

Con motivo de la celebración de la Open Education Week, a escala mundial, la UGR organizó en Granada diversos actos en colaboración con el CEVUG, la OSL y MediaLab UGR. De ellos participé activamente en el celebrado el pasado 10 de marzo: las I Jornadas sobre Educación Abierta, que pude ayudar a organizar, así como participar con una ponencia propia sobre visualizaciones de datos.

Como ejemplo de este tipo de #dataviz, realicé una exploración visual de la red social que el hashtag usado con motivo de esa semana (#OEWUGR) ha posibilitado, con la participación, como se ve en la imagen, de diferentes grupos y entidades. Tienes a continuación la imagen estática, con la intensidad de flujos entre los participantes.

OEWUGR

Como esta imagen es .png no puede ampliarse mucho, aquí tienes la imagen en .svg para que puedas ampliarla todo lo que quieras. También he creado esta visualización interactiva para explorar y aislar cada elemento de la red a tu antojo.

Además, puedes consultar el ranking de tuiteros que han utilizado el mencionado hashtag en el siguiente enlace al Tableau público.

10 años de éxitos (y fracasos) del cine español

Con motivo de la celebración mañana sábado de la 29ª gala de los Goya, quisiera mostrar aquí un resumen visual de lo que ha dado de sí nuestros Cine en los últimos diez años. Una visualización de datos de las películas españolas en función de su género, rentabilidad y éxito de crítica popular que me sirvió como proyecto en un taller de Periodismo de Datos de la UNIA y de la que estoy bastante orgulloso.

Resumir diez años de cine español no es tarea fácil. Tenía en el tintero numerosas preguntas: ¿qué películas han aunado éxito de taquilla y críticas? ¿Hay géneros más rentables que otros? ¿Cuáles han sido los últimos fracasos del cine español? Los datos del área de Cine del Ministerio de Cultura están tan cerrados que tuve que dedicar bastante tiempo en extraer y limpiar datos procedentes de otras fuentes más accesibles y manipulables. Por eso la imagen que tienes a continuación es fruto de mucho trabajo, en colaboración con Eleuterio Luceño. Te recomiendo que te la descargues a tamaño completo y en alta definición, hagas zoom y disfrutes de los detalles navegando por la imagen. Asimismo, también tienes a tu disposición todos los datos empleados para que tú mismo trabajes con los datos o, claro está, mejores esta visualización.

Gráfico que resume diez años de éxitos (y fracasos) del cine español
Una década de cine español (2004-2014)

Seguir leyendo “10 años de éxitos (y fracasos) del cine español”

Sobre Datos y Emprendimiento

El pasado miércoles 5 de noviembre se celebró en Sevilla la jornada informativa InfoDay organizada por Zabala Innovation Consulting, con motivo de presentar FINODEX, una plataforma de financiación de proyectos innovadores mediante fondos de la UE para cuyo acceso sólo se exige que las propuestas usen la plataforma FIWARE como contenedor y datos abiertos como contenido. Elena Calzado, Miguel García y Albert Alonso, de la propia Zabala Consulting, una aceleradora de proyectos de emprendimiento tecnológico, desglosaron los pormenores y requisitos de cada fase de selección en esta primera petición de propuestas.

Unos 50 empresarios y emprendedores del sector TIC mostraron un gran interés en este proyecto, así como en las experiencias presentadas por los ponentes del evento. Manrique López, de ASOLIF; Leonor Rodríguez, del Consejo de Entidades Públicas de la ciudad de Sevilla, que explicó la relación de la ciudad con la plataforma FIWARE; Teresa Álamos, de Wellness Telcom, y Joaquín Cabezas, de Adevice, expusieron las experiencias locales en el uso de FIWARE con productos reales.

Yo tuve la oportunidad de representar a los compañeros de OpenKratio explicando el paradigma de los datos abiertos. Expliqué la revolución digital desde el punto de vista de un sociólogo, así que me sentí un poco intruso en una reunión con más técnicos e informáticos que científicos sociales, pero espero haber servido como contextualizador y/o inspirador de todos los cambios que están por venir y cuyos protagonistas son los asistentes a este interesante InfoDay. ¡Gracias por dejarnos exponer nuestra visión de los datos abiertos y su importancia en la revolución digital!

Os dejo también mi presentación que, como sabéis los que me conocéis, tenía el clásico “puntito friki” (lo siento, no puedo evitar lo que soy).

¡Mucha suerte a los participantes con sus proyectos! Muy pronto empezaremos a conocer sus revolucionarias ideas.