Ver (y compartir)

 

¿Qué impulsa a alguien a hacer una foto? Probablemente ha visto algo que le llama la atención, algo que desea inmortalizar. Un instante que han visto fugazmente sus ojos pero que le han llamado la atención. Sin embargo, en un mundo post fotográfico, más importante aún que el hecho de hacer una foto es el hecho de querer compartirla, de difundirla. En definitiva, de que esa imagen captada por sus ojos se transforme en comunicación social.

Esto es posible hoy gracias a los smartphones, pequeños ordenadores que, entre otras muchas funciones, permiten también hacer fotos con una calidad asombrosa en cualquier lugar en el que estemos.Si hubiéramos comentado esta posibilidad a las anteriores generaciones, que cargaban con una cámara fotográfica y sus farragosos carretes, cautelosos a la hora de sacar estas instantáneas porque se limitaban a 24 ó 36 fotos de capacidad. probablemente no nos hubieran creído.

Por eso impresiona saber el volumen actual de fotos: cada día se suben a Instagram unos 100 millones de imágenes. Parpadeos de millones de personas que no quieren retener, sino compartir. Algunos buscan los detalles de algo más amplio, otros lo que llaman “the big picture”, todo el panorama general (por eso también nos gustan tanto las fotos paisajísticas). Pero en definitiva lo que hoy busca alguien al hacer una foto es mostrar el mundo con sus ojos, ya sea la belleza o la fealdad, la simplicidad o la complejidad, ya sea algo externo o a uno mismo (y a veces también acompañantes) mediante un selfi. Porque ver es saber, y como decía Holmes a Watson, “usted ve pero no observa”. Queremos conocer a los demás a través de sus ojos. Contemplar un trocito de realidad que otros han decidido que vale la pena ver (y compartir). Aunque no nos solemos plantear qué grado de artificiosidad hay detrás. A mí, por el contrario, yendo más allá, me gusta imaginar qué pasaría si algún día la cámara es nuestro propio ojo y pudiéramos hacer fotos con un leve parpadeo…

 

 

Anuncios

Crónica de las Jornadas de Periodismo de Datos 2017: cada dato cuenta

500_0.png

Uno de los espacios más transformadores que he visto en los últimos años es Medialab Prado, un hervidero cultural donde siempre se cuece algo, un hogar que da cobijo a numerosas comunidades interesadas en reinventar nuestras caducas instituciones y sustituirlas por algo que aún está por inventar y que está en nuestra mano hacerlo.

En Medialab Prado se celebrarban estos días las V Jornadas de periodismo de datos, organizadas con bastante voluntad y tesón por el DataLab madrileño comandado por el infatigable general Bravo, aka Adolfo Antón, aka Adolflow. En Twitter se podía seguir a través de los hashtags #jpd17 y #cadadatocuenta. En ellas he tenido la oportunidad de disfrutar con sesiones sobre periodismo, datos, visualización, cartografía, nuevas herramientas y código, mucho código, el idioma del futuro que aquellos que hemos llegado algo más tarde a la revolución digital tratamos de aprender siempre que podemos. En mi caso, me vuelvo a Granada con bastantes ganas de desarrollar un poco más mis conocimientos de HTML y usar más editores de texto como Atom o emacs, para destripar las webs y entenderlas mejor por dentro, y así poder aplicar herramientas como Bootstrap, todo un lujo de descubrimiento de la mano de Karma Peiró y su gente de Nació Digital (que por cierto sigue a la vanguardia con productos como Screple). En general, entiendo y comparto la necesidad de aprender a usar lenguajes de programación como los lenguajes básicos de uso de terminal y UNIX que nos mostró el propio Adolfo o los distintos lenguajes de marcas que enseñó David Arroyo en la clausura, como el HTML y el CSS, porque implican también una nueva forma de pensar, más computacional, algo que debería aprenderse ya en las escuelas. Como recordaron varios ponentes, aplicado al mundo profesional, la autoedición y la publicación de los trabajos periodísticos en formato web son ya imperativos para el periodista de forma que integre, desde el principio, en su lenguaje periodístico el uso de estos lenguajes de programación. Hoy día resulta más fácil que hace apenas uno o dos años con las nuevas herramientas que siguen surgiendo cada día.

También me vuelvo ilusionado con las cosas que están haciendo los jóvenes que se están formando en los Másters de Unidad Editorial-URJC y de Villanueva-UCM, capaces de mezclar lo mejor del periodismo de investigación más clásico con estas nuevas herramientas que les permiten crear narrativas transmedias e historias tan ricas audiovisualmente como en información. El periodismo de datos tiene el futuro garantizado con esta cantera, pero, como puso de manifiesto Antonio Rubio, director del Máster, hay que seguir poniendo hincapié en nuestro mayor handicap: saber contar historias. Como también mostró Auri García, del Diario Ari catalán, el público se interesa más cuando empatiza con una historia, cuando la siente cercana y la hace suya. Por eso a veces no triunfa tanto una recopilación de gráficos y datos enormemente densos en información y rico en historias como descubrir una pequeña historia surgida de esa enormidad sobre alguien que podría ser el vecino de al lado. A veces los outliers son más interesantes que los patrones globales. Su charla también fue interesante al mostrar las formas que el periodismo tiene a la hora de adaptarse a la nueva situación y los nuevos consumos que no tienen por qué significar el abandono del papel, sino la comprensión de sus diferencias con el formato digital, para lo bueno y para lo malo.

La cartografía se posiciona como un elemento cada vez más importante en las visualizaciones de datos, como nos mostró Alejandro Zappala, ya que llevamos siglos acostumbrados a leerlos y es difícil entender muchas de las noticias de actualidad sin localizarlas geográficamente en un mundo globalizado. En contra de lo que pueda parecer en sociedades cada vez más inmateriales, seguimos necesitamos nuestro anclaje al territorio, entender nuestra posición espacio-temporal para ver nuestro lugar en el mundo.

Disfruté mucho con la charla que Esperanza Zambrano, jefa de reclamaciones del Consejo de Transparencia y Buen Gobierno dio sobre las peticiones de datos, lo difícil que es hacerlas bien para que te hagan caso, y cuántas se han realizado en los dos años y medio de existencia de este órgano: apenas unas 8.000, muy pocas en realidad. Queda mucho por hacer, pero, como también mostró Antonio Rodríguez, del Centro Nacional de Información Geográfica, se está trabajando mucho para responder a esa creciente demanda social que pide datos abiertos para trabajar con ellos libremente, y para ello las Administraciones tienen que reformular sus estructuras y sus políticas de datos. En esta apertura juegan un importante papel las APIs y las herramientas basadas en ellas, como mostraron los talleres para usar la API del New York Times, insultantemente perfecta, o TCAT, algo técnica en su instalación pero enormemente útil para la minería de datos en Twitter. Sin embargo, APIs como la del INE siguen resultando aún farragosas y difíciles de usar, aunque, al menos, ya se está en el camino correcto para emular a otras instituciones como Eurostat, que incluso tienen un paquete para R con el que acceder directamente a sus bases de datos.

La apertura también pasa por la replicabilidad o reproductibilidad de los resultados. Vi cómo en el periodismo de datos se extiende también la doctrina, algo más extendida en la comunidad científica (aunque quizás no tanto como debiera), de la investigación reproducible, la necesidad de abrir no solo los datos y resultados, sino también el proceso de su consecución y la metodología empleada, para que alguien más de la comunidad interesada en el mismo tema pueda replicar, y sobre todo, mejorar la investigación, construyendo así inteligencia colectiva.

En definitiva, las jornadas de periodismo de datos han supuesto una buena muestra, quizás no tan espectacular ni amplia como las jornadas del año pasado, del estado actual del periodismo de datos, cómo seguir avanzando con las nuevas herramientas que siguen surgiendo y cómo hacerlo además acompañado de gente dispuesta a enseñarte sin pedir nada a cambio, gracias también a la cobertura que proporciona Medialab Prado acogiendo este tipo de eventos. Desde aquí quisiera agradecer a Sara por su ayuda y a Adolfo su trabajo por sacar adelante estas jornadas, así como el proyecto Open Knowledge Spain, y espero que seamos cada vez más gente los que apoyemos este tipo de iniciativas de una forma más proactiva para que las jornadas del año que viene sean aún mejores. Yo, por mi parte, me comprometo ya a ello y a moverlo también a través de MediaLab UGR.

¡Hasta el año que viene, JPD!

Visualizando lo visual

Es la primera vez en la historia que nuestra mirada se ha democratizado y podemos dirigirla hacia lo que de verdad nos interesa

No es novedad que nuestro mundo es cada vez más visual. Síntoma del cambio de paradigma, y también consecuencia del progresivo aumento en el ancho de banda del flujo de información mundial, comunicamos a través de imágenes más que de palabras. La oralidad y la textualidad siguen teniendo importancia (leemos más que antes, escuchamos más radio y música que antes), pero, como animales que hemos heredado un fuerte componente visual, indispensable para nuestra primera supervivencia, estamos acostumbrados a expresar mucho más, a sugerir mucho más, mostrando una sola imagen. Ya lo dice el refrán “vale más una imagen que mil palabras”.

La ensalada de medios en la que nos movemos cada día, con diferentes nombres como transmedia o cross-media, es una reformulación del papel que tiene la comunicación en nuestra historia y nuestras vidas. Y nuestra mirada, la forma que tenemos de ver, observar y, en última instancia, compartir nuestra cosmovisión del mundo, se ha abierto como nunca antes. Ahora no solo vemos, sino que enseñamos lo que vemos y, así, construimos una nueva mirada colectiva, colaborativa, que pinta un fresco fotográfico y sociológico de quienes somos.

Nuestro ojo tiene el poder de visibilizar (e invisibilizar) aquello a lo que otorgamos importancia. El hecho de poder compartirlo da un paso más en esta construcción visual del estatus de la realidad. Intervenimos sobre la realidad al observarla, pero más aún al compartirla, al publicarla, al decir a los demás: ¡fijaos en esto! Y esto es toda una revolución. Antes, los poderosos eran los que dirigían nuestra mirada, como bien dice nuestro admirado Antonio Rodríguez de las Heras. Veíamos la realidad en los ojos de los poderosos, que observaban con interés determinados asuntos mientras miraban para otro lado en otros casos. Pero la mirada se ha democratizado ahora. Todos tenemos una herramienta disruptiva en el bolsillo que además de para comunicarnos auditiva o textualmente hace fotos. Ver algo, fotografiarlo y compartirlo lleva apenas unos segundos y es algo cada vez más común sobre todo porque no hace falta saber cómo funciona una cámara de fotos para hacer una foto bonita (ya están ahí los filtros y algoritmos para ayudarnos).

Photographing_the_Eiffel_Tower_at_dusk
Fuente: Wikipedia

 

Poco a poco iré mostrando aquí mi última investigación: una visualización de cómo vemos a través de Instagram en Granada. En MediaLab UGR estamos recopilando datos sobre las fotos que se publican en esta red social en esta ciudad como ensayo para estudios más amplios, pero estoy ansioso por conocer ya las claves de nuestro ojo granadino: ¿qué fotografiamos? ¿Qué compartimos? ¿Por qué? ¿Qué tipos de fotógrafos digitales hay en Granada? ¿Hay zonas más visibles que otras como la Alhambra? ¿Son realmente las más bonitas? Estas y otras preguntas quiero ir respondiendo a partir de ahora y a través de este blog, espero que por eso también más activo que antes.

Análisis del hashtag #TransmediaUGR

Para seguir en Twitter la celebración del Congreso Internacional de Narrativas Transmediales, celebrado en la Universidad de Granada del 4 al 8 de abril en la Facultad de Comunicación, se lanzó el hashtag #TransmediaUGR. En MediaLab UGR tuvimos la oportunidad de participar en dicho Congreso organizando una mesa redonda el viernes 8 de abril con motivo además del Día Internacional de las Humanidades Digitales, en la que participaron gente tan interesante como Nuria Rodríguez o Enrique Villalba. Si no pudiste asistir, aquí tienes el vídeo.

El caso es que, como ya había hecho en la Open Education Week, y para practicar un poco varias herramientas como NodeXL, Gephi o el lenguaje de programación R decidí realizar un análisis del mencionado hashtag para observar cómo se relacionaron, a través de twitter, los diferentes tuiteros que participaron en el evento.

Algunos datos generales: logre recuperar a través del hashtag 1.724 tuits procedentes de 185 cuentas de twitter, que tuvieron un alcance potencial del total de 8.295.787 seguidores de dichas cuentas. Otros datos que nos proporciona la página Hashtracking, que escogí porque era la que incluía más tuits para el análisis (de manera gratuita, claro, si pagas tienes webs a mogollón): aproximadamente un tercio de los tuits es original, siendo el resto retuits y, en menor medida, menciones directas, con un alcance de 312.769 personas.

Captura de pantalla 2016-04-13 08.26.55

Con los datos extraídos en R he confeccionado una pequeña historia interactiva en Tableau. Inserto aquí las imágenes de los gráficos pero os recomiendo que entréis en el anterior enlace para que disfrutéis de su interactividad completa. Hay varios gráficos: uno sobre la evolución temporal del hashtag (es decir, la frecuencia de tuits con #TransmediaUGR a lo largo de la semana del evento y días posteriores), el ranking de tuiteros en función de los tuits realizados, retuits y citas en conversaciones y la correlación entre los tuits realizados y los retuits y citaciones.

Como podéis ver, en el Top 10 están Domingo Sánchez-Mesa, director y coordinador del Congreso; MediaLab UGR, que estuvo (estuvimos) retransmitiendo el evento por twitter y streaming; Transmedia_UGR, la cuenta oficial del evento; Nieves Rosendo, también de la organización y que realizó también un estupendo Storify a modo de resumen al final del Congreso; Javier Cantón (el que os habla); Enrique Villalba, participante en la mesa redonda y también muy activo en la red; el conocido Carlos Scolari, experto en alfabetización transmedia y ecología de medios; Laura Borràs, experta en Humanidades Digitales y participante en una mesa redonda sobre literatura digital; Esteban Romero, director de MediaLab UGR y organizador de la mesa redonda del día 8; y por último, Juan Gómez Becerra, que también siguió el evento activamente. No obstante, la posición en el ranking de cada uno de los mencionados depende, en unos casos, de la cantidad de tuits (como es mi caso), de las veces que es retuiteado, como es el caso de Domingo o Nieves o de las veces que es citado en el tuit, como ocurre con Scolari. Esas diferencias también pueden verse en el gráfico de correlaciones, dependiendo de la posición del tuitero en el gráfico. Hay cierta correlación, por nada significativa, puesto que es lógico que a más tuits realizados haya más probabilidades de ser citado o retuiteado. La línea de tiempo muestra el pico que se produjo el día 8 durante la conferencia de Scolari (por la tuit-crónica que hicimos MediaLab y yo) pero también se ven los picos de actividad de las tardes de los primeros días del Congreso y las mañanas de los días 7 y 8 (dedicadas a cuatro paneles de comunicaciones). La actividad de la tarde del 8 serían los agradecimientos y despedidas, así como va cesando la frecuencia durante días posteriores.

También he podido crear un gráfico de red social con Gephi, tras extraer datos con NodeXL, un añadido para Excel que desgraciadamente sólo funciona bajo Windows (versión Mac YA, por favor, quizás así sí que me plantearía comprarlo). Es la imagen que tenéis a continuación, aunque también tenéis a vuestra disposición la misma imagen para descargar en SVG y la versión web interactiva, que os recomiendo porque permite buscar por usuarios y ver sus conexiones (¡venga, entrad y buscaos!).

Transmedia

La red dibujada muestra varios centros principales y subgrupos, así como un flujo principal de conexiones derivadas de la conferencia de Scolari del día 8. El primer centro es la cuenta Transmedia_UGR, que conecta a los diversos subgrupos que surgieron en los primeros días del Congreso, así como en las mesas redondas sobre periodismo (en celeste, arriba a la izquierda) o en el encuentro de profesionales (en naranja, a la izquierda) del día 7. El diálogo con Agustín Fernández Maíllo del miércoles (en morado, abajo a la derecha) también fue especialmente activo a la hora de crear relaciones tuiteras. Pero indiscutiblemente el mayor flujo de conexiones (en color verde, arriba a la derecha) es la que se produjo el día 8, con un nodo principal de unión entre Transmedia_UGR y MediaLab UGR: Domingo Sánchez-Mesa (@elquellegatarde).

Por último, con la web wordclouds.com (R también tiene un paquete llamado igual para hacerlo, pero la verdad es que con esta web es más rápido y cómodo) he elaborado una ‘tag cloud’ o nube de palabras con el contenido de los tuits. ¿Os imagináis cuál fue la palabra más repetida?

wordcloud 2

Efectivamente: “transmediaUGR”, que era el hashtag analizado y propuesto y fue mencionado en todos los tuits analizados (obviamente, ya que fue el hashtag usado para recuperar los tuits). Las palabras/expresiones más usadas, por tanto, descartando la obvia, fueron “dayofdh2016” (222 apariciones) y “dayofdh” (126), hashtags usados el 8 de abril con motivo del Día Internacional de las Humanidades Digitales; “transmedia”, usada en 204 tuits; “mesa” (125), en relación a las distintas mesas redondas del Congreso; “hoy” (114), mostrando la inmediatez para la que se usa Twitter; “the”, que nos habla del carácter internacional del Congreso y el inglés como lengua franca (Domingo, por ejemplo, tuiteaba frecuentemente en inglés); y otras palabras que contextualizan bastante el contenido del Congreso: “medios” (106), “periodismo” (95), “humanidadesdigitales” (89), “diálogo” (68), “proyecto” (54), “activista” (49) y “activismo” (48), “relato” (48) o “futuro” (44).

Y hasta aquí el pequeño análisis de #TransmediaUGR. Si has llegado hasta aquí (¡gracias!) y, además, has asistido al Congreso probablemente puedas hacer más lecturas de estos datos, así que te invito a que me ayudes a seguir interpretando estos datos o a que me propongas algún otro tipo de análisis. Gracias de nuevo por leerme. Nos vemos en el siguiente análisis.

#dataviz sobre #OEWUGR

Con motivo de la celebración de la Open Education Week, a escala mundial, la UGR organizó en Granada diversos actos en colaboración con el CEVUG, la OSL y MediaLab UGR. De ellos participé activamente en el celebrado el pasado 10 de marzo: las I Jornadas sobre Educación Abierta, que pude ayudar a organizar, así como participar con una ponencia propia sobre visualizaciones de datos.

Como ejemplo de este tipo de #dataviz, realicé una exploración visual de la red social que el hashtag usado con motivo de esa semana (#OEWUGR) ha posibilitado, con la participación, como se ve en la imagen, de diferentes grupos y entidades. Tienes a continuación la imagen estática, con la intensidad de flujos entre los participantes.

OEWUGR

Como esta imagen es .png no puede ampliarse mucho, aquí tienes la imagen en .svg para que puedas ampliarla todo lo que quieras. También he creado esta visualización interactiva para explorar y aislar cada elemento de la red a tu antojo.

Además, puedes consultar el ranking de tuiteros que han utilizado el mencionado hashtag en el siguiente enlace al Tableau público.

Móvil encriptado: prohibida la entrada

private-property-1109273_960_720

Uno de los grandes debates en esta Era Digital se sitúa en torno al controvertido tema de la privacidad, como ya pusieron de relieve en su día Julian Assange y Edward J. Snowden. Esta vez, paradójicamente, ha sido Apple la encargada de volver a poner en primera línea el mencionado asunto, al negarse a desbloquear un iPhone al FBI para una pesquisa policial.

Pero las cosas no son tan sencillas. Desde otoño de 2014, Apple renunció a poder acceder a los datos de los terminales del individuo que los encripte. No ocurre lo mismo con su servicio de nube iCloud, al que sí que tiene acceso y es ‘hackeable’, como demostró recientemente el robo de fotos personales de famosos como Jennifer Lawrence. De hecho, de las más de 11.000 peticiones judiciales de acceso a las cuentas de iCloud, Apple atendió positivamente a más de 7.000. La disposición, por tanto, de los de Cupertino está fuera de toda sospecha. El problema ahora es que los feds quieren abrir el dispositivo en sí, el iPhone, lo que, si está encriptado con una clave de 256 bits, es casi imposible, y para lo que Apple tendría que crear un software que actualmente no posee, y que, ahí está la clave, serviría para desbloquear futuros iPhones implicados en sucesos criminales. Desbloquear uno sería desbloquearlos a todos, como el anillo único de Tolkien.

La negativa de la compañía, en una publicitada carta del CEO Tim Cook, ha sonado, dicen los federales, a estrategia controlada de marketing. Pero los de Cupertino afirman que en el centro de todo está la importancia, por encima de todo, del usuario. La polémica está servida: ¿Apple busca dar seguir dando valor a su marca o hay una verdadera postura en pos de la defensa de la privacidad del usuario? Por otro lado, el interés del FBI parece altamente sospechoso. ¿Se les han agotado las líneas de investigación para, ahora, seguir investigando mediante el móvil del terrorista? ¿Dónde estaría entonces la línea roja de la privacidad? O mejor dicho, ¿quién la marca? ¿El usuario o la compañía a la que has comprado tu móvil?

No estoy en contra de que, llegado el caso, abran los datos que de mí tienen Google, Facebook o Twitter, por ejemplo, pues yo mismo he proporcionado esos datos o los he hecho públicos, pero lo que hay dentro, en la memoria interna de mi móvil podría equivaler a entrar en mi casa. Y hasta aquí, señores, habríamos llegado.

¿Va a morir Twitter?

La red social Twitter copa hoy titulares en las secciones de tecnología de muchos periódicos. La razón: sus directivos han decidido, estratégicamente, cambiar el orden cronológico en el que se muestran los tuits en cada timeline de cada usuario, es decir, un algoritmo decidirá, al igual que ocurre en Facebook, qué contenido es el más importante para cada tuitero.

Hace ya unos meses cuando empezaron a conocerse estos planes (negados por los CEOs de la compañía) los usuarios se lanzaron a degüello, como viene siendo habitual en Internet, con el hashtag #RIPTwitter que se hizo trending topic , y proclamaron la inminente muerte de la red social. No hay que olvidar que la decisión viene provocada por las numerosas pérdidas, económicas y de usuarios, debido a un modelo de negocio que no se revela rentable, y a pesar de su salida a bolsa, porque, a pesar de su éxito social, es complicado describir a día de hoy para qué sirve Twitter.

De hecho, es algo que me ocurre mucho cuando explico este tipo de nuevas tecnologías en mis clases. Facebook está plenamente aceptado, aunque muchos de sus mecanismos ocultos, como el propio algoritmo que enseña y esconde lo que aparece en nuestros muros, no se conoce ni comprende bien. Twitter no está tan generalizado. Se conoce y a veces se usa, pero el número de usuarios activos es bastante menor que en la red de Zuckerberg. La interacción entre las dos grandes redes sociales es visible: Facebook ha adoptado el uso de hashtags (aunque no ha cuajado mucho) y recientemente ha buscado integrar las noticias de los principales medios en los perfiles de sus usuarios; por otro lado, Twitter cambió el botón para marcar tuits favoritos por un “me gusta” facebookero. 

Sin embargo, el alma de Twitter es su inmediatez y su equidad, y con este cambio reciente se pierde la segunda característica. Twitter seguirá siendo una herramienta de información, usada por medios, influencers y tuiteros convencidos, pero si lo que busca es ampliar mercado, aunque pueda parecer una buena opción a corto plazo (dicen ellos que con el nuevo sistema la gente tuitea más), por lo que significa contra su propia esencia podría ser el golpe de gracia que entierre definitivamente a Twitter.