Ayuntamientos y redes sociales. Modalidades de uso

El sistema Expofinder, desarrollado ad hoc para este proyecto, captura de manera automatizada información sobre exposiciones artísticas temporales a partir de diferentes fuentes: RSS, URI, etc. adscritas a las instituciones-entidades que las organizan, patrocinan o colaboran en ellas. Actualmente, el sistema Expofinder tiene registradas más de 12.000 URI, de las cuales 8.880 son HTML y 2.702 RSS. Estas aportan un promedio de volumen de información sobre exposiciones artísticas temporales en el marco español de más de 100 referencias diarias. Esta circunstancia también nos está dando la oportunidad de revisar el funcionamiento de estas fuentes: su presencia, operatividad y eficacia en el proceso de difundir información sobre exposiciones artísticas. Utilizaremos este blog para ir analizando esta casuística.

En esta entrada vamos a empezar hablando de cuál es la relación de los ayuntamientos con el sistema de redes sociales que se infiere de los datos registrados en Expofinder, pues los ayuntamientos representan uno de los tipos de entidades que más exposiciones organizan a través de los museos, centros e instituciones que dependen de ellos. Dado que nos interesa comprender la lógica que rige la difusión de información sobre exposiciones artísticas temporales,nuestra pregunta ha sido: ¿Cómo informan estas entidades públicas a sus convecinos de sus noticias y agenda?

Son diversas las formas, aunque principalmente se pueden resumir en dos: una de ellas es a través de la página web oficial del ayuntamiento y la otra mediante las redes sociales. Todos sabemos que no es una tarea fácil la presencia de un ayuntamiento en redes sociales y mucho menos los contenidos que se vehiculan a través de ellas. Uno de los principales problemas es que un buen número de ayuntamientos carecen de un plan de comunicación en redes sociales y de personal especializado.

Para ver con mayor facilidad la presencia de los ayuntamientos en redes sociales hay que acudir al informe de La Sociedad de la Información en España, siE[14, editado por la Fundación Telefónica. Los resultados se presentaron el pasado 21 de enero de 2015. Este documento se ha convertido en una referencia para la sociedad española porque, además de mostrar la situación actual y los indicadores más representativos del comportamiento de los usuarios en su vida digital, vuelve a exponer las tendencias emergentes que durante los próximos años tendrán un gran impacto en la sociedad. En este sentido, la Fundación Telefónica empezó la ponencia afirmando:  «La digitalización es imparable. Vivimos en hogares cada vez más conectados y organizamos el día con ayuda de nuestros smartphones y apps adaptadas a cada necesidad. Una de cada tres personas consulta el móvil cada 5 minutos y las redes sociales ganan terreno entre los adultos de 45 a 54 años»[1].

Somos ya 26,2 millones de usuarios (1,45 millones más que en 2013), el 93,5% navega todas las semanas y el 78,7%, todos los días, porcentaje que sube hasta el 88,9% en el caso de los jóvenes de 16 a 24 años. Entre los usos de Internet más destacados se encuentra la participación en redes sociales y el comercio electrónico. En relación a las redes sociales, su utilización ha aumentado tres puntos porcentuales de 2013 a 2014, situándose en el 67,1%. Los internautas entre los 16 y los 24 años continúan siendo los que más acceden a las redes sociales (91,3%), aunque el porcentaje ha disminuido 3,3 puntos porcentuales en relación a 2013. Por el contrario, la franja de edad en la que más aumenta el porcentaje de internautas que acceden a las redes sociales es la comprendida entre los 45 y los 54 años, que ha pasado del 43,5% en 2013 al 52,3% en 2014.  Otro dato interesante es que la penetración de uso de las redes sociales es más elevada entre residentes extranjeros en España (73%) que la de las personas con nacionalidad española (66,3%). Esto podría responder fácilmente a estas preguntas: ¿cuántos ciudadanos acuden a la página web de su ayuntamiento? y ¿cuántos son los que acceden a las diversas redes sociales? Por eso es importante que los ayuntamientos o entidades públicas tengan una buena presencia en estos canales de comunicación, porque de esta manera mejorarán la experiencia con el ciudadano.

En este contexto, y tal y como se deduce de los datos registrados en Expofinder, la presencia de los ayuntamientos en las redes sociales tiene un número consistente y va en aumento. ¿Pero cuál es su estrategia de comunicación?

Pues bien, podemos decir que hay cuatro:

  • Una cuenta donde se publican contenidos varios, fundamentalmente culturales. Esto permite montar un canal de información en el que dar a conocer eventos, noticias, exposiciones, actividades. Dicha estrategia también permite una comunicación directa con los usuarios (aunque no todos responden). Como ejemplo, propongo los ayuntamientos de Palma o Zaragoza, que parecen conseguir una buena interacción con sus ciudadanos, tanto en Facebook, como en Twitter y YouTube. El inconveniente de esta estrategia es la ausencia de una verdadera cercanía al ciudadano porque, al no haber una segmentación temática, hay un cierto popurrí de noticias y no se genera ni información detallada, ni debates de peso. Sin embargo, puede ser una buena manera de empezar en redes sociales sin comprometerse demasiado. Es la opción de la gran mayoría de ayuntamientos.
  • Otra estrategia es la de no tener ninguna cuenta pero promocionar otras redes sociales de otras entidades públicas en su página web. Esta estrategia es positiva porque divide por intereses desde el principio y, además, permite empezar a experimentar con cuentas menos problemáticas, como por ejemplo las bibliotecas municipales, turismo o los transportes urbanos. Un ejemplo válido es Bilbao (Hazte de Bilbao), que demuestra que la administración también puede adoptar el tono lúdico de las redes sociales.
  • La tercera y más difícil de conseguir consiste en una cuenta principal y varias cuentas temáticas. Barcelona y Vitoria son dos ejemplos de una apuesta interesante. Barcelona tiene cuentas en Facebook, Twitter, Flickr, YouTube y mantiene un blog. Su actividad en redes sociales es publicitada desde su portal municipal. Así, a Facebook se puede acceder con una like box5[3], una rareza entre los portales municipales, pese a lo sencillo y eficaz que es.
  • No estar en las redes sociales o estar, pero sin ningún contenido.

El nivel de información que recoge Expofinder sobre noticias de los ayuntamientos es consustancial pero es relativamente poca la información útil para el usuario. Particularmente, los ayuntamientos parecen obviar el canal RSS e informar a través de su página web oficial o desde alguna red social. Dicho canal parece estar reservado a las capitales de provincias y vedado a los pequeños municipios, aunque debemos olvidarnos del mito de que las buenas redes sociales o medios digitales pertenecen solo a las capitales. Como muestra de ello, debemos mencionar varios ejemplos: el primero, Villar del Arzobispo (Valencia), el segundo Sopelana (País Vasco) y por último el ayuntamiento de Jun (Granada). Son buenos ejemplos de pequeños municipios con un buen plan de comunicación.

Por otra parte, también hemos verificado diferencias entre los ayuntamientos del norte y sur de España con respecto a las redes sociales. Por ejemplo, en Andalucía (778 municipios) la mayoría de los ayuntamientos poseen algún tipo de red social que generalmente sigue el primer plan de comunicación, incluso muchos municipios suprimen su dominio en la web para volcar toda su información en Facebook. Por el contrario, en el norte, particularmente en el País Vasco (251 municipios), centran su interés en impecables páginas web en vez de redes sociales. Estas páginas web poseen un magnifico sistema de RSS que beneficia al usuario y la difusión de información.

Webgrafía

www.simplysocials.es/redes-sociales-y-ayuntamientos/
www.dispersium.es/redes-sociales-errores-y-aciertos-en-los-ayuntamientos/
www.noergia.com/blog/2012/05/las-4-estrategias-con-las-que-quieren-triunfar-los-ayuntamientos-en-las-redes-sociales/

Webs verificadas a fecha de 2 de diciembre de 2015.

 

Miguel Ángel Sánchez Badillo


 

[1] http://www.fundaciontelefonica.com/2015/01/21/sie14-informe-sociedad-informacion-espana-pais-conectado-europa/ [Consulta: 2/12/2015].

[2] http://www.fundaciontelefonica.com/arte_cultura/publicaciones-listado/pagina-item-publicaciones/?itempubli=323 [Consulta: 2/12/2015].

[3] El like box es un script creado para desarrolladores que con la creación de páginas en Facebook forma una caja para ponerla en tu sitio web (u otros) de manera que no tienen que entrar en Facebook para darle Like o «Me gusta».

 

Cómo WordPress y Open Source nos ayudan a ser creativos y eficaces en los procesos de implementación tecnológica.

¿Por qué WordPress es un buen ejemplo de cómo el software libre y el open source nos ayudan a ser creativos y eficaces en los procesos de implementación tecnológica? 

De acuerdo con el propósito del proyecto Exhibitium se nos planteaba como necesaria la creación de un mecanismo que automatizara, en la medida de lo posible, la captura de información sobre exposiciones temporales de temática artística a partir de cualquier fuente de datos presente en Internet. El aplicativo debería cumplir, por supuesto, con las normas y principios fundamentales de ingeniería de software, ateniéndose a las regulaciones y estándares establecidos, implementando los adecuados protocolos de seguridad, utilidad, funcionalidad y usabilidad.

En realidad, el conjunto completo del proyecto Exhibitium incluye dos grandes bloques de trabajo, que determinan, en gran medida, el ritmo y el formato de su despliegue.

  • Por una parte, la construcción de un «motor» que posibilita la extracción y el almacenamiento de la información sobre exposiciones artísticas temporales (EAT, en adelante).
  • Por otra, un sistema que exporta los datos capturados y estructurados para su explotación por parte de plataformas diseñadas para el análisis de grandes volúmenes de datos mediante técnicas de descubrimiento de relaciones y patronaje de estructuras reticulares (cowording, trazado de redes, etc.).
  • Además, hay que contar con el equipo humano (un grupo seleccionado de historiadores del arte involucrados en el paradigma digital) que realiza las labores de supervisión, filtrado, grabación, descripción, documentación y revisión.

Asimismo, había que distinguir, como parte del planteamiento, dos grandes bloques de tareas en el desarrollo.

  1. El formado por un sistema de captura de información lo más automatizado posible, que garantizase razonablemente la fiabilidad de los datos recogidos.
  2. Y el compuesto por todo el conjunto de elementos necesarios para almacenar los datos capturados tras la pertinente revisión de los editores, y exportar los resultados a la(s) plataforma(s) que se desplegarán en la segunda fase del proyecto.

El bloque A se denominó casi desde el comienzo Beagle, en honor al buque con el que Charles Darwin recorrió medio mundo y por su connotación cuasi humorística de «experto en búsquedas». Y, en un alarde de pragmatismo nominalista, el bloque B pasó a ser conocido como ExpoFinder. Ambos bloques trabajan de forma coordinada, de manera que lo que A extrae queda a disposición de B. El conjunto de ambos bloques se ejecuta formando parte de un sistema unificado, «sabiendo el uno lo que hace el otro», de manera que las funcionalidades de los dos son complementarias y la mencionada coordinación no es buscada, sino innata. El proceso completo se configura, como queda patente, mediante un algoritmo cíclico: Beagle captura, ExpoFinder analiza y da el visto bueno, Beagle vuelve a capturar[1].

 

Figura 1. Beagle + ExpoFinder. Plan de funcionamiento (simplificado)

Beagle captura -ya se ha dicho- de forma automatizada datos de la web relativos a exposiciones artísticas temporales procedente de cualquier fuente de información, e incluye un mecanismo de filtrado.

La idea primaria sobre el funcionamiento de Beagle es la de un procedimiento que se ejecuta de forma regular cada cierto tiempo y que selecciona las referencias de las URIs[2] que hayan sido dadas de alta como fuentes primarias de información en ExpoFinder, conecta con los enlaces correspondientes, extrae la información significativa tras un proceso de filtro preliminar (en el que se eliminan las partes no significativas del texto recuperado), valora mediante el uso de una tabla de lexemas que contienen raíces de palabras «positivas» y «negativas» (es decir, que, en caso de estar presentes, refuerzan la posibilidad de que un texto corresponda a una exposición temporal o no) la pertinencia de la información localizada y almacena un registro preliminar en formato «borrador» para que, a continuación, los operadores «humanos» del sistema validen o no los datos recogidos y complementen la metainformación necesaria.

 

Figura 2.

Preferiblemente, Beagle debería poder «aprender» de lo que fuese capturando, de manera que, en función de lo que los inspectores humanos de ExpoFinder decidieran sobre cada elemento recogido, Beagle pudiese acumular experiencia para, ante una información nueva, afinar más el proceso de selección.

Beagle utiliza dos artificios complementarios para «predecir» el grado de adaptación de cada noticia «capturada» a las precondiciones de ExpoFinder[3], ambos de carácter estadístico: un recurso basado en la intersección de un conjunto de palabras clave «positivas» y «negativas», con un peso proporcional asignado, basado a su vez en el algoritmo de ruta más corta de Bellman-Ford[4], y otro de carácter heurístico, que emplea un clasificador bayesiano ingenuo[5] para orientar al inspector durante su tarea de discriminar si una noticia es o no válida. Este último es capaz de mejorar su rendimiento mediante el aprendizaje continuo (cada rechazo o aceptación afinan la «percepción» del sistema).

En las primeras fases, tras unas versiones preliminares basadas en desarrollos propios, no estaba muy claro si se debía optar por el uso de un framework determinado de los muchos que hay disponibles actualmente que cumpliera, entre otros requisitos, el de ser software libre y open source (la filosofía openess es condición sine qua non de este proyecto) o bien probar «algo nuevo», al menos relativamente. Pero pronto una opción pareció la más interesante.

WordPress o WP es un conocidísimo gestor de contenidos (CMS, por sus siglas inglesas) que está excelentemente diseñado. Aunque, en realidad, y de acuerdo con lo expresado por Tom McFarlin en su conocida página “tuts+”, WP es más una foundation (cimiento) que un framework. Y tal vez no ande escaso de razón: un framework consiste en un conjunto de convenciones -como dónde deben guardarse los archivos- así como de bibliotecas y herramientas -pongamos por caso, una capa de abstracción de base de datos- que nos permiten fácilmente comenzar a trabajar en una aplicación. En resumen, proporciona los medios por los cuales una aplicación puede ser construida partiendo de cero, a partir del esquema de base de datos hasta su front-end. Sin embargo, una foundation permite «extender» una aplicación ya existente. WP tiene sus propios mecanismos internos bien definidos, y la foundation simplemente amplía su funcionamiento o lo aprovecha en su propio beneficio. Y eso es lo que terminamos haciendo con WP: aprovechamos la base de datos predefinida, las APIs disponibles y el sistema de plantillas para la visualización de datos con los que construir soluciones usando una aplicación que ya está plenamente funcional. De este modo, para la implementación de Beagle-Expofinder, aprovechamos la base de datos predefinida, las APIs disponibles y el sistema de plantillas para la visualización de datos para construir soluciones usando una aplicación que ya está plenamente funcional.

De hecho, jugando con esta estructura ya se han realizado al menos dos proyectos de envergadura para transformarlo en un modelo lo más universal posible que permita realizar desarrollos sobre él: WP MVC de Tom Benner[6], y Themosis[7], de la agencia creativa belga homónima. En nuestro caso, ambos proyectos, que basan su funcionamiento en implementar un mecanismo MVC (Model, View, Controller), hacían excesivamente complejo el desarrollo y obligaban a «forzar la máquina», teniendo que realizar adaptaciones y modificaciones en el núcleo principal (core) de WP, lo que suponía renunciar a algunas de sus ventajas, que a continuación enumeramos, primero a grandes rasgos y luego más en detalle.

  • Una base de datos con un esquema organizativo flexible y muy sólido.
  • Una capa de aplicación principal con numerosos hooks[8] que permiten aprovechar al máximo su funcionalidad.
  • La facilidad para gestionar tareas en las caras de servidor y cliente, y asumiendo roles de administrador o usuario.

Diseccionando estas virtudes, podemos fijarnos de modo especial en las siguientes particularidades.

  1. Gestión de usuarios. La seguridad no es, en el caso de aplicaciones abiertas a su uso en Internet, un problema menor. WP tiene un módulo de gestión de usuarios excelente, que se encarga de toda la funcionalidad, tal como el registro de usuarios y de inicio de sesión, gestión de roles, asignación de capacidades a diferentes roles y la creación de nuevas soluciones.
  2. Pantallas de administración. ¿Quién no desea disponer de facilidades para poder gestionar la administración de un aplicativo? WP ofrece todo un interfaz, que permite crear páginas propias de configuración personalizada para poder hacer frente a una amplia serie de requisitos.
  3. Funcionamiento CRUD (Create, Read, Update, Delete). Ni que decir tiene el enorme ahorro de «energía programadora» y de tiempo contar con un contratadísimo mecanismo que controla absolutamente todo el proceso de dar de alta, de baja, modificar o leer cualquier registro o conjunto de registros almacenados.
  4. Completísimo juego de funciones internas perfectamente aprovechables. Incluyen desde la gestión de la internacionalización (mediante mecanismos gettex[9]t) a través de un avanzado control i18n hasta la «desinfección» preventiva de textos, bloqueando de esa forma posibles ataques de tipo SQL injection[10] y variantes.
  5. Administración de medios. WP se ocupa de la carga de archivos y la gestión de los medios audiovisuales, incluyendo su securización.
  6. Extensibilidad y escalabilidad. Desde el punto de vista de un desarrollador, extensibilidad y escalabilidad constituyen las dos piedras de toque esenciales para adoptar una decisión sobre la infraestructura o el paradigma a emplear. Todos sabemos que lo que empieza como un pequeño proyecto acaba ampliándose ad infinitum. Su mecanismo API interno, basado en hooks, filtros, preprocesadores y callbacks[11], permiten intervenir en prácticamente cualquier operación que WordPress tenga predefinida.
  7. Enrutamiento de URIs y URLs «SEO friendly». Son características de gran importancia a la hora de optar por una modelización u otra. La trascendencia de enrutar adecuadamente las llamadas a las distintas estructuras de la aplicación es innegable. Por otra parte, la estructura de la URL mediante la cual se identifica un contenido juega un papel muy importante en el mecanismo SEO (Search Engine Optimization), decisivo a la hora de que un proyecto cumpla con las condiciones de la web semántica, y WordPress implementa magníficamente ambas facilidades.
  8. Caching. Si se está buscando una aplicación de alto rendimiento que pueda servir muchas peticiones simultáneas y manejar decenas de miles de usuarios, es necesario disponer de un mecanismo de almacenamiento en caché eficiente pero que no sacrifique la precisión en aras de las prestaciones. WP y su API de transients[12] proporcionan funcionalidad de almacenamiento en caché a nivel de la base de datos que se utilizará en la aplicación.
  9. Plantillas. La presentación o front-end no es un mero adorno. Mediante una peculiar arquitectura MVC, WP dispone de una potentísima mecánica de formateo final de páginas.

Los inconvenientes más destacados pasan por una cierta rigidez estructural si se desea aprovechar la magnífica configuración de los custom post, los metadatos y las taxonomías, jerárquicas o no, que en ocasiones dificulta bastante la posibilidad, por ejemplo, de establecer vocabularios controlados o tesauros. No obstante, tales obstáculos pueden ser considerados menores en comparación con las capacidades de que WP hace gala.

ExpoFinder incluye: a) un mecanismo de control de calidad, identificando las equivocaciones y fallos, y asociándolas con el usuario inspector que las haya producido, a quien le es suministrada una lista de los errores para que pueda realizar las oportunas tareas de corrección; b) una página de mantenimiento, con operaciones internas de «limpieza» y normalización de datos; c) y un sistema de seguimiento y trazabilidad del trabajo realizado por cada operador (que, entre otras cosas, facilita el control del horario de trabajo a los administradores y gestores).

Para concluir, en el momento de escribir este texto, y tras diez meses de funcionamiento en su «encarnación actual», ExpoFinder se encuentra en un grado de finalización del 48,1{d2c84eb7dce5b0a9234ba34539095d636f8dec509fc5ac025aa7d2109304a384}, un 5{d2c84eb7dce5b0a9234ba34539095d636f8dec509fc5ac025aa7d2109304a384} por encima de lo inicialmente planeado para la fecha, con alrededor de 27.600 elementos de información almacena-dos. Si todo continúa al ritmo mantenido hasta ahora, Exhibitium podría alcanzar los objetivos numéricos previstos con tres meses de antelación a la fecha inicialmente planificada.

[1] El inicial análisis de requisitos quedó encomendado a Nuria Rodríguez y María Luisa Bellido, que evaluaron las necesidades de elementos singulares de información. No citaremos ahora en este texto, dada su extensión, la estructura interna de datos y sus relaciones, las taxonomías o niveles de agrupamiento y los vocabularios controlados que se propusieron desde el primer momento utilizar en cada taxonomía –que serán objeto de posts subsiguientes-, si bien sirva como adelanto que todos van referidos a los tesauros desarrollados por el Getty Research Institute y ofrecidos en Internet con condiciones y formatos de tipo Linked Open Data.

[2] Acrónimo de la expresión inglesa Uniform Resource Identifier. Es una cadena de texto que identifica de forma unívoca a cualquier recurso disponible en una red determinada (incluyendo Internet).

[3] Aunque no es este documento lo suficientemente extenso como para exponer en detalle la lista de precondiciones de selec-ción de términos significativos que Beagle emplea para filtrar la información que localiza, sí aclararemos que se trata de una relación «valorada» de lexemas en los idiomas correspondientes a cada fuente localizada, en la que a cada raíz de término se le asigna un «peso» total en el conjunto (entre 1 y 3). Al final se pondera la cifra absoluta de la suma de valores correspondien-te a los términos encontrados con la cifra relativa (referente a la extensión del texto sobre el que se busca) para asignar una evaluación positiva o negativa al conjunto de la información.

[4] El algoritmo Bellman-Ford (o de Bellman-Ford-Moore) calcula las rutas más cortas a partir de un solo vértice fuente a todos los otros vértices en un dígrafo ponderado. Es más lento que el algoritmo de Dijkstra para el mismo problema, pero más versátil, ya que es capaz de trabajar con grafos en los que algunos de los pesos de las aristas son números negativos. De él en ExpoFinder aprovechamos su mecanismo de ponderación, útil para nosotros por cuanto trabajamos con listas de lexemas para palabras que se emplean como marcadores “positivos” o “negativos”.

[5] En terminología de aprendizaje automático, los “bayesianos ingenuos” constituyen una familia de clasificadores probabilísticos simples que se fundamentan en la aplicación de teorema de Bayes basado en la hipótesis de independencia entre variables. Ampliamente estudiado desde la década de 1950, se comenzó a emplear como método taxonomizador capaz de autoop-timizarse desde comienzos de la década siguiente en la comunidad de recuperación de texto. Nosotros utilizamos la frecuen-cia de aparición de un determinado lexema como disparador, de forma que ExpoFinder puede contribuir a la selección semiau-tomatizada de información relevante a partir de la experiencia acumulada al respecto. No es un mecanismo discrimitativo puro, sino una herramienta auxiliar que ha demostrado ser de gran utilidad para los operadores de la aplicación.

[6] http://wpmvc.org/ y https://github.com/tombenner/wp-mvc.

[7] http://framework.themosis.com/.

[8] En la programación de computadoras, el término “hook” abarca una serie de técnicas que se utilizan para alterar o aumentar el comportamiento de un sistema operativo, de las aplicaciones, o de otros componentes de software mediante la interceptación de llamadas a funciones, mensajes o eventos intercambiados entre componentes de software. El código que se encarga de este tipo de función interceptado llamadas, eventos o mensajes se denomina “gancho” o “hook”.

[9] En informática, gettext es un sistema de internacionalización y localización (i18n) comúnmente utilizado para escribir programas multilingües en sistemas operativos tipo Unix. La aplicación más común de gettext es gettext GNU, publicado por el Proyecto GNU en 1995.

[10] La «inyección SQL» es una técnica de inserción de código que se utiliza para atacar aplicaciones basadas en datos, en el que las sentencias SQL maliciosos se insertan en un campo de entrada durante la ejecución de la aplicación (por ejemplo, para volcar el contenido de bases de datos para el atacante).

[11] En programación de ordenadores, una «devolución de llamada» o callback es una pieza de código ejecutable que se pasa como argumento a otro código, que se espera para volver a llamar (ejecutar) el argumento en algún momento conveniente. La invocación puede ser inmediata como en una devolución de llamada síncrona, o puede ocurrir más tarde, como en el caso del mismo mecanismo pero asíncrono.

[12] El API de WordPress para transients (‘transitorios’) ofrece una manera simple y estandarizada de almacenamiento de datos en caché en la base de datos con carácter temporal, asignándole un nombre personalizado y un plazo de tiempo una vez transcurrido el cual caducará y será eliminado.

 

Cultura digital, social turn y perspectiva crítica en el contexto de las Humanidades Digitales

En esta entrada me ocuparé de otro de los factores importantes que definen el proyecto Exhibitium: su dimensión crítica y social.

Exhibitium tiene como marco general de actuación las necesidades detectadas por la Unión Europea en materia de cultura digital, y atiende a su llamada para desplegar infraestructuras tecnológicas, nuevas metodologías de análisis y, al mismo tiempo, nuevas maneras de generación de riqueza de acuerdo con los parámetros definidos en el programa Horizonte 2020. Recordemos que este programa nace de la necesidad de remodelar la economía y la sociedad para adaptarla a los nuevos cambios tecnológicos, y tiene por objetivo último conseguir un crecimiento inclusivo, sostenible e inteligente.  Dentro de este programa, una pieza clave es la llamada Agenda Digital (lanzada en mayo de 2010,  aunque revisada en diciembre de 2012), que está dirigida específicamente a propiciar la plena integración de las instituciones culturales en la era digital y a buscar nuevos modelos de generación de riqueza y desarrollo.  En este sentido, la recomendación de la UE de 2011, que queda integrada en la Agenda Digital, insiste en este aspecto: «Europa debe intervenir urgentemente para obtener los beneficios de la digitalización. Si los Estados miembros no aumentan la inversión en este campo, existe el riesgo de que los beneficios culturales y económicos del cambio digital se materialicen en otros continentes, y no en Europa […] La digitalización de los recursos culturales y la ampliación del acceso a los mismos ofrece enormes oportunidades económicas y es una condición esencial para poder seguir desarrollando las capacidades cultural y creativa de Europa y la presencia de su industria en este campo».

Exhibitium se inscribe en el marco de estos objetivos, pues entre sus finalidades se encuentra  hacer accesible y reutilizable desde múltiples vertientes información digital relativa a exposiciones artísticas, generando, asimismo, nuevo conocimiento, que podrá ser reutilizado para múltiples fines.

Ahora bien, esta apuesta de la Unión Europea y del programa Horizonte 2020 hacia un  auténtico social turn no puede desvincularse de una aproximación crítica al desarrollo de la cultura digital y, en nuestro caso concreto, a los procesos digitales asociados a la cultura artística. En este contexto, espoleadas por el pensamiento crítico y la crítica cultural, desde hace un par de años se vienen consolidando unas nuevas «Humanidades Digitales Críticas». Esta corriente se ha planteado como necesidad urgente revisar tanto las estructuras de poder establecidas como las nuevas que van emergiendo y consolidándose en los procesos digitales de producción de significados, construcción de conocimientos y establecimiento de  dinámicas socio-culturales  (Lothian and Phillips, 2013; Dacos, 2013; Galina, 2013; Fiormonte, 2012; Liu, 2012; Higgin, 2010, GrandJean (2014), Rodríguez Ortega (2014), entre otros).  Así, el campo de las Humanidades Digitales ha tomado consciencia plena de que existe un riesgo real de perpetuar en el mundo digital y en la práctica de la investigación académica digital los mismos problemas de marginalidad y subordinación que caracterizaron nuestro mundo «pre-digital». Un riesgo que en el ámbito de la cultura artística se materializa, entre otras cosas, en la mayor o menor presencia digital de determinados contenidos artístico-culturales; y complementariamente, en la mayor o menor capacidad de actuación digital de las instituciones culturales.

Las Critical Digital Humanities impelen, pues, a pensar cuáles son las nuevas marginalidades que emergen como consecuencia del desarrollo digital, cómo afectan a los procesos culturales y a los procesos de producción y distribución del conocimiento; y al mismo tiempo, a desarrollar dispositivos y estrategias que, además de visibilizar dichas marginalidades, contribuyan a su reequilibrio, aprovechando, justamente, las potencialidades de la tecnología digital y las posibilidades de «empoderamiento» que estas ofrecen. Es por ello, pues, que las Critical Digital Humanities deben empezar a devenir, complementariamente, en unas Social Digital Humanities que intersecten con las Public Humanities (Belfiore and Upchurch, 2013).

Exhibitium se plantea como una apuesta firme hacia ese nuevo horizonte al combinar procesos de producción de conocimiento digital altamente especializados con otros que se orientan a la sociedad y que son susceptibles de provocar reequilibrios sociales, culturales y territoriales. Así, uno de los resultados de este proyecto será el portal GeoWave Exhibitions, que tiene una clara vocación de socialización productiva de los contenidos culturales.  En este sentido, consideramos que Exhibitium tendrá potencialidad para reequilibrar determinadas desigualdades «digitales», en la medida en que hará factible la visibilidad, a igual nivel, de todas las exposiciones temporales registradas, independientemente de su localización geográfica, y de la naturaleza o potencia mediática de los centros organizadores. Esto implica que Exhibitium podrá poner literalmente en el mapa exposiciones que, sin dejar de tener interés y calidad histórico-artística, científico-académica y museográfica, se circunscriben a contextos secundarios cuando no marginales. Asimismo, revelará las desigualdades existentes entre las instituciones culturales por lo que a presencia y relevancia digital se refiere, precisando qué parámetros inciden en estos desequilibrios y qué territorios se ven afectados

Una investigación previa realizada por iArtHis_Lab mostró las evidentes desigualdades existentes entre los grandes centros metropolitanos y los pequeños centros locales  en la comunidad autónoma de Andalucía. Entre los resultados preliminares obtuvimos el siguiente mapa térmico: como puede apreciarse, los centros «calientes» coinciden con las capitales de provincia, centro nuclear de las instituciones culturales más relevantes, mientras que en su entorno emerge una clara periferia caracterizada por una precaria y poco efectiva presencia digital, con independencia del interés patrimonial o cultural que puedan tener los centros analizados (Cruces y Polo, 2013).  Si esta perspectiva la examinamos desde el punto de vista de las dinámicas del turismo cultural, resulta evidente que en una Comunidad Autónoma donde buena parte de su PIB deriva del turismo, esta situación contribuye a establecer desiguales desarrollos económicos y sociales en el territorio.

Nuria Rodríguez Ortega

Bibliografía citada

Belfiore, Eleonora and Upchurch, Anna (2013), Humanities in the Twenty-First Century: Beyond Utility and Markets, Palgrave Macmillan.

Cruces Rodríguez, Antonio y Tenor Polo, Carmen (2013), «Análisis de la presencia de los museos andaluces en la Red. Consideraciones», en Historia del Arte, computación y medios digitales en España. ¿Dónde estamos, hacia dónde vamos?,  III Workshop Internacional sobre Historia del Arte Digital, Universidad de Málaga, Málaga, 20-22 de junio de 2013. En: http://historiadelartemalaga.es/seminarios/workshop/#home

Dacos, Marin (2013), «La stratégie du Sauna finlandais», in Blogo Numericus, mayo 2013. Disponible en: http://blog.homo-numericus.net/article11138.html.

Fiormonte, Domenico (2012), «Towards a Cultural Critique of Digital Humanities», Historical Social Research – Historische Sozialforschung, Special Issue, no. 141, HSR vol.37 (2), pp. 59-76. Disponible en: http://www.cceh.uni-koeln.de/files/Fiormonte_final.pdf.

Galina, Isabel (2013), «Is There Anybody Out There?  Building a global Digital Humanities community». Keynote speech. Digital Humanities Annual Conference, Nebraska (EE.UU). Disponible en: http://humanidadesdigitales.net/blog/2013/07/19/is-there-anybody-out-there-building-a-global-digital-humanities-community/

Higgin, Tanner (2010), «Cultural Politics, Critique and Digital Humanities», en Gaming the System, 25 mayo de 2010. Disponible en: http://www.tannerhiggin.com/cultural-politics-critique-and-the-digital-humanities/.

Liu, Alan (2012), «What is Cultural Criticism in the Digital Humanities?», en Mathew K. Gold (ed.), Debates in the Digital Humanities, University of Minnesota Press. Disponible en:  http://dhdebates.gc.cuny.edu/debates/text/20.

Lothian, Alexis and Amanda Phillips (2013),  «Can Digital Humanities Mean Transformative Critique»,  Journal of E-Media Studies, 3.1.

Rodríguez Ortega, Nuria (2014), «Humanidades Digitales y Pensamiento crítico», en Esteban Romero Frías y  María Sánchez, Ciencias Sociales y Humanidades Digitales Técnicas, herramientas y experiencias de e-Research e investigación en colaboración, CAC, Cuadernos Artesanos de Comunicación, 61. Disponible en: http://www.cuadernosartesanos.org/2014/cac61.pdf

Teorías de redes y análisis de datos

Nuestra propuesta emerge de la convergencia de una serie de parámetros intelectuales, desarrollos tecnológicos y requerimientos sociales que en su conjunto inciden en una reconsideración tanto de las lógicas de funcionamiento de los fenómenos culturales como del conocimiento «aplicable» que de ellos se puede extraer. Estos parámetros definen el modo como se configura nuestro proyecto en el contexto general del pensamiento contemporáneo, la cultura digital y los retos sociales del siglo XXI. En este post nos referiremos a las teorías de redes y análisis de datos, pues este es el marco teórico y metodológico en el que se inscribe el proyecto Exhibitium.

Las teorías de redes analizan los fenómenos culturales como productos de las interacciones establecidas entre distintos actantes, interacciones que dan lugar a un sistema cambiante de redes y subredes complejas. Los análisis de redes culturales se presentan como una metodología rigurosa y sistemática que busca la construcción de «modelos» culturales a través de los cuales se definen las prácticas sociales y los modos de comportamiento de los grupos, organizaciones o sociedades. Los modelos culturales derivados del análisis de redes se representan gráficamente como un red de conceptos, creencias y valores culturalmente compartidos, que tienen una especial influencia en las decisiones clave que se adoptan en un contexto particular (Sieck, Rasmussen and Smart, 2010). El análisis de redes, pues, registra, los cambios que se producen en estas relaciones según un parámetro espacio-temporal, y analiza de qué modo estos cambios se correlacionan con las prácticas socioculturales de individuos y comunidades. Así pues, los análisis de redes tienen un valor descriptivo-interpretativo, pues nos permiten conocer mejor –e incluso formalizar- cómo se «modelan» las interacciones sociales y culturales a partir de las cuales se da la producción de significados; pero también poseen un valor prospectivo, en tanto en cuanto son susceptibles de revelar tendencias y patrones de comportamiento.

Bruno Latour

En este contexto, la teoría del Actor-Red de Bruno Latour (Actor-Network Theory o ANT, últimamente rebautizada como la ontología del actante-rizoma), que es la base teórica fundamental que define nuestra aproximación a las exposiciones artísticas, agrega un punto de vista sumamente interesante. La Teoría de Actor-Red emerge como una teoría sociológica sobre la Ciencia y la Tecnología (Latour, 1983) que describe la generación del conocimiento como el resultado de las relaciones que se establecen entre actores. Estos actores, según Latour, pueden ser humanos (ej.: científicos, tecnólogos, gestores, editores, etc.) y no humanos (centros de investigación, revistas, descriptores, patentes, etc.). Al considerar que los actores de una red pueden ser de cualquier naturaleza, se establece una especie de ontología plana en la que no se establecen jerarquías. Desde este punto de vista, la red deja de configurarse en función de las interacciones establecidas entre individuos o comunidades según el planteamiento dicotómico sujeto/objeto, actor/sistema; por el contrario, todos los actores de la red actúan como «mediadores» que generan modificaciones dando lugar a redefiniciones continuas.

La Teoría del Actor-Red ha mostrado ser muy útil para describir las complejas relaciones que se establecen en las redes de la tecnociencia (Echevarría & González, 2009), pero también se está utilizando para refundar el pensamiento en su globalidad (Latour, 2005; Bogost, 2012, entre otros). Pese a las complejidades que en sí misma tiene esta teoría, que en algunos casos parece poder resolverse únicamente en el terreno de la especulación intelectual, su lógica también puede aplicarse a casos concretos para modelar, analizar y comprender los fenómenos culturales como conjunto de interacciones complejas en el que actores heterogéneos se redefinen continuamente.

Así pues, llevado a nuestro objeto de investigación, podemos decir que las exposiciones artísticas temporales, en cuanto productos culturales generadores de significados (cultural, social, político, simbólico), son el resultado de una serie de relaciones establecidas entre actores-mediadores (humanos y no humanos) que están en continuo proceso de redefinición. Nuestra investigación, por tanto, está guiada por las siguientes preguntas: ¿Cuáles son los actores que forman parte del fenómeno «exposiciones artísticas temporales»? ¿Cuál es su origen? ¿Cómo se conectan e interactúan entre sí? ¿Cómo afecta la redefinición de las redes a la producción de significados? ¿De qué modo estas redes (actores y relaciones) se mantienen (estabilidad) o cambian (dinamismo) en la variable geo-temporal?

Al concepto de redes complejas ha de unirse otros dos conceptos clave que operan en el establecimiento de un nuevo paradigma de análisis: la escala y la complejidad. El cambio de escala operado por los sistemas computacionales de extracción y procesamiento de datos, así como por los modelos de visualización y mapping, nos permiten obtener ahora una fotografía exhaustiva de determinados fenómenos. Este cambio de perspectiva, hacia lo global y exhaustivo, es lo que Franco Moretti (2005, 2013) ha denominado el paso del close reading, la base hasta ahora de los estudios humanísticos (análisis de un conjunto como representativo de hechos o elementos cuyos resultados se extrapolan a la interpretación del conjunto global) al distant reading (análisis del conjunto total). Lo interesante de esta aproximación es que nos permite una perspectiva multiescala: es decir, que al mismo tiempo que nos ofrece una visión general de cómo se desenvuelven y configuran los fenómenos culturales, también nos permite focalizar en aspectos singulares e individuales, incluso en aquellos que pasan desapercibidos a las lecturas historiográficas tradicionales al no formar parte del mainstream, pero que, sin embargo, ahora pueden visibilizarse gracias a las potencialidades del data mining para extraer datos de los repositorios y conectarlos entre sí mediante algoritmos complejos. Este enfoque multiescala nos permite, pues, analizar un fenómeno desde su globalidad, pero sin perder la atención en los hechos singulares, locales, individuales y/o «marginales».

La combinación de tecnologías de data mining, network analysis, KDD (Knowledge Discovery in Databases) e interpretación de grafos se ha mostrado como un potente instrumento para el análisis de determinadas sistemas de redes y subredes, popularizándose para el estudio de diversos fenómenos culturales y sociales (Scott and Carrignton, 2011).

Nuria Rodríguez Ortega

Bibliografía citada

Bogost, Ian (2012), Alien Phenomenology, or what it’s like to be a thing (posthumanities), University of Minnesota Press.

Echevarría, J. y González, M. I. (2009), «La Teoría del Actor-Red y la tesis de la Tecnociencia»,  Arbor Ciencia, Pensamiento y Cultura, n. 738, pp. 705-720.

Latour, B. (1983), «Give me a Laboratory and I Will Raise the World», en Knorr-Cetina, K. and  Mulkay, M., Science observed: Perspectives on the Social Study of Science, London: Sage.

Latour, B. (2005), Reassembling the Social: An Introduction to Actor-Network-Theory, Oxford and New York: Oxford University Press.

Moretti, F. (2005), Graphs, maps, trees: abstract models for Literary History, New York: Verso Books.

Moretti, F. (2013), Distant reading, New York: VersoBooks.

Scott, J. and Carrington, P. J. (eds.) (2011), The Sage Handbook of Social Network Analysis, Los Angeles: Sage.

Sieck, W. R., Rasmussen, L. J., & Smart, P. (2010), «Cultural Network Analysis: A Cognitive Approach to Cultural Modeling», en Verma, D. (ed.), Network Science for Military Coalition Operations: Information Extraction and Interactions, Hershey, PA: IGI Global, pp. 237-255.

iArtHis_Lab y las estrategias de análisis basadas en tecnologías computacionales

El grupo de investigación iArtHis_Lab explora las posibilidades de las estrategias de análisis basadas en tecnologías computacionales para analizar y visualizar de manera dinámica la configuración de determinados fenómenos culturales y sociocognitivos de la sociedad contemporánea, generando, con ello, un conocimiento inédito reutilizable por diversos agentes y sectores, incluido su aprovechamiento social y su transferencia al sector productivo. En el marco concreto de esta contexto de investigación, el proyecto Exhibitium centra su atención en el fenómeno de las exposiciones artísticas que llevan a cabo regularmente las galerías, museos y centros de arte, analizándolas en su condición de fenómenos culturales complejos que resultan del establecimiento de una serie de relaciones entre determinados actores, pero también en cuanto factores estratégicos en la generación de dinámicas sociales y movimientos económicos.

¿Qué nos puede aportar el análisis de las exposiciones artísticas temporales? Las exposiciones son generadoras de un conjunto muy heterogéneo y diverso de datos, algunos explícitos o fácilmente visibles a través de análisis cuantitativos: datos demográficos relativos a los visitantes; los flujos intra- y transnacionales de públicos; las corrientes dominantes en los procesos de exhibición artística; datos relativos a la mayor o menor presencia de determinados artistas y corrientes artísticas según los diversos contextos geoespaciales… Otros son más difíciles de visualizar, y requieren análisis específicos que interconecten entre sí múltiples variables para poder determinar patrones de comportamiento y dinámicas culturales complejas, cuyo conocimiento resulta sumamente interesante tanto desde el epunto de vista interprativo-crítico como prospectivo-estratégico.

La situación actual nos ofrece un escenario propicio para analizar estos datos: en primer lugar, porque un buen número de lo que podríamos denominar datos crudos se encuentran disponibles en la red a través de la propia publicación y difusión digital que realizan las instituciones (museos, centros de arte, galerías), por lo que son susceptibles de ser capturados y compilados de manera automatizada mediante sistemas de vigilancia tecnológica. En segundo lugar, porque el desarrollo de tecnologías específicas asociadas a la ingeniería del conocimiento (KE) y al procesamiento computacional de datos a gran escala (data mining) nos permiten analizarlos desde distintas perspectivas (resultados estadístico-cuantitativos, configuración y funcionamiento de redes (network analysis), distribuciones geoespaciales, etc.), lo que hace posible que con un mismo conjunto de datos bien estructurado (dataset) podamos obtener resultados diversos para distintos finos.

Pues bien, nuestra propuesta se basa en la conjugación de una serie de tecnologías computacionales y de metodologías de análisis derivadas de la vigilancia tecnológica, el análisis de redes y las estrategias de KDD (Knowledge Discovery in Databases), que nos van a permitir capturar, registrar, estructurar y procesar de una manera significativa estos datos; y extraer conocimiento inédito basado en parámetros cuantitativos y cualitativos (redes, clusters y patrones) para hacerlos útiles y reutilizables, mediante sistemas de datos abiertos e interoperables.

El grupo iArthis_Lab obtuvo el premio spin-off de la Fundación Santander Universidad a la mejor idea de empresa tecnológica orientada al sector cultural en la convocatoria 2013 de premios spin-off de la Universidad de Málaga. El objetivo de la idea de empresa era hacer aprovechables para el sector cultural la investigación desarrollada por iArtHis_Lab. Este premio ha dado lugar a la constitución de la spin-off Culturacy, S.L.