Author Archives: Emilio Lorenzo

Open Repositories 2019, Hamburgo

La conferencia anual Open Repositories, (OR2019, #OpenRepo2019) , se celebró este año hospedada por la Universität Hamburg (que cumplía su primer centenario) y como cada vez que podemos, acudimos a esta reunión de profesionales de los repositorios, ciencia abierta y disciplinas conectadas.

Del 10 al 13 de junio se celebraron un ingente número de workshops, paneles, presentaciones, reuniones de desarrolladores, presentaciones 24*7 workshops y posters (entre 300 y 400 actividades¡¡¡). Un sinvivir agotador.

Asistimos -evidentemente las cabras tiran al monte- a todo lo que pudimos sobre el eje de Dspace 7, que ya en pasadas conferencias había ido cogiendo impulso, pero que en el OR2019, explotó. Hasta 25 actividades contamos, principalmente de la esperada versión 7, pero también con presencia de Dspace 6. Hubo de todo: presentaciones introductorias, actividades de promoción, talleres de manejo de las nuevas interfaces, uso de docker, proyectos como el interesante desarrollo de GLAMpipe u otros… Un mes después de regresar de Hamburgo aún estamos elaborando lo visto y escuchado.

En el ir y venir entre salas de conferencia, nos desviamos para atender a (casi) todo lo que se dijo sobre los nuevos servicios OpenAIRE. Además de un workshop de un día completo de duración impartido por una buena parte del equipo de OpenAIRE (buena elección del comité del congreso), hubo comunicaciones específicas sobre el Dashboard, así como sobre su nueva política de adquisición de contenidos. Muy ilustrativo.

Y para los que nos conocéis, sabéis que intentamos aportar alguna experiencia a los congresos que asistimos. En esta ocasión, por partida doble. En primer lugar, una presentación del proyecto «DSpace-ORCID integration: name authority control solution at the European University Institute» que las responsables del repositorio Cadmus hicieron de una compleja integración que realizamos el año pasado. El vídeo se encuentra disponible aquí

Y en segundo lugar, presentamos conjuntamente con los responsables del repositorio de la Universidad de Huelva, el póster «Adapting repositories to OpenAire 4 Guidelines: Huelva repository, a case study«. El texto e imagen sobre esta adaptación tempranera, lo podéis ver en http://eprints.rclis.org/38797/.

Magnífica edición del Open Repositories¡¡¡

Extracción automática de términos MeSH-DeCS en repositorios de ciencias de la salud: el caso de RUNA

En las jornadas Bibliosalud 2019, (Hospital Universitario Central de Asturias, 4 y 5 de Abril de 2019) presentamos un póster, realizado conjuntamente con Carmen Rodríguez Otero de Bibliosaúde-Biblioteca Virtual do Sistema Sanitario Público de Galicia, sobre los sistemas de extracción automatizada de palabras clave aplicados a repositorios temáticos.

Sigue el texto explicativo y extendido del póster. (También disponible en http://eprints.rclis.org/34448/)

Introducción

Para administrar y mejorar las búsquedas en la literatura biomédica, la Biblioteca Nacional de Medicina de EE.UU. (NLM®) desarrolló el vocabulario controlado Medical Subject Heading (MeSH). La clasificación temática basada en vocabularios se ha identificado como uno de los factores principales en las estrategias de búsqueda y recuperación de documentos.

Desafortunadamente, dada su naturaleza especializada, la asignación manual de términos MeSH a artículos biomédicos es una tarea compleja, subjetiva y que requiere mucho tiempo, por lo que los sistemas de extracción automatizada de palabras clave (AKE) se convierten en soluciones evidentes para su incorporación a sistemas que necesitan describir y manejar miles de documentos, como son los repositorios.

En el póster se muestra la solución incorporada en el repositorio RUNA, repositorio institucional del Sistema Público de Salud de Galicia para facilitar la clasificación temática sobre vocabularios temáticos (MeSH-DeCS).

Se describe de forma específica el sistema de extracción automatica de términos de documentos y cómo se ha integrado dicha solución en el flujo de archivo de documentos en el repositorio para posibilitar el complemento por catalogadores expertos y así mejorar la calidad de la descripción temática efectuada.

Metodología
El sistema construido se integra en el flujo de autoarchivo de los documentos del repositorio, con el fin de unir las ventajas del procesamiento automático con la existencia de un experto que realice la selección de los términos efectivamente usados. En este sentido el subsistema extractor automatizado se visiona como un pre-tratamiento del documento que propone términos de clasificación, que deberán luego ser validados y rechazados por el usuario experto del repositorio.

En primer lugar el documento, normalmente en formato PDF o en formatos tipo WORD, etc.. , es convertido a formato simple textual (txt). Este paso del proceso no sirve únicamente para normalizar la entrada documental al sistema extractor sino que el fichero transformado es usado también por el indexador a texto completo del repositorio RUNA.

A partir de ese fichero «simple» se realiza una primera selección de términos candidatos, con extracción de todas de las frases, palabras, términos y conceptos susceptibles de ser descriptores.

Sigue un proceso de puntuación y selección de términos. Todos los términos candidatos son puntuados combinando las propiedades de los términos (p.ej, su pertenencia al título del documento) con tecnicas de aprendizaje-máquina (machine learning techniques) para determinar la probabilidad de que un elemento sea un término clave. El sistema está configurado para proponer, a la finalización de este proceso un número determinado de términos. En la implementación específica que se ha realizado del motor de extracción, los elementos extraídos deben pertenecer al vocabulario MeSH-DeCS.

Los elementos extraídos se presentan al personal catalogador que en base a su experiencia puede aceptarlos, rechazarlos o añadir nuevos términos, como en un proceso normal de flujo de ingesta al repositorio, finalizando así el proceso de aceptación del documento en RUNA.

Como aspecto complementario, el sistema se inicializa mediante el suministro de un número suficiente de documentos, a modo de corpus, y sus correspondientes metadataciones temáticas realizadas por un experto. El motor de extracción realiza un primer ajuste de las probabilidades de los términos, efectuando así su aprendizaje inicial.

Igualmente, aunque no se ha implementado aún en RUNA, el flujo continuo de las selecciones, revisiones y aprobaciones efectuadas por el personal catalogador pueden ser usados para realimentar el motor de extracción, evolucionando las probabilidades asignadas a cada término y mejorando así la calidad de las propuestas automáticas.

La solución descrita, además del software Dspace del repositorio RUNA, se basa en Maui, un extractor de software libre (licencia GPL). Maui es el acrónimo de Multi-purpose automatic topic indexing, Indexador de tópicos automático y multi-propósito, un software diseñado por la doctora Alyona Medelyan

El núcleo de Maui es el sistema de aprendizaje-máquina denominado WEKA, que a su vez incorpora el algoritmo KEA de extracción de palabras clave.

Resultados y Conclusiones
El sistema construido automatiza la extracción, descripción e indexado de términos tópicos sobre los documentos incorporados al repositorio RUNA. Además de efectuar una extracción automática, permite que el personal experto en catalogación seleccione (y añada/corrija si así lo considera) los términos MeSH-DeCS mas adecuados, mejorando así la calidad y precisión de la catalogación del documento.

Los sistemas de extracción automática de palabras clave pueden considerarse un complemento que facilite de manera eficiente la precisión de la catalogación temática de los documentos incorporados a los repositorios temáticos.

Proceso de extracción

¿y cómo es realmente el proceso de implantar DSpace?

Una pregunta recurrente en organizaciones que se están planteando la instalación de un repositorio institucional es qué pasos dar.  Ya hace muchos años que el   Manual LEADIRS II. Cómo crear un Repositorio Institucional, nos orientaba sobre todas las consideraciones a tener en cuenta a la hora de acometer un proyecto de este estilo, pero queríamos dar una visión más concisa basada en nuestra experiencia con muchos de ustedes.

Un aspecto principal a tener en cuenta en una implantación de Dspace es que los requisitos afloran muy progresivamente en la vida del proyecto, según los usuarios van ajustando y trasladando los  modelos mentales conceptuales y las necesidades de la organización en requisitos y funcionalidades Dspace.  Por esto desaconsejamos un modelo tradicional de toma de requisitos–> documento de requisitos–> desarrollo–> implantación… Mas bien el modelo sería iterativo, con una primera fase para cubrir los requisitos que ya se hayan explicitado y uno o varios ciclos posteriores para llevar el repositorio a puntos posteriores de adaptación a las necesidades de la institución…

Así, un plan constará de una fase inicial de toma de requisitos, incepción, en donde se identifican los parámetros principales de la instalación: equipamiento disponible hw/sw,  tipo de objetos, estructura general de grupos-autorizaciones, origen de contenidos, necesidades de migración de contenidos,  estructura de colecciones, interfaces con otros aplicativos, necesidades de recolección (harvesting) de/desde, integración con sistemas de autenticación, licenciamiento, gestión de derechos, y alguna cosa más… Parece mucho, pero en realidad es una fase bastante ligera…

En este punto se está en condiciones de construir y configurar una instalación base, comprobando que los aspectos técnicos se cumplen. Si no se requieren desarrollos, en un plazo breve se debería tener una instancia DSpace razonablemente operativa. Además, se aprovecha para identificar y dimensionar, si acaso, los posibles desarrollos a efectuar.

En paralelo se trabaja en configurar/parametrizar la estructura lógica de Dspace, mediante una serie de ciclos de evolución de colecciones, usuarios, metadatos, etc….  Nuestra experiencia nos dice que los usuarios agotan todo el tiempo disponible, y más, pero si la estructura de las colecciones es simple (colección:  entendida como el conjunto de especificaciones de objetos-metadatos-permisos-pantallas de envío y de revisión)  o la tenéis ya pensada, pues se puede hacer razonablemente rápido.  No es intensivo en trabajo, pero podría dar lugar a períodos de implantación largos. Esa es la mala noticia. La buena es que por lo general no forma parte del camino crítico de una puesta en producción, ya que las actividades de ajuste «fino» se pueden hacer tras la puesta en producción, si así se determina…

Cuando el paso anterior está al 80%… ya se podría proceder a la carga inicial de contenidos, si existen, puesto que aportarán un valor inmediato a los usuarios. La carga de datos en general da problemas, porque se aprovecha para hacer revisión del material existente, complementar metadatos, etc… Señalaremos que al ser un proceso ad-hoc (aunque Dspace tenga herramientas específicas) pues siempre hay que inventar o reinventar algo.

En cuanto a cambiar la apariencia o look&feel, aspecto siempre recomendable, siempre se va mas rápido si nos adherimos  al libro de estilo intitucional…si no, pues habrá que acometer un diseño especifico…

Y ya se está listo para salir en producción (y listos para acometer otras fases de evolución y crecimiento del repositorio), aunque antes hay que proceder a aprender y formar y divulgar internamente… como casi cualquier proyecto complejo.