Introducción

La perspectiva que se tiene sobre el uso de los metadatos es multidimensional. Hay un universo de esquemas y normas que responde a formas particulares de tratar los datos de los recursos de información digital para que sean visibles en las redes y los sistemas de información. De ahí que cada disciplina procure conservar sus métodos y prácticas pero a su vez acepte que sus datos puedan analizarse desde diferentes campos.

Detrás del concepto “uso de los metadatos”, existen definiciones muy diversas, incluso contrapuestas, que permiten superar la tentación de una ciencia o disciplina reina o arquetípica —la Bibliotecología y los Estudios de la Información en nuestro caso— al ser abordadas desde una visión multidisciplinaria, y pasar a un modelo donde las distintas disciplinas planifican sus recursos, necesidades y medios para ser articuladas interdisciplinariamente.

El uso de los metadatos se vuelve difícil de comprender en cada campo disciplinar principalmente por dos razones. La primera de ellas es que la práctica de la catalogación desarrollada en la Bibliotecología ha creado metadatos desde hace muchos años, lo que ha provocado el surgimiento de varias estructuras para la descripción y representación de la información. La segunda es que los metadatos emiten teorías al interior de cada comunidad, las cuales cumplen con sus propósitos de construcción.

La multidisciplina da razón al saber sobre lo concreto de un problema, como el que nos reúne en esta ocasión, los metadatos. Desde que aparecieron éstos en la Bibliotecología, se consideraron como referentes para la descripción de los recursos de información, así como los servicios que potencialmente se ofrecen a los usuarios. De ahí que su fin principal sea facilitar la identificación, localización, recuperación, manipulación y uso de los datos contenidos en los recursos de información.

Las características que tienen los metadatos son muy variadas, van desde su concepción como estándares integradores de información, hasta la configuración de estructuras interoperables de datos con identificadores propios, éstos últimos definidos por la adopción del lenguaje de marcado. Es decir, quien haya aprendido y aplicado alguna estructura de metadatos, reconocerá que por natural que parezca su aplicación, éstos nos dirigen a un mismo propósito: sistematizar los datos de los recursos de información.

El enfoque simplista que diversas disciplinas tienen respecto a los metadatos propicia que se vea solamente su alcance utilitario más que su fundamentación teórico-conceptual, por esto es que la investigación sobre los metadatos, aparentemente, transita de manera pausada. Sin embargo, la realidad advierte que el uso de los metadatos está siendo más favorecida porque se requiere de contar con descripciones más cercanas a los usuarios como lo señala el creador de la web semántica, Tim Berners Lee, quien refiere que los metadatos son piezas fundamentales para la organización-recuperación de información y sus ámbitos de acciones son tan numerosos que incluyen, entre otros, las redes sociales, las colecciones digitales y las tareas afines de colaboración e interoperabilidad de las comunidades, por ejemplo, la bibliotecaria, archivística y museográfica.

Esta obra se forma a partir de las reflexiones recogidas del Seminario de Investigación sobre Metadatos y el esfuerzo colectivo de distintos investigadores y especialistas en Bibliotecología, documentación, educación, ciencias políticas, periodismo, entre otras áreas, cuyo marco de discusión fue analizar los aspectos conceptuales, teóricos y metodológicos sobre el uso de los metadatos desde una perspectiva multidisciplinaria.

La composición temática seleccionada para esta obra probablemente sea limitada para varios lectores cuando se tiene en mente un interés en particular o alguna necesidad específica de información. Pero la intensión que se busca es que el lector no pierda de vista que el asunto de los metadatos es más que el referente primario del que se tiene respecto a la tesis de “datos acerca de datos”.

De ahí que la obra se constituya en cinco partes. La parte 1 inicia con documentos relacionados con el modelado, las estructuras y pautas sobre el uso de los metadatos y la forma en que diversos especialistas y equipos multidisciplinarios interpretan las directrices para crear o actualizar un esquema de metadatos.

La parte 2 continúa con dos trabajos que se enfocan al estudio del usuario, consumidor y prosumidor de información desde la perspectiva de la gestión del patrimonio mundial digital y los alcances que tiene la interoperabilidad global en las comunidades bibliotecaria, museográfica y archivística, y deja de manifiesto que debe defenderse el libre uso de los metadatos y estándares comunes con el fin de impulsar el patrimonio cultural al alcance de todos.

Las investigaciones relacionadas con el gobierno abierto y ciudadanía que constituyen la parte 3, donde se trazan los argumentos referentes a las diversas iniciativas que el gobierno abierto ha puesto a disposición de los ciudadanos con relación a los procesos de rendición de cuentas y los canales para hacer un gobierno más participativo que responde a las demandas del ciudadano. Además, se deja en claro que las formas sistemáticas y automáticas para la extracción de datos son las mejores prácticas en la descripción de los documentos oficiales.

La cultura digital y los medios sociales, temas de la parte 4, invita a que el profesional dedicado al trabajo con metadatos reflexione sobre los nuevos retos y cambios en su perfil, ya que el etiquetado de la información está siendo la práctica común para establecer la relación entre el usuario, la información y los metadatos.

Las tres investigaciones que constituyen la parte 5 de la obra cubren específicamente el asunto de la educación a distancia con el firme propósito de dar a conocer las modalidades actuales y futuras del proceso de enseñanza-aprendizaje, el cual no sólo permite el acceso a la información, sino que inclusive genera conocimiento nuevo.

Las contribuciones reunidas en esta edición, de diferente manera, favorecen a la composición temática y líneas de acción para que los integrantes del Seminario de Investigación sobre Metadatos que se desarrolla en el Instituto de Investigaciones Bibliotecológicas y de la Información de la unam y aquellos interesados en el tema, continúen investigando respecto al objetivo, proceso, prácticas, productos y servicios relacionados con la tesis de “datos acerca de datos”.

Queremos agradecer a todos los que de manera directa e indirecta permitieron la culminación de este proyecto, especialmente a la doctora Georgina Araceli Torres Vargas, directora del iibi, al personal del Instituto y a los miembros del Seminario de Investigación sobre Metadatos por impulsar y ver culminado el trabajo de muchas semanas. A todos, gracias por su colaboración y participación.

Ariel Alejandro Rodríguez García

Raúl Ariel González Castillo

Modelos, estructuras y pautas de los metadatos

Sound Archives, Metadata
and New Web Technologies

josephine simonnot

Centre de Recherche en Ethnomusicologie (crem)

Université Paris 10, France

Introduction

In this paper, I present my experience to preserve, manage and disseminate a cultural heritage: Les Archives Sonores du cnrs-Musée de l’Homme, France, because, in order to keep alive this common world heritage, it must not disappear, and it must be accessible by the specialists and also shared with a large community of users to be enriched for the future generations.

Those archives are supported by the French National Research Center (cnrs), the National Museum of Natural History, the Paris 10 University and the Culture Ministry. Its history follows many steps: it begun with the Trocadéro Ethnographic Museum and goes on with the Musée de l’Homme in 1937, under the direction of André Schaeffner. The Ethnomusicology Department, with his successor Gilbert Rouget, established a research team in 1968, in order to improve the research on music and sound. The aim was also to go on the dissemination with the discographic publication.1 The other main objective was to preserve this traditional heritage for the next generations. Since the beginning, Gilbert Rouget was convinced that it’s important to disseminate this musical diversity and share the knowledge of this world. Publishing books was not enough to understand the musical phenomenon.

To illustrate the history and diversity of the collections deposi-
ted during one century, we listened the oldest recording of our sound archives from Mexico wa cylinder around 1932, a woman song: http:
//archives.crem-cnrs.fr/archives/items/CNRSMH_I_1939_001_002_
01/. And a young Mexican Lacandon boy song (“levent”) recor-
ded on the first magnetic tape of our Mexican colletions before 1953: http://archives.crem-cnrs.fr/archives/items/CNRSMH_I_1953
_005_001_03/.

The collections content about 5000 published records of traditional music and fields recordings (grabaciones de campo). Today, the database contents more than 60 000 items to inform the various recordings (42 000 from fields recordings).

For many years, we started a long process of digitization: first on cd-r, later on hard disc and now on the server of the National Infrastructure Huma-num, the service for humanities research and cultural data in France. http://www.huma-num.fr.

The Bibliothéque Nationale of France (bnf) continues the digitisation and we hope to finish it in 4 or 5 years. It consumes a lot of time because it is necessary to segment the sound files to have an easy access to the content. The treatment of the metadata is also a long process. For example, we can see on this paper document the description done in 1975 in the old catalogue with ethnographic and musical information:

Figure 1. Aurore Monod Becquelin archives item, Bachajon,
Mexico, 1973. Source: CREM-LESC, CNRS.2
Figura 1

Sometimes, we don’t have any information, only some notes on the original box tapes. But the priority is to share the audio document to facilitate the identification of the content.

So, how to give access to this documents, both audio and text? How to play audio on line and navigate inside the sound file? How to preserve data for long term? How to manage the database daily changing and to manage the access according to the intellectual property?

For many years, one of cnrs’s objectives has been to improve access and to facilitate data sharing to the entire academic community. We do this through a toolbox of open source software’s (HumaNum service). In anthropology, ethnomusicology and linguistics, researchers work on multiple kinds of documents such as sound recordings. The need to preserve and to easily access, visualize and annotate these materials is problematic because of their diverse formats, contents and the increasing quantity of data. With new audio technologies, questions linked to the preservation, the archiving and the availability of these audio materials have arisen. Since 2007, French ethnomusicologists and engineers have joined their efforts to develop a collaborative web platform for managing and improve access to digitized sound archives. This platform, an open-source web audio cms dedicated to digital sound archives (Telemeta3 ), is developed through the expertise of the Parisson/Start up. Its architecture is associated with Time Side,4 an open-source audio processing framework written in Python and JavaScript languages, which provides decoding, encoding and streaming capabilities together with an embeddable html audio player. Consequently, this cms is able to produce visualization, annotation, segmentation, etcetera.

This tool allows to work on archives and to disseminate the sound collaboratively. A prototype started with the metadata integration in a mysql database. It started with a prototype on line and the integration of a mysql database to manage only metadata. It was yet a great improvement because we could browse the catalogue and create new metadata on line! The Telemeta platform launches in 2011 with 7000 sound files.

Figure 2. Telemeta architecture, formats. Source: Parisson.
Figura 2a Figura 2b

Telemeta is a web content system to manage a database and the audio files (streaming player, graphic view, compression).

Each database has specific needs. An adapted research engine is required to have an easy access to the data: location, population, musical instrument, physical support, etc.

The first step was to describe the content with a structured model and create a specific form to organize the metadata. The collection form contents many fields: numbers, text, tables for ontologies. The next step in 2016-2017 will be to include authorities for personal names. For the interoperability, we must do the relation of the main metadata with the Dublin Core model so the database can be harvested by other web portals.

The catalogue is organized with four levels and you can group the collections as you wish. Items are grouped in collections, collections are grouped in corpus, and corpus are grouped in Funds. These Funds level describe mainly the works of a collector and propose a list of the different corpus of this person.

In the corpus level, you can see the collections, digitized or not digitized. The archivist can put markers on the sound files to show where the sound engineer should do the segmentation. The specificity of this tool is the possibility to add markers on the timeline as well as notes on the sound file. The annotation is possible if you have a user account and they are available to everybody with the author of the notes. The spectral view is processed by the Time Side engine and offers another visualization of the content. You can copy the i-frame link to imbed the player in your website. It is not necessary to download the sound file and in fact, it is not allowed without permission. Interoperability is possible thanks to the Dublin Core and oai-pmh protocol. For example: http://www.rechercheisidore.fr. A best practice guide is on line: http://www.hu
ma-um.fr/ressources/guides

Since the platform is launched, the database increase regularly and we have today more than 40 000 sound files on line, which 24 000 are on free access. And 2000 more visitors than before the platform!

The community of Telemeta users count 3 other teams: http://telemeta.lam.jussieu.fr, http://sabiod.telemeta.org/ and http://pho
notheque.cmam.tn/.

This project brings on other programs, international partnership and funding: Europeana Sounds for example, or analysis research program (Music Information Retrieval). So maybe we will all be connected together soon, because it will possible to connect Telemeta platforms with each other! This a rich experience to build common vocabulary, data models, and a task force about Intellectual property and ethical rules for the intangible world heritage.

The Wiki Telemeta project is available at: http://telemeta.org and https://github.com/Parisson/Telemeta. The benefits of this collaborative platform apply to numerous aspects of the field of ethnomusicology, ranging from musical analysis to comparative history and anthropology of music, as well as to the fields of anthropology, linguistics and acoustics. You can join us and download the tool, contribute on the database and you are welcome to visit the Sound Archives of Musée de l’Homme.5

Bibliography

Archivos de Aurore Monod Becquelin (1973). Bachajón. Disponible en: http://www.mae.u-paris10.fr/lesc/IMG/pdf
/bibweb_monod.pdf.

Monod Becquelin, A. y Alain Breton (2002). La guerre rouge, ou: une politique maya du sacré. París: cnrs éditions.

Monod Becquelin, A. (2002). Parlons tzeltal. Une langue maya du Chiapas. París: L'Harmattan.

Notas

1 All the phonographic publications are available online on the crem database (http://archives.crem-cnrs.fr/archives/fonds/cnrsmh_Editions/).[regresar]

2 Aurore Monod is research director at the cnrs Maya Civilization. More information on her work on: http://archives.crem-cnrs.fr/archives/fonds/cnrs
m
h_Monod-Becquelin/.[regresar]

3 http://telemeta.org.[regresar]

4 https://github.com/Parisson/TimeSide.[regresar]

5 http://archives.crem-cnrs.fr.[regresar]

Datos enlazados para bibliotecarios

José Manuel Morales del Castillo

Biblioteca Daniel Cosío Villegas

El Colegio de México

En 2001 Berners-Lee, Hendler y Lassila (Berners-Lee, Hendler y Lassila, 2001) publicaron un trabajo en el que nos describen una web en la que al momento de realizar una consulta, dispondríamos de uno o varios agentes software inteligentes que se interconectarían con otros agentes para agregar información obtenida de diferentes fuentes dispersas y proporcionar una respuesta relevante, precisa y confiable (lo que haría que la tarea de ojear listados con docenas de resultados irrelevantes pasara a la historia). En esta evolución de la web, que ellos denominan Web semántica, la información se estructura en un intrincado entramado de conceptos interrelacionados entre sí que son interoperables, reutilizables, comprensibles para los humanos y procesables por máquina.

Son muchos los se preguntan en qué ha quedado el proyecto, de qué se trata realmente y dónde quedaron todas esas buenas intenciones descritas en el trabajo de Berners-Lee. Pues, aunque no lo parezca, la idea de desarrollar este modelo de web ha ido permeando poco a poco y, si bien es verdad que estamos lejos de poder decir que la web actual es semántica, sí que se han estado dando pasos firmes hacia su progresiva “semantización”.

En esta web, el elemento esencial ya no es el documento, sino el dato y la red de relaciones semánticas que se establece con otros datos, todos ellos interoperables y reutilizables. Por lo tanto, el proceso de semantización es inherente a esta web de datos. Los profesionales de la información también juegan un papel destacado en este nuevo escenario donde los recursos web tienen que ser “catalogados” para poder ser semánticamente accesibles. La consolidación de este modelo podría servir para reivindicar el papel profesional de los bibliotecarios y su reinserción a la web como actores destacados (García Marco, 2013).

No siempre tenemos claro a qué nos estamos enfrentando o qué se espera realmente de nosotros. La idea de este trabajo es tratar de definir de una manera accesible qué es la web semántica o web de datos, qué elementos esenciales la conforman, en qué momento de desarrollo se encuentra el proyecto y cómo encajan en él las bibliotecas y los bibliotecarios. Comencemos.

El origen

Lo que movió a Berners-Lee, Hendler y Lassila a idear el modelo de web semántica fue la necesidad de resolver el problema de la sobrecarga de información. Todos hemos utilizado un motor de búsqueda (como Google) y hemos sufrido la situación de recibir como respuesta un listado interminable de resultados, de los cuales un gran porcentaje poco o nada tienen que ver con lo que estábamos buscando.

Esto ocurre porque html, el lenguaje de etiquetado en el que están descritos la mayoría de los documentos web, no está diseñado para caracterizar contenidos, sino que sirve principalmente para estructurar cómo se va a presentar la información en pantalla. Los motores de búsqueda explotan esta circunstancia realizando correspondencias entre las palabras clave definidas por el usuario en su consulta y cadenas de caracteres definidas dentro de etiquetas con un valor semántico potencial (como las etiquetas title o meta). Esto explica por qué obtenemos una mezcla de resultados relevantes (no podemos obviar esa circunstancia) con otros completamente descontextualizados. La solución, pues, implicaba conseguir que la web pudiera determinar exactamente qué es lo que el usuario está buscando y ofrecerle una respuesta precisa y fiable al tomar en cuenta el contexto en el que la consulta se ha realizado. De esta manera, se hará posible una recuperación de información que se genera de manera dinámica a partir de fuentes dispersas (aunque conectadas semánticamente) y que agrega diferentes tipos de datos y formatos (texto, imagen, mapas, gráficas, sonido, video) a través de un interfaz único.

El modelo

La construcción de la web semántica se estructura en diferentes capas de desarrollo superpuestas unas sobre otras e interoperables entre sí (es decir, los elementos desarrollados en las capas inferiores pueden ser utilizados en las superiores y viceversa).

Figura 1.
Modelo de capas tridimensional (Nowak, 2009)
Figura 1

En la base se ubica la denominada capa sintáctica y es donde se definen elementos como las uri (identificadores uniformes de recursos que permiten referir de manera unívoca a todos los elementos que intervienen en la web semántica como conceptos, personas o cosas), el protocolo de transferencia de información http, el sistema de codificación universal unicode, y las convenciones sintácticas definidas en metalenguajes como xml (Extensible Markup Language) (w3c, 2003) para garantizar la interoperabilidad, la reutilización y el intercambio de información.

Sobre ellos, en la capa semántica, se establece el modelo de datos que permite describir la información de manera que pueda ser interpretada semánticamente por máquinas. Este modelo de datos, basado en la lógica descriptiva (o lógica basada en la semántica), viene definido en el estándar rdf (Resource Description Framework) (w3c, 2014a), donde se especifica que la información se tiene que definir en forma de tripletas o sentencias Sujeto/Propiedad/Objeto para poder ser comprensible para las máquinas.

Figura 2.
Ejemplo de tripleta RDF
Figura 2

Las tripletas rdf se pueden representar mediante grafos orientados y se interpretan de la siguiente manera: las propiedades que caracterizan a los sujetos (entendidos como cualquier tipo de entidad, evento o cosa) y les permiten relacionarse con otras entidades, eventos o cosas, o bien presentan un valor específico (como una cadena de caracteres). De acuerdo con esta convención, vemos que hay dos clases de tripletas: las que tienen como valor una entidad (“la casa está pintada de azul”) y las que tienen como valor una cadena de caracteres (“el coche cuesta $10 000”).

No obstante, estructurar la información en forma de tripletas no basta para definir una semántica. Es necesario definir claramente el contexto en el que la información deber ser interpretada y para ello hay que recurrir a herramientas más complejas, como las ontologías, que se definen como esquemas de conocimiento, como lo puedan ser los tesauros, pero que no se limitan a definir una estructura jerárquica. Van más allá, ya que permiten categorizar los conceptos o entidades, definir el tipo de atributos que los caracterizan y establecer cómo se relacionan unos con otros en un determinado contexto para que de esta manera los agentes software sean capaces de obtener inferencias, o lo que es lo mismo, nuevo conocimiento no explícito, a partir de una serie de asertos y un conjunto de reglas (que se definen en la capa de reglas con el estándar rif (Rule Interchange Format) (w3c, 2013).

A su vez son varios los estándares que sirven para generar esquemas de conocimiento. Dependiendo del que elijamos, podemos definir diferentes niveles de granularidad o profundidad de acuerdo con nuestras necesidades. Por ejemplo, si queremos desarrollar ontologías con el máximo de expresividad tenemos el estándar owl (Ontology Web Language) (w3c, 2012a), aunque esto implica un mayor costo computacional que merma la eficiencia operativa (dicho de otro modo, a mayor complejidad, mayor dificultad para obtener inferencias de una manera eficiente). Como alternativas, tenemos rdfs (Resource Description Framework Schema) (w3c, 2014b) y skos (Simple Knowledge Organization System) (w3c, 2012b) que ofrecen, respectivamente, soluciones para el desarrollo de ontologías ligeras y tesauros (menos potentes que una ontología definida en owl, pero con los que es más fácil operar). Por lo tanto, la elección de unos u otros estándares depende exclusivamente de la naturaleza del problema que queramos resolver.

Por último, las capas superiores del modelo (la capa lógica, de seguridad de prueba y de confianza) son las que se encargarían de garantizar la fiabilidad y seguridad de la información que circula en la web, procurando que los datos proporcionados por los agentes fueran no sólo precisos, sino también verídicos. Al día de hoy no se han desarrollado estas capas ya que algunos de los niveles inferiores aún se encuentran en fase de consolidación.

La aplicación práctica del modelo

Como acabamos de ver, el modelo teórico desplegado para caracterizar la web semántica está bien definido, cuenta con una multitud de estándares y vocabularios, pero ¿hasta qué punto hay un desarrollo práctico de éste? Y, si nos centramos en el ámbito bibliotecario, ¿de qué manera puede afectar al desarrollo de la profesión? Tratemos de responder a estas preguntas.

La naturaleza y complejidad del modelo de web semántica le han dado un ritmo de crecimiento y una cadencia propias, alejada de otros problemas que han encontrado una solución tecnológica casi inmediata. En este caso, se requiere de la intervención de múltiples factores y de una conjunción de sinergias que no podrían relizarse en los cortos plazos que los entornos tecnológicos imponen. No obstante, —buenas noticias—, sí que se están dando pasos hacia la web semántica; quizá no en la forma original en que se concibió el proyecto, pero sí de una manera firme hacia algo tangible. Con respecto a los esquemas de conocimiento y la necesidad de decidir entre sacrificar expresividad o facilidad de procesamiento, los desarrolladores han optado por el pragmatismo y la implementación de una web semántica lightweight o ligera que permite aprovechar algunas de sus principales funcionalidades pero a bajo costo computacional. En otras palabras, nos movemos hacia la versión beta de la Web de datos.

Así, frente al desarrollo de recursos descritos de manera nativa usando rdf (lo cual requiere un esfuerzo considerable), se ha optado por embeber metadatos rdf en el código fuente de otros vocabularios anfitriones. De esa manera poco invasiva, se aprovechan tecnologías que ya están plenamente operativas para enriquecer la descripción de los recursos y, consecuentemente, abrir la puerta a la obtención de resultados más precisos.

Éste es el caso de rdfa (Resource Description Framework in attributes) (w3c, 2015), una sintaxis que permite especificar metadatos de acuerdo al modelo rdf (es decir, atributos con el formato de tripletas sujeto-propiedad-objeto), pero embebidos en el código html5 (dentro de sus propias etiquetas). Basados en esta sintaxis, se han desarrollado varios vocabularios específicos que pretenden facilitar el proceso de semantizar de origen los recursos de la web (democratizando el proceso de catalogación).

El ejemplo más claro es el vocabulario de microdatos Schema.org, desarrollado en 2012 por Google, Yahoo! y Microsoft, cuyo objetivo es que sus buscadores puedan proporcionar respuestas enriquecidas formadas a partir de la agregación de datos de diferentes fuentes (como Wikipedia y otras fuentes de datos estructuradas). Por ejemplo, si buscamos una universidad en Google, además del consabido listado de recursos, el buscador genera en el momento un agregado de datos que incluye mapas, logos o enlaces a biografías de egresados de esa universidad, lo que enriquece la experiencia del usuario con información adicional potencialmente relevante.

Figura 3.
Ejemplo de resultados enriquecidos con datos enlazados.
Figura 3

Datos enlazados para bibliotecarios

El ejemplo anterior es un ejemplo claro del uso de datos enlazados en la web. La cuestión que puede surgir ahora es cómo podemos aprovechar esto en las bibliotecas. En principio, para poder trabajar con datos enlazados es necesario disponer de un conjunto de datos, y eso es precisamente algo en lo que las bibliotecas son especialmente ricas. Sin ir más lejos, tenemos el catálogo bibliográfico como una invaluable fuente de datos semiestructurada que es posible compartir sin incurrir en ninguna violación de derechos de autor (ya que estaríamos compartiendo exclusivamente metadatos, no el contenido de las obras).

Para publicar conjuntos de datos enlazados (y enlazables), debemos tener claras algunas cuestiones esenciales. En primer lugar, debemos de aplicar el test de las 5 estrellas definido por Tim Berners-Lee para datos enlazados (Berners-Lee, 2010), una serie de criterios que nos dan una idea de la calidad de los datos que vamos a publicar:

  1. Los datos deben ser legibles por máquina.
  2. Estar definidos en formatos no propietarios.
  3. Expresados de acuerdo al modelo de datos de rdf.