SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado...

298
ESCUELA TÉCNICA SUPERIOR DE INGENIEROS DE CAMINOS, CANALES Y PUERTOS Universidad Politécnica de Madrid SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA VALIDACIÓN DE INFORMACIÓN HIDROLÓGICA EN TIEMPO REAL RICARDO CONEJO MUÑOZ Ingeniero de Caminos, Canales y Puertos Profesor Titular de Escuela Universitaria Departamento de Lenguajes y Ciencias de la Computación Universidad de Málaga Director de la Tesis: D. JOSÉ CUENA BARTOLOMÉ Doctor Ingeniero de Caminos, Canales y Puertos Licenciado en Informática Catedrático del Departamento de Inteligencia Artificial Universidad Politécnica de Madrid 1995

Transcript of SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado...

Page 1: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

ESCUELA TÉCNICA SUPERIOR DE INGENIEROS DECAMINOS, CANALES Y PUERTOS

Universidad Politécnica de Madrid

SISTEMAS BASADOS EN ELCONOCIMIENTO APLICADOS A LA

VALIDACIÓN DE INFORMACIÓNHIDROLÓGICA EN TIEMPO REAL

RICARDO CONEJO MUÑOZIngeniero de Caminos, Canales y PuertosProfesor Titular de Escuela Universitaria

Departamento de Lenguajes y Ciencias de la ComputaciónUniversidad de Málaga

Director de la Tesis:D. JOSÉ CUENA BARTOLOMÉ

Doctor Ingeniero de Caminos, Canales y PuertosLicenciado en Informática

Catedrático del Departamento de Inteligencia ArtificialUniversidad Politécnica de Madrid

1995

Page 2: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración
Page 3: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

TRIBUNAL ENCARGADO DE JUZGAR LA TESIS DOCTORAL:

Presidente: ____________________________________________

Vocal 1º: ____________________________________________

Vocal 2º: ____________________________________________

Vocal 3º: ____________________________________________

Vocal Secretario: ____________________________________________

CALIFICACION:

Page 4: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración
Page 5: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

I

AGRADECIMIENTOS

Esta tesis es el resultado de varios años de trabajo y de investigación a lo largo de los cuales hemantenido contacto con muchas personas que me han apoyado. A todos ellos quiero dar lasgracias, pero muy especialmente:

- Al director de la tesis, D. José Cuena, por la atención y dedicación que me ha prestado, asícomo por su apoyo durante toda la realización del trabajo, intentando siempre que éste seencaminara a la consecución de metas más ambiciosas desde el punto de vista teórico, de las queyo habría sido capaz de fijar.

- Al equipo del Laboratorio de Sistemas Inteligentes de la Facultad de Informática de laUniversidad Politécnica de Madrid, especialmente a Martín Molina, con el que he debatidomuchos de los aspectos del KSM, perfilando mis ideas al respecto; y a Ana Garcia Serrano portodas las referencias bibliográficas que pacientemente me ha conseguido. También quiero darlas gracias a “la gente del laboratorio” : Antonio, Baldo, Pablo, Hector, Pepa, Jose Luis,Eduardo, etc., que de una u otra forma me han facilitado la operación del entorno KSM; y aReyes por todo su apoyo logístico.

- A Manuel Alonso y especialmente a Benito Reig, sin cuya generosa colaboración a lo largo devarias sesiones no habría llegado a entender los sistemas CYRAH y SIRAH, punto de partidade mi trabajo.

- A Luis Garrote y Juan Carlos Mosquera, cuyos puntos de vista sobre el problema de rellenode huecos y validación han enriquecido la solución propuesta.

- A mis compañeros del Departamento de Lenguajes y Ciencias de la Computación de laUniversidad de Málaga, muy especialmente a Jose Luis Pérez de la Cruz, que ha repasadoconcienzudamente todo el documento y con el que he podido contrastar y refinar las ideas queaquí se recogen; a Rafael Morales, que se hizo cargo el primer año de parte de mis clasesproporcionándome así el tiempo que la dedicación a esta tesis requería; a Francisco Triguero y aJosé María Troya, por su apoyo institucional, y a todos los que han revisado finalmente eldocumento: Fanny, Villa, Mavi, Eva, etc.

- A mi padre Rafael Conejo, cuyo conocimiento hidrológico general y de la cuenca del Sur enparticular, ha sido de gran ayuda tanto en la realización de los modelos, como en laconceptualización general del problema.

-A Juan Ignacio Garcia Viñas, sin cuyo apoyo moral y su apartamento en Madrid me habríasido muy difícil concluir esta tesis.

Page 6: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

II

Page 7: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

III

ÍNDICE

1. INTRODUCCIÓN

1 . 1 . Planteamiento del problema. 11 . 2 . Objetivos de la Tesis 21 . 3 . Organización de la tesis. 3

2 . EL PROBLEMA DE LA VALIDACIÓN DE LOS DATOS HIDROLÓGICOS

2 . 1 . Introducción. 72 . 2 . Los sistemas automáticos de información hidrológica. 72 . 3 . Características principales que debe tener un sistema de

validación de datos hidrológicos. 82 . 4 . Fundamentos del sistema de validación 1 0

3 . DESCRIPCIÓN Y VALORACIÓN DE LAS SOLUCIONES ACTUALES ALPROBLEMA DE LA VALIDACIÓN DE DATOS

3 . 1 . Introducción 1 33 . 2 . El método del espacio de paridad. 1 5

3.2.1. Descripción del método3.2.2. Aplicación a la validación de datos hidrológicos.

3 . 3 . Validación de datos durante el diagnóstico clasificativojerárquico. 1 93.3.1. Descripción del sistema3.3.2. Aplicación a la validación de datos hidrológicos.

3 . 4 . El sistema DATMI. 2 13.4.1. Descripción del sistema3.4.2. Aplicación a la validación de datos hidrológicos.

3 . 5 . Conclusiones 2 4

4. EL PROBLEMA DEL DIAGNOSTICO EN INTELIGENCIA ARTIFICIAL

4 . 1 . Equivalencia de los problemas de Diagnóstico yValidación 2 5

4 . 2 . Soluciones al problema del Diagnóstico en InteligenciaArtificial 2 6

4 . 3 . Sistemas expertos de diagnóstico 2 94.3.1. El sistema MYCIN 3 1

4.3.1.1. Descripción del sistema4.3.1.2.Aplicación a la validación de datos hidrológicos

4.3.2. El sistema NEOMYCIN 3 44.3.2.1. Descripción del sistema4.3.2.2. Aplicación a la validación de datos hidrológicos

4.3.3. El sistema MOLE 3 64.3.3.1. Descripción del sistema

Page 8: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

INDICE___________________________________________________________________________

IV

4.3.3.2. Aplicación a la validación de datos hidrológicos4.3.4. El sistema MDX 3 8

4.3.4.1. Descripción del sistema4.3.4.2. Aplicación a la validación de datos hidrológicos

4.3.5. Sistemas basados en la teoría del recubrimiento 4 14.3.5.1. Descripción del método4.3.5.2. Aplicación a la validación de datos hidrológicos

4.3.6. Sistemas basados en agrupación de síntomas 4 54.3.6.1. Descripción del método4.3.6.2. Aplicación a la validación de datos hidrológicos

4 . 4 . Sistemas de diagnóstico basado en modelos 4 64.4.1. El sistema HT 4 7

4.4.1.1. Descripción del sistema4.4.1.2. Aplicación a la validación de datos hidrológicos

4.4.2. El sistema GDE 5 34.4.2.1. Descripción del sistema4.4.2.2. Aplicación a la validación de datos hidrológicos

4.4.3. El sistema XDE 6 14.4.3.1. Descripción del sistema4.4.3.2. Aplicación a la validación de datos hidrológicos

4.4.4. Planteamientos logicistas 6 24.4.4.1. Descripción del método4.4.4.2. Aplicación a la validación de datos hidrológicos

4.4.5. El principio de la coartada 6 64.4.5.1. Descripción del método4.4.5.2. Aplicación a la validación de datos hidrológicos

4 . 5 . Conclusiones 6 9

5. LOS MODELOS HIDROLÓGICOS EN INTELIGENCIA ARTIFICIAL

5.1. Introducción 7 35.2. Funcionalidad de los modelos 7 35.3. Los modelos hidrológicos 7 5

5.3.1. Modelos locales 7 65.3.2. Modelos lluvia-lluvia 7 75.3.3. Modelos lluvia-escorrentía 7 95.3.4. Modelos escorrentía-escorrentía 8 1

5.4. Implementación de los modelos 8 25.5. Conclusiones 8 4

6. LA ESTRUCTURACION DE LOS SISTEMAS INTELIGENTES

6.1. Introducción 8 76.2. Propuestas de estructuración a nivel del conocimiento. 8 8

6.2.1. El nivel del conocimiento 8 86.3. Propuestas de estructuración a nivel simbólico. 9 0

6.3.1. Patrones de inferencia en clasificaciónheurística. 9 06.3.2. Tareas Genéricas. 9 2

6.4. Las arquitecturas cognitivas 9 46.4.1. El sistema PROTÉGÉ 9 46.4.2. La metodología KADS 9 66.4.3. La metodología KREST 9 86.4.4. La metodología KSM 100

6.5. Conclusiones 107

Page 9: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

INDICE___________________________________________________________________________

V

7. EL MODELO GENÉRICO DE VALIDACIÓN DE DATOS

7.1. Análisis del problema 1097.2. Síntesis de la solución 1117.3. Descripción del Modelo Genérico 114

7.3.1. Unidad Cognitiva de Cuenca 1177.3.2. Unidad Cognitiva de Sensor 1247.3.3. Unidad Cognitiva de Coherencia Local. 1287.3.4. Unidad Cognitiva de Coherencia Global. 1337.3.5. Unidad Cognitiva de Modelos Hidrológicos 147

7.4. Operación del sistema en tiempo real 1507.5. Conclusiones 151

8. UN MODELO DEL DOMINIO PARA VALIDACIÓN DE DATOS EN LACUENCA DEL RIO VELEZ

8.1. Descripción del Modelo del Dominio. 1538.2. Unidad Cognitiva de Cuenca del río de la Cueva 157

8.2.1. Ejemplo de Ejecución 1638.3. Unidad Cognitiva de Cuenca del embalse de la Viñuela 169

8.3.1. Ejemplo de Ejecución 1718.4. Unidad Cognitiva de Cuenca del río Vélez 173

8.4.1. Ejemplo de Ejecución 178

9. CONCLUSIONES

9.1. Aportaciones de la tesis. 1819.2. Limitaciones. 1839.3. Futuras líneas de investigación. 184

APENDICE A: DESCRIPCIÓN DEL LENGUAJE COVALTO

A.1. Introducción. 187A.2. El preprocesador 187A.3. Descripción léxica 188A.4. El sistema de tipos 189A.5. Descripción sintáctica y semántica 190

APENDICE B: LOS SISTEMAS CYRAH y SIRAH

B.1. Introducción. 207B.2. El sistema CYRAH 207B.3. El sistema SIRAH 210

APENDICE C: BASES DE CONOCIMIENTO Y RESULTADOS DE EJECU-CIÓN DEL SISTEMA DE VALIDACIÓN DE DATOS EN LACUENCA DEL RÍO VÉLEZ

C.1. Introducción. 217C.2. Clases 217C.3. U.C. Cuenca del Río de la Cueva 219C.4. U.C. Cuenca del Embalse de la Viñuela 235C.5. U.C. Cuenca del Río Vélez 250

BIBLIOGRAFÍA 273

Page 10: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

INDICE___________________________________________________________________________

VI

Page 11: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

VII

RESUMEN

SISTEMAS BASADOS EN ELCONOCIMIENTO APLICADOS A LA

VALIDACIÓN DE INFORMACIÓNHIDROLÓGICA EN TIEMPO REAL

La instalación de los sistemas de adquisición automática de datos para lamonitorización y control en las cuencas hidrográficas constituye un salto cualitativo en el campode la hidrología. Este gran volumen de información amplía el campo de los procesoshidrológicos que pueden ser estudiados de forma cuantitativa, pero por otra parte, generaproblemas específicos de estos sistemas como son el mantenimiento físico de la red detransmisión de datos, la gestión y el proceso de los mismos, y la validación o verificación de suveracidad. Algunos de estos problemas son ajenos a la labor del hidrólogo, aunque en general,la incorporación de éste en equipos multidisciplinares será imprescindible para realizar estastareas.

Hasta la aparición de estos sistemas de adquisición automática, la validación de losdatos en hidrología se ha realizado de forma manual aplicando para ello el conocimiento quesobre el comportamiento de las cuencas disponen los ingenieros encargados de su gestión. Elgran volumen de información actual implica necesariamente la automatización de esta tarea.

Esta tesis estudia inicialmente la aplicación al campo de la hidrología de las técnicasde validación de datos que se han empleado en otros dominios tales como los sistemas demonitorización y control de centrales nucleares, plantas químicas, etc., concluyendo que nopueden ser aplicadas tal cual, debido a las peculiaridades que presenta el dominio de lahidrología (número de sensores fijo, alto coste de instalación de redundancia directa en lasmedidas, complejidad en la determinación de los modelos de funcionamiento, etc.) y a lanecesidad de integrar el sistema de validación con los recursos humanos y materialesactualmente existentes.

Seguidamente, la tesis propone como solución a este problema el empleo de lasactuales técnicas de Inteligencia Artificial, en un doble aspecto: arquitecturas de modelos derepresentación y metodología de construcción y mantenimiento; ya que permiten la realizaciónde estas tareas, poniendo claramente de manifiesto el conocimiento empleado, de una formamás cercana a la manera de entender el problema por parte de los responsables delmantenimiento de los propios sistemas.

Para fundamentar la propuesta se estudian:

--- Las técnicas de diagnóstico en inteligencia artificial, y en especial de las técnicas dediagnóstico basadas en modelos, que permiten llevar a cabo la tarea de validaciónintegrando en ellas modelos hidrológicos cuantitativos y cualitativos.

--- El entorno de los modelos hidrológicos que pueden servir de marco adecuado para lavalidación de datos hidrológicos.

--- La aplicación de las distintas metodologías de análisis, estructuración y adquisición delconocimiento proponiendo finalmente el empleo de la metodología y el entorno dedesarrollo KSM como soporte para la construcción de sistemas abiertos, flexibles y

Page 12: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

RESUMEN___________________________________________________________________________

VIII

reutilizables. Una de las ventajas de esta metodología es que cuenta con una herramientaexperimental (que se esta desarrollado actualmente en el departamento de InteligenciaArtificial de la U.P.M.) para la estructuración y mantenimiento de sistemas basados enel conocimiento a lo largo de todas las etapas de la vida del software.

La propuesta de la tesis se substancia en una arquitectura software que se implementamediante el entorno KSM y que permite a los propios usuarios encargados de la gestión y elproceso de los datos (en general no-programadores) el análisis, desarrollo y mantenimiento desistemas de validación de datos basados en modelos adaptables a cada problema concreto,capaces de garantizar la fiabilidad de los datos recogidos automáticamente por los sensores, yde generar las explicaciones de los fallos que pudieran acontecer. Gracias a la metodología dedesarrollo empleada, los sistemas construídos resultan ser fácilmente adaptables a los cambiosque pudieran producirse en las condiciones físicas del problema o en el conocimiento disponiblesobre el mismo, que previsiblemente evolucionará de forma paralela al uso del propio sistema.Así mismo, su versatilidad queda garantizada al permitir la inclusión de cualquier tipo demodelo hidrológico, e incluso la coexistencia de varios de ellos.

Page 13: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

IX

ABSTRACT

KNOWLEDGE BASED SYSTEMS FORREAL TIME HYDROLOGIC DATA

VALIDATION

The introduction of systems for automatic data acquisition to monitor and controlhydrological basins is a qualitative change in the field of hydrology. The great volume ofinformation available broads the number of processes that can be analyzed with a quantitativeapproach. On the other hand, new specific problems emerge with these systems. Some of thesenew problems are the physical maintenance of the data transmission network, the managementand processing of great amounts of data, and its validation or verification. Some of theseproblems are outside the scope of hydrology, but in general, the collaboration of hydrologyscientists in multi-disciplinary teams will be essential to accomplish these tasks.

Hydrological data validation has been done manually until the introduction of systemsfor automatic data acquisition. This task has been done by applying the knowledge that theengineer in charge of the management has about the behavior of the basins. The present greatvolume of information implies the necessary automatization of this task.

At the beginning, the thesis studies the applicability to the hydrologic domain of datavalidation techniques that have been applied to other domains, such as monitoring and controlsystems for nuclear or chemical plants, etc. It concludes that these methods can not be appliedsuch as, due to the special characteristic of the hydrological domain (fixed number of sensors,high installation cost of new sensors for direct redundancy measurement, complexity ofdetermination and construction of behavior models, etc.) and the need to integrate the validationsystems with the human and material resources presently available.

After that, the thesis proposes to solve this problem by the use of new ArtificialIntelligence techniques, focusing on two aspects: architectures to support representation modelsand methodologies for development and management, that clearly emphasize the knowledgeapplied to perform the tasks in a way nearer to the way of thinking of the users rather than theway of computing.

To lay the foundations of the proposal the following topics are studied:

--- Artificial Intelligence tectonics for diagnostic problem solving, specially the model baseddiagnosis techniques. By using this technology it is possible to include the quantitativeand qualitative hydrological models into the validation process.

--- The environment of hydrological models that can be used to validate hydrological data.

--- The applications of knowledge level analysis, knowledge acquisition, and knowledgestructuration methodologies. Finally the use of KSM methodology and programdevelopment environment is proposed in order to build open, adaptive and reusablesystems. One of the advantages of this methodology is the availability of anexperimental tool (which is being developed in the department of Artificial Intelligenceof Madrid Technical University) that helps to structure and maintain knowledge-basedsystems, all along the software life.

Page 14: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

ABSTRACT___________________________________________________________________________

X

The thesis proposal is substantiated with a software architecture that is build by usingthe KSM environment. This architecture is designed to be used by the people in charge of themanagement of hydrological data (in general, non-programmers). The analysis, developmentand maintenance of domain specific model-based data validation systems could also be done bythese final users. The systems built would also generate explanations of fault sensormeasurements. Thanks to the use of this knowledge engineering methodology, the systemsbuilt are easily adaptable to future changes in the physical conditions of the problem or theknowledge available about it, that will probably increase with the use of this system. At thesame time the system could use any hydrological model available and even more than one at thesame time.

Page 15: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

1

CAPÍTULO 1

INTRODUCCION

1.1. Planteamiento del problema

La instalación de los sistemas de monitorización y control en las cuencas hidrográficasconstituye un salto cualitativo en el campo de la hidrología. Tradicionalmente el ingenierohidrólogo disponía de pocos datos. Estos datos, recogidos por las estaciones de aforos ypluviométricas, en su mayor parte, sólo ofrecían valores medios diarios y no eran conocidosinstantáneamente. Por otra parte, los fenómenos físicos que intervienen en los procesos delluvia-escorrentía, aunque conocidos, resultan difícilmente cuantificables. Por ello, los métodostradicionales en hidrología se han fundamentado en estudios teóricos y en fórmulas empíricasque proporcionan sólo un conocimiento aproximado del comportamiento de las cuencas. Laexperiencia y el buen hacer de las personas que trabajan en este campo han suplido en muchoscasos la falta de información sobre estos fenómenos. Técnicas tradicionalmente utilizadas enotros problemas de la ingeniería tales como modelos numéricos, o métodos basados enelementos finitos, tan populares en los años 60 y 70, no han resultado de una utilidad prácticaprincipalmente debido a la carencia de una información completa y fiable, y especialmentedebido a la difícil calibración de los parámetros que en ellos intervienen.

En la actualidad, los sistemas automáticos de información hidrológica proporcionan ungran volumen de información. Al disponer de una mayor información los parámetroshidrológicos pueden ser estimados empíricamente de forma más precisa. Sin embargo, para queresulte de utilidad, toda esta información debe ser procesada y finalmente deben construirsemodelos de comportamiento de las cuencas más precisos, que gracias a este gran volumen deinformación pueden ser calibrados adecuadamente.

La introducción de toda esta nueva tecnología conlleva la aparición de nuevosproblemas. Por una parte, se amplía el campo de los procesos hidrológicos que pueden serestudiados de forma cuantitativa; por otra, el propio sistema incorpora unas características yproblemas específicos, como el mantenimiento físico del sistema de adquisición y su red detransmision de datos, la gestión y proceso de los mismos y la validación o verfificación de suveracidad. Algunos de estos problemas son ajenos a la labor del hidrólogo, aunque en general laincorporación de éste en equipos multidisciplinares será imprescindible.

Estos nuevos problemas vienen a sumarse a los que tradicionalmente han sido objeto dela tarea del ingeniero hidrólogo, como son la estimación y predicción de los caudales de un ríoen función de las precipitaciones, el cálculo de la máxima avenida que debe tenerse en cuentapara un proyecto, etc. De hecho, la validación de los datos no es problema nuevo en sí, ya quehasta la aparición de estos sistemas de adquisición automática, la validación de los datos enhidrología se ha realizado de forma manual aplicando para ello el conocimiento que sobre elcomportamiento de las cuencas disponen los ingenieros encargados de su gestión. El gran

Page 16: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 1. Introducción___________________________________________________________________________

2

volumen de información actual, y la necesidad de realizar esta tarea simultáneamente a larecepción de los datos, implica necesariamente la automatización.*

Esta tesis aborda el problema de la validación de los datos hidrológicos recogidos porlos sistemas automáticos de información hidrológica en tiempo real; y plantea la solución de esteproblema dentro del marco de la Inteligencia Artificial y los Sistemas Basados en elConocimiento, obteniendo como corolario una arquitectura general de software que soporte laconstrucción de otros sistemas informáticos hidrológicos que resuelvan tareas como laestimación y la predicción de caudales, que como se verá comparten algunas característicascognitivas con el problema de validación.

La memoria de la tesis estudia inicialmente la aplicación al campo de la hidrología de lastécnicas de validación de datos que se han empleado en otros dominios tales como los sistemasde monitorización y control de centrales nucleares, plantas químicas, etc., concluyendo que nopueden ser aplicadas tal cual debido a las peculiaridades que presenta el dominio de la hidrología(número de sensores fijo, alto coste de instalación de redundancia directa en las medidas,complejidad en la determinación de los modelos de funcionamiento, etc.) y a la necesidad deintegrar el sistema de validación con los recursos humanos y materiales actualmente existentes.

Seguidamente, la memoria de la tesis propone como solución a este problema el empleode las actuales técnicas de Inteligencia Artificial, ya que permiten la realización de estas tareas,poniendo claramente de manifiesto el conocimiento empleado formulando el modelo cognitivoen forma accesible al usuario no informático [Molina,1993], es decir, de una forma más cercanaa la manera de entender el problema por parte de los responsables del mantenimiento de lospropios sistemas.

La propuesta de la tesis se substancia en una arquitectura software que se implementamediante el entorno KSM y que permite a los propios usuarios encargados de la gestión y elproceso de los datos (en general no-programadores) el análisis, desarrollo y mantenimiento desistemas de validación de datos basados en modelos adaptables a cada problema concreto,capaces de garantizar la fiabilidad de los datos recogidos automáticamente por los sensores, y degenerar las explicaciones de los fallos que pudieran acontecer. Gracias a las metodologías dedesarrollo empleadas, los sistemas construídos resultan ser fácilmente adaptables a los cambiosque pudieran producirse en las condiciones físicas del problema o en el conocimiento disponiblesobre el mismo, que previsiblemente evolucionará de forma paralela al uso del propio sistema.Así mismo, su versatilidad queda garantizada al permitir la inclusión de cualquier tipo demodelo hidrológico, e incluso la coexistencia de varios de ellos.

1.2. Objetivos de la Tesis

El objetivo de esta tesis es proporcionar un entorno de desarrollo con el que puedanconstruirse fácilmente sistemas de validación de los datos que se reciben mediante los sistemasautomáticos de información hidrológica en tiempo real.

Dado que no existe actualmente ningún sistema de estas características, el objetivo de latesis se centra en el diseño y desarrollo de un sistema experimental de este tipo. Para ello sedeben alcanzar los siguientes objetivos parciales:

* Este problema ha sido puesto de manifiesto recientemente por muchos de los responsables de los SistemasAutomáticos de Información Hidrológica instalados en España (SAIH), por ejemplo [Cabezas,1995] hace alusióna un 1 al 4% de huecos en las series de datos y a problemas de decalaje de niveles y derivas; [Ferrer,1995] proponeprocedimientos manuales de control para garantizar que los datos son fidedignos; [Velasco,1995] propone elempleo de módulos de supervisión y ayuda a la corrección de anomalías en los datos mediante representacionesgráficas y control del funcionamiento del sistema; y [Ferrer y Estrada,1995] propone como objetivo de futurostrabajos la definición de metodologías de detección de fallos o inconsistencias y de relleno de huecos en las seriesrecibidas por el SAIH.

Page 17: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 1. Introducción___________________________________________________________________________

3

(1) El estudio de los sistemas de validación de datos que existen en la actualidad y que seaplican en otras ramas de la ciencia o la técnica, realizando un análisis de su posibleaplicación al campo de la hidrología.

(2) El estudio de las posibilidades que ofrecen los sistemas de diagnóstico de inteligenciaartificial para realizar la tarea de validación de datos.

(3) El análisis de las posibilidades de utilización práctica de los modelos hidrológicos comofuente de conocimiento para realizar la validación.

(4) El estudio de las metodologías de desarrollo de programas basados en el conocimiento ysu adecuación a la construcción de entornos de programación flexibles y que ofrezcanposibilidades de reutilización del conocimiento que emplean.

(5) La propuesta de un entorno de programación, o sistema genérico de validación de datos,que incorpore estas características y la demostración de su potencia expresiva mediantela presentación de un ejemplo de aplicación a un caso concreto.

Los sistemas concretos de validación construídos mediante esta herramienta genéricadeben cumplir las siguientes especificaciones:

(a) Validación de los datos en tiempo real, es decir, simultánea a la recepción,indicando la fiabilidad de los mismos.

(b) Generación de explicaciones, en tiempo real o sobre datos grabados, a petición delusuario, sobre los posibles fallos que acontezcan.

(c) El conocimiento que emplee el sistema de validación debe ser fácilmente revisableconforme a la experiencia que con su utilización se obtenga.

(d) La tarea de construcción y mantenimiento de los sistemas concretos puede serrealizada por los propios técnicos a cargo del sistema de información, a los que engeneral no se les supone un amplio conocimiento de programación.

Esta tesis continúa la línea de investigación de las aplicaciones de la Inteligencia Artificiala la resolución de problemas hidrológicos comenzada en las tesis doctorales de [Garrote,1990],y [Alonso,1993]. Así mismo, es heredera de las ideas que han dado lugar a la tesis de[Molina,1993] sobre una nueva metodología de estructuración de los sistemas basados en elconocimiento. El director de todos estos trabajos es el profesor Dr. D. José Cuena Bartolomé.

1.3. Estructura de la memoria.

La línea argumental de la memoria de la tesis se basa en el estudio de las solucionesalternativas que en la actualidad se han propuesto para afrontar el problema de la validación dedatos. Analizando estas soluciones se observan deficiencias en su adecuación al casohidrológico, por lo que se propone una nueva solución mediante el uso de las actuales técnicasde Inteligencia Artificial.

La solución se fundamenta en tres pilares: los sistemas de diagnóstico, los modeloshidrológicos, y las metodologías de estructuración de los sistemas inteligentes. Finalmente sepresenta la solución propuesta incluyendo un ejemplo de aplicación a una cuenca hidrográfica yanalizando las ventajas de este planteamiento. La tesis se estructura en nueve capítulos que seresumen en el siguiente esquema:

Page 18: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 1. Introducción___________________________________________________________________________

4

El problema de la Validación de los Datos Hidrológicos

El problema del Diagnóstico en Inteligencia Artificial

Soluciones al problema de validación de datos

Los modelos hidrológicos en Inteligencia Artificial

La estructuración de los Sistemas Inteligentes

El Modelo Genérico de Validación de datos

Un Modelo del Dominio para Validación de datos en la cuenca del

rio Velez

Conclusiones

• El Problema de la Validación de los Datos Hidrológicos. En este capítulo seplantea el problema de la Validación de los datos Hidrológicos, exponiendo la necesidaddel mismo y las características más destacables que requiere un sistema automático querealice esta tarea.

• Soluciones actuales al problema de Validación de datos. En este capítulo seestudian diversas propuestas de solución al problema de la validación de los datos quesurgen en respuesta a problemas similares planteados en otros dominios, tales como laseguridad de centrales nucleares y plantas químicas, los sistemas de información de losaviones modernos (aviónica), y algunas propuestas surgidas dentro del campo de laInteligencia Artificial. Finalmente se establecen las conclusiones sobre la aplicabilidad delas técnicas existentes en estos campos al problema de la validación de datoshidrológicos en tiempo real.

• El problema del Diagnóstico en Inteligencia Artificial y su Aplicación alproblema de Validación de datos. En este capítulo se plantea un paralelismo entrelos sistemas de validación de datos y los sistemas de diagnóstico, abriendo una nuevavía de solución al problema desde esta perspectiva. Asimismo, se hace una reseña de losdistintos planteamientos y soluciones que desde el campo de la Inteligencia Artificial sehan propuesto en las últimas décadas para resolver el problema del diagnóstico, y lasposibilidades de aplicación para construir un sistema de validación de datoshidrológicos. Se estudian dos grandes boques de soluciones: los sistemas basados enreglas y los sistemas basados en modelos, estableciendo conclusiones sobre la mejoraplicabilidad de estos últimos al caso hidrológico.

• Los modelos hidrológicos en Inteligencia Artificial. En este capítulo seplantea el problema de la integración de los distintos tipos de modelos hidrológicos enun sistema de validación de datos, estudiando su funcionalidad en el sistema devalidación y sus posibles modalidades de implementación. En relación con este capítulo,en el apéndice B se hace una reseña detallada de la integración de los modeloshidrológicos en los sistemas inteligentes de predicción de avenidas CYRAH y SIRAH,antecedentes de la línea de investigación del sistema propuesto.

Page 19: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 1. Introducción___________________________________________________________________________

5

• La estructuración de los Sistemas Inteligentes. En este capítulo se propone yjustifica el empleo de técnicas de programación de ordenadores basadas en elconocimiento para la consecución de sistemas flexibles, fáciles de construir y demodificar en caso necesario. En los últimos años, la proliferación de los SistemasBasados en el Conocimiento ha dado lugar a un replanteamiento profundo de lasmetodologías de análisis y desarrollo de los mismos. Se plantea la necesidad de unaestructuración a nivel conceptual de los sistemas inteligentes, haciendo una reseña de lasdistintas metodologías propuestas actualmente. Una síntesis de ellas es la metodologíaKSM, que se emplea en el desarrollo del sistema de validación propuesto.

• El modelo Genérico de Validación de Datos. En este capítulo se plantea a nivelconceptual y simbólico un sistema de validación de datos basado en modeloshidrológicos que se estructura usando la metodología KSM, y que permite la realizaciónde sistemas concretos adaptados a las necesidades específicas de cualquier cuencahidrográfica.

• Un modelo del Dominio para Validación de datos en la cuenca del ríoVélez. Este capítulo presenta un ejemplo de aplicación del sistema genérico propuesto ala cuenca del río Vélez. Usando este ejemplo se explican y se demuestran algunas de lascaracterísticas más significativas del sistema propuesto, entre ellas la posibilidad deconstrucción de sistemas de validación por no-programadores.

• Conclusiones. Finalmente, se analizan las ventajas que presenta el sistema propuestoy se indican las posibilidades de reutilización del conocimiento, para construcción desistemas de estimación y predicción de datos hidrológicos, o para validación de datos enotros tipos de sistemas de información. Asimismo se plantean las líneas que quedanabiertas para futuros trabajos.

Page 20: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 1. Introducción___________________________________________________________________________

6

Page 21: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

7

CAPÍTULO 2

EL PROBLEMA DE LA VALIDACIÓNDE LOS DATOS HIDROLÓGICOS

2.1. Introducción

El problema de la detección de errores en series de datos hidrológicos ha sidoescasamente estudiado. No puede decirse que existan técnicas genéricas para el control de lacalidad de los datos. En la Guía de Prácticas Hidrológicas de la Organización MeteorológicaMundial [OMM,1984] se hace referencia a procedimientos de control de datos sobre latemperatura y la precipitación basados en la ordenación mecánica de los datos diarios pordistritos o por regiones. Trás esta ordenación se realiza una inspección visual de los datos y seaplica el sentido común para detectar errores groseros en la medición, ya sea por causa de unamagnitud excesiva, o por causa de una fecha errónea en el mismo.

Asimismo, para la detección de errores en los datos de flujo se proponen:

(a) una evaluación cualitativa de la correspondencia entre los caudales en el momento en quese realiza la medición, por ejemplo, valores de caudal en estaciones adyacentes.

(b) una evaluación cualitativa de la correspondencia entre el caudal observado y su valor enla medición anterior, teniendo en cuenta la máxima variabilidad posible.

(c) una comprobación aproximada del valor del caudal, verificando que su valor seencuentre dentro del entorno de valores posibles para la fase del régimen del río.

(d) una evaluación aproximada de la correspondencia entre el valor medido y las variacionesregulares producidas en un periodo anterior.

El planteamiento de estas recomendaciones está orientado a la validación de series dedatos tomadas manualmente, o al menos, aquellas cuyo procesamiento no se realiza de formaautomática. El problema que se plantea con la aparición de los sistemas de adquisiciónautomática de datos hidrológicos es que no se puede garantizar la supervisión de los mismosdado el gran volumen que suponen. El objetivo que se ha propuesto en esta tesis esprecisamente sistematizar el "sentido común" al que se alude de forma implícita en lasrecomendaciones anteriores. De hecho, estas recomendaciones se refieren a las técnicas depresentación de la información, más que al propio conocimiento sobre validación.

2.2. Los sistemas automáticos de información hidrológica.

Tradicionalmente, ha sido objeto de atención de los organismos públicos encargados dela administración de los recursos hídricos, la toma de datos sobre precipitaciones y caudalesaforados en la red hidrológica. Esta tarea se ha realizado manualmente desde hace más de unsiglo en ciertas estaciones. La mayoría de estas estaciones, muchas de las cuales aún siguen enfuncionamiento, son "totalizadoras", es decir, recogen sólamente la suma de las precipitacionesacaecidas durante una jornada. Igualmente en muchas de estas estaciones de aforo la toma demuestras se realiza una sola vez al día.

Page 22: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 2. El problema de la Validación de los Datos___________________________________________________________________________

8

Hoy en día, esta tarea esta siendo automatizada gracias a sistemas automáticos deadquisición de datos que disponen de sensores que transmiten la información por radio aordenadores centrales. En España, la Dirección General de Obras Hidráulicas, dentro delPrograma General de Seguridad y Explotación de Presas del Estado, está implantando desde1983 en las distintas Confederaciones Hidrográficas el sistema SAIH*.

Los objetivos que se intentan cubrir con este sistema son [Milla,1987]:

(1) Mejorar la gestión de los recursos hidráulicos.(2) Agilizar el proceso de toma de decisiones para previsión y actuación en avenidas.(3) Mejorar la información hidrológica.(4) Perfeccionar los medios y dispositivos de seguridad en las presas.

El SAIH consta de unas estaciones remotas que están distribuidas a lo largo de lageografía de una Confederación Hidrográfica. En cada estación remota se instalan dispositivoscapaces de medir automáticamente distintas magnitudes meteorológicas, hidrológicas y medio-ambientales, así como dispositivos capaces de operar a distancia ciertos mecanismos tales comocompuertas, bombas hidráulicas, etc.

El número y tipo de sensores instalados en cada una de las estaciones es variable,aunque en general la mayor parte de las estaciones disponen de pluviómetros capaces de medirla intensidad de lluvia, incluso algunas disponen de nivómetros. Las estaciones situadas en loscauces de los ríos disponen de una sección en la que es posible aforar el caudal y en losembalses también se dispone de sensores para medir el nivel del embalse y el grado de aperturade las compuertas.

Toda esta información se recoge en tiempo real y se va almacenando en la propiaestación para su transmisión posterior a unos nodos intermedios o puntos de concentración.Periódicamente (cada 5 minutos aproximadamente) la estación central rastrea las estacionesremotas ordenando la transmisión de la información almacenada en ellas, que es procesada eneste centro de control, presentada en unos paneles o terminales, y finalmente almacenada endisco o cinta magnetica.

Cada estación remota dispone a su vez de un dispositivo que supervisa elfuncionamiento físico de los sensores y de la propia red de transmisión de datos. Sin embargo,esta validación física resulta a veces insuficiente. Por una parte, la validación física no garantizala validez de los datos medidos, ya que pueden existir problemas de calibración en los sensores,o defectos en los mecanismos de lectura que resten sensibilidad a los mismos. Por otra parte, lavalidación física no resuelve otro de los problemas que se plantea: la recuperación o estimaciónde la información perdida.

Es por tanto necesario el estudio y desarrollo de un sistema capaz de detectar los fallos oinconsistencias en las series de datos temporales obtenidas por el SAIH y de estimar, en lamedida de los posible, los valores reales en caso de disfunciones notorias.

2 . 3 . Características principales que debe tener un sistema de validación dedatos hidrológicos.

Además de las características anteriormente citadas, un sistema de validación de datoshidrológicos en tiempo real, aplicable a las características concretas del sistema SAIH y a losrecursos económicos y humanos disponibles, debe cumplir una serie de requisitos:

(1) Funcionamiento en tiempo real y sobre datos grabados. Una de las principlaes diferen-cias entre el sistema tradicional de adquisición de datos y el moderno sistema SAIH es

* Sistema Automático de Información Hidrológica

Page 23: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 2. El problema de la Validación de los Datos___________________________________________________________________________

9

precisamente la inmediatez con la que se reciben los datos. Por tanto, una característicadeseable en el sistema de validación es que pueda funcionar en línea con la recepción delos datos. Un sistema con estas características permitirá la detección rápida de los fallosen los sensores, alertando sobre su mal funcionamiento y consiguientemente mini-mizando el tiempo de reparación o corrección de los mismos. Por otra parte, un sistemaque funcione en tiempo real puede y debe ser fácilmente adaptable para su uso sobreseries temporales previamente grabadas, lo que permite la validación del gran volumende datos actualmente existente.

(2) Funcionamiento sobre distintos tipos de datos y/o con distintos niveles de agregacióntemporal. La información hidrológica que se recibe puede provenir de distintas fuentes,algunas de ellas externas al propio sistema SAIH. Por ejemplo, la información obtenidamediante el radar meteorológico puede servir para contrastar la información medida porlos pluviómetros. Así mismo, si se trabaja sobre series de datos grabadas, puedeincorporarse la información registrada por las estaciones “manuales” que todavíaexisten. Por otra parte, las series de datos hidrológicos pueden venir dadas a diferentesniveles de agregación temporal, desde datos recogidos en tiempo real hasta datoshistóricos recogidos diariamente.

(3) Capacidad de funcionamiento en condiciones de incertidumbre e imprecisión.Evidentemente, una de las características de un sistema de validación de datos esprecisamente que debe procesar información sobre cuya veracidad no existe unacompleta certeza. Por tanto, de una u otra forma debe tratar el problema de laincertidumbre. Además, algunos de los datos obenidos, aún siendo completamentefiables, pueden no ser exactos. Por otra parte, tal como se ha indicado en el puntoanterior, los datos pueden provenir de diferentes fuentes de información, y por tanto lafiabilidad y exactitud de los mismos será variable.

(4) Utilización del conocimiento existente. Uno de los objetivos que debe cumplir el sistemade validación que se proponga es ser capaz de utilizar en su provecho el conocimientoque actualmente existe sobre el funcionamiento de las cuencas. Este conocimiento dalugar al establecimiento de modelos empíricos, modelos estadísticos o modeloscomputacionales que en ciertos casos se sabe que funcionan correctamente para predecirel comportamiento de la cuenca. Por tanto, el sistema de validación no debe imponer lautilización de un modelo concreto sino, por el contrario, estar abierto al posible uso delos modelos disponibles. Asimismo, los equipos humanos encargados de laadministración y control de las cuencas suelen estructurar la información proveniente delas mismas de acuerdo a esquemas propios que les resultan familiares y que estánacostumbrados a manejar como unidades más o menos independientes. Por ejemplo, esnormal en una conversación escuchar términos como "la cuenca alta del río Vélez", o"los afluentes por la margen derecha", etc. Esta estructuración supone un conocimientopre-existente sobre un comportamiento común de ciertos elementos hidrológicos quenaturalmente se agrupan como una entidad propia dentro de la cuenca global.

(5) Facilidad de adaptación a distintos entornos. Evidentemente, un sistema de validacióndebe ser suficientemente genérico como para poder adaptarse con facilidad a distintascuencas y distintas situaciones. Muchos sistemas construídos para el modelado de unadeterminada cuenca resultan ineficaces cuando se transladan a otra. El sistema propuestodebe tener en cuenta esta diversidad, permitiendo su adaptación en función de lasnecesidades concretas, los modelos disponibles, etc.

(6) Facilidad para realizar modificaciones en el sistema. La aparición de nuevas tecnologías,nuevos modelos o criterios de validación diferentes de los actuales, no debe ser óbicepara descartar totalmente un sistema construído anteriormente. De hecho, es de suponerque con la experiencia en la operación del propio sistema sea necesaria la realización deestos cambios.

Page 24: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 2. El problema de la Validación de los Datos___________________________________________________________________________

10

(7) Generación de explicaciones sobre el proceso de razonamiento que lleva a validar oinvalidar un determinado dato, ya sea simultáneamente al proceso de validación omediante un archivo de control que pueda ser revisado en caso necesario. Un sistema devalidación que sólo emita juicios sobre la validez o no de los datos, sin másexplicaciones, no puede ser valorado y calibrado adecuadamente, o al menos esta tarease realiza con mucha mayor dificultad.

(8) En la medida de lo posible todo sistema informático debe ser reutilizable. Las piezas ocomponentes "software" que lo integran cumplen una determinada función en el sistemapara el que han sido concebidas, aunque algunas de ellas pueden servir a distintospropósitos. Por ejemplo, el modelo de comportamiento de un tramo de río que utiliza unsistema de validación de datos puede ser reutilizado en un sistema de previsión deavenidas. Existen muchos ejemplos de los problemas que ocasiona el desarrollo desistemas que no cumplen esta condición, ya que conllevan en muchos casos laduplicidad del trabajo. La tendencias actuales tanto de la "ingeniería del software"clásica, como de la recientemente acuñada "ingeniería del conocimiento" abundan en laidea de construcción de bibliotecas de componentes software reutilizables* En estesentido, las ventajas de una programación bien estructurada a nivel cognitivo se hacensentir a largo plazo.

(9) Por último, el sistema debe ser asequible a los propios usuarios. De nada sirve laflexibilidad y adaptabilidad del sistema si no se cuenta con los recursos humanosnecesarios para realizar en el sistema los cambios necesarios. En general, este es uno delos factores que en la actualidad provocan el fracaso de muchos de los sistemasinformáticos hechos "a medida". Una vez que el sistema se adapta al caso concreto, secalibra y se hace entrega de él a los responsables de la gestión hidrológica, en general, elmantenimiento diario del mismo queda en manos de personal no especializado eninformática. Esto no quiere decir que no dispongan de unos conocimientos mínimos,sino que, en general, no son "programadores", en el sentido tradicional del término.Buena prueba de ello es la popularidad que han alcanzado entre muchos ingenieros losprogramas tipo "hoja de cálculo", que permiten realizar sin necesidad de "programar"**,tareas similares a las que se pueden realizar con los lenguajes de programación de altonivel. Resulta por tanto muy atractiva la idea de construir un sistema complejo, como esel sistema de validación, de forma que pueda ser utilizado, modificado y conformadopor el propio usuario, con unos conocimientos mínimos sobre programación, y deacuerdo a sus propias necesidades, tal como lo hace actualmente con programas mássimples.

2.4. Fundamentos del sistema de validación

El diseño de una herramienta informática capaz de realizar la tarea de validaciónadecuándose a las características señaladas anteriormente requiere previamente un estudio de lasposibilidades que existen actualmente de llevar a cabo esta tarea y de las metodologías ysistemas que pueden ser aplicados. Los cuatro capítulos siguientes están dedicados a plantearlos antecedentes y a revelar las bases que sustentan la solución que finalmente se propondrápara alcanzar los objetivos fijados en el punto anterior.

En primer lugar, es necesario estudiar la adecuación de técnicas específicas de validaciónque en la actualidad se aplican a otros campos de la ingeniería o que hayan sido planteadasdesde perspectivas teóricas. Es necesario investigar las posibilidades de adaptación de las

* Véase el capítulo 6 para una discusión mas extensa de la relación entre estos términos.** El término "programar" aparece entrecomillado debido a que en realidad puede considerarse programacióncualquier conjunto de instrucciónes escritas que se proporcionan al ordenador para que este realice una determinadatarea. Sin embargo, aquí se usa en un sentido mas restringido, aplicable a la escritura de programas de ciertaentidad, en los llamados lenguaje de alto nivel, tales como C, FORTRAN, PROLOG, LISP, etc.

Page 25: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 2. El problema de la Validación de los Datos___________________________________________________________________________

11

mismas al problema de la validación de los datos hidrológicos, dadas las características propiasde éstos. Este estudio se recoge en el siguiente capítulo de esta memoria, y en él se concluyeque dichas técnicas no ofrecen una solución completamente satisfactoria al problema que seplantea, dadas las características del mismo que se han expuesto anteriormente.

Dado que ninguno de los sistemas existentes ofrece una solución satisfactoria, sepropone la búsqueda de una solución al mismo desde nuevos planteamientos, másconcretamente se replantea el problema de validación como un problema de diagnóstico. En laactualidad, la Inteligencia Artificial ofrece dos vías principales de solución al problema dediagnóstico. La primera de ellas se basa en la utilización de reglas heurísticas y la segunda en lautilización de modelos. En el capítulo 4 se efectúa una revisión de las diferentes técnicasdisponibles en ambas vías, realizando un estudio sobre su aplicabilidad al problema devalidación de datos hidrológicos y concluyendo la mejor adaptación de los sistemas dediagnóstico basados en modelos.

Para soportar el segundo enfoque se estudian los modelos de comportamientodisponibles y su adecuación al sistema propuesto. Esta tarea se plasma en el capítulo 5,dedicado a los modelos hidrológicos y a los antecedentes de modelización del conocimientohidrológico que dan lugar a la propuesta de esta tesis.

Finalmente, a fin de alcanzar algunos de los requisitos expuestos anteriormente seplantea el problema de la elicitación del conocimiento sobre el funcionamiento del sistema, y elmodo de emplear este conocimiento para realizar la validación, así como el mantenimientofuturo del mismo. Estos factores influyen durante todas las etapas de construcción del sistema,pero muy especialmente durante las fases de diseño y de adquisición del conocimientoespecífico del dominio. Las técnicas aplicables para satisfacer estos factores corresponden a lasmetodologías de desarrollo de los sistemas inteligentes, que facilitan tanto la sistematización delproceso de diseño, como la elicitación del conocimiento del dominio o el mantenimiento porparte de los propios usuarios.

Page 26: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 2. El problema de la Validación de los Datos___________________________________________________________________________

12

Page 27: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

13

CAPÍTULO 3

DESCRIPCIÓN Y VALORACIÓN DE LASSOLUCIONES ACTUALES AL PROBLEMA

DE LA VALIDACIÓN DE DATOS

3.1. Introducción.

La validación de datos es un problema asociado a todos aquellos dominios en los que unconjunto de sensores se encargan de vigilar el estado de un sistema. Por tanto, no es de extrañarque se hayan desarrollado mecanismos y técnicas de validación en campos aparentemente tandispares como la industria aeroespacial (según cita [Upadhyaya,1985]), las centrales nucleares[Chandrasekaran,1987], las plantas químicas o los sistemas de redes de abastecimiento de agua[Watts,1993]. En muchos de estos campos aparece el problema de validación de datos como unsubproblema asociado al problema de la monitorización del funcionamiento del sistemamediante la detección de los valores de ciertas magnitudes estratégicamente seleccionadas (véasepor ejemplo [Kim,1990]). Estas magnitudes se muestran continuamente en un panel de controly de acuerdo con sus valores se generan las alarmas o se toman las decisiones de actuaciónoportunas. Un típico ejemplo de esto son los sistemas SPDS* requeridos para la seguridad delas centrales nucleares.

Fácilmente se comprende que es de vital importancia en estos dominios garantizar lafiabilidad de estas medidas, ya que de ellas dependen decisiones que pueden resultar cuandomenos económicamente muy costosas. En este sentido es especialmente preocupante ladeterminación de las situaciones de alarma, y no menos importante la eliminación de las falsasalarmas debidas a disfunciones en los sensores. La diferenciación de ambas situaciones requiereuna verificación previa de los datos.

En general, para garantizar una alta fiabilidad en las medidas se recurre al aumento delnúmero de sensores de manera que una misma magnitud sea controlada por más de un sensor.Esta redundancia en las medidas puede conseguirse mediante:

(1) La incorporación de múltiples sensores de un mismo tipo que miden una mismamagnitud en un mismo punto del sistema.

(2) La incorporación de múltiples sensores de diferentes tipos que controlan una mismamagnitud mediante diferentes métodos de medida.

(3) La relación que el funcionamiento correcto del sistema impone entre las medidasefectuadas por sensores situados en diversos puntos y que controlan magnitudes dediversos tipos. En este caso, el problema de validación supone la realización de dostareas: (a) la extrapolación de los datos de unos sensores para la estimación de losvalores de otras magnitudes; y (b) la validación de estas medidas propiamente dicha .

* Corresponde a las siglas inglesas de “Safety Parameter Display System”, Sistema de Presentación de losParámetros de Seguridad.

Page 28: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 3. La Validación de los Datos Hidrológicos en Tiempo Real___________________________________________________________________________

14

En cualquier caso, el problema de validación sigue abierto, ya que cuando existe unconflicto entre las medidas, ya sean directas, indirectas, o simplemente estimaciones de valoresaceptables, es necesario decidir cuáles son correctas y cuáles son erróneas. En general elproblema es aún más complicado, ya que se debe tener en cuenta la distinta precisión yfiabilidad de los sensores implicados en cada medida.

Existen diferentes métodos y técnicas propuestas para la realización de la tarea devalidación. En una primera aproximación, atendiendo a la tarea que realizan los sistemas devalidación se pueden diferenciar en:

(1) los que abordan exclusivamente el problema de la validación propiamente dicho. Sonespecialmente adecuados en los casos en que existe una redundancia directa en lasmedidas (lo que [Chandrasekaran,1987] llama redundancia del hardware), y se aplicana sistemas en los que resulta fácil y poco costosa la incorporación de múltiplessensores.

(2) aquellos que incluyen la determinación de dicha redundancia a partir de las medidas dediferentes magnitudes. Estos resultan especialmente adecuados cuando existen modelosde funcionamiento del sistema que imponen restricciones claras entre los valores endiversos puntos.

Por otra parte, atendiendo al factor temporal de las magnitudes medidas se puededistinguir entre métodos estáticos y dinámicos [Upadhyaya,1985]:

(1) Los métodos estáticos son aquellos que no tienen en cuenta el funcionamiento delsistema y que se limitan a determinar el estado de funcionamiento de un sensor mediantecomprobaciones de los valores instantáneos que se realizan periódicamente,comparando los resultados con series estadísticas previamente determinadas o conciertos límites preestablecidos.

(2) Los métodos dinámicos, por el contrario, tienen en cuenta la serie temporal de medidasrealizadas durante un cierto intervalo, analizando estas señales de forma estadística orelacionándolas con modelos de funcionamiento del sistema.

Por último, atendiendo al paradigma que sirve de base al sistema de validación, sepueden distinguir sistemas:

(1) estadísticos, que propugnan criterios de comparación entre los valores medidos oestimados basados en la aplicación de diversos tests de correlación, por ejemplo lossistemas basados en el índice GLR (Generalized Likelihood Ratio), o el análisis decorrelaciones entre las medidas de sensores independientes (para más información sobreestos métodos véase [Upadhyaya,1985]).

(2) empíricos, que aportan un mecanismo o estrategia de comparación propio que permitedetectar y aislar el fallo de un sensor frente al resto. En esta línea, uno de los métodosmás populares actualmente en las instalaciones de sensores de plantas industriales es elmétodo del espacio de paridad [Ray,1986].

(3) basados en el conocimiento, entre los que se pueden incluir todos aquellos que de una uotra forma incorporan un conocimiento sobre el sistema físico. En algunos casos esteconocimiento consiste en un elenco de fallos que pueden ocurrir en el sistema o en sussensores. Siguiendo esta línea, que enlaza con las técnicas tradicionales de sistemasexpertos se encuentran sistemas como los descritos por [Chandrasekaran,1987] o[Watts,1993]. De otra parte, resultan especialmente interesantes los sistemas queincorporan conocimiento sobre el comportamiento global del sistema físico o de suscomponentes y que permiten realizar la validación de los datos como un subproducto deuna tarea más amplia como es la comprensión o interpretación global de los procesos

Page 29: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 3. La Validación de los Datos Hidrológicos en Tiempo Real___________________________________________________________________________

15

que se están llevando a cabo en el sistema. Entre estos últimos el mejor ejemplo es elsistema DATMI [deCoste,1990].

A continuación se hace una reseña de las características más destacables de algunos delos mecanismos o sistemas de validación más representativos, comentando sus posiblesaplicaciones en el campo de los sistemas automáticos de adquisición de datos hidrológicos. Sehan seleccionado tres sistemas para su análisis detallado, atendiendo a la diversidad de laspropuestas que realizan y al ámbito genérico que propugnan. En la actualidad existen muchosotros sistemas de validación de datos desarrollados “ad-hoc” en distintos campos de laingeniería, pero por su excesiva especialización no resultan de interés para el problema generalde validación de datos hidrológicos.

3.2. El método del espacio de paridad*

Asok Ray y Mukund Desai [Ray,1986] propusieron un procedimiento de detección yaislamiento de fallos basado en la proyección del conjunto de medidas sobre un “espacio deparidad”. Este método es aplicable a magnitudes tanto escalares como vectoriales, por lo que seha usado en campos como la instrumentación aeronáutica o los sistemas de alerta de seguridadde centrales nucleares. Su planteamiento es el siguiente:

3.2.1. Descripción del método

Sea una magnitud n dimensional x(t) monitorizada por p sensores mediante las medidasm1(t).., mp(t). Para que exista redundancia es necesario que p sea mayor que n. La relaciónentre las medidas y la magnitud real viene dada por:

m(t) = H(t) x(t) + ε(t)

en donde

m(t) es vector de medidas que se efectúan (de dimensión p),x(t) es el vector desconocido (de dimensión n) correspondiente a la variable real que

se desea medir,H(x) es la matriz de mediciones (de dimensión p × n) conocida a priori, que relaciona

la variable real con las medidas, yε(t) es el vector (de dimensión p) correspondiente a los errores instantáneos en la

medición, que agrupa a errores de calibración, ruido en la señal, etc.

A fin de simplificar la notación, en adelante se escribe la fórmula anterior en formamatricial:

m = Hx + ε

La idea central del método consiste en eliminar de la ecuación anterior el términocorrespondiente a la variable real desconocida. Para ello se premultiplica la expresión por unamatriz V de dimensión ((p-n) × p) ortogonal a H, es decir:

V·H = 0 V·VT = Ip-n

El espacio vectorial definido por los vectores columna v1,.v2,..vp de la matriz V sedenomina “espacio de paridad” de H y la proyección de m sobre este espacio es el “vector deparidad”:

* Traducción literal de lo que en inglés se denomina “parity-space”, término que normalmente se emplea parareferirse a este procedimiento.

Page 30: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 3. La Validación de los Datos Hidrológicos en Tiempo Real___________________________________________________________________________

16

rp = V·m = V·ε

Para situaciones normales de funcionamiento en las que no se produce ningún fallo, elmódulo del vector de paridad

rp es pequeño. Si se produce un fallo en cualquiera de las

medidas el módulo del vector de paridad aumenta. Además, el fallo de una medida mi implica elcrecimiento del vector

rp en la dirección de la componente vi ; y en general, el fallo en un

subconjunto de medidas implica el crecimiento del vector rp en el subespacio asociado.

Si se establecen cotas b1,b2,...bp para los errores máximos admisibles en cada sensorε1, ε2,....,εp, los hiperplanos correspondientes establecen sobre el espacio de paridad unasregiones de consistencia entre las medidas. La localizacción del vector de paridad dentro deestas regiones, permite establecerse cuales es la consistencia que presentan unas medidas conrespecto a las demás.

Por ejemplo, se desea estimar una magnitud escalar x mediante tres medidas m1, m2,m3, siendo los errores máximos admisibles b1, b2, b3, respectivamente. Representando estasituación en tres dimensiones, se obtiene una partición del espacio mediante los seis planos,paralelos dos a dos. A cada una de estas partes se le denomina región de consistencia.Proyectando sobre el espacio de paridad, de dimensión (n-p), y que en este caso resulta ser unplano normal al vector [1,1,1], se obtiene una representación de las regiones de consistencia, talcomo se muestra en la primera de las siguientes figuras:

plano de paridad

2b1

2b2

2b3

m1

m2

m3

No hay fallo

[m1,m2]

[m1,m3]

[m2,m3]

[m1]

[m2] [m3]

v1

v2

v3

[m3]

[m1]

[m2,m3]

[m1,m2]

[m2]

Mas de un fallo

Mas de un fallo

Mas de un fallo

Mas de un fallo

Mas deun fallo

Mas de un fallo

[m1,m3]

En la figura de la derecha se muestran las diferentes regiones del plano de paridad que sehan etiquetado según las inconsistencias que representan. Como puede observarse, existendiferentes situaciones que se infieren a partir de las medidas según los limites de toleranciafijados. Los puntos que se proyectan en el exágono central corresponden a situaciones en lasque la medida realizada por los tres sensores es coherente. Otras regiones del planorepresentadas como [mi] muestran situaciones en las que el sensor i falla por exceso o pordefecto, siendo las medidas de los otros dos sensores coherentes entre sí. Las regionesetiquetadas como [mi,mj] representan un conflicto entre las medidas de los sensores i y j,aunque ambas son consistentes con la tercera medida. Por último, las regiones más externascorresponden a una gran disparidad en la medida de los tres sensores, que sugiere que al menosdos de los sensores fallan, si bien no es posible determinar cuáles. En el plano de paridad seindican las direcciones de los vectores v1,v2,v3, que forman la matriz de transformación V.

Cuando se trata de magnitudes escalares (n=1) el problema se simplifica. Se puedesuponer, sin pérdida de generalidad, que la matriz de mediciones es H = [1,1,...1]T. Por otraparte, para que un conjunto de k medidas sea consistente deben serlo los k(k-1)/2 pares demedidas entre sí. Según estas premisas los autores proponen el siguiente algoritmo para

Page 31: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 3. La Validación de los Datos Hidrológicos en Tiempo Real___________________________________________________________________________

17

gestionar la información que proporcionan p medidas redundantes de tipo escalar. El método sebasa en la determinación de dos índices de consistencia para cada medidas:

(1) Ordenar las medidas en orden creciente, de forma que: m1<= m2 <= ... <= mp

(2) Para cada una de las medidas determinar los índices de consistencia superior e inferiorsegún las expresiones:

∀ i ∈ 1,2,K, p- 1{ } Ni+ = c mi consistente con mj( )

j=i+1

p

∑ , Np+ = 0

∀ i ∈ 2,3,K, p{ } Ni- = c mi consistente con mj( )

j=1

i-1

∑ , Np- = 0

en donde:

χ p( ) =1, si p es verdadero

0, si p es falso

Puede emplearse en esta fórmula cualquier criterio de consistencia. Por ejemplo, si seestablecen cotas b1,b2,...bp para los máximos errores admisibles, la consistencia entredos medidas mi y mj viene dada por la expresión*:

(mi − mj ) > (bi + bj )

(3) (a) Si: ∀ i Ni+ = Ni

- = p- 1, entonces el conjunto total de medidas es consistente

(b) Si Ni+ = Ni

- = 0 entonces mi es inconsistente con respecto a las p-1 medidasrestantes.

(c) Si existen medidas mj1≤ mj2

≤ ... ≤ mjq , tales que ∀k = 1,2,3,Kq ,

N jk

+ = N jk +1- = 0 entonces los conjuntos de medidas

[m1,K,mj1

],

[mj1 +1,K,mj2

] , . . . , [mjq +1,K,mp ] son mutuamente inconsistentes entre sí, y las

medidas de cada uno de ellos internamente son consistentes o moderadamenteconsistentes, es decir ninguno de estos conjuntos puede ser descompuesto en doso más subconjuntos de medidas inconsistentes.

3.2.2. Aplicación a la validación de datos hidrológicos.

El problema de validación de datos en la red de sensores que monitorizan el estado deuna cuenca comparte algunas características con los dominios sobre los que se han desarrolladoy aplicado los métodos descritos en el epígrafe anterior. A primera vista, no cabe duda de queen cierta forma se puede asimilar el sistema natural constituido por las cuencas hidrológicas y lared fluvial a una planta industrial en la que se realizan ciertos procesos.

Sin embargo, el método del espacio de paridad ofrece sólo una solución parcial alproblema de validación de los datos hidrológicos. La aplicación de este método no resuelve elproblema de la validación de los datos hidrológicos, debido a las siguientes consideraciones:

(1) En primer lugar, el número de sensores disponible en los sistemas hidrológicos esrelativamente pequeño, como consecuencia de su alto coste de instalación. En una

* Véase [Polenta,1988] para un ejemplo de aplicación de este algoritmo en el que se utiliza este criterio deconsistencia.

Page 32: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 3. La Validación de los Datos Hidrológicos en Tiempo Real___________________________________________________________________________

18

central nuclear, o una planta química, la instalación de un sensor es relativamentesimple. Por tanto, si se desea tener redundancia en las medidas basta con incorporarmúltiples sensores que midan directamente la misma magnitud. En general, las técnicasdesarrolladas en estos sectores son aplicables cuando existe un alto grado deredundancia. En el sistema de monitorización hidrográfico, por el contrario, rara vezexisten sensores duplicados, con lo cual la redundancia debe buscarse en la dependenciaindirecta que imponen las leyes físicas entre medidas realizadas en diferentes puntos dela red, utilizando modelos que permitan estudiar la coherencia entre los valores medidosdirectamente y los extrapolados a partir de los valores medidos en otros puntos, siendoesta una tarea computacionalmente más costosa.

(2) El método del espacio de paridad propuesto para validación de datos en centrales oplantas industriales no tiene en cuenta la distinta fiabilidad de las medidas. En el caso enque las medidas se realicen directamente, o bien cuando se obtienen medianteextrapolaciones de leyes físicas que rigen procesos perfectamente conocidos, lafiabilidad en las medidas corresponderá con la fiabilidad asociada al sensor. Sinembargo, como ya se indicó anteriormente, para obtener la redundancia en las medidasen el dominio de la hidrología es necesario emplear modelos que infieran unasmagnitudes en función de otras, ya que rara vez existe redundancia directa. Dado queestos modelos no son completamente fiables y exactos, la inferencia que se realiza apartir de ellos se ve afectada por una imprecisión y una incertidumbre que debe tenerseen cuenta al establecer las conclusiones.

(3) Una vez determinado que existe un fallo en un sensor, una de las posibles líneas deactuación es la recuperación de ese error, es decir, la estimación del valor real de lamagnitud que se desea medir. Si se dispone de múltiples sensores que midendirectamente la misma magnitud esta tarea resulta trivial, basta con eliminar los datos delsensor erróneo. Sin embargo, si la redundancia en las medidas se obtiene entre sensoresque miden distintas magnitudes, se hace necesaria la aplicación de modelos quepermitan inferir valores razonables para las variables desconocidas.

(4) Este mecanismo no es capaz de generar explicaciones sobre las conclusiones que seestablecen. El objetivo principal del método es localizar las discrepancias y solventarlasde acuerdo a un criterio computacionalmente rápido, lo cual es adecuado en caso deredundancia directa, pero es excesivamente pobre en caso de que la redundancia se hayaobtenido mediante diferentes vías, o a través de los datos inferidos mediante modelos.

Otros aspectos menos relevantes del problema, que también ponen de manifiesto ladisparidad entre los objetivos a alcanzar en los dominios a los que se aplica el método delespacio de paridad y el caso hidrológico, son los siguientes:

(1) Las posibilidades de control de los procesos hidrológicos son limitadas. Salvo lasmedidas de prevención y alerta rápida y las actuaciones sobre las compuertas deembalses, poco se puede hacer para controlar el proceso. Las actuaciones a su vez sedeterminan en función de un conjunto suficientemente amplio de parámetros y de lasexpectativas de evolución a corto y medio plazo, con lo cual la repercusión directa deuna anomalía en un sensor determinado no es tan preocupante como pudiera serlo, porejemplo, la lectura errónea en un parámetro de seguridad de una central nuclear.

(2) El tiempo de respuesta que se requiere para los sensores de una red de controlhidrográfico es comparativamente mayor que el que se requiere en aviónica o en lasinstalaciones industriales. Dado que los procesos que se llevan a cabo en el sistemafísico natural de las cuencas evolucionan lentamente, en general es suficiente unmuestreo con los sensores a intervalos de varios minutos, para tener un buenconocimiento del estado del sistema. Los procesos industriales generalmente requierenmonitorizaciones a intervalos de tiempo más cortos. Por tanto, se espera que losmétodos de validación utilizados proporcionen tiempos de respuesta en muchos casosinferiores al segundo. En este sentido, es habitual que los procedimientos de validación

Page 33: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 3. La Validación de los Datos Hidrológicos en Tiempo Real___________________________________________________________________________

19

se incorporen al sistema de sensores mediante equipos "hardware" específicamentediseñados y construídos para ello [Polenta,1988]. Esto es posible gracias a que elprocedimiento de validación es relativamente simple en el caso de que existan múltiplesmedidas tomadas directamente sobre un mismo punto.

3.3. Validación de datos durante el diagnóstico clasificativo jerárquico.

Desde el campo de la Inteligencia Artificial, y más concretamente desde la perspectiva delos sistemas expertos, que se analizarán con más detenimiento en el capítulo siguiente, se hanpropuesto algunos sistemas específicos para realizar la validación de datos. En general lossistemas descritos no pretenden establecer un marco genérico en el que afrontar los problemasde validación, sino por el contrario, pretenden resolver problemas concretos. En esta línea sepuede situar el sistema descrito por [Watts,1993] para la monitorización y validación delfuncionamiento de una red de abastecimiento de agua potable.

Más interesante resulta el sistema descrito por Chandrasekaran y Punch[Chandrasekaran,1987], que surge como un subsistema complementario de un sistema dediagnóstico de fallos en el circuito de refrigeración de una central nuclear.

3.3.1. Descripción del sistema

El objetivo pricipal del sistema es el diagnóstico en tiempo real del estado de seguridadde una central nuclear. Este diagnóstico se lleva a cabo mediante la clasificación jerárquica deuna serie de disfunciones precompiladas siguiendo la estrategia denominada establecer-y-refinar.* A grandes rasgos, este método establece una jerarquía con estructura arborescenteentre las disfunciones que pueden ocurrir en la central, tal como indica abreviadamente elejemplo de la siguiente figura.

Fallo en la válvula de escape

Fallo General

Fallo en el sistemade presión

Fallo en el sistemade refrigeración

Fallo en la válvula central

Fallo en el condensador

Fallo en el sistema de

alimentación

Cada uno de los nodos de este árbol corresponde a anomalías ya conocidas que podríanocurrir. En su caso, cada una de ellas se establece en función de la presencia de ciertos síntomasentre los que se encuentran los valores anómalos de algunos sensores. Cada nodo tiene portanto asociado un grupo de conocimiento, consistente en las condiciones que se requieren paraestablecer que se ha producido una cierta disfunción. Una vez establecida una disfuncióncorrespndiente a un nodo no terminal en la jerarquía el sistema intenta refinar el diagnósticomediante el establecimiento de alguno de sus descendientes.

Como se ha indicado anteriormente, la validación de los datos que permiten establecer orechazar un diagnóstico es de vital importancia cuando de él se desprenden actuacionescostosas. Por consiguiente, a fin de aumentar la fiabilidad el sistema actúa de la siguiente forma:

* En el capítulo 4, dedicado a los problemas de diagnóstico en inteligencia artificial se expone con mas detalle laaplicación de este método al sistema de diagnóstico médico MDX [Chandrasekaran,1979]

Page 34: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 3. La Validación de los Datos Hidrológicos en Tiempo Real___________________________________________________________________________

20

(1) Se recorre la jerarquía de forma descendente, utilizando la estrategia de establecer yrefinar. Un diagnóstico (un nodo de la jerarquía) puede establecerse aún cuando no severifiquen todos los síntomas que aparecen en el grupo de conocimiento, siempre queexista una evidencia que se estime suficiente. En el caso de que el nodo se establezca apesar de que alguno de los síntomas correspondientes al valor de un sensor no es elesperado, el dato que no encaja con las expectativas debe ser cuestionado e investigadoposteriormente con mayor detalle. Por ejemplo, en el supuesto de que se activa la alarmade temperatura y que hay indicios de un fallo en alguna de las válvulas, podríaestablecerse el nodo correspondiente a un fallo en el sistema de presión aún cuando elindicador de presión mantenga niveles normales, poniendo en cuestión el sensorcorrespondiente. Según abogan los autores, esta forma de proceder se acerca más almodo en que actúan los expertos humanos ante un problema real.

(2) En caso de que algún dato sea cuestionado durante el proceso de diagnóstico se recurre aalguna técnica de resolución que permita dilucidar el problema. Los autores citan tresmecanismos que permiten esta resolución: (1) examinar los nodos contiguos en lajerarquía para comprobar si alguno de ellos acepta el valor cuestionado, o si de ellos sedesprende también la puesta en cuestión del dato, aumentando o disminuyendo de estaforma la evidencia en favor del fallo en el sensor; (2) comprobar si alguno de los nodosdescendientes en la jerarquía del diagnóstico que cuestiona el dato, tiene evidenciasuficiente para establecerse con independencia de éste, lo que indicaría claramente unfallo en el dato; y (3) recurrir a nuevas medidas más detalladas mediante otros sensoresque midan directa o indirectamente la magnitud cuestionada.

(3) Una vez resuelta la investigación sobre el valor del dato, se modifica la base deconocimientos del caso. Es posible que debido a este dato incorrecto se haya establecidopreviamente alguna conclusión errónea, por lo que conviene volver a recorrer lajerarquía hasta que ningún dato sea puesto en tela de juicio, o hasta que se obtenga undiagnóstico que se estime satisfactorio.

3.3.2.Aplicación a la validación de datos hidrológicos

En este sistema, la validación de los datos es una tarea auxiliar. Por consiguiente, laaplicación de este sistema al caso hidrológico es limitada, principalmente por las siguientesrazones:

(1) En condiciones de funcionamiento normales, en los que ningún nodo se establece, sóloson objeto de validación los sensores que entren a formar parte del grupo deconocimiento de este nodo, es decir, sólo se realiza la validación de datos cuando esnecesaria para garantizar la fiabilidad de unas medidas que indican un fallo. En elsistema de validación de datos hidrológicos por el contrario, es interesante elfuncionamiento de alerta permanente, no sólo para la detección de fallos en las medidasen situaciones extremas, sino también para garantizar la exactitud de todas las medidasrealizadas en circunstancias normales.

(2) Esta validación es insuficiente en el dominio de la hidrología ya que el objetivo de lossistemas de adquisición automática de datos hidrológicos es más amplio. Los datos ensí suponen una información que puede usarse de forma inmediata para la prevención deavenidas, o bien pueden almacenarse como un recurso disponible para futuros estudiosestadísticos. Por tanto, se requiere que el sistema de validación sea capaz, a ser posible,de validar todos los datos en condiciones normales de funcionamiento y no sóloalgunos de ellos.

Sin embargo, aunque como puede deducirse de las reflexiones anteriores el sistema noresulta aplicable directamente, sirve para poner de manifiesto los siguientes factores:

(1) Los sistemas basados en el conocimiento se han aplicado ya al problema de validaciónde datos, estableciendo una nueva vía de solución al problema. En este sistema se pone

Page 35: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 3. La Validación de los Datos Hidrológicos en Tiempo Real___________________________________________________________________________

21

de manifiesto que una de las principales fuentes de solución al problema de validaciónes el conocimiento preexistente sobre el funcionamiento del sistema físico que se deseacontrolar. Como ya se indicó esta es una de las características que se estimaronnecesarias para un sistema de validación de datos hidrológicos en el capítulo anterior.

(2) Los sistemas basados en el conocimiento ofrecen la posibilidad de generar explicacionessobre las conclusiones que establecen, desarrollando así otra de las característicasseñaladas en el capítulo anterior.

(3) El conocimiento que se utiliza para realizar la tarea de validación queda expuestoclaramente mediante el conjunto de reglas y el procedimiento de inferencia quecomponen el sistema experto, facilitando así su comprensión por los usuarios delsistema y facilitando de esta manera la revisión y el mantenimiento del mismo.

3.4. El sistema DATMI

Otra contribución de la Inteligencia Artificial al problema de la validación de los datosproviene de un enfoque diferente al anterior. Más concretamente, desde el campo delrazonamiento y modelado cualitativo. Al igual que en el caso anterior, los sistemas descritos noafrontan directamente la validación de los datos, sino que ésta resulta ser un subproducto de unsistema mayor.

Dennis deCoste [deCoste,1990], [deCoste,1991], dentro del marco más general de lacomprensión de los procesos que ocurren en un sistema a partir de la interpretación de los datosque se reciben de los sensores, propone un interesante mecanismo que permite simultáneamentedetectar y corregir los fallos.

3.4.1. Descripción del sistema

El mecanismo propuesto, denominado DATMI* utiliza un grafo de envisionment **

similar al usado por el sistema de razonamiento cualitativo QPE [Forbus,1986] que se suponeque representa completamente el funcionamiento del dispositivo. Este grafo es similar a unautómata finito en el que los nodos o estados representan las distintas combinaciones de laspropiedades o valores cualitativos de las variables que describen el comportamiento del sistema.Los arcos entre nodos del grafo representan las posibles transiciones que pueden producirseentre los estados del sistema físico.

Los valores a lo largo del tiempo de las variables que definen el estado del sistema engeneral corresponden a las observaciones realizadas mediante sensores. Estas observacionesson traducidas al espacio cualitativo sobre el que se define el grafo de envisionment medianteuna tabla de conversión que asocia a cada valor cuantitativo uno o más valores cualitativos, cadauno de ellos afectado mediante una "probabilidad"*3 que permite incorporar la incertidumbre enla toma de medidas. El sistema también prevé que las series temporales sean incompletastraduciendo en estos casos la medida a un valor especial que representa a cualquier posible valordel espacio cualitativo.

Una vez discretizadas las medidas, sobre la dimensión temporal, se hallan los intervaloso segmentos en los que los valores cualitativos se mantienen constantes. Para cada uno de estossegmentos se definen las configuraciones como el conjunto de estados que son compatibles condicho segmento. Un estado es compatible con un segmento cuando los valores de todas las

* DATMI corresponde a las iniciales de Dynamic Across-Time Measurement Interpretation, es decirInterpretación Dinámica de Medidas a Intervalos Temporales.** En español podría traducirse por grafo de expectativas, si bien este anglicismo es de uso común.*3 DeCoste utiliza el término probabilidad en sentido informal para referirse a una medida de confianza subjetivade que ocurra un determinado suceso. Por tanto, tal vez sería mas adecuado el uso de posibilidades en el sentido enque éstas se emplean para el razonamiento aproximado difuso. (Véase [Dubois,1980] para mayor información)

Page 36: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 3. La Validación de los Datos Hidrológicos en Tiempo Real___________________________________________________________________________

22

variables cualitativas que describen el estado encajan con los valores observados durante elsegmento. La unión de todas las configuraciones forman el espacio de configuraciones.*4.

Dentro de este espacio de configuraciones se definen las configuraciones activas comoaquellas que realmente pueden ocurrir durante cada uno de los segmentos, habida cuenta de lastransiciones posibles entre los distintos estados que se reflejan en el grafo de envisionment.

La tarea que realiza el algoritmo del sistema DATMI consiste en hallar el camino, o loscaminos posibles en el espacio de configuraciones que constituyen la secuencia de transicionesentre estados posiblemente realizadas por el sistema físico, teniendo en cuenta que las únicastransiciones válidas son las que indica el grafo de envisionment. El algoritmo funcionaincrementalmente cada vez que se detecta un nuevo segmento, si bien en algunos casos esnecesario revisar las configuraciones activas de segmentos anteriores de acuerdo con la nuevainformación entrante.

Ejemplo: Sea un sistema definido mediante las variables A, B y C, cada una de ellas con tresvalores cualitativos correspondientes al crecimiento, decrecimiento o estabilidad de las mismas.Un grafo de envisionment para este sistema podría ser el que muestra la siguiente figura.

1 2

8

3

45

67

9

Sean las series temporales correspondientes a las observaciones realizadas por lossensores que miden las magnitudes en A, B, y C las que se representan en la siguiente figura.

t

AB

C

ABC ?

??

*4 En ingles se utiliza el término pinterp-space de dificil traducción literal.

Page 37: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 3. La Validación de los Datos Hidrológicos en Tiempo Real___________________________________________________________________________

23

En donde se han considerado cuatro segmentos temporales para cada uno de los cualeslos valores cualitativos de las variables son los que se indican en la parte inferior de la figura.Nótese que en el tercer segmento la variable C puede tomar los valores cualitativos creciente oestable, a cada uno de los cuales se le supone una cierta "probabilidad" a la vista de las medidasefectuadas por los sensores y el conocimiento a priori sobre la fiabilidad de los mismos.

El espacio de configuraciones correspondiente a estas observaciones es el siguiente:

1

25

7

9

5

4

3 8

2

En él se indican los posibles caminos que constituyen interpretaciones globales delcomportamiento del sistema según el grafo de envisionment. Las configuraciones activascorresponden a los nodos que forman parte de algún camino.

Como se ha expuesto anteriormenet el sistema DATMI es capaz de manejar seriestemporales de datos imprecisos y posiblemente incompletas. Además de esto DATMI incluyeprocedimientos específicos que permiten tratar con datos completamente erróneos. Dado que elgrafo de envisionment se supone correcto y completo, en los casos en que no es posibleestablecer ninguna configuración activa, se supone que es debido a un error en los datos. Eneste punto DATMI realiza y comprueba diversas hipótesis consistentes en el fallo de un únicosensor (DATMI no contempla el fallo múltiple simultáneo de varios sensores), asociando a cadauna de ellas (1) el conjunto de propiedades que se modifican; (2) la "plausibilidad" de queocurran (estimada como la probabilidad a priori de fallo del sensor); y (3) las condiciones en lascuales es válida esta suposición. DATMI emplea diversas heurísticas que le permiten explorarlas hipótesis de fallo más razonables en orden inverso a su credibilidad. El proceso degeneración y prueba de hipótesis continúa mientras existan segmentos inconsistentes o bienhasta que se hayan comprobado todas las hipótesis. Si a pesar de esto quedan caminosinconsistentes el espacio de configuraciones se divide y se explora separadamente con laesperanza de que nuevas informaciones permitan detectar la correcta evolución del sistema.

3.4.2. Aplicación a la validación de datos hidrológicos

Hay que hacer notar que, a diferencia de las propuestas anteriores, el autor no describeninguna implementación de este mecanismo en ningún sistema real. Téngase en cuenta que esun método surgido recientemente desde planteamientos académicos. Sin embargo, desde elpunto de vista de los sistemas de adquisición automática de datos en hidrología, el sistemaDATMI no resulta aplicable a gran escala por las siguientes razones:

(1) El principal inconveniente y verdadero talón de Aquiles de este sistema radica en ladeterminación y construcción del modelo que sirve de base al algoritmo. La aplicaciónde este tipo de modelos es especialmente indicada para sistemas en los que están biendefinidas las posibles configuraciones que se pueden producir. Los sistemas hidroló-gicos son sistemas complejos en los que están envueltos gran cantidad de procesos, porlo que la construcción de modelos globales del tipo usado por este algoritmo no resultaadecuada ya que implicaría demasiadas simplificaciones o un número excesivo deestados. Téngase en cuenta que habría que discretizar las medidas de los sensores en unespacio cualitativo con suficientes valores para garantizar la calidad de la validación yuna vez hecho esto deberían considerar como posibles estados a priori todas lascombinaciones de estos valores cualitativos para cada uno de los sensores.

Page 38: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 3. La Validación de los Datos Hidrológicos en Tiempo Real___________________________________________________________________________

24

(2) El sistema DATMI no contempla la posibilidad de fallo múltiple simultáneo de variossensores, lo que en realidad suele ocurrir especialmente en sistemas con muchossensores.

(3) Desde el punto de vista del mantenimiento del sistema, DATMI no resulta adecuado, yaque cualquier variación en la conceptualización del problema requiere la re-escritura delgrafo de envisionment, siendo esta una estructura conceptual que no se corresponde conlas estructuras del conocimiento, los conceptos y los modelos habituales en hidrología.

No obstante, el modelo propuesto por el sistema DATMI resulta atractivo desde el puntode vista teórico y habría que valorar con más detenimiento la posibilidad de formular en él algúnmodelo de comportamiento simplificado de los procesos hidrológicos. Dado que en el casohidrológico es difícil establecer unas ecuaciones precisas que determinen el funcionamiento delproceso, puede resultar interesante el estudio de técnicas de aprendizaje automático paraconstruir el grafo de envionment a partir de colecciones de datos pre-existentes* . Los modelosasí construídos resultan menos intuitivos que los modelos basados en formulacionesmatemáticas de los procesos físicos pero podrían ser de gran ayuda para el problema devalidación.

3.5. Conclusiones

En este capítulo se ha realizado un repaso de los principlaes sistemas de validación queexisten actualmente y su posible aplicación al problema de validación de datos hidrológicos. Lagran diversidad de sistemas existente y la especificidad de los mismos hacen difícil establecerunas conclusiones generales, que a grandes rasgos son las siguientes:

(1) En general, ninguno de los sistemas existentes es aplicable directamente al casohidrológico, debido principalmente a las características específicas del mismo, que lohacen diferente de los dominios en los que se han desarrollado con anterioridad sistemasde validación de datos. Como se ha dicho anteriormente, una de las principalesdiferencias es que, en el caso hidrológico, el principal problema no es puramente lavalidación, entendiendo ésta como contrastación de datos, sino que el principalproblema a resolver viene dado por la obtención de la redundancia en las medidas.

(2) Diferentes sistemas basados en el conocimiento han sido aplicados para resolverproblemas de validación, tanto desde planteamientos teóricos como desdeplanteamientos prácticos. En especial, se ha visto que estas técnicas obtienen solucionesa problemas “difíciles” de abordar por otros medios ya sea por su complejidad intrínsecao por la disparidad del conocimiento que se emplea para su resolución, que impide suformulación mediante técnicas estadísticas o empíricas. Sin embargo, los sistemasdesarrollados carecen de la generalidad necesaria para poder ser aplicados al problemade validación de datos hidrológicos.

(3) Dadas las perspectivas ofrecen los sistemas actualmente desarrollados en esta línea, esnecesario profundizar en el estudio de la posible aplicación de las técnicas de InteligenciaArtificial al problema de validación de datos, y en especial al caso hidrológico, a fin dealcanzar una solución a las necesidades que se señalaron en el capítulo anterior.

En la memoria de esta tesis se propondrá una solución al problema de validación dedatos que tiene sus antecedentes en la soluciones que la Inteligencia Artificial propone para elproblema del diagnóstico, y que resulta especialmente indicada para el caso hidrológico.

* En esta línea de aprendizaje automático de modelos para el QPE han aparecido recientemente algunos trabajos deinvestigación, como por ejemplo [Richards,1992]

Page 39: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

25

CAPÍTULO 4

EL PROBLEMA DEL DIAGNOSTICO ENINTELIGENCIA ARTIFICIAL Y SU

RELACION CON EL PROBLEMA DE LAVALIDACIÓN DE DATOS

4.1. Equivalencia de los problemas de Diagnóstico y Validación.

De las reflexiones y conclusiones a las que se ha llegado anteriormente se deduce que elprimer problema que se plantea al realizar la validación de un conjunto de medidas de sensoresque controlan una red hidrográfica es precisamente la determinación de la redundancia existente.Para ello deben relacionarse unas medidas con otras y deben establecerse criterios deconsistencia entre las mismas. Estas relaciones se obtienen a partir del conocimiento sobre elfuncionamiento del sistema, mediante la determinación y construcción de los modelos quesimulan su comportamiento. Una vez realizada esta tarea, y tomando como datos de partida lasmedidas realizadas por los sensores, debe determinarse cuál es el estado de funcionamiento decada uno de ellos. Por consiguiente, el problema que se plantea resulta dual del conocidoproblema de diagnóstico que ha sido abordado ampliamente usando técnicas de inteligenciaartificial.

A grandes rasgos, el problema del diagnóstico en inteligencia artificial consiste endeterminar a partir del conocimiento de las leyes que rigen el comportamiento de un sistema y deun conjunto de medidas, observaciones o síntomas, cuáles son las causas, o los componentesdel sistema responsables en última instancia de un posible comportamiento anómalo, según seindica en el siguiente esquema:

Fallos en el Sistema Físico

Observaciones

Modelo de comportamiento DIAGNOSTICO

Sistema Físico

Para una red hidrográfica la validación de los datos obtenidos por los sensores puedeconcebirse como un problema de diagnóstico. En este caso las medidas u observaciones noimplican un mal funcionamiento del sistema (ya que éste en ningún caso puede funcionar mal),sino que las causas o disfunciones deben buscarse: (1) en las propias medidas o síntomas queerróneamente se han considerado, es decir, en un fallo en los sensores; o (2) en los modelosque se han establecido para comprender el funcionamiento del sistema físico. La siguiente figurarepresenta esquematicamente esta situación:

Page 40: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 4. Los sistemas de diagnóstico en Inteligencia Artificial___________________________________________________________________________

26

Fallos en el Modelo

Fallos en las observaciones

VALIDACION

Observaciones

Modelo de comportamiento

Sistema Físico

La primera de estas hipótesis corresponde al problema que es objetos de esta tesis. Lasegunda está relacionada con la construcción y calibración de los modelos de funcionamiento, ypor tanto se puede suponer que se ha llevado a cabo previamente con las suficientes garantías.La completa fiabilidad de los modelos es un objetivo ideal que por lo general no podrá seralcanzado debido a la gran cantidad de parámetros que intervienen en los fenómenoshidrológicos. Por tanto, el sistema de validación debe ser consciente de esta característicaintrínseca de los modelos e incorporar técnicas de razonamiento aproximado que permitanestablecer sus conclusiones en condiciones de incertidumbre e imprecisión. En cualquier caso,es necesario disponer de modelos suficientemente fiables para poder realizar la validación de losdatos con unas míninas garantías. La problemática de construcción y uso de modelos se tratarácon más detenimiento en el siguiente capítulo

4.2. Soluciones al problema de diagnóstico en Inteligencia Artificial.

El problema del diagnóstico ha sido estudiado ampliamente en el campo de lainteligencia artificial. Conceptualmente consiste en determinar los elementos de un sistema queexplican la aparición de unos determinados síntomas de comportamiento anormales. Son yaclásicos algunos de los sistemas de diagnóstico que ha producido esta rama del saber; así,puede citarse el sistema MYCIN [Shortliffe,1976], para diagnóstico y tratamiento deenfermedades infecciosas de la sangre, INTERNIST [Pople,1977], un sistema experto deconsulta en el dominio de la medicina interna, CASNET [Weiss,1978], para diagnósticomédico del glaucoma, o más recientemente sistemas como MDX [Chandrasekaran,1979],también para diagnóstico médico, SOPHIE-III [Brown,1982], para monitorización,diagnóstico y enseñanza de circuitos electrónicos digitales, etc.

Atendiendo al conocimiento que emplean los diversos sistemas para resolver elproblema del diagnóstico, se pueden considerar dos grandes grupos: Los sistemas basados enreglas heurísticas, también llamados RBR (Rule-Based Reasoning) y los sistemas basados enmodelos, MBR (Model-Based Reasoning)* . Estos dos grupos de sistemas son los que hantenido una mayor repercusión en el campo del diagnóstico, sin embargo existen tambiénpropuestas alternativas como los sistemas basados en la reutilización de casos anteriormenteresueltos, CBR (Case-Based Reasoning). y recientemente están apareciendo algunaspropuestas mixtas que combinan varias de estas estrategias, véase por ejemplo [Féret,1993].

Los sistemas de diagnóstico basados en reglas heurísticas aparecen cronológicamenteantes, a finales de los años 70, y se desarrollan durante toda la década de los 80 aprovechandoel auge de la primera generación de sistemas expertos. Estos sistemas intentan codificar, engeneral mediante reglas del tipo “SI..ENTONCES” el conocimiento que un experto humanoaplica en la resolución de un problema, intentando emular su comportamiento. Estas reglas se

* Según William Clancey, [Clancey,1992], todos los sistemas expertos pueden verse como programas queconstruyen un modelo de un sistema del mundo real para realizar con él ciertas operaciones. En este sentidoafirma que todos los sistemas expertos están basados en modelos, estableciendo posteriormente la diferencia entrelos sistemas que utilizan modelos de clasificación y los sistemas que utilizan modelos de simulación.

Page 41: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 4. Los sistemas de diagnóstico en Inteligencia Artificial___________________________________________________________________________

27

elaboran a partir de la intuición, o bien a partir de resultados estadísticos más o menossimplificados, dando lugar a piezas aisladas de conocimiento. A raíz de ciertas críticas sobre lapretendida “inteligencia” de estos sistemas basados en reglas heurísticas, surge la idea de losllamados sistemas expertos de segunda generación o sistemas de conocimiento “profundo”, enlos que se pretende incorporar conocimiento estructurado en forma de reglas, marcos o redescausales, sobre la estructura del sistema físico objeto de diagnóstico, así como las dependenciasfuncionales existentes entre sus componentes. Esto permite identificar los posibles problemas adistintos niveles de análisis.

A mediados de los años 80, emerge una nueva modalidad de sistemas de diagnósticobasados en la construcción de modelos del sistema físico que se se intenta diagnoticar, en líneacon los sistemas de conocimiento “profundo”. La característica primordial de este tipo desistemas es que incorporan un cierto conocimiento sobre el funcionamiento y la estructura delsistema físico, y no sólo un conjunto de reglas para resolver algunos casos conocidos. Este tipode sistemas son especialmente apropiados cuando la estructura del sistema físico, suscomponentes y sus relaciones son bien conocidas, como es el caso de los sistemas físicosnaturales o artificiales que implican procesos, tales como circuitos electrónicos, motores,plantas industriales, etc. El sistema físico es descrito mediante un conjunto de modelos quedefinen el comportamiento de sus componentes cuyas conexiones conforman la estructura delsistema. Usando estos modelos y un conjunto de observaciones el problema del diagnóstico sereduce a determinar cuales de estos componentes se comportan de forma diferente a la previstapor su modelo. El conocimiento que se necesita para los sistemas de diagnóstico basado enmodelos no necesita ser elaborado previamente de forma específica para la resolución deproblemas de diagnóstico y por tanto puede obtenerse más fácilmente a partir de lasdescripciones técnicas del sistema o a partir de estudios locales del funcionamiento de cada unode los componentes. Uno de los dominios en los que se ha utilizado más extensamente eldiagnóstico basado en modelos es en los circuitos electrónicos digitales .

En la siguiente figura se presentan las líneas principales que se han seguido en losúltimos años en el campo de la inteligencia artificial para afrontar el problema del diagnóstico.Este esquema no pretende ser exhaustivo, ya que a lo largo de estos años han aparecido grancantidad de sistemas, y resulta impracticable revisarlos todos. Se recogen en este esquema unaselección de los sistemas que se estima que son representativos para proporcionar un panoramasuficientemente amplio del “estado del arte”.

En este capítulo se hará una revisión de los principales sistemas y métodos empleadosen inteligencia artificial para resolver el problema del diagnóstico, comenzando por los primerossistemas expertos, estudiando el clásico sistema MYCIN [Shortliffe,1976], y los sucesivosdesarrollos que proponen una generalización del sistema, planteando las principales críticasaplicables a este tipo de sistemas, hasta llegar a la idea de clasificación heurística propuesta porClancey [Clancey,1985]. Se estudia asimismo la línea seguida por el grupo de McDermott, enla que se destaca por su aplicación al problema del diagnóstico el sistema MOLE,[Eshelman,1987], una de cuyas principales características es la inclusión de un métodoautomático de adquisición del conocimiento. Años más tarde, a partir de las experiencias de estesistema y del sistema SALT [Marcus,1989] se construye el entorno de desarrollo de sistemasinteligentes PROTÉGÉ [Musen,1989]. Este entorno propone una metodología propia para eldesarrollo de los sistemas inteligentes, que actualmente se está desarrollando en el sistemaPROTÉGÉ-II, [Puerta,1993]. Otra línea de sistemas expertos de diagnóstico que da lugar apropuestas metodológicas es la seguida por el grupo de la Universidad de Ohio, que se iniciacon la aparición del sistema experto MDX [Chandrasekaran,1979], en donde claramente sepone de manifiesto el problema del “conocimiento profundo” de los sistemas expertos y queposteriormente evoluciona dando lugar al concepto de Tarea Genérica [Chandrasekaran, 1986].En esta línea los trabajos más recientes, [Chandrasekaran,1992], también están encaminadoshacia propuestas metodológicas centradas en la idea de Tareas Genéricas y Métodos. Estecapítulo centra su atención en los sistemas de diagnóstico. Las propuestas metodológicas parael desarrollo de sistemas inteligentes se estudian en el contexto de las propuestas deestructuración del conocimiento en el capítulo 6.

Page 42: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 4. Los sistemas de diagnóstico en Inteligencia Artificial___________________________________________________________________________

28

El problema del diagnóstico encuentra otra vía de formulación desde un planteamiento,al que se podría denominar matemático, basado en la teoría del recubrimiento. El problema seplantea, dada una relación (en el sentido matemático del término), entre un conjunto dedisfunciones y un conjunto de síntomas, como la solución al problema de hallar el menorsubconjunto de disfunciones que recubren por completo el subconjunto de síntomas presentesen un determinado caso. Los trabajos iniciales en este campo se deben a [Reggia,1983], yposteriormente se han completado con planteamientos probabilísticos y planteamientos en losque la relación entre disfunciones y síntomas se obtiene mediante composición de una o variasrelaciones simples [Peng,1990]. En esta línea son también interesantes los planteamientos queestudian el problema incorporando conocimiento sobre las posibles agrupaciones de síntomasdebidos a una misma causa [Wu,1990].

1975 1980 1985 1990

PROTEGE-IIMOLE

Metodología centradaen Tareas Genéricas

Tareas GenéricasMDX

MY

CIN

Clasificación heurísticaNEOMYCIN HERACLES

Validaciónde datos

durante eldiagnóstico

INT

ER

NIS

T

Recubrimientojerárquico

Agrupación desíntomas

XDE

SherlockGDE Diagnósticosprobables

Formalizaciónlógica

Formalizaciónlógica con

modelos de fallo

Principio de lacoartada

PROTEGE

Recubrimiento

1995

SOPH

IE I

II

Diag. basado enla estructura y

el comportamiento

Sist

emas

bas

ados

en

mod

elos

Sist

emas

bas

ados

en

regl

as h

eurí

stic

as

Por último, se presentan las propuestas de diagnóstico basado en modelos. Esta líneasurge, en parte, como consecuencia de los trabajos llevados a cabo en el campo de los sistemastutoriales inteligentes por parte del equipo de Xerox Parc formado por John S. Brown, JohandeKleer, y Brian Williams, que dió lugar a tres generaciones del sistema SOPHIE[Brown,1982]. El objetivo de estos sistemas es la enseñanza del funcionamiento de loscircuitos electrónicos. La raíz común entre los sistemas de diagnóstico y los sistemas deenseñanza es que ambos deben tener conocimiento sobre el funcionamiento del sistema físico, ydeben ser conscientes del mismo, tanto para explicar las causas que justifican sucomportamiento normal, como las posibles causas que explican un comportamiento anormal.Siguiendo esta línea se encuentran las primeras ideas de diagnóstico basado en la estructura y elcomportamiento de los sistemas [Davis,1983], el sistema general de diagnóstico GDE[deKleer,1987] y sus sucesivas propuestas complementarias, como el sistema Sherlock, queincluye modelos de fallos [deKleer,1989], o la estrategia de focalización en los diagnósticosmás probables [deKleer,1991], así como el sistema XDE [Hamscher,1991]. Desde una

Page 43: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 4. Los sistemas de diagnóstico en Inteligencia Artificial___________________________________________________________________________

29

perspectiva formal, resultan muy interesantes las formulaciones lógicas del problema deldiagnóstico propuestas por el trabajo de [Reiter,1987], en el que de forma independiente sepropone un método de resolución automática aplicado a este tipo de problemas. Esteplanteamiento lógico se completa años más tarde con la formulación para el caso en que existanmodelos de fallo [deKleer,1992]. En esta línea, son también destacables los trabajos de OliverRaiman, sobre el principio de la coartada [Raiman,1989] que plantea el problema desde unaperspectiva aún más rigurosa, culpando o exonerando a cada uno de los componentes delcircuito del comportamiento global del mismo.

A continuación se estudian en detalle algunas de las propuestas más significativas quehan aparecido en el campo del diagnóstico, así como su posible relevancia para el problema devalidación de datos hidrológicos.

4.3. Sistemas expertos de diagnóstico

Uno de los mayores éxitos alcanzados por la inteligencia artificial, y que ha producidoresultados prácticos y aplicaciones más allá de los circuitos universitarios y de investigación,han sido los sistemas expertos basados en reglas heurísticas, que surgen en los años 70 con elobjetivo de incorporar en los sistemas informáticos las “reglas de experiencia” y de “buenjuicio” [Feigenbaum,1979] que un ser humano emplea para resolver un problema en el que seconsidera experto. Para conseguir este objetivo el conocimiento se representa mediante unsistema de reglas de producción. Esto constituye una novedad frente a los sistemas existentesanteriormente en los que el proceso de resolución de los problemas era de tipo algorítmico,siguiendo la conocida propuesta de Nicklaus Wirth:

Algoritmos + Estructura de datos = Programa

los programas eran concebidos como unidades de proceso de tipo caja negra en los que ciertasentradas producían ciertas salidas, y el usuario era completamente ajeno tanto al conocimientoempleado por el programa como al procedimiento de manipulación del mismo, ya que ambosestaban íntimamente imbricados de forma indiferenciable. Los sistemas expertos surgen comouna respuesta a la necesidad de estructurar los sistemas de forma que se haga explícito elconocimiento que utilizan. En este sentido comienza a hablarse de sistemas basados en elconocimiento. La necesidad de esta separación se pone de manifiesto cuando se intenta adquirirel conocimiento del experto para incorporarlo al sistema. La programación algorítmica resultainadecuada por la dificultad de incorporar nuevas piezas de conocimiento de forma sencilla ypor la gran distancia existente entre ésta y el experto cuyo comportamiento se desea emular. Porotra parte, dado que la validación de los sistemas expertos deben realizarla los propiosexpertos, en general ajenos a los problemas propios de la computación, se hacía necesaria unaseparación que permitiera hacer explícito el conocimiento empleado de forma asequible.

Los sistemas expertos pueden considerarse como un estilo de programación en el que sesepara por una parte el conocimiento y por otra la forma de usarlo. Parafraseando la conocidafórmula de Kowalski para la programación lógica* se pueden describir los sistemas basados enel conocimiento mediante la ecuación:

Sistemas Basados en el Conocimiento = Modelo Declarativo + Procedimiento de Interpretación

La idea central de este planteamiento es la separación entre el conocimiento estático deldominio (lo que Clancey llama “What is true”) y el conocimiento de control, gracias al cuál seinterpreta el Modelo Declarativo de manera que permita solucionar problemas concretos sobre eldominio (lo que Clancey llama “What to do”) [Clancey,1992]. Con esta separación se pretende,al igual que en muchas otras ocasiones en la reciente historia de la Ciencia de la Computación,

* La fórmula original de Kowalski a la que se hace alusión es Algoritmo = Lógica +Control [Kowalski,1979]

Page 44: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 4. Los sistemas de diagnóstico en Inteligencia Artificial___________________________________________________________________________

30

acortar la distancia entre los seres de inteligencia natural y los sistemas de inteligencia artificial.Como se verá más adelante, dado que estos eran los objetivos fijados, el resultado de estaprimera generación no es del todo satisfactorio, sin embargo, constituye un salto importante enla metodología de estructuración del conocimiento.

Los sistemas de esta primera generación de sistemas expertos se caracterizanprincipalmente por dos componentes:

(1) Una base de conocimiento en la que supuestamente se incluye todo el conocimiento deldominio. Este conocimiento se representa en general mediante reglas del tipo“SI...ENTONCES...” que hacen referencia a variables o parámetros que representan losdistintos conceptos que se manejan en el dominio. En muchos sistemas estos conceptosse estructuran mediante una jerarquía de marcos [Minsky,1975].

(2) Un motor de inferencias, o mecanismo de control fijo que selecciona las reglas quedeben aplicarse y el orden en que deben ejecutarse. Estas estrategias suelen ser guiadaspor los objetivos (inferencia hacia atrás) o bien por las premisas de las reglas que encada caso se satisfacen (inferencia hacia delante).

A mediados de los años 80 comienza a hablarse de sistemas expertos de segundageneración. Este término, acuñado por diversos autores como propio, evidencia una idea decambio sustancial en la concepción de los sistemas expertos motivada principalmente por eldesencanto debido a la trivialidad de muchos de los sistemas y por la ausencia de unametodología clara de desarrollo, especialmente en cuanto se refiere a la adquisición delconocimiento.

Una de las críticas más radicales que surgen contra los sistemas expertos llamados deprimera generación, de los cuales MYCIN es el representante paradigmático, es que estánbasados en un conocimiento "superficial" del sistema que intentan diagnosticar. Con esteadjetivo se califica a los sistemas expertos que cuentan con una base de conocimiento formadaexclusivamente por patrones que relacionan directamente los datos o síntomas con los estadosdel sistema o diagnósticos. No puede establecerse una frontera clara entre lo "superficial" y lo"profundo" en los sistemas expertos, dado que en muchos casos es sólamente una cuestión degrado, sin embargo, normalmente se entiende que el conocimiento del sistema experto es más"profundo" cuando incluye trozos de conocimiento más detallados que implican unacomprensión del sistema en función de los principios básicos o "primeros principios"[Davis,1983] que rigen su funcionamiento, estableciendo una relación causal entre éstos y lossíntomas que manifiesta el sistema. La necesidad de establecer un conocimiento profundo en lossistemas expertos viene dada por varios factores:

(1) Los sistemas de conocimiento superficial sólo son capaces de resolver un númerolimitado de casos sencillos para los cuales el conocimiento necesario ha sido condensadoen unas cuantas reglas. La incorporación de nuevos casos o estados implica laincorporación de nuevas reglas específicas, lo que en muchas ocasiones se haceprohibitivo ya que la casuística del problema hace que el número de éstas crezca deforma combinatoria. Cuando un sistema de conocimiento superficial no es capaz deencontrar un patrón en su base de reglas su ejecución finaliza abruptamente, mientrasque un sistema de conocimiento profundo al menos es capaz de establecer un contextoadecuado en el que encuadrar la solución del problema.

(2) Cuando los expertos humanos se enfrentan a un problema considerado difícil recurren alos "primeros principios" para resolverlo. El uso de patrones de conocimientopreestablecido en forma de reglas "superficiales" se reduce a problemas comunes, en losque este conocimiento enlatado se usa para obtener una respuesta rápida. En cualquiercaso, los expertos humanos conocen las relaciones causales que justifican el uso deestos patrones.

Page 45: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 4. Los sistemas de diagnóstico en Inteligencia Artificial___________________________________________________________________________

31

(3) Desde el punto de vista explicativo, las respuestas del sistema resultan másconvincentes. Un conocimiento más profundo garantiza una mayor confianza en lasrespuestas del sistema al establecer unas bases más solidas en las justificaciones queproporciona al usuario tras realizar las inferencias.

(4) Desde el punto de vista de la adquisición del conocimiento, es manifiesta la dificultad de"extraer" conocimiento del experto mediante reglas heurísticas. Impelidos por el"ingeniero del conocimiento" los expertos se ven abocados a resumir sus conocimientosen conjuntos de reglas en general incompletos, sujetos a continuas modificaciones ymuchas veces inconsistentes entre distintos expertos. [Steels,1986]

Otras características importantes de los sistemas expertos de segunda generación,además del conocimiento profundo, son (1) la capacidad para utilizar diferentes tipos derepresentaciones del conocimiento incorporando representaciones de objetos mediante marcos,modelos numéricos, modelos cualitativos, o restricciones que permitan guiar el razonamiento,reglas heurísticas, etc; y (2) la incorporación explícita del conocimiento de control mediantemeta-representaciones de las inferencias que se deben realizar, los criterios de selección yordenación de las mismas, etc.

A partir de mediados de los 80 se pone también de manifiesto el problema de la“extracción” del conocimiento del experto, que aparece en la construcción de los sistemasexpertos. El experto debe interactuar con el técnico encargado de construir el sistema(habitualmente llamado “ingeniero del conocimiento”) de manera que sea posible latransferencia de conocimiento entre el experto y el sistema. Esta labor exige que los sistemas sediseñen a un nivel más cercano al hombre que a la máquina, haciendo un mayor hincapié en losaspectos cognitivos y estableciendo metodologías de diseño de sistemas capaces de tratar conproblemas complejos en los que están involucrados diferentes tipos de conocimiento y sistemascon los que el experto (en general no programador) pueda interactuar líbremente. A estosaspectos metodológicos se dedica un capítulo aparte.

4.3.1. El sistema MYCIN

Uno de los principales campos de aplicación de los sistemas expertos han sido losproblemas de diagnóstico. Es famoso el sistema experto MYCIN [Shortliffe,1976] capaz dediagnosticar enfermedades infecciosas de la sangre y su tratamiento, al que se considera el“abuelito” de los sistemas expertos.*

MYCIN constituyó un eslabón importante en el desarrollo de arquitecturas cognitivas alpresentar separadamente, mediante aproximadamente unas 400 reglas, gran parte delconocimiento que los expertos aplicaban en la determinación de sus diagnósticos, estimándoseque en un 90% de los casos las decisiones a las que llegaba MYCIN correspondían con las queadoptaban los propios expertos [Feigenbaum,1979]. Una descripción más extensa de estesistema puede encontrarse en [Buchanan,1984]

4.3.1.1. Descripción del sistema

Modelo Declarativo

La base de conocimientos de MYCIN está formada por reglas tipo“SI...ENTONCES...” en las que la premisa está compuesta por una conjunción deproposiciones correspondientes a síntomas o a hipótesis auxiliares ya establecidas, y lasconclusiones hacen referencia a las enfermedades o a las hipótesis intermedias que se establecenen el diagnóstico. Cada una de estas reglas lleva asociado un “factor de confianza” representadopor un número racional entre -1 y 1 que indica el mayor o menor grado con que un determinadosíntoma hace pensar a un experto en que ocurra una determinada enfermedad de la sangre. Los

* Según dice textualmente Allen Newell en el prólogo a [Buchanan,1984]

Page 46: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 4. Los sistemas de diagnóstico en Inteligencia Artificial___________________________________________________________________________

32

“factores de confianza” negativos indican evidencia en contra. En la siguiente figura aparece unejemplo de regla de MYCIN:

SI 1) La infección es MENINGITIS

2) El tipo de infección es BACTERIANA

3) El paciente se ha sometido a CIRUGIA

4) El paciente se ha sometido a NEUROCIRUGIA

5) La FECHA DE NEUROCIRUGIA es menor de hace 2 meses

6) Al paciente se le ha implantado un SHUNT VENTRICULAR

ENTONCES Hay evidencia de que el organismo que pudo causar la infección

es E.COLI (0.8) KLEBSIELLA-PNEUMONIAE (0.75)

Procedimiento de Interpretación

MYCIN emplea un mecanismo de inferencia con encadenamiento hacia atrás que intentaestablecer los objetivos y para ello va sistemáticamente explorando la base de reglas hastaencontrar una o varias en las que figure el objetivo como conclusión. Una vez seleccionadasestas reglas comprueba si se verifican planteando su premisa como un nuevo subobjetivo asatisfacer. Este proceso se repite hasta encontrar reglas cuyos antecedentes corresponden asíntomas que se establecen o no de acuerdo con las respuestas del usuario. MYCIN incorporaunos coeficientes de certeza aplicables a las reglas y a las conclusiones que expresan mediantenúmeros racionales del intervalo [-1,1], la confianza que merece al experto el conocimientoexpresado por las reglas o por su conclusión. Estos coeficientes de certeza se modifican paralas distintas hipótesis de diagnóstico que se establecen durante el proceso, acumulandoevidencia en algunas y rechazándola en otras según las respuestas del usuario. En los casos enlos que varias reglas pueden ser seleccionadas a la vista de un subobjetivo, los factores deconfianza, y el orden en que aparecen escritas las reglas, permiten obtener la secuencia en laque se exploran las distintas alternativas.

Características específicas

Otra de las características singulares de MYCIN es que durante todo el proceso dediagnóstico puede responder a preguntas sobre el “porqué” hace una determinada pregunta ysobre el “cómo” ha llegado a establecer una determinada conjetura, respondiendo en términosde las reglas cuyo consecuente intentaba establecer o las que se habían empleado para satisfacerdicha conjetura. Es decir, la representación del conocimiento sirve tanto para solucionar elproblema como para proporcionar explicaciones.

Dado que una de las ideas centrales de MYCIN era la separación entre el conocimientodel dominio y el conocimiento de inferencia, esto dio lugar a su generalización en el sistemaEMYCIN, un “shell “ o concha que incluye los procedimientos de inferencia de MYCIN y alque pueden incorporarse bases de conocimiento externas construídas sobre distintos dominios,de manera que a partir del núcleo del sistema MYCIN pudiesen desarrollarse otros sistemasexpertos. Con ello se pretendía que la labor del “ingeniero del conocimiento” se limitara a“extraer” del experto una experiencia o un conocimiento que era plasmado en reglas deproducción que podían ser procesadas por el sistema-concha siguiendo la misma estrategia deMYCIN.

4.3.1.2. Aplicación a la validación de datos hidrológicos.

El modelo MYCIN puede aplicarse parcialmente a la resolución del problema devalidación de datos hidrológicos. En principio, para construir un sistema experto de validaciónbasado en el modelo MYCIN es necesario poner de manifiesto el siguiente conocimiento:

(1) Diagnósticos. Relación de fallos que pueden producirse y que el sistema contempla.Harían el papel de lo que en el sistema original son las enfermedades de la sangre odiagnósticos finales. Evidentemente, para el caso de datos hidrológicos, estos fallos

Page 47: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 4. Los sistemas de diagnóstico en Inteligencia Artificial___________________________________________________________________________

33

serían relativos a los sensores, o series de datos que intervienen en el proceso. Estaformulación es sencila en aquellos supuestos en los que las discrepancias entre losvalores previstos y los medidos pueden ser explicados mediante el fallo de un únicosensor. Si se supone que puede producirse el fallo múltiple o simultáneo de variossensores los diagnósticos serían las 2n posibles combinaciones de fallos individuales encada uno de los sensores. En el caso del problema médico, suele ser suficiente eldiagnóstico de la causa principal del problema. Por el contrario, en el caso deldiagnóstico o validación de sensores, el fallo de cada uno de ellos puede considerarseindependiente y no relacionado con el fallo de los demás, por lo que se deberíaconsiderar todas las combinaciones.

(2) Síntomas. Los síntomas corresponden a las discrepancias entre los datos leídos por lossensores y los datos que se derivan del funcionamiento del sistema. En la propuestaoriginal del sistema MYCIN los síntomas resultan evidentes a partir de lasobservaciones directas del paciente que se realizan. No así en el caso de la validación dedatos hidrológicos en donde la determinación de los síntomas es el primer problema aresolver. De todas formas, mediante la incorporación de reglas heurísticas se podríaninferir estos síntomas. Por ejemplo, un sistema de validación según el esquema MYCINpodría incluir reglas como:

SI Se supone una lluvia elevada en la cabecera de la cuenca del rio Velez Y La lluvia en la zona es crecienteENTONCES Se supone un caudal elevado en el aforo del rio Velez......

SI Se supone un caudal elevado en el aforo del rio Velez Y Se ha medido un caudal medio o bajo en el aforo del rio VelezENTONCES Hay una discrepancia en el caudal del rio Velez

(3) Reglas. El sistema debe contar además con un conjunto completo y coherente de reglasde inferencia que le permitan establecer de entre todos los diagnósticos posibles aquellosque por la experiencia acumulada en la gestión de la cuenca se crean más plausibles.Esta base de conocimientos estaría formada por reglas heurísticas similares a lassiguientes:

SI Hay una discrepancia en el caudal del rio Velez Y Hay indicios de fallo en la intensidad de Lluvia en la zona alta Y La intensidad de lluvia en el pluviometro de Alfarnatejo es muy bajaENTONCES Hay evidencia [0.9] de un fallo en el pluviometro de Alfarnatejo

En principio, un sistema experto similar al sistema MYCIN parece ofrecer una solucióna muchos de los problemas y las necesidades planteadas en los capítulos anteriores, en cuanto ala utilización del conocimiento preexistente, a la facilidad para generar explicaciones y altratamiento de información imprecisa e incierta. Sin embargo, además de los problemascomunes a los sistemas expertos basados en reglas, que se han expuesto anteriormente, unanálisis más detenido refleja los siguientes inconvenientes para realizar la tarea de validación:

(1) Dificultad de elicitación del conocimiento e incompletitud de los conjuntos de reglas.Este es uno de los inconvenientes comunes de los sistemas basados en reglas, tanto parasu uso en sistemas de diagnóstico, como en sistemas de validación. Anteriormente sehan esbozado algunas posibles reglas aplicables a un caso concreto, sin embargo,resulta muy difícil hacer explícito todo el conocimiento que un experto puede aplicarpara realizar la validación de los datos. De hecho, dada la relativa novedad de lossistemas automáticos de adquisición de datos hidrológicos, y la ocasionalidad de losproblemas de validación, es incluso cuestionable la existencia de un “conocimientoexperto” compilado que pudiera servir de base para realizar un sistema experto.

Page 48: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 4. Los sistemas de diagnóstico en Inteligencia Artificial___________________________________________________________________________

34

(2) Escasas posibilidades de estructuración del problema. En los sistemas tipo MYCIN elconocimiento se encuentra disperso en un magma indiferenciado de reglas, siendoresponsabilidad del programador establecer una jerarquía de conceptos que faciliten laconceptualización del problema. Además, simplemente con el esquema MYCIN no esposible diferenciar el conocimiento de control del conocimiento del dominio, lo quenormalmente obliga a la aparición de reglas de control encubiertas.

(3) Dificultad de adaptación a diferentes entornos. Un sistema de estas características utilizareglas que en su mayoría no son extrapolables a otros contextos. Las escasasposibilidades de estructuración que ofrece el modelo MYCIN agravan este problema, yaque en él es difícil diferenciar entre el conocimiento de tipo genérico, aplicable a todaslas cuencas, y el conocimiento del dominio, aplicable sólo a una cuenca en concreto.Esto no supone ninguna dificultad si el objetivo es meramente resolver un problema devalidación localizado en una cuenca, pero evidentemente, no proporciona un marco en elque se puedan desarrollar aplicaciones genéricas particularizables para cualquier cuenca.

(3) Dificultad para el mantenimiento. Los conjuntos de reglas MYCIN, debido a su escasaestructuración resultan en muchas ocasiones excesivamente intrincados, la modificaciónde las reglas no es una tarea fácil, ya que muchas de ellas ocultan mecanismos de controlque pudieran quedar descabalados al cambiar arbitrariamente un grupo de reglas.

4.3.2. Descripción del sistema NEOMYCIN

Una de las primeras críticas generales que surgen con respecto a MYCIN es que suproceso de razonamiento es arbitrario, y que carece de la focalización en el estudio de lasdiferentes hipótesis de trabajo que suele caracterizar el comportamiento real de los expertos[Clancey,1986]. Cuando MYCIN considera una hipótesis lo hace arbitrariamente, saltando deuna a otra sin otro motivo que el de explorar todas las alternativas siguiendo el orden en el quelas correspondientes reglas aparecen en la base de conocimientos. Un estudio más detallado delmodo de proceder de los expertos cuando abordan una tarea de diagnóstico muestra que ademásdel conocimiento específico sobre el dominio aplican un conocimiento sobre la estrategia o elprocedimiento que se debe seguir para que este conocimiento resulte de utilidad. Esta crítica daorigen a la construcción de un nuevo sistema denominado NEOMYCIN en el que se separa elconocimiento médico de la estrategia de diagnóstico, permitiendo que ambos sean incorporadosen el sistema de forma independiente mediante sus correspondientes reglas y metarreglas.* Paraescribir estas metarreglas se usa un lenguaje uniforme y estructurado de manera que toda laestrategia o procedimientos de diagnóstico se descompone en tareas y subtareas, cada una delas cuales se expresa mediante piezas separadas de conocimiento siguiendo la mismametodología de MYCIN.

4.3.2.1. Descripción del sistema

Modelo Declarativo

El modelo declarativo de NEOMYCIN se compone de dos tipos de reglas:

(1) Reglas que expresan un conocimiento estático sobre el dominio (al igual que MYCIN eldominio de NEOMYCIN son las enfermedades infecciosas de la sangre), en las que noaparece implícita ninguna estrategia de diagnóstico. Ejemplos de estas reglas, original-mente codificadas en un dialecto de LISP, son las siguientes:

* El concepto de metarregla o niveles de razonamiento aparece ya anteriormente en el sistema TEIRESIAS[Davis,1977], aunque como una característica especifica del dominio.

Page 49: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 4. Los sistemas de diagnóstico en Inteligencia Artificial___________________________________________________________________________

35

(SUBTIPO Meningitis Meningitis-bacteriana)

(SUBTIPO Meningitis-bacteriana E.coli)

(SUBTIPO Meningitis-bacteriana Klebsiella-pneumoniae)

....

(SI (FECHA-DE-NEUROCIRUGIA < 2 MESES) NEUROCIRUGIA-RECIENTE)

(2) Reglas que establecen la estrategia que debe seguirse para realizar una tarea en eldominio (como por ejemplo la tarea de diagnóstico). La realización de una tarea en undominio se descompone a su vez en subtareas que se estructuran de acuerdo a estasreglas. Por ejemplo, una subtarea que considera NEOMYCIN y que se expresamediante una regla de control que se denomina “EXPLORAR-Y-REFINAR”. La regla(también codificada en un dialecto de LISP), puede expresarse de la siguiente forma:

SUBTAREA: EXPLORAR-Y-REFINARSI: (AND (HAY-EVIDENCIA-DE $HIP) (SUBTIPO $HIP $SUBHIP))ENTONCES: (HACER-ANTES (TAREA COMPROBAR-HIPOTESIS $HIP) (TAREA COMPROBAR-HIPOTESIS $SUBHIP))

Procedimiento de Interpretación

Dado que en NEOMYCIN existen reglas específicas de control, son éstas las primerasen aplicarse, controlando de esta manera el lanzamiento de las demás reglas del dominio. Estohace innecesario que el ingeniero del conocimiento establezca una secuencia de aplicaciónimplícita en los antecendentes de las reglas, en el orden de las mismas, o que modifiqueartificialmente los factores de confianza para garantizar que se establezca una determinadaestrategia de diagnóstico, como de hecho ocurre frecuentemente en MYCIN.

Características específicas

La generalización del sistema NEOMYCIN dio origen al sistema-concha HERACLES(Heuristic Classification Shell). En él aparece ya la idea de que parte del proceso de diagnósticollevado a cabo por NEOMYCIN corresponde a una tarea genérica de clasificación heurísticadentro de una taxonomía de conceptos correspondientes a las enfermedades o en general a lasdisfunciones que se intentan diagnosticar. Junto con esta taxonomía debe incluirse en la base deconocimientos una red causal que enlace los síntomas que deben ser explicados con los nodosde esta taxonomía y finalmente con las etiologías que los motivan, construyendo así modelosespecíficos del dominio [Clancey,1986].

Clancey [Clancey,1985] propone un método sistemático de describir las tareas querealizan los sistemas expertos, en términos de las formas de conocimiento y los procesos derazonamiento que llevan a cabo, al que llama "Clasificación Heurística", y que se expone conmayor detalle en el capítulo dedicado a los aspectos metodológicos en la construcción desistemas inteligentes. Desde esta perspectiva, una clase de problemas, como por ejemplo eldiagnóstico, puede llevarse a cabo de distintas maneras según los tipos de modelos derazonamiento disponibles. [Clancey,1993]

4.3.2.2. Aplicación a la validación de datos hidrológicos

El sistema NEOMYCIN supone una evolución del modelo MYCIN en la que la principalcaracterística a destacar es que se hacen explícitas las reglas de control. Esto sin duda es unacierto importante, y permite una mejor estructuración de los sistemas, salvando así algunos delos inconvenientes que se han señalado anteriormente. De hecho, un sistema de validacióncomplejo como es el caso hidrológico requiere la aplicación de estrategias que permitan focalizar

Page 50: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 4. Los sistemas de diagnóstico en Inteligencia Artificial___________________________________________________________________________

36

la exploración, por ejemplo realizando primero una validación local y posteriormente unavalidación global, etc. Este tipo de conocimiento estratégico debe aparecer claramentediferenciado del conocimiento físico sobre el comportamiento de la cuenca.

Sin embargo, el modelo de razonamiento NEOMYCIN no es suficiente para afrontar elproblema de la validación de datos hidrológicos, ya que las principales críticas que seplanteaban en el epígrafe anterior quedan sin resolver.

4.3.3. El sistema MOLE

Siguiendo en parte la idea de que la tarea de diagnóstico puede realizarse mediante elmétodo de clasificación heurística y con el fin de resolver el problema de la adquisición delconocimiento, aparece el sistema MOLE [Eshelman,1987]. Este sistema aporta además unmecanismo de inferencia diferente a MYCIN basado en la tarea que denomina cubrir ydiferenciar.

4.3.3.1. Descripción del sistema.

El sistema consta de dos módulos principalmente: (1) un sistema concha queimplementa una variante del método de clasificación heurística; y (2) una herramienta deadquisición del conocimiento que permite construir y refinar la base de conocimientos.

Modelo Declarativo

El conocimiento en el sistema MOLE se estructura en tres grandes bloques según sufuncionalidad dentro del sistema:

(1) El conocimiento para "cubrir" permite establecer las relaciones causales entre lashipótesis de fallo y sus síntomas o manifestaciones y se sustenta en dos hipótesis derazonamiento previas (1) Todo síntoma debe tener una explicación; y (2) lasexplicaciones deben ser tan simples como sea posible, es decir, si una sóla hipótesis essuficiente para explicar los síntomas, no deben considerarse dos. Este conocimiento serepresenta mediante reglas como:: "el evento E1 explica el evento E2".

(2) El conocimiento para "diferenciar" permite evaluar la credibilidad de cada una de lashipótesis de fallo. Se consideran cuatro subtipos de conocimiento para diferenciar: (1)Conocimiento de anticipación. Proporciona conocimiento adicional sobre la credibilidadde que un evento ocasione otro. Este conocimiento se representa mediante reglas deltipo: "la presencia del evento E1 suele indicar la presencia del evento E2". Para quepueda establecerse este tipo de conocimiento es necesario que previamente exista unconocimiento para "cubrir" que asocie ambos eventos. (2) Conocimiento circunstancial.Supone el establecimiento de una correlación entre la ocurrencia de dos eventos, aunqueno requiere que entre ellos exista una relación causal. (3) Conocimiento para refinar.Indica las características de los síntomas que permiten distinguir entre las hipótesis, elsubconjunto de éstas que contiene la explicación mínima. (4) Conocimiento cualitativo.Indica si las condiciones del entorno refuerzan o no determinadas relaciones.

(3) El conocimiento para "combinar" obtiene soluciones globales al problema a partir de lassoluciones locales obtenidas con el conocimiento para "cubrir" y el conocimiento para"diferenciar". MOLE clasifica las hipótesis en tres grupos: aceptadas (cuando explicanalgunos síntomas presentes mejor que cualquier otra hipótesis), rechazadas (cuando lossíntomas considerados excluyen esta hipótesis, o no son necesarios para explicar lossíntomas) e indeterminadas. Por defecto MOLE selecciona incrementalmente el menorsubconjunto de entre las hipótesis indeterminadas que explica los síntomas que quedanpor explicar. Este procedimiento por defecto puede modificarse mediante la inclusión deconocimiento para "combinar" específico.

Page 51: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 4. Los sistemas de diagnóstico en Inteligencia Artificial___________________________________________________________________________

37

Procedimiento de Interpretación

El sistema concha usado por MOLE implementa un procedimiento de inferenciadenominado "cubrir y diferenciar". Este método emplea los distintos tipos de conocimiento encada una de sus etapas de funcionamiento. A grandes rasgos es el siguiente:

1. Preguntar síntomas que deben ser explicados.2. Determinar que hipótesis "cubren" o explican estos síntomas. (Usando conocimiento para

"cubrir")3. Determinar que información se requiere para "diferenciar" entre las posibles hipótesis que cubren

los síntomas.(Usando conocimiento para "diferenciar"). Requerir esta nueva información. Sialguna de estas informaciones contiene nuevos síntomas que requieren ser explicados ir al paso 2.

4. Seleccionar la mejor combinación de hipótesis adecuadas que expliquen todos los síntomas.Determinar si alguna información hace inconsistente la combinación de estas hipótesis. (Usandoconocimiento para "combinar"). Requerir esta nueva información. Si alguna de estasinformaciones contiene nuevos síntomas que requieren ser explicados ir al paso 2.

5. Mostrar los resultados.

Características específicas

La característica más específica del sistema MOLE es que incorpora una herramienta deadquisición del conocimiento que intenta reemplazar la adquisición del conocimiento llevada acabo por el ingeniero del conocimiento por un sistema automático. La adquisición delconocimiento se realiza en dos etapas: (1) recolección de información para construir una basede conocimientos inicial; y (2) refinamiento iterativo de esta base de conocimientos.

En la primera etapa MOLE requiere del experto (1) el tipo de eventos (2) el tipo deasociación existente entre los eventos, por ejemplo, si se trata de una relación causal, osimplemente es una evidencia circunstancial, etc.; (3) la dirección de esta asociación, porejemplo si el evento E1 explica el evento E2 o viceversa, y (4) el valor numérico que a priori seasigna a esta asociación. En esta fase MOLE emplea mecanismos heurísticos que emulan elcomportamiento de un ingeniero del conocimiento, tratando de poner de manifiesto losverdaderos tipos de asociaciones existentes mediante preguntas que permiten diferenciarclaramente entre ambos, por ejemplo, para establecer entre dos eventos asociados por unarelación causal cuál de ellos es la causa y cuál es el efecto recurre a preguntas sobre cuál de loseventos ocurrió primero, etc. Además durante todo el proceso MOLE verifica que elconocimiento es consistente con el que habia adquirido anteriormente.

En la siguiente etapa MOLE comprueba que el conocimiento adquirido es completo, ypor tanto le permite diferenciar entre las distintas hipótesis y verifica mediante ejemplos deprueba propuestos por el experto que sus diagnósticos coinciden con los que realiza el experto.En aquellos casos en los que se produce un diagnóstico incorrecto MOLE intenta determinar lafuente del error mediante preguntas al experto y finalmente recomienda posibles soluciones,por ejemplo, si es necesario modificar los valores de evidencia, o si se requiere nuevoconocimiento que permita combinar las hipótesis de otra forma , etc.

Otra herramienta similar de adquisición de conocimiento es el sistema SALT*

[Marcus,1989] que se utiliza para generar bases de conocimiento de sistemas expertos dediseño rutinario, que utilizan la estrategia de "proponer y revisar": es decir, construyen diseñosproponiendo valores para los parámetros de diseño y revisando estos valores si lasrestricciones de diseño no se verifican.

* SALT es un caso extremo de la moda de los juegos de palabras en los sistemas de inteligencia artificial. Eninglés su significado es "sal", y por tanto su fómula quimica, "NaCl" corresponde al acronimo de "kNowledgeACquisition Language" que significa "Lenguaje de Aquisición del Conocimiento".

Page 52: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 4. Los sistemas de diagnóstico en Inteligencia Artificial___________________________________________________________________________

38

4.3.3.2. Aplicación a la validación de datos hidrológicos.

El mecanismo de inferencia que se sigue en el sistema MOLE no es extrapolable alproblema de validación de datos hidrológicos. Principalmente las mayores dificultadescoinciden con las expuestas para el sistema MYCIN. Por otra parte, la estructuración delconocimiento que impone el sistema MOLE obliga a partimentar el conocimiento en tresgrandes bloques: (1) conocimiento para “cubrir”, (2) conocimiento para “diferenciar”; y (3)conocimiento para “combinar”. En principio, dado que los síntomas no son evidentes a prioricomo en el caso del diagnóstico médico, es difícil establecer el conocimiento para “cubrir”.Para ello, se deberían relacionar ciertas situaciones dadas por un conjunto de medidas con losfallos en los distintos sensores. El conocimiento para “diferenciar” supone una fuente deconocimiento heurístico que se aplica para resolver entre distintas hipótesis de fallo. Realmenteel problema es que en muchas ocasiones en un problema de validación de datos no existe talconocimiento. Si se sospecha que hay un fallo en uno y otro sensor, y ambos se inculpanmutuamente resulta difícil decidir cuál de los dos es el que falla. Por último, el conocimientopara “combinar” es irrelevante en este problema ya que es razonable suponer que el fallo de losdistintos sensores es independiente. Este tipo de conocimiento sería aplicable en el caso de quese buscaran explicaciones externas al fallo de los sensores, que explicasen el fallo simultáneode un conjunto de ellos, lo cual no parece a priori necesario.

En consecuencia se puede decir que el esquema conceptual y la estrategia derazonamiento de MOLE está muy alejada de la forma de entender en ingeniería los problemashidrológicos y por tanto resultaría difícil realizar una representación adecuada del conocimientoexistente con este tipo de estructuración.

No obstante lo expuesto anteriormente, el estudio del sistema MOLE ofrece algunosaspectos interesantes para su aplicación al sistema de validación, ya que sugiere la posibilidadde emplear herramientas de adquisición del conocimiento con las que el propio usuario,interactuando con el sistema, sea capaz de hacer explícito su conocimiento. El funcionamientode esta herramienta del sistema MOLE no es extrapolable, como no lo es la estructura delconocimiento, pero aquí aparece por primera vez una idea importante: el mantenimiento delsistema puede llevarse a cabo por los propios expertos, controlando así interactivamente elfuncionamiento del programa, y siendo conscientes del conocimiento empleado para realizar lavalidación.

No obstante, la idea de "cubrir y diferenciar" es buena en general, y puede ser aplicadalocalmente para la resolución de ciertos conflictos cuando exista un conocimiento suficiente quepueda ser estructurado en esta forma.

4.3.4. El sistema MDX.

Uno de los precursores de los sistemas expertos de segunda generación que surge con laidea de “profundizar” el conocimiento que el sistema experto tiene sobre sistemas del mundoreal es el sistema experto MDX construído por un grupo de investigadores de la Universidad deOhio [Chandrasekaran,1979].

4.3.4.1. Descripción del sistema

El sistema está basado en una clasificación jerárquica en la que los nodos o conceptoscontienen conocimiento sobre componentes o aspectos sectoriales del sistema total. Inicialmenteeste sistema se aplicó al campo del diagnóstico médico, construyendose posteriormente sistemasde diagnóstico para otros dominios basados en el mismo paradigma. En concreto, el método declasificación jerárquica se ha aplicado al diagnóstico de plantas industriales (por ejemploquímicas [Shum,1988]) obteniendo algunas interesantes aplicaciones para la validación de losdatos durante el proceso de diagnóstico [Chandrasekaran,1987]. Esta última aplicación se haestudiado con mayor detalle en el capítulo anterior, dedicado a los sistemas y métodosespecíficos para validación de datos.

Page 53: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 4. Los sistemas de diagnóstico en Inteligencia Artificial___________________________________________________________________________

39

Modelo Declarativo

El modelo declarativo del sisema MDX se estructura entorno a un árbol cuyos nodosconstituyen las piezas elementales de conocimiento, que resulta tanto más específico o“profundo” cuanto mayor sea la distancia al nodo raíz. En el dominio de la medicina unfragmento de esta jerarquía podria ser:

Piedra en el conducto biliar

Estrangulamiento del conducto biliar

Tumor

ColonPáncreasDuodeno

"Colangiítis"

"Colestasis"

Hígado Corazón

Internista

...

... ...

OEH

...

El conocimiento de cada uno de estos nodos les permite establecer o rechazar la posibleimplicación del concepto correspondiente dentro del diagnóstico. Por tanto, por analogía con elsistema médico a cada uno de estos nodos se les denominan "especialistas" o "especialistas dediagnóstico".

El conocimiento de estos especialistas está representado mediante grupos de reglas deltipo "SI...ENTONCES...", que relacionan los síntomas con la evidencia de que exista unadisfunción en el correspondiente concepto de la jerarquía. Tambien existen reglas que funcionanen el sentido contrario, restando evidencia a un determinado concepto. Todas ellas pueden serponderadas para finalmente establecer o rechazar un concepto en función de la evidenciaobtenida.

Procedimiento de Interpretación

El proceso de inferencia que aplica el sistema MDX se denomina "establecer y refinar".La jerarquía se recorre de forma descendente a partir del nodo raíz. Cada nodo o "especialista",cuando es invocado intenta establecerse o rechazarse en función del conocimiento que posee. Silo consigue (establecerse) invoca a sus sucesores para que intenten establecerse, refinando deesta forma el diagnóstico. Normalmente sólo uno de los sucesores consigue establecerse y a suvez invoca a sus propios sucesores, profundizando de esta forma en el diagnóstico.

Chandrasekaran expone el siguiente ejemplo simplificado: En la jerarquía de la figuraanterior supóngase que se ha establecido un especialista llamado "Colestasis" que corresponde aun síndrome caracterizado por que la bilis del hígado no llega al duodeno. Una vez establecidoeste especialista se invocan en paralelo los especialistas descendientes, que corresponden a lasposibles causas de esta falta de fluido, una de ellas puede ser una "obstrucción externa alhígado". Esta obstrucción (causada por lo que sea) puede verse a través de rayos-X, y por tantomediante un grupo de reglas en las que intervengan estos hechos la hipótesis puede establecerseo rechazarse. Si se supone que se establece, el sistema profundiza al nivel inferior de lajerarquía para investigar las posibles causas de esta obstrucción. (1) una piedra en el conductobiliar; (2) un estrangulamiento en el conducto; (3) un tumor en alguno de los organos cercanosque oprima el conducto (puede ser de varios tipos); o (4) una "Colangiítis". Cada una de estascausas corresponde a un especialista con su grupo de reglas propio que les permite establecerse

Page 54: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 4. Los sistemas de diagnóstico en Inteligencia Artificial___________________________________________________________________________

40

o no, en función de los síntomas observados, por ejemplo el primero puede establecerse siexiste un dolor abdominal agudo, etc. Cada uno de estos especialistas a su vez puededescomponerse en otros especialistas, tantas veces como sea necesario hasta alcanzar unosprincipios básicos que puedan considerarse evidentes.

Características específicas

En el sistema MDX se hace una distinción conceptual clara entre el conocimientosubyacente y su representación en forma de una jerarquía de especialistas. Esta representacióndel conocimiento se considera adecuada; sin embargo, en la práctica puede resultar incompleta,y por tanto llevar a resultados incorrectos en los siguientes casos:

(1) Un concepto puede faltar en la jerarquía , si falta en el conocimiento subyacente. Este esel caso de enfermedades no consideradas en el sistema y que por tanto no pueden serdiagnosticadas

(2) Conocimiento incompleto en un especialista para establecerse o no, en general debido auna falta del correspondiente conocimiento subyacente.

(3) La estrategia de resolución no es suficientemente potente. La estrategia descritaanteriormente constituye el proceso básico de inferencia en MDX, no el único. Hayalgunas piezas de conocimiento para las cuales resulta inadecuada la rigidez impuestapor la jerarquía, en estos casos, el proceso de inferencia puede ser modificado de formaque incluya otras pautas de proceso que permitan la aplicación de estas nuevas piezas,como por ejemplo la comunicación entre especialistas.

(4) La elección de la jerarquía para representar el conocimiento no ha resultado adecuada.Esto ocurre con frecuencia en la práctica dado que no existen unas pautas claras paradeterminar cuál debe ser la representación correspondiente a un conocimiento dado.

(5) Por motivos de eficiencia, algunas piezas de conocimiento han quedado fuera de lajerarquía. Esto ocurre con situaciones en las que existen gran variedad de alternativaspoco probables que no se han considerado a efectos de no imponer una complejidadexcesiva.

Al igual que ocurre con otros sistemas expertos, el desarrollo del sistema MDX y lasposteriores reflexiones sobre su funcionamiento sirvieron de base para el replanteamiento de lasmetodologías de construcción de sistemas basados en el conocimiento. En esta línea ha tenidogran influencia la idea de que la labor que realizan los sistemas inteligentes puededescomponerse en tareas elementales, independientes del dominio, a las que Chandrasekarandenomina Tareas Genéricas, y que constituyen los bloques básicos de los sistemas basados enel conocimiento. [Chandrasekaran,1986]. Este enfoque se estudia con mayor detalle en elcapítulo 6.

4.3.4.2. Aplicación a la validación de datos hidrológicos.

Como ya se indicó al comienzo de este epígrafe, el sistema de clasificación jerárquica,que aplica el sistema MDX ha sido utilizado en diferentes aplicaciones, entre ellas una queincluye un problema de validación de los datos que permiten diagnosticar el estado de seguridadde una central nuclear. Es preciso recordar que esta aplicación tiene como objetivo principal eldiagnóstico y la validación se obtiene como una subtarea, por lo que los conceptos o nodos dela jerarquía que se establecen o rechazan tienen una perspectiva un tanto diferente.

Sin embargo, la estructuración del conocimiento que requiere el sistema de clasificaciónjerárquica puede emplearse para realizar puramente una tarea de validación, entendiendo éstacomo un tipo especial de diagnóstico según el planteamiento que se ha hecho al principio deeste capítulo. En concreto, para realizar la tarea de validación de datos hidrológicos hay queestablecer sobre el problema una estructura jerarquizada de conceptos de fallo, por la que

Page 55: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 4. Los sistemas de diagnóstico en Inteligencia Artificial___________________________________________________________________________

41

navegue el procedimieto de inferencia estableciendo o rechazando cada concepto. Estosconceptos corresponderían a fallos en un conjunto de sensores, por ejemplo podríanconsiderarse conceptos tales como: “Fallo total en los sensores de la cuenca del río Vélez”, o“Fallo en los pluviómetros de la cuenca alta del río Vélez”, etc.

La estructuración jerárquica es adecuada porque surge de forma natural al estudiar elcomportamiento de una cuenca como agrupación de otras subcuencas incluídas en ella. Sinembargo, el mecanismo de inferencia definido en el sistema trabaja siempre recorriendo laestructura de forma descendente, lo que no es del todo adecuado para el problema de lavalidación de los datos hidrológicos. La estructura natural del sistema supone realizar primerouna validación del conjunto global de la información recibida por los sensores, paraposteriormente, si se detecta que no es coherente (es decir, si el correspondiente nodo seestablece), focalizar el problema en un área menor. Esta aproximación tiene dos inconvenientesprincipales:

(1) El conocimiento que se requiere para el establecimiento de los nodos a nivel superiorcorresponde en general a la agregación del conocimiento sobre el comportamiento decada uno de los componentes que forman el sistema hidrológico. Podría pensarse en lautilización de reglas heurísticas que simplificasen los modelos de comportamientosubyacentes (si bien la obtención de tales reglas tiene también sus inconvenientes, comoya se indicó al hablar del sistema MYCIN). Sin embargo esta alternativa no esconveniente para el problema de validación de datos hidrológicos. Por una parte, unaregla simplificada, que no establezca el nodo superior, podría dejar sin validar algúnsensor de pequeña influencia en el comportamiento global; por otra parte, si los nodossuperiores se establecen con facilidad el sistema resultaría inestable o inclusoincoherente, al detectar fallos en un nivel superior y comprobar posteriormente al aplicarmodelos más precisos que tales fallos no se producen.

(2) Ciertos fallos en los sensores (la mayor parte) pueden ser fácilmente detectadosmediante procedimientos exclusivamente locales, es decir, analizando sólo la serie dedatos del propio sensor. (Por ejemplo, en caso de que sobrepasen un cierto umbral, yasea por exceso o por defecto, o que experimenten cambios bruscos inapropiados delproceso físico que están monitorizando, etc.). En general, estas comprobaciones puedenser computacionalmente muy eficientes. Sin embargo, dada la exploración descendenteque realiza el sistema MDX, y dado que este tipo de validación ocuparía lugares muybajos en la jerarquía; sólo se llevaría a cabo como última operación, tras haberestablecido otros nodos más generales, con procedimientos posiblemente más costososdesde el punto de vista computacional.

4.3.5. Sistemas expertos de diagnóstico basados en la teoría del recubrimiento.

Reggia, Nau y Wang [Reggia,1983] proponen un modelo de representación delproblema del diagnóstico basado en el concepto matemático de recubrimiento. Siguiendo estemodelo proponen la construcción de sistemas expertos de diagnóstico con una representacióndel conocimiento estructurada y una heurística de resolución fija. Una característica del modelopropuesto es que, a diferencia de MYCIN, y siguiendo las ideas del sistema INTERNIST, escapaz de diagnosticar causas múltiples para un conjunto de síntomas. Las principalesaplicaciones propuestas por los autores se refieren a problemas de diagnóstico médico, aunqueel método puede considerarse general.

4.3.5.1. Descripción del método

El modelo declarativo de la teoría del recubrimiento tiene ciertas similitudes con laestrategia de “cubrir y diferenciar” en el sistema MOLE, si bien ambos sistemas han surgidoindependientemente. En cierta forma, se podría considerar la teoría del recubrimiento como unaformalización del concepto de conocimiento para “cubrir”. Por su parte, el procedimiento de

Page 56: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 4. Los sistemas de diagnóstico en Inteligencia Artificial___________________________________________________________________________

42

inferencia recuerda vagamente a la estrategia heurística de “cubrir y diferenciar”, si bien desdeun punto de vista “algorítmico”.

Modelo Declarativo

Un problema de diagnóstico se define como una cuadrupla P = <D;M,C,M+> en donde:

D = {d1,d2...dr} es un conjunto finito, no vacío, de todas las anomalías odisfunciones que pueden ocurrir.

M = {m1,m2...ms} es un conjunto finito, no vacío, de todas las manifestaciones osíntomas.

C ⊆ DxM = {(di, mj) / la anomalía di, puede causar el síntoma mj }es una relación entre las disfunciones y las manifestaciones. Estarelación no implica necesariamente que un síntoma mj debaaparecer siempre dada una anomalía di

M+ ⊆ M es un conjunto de síntomas o manifestaciones que están presentesen el problema a tratar.

Dado un problema de diagnóstico pueden definirse las aplicaciones auxiliares:

efectos : D → P(M)efectos(di) = { mj / (di, mj) pertenecen a C }

causas: : M → P(D)causas (mj) = { di / (di, mj) pertenecen a C }

En general, para describir un problema de diagnóstico médico se proporcionan losefectos para todas las enfermedades o anomalías. De cualquier forma, a partir de estosconjuntos o a partir del conjunto de causas para todos los síntomas se puede reconstruir larelación C.

Se define como explicación E ⊆ D de un problema de diagnóstico P al subconjunto deanomalías que justifica la aparición de todos los síntomas de M+, es decir: M+ ⊆efectos (D).

Para caracterizar los diagnósticos soluciones del problema, suelen adoptarse alguno delos criterios correspondientes a alguna de estas tres definiciones:

(1) Una explicación es mínima si su número de elementos es menor o igual que el de todaslas demás explicaciones. (No es única necesariamente).

(2) Una explicación es irredundante si ningún subconjunto propio de ella constituye unaexplicación.

(3) Una explicación es relevante si es un subconjunto de causas (M+).

En general, la solución Sol (P) de un problema de diagnóstico P se define como elconjunto de todas las explicaciones mínimas para los síntomas de M+.*

* En este punto conviene hacer notar que si se consideran todas las posibles explicaciones irredundantes seobtienen los conjuntos de candidatos mínimos que considera deKleer [deKleer,1987] en su sistema GDE y queaparecen también en la teoría del diagnóstico propuesta por Reiter [Reiter,1987]. Aunque estas teorías han sidodesarrolladas independientemente y se han aplicado en contextos diferentes es clara la coincidencia entre las tres,tanto en la formulación como en los resultados, aunque no así en el procedimiento de inferencia y en losmecanismos auxiliares que permiten obtener los síntomas. En el caso del GDE y de la teoría de Reiter lossíntomas aparecen como consecuencia de una simulación, mientras que en la teoría de Reggia se suponenconocidos.

Page 57: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 4. Los sistemas de diagnóstico en Inteligencia Artificial___________________________________________________________________________

43

Procedimiento de Interpretación

El algoritmo de resolución de este problema constituye el motor de inferencias delsistema experto. Para implementarlo se utilizan tres estructuras de datos:

MANIF: El conjunto de las manifestaciones consideradas en un instante dado.SCOPE: Conjunto correspondiente a causas(MANIF); es decir, todas las disfunciones

para las que al menos una manifestación esta presente.FOCUS: Solución actual al problema considerando los síntomas de MANIF, Por

cuestiones de eficiencia está formada por un conjunto de generadores. Cadagenerador es un producto cartesiano de conjuntos disjuntos entre sí deanomalías, de forma que cada elemento de este producto cartesiano resulta seruna explicación del problema P.

El algorítmo de proceso funciona monótonamente a partir de cada uno de los síntomasobservados en M+, y en grandes líneas es el siguiente:

MANIF← 0 ; SCOPE ← 0 ; FOCUS ← 0;Repetir para todos los síntomas m pertenecientes a M

Si m pertenece a M+ entoncesMANIF ← MANIF ∪ {m}SCOPE ← SCOPE ∪ causas (m)FOCUS ← Se calcula a partir del conjunto causas (m) y los generadores

previos de FOCUS, de manera que sólo permanezcan lasdisfunciones que explican todos los síntomas considerados en elconjunto MANIF. Vease [Peng,90] para una explicación másdetallada.

Características específicas

Peng y Reggia [Peng,1990] estudian el caso de relaciones causales probabilísticas. Elobjetivo de sus trabajos es ordenar las explicaciones que componen la solución en orden inversoa su probabilidad. Dado un conjunto de manifestaciones M+ que realmente se presentan en elmodelo, la probabilidad (a posteriori) de cualquier explicación viene dada por la fórmula deBayes:

p E M+( ) =

p M+ E( ) p E( )p(M+)

en donde p(M+) es una constante, por tanto a efectos de ordenar las explicaciones es suficienteconocer el numerador de la expresión anterior.

Para calcular p M+ E( ) se definen los siguientes eventos:

(1) Eventos de causas: di ∈ D, denota que la anomalía di ocurre. (Se considera que unaanomalía ocurre o no ocurre, con independencia de la ocurrencia o no de las demásanomalías, y a este evento se le asocia una probabilidad p(di). )

(2) Eventos de manifestaciones: mj ∈ Μ, denota que la manifestación mj ocurre.(Igualmente se considera que una manifestación esta presente o no esta presente, conindependencia de las demás, y a este evento se le asocia una probabilidad p(mj). ) *

* Notese que en el planteamiento del problema las manifestaciones son variables binarias que ocurren o noocurren con un cierto grado de probabilidad. En el planteamiento probabilístico de deKleer, [deKleer,1991] lasvariables representan magnitudes que toman valores sobre intervalos discretos.

Page 58: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 4. Los sistemas de diagnóstico en Inteligencia Artificial___________________________________________________________________________

44

(3) Eventos de causalidad: mj:di denota que los eventos di y mj realmente ocurren y que elsíntoma mj está realmente causado por la anomalía di

La probabilidad causal condicionada de que el síntoma mj pueda ser causado por laanomalía di, viene dada por la fórmula de Bayes:

p mj:di di( ) =

p mj:di ∧ di( )p di( ) =

p mj:di( )p di( )

Intuitivamente esta probabilidad hace referencia al grado de seguridad que se asocia alelemento <di,mj> de la relación C, es decir, a cada regla. Esta probabilidad es menor o igualque la probabilidad condicional p(mj|di) que representa la ocurrencia del síntoma mj dada laanomalía di. La diferencia se justifica cuando se consideran múltiples anomalías, ya que elsíntoma podría ser causado por otras anomalías presentes.

Se realizan las siguientes hipótesis:

(1) Son conocidas las probabilidades a priori de cada una de las anomalías pi = p(di), y lasprobabilidades causales condicionadas: cij = p(mj:di|di) para todos los eventos mj:diEvidentemente, p(mj:di|di) > 0 si y sólo si <di,mj> pertenece a la relación C.

(2) Independencia de anomalías: La ocurrencia de una anomalía es independiente de lasdemás.

(3) Ningún síntoma ocurre si no es causado por una disfunción.

Asumiendo estas hipótesis se llega a la fórmula:

p M+ E( ) = 1- 1- cij( )di∈E∏

m j ∈M+

∏ ⋅ 1- cij( )di∈E∏

mj∈efectos di( )−M +∏

La probabilidad a priori de una explicación E puede hallarse fácilmente mediante lafórmula:

p E( ) = p di( )di ∈E∏ ⋅ 1- p di( )( )

di ∈D−E∏ = pi

1- pi

di ∈E

∏ ⋅ 1 − pi( )di ∈D∏

Por consiguiente la siguiente expresión define el llamado índice relativo de verosimilitudL(E,M+) que es directamente proporcional a la probabilidad de cada explicación E dada una seriede medidas M+, lo que permite ordenar el conjunto de explicaciones del problema:

L E,M+( ) = 1- 1- cij( )di∈E∏

m j ∈M+

∏ ⋅ 1- cij( )di∈E∏

mj∈efectos di( )−M +∏ ⋅ pi

1- pi

di ∈E

Por otra parte, Peng y Reggia [Peng,1990] generalizan la teoría del diagnóstico basadaen recubrimientos para el caso en que la relación entre disfunciones y manifestaciones se realicetransitivamente a través de varios niveles auxiliares de conceptos intermedios a los quedenominan hipótesis. El desarrollo en esta línea conduce a problemas similares a los estudiadospor Pearl [Pearl,1988] con sus redes causales.

Page 59: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 4. Los sistemas de diagnóstico en Inteligencia Artificial___________________________________________________________________________

45

4.3.5.2. Aplicación a la validación de datos hidrológicos.

Una vez más, el principal problema que hay que afrontar si se quiere utilizar este métodopara la validación de datos es la adecuada representación del conocimiento. El mecanismopropuesto por Peng y Reggia establece una estructuración fija al conocimiento que puedeincluirse en el sistema.

Las primeras propuestas son tan estrictas que sólo permiten establecer conocimientosobre relaciones directas entre los síntomas y las anomalías. En el problema de validación estasrelaciones directas no se conocen, entre otras cosas, porque los síntomas no son evidentes,sino que hay que deducirlos de la confrontación entre las medidas reales y las estimadas a partirde otros sensores.

Los sistemas multicapa propuestos por Peng y Reggia, en los que se manejan conceptoso hipótesis intermedias llevan a una complejidad computacional elevada, que hace desechablesu utilización en problemas de dimensiones reales.

En resumen, el esquema conceptual y la estrategia de razonamiento de estos sistemas,está muy alejada de la forma de entender en ingeniería los problemas hidrológicos y por tantoresultaría difícil realizar una representación adecuada del conocimiento existente con este tipo deestructuración.

4.3.6. Sistemas expertos de diagnóstico basados en la agrupación de síntomas.

Otro planteamiento interesante a tener en cuenta que afronta el problema del diagnósticodesde una perspectiva matemática ha sido propuesto por Thomas Wu [Wu,1990]. El algoritmose basa en la agrupación de síntomas en vez en la agrupación de disfunciones.

4.3.6.1. Descripción del método

El método de diagnóstico basado en la agrupación de síntomas es una evolución sobrelos métodos basados en la teoría del recubrimiento vistos en el epígrafe anterior. La principalnovedad que incorpora este método es el tratamiento de las disfunciones como causas directasde los síntomas, de tal forma que para establecer una disfunción es necesario que estenpresentes todos los síntomas que conlleva. Por otra parte, cuando los síntomas pueden serexplicados mediante distintas combinaciones de disfunciones, se calcula mediante agrupaciónde los mismos los conjuntos mínimos de disfunciones que los explican.

Modelo Declarativo

Sobre el conjunto de síntomas presentes en un determinado caso se establece unapartición que divide al conjunto de síntomas en grupos. Hipotéticamente cada uno de estosgrupos está causado por una misma disfunción. Esta partición del conjunto de síntomas engrupos se denomina agrupación. Por ejemplo, los síntomas A,B,C, y D pueden dividirse en laagrupación : (ABD)(C), si una misma disfunción es la causa de los síntomas A, B y D y otra es lacausa del síntoma C.

Los conjuntos de disfunciones que explican un determinado grupo de síntomas sedenominan intersecciones causales o diagnósticos diferenciales (la diferencia entre ambosconceptos se verá más adelante). Cada diagnóstico diferencial contiene todas las disfuncionescapaces de explicar un grupo, por tanto el producto cartesiano de los diagnósticos diferencialesde todos los grupos de la agrupación constituyen todos los posibles candidatos o explicaciónesal problema del diagnóstico*

* El concepto de candidato coincide con el que consideran otras propuestas como [Reiter,1987] y [deKleer,1987];o con el concepto de explicación considerado por [Reggia,1983].

Page 60: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 4. Los sistemas de diagnóstico en Inteligencia Artificial___________________________________________________________________________

46

El objetivo del problema del diagnóstico consiste en determinar todas las posiblesagrupaciones de los síntomas presentes en un determinado caso y las correspondientesdisfunciones que los explican.

Procedimiento de Interpretación

Para cumplir el objetivo del diagnóstico previamente será necesario poder realizar dossubtareas: (1) determinar todas las agrupaciones que un determinado candidato satisface; y (2)hallar los candidatos que son capaces de explicar una determinada agrupación.

(1) Para determinar todas las agrupaciones que un determinado candidato satisface debenhallarse todos los posibles efectos de cada una de las disfunciones que componen elcandidato y posteriormente seleccionar al menos un síntoma de cada una de estas listas.

Por ejemplo, sea un problema de diagnóstico definido mediante los siguientes síntomasy sus correspondientes causas:

A� <d1,d2,d3,d4>B <d1,d3,d5,d7>C <d1,d2,d5>D <d1,d3,d4,d6>

El candidato [d3,d5,d6 ] produce los siguientes efectos:

d3 --> A B Dd5 --> B Cd6 --> D

y por tanto satisface las agrupaciones: (AB)(C)(D) y (A)(BC)(D).

(2) El problema inverso consiste en determinar dado una agrupación de síntomas loscandidatos válidos (V-candidatos) y los candidatos mínimos (M-candidatos) que sesiguen de ella.

Dado un caso concreto a diagnósticar, que viene definido por un conjunto de síntomas,se dice que el candidato es válido para este caso si y sólo si todos los síntomas del casoaparecen entre los efectos de alguna de las disfunciones que componen el candidato.

Un candidato válido es mínimo para un caso concreto a diagnosticar definido por unconjunto de síntomas, si y sólo si cada una de las disfunciones tiene una justificación, esdecir cada uno de los síntomas del caso aparece exactamente en los efectos de alguna delas disfunciones que componen el candidato.

En el ejemplo que sirve de base a esta exposición, para los síntomas A, B, C y D, elcandidato [d3,d5,d6 ] es válido, pero sin embargo no es mínimo ya que el síntoma Daparece como efecto de d3 y por consiguiente d6 carece de justificación. Por el contrario,para los síntomas A, C y D el candidato [d3,d5,d6 ] es válido y también es mínimo.

Hallar los candidatos es fácil, para ello basta computar las intersecciones causales paracada grupo c:

Int c( ) = Causas s( )

s∈cI

Page 61: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 4. Los sistemas de diagnóstico en Inteligencia Artificial___________________________________________________________________________

47

Los candidatos válidos resultan del producto cartesiano de las intersecciones causalesexcluyendo los conjuntos con elementos duplicados. Por ejemplo, los V-candidatos dela agrupación (AC)(B)(D) son:

V-candidatos((AC)(B)(D))={ [d1,d3,d4], [d1,d3,d6], [d1,d5,d3], [d1,d5,d4], [d1,d5,d6] ,[d1,d7,d3], [d1,d7,d4], [d1,d7,d6], [d2,d1,d3], [d2,d1,d4] ,[d2,d1,d6], [d2,d3,d1], [d2,d3,d4], [d2,d3,d6], [d2,d5,d1] ,[d2,d5,d3], [d2,d5,d4], [d2,d5,d6], [d2,d7,d1], [d2,d7,d3] ,[d2,d7,d4], [d2,d7,d6] }

Para hallar los M-candidatos se realiza un proceso de filtrado a partir de los V-candidatos eliminando de las intersecciones causales las excepciones o desordenes queno aparecen en ninguno de los candidatos mínimos que pueden hallarse a partir de laagrupación. A estos nuevos conjuntos se les denomina diagnósticos diferenciales. Elalgoritmo es el siguiente:

1. Iniciación: Para cada grupo c:

Dif c( ) : = Int c( )Subfiltro s( ) : = Causas s( ) ∩ Dif c©( )

c©≠cU

Filtro c( ) : = Subfiltro s( )s∈c{ }2. Eliminar los subfiltros no factibles. Un subfiltro f no es factible si es un

superconjunto de un diagnóstico diferencial.:

Filtro c( ) : = Filtro c( ) − f ∃c©≠ c f ⊇ Dif c©( ){ }En este punto cada filtro debe tener al menos un subfiltro factible, en caso contrario noexisten candidatos mínimos.

3. Eliminar las excepciones:

Exc c( ) := ff∈Filtro c( )

I

Dif c( ) : = Dif c( ) − Exc c( )cU

Subfiltro s( ) : = Subfiltro s( ) − Exc c( )cU

Filtro c( ) : = Subfiltro s( ) s ∈c{ }4. Si en el paso anterior no se encuentra ninguna excepción, el proceso termina, si no debe

repetirse el paso 2.

Aplicando este algorimo al ejemplo anterior se obtienen los M-candidatos:

M-candidatos((AC)(B)(D)) ={ [d2,d5,d6], [d2,d7,d4], [d2,d7,d6] }

Para resolver un determinado problema de diagnóstico es necesario hallar todas lasposibles agrupaciones de los síntomas que se manifiestan. Sin embargo, no todas lasagrupaciones resultan interesantes. Se dice que una agrupación es válida si y sólo si elcorrespondiente conjunto de V-candidatos es no vacío. Igualmente se dice que una agrupaciónes mínima si y sólo si el conjunto de M-candidatos es no vacío.

Válido C( ) ⇔ V− candidatos C( ) ≠ ∅Mínimo C( ) ⇔ M− candidatos C( ) ≠ ∅

Por otra pate algunas agrupaciones pueden ser englobadas por otras. Se dice que unaagrupación C1 engloba a otra C2, si y sólo si cada una de las intersecciones causales de C1 esun superconjunto propio de alguna de las intersecciones causales de C2. Se dice que un síntomas cubre a un grupo c, si y sólo si sus correspondientes causas incluyen a las interseccionescausales del grupo. El concepto antónimo se denomina restringir.

Page 62: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 4. Los sistemas de diagnóstico en Inteligencia Artificial___________________________________________________________________________

48

Cubre s,c( ) ⇔ Int c − s{ }( ) ⊄ Causas s( )Restringe s,c( ) ⇔ Int c( ) ⊆ Causas s( )

Para calcular todas las posibles agrupaciones de los síntomas de un caso dado seprocede incrementalmente considerando cada uno de los síntomas y determinando las nuevasagrupaciones a que da lugar en función de las agrupaciones anteriormente existentes:

Formar una primera agrupación con un síntoma cualquiera Nuevas := { (s) };Para cada nuevo síntoma s del caso considerado.

Viejas := Nuevas;Nuevas := ∅;Para cada agrupación C del conjunto Viejas

Si existe algún grupo c en la agrupación C tal que Cubre(s,c)Nuevas := Nuevas + C incluyendo a s en el grupo c

En caso contrarioSi existe algún grupo c en la agrupación C tal que Restringe(s,c)

Nuevas := Nuevas + C incluyendo a s en el grupo c.Si Causas s( ) − ∪c Int c( ) ≠ ∅

Nuevas := Nuevas + C con un nuevo grupo formado por (s).Si existe un síntoma s’ en algún grupo c’, tal que Restringe(s’, c’) y Restringe(s’, {s})

Nuevas := Nuevas + C con un nuevo grupo formado por (s s’)

La técnica de diagnóstico basada en agrupación de síntomas supone en principio unamayor complejidad en la determinación de las anomalías que los originan, sin embargo,proporciona una buena estructuración de las mismas por lo que ofrece la ventaja de poderincorporar estrategias de búsqueda heurística o probabilística eficientes que tengan en cuentainformación sobre las agrupaciones de síntomas que resultan más plausibles. En general, estatécnica resulta ventajosa cuando el dominio al que se aplica está estructurado, es decir, cuandola relación entre síntomas y anomalías no es completamente aleatoria, sino que se establece enfunción de una cierta estructuración (aunque no sea de forma explícita), entre ambos conceptos.[Wu,1991].

4.3.6.2. Aplicación a la validación de datos hidrológicos

Este método resulta muy interesante desde un punto de vista teórico, ya que ofrece unaformulación precisa del concepto intuitivo de etiología. Sin embargo, desde el punto de vistapráctico, en concreto para su aplicación a la validación de datos hidrológicos presenta losmismos inconvenientes señalados anteriormente para el método basado en la teoría delrecubrimiento. La representación del conocimiento de diagnóstico es demasiado estricta paraformular problemas reales en los que el conocimiento empleado no es tan preciso. Además,desde el punto de vista computacional, este método es más costoso que el anterior.

Page 63: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 4. Los sistemas de diagnóstico en Inteligencia Artificial___________________________________________________________________________

49

4.4. SISTEMAS DE DIAGNOSTICO BASADO EN MODELOS

A principios de los años 80, coincidiendo con las reiteradas críticas, que ya han sidoexpuestas anteriormente, sobre la trivialidad de las aplicaciones que sirven de base a lossistemas expertos y la necesidad de emplear modelos de conocimiento más “profundo”, surgeun nuevo paradigma de formulación del problema del diagnóstico basado en la modelización dela estructura y el comportamiento de los sistemas del mundo real que se pretenden diagnosticar.

La idea central de este nuevo paradigma consiste en la confrontación de lasobservaciones realizadas sobre el sistema en el mundo real, en general un sistema físico, conlas inferidas a partir de un modelo que a tales efectos se construye, tal como se indica en elsiguiente diagrama:

MODELO COMPORTAMIENTO PREVISTO

COMPORTAMIENTO OBSERVADO

Predicciones

Observaciones

Hallar Discrepancias

SISTEMA FISICO

DISCREPANCIAS DIAGNÓSTICOS

Explicar Discrepancias

A grandes rasgos, en los sistemas de diagnóstico basado en modelos, lo queanteriormente en este capítulo se ha denominado Modelo Declarativo o conocimiento estáticodel dominio viene dado por:

(1) La estructura del sistema, es decir, su descomposición en componentes y las conexionesestructurales entre los mismos. En algunas ocasiones esta estructura establece unajerarquia de componentes a diversos niveles de detalle, de manera que es posibleestudiar el modelo desde diversas perspectivas, considerando como componenteselementos compuestos a su vez por otros componentes.

(2) La descripción del comportamiento correcto de cada uno de los componentes. Engeneral este conocimiento se expresa mediante una o más de restricciones que elcomponente impone en el sistema entre sus entradas y sus salidas.

(3) Por último, en algunos sistemas de diagnóstico basado en modelos se incluyen modelosde fallo de los componentes, es decir, los distintos modelos de comportamiento anómaloque pueden seguir los componentes en caso de avería. Este conocimiento no esindispensable en el proceso de diagnóstico, y tampoco se requiere que sea exhaustivo.Su función suele ser la de focalizar inicialmente la búsqueda en aquellas situaciones defallo conocidas a priori.

El Procedimiento de Interpretación o conocimiento de control presenta las mayoresdiferencias entre unos sistemas y otros. A grandes rasgos, en los sistemas de diagnósticobasado en modelos se realizan básicamente tres tareas [Davis,1988]:

(1) Generación de hipótesis. Consiste en determinar dada una discrepancia entre datosprevistos y observados, cuál es el componente o conjunto de componentes (o loscomponentes o conjuntos de componentes) del sistema que pueden haberla producido.

(2) Comprobación de cada hipótesis. Se trata de contrastar para cada componente (oconjunto de componentes) que es sospechoso de producir una determinada discrepancia,si su fallo resulta coherente con todas las demás observaciones y con el resto de lainformación disponible sobre el comportamiento de circuito. En muchos sistemas, latarea de generación y comprobación de hipótesis se realizan conjuntamente.

(3) Discriminación entre distintas hipótesis. En general, el proceso de generación dehipótesis y comprobación de las mismas no determina unívocamente el fallo del sistema,

Page 64: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 4. Los sistemas de diagnóstico en Inteligencia Artificial___________________________________________________________________________

50

sino que proporciona un elenco de hipótesis todas ellas posibles. Por tanto algunossistemas incorporan una tarea que permite ordenar o discernir entre las distintashipótesis aquellas que resultan más verosímiles. En este punto se aplican distintoscriterios, algunos sistemas proponen como solución aquella hipótesis que conlleva elfallo de un menor número de componentes, o bien ordenan las hipótesis conforme a lasprobabilidades de que ocurran, dada la probabilidad de fallo a priori de cada uno de loscomponentes, por otra parte algunos sistemas proponen la realización de nuevasobservaciones que permitan realizar nuevamente la tarea de comprobación.

4.4.1. El sistema HT.

Algunos de los primeros trabajos sobre sistemas de diagnóstico basado en modelos seatribuyen a Randall Davis [Davis,1983],[Davis,1984]. El objetivo de su trabajo es desarrollaruna teoría que tenga en cuenta el conocimiento sobre la estructura y el comportamiento de lossistemas para diagnosticar posibles fallos en sus componentes.

4.4.1.1. Descripción del método

El método desarrollado por Davis se aplica al diagnóstico de fallos de componentes delos circuitos electrónicos digitales.

Se realizan dos hipótesis previas que condicionan la tarea de diagnóstico:

(1) Sólo uno de los componentes falla, aunque la repercusión del fallo de un componentepuede hacerse sentir en diversos puntos del circuito.

(2) Los fallos en los circuitos son permanentes, es decir, una nueva medida de la salida conidénticas entradas da lugar a los mismos resultados.

Modelo Declarativo

El Modelo Declarativo se basa en la determinación de los modelos de comportamiento delos componentes que establecen restricciones de obligado cumplimiento para su correctofuncionamiento y en las siguientes hipótesis:

(1) La suposición de que un componente funciona correctamente equivale al establecimientode una restricción que modela su comportamiento, y de que por tanto su funcionamientoincorrecto supone la “suspensión de la restricción” correspondiente.

(2) El mantenimiento de registros de dependencias, o relaciones causales que sustentan losvalores previstos para detectar las posibles fuentes de la avería. Estas relaciones seestablecen en función de la estructura misma del sistema que se intenta diagnosticar.

Procedimiento de Interpretación

El proceso de inferencia puede ser descrito mediante el siguiente algoritmo:

Page 65: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 4. Los sistemas de diagnóstico en Inteligencia Artificial___________________________________________________________________________

51

PASO 1: HALLAR DISCREPANCIAS1.1 Introducir las entradas del sistema de restricciones y hallar los valores que se obtienen en la

salida1.2. Comparar las conclusiones previstas con las observaciones realizadas.

PASO 2: DETERMINAR LOS CANDIDATOS A PARTIR DE LOS REGISTROS DE DEPENDENCIAS2.1. Para cada discrepancia obtenida en el paso 1, seguir la cadena de dependencias hacia atrás desde

el valor previsto para analizar todos los componentes que intervienen en la predicción.2.2. Hallar la intersección de todos los conjuntos obtenidos en el paso 2.1.

PASO 3: DETERMINAR LA CONSISTENCIA DE LOS CANDIDATOS BASADA EN LA SUPRESIÓN DERESTRICCIONES

3.1. Para cada componente susceptible de fallo hallado en el paso 2.2.3.1.1. Desactivar la restricción que impone su normal funcionamiento.3.1.2. Hallar los valores que se obtienen en la salida, con el conjunto de restricciones

remanente.3.1.3. Si el sistema alcanza un estado consistente

- el componente es un candidato globálmente consistente- los síntomas pueden reconocerse en sus entradas y salidas- se añade este candidato y los síntomas en una lista.

Si no alcanza un estado consistente- no es un candidato globálmente consistente, se ignora.

3.1.4. Descartar las salidas previstas3.1.5. Volver a activar la restricción que había sido suspendida

Ejemplo

Sea el circuito de la figura compuesto por tres multiplicadores M1,M2 y M3 y dossumadores S1, S2.

M1

M2

M3

S1

S2

A

B

C

D

E

F

G

X

Y

Z

3

2

2

3

3

(12)[10]

(12)[12]

Tras una simulación del circuito con las entradas que se indican pueden predecirse unosvalores en las salidas, un valor en G=12 y un valor en F=12. Durante la simulación se vaconstruyendo un registro de dependencias de cada conclusión. La medida realizada indicaF=10, por tanto se ha localizado un conflicto. Recorriendo el registro de dependencias seobserva que el valor esperado se basa en el funcionamiento correcto del sumador S1 y de losmultiplicadores M1 y M2. Uno de estos tres debe ser el origen de las discrepancias. Esto lleva aplantear las siguientes hipótesis: (1) S1 falla, lo que explica directamente la discrepanciaobservada en F. (2) Asumiendo que la segunda entrada al sumador S1 es correcta, y que éstefunciona correctamente, la primera entrada al sumador debería ser X=4, pero se esperaba quefuera X=6. Hay una discrepancia, por tanto la alternativa es que funcionando S1 correctamente,M1 falle. (3) La siguiente posibilidad es que la primera entrada al sumador S1 sea correcta, loque implicaría que la segunda entrada sea Z=4 (lo que sugiere un fallo en el multiplicador M2),pero esto lleva a pronosticar un valor G=10, aplicando el sumador S2, este valor contrasta conel valor medido en G=12, y por consiguiente no es posible Z=4, ya que debe ser Z=6, dedonde se deduce que el segundo multiplicador no puede ser responsable del problema.

Page 66: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 4. Los sistemas de diagnóstico en Inteligencia Artificial___________________________________________________________________________

52

Características específicas

Para realizar la tarea de diagnóstico, las interacciones causales entre distintoscomponentes tienen gran importancia. Estas interacciones se establecen a partir de la estructuradel circuito y de los modelos de comportamiento de sus componentes. En los circuitoselectrónicos, por ejemplo, esto es especialmente relevante debido al cableado físico; sinembargo, la tarea de diagnóstico de un circuito puede concluir que ninguno de los componenteses capaz de justificar por sí sólo el comportamiento anómalo del circuito. Esto lleva a asumir lapresencia de múltiples fallos independientes, o bien a modificar la supuesta estructura delcircuito, por ejemplo suponiendo que su estructura conceptual corresponde a otra en la que seha producido un cortocircuito entre dos puntos de la estructura original.

Existe un compromiso entre la complejidad y la completitud del proceso de diagnóstico.Si se tiene en cuenta todas las interacciones entre componentes, el proceso de diagnóstico sevuelve excesivamente complejo; si no se hace así, algunos fallos podrían quedar ocultos o sinexplicación. Una solución a este dilema consiste en la enumeración de las categorías de fallo. Elresultado es una estrategia basada en una metódica enumeración y relajación de los supuestosde funcionamiento. Para seleccionar las estructuras o representaciones del circuito que se debenconsiderar se usa el concepto de “adyacencia”, que corresponde a la existencia de una relaciónque soporte la estructura de funcionamiento de los componentes, bien sea que exista un cableque los conecte, o que estén situados próximos en el espacio, etc.

En suma, para diagnosticar el fallo en un sistema electrónico es necesario realizar lassiguientes tareas:

(1) A partir de ciertas relaciones de adyacencia, se establece una serie de estructuras orepresentaciones de funcionamiento del mismo. Este conjunto debe ordenarse de maneraque las hipótesis correspondientes a los fallos más simples o más creíbles seanconsiderados primero.

(2) Para una de estas representaciones se estudia mediante una o más combinaciones devalores en las entradas y sus correspondientes observaciones en las salidas del sistema,y aplicando el algoritmo de “suspensión de restricciones” descrito anteriormente, siexiste algún componente que explique consistentemente el comportamiento observado.

(3) En caso de que no se obtenga ningún candidato globalmente coherente o si es necesariofiltrar el conjunto de soluciones obtenido, se rechaza la hipótesis realizada sobre laestructura del circuito y se realiza una nueva atendiendo a otra categoría de fallos.

Este mecanismo actúa como lo haría un experto ingeniero: primero realiza unas ciertashipótesis necesarias para simplificar el problema y hacerlo tratable, aunque está preparado paradescubrir que algunas de las simplificaciones realizadas son incorrectas y por tanto modificarlasadecuadamente para considerar otras clases de fallo.

4.4.1.2. Aplicación a la validación de datos hidrológicos

La línea de investigación abierta por los trabajos de Davis sobre diagnóstico basado enmodelos resulta muy alentadora para afrontar problemas sobre sistemas físicos en los que elconocimiento sobre los mismos se obtiene gracias al ensamblaje del conocimiento sobre elcomportamiento de sus componentes. Si bien los sistemas físicos sobre los que se ha aplicadoel método han sido circuitos electrónicos, es fácil adaptar el método a cualquier tipo de sistemaque pueda ser modelado por componentes.

Los sistemas de diagnóstico basados en modelos plantean una estructuración delconocimiento más cercana a la forma tradicional de entender muchos de los problemas delcampo de la ingeniería. De hecho, en el caso hidrológico, se adapta perfectamente a las líneas deinvestigación tradicionales, que afrontan la comprensión del problema como el establecimientode ua serie de modelos capaces de predecir el funcionamiento de las cuencas.

Page 67: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 4. Los sistemas de diagnóstico en Inteligencia Artificial___________________________________________________________________________

53

Uno de los inconvenientes de esta primera propuesta, desde el punto de vista de lavalidación de datos hidrológicos, es que supone que sólo ocurre el fallo simultáneo de unelemento, en este caso de un sensor, lo que puede ser excesivamente restrictivo. Por otra partetampoco plantea el problema de la imprecisión de los datos, ni de su tratamiento temporal.

Estos aspectos se tratarán con mayor detalle al estudiar la siguiente propuesta, que puedeconsiderarse como una evolución de las ideas de diagnóstico basado en modelos que mejora ycompleta las ideas que aquí aparecen.

4.4.2. El sistema GDE

El objetivo de los trabajos de Johan deKleer y Brian C. Williams [deKleer, 1987] esdefinir un sistema de diagnóstico genérico basado en un motor de inferencias denominado GDE(General Diagnostic Engine) que sea capaz de determinar cuáles de los componentes de unsistema son responsables de un comportamiento anómalo observado. Este sistema ha tenido unagran aceptación e influencia sobre otros trabajos y se han construído sistemas de diagnósticobasados en el mecanismo del GDE para diversos dominios.

4.4.2.1. Descripción del sistema

A diferencia de otros trabajos en los que se supone a priori que sólo falla uno de loscomponentes del sistema, con este método es posible determinar si el fallo es debido a uno omás componentes. El método emplea un mecanismo de mantenimiento de la razón basado ensuposiciones llamado ATMS [deKleer,1986] (Asumption-based Truth Maintenance System).

Se realizan tres hipótesis previas:

(1) La toma de medidas no afecta al comportamiento del sistema.

(2) Los fallos son sistemáticos, es decir no se modifican con el transcurso del tiempo.

(3) Cuando un componente falla, aleatoriamente puede presentar cualquier valor en su salidapara cualquiera que sea su entrada, por tanto, no se establecen a priori modelos decomportamiento anómalo de los componentes.

Modelo Declarativo

Para realizar el diagnóstico de un sistema se ha de tener en cuenta el siguienteconocimiento:

(1) La estructura física del sistema, que viene dada por las conexiones entre las entradas ysalidas de los distintos componentes

(2) Los modelos para cada componente del sistema. En general cada componente estableceR restricciones entre los valores de sus N entradas y sus M salidas, de forma que dadoslos valores de (N+M-R) entradas o salidas es posible hallar los valores previstos en lasR entradas o salidas restantes.

(3) Cuando puede considerarse que hay diferencias entre el comportamiento previsto por losmodelos y el comportamiento real.

(4) Un conjunto de medidas en algunos puntos del sistema.

La terminología que se usa en este método es común a otros sistemas de diagnóstico, noobstante se expone para mayor claridad:

Page 68: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 4. Los sistemas de diagnóstico en Inteligencia Artificial___________________________________________________________________________

54

Síntoma: Cualquier inconsistencia detectada mediante el procedimiento de inferencia entreuna predicción de comportamiento y una medida realizada, o bien entre dospredicciones realizadas por diferentes caminos.

Entorno: Es un conjunto de suposiciones sobre el correcto funcionamiento de loscomponentes, o dicho de otra forma, es un conjunto de componentes que sesupone que funcionan. Cada entorno por tanto determina el contexto en el que sonválidas ciertas inferencias.

Conflicto: Es un conjunto de componentes de entre los cuales alguno debe suponerse quefalla para así justificar un determinado síntoma, es decir, es el conjunto decomponentes tales que no se puede asumir el comportamiento correcto de todosellos simultáneamente. Para un síntoma en concreto puede haber varios conflictosque lo justifiquen, incluyendo aquel que incluye a todos los componentes delsistema, sin embargo, todos los conflictos pueden ser representados mediantes unconjunto de conflictos mínimos. Cada conflicto mínimo esta formado por unconjunto de componentes tales que ningún subconjunto propio del mismoconstituye un conflicto. Para cada síntoma en general existe uno o más conflictosmínimos que lo explican.

Candidato: Los candidatos son hipótesis de fallo de sistema, cada una de estas hipótesis es unconjunto de componentes cuyo fallo explica todos los síntomas detectados. Unsistema de n componentes en el que se acepta el fallo múltiple de componentespuede tener en principio 2n diferentes candidatos. Sin embargo, los candidatospueden ser representados también mediante candidatos mínimos. De igual formaque los conflictos, un candidato es mínimo si ningún subconjunto del mismoconstituye un candidato que explique todos los síntomas.

Procedimiento de Interpretación

A partir de esta representación del conocimiento el mecanismo de inferencia respondecon un conjunto de candidatos, cada uno de los cuales es un conjunto de componentes cuyofallo simultáneo explica el comportamiento anómalo del sistema.

El método que se sigue en el GDE consta de tres subtareas: (1) Determinar los síntomas,(2) Reconocer los conflictos mínimos y (3) Generar incrementálmente los candidatosmínimos. Cuando se detecta un síntoma se procede a identificar los conflictos mínimos que loexplican. Para ello, se selecciona un entorno y se comprueba si es inconsistente con lasmedidas observadas. Para cada uno de estos conflictos se actualiza el conjunto de candidatosexistente, comprobando que cada uno de los candidatos explica el nuevo síntoma, si esto no esasí dicho candidato se elimina y se generan uno o más nuevos candidatos, que se obtienenañadiendo al antiguo candidato alguno de los componentes que aparecían en el nuevo conflicto.

El proceso puede continuar recogiendo nuevas medidas en otros puntos que confirmen ocontradigan las afirmaciones obtenidas anteriormente, con lo cual se obtienen nuevos conflictoscon los que se va refinando monótonamente el conjunto de candidatos, hasta que se considerenecesario. Este proceso puede representarse mediante el diagrama de flujo:

Page 69: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 4. Los sistemas de diagnóstico en Inteligencia Artificial___________________________________________________________________________

55

Entropia total del sistema < LímiteElegir una medida Realizar una medida

No

FIN

Ejemplo

El siguiente ejemplo ilustra los mecanismos de inferencia que se siguen. Sea el circuitode la figura compuesto por tres multiplicadores M1,M2 y M3 y dos sumadores S1 y S2, en el quese conocen las entradas y posteriormente se realizarán medidas en las salidas:

M1

M2

M3

S1

S2

A

B

C

D

E

F

G

X

Y

Z

3

2

2

3

3

En términos de un sistema de mantenimiento de la razón basado en suposiciones(ATMS), las medidas realizadas se representan como proposiciones que no están sustentadaspor ninguna suposición:

�A=3,<>�B=2,<>�C=2,<>�D=3,<>�E=3,<>

El comportamiento de los componentes viene determinado por las siguientesrestricciones:

Page 70: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 4. Los sistemas de diagnóstico en Inteligencia Artificial___________________________________________________________________________

56

�M1: X=A*C�M2: Y=B*D�M3: Z=C*E�S1: F=X+Y�S2: G=Y+Z

Un mecanismo de propagación de restricciones aplicado a este sistema determina lassiguientes afirmaciones. Los símbolos que aparecen entre paréntesis angulares representan lasuposición del correcto funcionamiento del correspondiente componente, es decir son losentornos:

�X=6,<M1>�Y=6,<M2>�Z=6,<M3>�F=12,<S1,M1,M2>�G=12,<S2,M2,M3>

Suponiendo que la medida en F resulta ser 10. Esto da origen a la aparición de unsíntoma, ya que hay una discrepancia entre el valor medido y el determinado por lassuposiciones de funcionamiento correcto de los componentes, o en términos del ATMS entrelas afirmaciones F=10,<> y F=12,<S1,M1,M2>, lo que determina la aparición del conflictomínimo <S1,M1,M2>. A partir de este conflicto se puede obtener el conjunto de candidatos defallo, que resulta ser {[S1],[M1],[M2]} Una vez determinado este conflicto el método GDEevitará considerar nuevamente este conflicto ya que sólo se alcanzarían conflictoscorrespondientes a superconjuntos de éste y por tanto no serían mínimos. Sin embargo, lapropagación puede continuar a partir de la afirmación F=10,<> determinando:

�X=4,<M2,S1>�Y=4,<M1,S1>�G=10,<S1,S2,M1,M3>

La primera afirmación entra en contradicción con la ya establecida X=6,<M1>,lo que daorigen a la aparición del mismo conflicto anterior, análogamente la segunda afirmación entra enconflicto con Y=6,<M2>, pero da origen al mismo conflicto. La tercera afirmación entra encontradicción con G=12,<S2,M2,M3>, por lo que se generaría el conflicto <S1,S2,M1,M2,M3>, quetampoco se considera al ser un superconjunto del conflicto ya determinado.

Supóngase ahora que se realiza una nueva medida en G, representada por la afirmaciónG=12,<>. Esto da origen a la aparición de un nuevo síntoma ya que anteriormente se ha obtenidoG=10,<S1,S2,M1,M3>, el conflicto resultante es: <S1,S2,M1,M3>. Los candidatos de fallo semodifican a la vista de este nuevo conflicto: El candidato [S1] explica ambos conflictos.Igualmente el candidato [M1], pero no así el candidato [M2], que debe ser sustituido por loscandidatos [S1,M2] , [S2,M2], [M1,M2], [M2,M3]. Finalmente el conjunto de candidatos mínimosde fallo queda {[S1],[M1],[S2,M2],[M2,M3]} (los candidatos [S1,M2] y [M1,M2] no son mínimosya que incluyen respectivamente a los candidatos [S1] y [M1] que si o son). Este conjunto decandidatos indica que la anomalía del circuito puede explicarse mediante el fallo aislado en elcomponente S1, o bien mediante el fallo aislado en el componente M1, o bien por los fallossimultáneos de los componentes S2 y M2, o de los componentes M2 y M3.

Las nuevas propagaciones que se efectúan no dan lugar a la aparición de nuevosconflictos mínimos, quedando finalmente las siguientes afirmaciones en el ATMS:

Page 71: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 4. Los sistemas de diagnóstico en Inteligencia Artificial___________________________________________________________________________

57

�A=3,<>�B=2,<>�C=2,<>�D=3,<>�E=3,<> F=10,<> F=12,<M1,M2,S1> G=12,<> G=10,<S1,S2,M1,M3>�X=4,<M2,S1>,<S1,S2,M3> X=6,<M1>�Y=4,<M1,S1> Y=6,<M2>,<S2,M3> Z=8,<S1,S2,M1> Z=6,<M3>,<S2,M2>

Características específicas

Si se conocen a priori las probabilidades de fallo de los distintos componentes es posibleoptimizar el número de medidas que se realizan de manera que cada nueva medida proporcioneel máximo de información posible. Para ello se usa una estrategia basada en la teoría de lainformación de Shannon y en su concepto de entropía, que se define como:

H = − pi log pi∑en donde pi es la probabilidad de que el candidato Ci sea el candidato real. La mejor

medida es aquella que minimiza la entropía total. Después de realizar una medida sobre lavariable xi se pueden obtener para ella los posibles valores vi1...vim. Por tanto, la entropíaesperada viene dada por la fórmula:

He xi( ) = − p x = vik( ) H x = vik( )k=1

m

∑ = H + ∆He xi( )

Se definen tres conjuntos: (1) Rik es el conjunto de los candidatos que siguen siéndolotras efectuar la medida en xi con el resultado vik; (2) Sik los candidatos en los cuales esnecesario que el valor de xi sea exactamente vik (dejan de ser candidatos si no lo es); (3) Ui esel conjunto de candidatos que no predicen ningún valor para la medida en xi.

Es posible demostrar que la entropía esperada puede determinarse a partir de lasdistribuciones de probabilidad de los candidatos actuales y no es necesario calcular susprobabilidades a posteriori para determinar la variación de entropía según la fórmula:

∆He xi( ) = p xi = vik( ) log p xi = vik( ) + p Ui( ) log p Ui( ) − np Ui( )

mlog

p Ui( )mk=1

n

en donde la suma se realiza n veces que representa a los valores previstos para xi por algúncandidato, es decir, los valores vik tales que el conjunto asociado Sik es no vacío, y por tanto:

p xi = vik( ) = p Sik( ) +p Ui( )

m

Page 72: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 4. Los sistemas de diagnóstico en Inteligencia Artificial___________________________________________________________________________

58

Las probabilidades a priori de que un candidato Ci sea el candidato real Cr que determinael fallo del sistema vienen dadas en función de las probabilidades conocidas de fallo de losdistintos componentes según la expresión:

p Cl( ) = p c ∈Cr( )c ∈ Cl

∏ 1 − p c ∈Cr( )( )c ∉ Cl

Las probabilidades a posteriori de los nuevos candidatos se obtienen aplicando lafórmula de Bayes, resultando la expresión:

p Cl xi = vik( ) = p xi = vik Cl( )p Cl( )

p xi = vik( ) =

0 si Cl ∉Rik

p Cl( )p xi = vik( ) si Cl ∈ Sik

p Cl( ) m

p xi = vik( ) si Cl ∈ Ui

Modificaciones sobre el GDE

La aplicación del motor general de diagnóstico (GDE) a sistemas con un gran número decomponentes presenta dos inconvenientes principalmente:

(1) Excesivo coste computacional achacable a la complejidad algorítmica asociada alproblema

(2) El motor de inferencias produce diagnósticos lógicamente posibles pero físicamentepoco plausibles o irrelevantes.

Para solucionar estos problemas se puede actuar en dos vertientes:

(1) Mejorar el motor de inferencias global. Para esto se han propuesto dos alternativas: (1)Incorporar modelos (exhaustivos o no) de fallo de los componentes, que permitanfocalizar la búsqueda de los candidatos en aquellas situaciones de avería conocidas apriori, tal como se propone en el sistema Sherlock [deKleer,1989]; y (2) Mejorar laeficacia estudiando sólo los diagnósticos que resulten físicamente plausibles o bien sólolos más probables, tal como se propone en [deKleer,1991] y se expone a continuación.Ambas opciones no son excluyentes.

(2) Mejorar el modelo. Una alternativa consiste en establecer una estructura jerárquica entrelos componentes, obteniendo así distintos niveles de abstracción en los que plantearmodelos de comportamiento globales y modelos más detallados conforme avanza elproceso de diagnóstico, tal como se propone en el sistema XDE [Hamscher,1991]. Elcambio en el modelo supone naturalmente las consiguientes modificaciones en el motorde inferencias, por lo que se considera como una nueva propuesta que se revisa en elsiguiente apartado de este capítulo.

Uno de los principales inconvenientes de los sistemas GDE y Sherlock es su grancomplejidad computacional, ya que el proceso de diagnóstico consistente en la generación depredicciones, reconocimiento de conflictos y generación de candidatos da lugar a una explosióncombinatoria.

Page 73: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 4. Los sistemas de diagnóstico en Inteligencia Artificial___________________________________________________________________________

59

Para mejorar la eficiencia puede actuarse en dos líneas [deKleer,1991]: (1)Restringiendo el algoritmo de actualización de etiquetas del ATMS; y (2) Controlando lageneración de candidatos.

La generación de candidatos se realiza paso a paso a partir de los conflictos conocidos,en vez de realizarla al final y, cuando se obtiene una nueva medida, se realizan las prediccionesy la detección de conflictos necesaria para comprobar la consistencia de un solo candidato cadavez. Los candidatos se generan siguiendo el orden de sus probabilidades para así poder cortar lageneración llegado a un cierto umbral de escasa probabilidad.

Para determinar la probabilidad de los candidatos dada una cierta medida, sería necesariogenerar todas las predicciones y conflictos que genera, pero ello conlleva un costecomputacional que se desea evitar. Por tanto las probabilidades a posteriori de los candidatos seestiman en función de sus probabilidades a priori, con lo que se obtiene una cota superior segúnla fórmula de Bayes:

p Cl xi = vik( ) = p xi = vik Cl( )p Cl( )

p xi = vik( ) ≤ p Cl( )

p xi = vik( )En donde las probabilidades a priori de los candidatos se obtienen en función de las

probabilidades de que cada uno de sus componentes manifieste un cierto comportamiento c :

p Cl( ) = p c( )c ∈ Cl

Los candidatos se generan en orden decreciente de probabilidades a priori (y de losconflictos detectados hasta el momento), y para cada uno de ellos se realizan las predicciones yel reconocimiento de conflictos necesarios para establecer sus probabilidades a posteriori,mediante un HTMS (Hybrid Truth Maintenance System) que sólo genera una predicción paracada punto del circuito, controlando así la explosión combinatoria que se produce en el ATMSal generar los conflictos. La generación de candidatos termina cuando: (1) El mejor candidatotiene una probabilidad a posteriori (estimada) mayor que k2 (generalmente k2=100) veces elsiguiente candidato. (2) Se han generado ya k1 candidatos . (3) La suma de las probabilidadesde todos los candidatos que se han probado excede un cierto valor k3 (generalmente k3 = 0.75)

4.4.2.2. Aplicación a la validación de datos hidrológicos.

Siguiendo la línea de investigación iniciada por el sistema GDE descrito por[deKleer,87], y por el sistema Sherlock [deKleer,89], para diagnóstico de fallos decomponentes de un circuito electrónico, se puede construir un sistema para el diagnóstico defuncionamiento incorrecto de sensores de adquisición automática de datos hidrológicos.

En el dominio hidrológico, se trabaja con un sistema compuesto por superficiescolectoras de lluvia y un sistema de drenaje conformado por la red fluvial, en el que losfenómenos de lluvia provocan un comportamiento real, del que se tiene conocimiento gracias aun conjunto de sensores fijos, pluviómetros y estaciones de aforo, y/o mediante extrapolacionesllevadas a cabo mediante modelos, o restricciones que permiten conocer unos datos en relacióncon otros. Así, por ejemplo, un modelo lluvia-escorrentía, a partir de los datos de intensidad delluvia, puede inferir el caudal que se produce en una determinada sección. Si en esa mismasección está situada una estación de aforos, el caudal que da el modelo debe coincidir con el quese obtiene del sensor, y en caso de no ser así esto indica un conflicto entre ambas suposiciones.Generalizando esta idea a toda la red hidrológica, se dispone de una valiosa herramienta quepermite validar automáticamente los modelos planteados o verificar el funcionamiento de lossensores con base en los modelos de comportamiento hidrológicos fiables establecidos conanterioridad. Las ventajas específicas de este enfoque para la validación hidrológica son lassiguientes:

Page 74: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 4. Los sistemas de diagnóstico en Inteligencia Artificial___________________________________________________________________________

60

(1) El empleo de modelos es especialmente adecuado en este problema dado que laestructuración del conocimiento que conllevan es parecida a la que manejan losingenieros al afrontar el problema, facilitando de esta manera el problema de elicitacióndel conocimiento, que como se ha visto anteriormente es uno de las principalesdificultades que surgen al construir sistemas basados en el conocimiento.

(2) Tiene en cuenta el posible fallo simultáneo en los sensores y es capaz de mantenerdistintas hipótesis o contextos de trabajo simultáneamente. Esto resulta interesantedebido a que el conocimiento sobre el funcionamiento del sistema hidrológico se basa enlas medidas de los propios sensores, por tanto, bajo ciertas condiciones puede serimposible determinar entre dos o más sensores cuál es el que falla (atendiendoexclusivamente a las medidas de los mismos).

(3) El procedimiento de inferencia es incremental, es decir, el conocimiento que se tiene delsistema físico aumenta de forma monótona, pudiendo finalmente llegar a la conclusióndel componente o componentes averiados tras un número suficiente de medidas. Estaincrementalidad en las medidas se adapta bien a las circunstancias del problema devalidación en tiempo real, en el que la información surge paulatinamente conforme setoman nuevos datos.

No obstante, en la aplicación del sistema GDE al problema de la validación hidrológicaquedan abiertas las siguientes cuestiones:

(1) El alto coste computacional de los modelos se ve incrementado por el costecomputacional del mecanismo de mantenimiento de diferentes entornos. Es necesarioestablecer una estrategia que permita simplificar el problema. Como se verá en elsiguiente epígrafe, la división del problema según una jerarquía de subproblemasfavorece la consecución de este objetivo.

(2) El modelo GDE no contempla el problema de la indeterminación e incertidumbre de lasmedidas. Las medidas realizadas directamente, y especialmente las que se deducen trasla aplicación de los modelos son intrinsecamente imprecisas y no puede obviarse estacaracterística al diseñar un sistema de validación. Una posible vía de solución a esteproblema es la relajación de los criterios de comparación que establecen los conflictos.Esta vía conlleva la aparición de un nuevo tipo de conocimiento dentro de la estructuraconceptual del problema.

(3) Por último, hay que señalar que el sistema GDE no contempla explícitamente laevolución temporal del sistema. Algunas ideas interesantes sobre el tratamiento temporalpueden encontrarse en [William,86]. En cualquier caso, estableciendo unos criterios decomparación adecuados, es posible trabajar de forma aproximada con datos complejoscorrespondientes a las series temporales de cada sensor. Realizando esta sinplificación,y según los criterios de comparación que se establezcan, algunos errores podrían no serdetectados en la validación global, en concreto aquellos que resulten de un falloinstantáneo ocasional. Afortunadamente, este tipo de errores son los que se detectan conmayor facilidad mediante un proceso de validación local.

El sistema Sherlock es una evolución del sistema GDE que incorpora conocimientosobre los modos de fallo de los componentes del circuito, lo que le permite aumentar sueficiencia. Sin embargo, este conocimiento no esta disponible en el caso del problema deldiagnóstico de una red hidrológica, ya que los componentes reales siempre funcionancorrectamente, y son los modelos los que se apartan de la realidad, no al revés. El modo de fallode un modelo con respecto a la realidad, en general, no es conocido. Si lo fuera bastaría conmodificar el modelo adecuadamente. Sin embargo, desde otro punto de vista, considerando alos sensores como componentes del sistema, se podrían establecer modelos de fallo de lossensores (si existiera suficiente conocimiento sobre este punto), y en su caso el sistema de

Page 75: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 4. Los sistemas de diagnóstico en Inteligencia Artificial___________________________________________________________________________

61

diagnóstico podría mejorarse al estilo que Sherlock mejora a GDE. Otra evolución interesantedel sistema es el XDE, que se estudia en el siguiente epígrafe.

4.4.3. El sistema XDE

Entre los sistemas que derivan del motor de inferencias de diagnóstico general GDE,cabe destacar el sistema XDE [Hamscher,1991], cuyo dominio de aplicación se centra tambiénen el diagnóstico de circuitos electrónicos digitales, si bien su objetivo es el diagnóstico desistemas reales complejos formados por un gran número de componentes.

4.4.3.1. Descripción del sistema

Modelo Declarativo

Para realizar el diagnóstico de sistemas complejos se propone la inclusión de dos nuevascaracterísticas en el modelo:

(1) Estructuración jerárquica funcional y física de los componentes. En el enfoque adoptadoen el XDE los sistemas físicos se representan mediante una jerarquía de modelos, deforma que el sistema puede ser visto desde distintas perspectivas a distintos niveles dedetalle. Así por ejemplo, un sistema electrónico puede considerarse formado por ungrupo de unidades de proceso a un cierto nivel de abstracción. Cada una de estasunidades (placas) puede considerarse como la agrupación de un conjunto decomponentes más sencillos conectados entre sí (chips), y cada uno de estoscomponentes a su vez puede considerarse formado por otros subcomponentes (puertaslógicas).

(2) Modelado a diferentes niveles de granularidad del comportamiento temporal de loscircuitos, así como de su posible comportamiento anómalo. El comportamiento de loscomponentes se representa mediante el lenguaje de un sistema de razonamiento temporaldenominado TINT construído con este propósito, que permite el uso de reglas paraobtener los valores de una función a lo largo del tiempo.

Procedimiento de Interpretación

El esquema general de funcionamiento del sistema XDE corresponde a la figura:

Si

Coste de la medida=0Es posible la

Descomposición

Usar un modelo decomportamiento

Descender en la jerarquía

Existe un candidatopredominante

Es posible elRefinamiento

Elegir una medida

Realizar una medida

FIN

Si

Si

No No No

No

Si

Page 76: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 4. Los sistemas de diagnóstico en Inteligencia Artificial___________________________________________________________________________

62

El proceso de diagnóstico es en esencia el mismo que en el procedimiento GDE salvoque se incorporan dos nuevas operaciones (1) la descomposición que permite diagnósticosjerárquicos y (2) el refinamiento, que permite el uso de otros modelos de comportamiento yfallo.

Cuando XDE comienza su proceso de diagnóstico utiliza el modelo más abstracto de quedispone, es decir, observa el circuito como si estuviese formado por unas pocas unidades. Aligual que su antecesor, el XDE construye candidatos a partir de los conflictos y les asigna unospesos correspondientes a las probabilidades a priori normalizadas con respecto al resto de losdiagnósticos, rechazando aquellas hipótesis de fallo con pequeña probabilidad en comparacióncon otras (las correspondientes al último percentil). En caso necesario XDE cambia laperspectiva de diagnóstico considerando el circuito no ya al nivel de unidades, sino al nivel delos componentes de cada una de las unidades.

Una modificación interesante al algoritmo de descomposición jerárquico utilizado en elXDE consiste en realizar una descomposición selectiva de cada una de las unidades ocomponentes del circuito adaptando el nivel de detalle de los modelos a cada posible situaciónde fallo, reduciendo así el alto coste computacional que supone la utilización de modelos muydetallados, para ello se propone un nuevo algoritmo denominado HIMA [Nakakuki,1992]. Unavez establecida una jerarquía de modelos, el algoritmo del sistema XDE salta desde un nivel dedescomposición al nivel inferior, desarrollando todos los componentes del nivel superior. Laalternativa a este proceso consiste en desarrollar sólo algunas de las unidades del nivel superior,obteniendo así modelos mixtos del sistema en los que ciertas unidades se representan medianteun solo modelo y otras se desarrollan mediante los modelos de sus componentes. Paraseleccionar las unidades que conviene desarrollar y las que no, se propone un criterio basado enuna fórmula empírica que tiene en cuenta la ganancia de información o reducción de entropía enfunción de la descomposición adoptada tras la realización de una nueva medida, el coste derealización de cada nueva medida y la precisición requerida en el diagnóstico.

4.4.3.2. Aplicación a la validación de datos hidrológicos

El enfoque de estructuración jerárquica que propone el sistema XDE es muy adecuado aldominio de la hidrología, en el que el conocimiento se estructura en cuencas y subcuencas. Porotra parte este mecanismo permite afrontar de manera razonable la complejidad computacionalque supondría la aplicación del motor de inferencias del sistema GDE a la totalidad de lossensores de una aplicación real.

No obstante, la estrategia que sigue XDE no es la más adecuada al problemahidrológico. Si bien la estructura de conocimiento es jerárquica, el recorrido que de la misma seefectua para realizar la validación de los sensores debe ser ascendente y no descendente, porrazones parecidas a las que se comentan anteriormente en este capítulo al estudiar el sistema declasificación jerárquica MDX. La estructuración jerárquica en el sistema de validación es útilpara reducir la complejidad computacional de la generación de conflictos y candidatos, perosería un error aplicar primero modelos simplificados de amplia extensión descendiendo en lajerarquía para aplicar modelos más concretos, por las mismas razones por las que la validaciónlocal debe realizarse antes que la global.

4 . 4 . 4 . Planteamientos logicistas del problema del diagnóstico basado enmodelos

El objetivo de los trabajos de Raymond Reiter [Reiter,1987] es encontrar unarepresentación basada en la lógica de primer orden que permita formular el problema deldiagnóstico. En este sentido, propone un planteamiento teórico que partiendo de unasdefiniciones formales resulta ser equivalente al planteado independientemente por deKleer yWilliams, [deKleer,1987] partiendo de la mera intuición. Sin embargo, el mecanismo de

Page 77: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 4. Los sistemas de diagnóstico en Inteligencia Artificial___________________________________________________________________________

63

inferencia para la obtención de los diagnósticos o conjuntos de componentes candidatos de falloes distinto.

4.4.4.1. Descripción del sistema

Modelo Declarativo

Un sistema de diagnóstico está formado por la terna (SD,COMPS,OBS), en donde SDes la descripción del sistema en términos de proposiciones lógicas, COMPS es un conjuntofinito de componentes y OBS, es un conjunto de medidas u observaciones representadasmediante proposiciones lógicas.

Para representar que un componente c ∈COMPS tiene un comportamiento anormal seusará el predicado AB(c). Para representar el comportamiento anormal de un conjunto decomponentes y el correcto funcionamiento de otros se define el predicado:

D(Cp,Cn) = ∧c∈Cp

AB c( )

∧ ∧c∈Cn

¬AB c( )

en donde Cp ⊆ COMPS y Cn ⊆ COMPS

Para plantear formalmente el problema se hacen las siguientes definiciones:

Diagnóstico: Para el sistema (SD,COMPS,OBS) se define como diagnóstico al predicadoD(∆,COMPS-∆) tal que es satisfacible el conjunto de proposiciones:

SD∪OBS∪{D(∆,COMPS-∆)}. Un diagnóstico D(∆,COMPS-∆) se dice que

es un diagnóstico mínimo si y sólo si no existe ∆’⊂ ∆ tal que D(∆’,COMPS-

∆’) sea un diagnóstico.*

Conflicto: Un conflicto sobre un sistema (SD,COMPS,OBS) se define como unconjunto de componentes {c1...ck} ⊆ COMPS, tales que hacen inconsistente

al grupo de proposiciones: SD ∪ OBS ∪{¬ΑΒ(c1), ...¬ΑΒ(ck)}. Unconflicto es mínimo si ningún subconjunto propio del mismo es un conflicto.

Representante: Dada una colección de conjuntos C, se dice que un conjunto H es un conjuntorepresentante de la colección C si y sólo si:

∀S ∈C H ⊆ SS∈CU ∧ H ∩ S ≠ ∅

Un conjunto H es el representante mínimo de una colección si ningúnsubconjunto propio del mismo es un conjunto representante.

Procedimiento de Interpretación

Resolver el problema del diagnóstico consiste en discernir entre todos los componentescuales de ellos funcionan correctamente y cuales no, esto es, hallar los diagnósticos.

Es posible demostrar que D(∆,COMPS-∆) es un diagnóstico mínimo , si y sólo si ∆ esel conjunto representante mínimo de la colección formada por todos los conflictos mínimos quepueden considerarse sobre el sistema (SD,COMPS,OBS)

* En la terminología usada en el sistema GDE, la conjunción de proposiciones ∆ representa a un candidato.

Page 78: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 4. Los sistemas de diagnóstico en Inteligencia Artificial___________________________________________________________________________

64

Dada una colección de conjuntos C se define el árbol-HS como el mínimo árbol Tcuyos nodos y arcos están etiquetados y que cumple las siguientes propiedades:

(1) Si C es vacío la raíz está etiquetada con “nil”.

(2) Sea n un nodo de T, se define H(n) como el conjunto de etiquetas de los arcos quellevan desde la raíz a n. Si n está etiquetado con “nil”, no tiene ningún sucesor en T. Sin está etiquetado con un conjunto S ∈C , entonces para todo s∈S , n tiene un nodosucesor ns enlazado a él por un arco etiquetado con s. La etiqueta del nodo ns es elconjunto R ∈C, tal que R ∩ H(ns) = ∅ , si R existe, y en otro caso la etiqueta es “nil”.

Este árbol tiene las siguientes propiedades:

(1) Si un nodo esta marcado con “nil”, entonces H(n) es un conjunto representante de C.

(2) Todo conjunto representante de C resulta ser un H(n) correspondiente al menos a unnodo marcado con “nil”.

Podando adecuadamente este árbol, de manera que no aparezcan representantesduplicados o correspondientes a subconjuntos de otras etiquetas ya generadas, se obtiene unárbol-HS-podado cuyos nodos etiquetados con “nil” tienen asociados los conjuntosrepresentantes mínimos.

Ejemplo

La figura muestra el ejemplo clásico propuesto por Davis y estudiado también pordeKleer y Williams compuesto por tres multiplicadores M1,M2 y M3 y dos sumadores S1, S2:

M1

M2

M3

S1

S2

A

B

C

D

E

F

G

X

Y

Z

3

2

2

3

3

10

12

Este circuito puede representarse mediante el sistema (SD,COMPS,OBS), en donde lasobservaciones OBS, corresponden al siguiente conjunto de proposiciones:

Page 79: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 4. Los sistemas de diagnóstico en Inteligencia Artificial___________________________________________________________________________

65

�in1(M1)=3�in2(M1)=2�in1(M2)=3�in2(M2)=2�in1(M3)=3�in2(M3)=2�out(S1)=10�out(S2)=12

La descripción del sistema SD puede realizarse mediante las proposiciones quedescriben el funcionamiento de los componentes y las que describen las conexiones que seestablecen entre ellos:

MULT(M1) ∧ ¬AB(M1) → out(M1)=in1(M1)*in2(M1)

MULT(M2) ∧ ¬AB(M2) → out(M2)=in1(M2)*in2(M2)

MULT(M3) ∧ ¬AB(M3) → out(M1)=in1(M3)*in2(M3)

SUM(S1) ∧ ¬AB(S1) → out(S1)=in1(S1)+in2(S1)

SUM(S2) ∧ ¬AB(S2) → out(S2)=in1(S2)+in2(S2)out(M1)=in1(S1)out(M2)=in2(S1)out(M2)=in1(S2)out(M3)=in2(S2)

Dado que las observaciones contradicen las predicciones que se derivan de lasproposiciones que describen el sistema el circuito falla, y el árbol-HS-podado que se obtiene es:

[M1,M2,S1]

[M3,S2,M1,A1]nil nil

M1 M2 S1

nil nil xx

M3 S2 M1 S1

de donde se obtienen como diagnósticos los representantes mínimos asociados a los caminosen el árbol correspondientes a los nodos marcados con “nil”, esto es:

D({M1},COMPS-{M1})D({S1},COMPS-{S1})D({M2,M3},COMPS-{M2,M3})D({M2,S2},COMPS-{M2,S2})

Page 80: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 4. Los sistemas de diagnóstico en Inteligencia Artificial___________________________________________________________________________

66

4.4.4.2. Aplicación a la validación de datos hidrológicos.

El planteamiento propuesto por Reiter es una aportación importante desde el punto devista teórico. Sin embargo, desde el punto de vista práctico no ofrece una representación delconocimiento lo suficientemente flexible como para expresar problemas reales en los que no setiene un conocimiento tan preciso.

En efecto, para formular un problema de validación de datos hidrológicos en términoslógicos sería necesario expresar mediante cláusulas de una lógica de primer orden los modelosde comportamiento, tal como se hace en el ejemplo que ilustra este apartado. Pretender realizaresta formulación es prácticamente imposible, debido a la gran complejidad de los mismos.

Por otra parte, el modelo declarativo es similar al propuesto por el GDE, presentandopor tanto los mismo inconvenientes señalados en los epígrafes anteriores (alto costecomputacional, el problema asociado a tratamiento de la imprecisión e incertidumbre de losdatos y el problema temporal), para los cuales esta propuesta tampoco ofrece ninguna solución.

4.4.5. El Principio de la Coartada

La mayor parte de los sistemas de diagnóstico basado en modelos caracterizan losdiagnósticos como el mínimo conjunto de componentes que fallan. Este planteamiento suponela aceptación de la llamada Hipótesis del Diagnóstico Mínimo que conjetura que cualquiersuperconjunto propio de un diagnóstico es también un diagnóstico. Sin embargo, cuando setienen en cuenta modelos de fallo de los componentes o estrategias para exonerar a ciertoscomponentes ha de tenerse en cuenta que en general no se verificará la Hipótesis delDiagnóstico Mínimo, por lo que sería necesaria una caracterización más precisa de losdiagnósticos [deKleer,1992].

4.4.5.1. Descripción del método

Oliver Raiman [Raiman,1989] propone la metáfora de un juicio para realizar unplanteamiento formal del problema del diagnóstico basado en modelos en el que no se requierela Hipótesis del Diagnóstico Mínimo.

En un sistema formado por componentes, la determinación del fallo de un conjunto deellos, a los que se puede llamar sospechosos, viene avalada por otros componentes que actúancomo testigos de cargo, es decir, dadas unas observaciones, el correcto funcionamiento dealgunos componentes implica el fallo de otros. Sin embargo, en el mismo sistema puedenexistir otros componentes que actúen como testigos de la defensa, es decir cuyo correctofuncionamiento exonere de culpa a los sospechosos. Estos testigos de la defensa son lacoartada del grupo de componentes sospechosos. Ahora bien, alguno de estos testigos puede asu vez ser incriminado, en cuyo caso su testimonio no es válido y los sospechosos puedenquedar sin coartada.

El Principio de la Coartada enuncia que un componente o grupo de componentes quetenga al menos una coartada puede ser absuelto, a menos que sea condenado alguno de loscomponentes que le sirven de coartada.

Modelo Declarativo

El Modelo Declarativo es muy similar al empleado por Raymond Reiter [Reiter,1987]que se ha visto anteriormente:

Un sistema de diagnóstico se define como una terna (SD,COMPS,OBS), en donde SDes la descripción del sistema en términos de proposiciones lógicas, COMPS es un conjuntofinito de componentes y OBS, es un conjunto de medidas u observaciones representadasmediante proposiciones lógicas.

Page 81: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 4. Los sistemas de diagnóstico en Inteligencia Artificial___________________________________________________________________________

67

Para representar que un componente c ∈COMPS tiene un comportamiento normal seusará el predicado Ok(c)*. Usando este predicado se realizan las siguientes definiciones:

Diagnóstico: Un conjunto de componentes ∆ es un diagnóstico** para el sistema(SD,COMPS,OBS) si y sólo si es consistente el conjunto de proposiciones:

SD ∪ OBS ∪ ∧c∈∆

¬Ok c( )

∪ ∧d∉∆

Ok d( )

En la teoría de Reiter se propone una estrategia basada en la “presunción deinocencia” que permite exonerar a un componente a menos que exista algunarazón para creer lo contrario. De esta forma el espacio de diagnóstico se limitaa los diagnósticos mínimos, es decir, a aquellos conjuntos de componentestales que dejan de ser diagnósticos si de ellos se suprime alguno de suselementos.

En el sistema GDE se propone una estrategia de “presunción deculpabilidad”, ya que se considera que todo superconjunto de un candidato estambién un candidato, es decir, se considera la Hipótesis del DiagnósticoMínimo.

Por el contrario, en la teoría de Raiman, los diagnósticos mínimos nocaracterizan al conjunto de todos los diagnósticos, ya que ciertascombinaciones de éstos no resultan ser diagnósticos.*

Conflicto: El conjunto de componentes C ⊆ COMPS es un conflicto si y sólo si:

OBS ∪ SD - ∨c∈C

¬Ok c( )

Un conflicto es mínimo si ningún subconjunto propio del mismo es unconflicto.

Acusadores: Los acusadores, o testigos de cargo contra un componente c son aquellosconjuntos de componentes cuyo correcto funcionamiento implica el fallo delcomponente c, es decir:

Acus c( ) = A ⊆ COMPS - c{ } OBS ∪ SD - ∧c j∈A

Ok cj( ) → ¬Ok c( )

Evidentemente, el conjunto A ∪ c{ } es un conflicto. Además, cualquiersuperconjunto de un conjunto de Acusadores es también un conjunto deAcusadores, teniendo por tanto, estructura de retículo con las operaciones deunión e intersección, por lo que basta considerar los elementos mínimos pararepresentar a todo el retículo.

* Ok(c) equivale a la negación del predicado AB(c) usado por Reiter.** En la terminología usada en el sistema GDE, ∆ representa a un candidato; en el planteamiento de Reiter sellama diagnóstico a la proposición compuesta a partir de ∆* Un ejemplo sencillo aclara esta idea. Sea un circuito binario constituido por dos inversores en serie. Si lasobservaciones indican valores alternos en la entrada y en la salida se pueden considerar dos diagnósticoscorrespondientes al fallo de uno u otro inversor, ambos diagnósticos son diagnósticos mínimos, pero no así suunión, ya que el fallo conjunto de ambos inversores no es consistente con las observaciones.

Page 82: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 4. Los sistemas de diagnóstico en Inteligencia Artificial___________________________________________________________________________

68

Defensores: Análogamente, los defensores, o testigos de la defensa de un componente cson aquellos conjuntos tales que:

Def c( ) = D ⊆ COMPS - c{ } OBS ∪ SD - ∧c j∈D

Ok cj( ) → Ok c( )

Cualquier superconjunto de un conjunto de Defensores es un conjunto deDefensores , por lo que todos los conjuntos de Defensores puedencaracterizarse por los elementos mínimos del retículo.

Coartadas: Cada uno de los elementos de los conjuntos de Defensores de un componentec se denomina su coartada. Una coartada se dice que es una coartada mínimasi ningún subconjunto propio es una coartada.

Es posible demostrar que cualquier diagnóstico que contiene a un componentec tiene una intersección no vacía con todas sus coartadas. A este teorema se ledenomina El Principio de la Coartada.

DiagnósticosPrincipales: Un diagnóstico principal para un componente c es el mínimo conjunto de

componentes que contiene a c y que intersecta a todos los conjuntos deDefensores de c. Evidentemente un diagnóstico principal es un diagnóstico,es más, cualquier diagnóstico puede hallarse como la unión de diagnósticosprincipales.

Sentencias: Se denominan sentencias a los conjuntos mínimos de coartadas y conflictos,tales que todos los demás conflictos y coartadas pueden obtenerse a partir deestos.

Procedimiento de Interpretación

El algoritmo capaz de hallar todos los diagnósticos de un problema se denominaTRIAL*. El algoritmo determina los diagnósticos principales de un sistema formado por loscomponente c1... cn y se basa en la exploración incremental de una lista de sospechosos y elmantenimiento de una lista de sentencias. El proceso que sigue es el siguiente:

Inicialmente la lista de sospechosos es: {∅,{c1},{c2}....{cn}}.Repetir

Considerar un conjunto S perteneciente a la lista de sospechosos y eliminarlo de la lista.Determinar si S es un diagnóstico principal, para ello:

Si existe un conflicto C ∈ COMPS -Sentonces S no es un diagnóstico principal,por tanto:

-- Añadir C a la lista de sentencias.-- Incorporar a la lista de sospechosos aquellos conjuntos que incluyan

a S y que sean diagnósticos principales de acuerdo con la lista actualde sentencias..

en otro caso si existe una coartada T ∈ COMPS -S para algún componente s ∈ Sentonces S no es un diagnóstico principal, por tanto:

-- Añadir T a la lista de sentencias.-- Incorporar a la lista de sospechosos aquellos conjuntos que incluyan

a S y que sean diagnósticos principales de acuerdo con la lista actualde sentencias.

en otro caso añadir S a la lista de diagnósticos principales.Mientras que la lista de sospechosos no este vacía.

* En español JUICIO.

Page 83: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 4. Los sistemas de diagnóstico en Inteligencia Artificial___________________________________________________________________________

69

4.4.5.2. Aplicación al problema de validación

Desde el punto de vista teórico el principio de la coartada es la más completa y eleganteformulación del problema del diagnóstico basado en modelos que se ha presentado. Al rechazarla Hipótesis del Diagnóstico Mínimo, el problema del diagnóstico basado en modelos cobra unanueva dimensión en cierta forma más real, pero que conlleva un aumento del costecomputacional del mecanismo de inferencia, ya de por sí bastante alto.

Sin embargo, desde el punto de vista práctico, para resolver el problema de la validaciónde los datos hidrológicos, vuelven a aparecer los mismos problemas señalados para elplanteamiento lógicista realizado por Reiter, y por consiguiente los señalados para la familia desistemas basados en el GDE, que se han expuesto en epígrafes anteriores.

4.5. Conclusiones

En este capítulo se ha planteado la equivalencia entre el problema de validación de datosy el problema de diagnóstico, y se ha realizado una revisión las dos principales líneas queactualmente se siguen para resolver los problemas de diagnóstico en el campo de la InteligenciaArtificial.

Los sistemas basados en reglas heurísticas suponen una alternativa interesante enaquellos casos en los que exista una base de conocimientos o experiencias importantes, ocuando los mecanismos de funcionamiento del sistema no están suficientemente claros y deberecurrirse a la experiencia para solucionar el problema. Por consiguiente, su utilización puedeser conveniente localmente para solucionar problemas difícilmente modelizables.

A continuación se presenta un cuadro resumen de los distintos sistemas de diagnósticobasados en reglas heurísticas que se han visto anteriormente, comparándolos desde distintospuntos de vista:

MYCIN[Shortliffe,76]

NEOMYCIN[Clancey,86]

MOLE[Eshelman,87]

MDX[Chandras.,79]

Recubrimiento[Peng,90]

Agrupación[Wu,90]

Motor de inferencias EMYCIN HERACLES Cubrir ydiferenciar

Establecer yrefinar

Recubrimientomatemático

Recubrimientomatemático

Imprecisión eincertidumbre SI SI SI SI Probabilístico

Diagnóstico conEstructura jerárquica SI SI SI

Diagnósticosmúltiples SI SI SI

Diagnósticoincremental SI SI

Supone síntomasevidentes a priori SI SI SI SI SI SI

Herr. adquisición delconocimiento SI

El diagnóstico basado en modelos es hoy en día una de las técnicas de diagnóstico másextendidas con aplicaciones prácticas en muchos dominios tales como medicina[Downing,1992], circuitos analógicos y digitales [Hamscher,1991], fluidos y circuitoselectromecánicos [Ng,1990], etc. La técnica propuesta en estos sistemas es generalizablefácilmente a otros sistemas que puedan ser descompuestos en componentes conectados entre sí.Por tanto su aplicación al campo de la hidráulica o al de la hidrología es adecuado.

A continuación se presenta un cuadro resumen de los distintos sistemas de diagnósticobasados en modelos que se han visto anteriormente, comparándolos desde distintos puntos devista:

Page 84: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 4. Los sistemas de diagnóstico en Inteligencia Artificial___________________________________________________________________________

70

[Davis,84] [deKleer,87-91] [Hamscher,91] [Reiter,87] [Raiman,89]

Motor de inferenciasSatisfacción derestricciones GDE XDE árbol-HS TRIAL

Imprecisión eincertidumbre Probabilistico Probabilistico

Diagnóstico conEstructura jerárquica SI

Diagnósticosmúltiples SI SI SI SI

Diagnósticoincremental SI SI SI SI

Supone síntomasevidentes a priori

Herr. adquisición delconocimiento

Las ventajas de las técnica de diagnóstico basadas en modelos frente al diagnósticobasado en reglas heurísticas pueden resumirse en los siguientes puntos:

(1) La técnica basada en modelos es independiente del propio sistema físico a diagnosticar,y por tanto permite ser aplicada a distintos sistemas físicos, simplemente sustituyendoen el Modelo Declarativo la información sobre su estructura y el comportamiento de suscomponentes.

(2) El conocimiento necesario para el diagnóstico es sistemáticamente descrito a través de lapropia estructura del sistema físico y el comportamiento de cada uno de loscomponentes. Un sistema basado en asociaciones empíricas de causa-efecto es másdifícil de construir, ya que en este caso el conocimiento debe ser extraído caso por casoa partir de la experiencia de un experto. Esto tiene dos inconvenientes: (a) En muchasocasiones el experto no es capaz de expresar adecuadamente el conocimiento que poseeen los términos que maneja el sistema experto; y (b) Es difícil garantizar la completituddel conocimiento incorporado al sistema, ya que en ocasiones el experto no expresaciertas reglas que emplea en su razonamiento al considerarlas triviales.

(3) El proceso de adquisición de conocimiento es más sistemático que en el caso de los sis-temas basados en reglas, y por tanto existe una mayor conciencia por parte del ingenierodel conocimiento y del propio usuario de qué es lo que el sistema sabe y qué es lo que elsistema no sabe.

(4) El sistema es más fácil de mantener, ya que el cambio de un componente sólo conlleva lamodificación del modelo de comportamiento asociado y no es necesario determinar cuales la consecuencia de este cambio sobre el comportamiento global del sistema o la es-trategia de diagnóstico.

(5) El razonamiento a partir de modelos de comportamiento permite tratar nuevos tipos defallos, y no está restringido a una casuística predeterminada. Los sistemas basados enreglas heurísticas incorporan un conjunto de fallos o disfunciones conocidas deantemano, emitiendo diagnósticos sólo sobre este conjunto.

Por estos motivos y los expuestos al final de cada uno de los epígrafes de este capítulo,en esta tesis se propone la aplicación del enfoque basado en modelos. Sin embargo, esta es unalínea de investigación abierta, y como tal desde un punto de vista genérico quedan abiertos lossiguientes problemas: [Davis,1993]

(1) Construcción de modelos. La determinación del modelo que condiciona el compor-tamiento de un componente puede requerir a veces un gran volumen de información queen muchos casos no esta disponible o está imbricada en un conjunto de descripcionesinformales.

Page 85: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 4. Los sistemas de diagnóstico en Inteligencia Artificial___________________________________________________________________________

71

(2) Selección del modelo. La elección del conjunto de representaciones de funcionamientopara conformar la estrategia de diagnóstico adecuada a cada problema requiere de por síun conocimiento experto por parte del ingeniero.

(3) Problema de escala. La aplicación de estas técnicas a sistemas reales implica tratar congran número de componentes o con modelos de funcionamiento complejos, con el con-siguiente aumento del coste computacional. El algoritmo de generación de candidatos,sin modificación, tiene una complejidad exponencial, y por consiguiente el problemaresulta ser NP-completo [Selman,1990]. Ello implica que desde el punto de vistapráctico serán necesarias heurísticas que permitan por una parte simplificar el problema,estableciendo las necesarias abstracciones en los sistemas de comportamiento complejo,y por otra, descomponer y diagnosticar el sistema de forma jerárquica o focalizar elestudio sobre la generación de los diagnósticos más probables .

(4) Queda también abierto el problema de diagnóstico de fallos en sistemas en los que losvalores se establecen sobre un conjunto infinito, no numerable y continuo. En estossistemas es necesario tratar con la imprecisión en los modelos de comportamiento.

(5) En general los sistemas de diagnóstico basados en modelos no incorporan herramientasde adquisición del conocimiento, tal vez porque el propio paradigma facilita la labor delingeniero del conocimiento. Sin embargo, métodos o mecanismos de aprendizajesimbólico que permitan acumular y generalizar experiencias podrían mejorar la eficienciaglobal del sistema. En esta línea hay algunas aportaciones recientes, como por ejemplo[Davis,1993b].

Las peculiaridades de diseño de un sistema basado en modelos para realizar la validaciónde los datos hidrológicos hacen que haya que resolver los problemas siguientes:

(1) Determinación y selección de los modelos de funcionamiento de los componentes. Pararealizar diagnósticos sobre un sistema hidrológico es menester construir modelos de suscomponentes. Estos modelos pueden ser cuantitativos o cualitativos; los primerosrequieren un fuerte coste computacional y una calibración precisa, los segundos son másimprecisos pero corresponden mejor al tipo de razonamiento que realizan los ingenieroscuando afrontan estos problemas y por tanto permiten mejor la incorporación demecanismos de explicación del diagnóstico realizado. El proximo capítulo esta dedicadoa analizar este problema.

(2) En los sistemas de diagnóstico basados en modelos que se han estudiado, no seconsidera explícitamente el tratamiento de imprecisión e incertidumbre en los modelos oen las observaciones. Los sistemas basados en el GDE tienen en cuenta lasprobabilidades de que ocurra cada uno de los fallos, manejando informaciónprobabilística, pero no manejan información imprecisa (con posibles errores odesviaciones sobre el valor real) o incierta (cuya veracidad sólo se intuye). En general,dado que estos métodos se han desarrollado para sistemas digitales, no se ha tratado esteproblema. Sin embargo, en su aplicación a sistemas hidrológicos este es un aspectoimportante, ya que la hidrología normalmente trabaja con este tipo de información.

(3) En general, no existe un tratamiento explícito del problema temporal. Si bien en eldominio de los circuitos electrónicos, principal campo de aplicación de estos sistemas,existen problemas de retardo y retroalimentación que determinan que el comportamientode los mismos no sea independiente del tiempo, esta es una de las hipótesis quefrecuentemente se realizan. En el caso de los sistemas hidrológicos no existeretroalimentación (al menos puede considerarse así en el periodo de tiempo en el que serealiza el diagnóstico), pero la componente temporal es imprescindible. Algunassoluciones particulares al problema temporal para sistemas físicos concretos puedenencontrarse en el sistema XDE [Hamscher,1991] o en el sistema descrito por[Ng,1990], aunque no resultan extrapolables al caso hidrológico.

Page 86: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 4. Los sistemas de diagnóstico en Inteligencia Artificial___________________________________________________________________________

72

(4) Queda abierto el problema de la organización o estructuración de los modelos queconforman el sistema. Como se ha visto a lo largo de este capítulo, uno de losprincipales inconvenientes de la aplicación de sistemas de diagnóstico concretos alproblema de la validación de los datos hidrológicos es precisamente la estructura delconocimiento que imponen y la dificultad de adaptar el conocimiento existente en estedominio a esquemas conceptuales rígidos. Por otra parte, se ha visto que incluso laspropuestas de cuyo estudio se deduce una mayor cercanía a la forma de entender elproblema por parte de los hidrólogos, no son capaces de incorporar adecuadamente todoel conocimiento disponible.

En general, las técnicas de diagnóstico estudiadas en este capítulo pueden ser aplicadaspara la resolución de problemas parciales. Sin embargo, tal como se ha visto en cadaepígrafe, la aplicación de cada una de estas técnicas aisladamente no resulta adecuadapara realizar la validación de datos en un problema de dimensiones reales. En lamemoria de esta tesis se plantea la búsqueda de una solución al problema mediante unenfoque híbrido, que sea capaz de aprovechar las características de cada uno de estosparadigmas en beneficio de una solución global al problema. Para ello, es necesarioplantear el problema en el marco de una “arquitectura” lo suficientemente flexible paraque permita la estructuración adecuada de todo el conocimiento implicado en el procesode validación, así como la coexistencia y la cooperación de los distintos paradigmas, sinperder de vista la transparencia necesaria para que el mantenimiento del mismo pudieraser realizado por los propios responsables del sistema de adquisición de datos. Losproblemas planteados en esta línea serán analizados con mayor detenimiento en elcapítulo 6 dedicado a los problemas de estructuración del conocimiento.

Page 87: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

73

CAPÍTULO 5

LOS MODELOS HIDROLÓGICOS ENINTELIGENCIA ARTIFICIAL

5.1. Introducción.

El término modelo se utiliza con diversas acepciones en el campo de la hidrología. Unade estas acepciones corresponde a una representación real a escala del objeto cuyocomportamiento se desea simular. Este tipo de modelos se denominan más específicamentemodelos físicos, o modelos a escala. Por otra parte, el término modelo se emplea paradenominar cualquier representación simbólica o numérica que permite simular elcomportamiento de un sistema físico. En lo sucesivo, se emplea el término modeloexclusivamente con esta segunda acepción.

La utilización de modelos es muy frecuente en hidrología para hallar soluciones adiversos problemas, tales como la determinación del volumen de agua que se infiltra en elterreno, que se evapora y que escurre, la determinación del hidrograma de respuesta de lacuenca sometida a un aguacero, la determinación de la propagación del hidrograma en lostramos de transporte, la determinación de los máximos caudales previsibles en una sección deun cauce que debe considerarse para la realización de proyectos, etc. Una vez seleccionado elmodelo o los modelos que rigen, o aproximan mejor, el comportamiento de un sistemahidrológico concreto, el siguiente paso necesario es calibrar dicho modelo, es decir, estimar omedir los parámetros que lo adaptan a la cuenca objeto de estudio. En general esta tarea requierea su vez una serie de tanteos, pruebas y sucesivas modificaciones hasta encontrar los valoresadecuados.

No es el objetivo de esta tesis abundar en la complejidad del problema de construcciónde modelos matemáticos o estocásticos, ni en la selección o calibración de un modelo adecuadoa unas circunstancias concretas, o en los detalles de la implementación informática de losmismos;* sino estudiar el posible uso y calibración de cualquiera de ellos para realizar las tareasde validación.

5.2. Funcionalidad de los modelos.

Desde el punto de vista del problema de la validación de datos, entendido como unproblema dual del de diagnóstico basado en modelos, un modelo es una representación de uncomponente del sistema físico cuyo comportamiento se desea simular. Ahora bien, desde unpunto de vista funcional hay dos cuestiones importantes que deben ser resueltas: (1) ¿cuál es eluso que se hace de los modelos?, y (2) ¿podría emplearse cualquier modelo para realizar lavalidación?. La respuesta a la primera de estas cuestiones lleva a plantear una doblefuncionalidad de los modelos en el sistema:

* Una buena reseña de los distintos modelos hidrológicos que se han desarrollado hasta la fecha puede encontrarseen [Garrote,1990]. Véase también [Chow,1988] para una información más detallada.

Page 88: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 5. Los Modelos Hidrológicos___________________________________________________________________________

74

(1) Uso deductivo de los modelos. Un modelo que simula el comportamiento de uncomponente puede usarse para predecir o explicar su comportamiento, es decir, dadasunas solicitaciones (entradas) conocidas, y dado que el modelo es capaz de simular elcomportamiento del componente, es posible hallar la respuesta (salidas) que seproducirá en el componente. Este es el uso más frecuente que se hace de los modelos,de hecho, generalmente los modelos se diseñan con esta sóla y exclusiva función.

Este modo de usar los modelos permite realizar dos tareas: (a) Predecir elcomportamiento de un componente. Por ejemplo, en el caso hidrológico, dados loshidrograma de entrada a una red fluvial, y dado un modelo lluvia-escorrentía, es posibledeterminar el hidrograma de respuesta que se produce en cierta seción aguas abajo; y (b)Explicar o justificar el comportamiento del mismo. Por ejemplo, conocidas las entradasy las salidas de un cierto componente, y conocido su funcionamiento mediante unmodelo, si las salidas que vaticina el modelo no son las mismas que las que las reales,se puede concluir que el componente no funciona correctamente. Bajo ciertascondiciones, también es posible deducir que el componente funciona correctamente silas salidas del modelo son las mismas que las reales.

(2) Uso abductivo de los modelos. Dado un modelo que simula el comportamiento de uncomponente, en ciertos casos también es posible hacer uso de él para inferir las entradaso solicitaciones a las que ha estado sometido el componente conocidas las salidas orespuestas reales del mismo. Por ejemplo, si se conoce el caudal de una sección aguasabajo, y se tiene un modelo del tramo de transporte fluvial, podría inferirse el caudal enuna sección aguas arriba.

Este uso abductivo de los modelos no es siempre posible en la práctica. Ciertos tipos demodelos permiten mejor que otros el uso abductivo. Por ejemplo, en los modelos cuyarepresentación es una función matemática, el posible uso abductivo viene determinadopor la existencia de una función inversa; en los modelos numéricos, el uso abductivopuede conseguirse mediante generación y prueba de distintas entradas, tanteando losresultados que se obienen en comparación con los reales, etc. Estos ejemplos muestranla dificultad de realizar abducción basada en cierto tipo de modelos. Sin embargo,existen otros tipos de modelos en los cuales resulta más sencillo realizar abducción. Porejemplo, los modelos de los componentes usados en la teoría de diagnóstico de Reiter[Reiter,1987],o en la de Raiman [Raiman,1989] (véase el capítulo anterior) son modelosbasados en la lógica de primer orden, que establecen predicados sobre elcomportamiento correcto de los componentes, y que por tanto pueden usarse tanto enforma deductiva como abductiva.

La segunda de las cuestiones plantea un problema de diseño del sistema de validación.En principio, sería conveniente que los modelos usados en el sistema permitiesen un usoabductivo. Sin embargo, según se ha dicho anteriormente, esto aparentemente limita el tipo demodelos que pueden usarse. Una reflexión más profunda permite ver dos aspectos diferentes enel problema: (1) El modelo conceptual que se establece sobre el funcionamiento del sistema ocomponente, y (2) la representación computacional de este modelo conceptual usando unaformalización adecuada.

El primero de estos aspectos es claramente el objeto de la Hidrología, que con el modeloconceptual plantea la comprensión del funcionamiento de cada uno de los componentes,entendiendo de esta forma su comportamiento. El segundo de estos aspectos es un problemaque se plantea habitualmente en el marco de la Inteligencia Artificial. Un mismo modeloconceptual puede expresarse representarse numéricamente, o bien mediante un conjunto decláusulas lógicas, un sistema de restricciones, un sistema de reglas heurísticas, etc. Ambosaspectos del problema no son totalmente independientes, ya que ciertos tipos derepresentaciones se adaptan mejor que otros a un modelo conceptual concreto.

En el siguiente epígrafe se estudian brevemente los modelos conceptuales que propone lahidrología para los fenómenos relacionados con la precipitación y la escorrentía. Posteriormente

Page 89: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 5. Los Modelos Hidrológicos___________________________________________________________________________

75

en este capítulo se plantean las diversas alternativas de representación de estos modelos y suposible uso en el problema de validación.

5.3. Los modelos hidrológicos.

Los procesos físicos que determinan el comportamiento hidrológico de una cuenca sonbien conocidos desde hace tiempo. El principal problema ha sido siempre su cuantificación. Elciclo hidrológico comienza con el fenómeno de las precipitaciones que, en general, son tratadaspor la hidrología como "datos de entrada". Estas precipitaciones, en general, no sonhomogéneas, y un primer problema consiste en la determinación de la distribución de lasmismas a partir de los datos conocidos en un número limitado de puntos. Parte del agua caída seevapora, ya sea directamente o a través de la transpiración de las plantas, otra parte se infiltra enel suelo, recargando acuíferos subterraneos, más o menos profundos, que a medio o largo plazoafloran nuevamente en cotas inferiores o vierten directamente al mar. Finalmente otra parteescurre superficialmente dando lugar a un incremento a corto plazo del caudal en la red fluvial.*Uno de los principales objetivos de la hidrología desde finales del siglo XIX hasta nuestros diasha sido la construcción de modelos que permitan comprender y cuantificar todos estos procesoshidrológicos.

La clasificación tradicional de los modelos hidrológicos establece dos tipos de modelos[Chow,1988]:

(1) Modelos deterministas. En los que se pueden agrupar todos aquellos cuya principalfuente de conocimiento son los procesos físicos que tienen lugar en la cuenca, y suestudio experimental en condiciones más o menos controladas. Existen una grancantidad de modelos que van desde planteamientos empíricos, que resumen en unafórmula sencilla todos los procesos y que proporcionan una aproximación delcomportamiento global de la cuenca, que están basados en la experiencia sobrecondiciones reales y que se generalizan para su uso en otras zonas mediante el ajuste deciertos parámetros; hasta formulaciones matemáticas detalladas de alguno de losprocesos físicos (infiltración, flujo en canales, etc.) que se obtienen a partir deexperimentos en condiciones controladas, y que se extrapolan con mayor o menoraproximación a las condiciones reales.

(2) Modelos estocásticos. Ante la carencia de un conocimiento exacto sobre los fenómenosfísicos que tienen lugar, se plantea la incorporación de una cierta componente aleatoriaque permita explicar el comportamiento observado y predecir el futuro en base a lasimilitud con situaciones anteriormente acaecidas. El empleo de técnicas estadísticas enhidrología constituye ya una vía tradicional de suplir la falta de una información másprecisa sobre los procesos naturales y las características físicas de las cuencas, así comouna herramienta de predicción basada en la hipótesis del comportamiento variable de lascuencas sometidas a las mismas solicitaciones, debido a factores no medibles y que seconsideran aleatorios.

Desde el punto de vista de la validación de los datos, cualquier modelo decomportamiento puede considerarse como una fuente de conocimiento que usadaconvenientemente confronta los valores de los datos medidos por los sensores, con aquellosque son físicamente posibles según los procesos hidro-meteorológicos que se estánproduciendo sobre la cuenca. En principio, a los efectos de validación se puede distinguir entredos grandes grupos de modelos:

(1) Modelos locales, que relacionan las medidas de diferentes instantes temporales en unmismo punto.

* Una magnifica introducción sobre el funcionamiento de los procesos hidrológicos puede encontrarse en[Remenieras,1971].

Page 90: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 5. Los Modelos Hidrológicos___________________________________________________________________________

76

(2) Modelos globales, que relacionan medidas en diversos puntos de la cuenca a distintosintervalos temporales. Entre éstos cabe señalar según su funcionalidad en el sistemahdrológico: (a) modelos lluvia-lluvia, (b) modelos lluvia-escorrentía, y (c) modelosescorrentía-escorrentía.

A continuación se realiza una breve reseña de los modelos usados en la hidrología paracada una de estas clases de problemas. La arquitectura del sistema de validación propuesto debetener en cuenta la disparidad de modelos existentes, considerando que todos ellos son válidoscomo fuentes de conocimiento o información a efectos de validar los datos. La atenciónprincipal de esta tesis se centra en la validación de datos de intensidad de lluvia y aforos, sinembargo, también sería posible incluir en el sistema la validación datos relativos al nivel delagua en los embalses, debiendo recurrir en este caso a establecer modelos de relaciónaportaciones - nivel de embalse, curvas de gasto, modelos de evaporación en grandessuperficies líquidas, etc. Asimismo, en caso de que la zona objeto de estudio lo requiera puedeser necesario incluir modelos de fusión de nieves.

5.3.1. Modelos locales

Una de las primeras aproximaciones a la estimación y consiguientemente a la validaciónde los datos es el estudio estadístico de las series de datos obtenidas en un mismo punto. Esteestudio puede realizarse a diversa escala de tiempos, dependiendo del objetivo final de dichoestudio. Dado que el problema de validación de datos hidrológicos, tal como se ha planteado eneste documento, es novedoso, no es de extrañar que no existan modelos apropiados para estefin en concreto. Sin embargo, de los modelos existentes puede extraerse también conocimientoútil para validación.

En general, los modelos locales de datos en hidrología centran su atención en laestimación de los valores medios, acumulados, o máximos en intervalos plurianuales, anuales,mensuales o como mucho diarios, y su principal objetivo suele ser la previsión de avenidas o laestimación de aportaciones medias de cara a su posible aprovechamiento. Son muchas lasformulaciones propuestas, y este documento no pretende ser exhaustivo en su enumeración. Acontinuación se analizan algunas de ellas y su posible contribución a la resolución del problemade validación.

(1) A una escala temporal grande, el valor máximo de intensidad de lluvia* que se puedeesperar que se produzca en un "periodo de retorno" de 100, 1000 o 10.000 años, odicho de otra forma, la máxima avenida esperable con una probabilidad mayor de uncierto umbral, y que por tanto se debe tener en cuanta en los proyectos que se realicenpuede estimarse mediante la distribución propuesta por Gumbel en 1941, que no es másque una función de densidad de los máximos anuales registrados con respecto al periodode observación. La función de densidad conocida como ley de Gumbel es la siguiente:

F x( ) = e−e−α x − x0( )

en donde los parámetros x0 y α se calibran mediante el procedimiento de igualaciónde momentos entre la distribución teórica y la observada en la realidad con una muestraque se estime suficientemente representativa.

* Si bien es habitual considerar la distribución de Gumbel como correcta, al tratarse de un método estadístico, sinotra base física que lo sustente más que la supuesta distribución de los máximos observada en periodos de tiempoinferiores, es necesario evaluar en cada caso la validez de esta hipótesis. En esta línea algunos trabajos proponenpara ciertos casos el empleo de otras distribuciones que presenten un mejor ajuste [Conejo,1992]. En cualquiercaso, estas técnicas estadísticas basadas en la función de distribución de los máximos pueden emplearse tanto parala determinación de la intensidad máxima esperable como del caudal máximo en una determinada sección.

Page 91: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 5. Los Modelos Hidrológicos___________________________________________________________________________

77

Desde el punto de vista de la validación de los datos, esta ley puede servir para imponerlos rangos localmente admisibles de funcionamiento correcto de los sensores. De todasformas, conviene recordar que el sistema de validación debe actuar como un supervisorde los datos, confrontandolos entre sí y con un cierto volumen de conocimiento pre-compilado, emitiendo informes justificados sobre las discrepancias que existen entreellos, y proponiendo valores alernativos en caso necesario. Por tanto, el establecimientode un límite superior de los valores no debe implicar obligatoriamente la desestimaciónde los mismos, sino sólo la generación del correspondiente aviso.

(2) A una escala temporal media, los métodos locales más utilizados en hidrología son losbasados en el análisis estadístico de las series temporales (véase [Heras,1983]). Engeneral, se considera que una serie temporal de datos hidrológicos tiene una componenteno aleatoria y una componente aleatoria [OMM,1986]. En un instante dado, lacomponente no aleatoria, puede consistir en (a) la tendencia o gradiente de cambio de losvalores, (b) una componente periódica, representativa de las variaciones fijas enfrecuencia y amplitud (por ejemplo, variaciones estacionales, etc. y (c) una componentede persistencia, que puede estimarse según el grado de autocorrelación de la serie.

Existen diversas formulaciones de este fenómeno, en especial los modelos tipo ARIMA(Modelos Autorregresivos y de Media Móvil). Una serie de datos se dice que es unproceso ARIMA si verifica la siguiente propiedad:

Φ B( )∇nxt = Θ B( )at

en donde:

B operador de retraso, Bn xt( ) = xt −n

∇n operador de diferenciación, ∇n xt( ) = 1 − B( )n xt( ) = xt − xn

Φ B( ) polinomio de grado p en B. Representa la parte autorregresiva. Debe serestacionario y por tanto tener sus raíces dentro del círculo unidad.

Θ B( ) polinomio de grado q en B. Representa la parte de media móvil. Debe serinversible y sus raíces deben quedar fuera del círculo unidad.

at Ruido aleatorio no correlacionado de media nula y varianza unidad.

Una vez determinados los parámetros de una serie, los elementos subsiguientes puedendeterminarse en función de los n anteriores, o al menos sus valores pueden acotarse enun cierto intervalo en el que resultan plausibles.

La aplicación de estas técnicas al sistema de validación de datos puede ser muyprovechosa, pudiendo construirse modelos a distintos niveles de agregación temporal.La mayor dificultad radica en la determinación y construcción precisa de estos modelos.De todos modos, sí resulta factible la incorporación de modelos simplificados conhorizontes temporales pequeños, que permitan realizar un filtrado de los datos de unsensor de acuerdo a parámetros tales como la tendencia, la estacionalidad o lapersistencia de los valores.

5.3.2. Modelos lluvia-lluvia.

Otra importante fuente de conocimiento que puede emplearse para realizar la validaciónde los datos hidrológicos consiste en el establecimiento de las relaciones que existen entre laslluvias acaecidas en una región objeto de estudio.

La distribución espacial y temporal de la pluviometría en una región ha sido objeto deestudio por parte de la hidrología como respuesta a la carencia de datos más precisos. Téngase

Page 92: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 5. Los Modelos Hidrológicos___________________________________________________________________________

78

en cuenta que la aparición de los sistemas de información hidrológica es relativamente reciente yque en muchas regiones los datos de que se dispone sobre precipitaciones son en su mayoríadatos diarios acumulados y sólo en ciertos puntos, y que en ocasiones las series de datos sonincompletas. Los modelos que pueden emplearse para la validación de los datos hidrológicospueden estar basados en este conocimiento acumulado usado tradicionalmente para la estimaciónde los valores de lluvia en situaciones de carencia de información. Entre los modelosdisponibles cabe destacar los siguientes:

(1) Análisis de doble acumulación [OMM,1986]. Se trata en principio de un método gráficoque permite identificar y corregir las inconsistencias mediante la comparación de latendencia temporal de una estación pluviométrica en relación con otras estaciones. Lahipótesis que sirve de base al método es la existencia de una correlación fuerte entreambas estaciones, por tanto si se dibujan en una gráfica las aportaciones acumuladas deuna estación frente a las de otra, debe obtenerse una alineación sensiblemente recta dependiente constante. Cualquier variación de esta pendiente indica un cambio en laorientación o exposición del pluviómetro, o bien un fallo sistemático en el sensor. Laescala temporal a la que se aplica este modelo suele ser estacional, anual, o plurianual,ya que su objetivo es la determinación y corrección de erroes sistemáticos.

Desde el punto de vista de la validación de los datos, la utilización de modelos basadosen la correlación de los datos de varias estaciones pluviométricas puede resultarconveniente. De hecho, en caso de que las estaciones estén próximas, es de esperar unaalta correlación que puede aportar la necesaria redundancia en las medidas. Sería muyinteresante realizar estudios de correlación a distintos niveles de agregación temporal, eincluso, en los modelos de menor agregación, estudiar las correlaciones que seproducen bajo condiciones meteorológicas habituales en la región, por ejemplo, lacorrelación de los datos de intensidad de lluvia cuando hay una borrasca con vientos delevante, o para una tormenta estival, etc. En niveles de agregación temporal bajos sedebería recurrir al estudio de la propagación de la borrasca bajo condicionesmeteorológicas conocidas y que pueden suponerse constantes en el periodo de estudio,analizando la correlación entre las series temporales que se producen en distintospluviógrafos de la región.*

(2) Determinación de la distribución espacial de las precipitaciones en un instante dado.Desde el punto de vista de la distribución espacial de las precipitaciones sobre unaregión, las técnicas tradicionales en hidrología parten de la base del conocimiento de laintensidad de lluvia en un cierto intervalo temporal en diversos puntos de la misma,correspondientes a las estaciones pluviométricas, y estimando la distribución en laregión mediante: (a) determinación de los polígonos de Thiessen*, o zonas de influenciade cada uno de los pluviómetros, en las que se considera que la intensidad eshomogénea e igual al valor registrado en el pluviómetro. (b) determinación de lasisoyetas o curvas de nivel que unen los puntos con igual intensidad de lluvia, einterpolando el valor en cada punto de la región proporcionalmente a la media ponderadade las dos curvas más cercanas. (c) método hipsométrico, consistente en el uso defórmulas empíricas que relacionen la intensidad de lluvia con la altitud de cada punto, suexposición a la dirección de la tormenta, etc. De esta forma, conocido el valor de lalluvia en un punto puede extrapolarse al resto de los puntos de la región ponderandosegún los valores de estos parámetros en dicho punto.

* En algunos estudios realizados por la Confederación Hidrográfica del Sur de España, en donde las cuencas sonpequeñas, se ha determinado que existe una fuerte correlación (superior al 97%) entre los datos de precipitaciónmedia mensual en las distintas estaciones situadas en una misma cuenca, manteniendose en niveles altos (superioral 90%) para datos medios diarios. No se han realizado estudios a menor nivel de agregación temporal.* Estos polígonos resultan de establecer una triangulación de Delaunay tomando como vértices los pluviómetros,y hallando los correspondientes polígonos de Voronoi que representan el lugar geométrico de los puntos que sehallan más próximos a cada uno de los vértices.

Page 93: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 5. Los Modelos Hidrológicos___________________________________________________________________________

79

Hay que señalar que el objetivo de los modelos de distribución espacial de lasprecipitaciones no es tanto la determinación de la intensidad de lluvia en cada punto,como la obtención de los valores totales del volumen de agua caída sobre la región, aefectos de la determinación o estimación del caudal resultante. A estos efectos, inclusoes admisible el uso de valores medios homogéneos en toda la región. Sin embargo, parael problema de validación resultan más adecuados los modelos que establecen unadistribución espacial de las precipitaciones en función de los parámetros de cada punto,espcialmente cuando se trata de regiones montañosas en las que posiblemente existenapreciables variaciones locales.

(3) Modelos y métodos de trasposición de borrascas. Los modelos de borrascas tratan depredecir la precipitación en función de la disponibilidad de humedad atmosférica, lasobservaciones sobre la dirección y velocidad del viento y la velocidad con que lahumedad se convierte en precipitación, así como los efectos de las característisticasorográficas del terreno. Los métodos de transposición de borrascas buscan estosmismos datos a partir de la correlación entre los datos actuales y los conocidos de otrasborrascas acaecidas en la misma región o en otra región bien documentada. En generalestos modelos son poco fiables dada la gran cantidad y variabilidad de los parámetrosque en ellos intervienen, y se usan para estimar la precipitación máxima probable (PMP)sobre una región. Desde el punto de vista de la validación de los datos de intensidad delluvia pueden resultar útiles en terrenos llanos, si se dispone de datos de humedad ydirección del viento, con los que establecer la correspondencia. En terrenos montañososla variabilidad debida a factores orográficos es mucho mayor y se desaconseja el uso deestos métodos [OMM,1986].

(4) Finalmente, en el modelo de validación pueden tener cabida relaciones entre laintensidad de lluvia medida por diversas técnicas. Por ejemplo, podría establecerse larelación entre los datos medidos por los pluviómetros y los obtenidos mediante el radarmeteorológico, incorporando así una nueva fuente de conocimiento. Esta vía supone laconfrontación directa de datos medidos mediante dos sensores de diversos tipos, por loque puede resultar interesante. Hay que hacer notar que la precisión del radarmeteorológico en la medida de la intensidad de lluvia es sensiblemente inferior a la delos pluviómetros, hecho este que debe tenerse en cuenta para establecer los criterios defiabilidad oportunos.

5.3.3. Modelos lluvia-escorrentía

Uno de los procesos estudiados con mayor atención por parte de la hidrología es ladeterminación del caudal que puede esperarse en una determinada sección de un cauce. Existeuna amplia diversidad de modelos y criterios para relacionar la intensidad de lluvia con el caudalque se produce aguas abajo. Al igual que en otras ocasiones este epígrafe no pretende serexahustivo en la recopilación de todos ellos, sino estudiar su posible aplicación al problema devalidación:

(1) Históricamente, ante la falta de una información detallada del comportamiento de lacuenca, y a la necesidad de disponer de datos para múltiples fines como la realización deembalses, la predicción de avenidas, etc., se ha recurrido a fórmulas empíricas paraestimar los valores máximos que deben tenerse en cuenta. Las técnicas más simplesconsisten en la construcción de una fórmula matemática que mediante uno o dosparámetros consiga resumir algunos aspectos del comportamiento de toda la cuenca.Entre estos modelos cabe destacar, por su gran influencia, la conocida fórmulapropuesta por Mulvaney en 1851, que relaciona el caudal punta de la avenida con laintensidad de lluvia (supuesta uniforme); la fórmula de Horton (de 1933), para el cálculode la velocidad de infiltración, que impone una curva exponencial decreciente para elvolumen de agua que un suelo es capaz de absorber, y consiguientemente estima elexceso que escurre, etc. El empleo de estas fórmulas asume unas condiciones

Page 94: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 5. Los Modelos Hidrológicos___________________________________________________________________________

80

homogeneas en toda la extensión de la cuenca, y da una información parcial sobre elcomportamiento de la misma.

Desde el punto de vista de la validación de datos de caudal, las fórmulas empíricasresultan de escasa utilidad, ya que sólo son capaces de predecir valores puntuales(máximos, medios, etc.) y con escasa precisión. Por otra parte, las fórmulas queresultan válidas para unas determinadas regiones pueden no serlo en absoluto para otras,debido a la variación de factores que se encuentran precompilados en la propia fórmula.Su utilidad viene condicionada por la carencia de otros modelos más precisos, y lacomprobación de su validez para cada caso concreto, una vez determinados o estimadossus parámeros formales.

(2) Modelos de evapotranspiración. Uno de los fenómenos que tienen cuantitativamentemayor influencia en la determinación del caudal producido por un aguacero es laevaporación directa o a través de la respiración de las plantas de parte del agua caída.Desfortunadamente éste es uno de los factores más difíciles de cuantificar, recurriéndosepor lo general a medidas o estimaciones indirectas, como por el ejemplo a partir delbalance hídrico de una cuenca en un periodo relativamente corto (una semana o un mes)[OMM,1986]. Otros métodos, también meramente aproximados, se basan en medidasdirectas de la humedad, la temperatura, etc., aplicando fórmulas empíricas para ladeterminación de la evapotranspiración. Algunos de estos métodos también llamadosaerodinámicos son: el método de Penman, la fórmula de Thornthwaite, o el método deKonstantinov. En general estos métodos sólo sirven para estimaciones mediasmensuales, estacionales o anuales.

Desde el punto de vista de la validación, la estimación de la evapotranspiración debeestar incluída en los modelos de estimación del caudal escurrido a partir de los datos deintensidad de lluvia. En principio, podría pensarse que los datos de humedad ytemperatura pueden también ser objeto de validación mediante la incorporación de estetipo de modelos directamente en la arquitectura del sistema de validación de datospropuesta. Sin embargo, la escasa sensibilidad de los modelos a variaciones de estosdatos, y la amplia variabilidad de los mismos durante el periodo de estimación, obligan adescartar esta idea. Por otra parte, la humedad y la temperatura son datos auxiliares,fácilmente observables mediante medidas directas, y por tanto no requieren de unavalidación sistemática a partir de otros datos menos precisos.

(3) Uno de los modelos que se ha empleado con mayor profusión en la hidrología ha sido eldel hidrograma unitario, propuesto por Shermann en 1932. El método parte de lassiguientes hipótesis [Remenieras,1971]: (I) La duración total de los hidrogramascorrespondientes a una lluvia eficaz de intensidad constante, homogénea y duración fija,inferior al tiempo de concentración, es independiente del valor de la intensidad; (II) si laintensidad de lluvia eficaz, constante y homogénea, y de igual duración a la anterioraumenta, el hidrograma al que da lugar aumenta también proporcionalmente; y (III)cualquier aguacero puede ser descompuesto en trozos de igual duración, en los que lalluvia eficaz puede considerarse constante y homogénea, pudiendo obtenerse elhidrograma de respuesta mediante la acumulación de los hidrogramas unitarioscorrespondientes.

La estimación del hidrograma unitario debe llevarse a cabo a partir de los datosregistrados en situaciones de tormenta en la cuenca, o bien, en el caso de carencia deestos datos, puede estimarse a partir de los datos de cuencas similares con las debidascorrecciones. En esta línea, una de las propuestas actuales es determinar el hidrogramaunitario a partir de las características geomorfológicas de la cuenca, por ejemplo, segúnlas fórmulas propuestas por Snyder [OMM,1986].

(4) Método de las isocronas. Es bien sabido que el caudal instantáneo en una determinadasección es el resultado de la confluencia de aguas que han seguido un diferente caminohasta alcanzar dicho punto. Teniendo en cuenta esta característica, el método de las

Page 95: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 5. Los Modelos Hidrológicos___________________________________________________________________________

81

isocronas divide la cuenca receptora en varias zonas, delimitadas por curvascorrespondientes al lugar geométrico de los puntos cuyas aguas tardan el mismo tiempoen llegar a la sección de desagüe. Si en cada una de estas zonas se supone unaprecipitación uniforme (auque posiblemente variable en el tiempo), el hidrograma derespuesta en la sección inferior es el resultado de la acumulación de los caudalesescurridos en cada una de estas zonas ponderado según el área de las mismas. Estemétodo puede usarse también en combinación del método del hidrograma unitario,planteando éste para cada una de las zonas que las isocronas establecen.

El empleo de este método esta justificado cuando la extensión de la cuenca es grande, obien cuando la resolución temporal que se precisa es alta y no puede suponerse unadistribución homogénea de las precipitaciones o de las características hidrogeológicas dela cuenca.

(5) Modelos multivariados. Desde el punto de vista estadístico, la relación entre intensidadde lluvia y caudal de escorrentía puede analizarse mediante modelos multivariados en losque la relación se establece entre más de una serie temporal. El problema principal deeste tipo de modelos suele ser la gran cantidad de parámetros y la dificultad decalibración. Un caso especial de modelos multivariados son los modelos detransferencia, en los que se establecen relaciones de causalidad entre dos seriestemporales.

Desde el punto de vista de la validación de los datos estos modelos resultan muyatractivos, sin embargo, su dificultad de construcción y calibración pueden suponer unproblema serio en lo que se refiere a su utilización real.

5.3.4. Modelos escorrentía-escorrentía.

Los modelos de comportamiento de los tramos de la red fluvial, tienen su fundamentomatemático con la formulación de las ecuaciones de Saint-Venant de 1871, que imponen lacontinuidad y la conservación del momento cinético. No se conocen soluciones analíticas deestas ecuaciones, por lo que los métodos hidrológicos aplicados consisten en una formulaciónsimplificada de las mismas. Entre estos métodos, se pueden citar los siguientes:

(1) El método Muskingum, propuesto por G.T. MacCarthy en 1934 para el ríoMuskingum, que equivale a una formulación simplificada de la ecuación de continuidad,discretizando el eje temporal. El método establece que el caudal de salida en una secciónde un tramo de un cauce fluvial puede aproximarse en función del caudal en una secciónde entrada y de los caudales de entrada y salida en el intervalo temporal anterior, segúnla fórmula:

Q s t ( ) = C 1 ⋅ Q e t − ∆ t ( ) + C 2 ⋅ Q e t ( ) + C 3 ⋅ Q s t − ∆ t ( )

siendo C1,C2 y C3 coeficientes adimensionales que se obtenen mediante las fórmulas:

C 1 = kx + ∆ t 2

k − kx + ∆ t 2 C 2 =

− kx + ∆ t 2

k − kx + ∆ t 2 C 3 =

k − kx − ∆ t 2

k − kx + ∆ t 2

en donde k es una constante de almacenamiento en el tramo y x es un parámetro deponderación entre la entrada y la salida. Estos parámetros se estiman experimentalmente.

(2) El método del tramo específico, propuesto por G.P Kalinin y P.I. Miljukov, quepropone la fórmula simplificada:

Qs t( ) = aQe t − 1( ) + 1 − a( )Qs t − 1( )

Page 96: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 5. Los Modelos Hidrológicos___________________________________________________________________________

82

en donde :

a = Qe t( ) − e∆t K

y siendo K una constante de almacenamiento:

K = S

Q

Al igual que en el caso anterior, la determinación de estos parámetros debe hacerse enfunción de los datos previamente validados.

Este método es aplicable sólamente a tramos de una longitud específica L, siendo éstafunción del caudal, el nivel y la pendiente del agua obtenidas en regimen estacionario.Para tramos de longitudes mayores, el método se aplica iterativamente mediante laagrupación de tramos de longitud L.

5.4. Implementación de los modelos.

Muchas de las fórmulaciones empíricas que constituyen modelos simplificados de losprocesos hidrológicos se han desarrollado para su uso manual: una vez ajustados los parámetrosde la fórmula bastan unas operaciones para obtener la respuesta. En otras ocsasiones se planteanmétodos con procedimientos de resolución gráfica sobre papeles milimetrados, con escalasnormales, logarítmicas o semi-logaritmicas.

Con la aparición de los ordenadores y la extensión de su uso en hidrología se haceposible simplificar enormemente las tareas de cálculo, y consiguientemente es posible aumentarla complejidad o el grado de detalle de los modelos.

Durante los años 70 y 80 proliferan los modelos numéricos basados en técnicas deelementos finitos, o en técnicas de repetición e integración a gran escala de los modelosmatemáticos deterministas que explican el funcionamiento de los distintos procesoshidrológicos. De entre estos cabe destacar el sistema HEC-1*, desarrollado por el HydrologicEngineering Center del U.S. Army Corps of Engineering, que integra un conjunto desubrutinas para el cálculo de diferentes procesos hidrológicos [Chow,1988]; el modelo delCentro Hidrometeorológico de la (extinta) URSS [OMM,1986], que utiliza formulacionesconceptuales para deducir las pérdidas y luego aplica modelos computacionales simplificadospara resolver númericamente las ecuaciones de Saint-Venant; el modelo Sacramento que toma sunombre de la sede del National Weather Service River Forecast Center de California, y queengloba un algoritmo complejo de balance de humedad para calcular los cinco componentes deescorrentía que considera: flujo directo, flujo superficial, escorrentía subsuperficial, flujo baseprimario y flujo base secundario, aplicando posteriormente algoritmos iterativos de flujo encanales; o el modelo Tanque del National Research Center for Disaster Prevention de Tokyo,Japón [OMM,1986], que simula el comportamieto del terreno mediante una serie de tanquesdispuestos unos encima de otros, que desaguan parte sobre los tanques inferiores y parte alexterior.

Tras la aparición de los primeros sistemas expertos a finales de los años 70 y su rápidodesarrollo durante los años 80*, se plantea la posibilidad de aplicar estas técnicas a la realizaciónde las tareas hidrológicas que realizan los expertos humanos [Cuena,83], [Cuena,89],especialmente a la interpretación de los datos hidrológicos para la predicción de avenidas. El

* La versión actual de este conocido modelo numérico es HEC-6, cuya versión para PC se distribuyegratuitamente a través de internet.* Véase el apartado 4.2. dedicado a los sistemas expertos.

Page 97: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 5. Los Modelos Hidrológicos___________________________________________________________________________

83

principal objetivo de estos modelos no es sustituir a los modelos matemáticos existentes sinocompletar los aspectos conceptuales que escapan a una formulación matemática precisa y sercapaces de razonar en condiciones de información incompleta y a veces incluso incierta. En estalínea se sitúa el sistema CYRAH [Garrote,90], para la prevención de avenidas en tiempo real,en el que se integran modelos numéricos cuantitativos con un sistema basado en reglasheurísticas que permite un control inteligente del uso de los mismos, y el razonamiento sobre elsignificado y las consecuencias de los resultados.

Un paso más en esta dirección es la reformulación de los modelos hidrológicos mediantetécnicas de representación simbólicas. Las raíces de estos planteamientos deben buscarse en laspropuestas sobre modelado cualitativo surgidas en el marco de la inteligencia artificial amediados de los años 80.* En esta línea se inscriben los modelos utilizados por el sistemaSIRAH [Alonso,1993], cuyo objetivo es también la predicción de avenidas a corto plazo. Losmodelos incluídos en este sistema son versiones cualitativas de los modelos hidrológicoshabituales, tales como el método del hidrograma unitario, el método de Muskingum, etc.codificados o implementados mediante sistemas basados en reglas heurísticas, sistemas desatisfacción de restricciones y mecanismos de simulación cualitativa. El sistema incorporaademás un mecanismo de control global del proceso de inferencia, accesible al usuario,mediante la definición previa de un retículo de hipótesis.

Una de las características propias de la progamación de modelos mediante técnicas deInteligencia Artificial frente a las técnicas de programación clásica, es la utilización de las re-presentaciones simbólicas sustituyendo o complementando a las representaciones numéricas**.Los modelos clásicos en hidrología que se han mencionado anteriormente se implementan por logeneral mediante programas escritos en un lenguaje de programación imperativo (en generalFORTRAN) en los que todo el conocimiento sobre el funcionamiento del sistema se codificamediante una representación numérica. El programa o modelo se encarga de procesar estosnúmeros, obteniendo otros que posteriormente se interpretan como represetaciones del estadoque alcanza el sistema. Por el contrario, la construcción de modelos mediante técnicas deInteligencia Artificial pone un mayor énfasis en la representación conceptual subyacente.

Un mismo modelo conceptual, por ejemplo el método del hidrograma unitario, elmétodo de Muskingum, etc. puede ser formulado mediante técnicas numéricas o bien mediantetécnicas simbólicas. Como consecuencia inmediata de la representación símbólica, se obtieneuna mayor proximidad a la forma humana de entender el problema, y se hace posible generarexplicaciones sobre las conclusiones que se han alcanzado, en términos comprensibles para elusuario, ya que el sistema maneja los mismos conceptos. Como corolario, se obtiene una mayorfacilidad para la codificación por parte de no-programadores [Widman,1989].

Otro aspecto importante de los modelos es la precisión. Aparentemente podría pensarseque un modelo numérico tiene mayor precisión que un modelo cualitativo. Esto es cierto sólo enalgunos casos en los que el comporatmiento del sistema se rige fielmente mediante un modelomatemático preciso y fundamentado en procesos físicos conocidos. Por el contrario, cuando elmodelo numérico se aplica a sistema complejos, poco estructurados, o en los que intervienenunos parámetros que no pueden ser fijados con exactitud, sus resultados no son más que merasaproximaciones. Desde un punto de vista clásico se recurre a modelos estocásticos, en los quelos resultados del modelo son distribuciones de probabilidad. Los principales inconvenientes de

* Entre los trabajos “fundacionales” en esta línea se pueden citar los trabajos sobre simulación cualitativa basadaen procesos de Kenneth Forbus [Forbus,1984] o basados en confluencias de J. deKleer y John S.Brown[deKleer,1984], o también los de Benjamin Kuipers [Kuipers,1986]** Dentro de la inteligencia artificial suele incluirse también la escuela “conexionista”, que intenta representarlos procesos de la mente mediante redes de neuronas cuyas entradas y salidas son números, y que muestran uncomportamiento inteligente gracias a la conexión de miles o millones de éstas debidamente configuradas. Sinembargo, la mayor parte de los trabajaos de Inteligencia Artificial siguen la escuela “simbólica”, cuyo objetivo esemular la inteligencia humana mediante la representación simbólica de los conceptos que en ella intervienen. Seha discutido mucho acerca de lo que es no es la Inteligencia Artificial, en este documento no es posible entrar endetalle en esta interesante cuestión. Para mayor información véase [Perez de la Cruz,1994].

Page 98: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 5. Los Modelos Hidrológicos___________________________________________________________________________

84

este enfoque son dos: (1) el problema se hace intratable, por la excesiva complejidad de losrigurosos planteamientos estadísticos, y (2) la solución se obtiene a partir de unasprobabilidades a priori difícilmente cuantificables, que en muchos casos resultan de unaestimación subjetiva, por lo que la distribución resultante es meramente especulativa yenmascara una componente de conocimiento que puede estar fuertemente sesgada. Otra soluciónclásica a este problema de imprecisión, muy común en ingeniería, es la aplicación de unoscoeficientes de seguridad sobre los valores obtenidos con el modelo. Una vez más con estasolución se enmascara el conocimiento realmente aplicado.

El tratamiento de la imprecisión y la incertidumbre ha sido siempre objeto de estudio porparte de la Inteligencia Artificial. El objetivo a cumplir es establecer conclusiones de acuerdocon el conocimiento que realmente se tiene del problema, no ocultando al sistema, mediante laestimación de una cifra exacta, que hay valores que se desconocen y otros cuyo valor no se sabecon certeza. En estas circunstancias el sistema debe explorar las posibles alternativas para emitiruna respuesta, que lógicamente en la mayor parte de los casos no es única, pero que garantiza(en caso de que el conocimiento aplicado sea correcto y completo) que el modelo ha realizado unanálisis de todos los posibles modos de funcionaiento del sistema. En este sentido sueleafirmarse que bajo estas circusntancias los modelos cualitativos son más robustos y fiables quelos cuantitativos [Widman,1989].

En el caso de la hidrología es especialmente aplicable el razonamiento realizadoanteriormente. Como ya se ha indicado, los procesos hidrológicos son difíciles de cuantificar,ya que están sometidos a una gran cantidad de factores difícilmente medibles. Por tanto, paraconstruir un sistema de validación de datos basado en modelos será preferible en muchos casosla utilización de representaciones cualitativas.

Una ventaja de estas representaciones simbólicas es el posible uso abductivo que se hacomentado al princpio de este capítulo. Por ejemplo, supuesto que se quiere establecer unmodelo de comportamiento de una borrasca que descarga sobre un área en la que existen trespluviómetros, a efectos de validación mediante el enfoque clásico sería necesario incluir tresmodelos que proporcionaran la intensidad de lluvia prevista en cada uno de los pluviómetrosconocida la de los otros dos. Sin embargo, mediante el uso de un sistema de restricciones sóloes necesario construir un modelo que relacione las tres medidas. También se pueden construirmodelos mediante sistemas de reglas. El posible uso abductivo de los mismos lo determina elmotor de inferencias que se emplee, en cualquier caso el conocimiento que emplea el sistematanto para deducción como para abducción es el mismo. Por el contrario, para realizarabducción mediante modelos numéricos el único procedimiento disponible es el tanteo, es decir,la generación y prueba de múltiples soluciones hasta encontrar los valores adecuados.

No obstante, dada la disponibilidad de modelos numéricos cuantitativos, y su frecuenteutilización en hidrológía, la arquitectura del sistema de validación propuesto debe contemplar lacoexistencia de modelos cualitativos y cuantitativos.

5.5. Conclusiones

Tras el estudio de los distintos tipos de modelos hidrológicos se pueden establecer lassiguientes conclusiones sobre su aplicación:

(1) Los modelos matemáticos deterministas constituyen la vía tradicional por la que seexpresa el conocimiento sobre el comportamiento de una cuenca. Es costumbre entre losingenieros hablar en términos de estos modelos y expresar su conocimiento mediante laselección y determinación de los parámetros correspondientes. Por tanto, un sistema queincorpore este tipo de modelos tiene la ventaja innegable de aproximarse más a la formaen que los ingenieros entienden el problema.

Page 99: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 5. Los Modelos Hidrológicos___________________________________________________________________________

85

(2) Los procesos hidrológicos no resultan cuantificables con absoluta exactitud. La comple-jidad del problema impone una cierta incertidumbre e imprecisión en el tratamiento de lainformación. Los modelos matemáticos tradicionales deben considerarse por tanto comoaproximaciones a la realidad, y este hecho debe ser tenido en cuenta al establecerconclusiones sobre los resultados de los mismos. Las fuentes de este indeterminismoson las siguientes, [Cuena,1992c]:

(a) Los datos de que se dispone para establecer los modelos en ocasiones resultan serinadecuados e insuficientes, y deben validarse previamente a su utilización enaplicaciones reales.

(b) Los modelos deterministas representan sólo parcialmente la complejidad de losprocesos hidrológicos naturales.

(c) Los parámetros que controlan el funcionamiento de los modelos aplicados a unacuenca concreta deben estimarse de manera imprecisa, y no siempre con absolutacerteza.

Como consecuencia de estos factores, dadas unas condiciones iniciales, la evoluciónfutura del sistema no siempre puede ser predicha de forma unívoca, existiendo múltiplessoluciones, posibles o creíbles en mayor o menor medida, que deben ser tenidas encuenta.

En este sentido, los modelos estocásticos resultan más realistas que los puramentedeterministas. Sin embargo, la estadística no es la única herramienta con la que puedetratarse el problema del razonamiento aproximado. De hecho, en estos contextosingenieriles, la apelación al tratamiento estadístico se justifica de una manerafrecuencialista, es decir, en la creencia de que un mismo fenómeno, bajo unas mismascondiciones, se repite muchas veces, ya sea de forma natural o experimental, cosa queno siempre ocurre en hidrología, en donde determinadas circunstancias, como crecidasde importancia, largos periodos de sequía, etc. se dan relativativamente con pocafrecuencia.

(3) El conocimiento empleado para la realización de tareas hidrológicas concretas, comopueden ser la estimación de las aportaciones esperables a partir de las lluvias registradas,la predicción de avenidas, o la validación de los datos, es multiforme. Así mismo, latarea de interpretación de los datos obtenidos requiere un conocimiento específico, quenormalmente no se indica en los tratados de hidrología de forma explícita. El ingenieroemplea para realizar estas tareas un conocimiento adicional, muchas veces denominado"sentido común". Este conocimiento no aparece claramente definido, sino que emana dela propia experiencia en el trabajo del hidrólogo. La ventaja de los sistemas deinteligencia artificial basados en el conocimiento es que ofrecen vías mediante las cualesexpresar y estructurar este elemento adicional.

(4) Dado que el conocimiento es el elemento fundamental con el que se trabaja, siendo éstede diversas formas (conocimiento de inferencia, conocimiento de control, conocimientode simulación, etc.) y dado que puede expresarse mediante representaciones diferentes(marcos, reglas, modelos, etc.), resulta un punto clave en la construcción de sistemasbasados en el conocimiento la estructuración u organización de los distintoscomponentes conceptuales. De hecho, esta estructuración requiere de un conocimientoadicional que se plasma en la propia estructura del sistema y por tanto, para laconstrucción de un sistema flexible y que pueda ser revisable por el propio usuario, serequiere que esta estructura quede visible y no encapsulada en complejos mecanismosinternos.

Esta problemática es común a todos los sistemas basados en el conocimiento. En losúltimos años muchos autores han puesto de manifiesto la necesidad de una

Page 100: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 5. Los Modelos Hidrológicos___________________________________________________________________________

86

estructuración de los sistemas al nivel del conocimiento, estableciendo propuestasmetodológicas e instrumentales. El capítulo 6 esta dedicado a este problema.

Page 101: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

87

CAPÍTULO 6

LA ESTRUCTURACIÓN DE LOSSISTEMAS INTELIGENTES

6.1. Introducción.

La madurez de los sistemas basados en el conocimiento ha puesto de manifiesto lanecesidad de una estructuración de los mismos. Es una característica común en los trabajosrealizados en este campo durante la última década la necesidad de analizar o describir lossistemas en función del conocimiento que poseen en vez de en función de los elementos deprogramación que emplean para formular y manipular este conocimiento. Muchos de estostrabajos coinciden en la idea de que el conocimiento debe ser modelado en función de susobjetivos, funciones o tareas que realiza. En esta línea confluyen propuestas realizadas desdeun planteamiento que podría denominarse teórico, como es el caso del "Nivel delconocimiento" propuesto por Newell [Newell,1982], propuestas destinadas a laconceptualización y estructuración de los sistemas desde el punto de vista simbólico,identificando en ellos las piezas de conocimiento que ensambladas dan lugar al sistema, comoes el caso de de las "Tareas Genéricas" [Chandrasekaran,1986] y propuestas de arquitecturas osistemas destinados a proporcionar metodologías para la construcción de sistemas basados enel conocimiento como PROTÉGÉ [Musen,1989], KADS [Wielinga,1992], KREST[Steels,1992], o KSM [Molina,1993].

El nivel del conocimiento equivale a la definición de los objetivos o especificaciones delas tareas que debe realizar un Agente. Se trata de definir qué se quiere o qué se necesita tenerpara resolver un determinado problema, sin tener en cuenta los detalles consustanciales al nivelde programación o nivel simbólico. El diseño y escritura del código es relegado a un segundoplano, en el que una vez alcanzado, puede realizarse de forma bien delimitada, construyendomódulos independientes de software, como si se tratara de piezas de un mecano, con las que elAgente construirá el sistema capaz de realizar la tarea encomendada.

Un problema similar es abordado desde una perspectiva diferente por los sistemas quepretenden la definición simbólica de los sistemas basados en el conocimientoindependientemente del dominio al que son aplicados (véase por ejemplo [Birmingham,1992]). Desde esta perspectiva surgen propuestas como la "Clasificación heurística"[Clancey,1985] que analiza la tarea llevada a cabo por los sistemas expertos clásicos; o elenfoque de "Tareas genéricas" [Chandrasekaran,1986] que consiste en identificar las tareas oelementos de conocimiento comunes a distintos sistemas que pueden ser aplicados como"ladrillos" en la construcción de sistemas inteligentes.

Por último este capítulo recoge las propuestas presentadas por distintas "arquitecturascognitivas". La palabra “arquitectura” para designar la estructuración de los elementos quecomponen un sistema software es ya clásica en el campo de la inteligencia artificial. En generalcuando se habla de “arquitectura” se hace hincapié en dos aspectos complementarios. Por unaparte una arquitectura es un conjunto o biblioteca de elementos del conocimiento predispuestospara ser usados en cierta forma por programas elaborados a un nivel de abstracción superior.Por otra, al hablar de una arquitectura se hace referencia a una sistemática o metodología deprogramación que permite afrontar la resolución de un problema o problemas complejossiguiendo unas pautas fijas de organización de los distintos componentes que se necesitan para

Page 102: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 6. La estructuración de los sistemas inteligentes___________________________________________________________________________

88

resolverlos. Por tanto, el diseño de una arquitectura cognitiva está justificado sólo en aquelloscasos en los que la magnitud del problema a afrontar requiere de esta sistematización. En últimainstancia, una arquitectura bien estructurada, en la que el conocimiento declarativo estáperfectamente definido y delimitado podría conducir a la construcción de sistemas queproporcionen una mayor facilidad en la reutilización de las piezas o componentes delconocimiento, incluso sin necesidad de una programación a nivel simbólico, en la líneapropuesta por [Steels, 1992]. Desde hace algún tiempo, han aparecido en la literaturaespecializada propuestas de arquitecturas que separan el conocimiento declarativo y delconocimiento de control, permitiendo que ámbos coexistan y sean definidos explícitamente, sinquedar ocultos dentro de la propia arquitectura. (véase por ejemplo [Buttner, 1988]).Generalmente se entiende por conocimiento declarativo, aquel que es estático, es decir el quedescribe los objetos del dominio, las relaciones entre ellos, las funciones que realiza cadacomponente, las reglas que rigen su funcionamiento, etc. En cambio, se entiende porconocimiento de control, la selección, del conjunto de operaciones que deben realizarse sobrelos objetos, la determinación del orden en que deben aplicarse, y en suma la gestión ymanipulación del conocimiento.

6.2.Propuestas de estructuración al nivel del conocimiento.

El objetivo principal de estas propuestas es resaltar el conocimiento empleado en laconstrucción de los sistemas como un elemento esencial en los mismos y que tiene entidad en símismo. De esta forma se establece que para analizar y posteriormente realizar una tarea esmenester describir el conocimiento necesario para realizarla de forma independiente a larepresentación que finalmente se haga del mismo.

Pieza clave en este esquema es la idea de "Nivel del Conocimiento" que a continuaciónse expone.

6.2.1. El nivel del conocimiento.

Allen Newell, pronunció una conferencia en la Universidad de Standford el año 1979,que posteriormente dio origen a la aparición de su famoso articulo "The Knowledge Level"[Newell,1982], que constituye un auténtico manifiesto de la necesidad imperiosa de realizar unsalto cualitativo en la concepción de los sistemas basados en el conocimiento no como simplesprogramas que manejan y procesan datos, sino como "agentes" que realizan una tareaintelectual. Sólo desde esta perspectiva saldrán a la luz los aspectos cognitivos que constituyenla esencia del sistema.

Los sistemas clásicos de inteligencia artificial están basados en una representación delconocimiento sobre un cierto dominio que procesada en forma conveniente alcanza la soluciónde un problema. Cuando se dice que un sistema tiene conocimiento habitualmente se hacereferencia al conocimiento encapsulado en la representación.

Sin embargo, el conocimiento y la inteligencia en general no pueden inscribirsesólamente en la representación. Newell aduce como prueba de ello los siguientes argumentos:

(1) La capacidad para crear una nueva representación requiere un nuevo tipo de inteligencia.(2) Existe una fuerte controversia en contra de los sistemas universales de representación

del conocimiento, y su adecuación a la resolución de problemas.(3) No existe un consenso en la comunidad que trabaja en inteligencia artificial sobre la

adecuada representación del conocimiento.

Esto lleva a plantear una profunda reflexión sobre las cuestiones: ¿Qué es elconocimiento? ¿Cuál es la naturaleza del conocimiento? ¿Qué tiene que tener un sistema paratener conocimiento? Las respuestas a estas preguntas, y las ideas que se exponen sobre el

Page 103: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 6. La estructuración de los sistemas inteligentes___________________________________________________________________________

89

conocimiento y su representación emanan de la práctica de la inteligencia artificial, y son unintento de clarificar algunas de las ideas latentes sobre estos temas.

Tradicionalmente se ha construído una jerarquia de niveles en los sistemas informáticoscorrespondientes a distintos grados de abstracción o especialización en el desarrollo oespecificación de los mismos. Así se habla del nivel de puertas lógicas, nivel demicroprogramación, o nivel de programación o simbólico.

Cada nivel puede caracterizarse completamente mediante:

(1) un medio que debe ser procesado (voltajes, bytes, símbolos)(2) los componentes que proporcionan las primitivas de proceso.(3) las leyes de composición que permiten ensamblar los componentes para obtener

sistemas.(4) las leyes de comportamiento del sistema atendiendo al comportamiento de los

componentes y a la propia estructura del sistema.

Algunas características comunes en esta jerarquia de niveles son:

(1) La especificación de un sistema a un nivel superior determina completamente sucomportamiento en los niveles inferiores.

(2) El comportamiento del sistema es la consecuencia del comportamiento local de cada unode sus componentes.

(3) La diversidad de comportamientos se obtiene gracias a la multiplicidad de estructurasque se pueden construir con los componentes.

Newell propone la existencia de un nuevo nivel, que nace de la descomposición delnivel simbólico en dos, por una parte en un nivel simbólico propiamente dicho y por otra en unnivel que se sitúa inmediatamente encima en la jerarquia de niveles y al que se denomina niveldel conocimiento.

En este nivel el sistema es concebido como un "Agente" y las características que defineneste nivel son las siguientes:

(1) el medio es el conocimiento.(2) los componentes son los objetivos, las acciones y el cuerpo de conocimiento;(3) no existe ley de composición que permita construir sistemas a partir de estos

componentes.(4) la ley de comportamiento es el Principio de Racionalidad, que propugna que las

acciones deben ser seleccionadas para alcanzar los objetivos, es decir: “Si un agentetiene conocimiento de que alguna de sus acciones le llevan a conseguir alguno de susobjetivos , entonces el agente seleccionará dicha acción”. Este principio sólamente no essuficiente para determinar la conducta en muchas situaciones, en algunos casos sonnecesarios otros principio auxiliares como el Principio de Equipotencia de AccionesAceptables: “Dado un conocimiento si dos acciones llevan a la consecución del mismoobjetivo, el agente seleccionará ambas acciones” o bien el Principio de Satisfacción deObjetivos Múltiples: “Si un agente tiene dos objetivos y ha seleccionado para satisfacercada uno de ellos su correpondiente conjunto de acciones, entonces la selección efectivadebe ser la intersección de ambos conjuntos.”

Una consecuencia fundamental de este planteamiento es que el comportamiento delagente depende sólamente de lo que el agente sabe y de los objetivos que desea alcanzar, portanto, como corolario se obtiene una definición funcional del conocimiento: “Lo que se incluyeen un agente de manera que su conducta puede ser computada según el principio deracionalidad”.

Page 104: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 6. La estructuración de los sistemas inteligentes___________________________________________________________________________

90

El nivel del conocimiento presenta tres características especiales que pueden parecersorprendentes en comparación con los demás niveles de la jerarquia de niveles de los sistemasinformáticos:

(1) Ausencia de una estructura bien definida, el comportamiento del sistema se determina apartir del propio conocimiento.

(2) Existe un principio global que determina el comportamiento, al contrario que en otrosniveles en los que resulta de la conjunción del comportamiento de los diversoscomponentes.

(3) Es radicalmente incompleto, por lo que en general la descripción al nivel delconocimiento no predice completamente el comportamiento del sistema.

(4) El medio no se corresponde con ninguna estructura física de estados.

Como en los demás niveles de la jerarquia el nivel simbólico require poder ser traducidoal nivel inferior. Para trasladar el nivel del conocimiento a un nivel simbólico deben tenerse encuenta las siguientes correspondencias: El agente se transforma en el sistema completo, elcuerpo del agente y sus accciones dan lugar a las acciones simbólicas que se realizan en losperifericos. El conocimiento se corresponde con una estructura simbólica más los mecanismosde inferencia necesarios para gobernarla. El objetivo es simplemente más conocimiento y portanto tendra su propia representación e inferencia. Por último, el principio de racionalidadcorresponde a la estrategia global del proceso de resolución del problema.

Una de las principales ventajas de la jerarquía de niveles es que en cada nivel puedenrealizarse análisis del problema en términos exclusivamente de ese nivel, sólamente esnecesario tener en cuenta las restricciones que el nivel inferior puede imponer. Esta es unacaracterística que se mantiene en el nivel conocimiento, y en ella debe radicar la utilidad delmismo.

6.3. Propuestas de estructuración a nivel simbólico

En este apartado se aglutinan una serie de propuestas encaminadas a estructurar lastareas que realiza un agente desde el punto de vista de su represenatción simbólica, que tienenpor objeto dar solución a algunos problemas derivados de las representaciones uniformes.

Se estudian a continuación las propuestas de estructuración de las tareas que realizan lossistemas expertos desde la perspectiva de la realización de una "clasificación heurística", y lapropuesta de conceptualización del desarrollo de sistemas inteligentes como una agrupación de"tareas genéricas".

6.3.1. Los patrones de inferencia en clasificación heurística.

Clancey [Clancey,1985] propone un método sistemático de describir las tareas querealizan los sistemas expertos, en términos de las formas de conocimiento y los procesos derazonamiento que llevan a cabo, al que llama "Clasificación Heurística". De esta forma, la tareaque realizan los sistemas expertos no es vista como una secuencia arbitraria de implicaciones,sino como una secuencia de operaciones guiada sistemáticamente por las relaciones entre losconceptos. La clasificación heurística es por tanto un método de estructuración del conocimientopara construir modelos de problemas concretos; una clase de problemas, como por ejemplo eldiagnóstico puede llevarse a cabo de distintas maneras según los tipos de modelos disponibles[Clancey,1993]

Las reglas heurísticas que emplean los sistemas expertos se pueden caracterizar entérminos de relaciones primarias entre conceptos, formando esquemas que identifican las piezas

Page 105: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 6. La estructuración de los sistemas inteligentes___________________________________________________________________________

91

de conocimiento que se aplican en la resolución de problemas, en el sentido propuesto porNewell [Newell,1982]. Estos esquemas pueden representarse por grafos en los que los nodoscorresponden a conceptos y los arcos a las relaciones que los ligan, siguiendo la línea propuestapor Quilian con sus redes semánticas, [Quilian,1967], o las representaciones jerárquicas de KL-ONE [Brachman,1979], o mediante lenguajes de representación del conocimiento como KRL[Bobrow,1977]

El proceso de clasificación consiste en identificar algunos elementos o fenómenosdesconocidos como pertenecientes a una jerarquia de clases de objetos conocidos. En larealización de esta tarea pueden identificarse varios patrones de comportamiento, según seindica en la siguiente figura:

ABSTRACCION DE DATOS

CORRESPONDENCIA HEURISTICA

REFINAMIENTO

Datos

Datos abstractos Solucion Abstracta

Solucion

(1) Abstracción de datos. A partir de los datos iniciales la primera tarea consiste en realizaruna abstracción para caracterizar el problema de entrada. Esta abstracción puede ser devarios tipos: (a) Definición abstracta, cuando se resaltan características fundamentalespara la abstracción; (b) Abstracción cualitativa con respecto a los valores consideradosnormales; y (c) Generalización en un tipo más alto dentro de la jerarquía.

(2) Correspondencia heurística en una jerarquía de soluciones predefinidas. Muchos de lossistemas basados en el conocimiento incluyen típicamente reglas heurísticas, en generalsólamente aproximadas, que permiten asociar conceptos de diferentes jerarquías.Observaciones básicas previamente abstraídas en conceptos se relacionanheurísticamente con diferentes estereotipos. Estas reglas suelen ser empíricas yderivadas de la experiencia en la resolución de problemas y presentan la ventaja dereducir el proceso de búsqueda saltandose relaciones intermedias

(3) Refinamiento de la solución dentro de esta jerarquía. Esta tarea corresponde a reglas enlas que se extrae algún elemento de la jerarquía como representante de la misma.

Los sistemas expertos pueden considerarse como programas en los que se puedenidentificar estas mismas fases aunque con una diferencia importante: que relacionan losconceptos mediante inferencias inciertas o imprecisas y que no tienen por qué estar referidas a lamisma jerarquía:

En la práctica hay muchas soluciones diferentes para seleccionar y ordenar lasinferencias que se realizan con estas reglas. Estas estrategias pueden interpretarse de tresmodos:

(1) Búsqueda dirigida por los datos. El sistema experto funciona desde los datos realizandosucesivas abstracciones mientras le sea posible.

(2) Búsqueda dirigida por las hipótesis o las soluciones. El sistema experto trabaja haciaatrás,tratando de incorporar evidencias que apoyen las hipótesis.

Page 106: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 6. La estructuración de los sistemas inteligentes___________________________________________________________________________

92

(3) Búsqueda oportunista. El sistema experto combina las dos estrategias anteriores. Losdatos se abstraen tan pronto como están disponibles pero la búsqueda se focaliza enaquellas hipótesis que parecen más prometedoras.

Una forma genérica de clasificación heurística usada para resolver los problemas dediagnóstico es la "clasificación causal". Los datos en este caso son disfunciones observadas enun componente y las soluciones son los comportamientos anormales que ocasionan estasdisfunciones. En este sentido se puede decir que los diagnósticos "explican" los síntomas. Engeneral puede haber múltiples causas que expliquen un determinado síntoma, por lo que se hacenecesaria una estrategia de inferencia que resuelva el problema eficientemente. Desde estaperspectiva se pone de manifiesto la diferencia existente entre el diagnóstico llevado a cabo endominios como la medicina, y el diagnóstico llevado a cabo en otros dominios como loscircuitos electrónicos. En la tarea de diagnóstico se pueden identificar dos problemas:

(1) Explicación de los síntomas en función del funcionamiento interno de componentes.

(2) Realizar una explicación en términos de factores externos que afectan a la estructura delsistema a diagnosticar. Mientras que en el diagnóstico de sistemas físicos del tipo de loscircuitos electrónicos el primer tipo de diagnóstico es suficiente, en los diagnósticos deotros sistemas, como por ejemplo el cuerpo humano, se hace especial énfasis en lascausas remotas o etiologías del problema.

6.3.2. Tareas genéricas.

La inteligencia artificial ha estado mucho tiempo buscando mecanismos derepresentación del conocimiento con los cuales se pudiera construir cualquier inteligencia. (porejemplo se podría citar el sistema GPS [Newell,1963], o más recientemente el sistema SOAR[Laird,1987]). Sin embargo, incluso si algunos agentes resolutores de ciertas tareas pudieranser construídos gracias a estas representaciones universales del conocimiento, hay problemasque deben ser resueltos a mayores niveles de abstracción antes de construir estos mecanismos.En este sentido la técnica basada en tareas genéricas ayuda a la estructuración del conocimientode manera que el diseño y la construcción de los sistemas pueda abordarse con claridad y elconocimiento se haga explícito a un nivel conceptual más elevado.

Existe un cuerpo de conocimiento común en los sistemas basados en el conocimientoque resuelven el mismo tipo de problemas en diferentes dominios. Por ejemplo, gran parte deltrabajo que realiza un sistema experto de diagnóstico de enfermedades puede ser común al querealiza un sistema experto de diagnóstico de fallos en un circuito electrónico. Sin embargo, estetrabajo es en gran medida diferente cuando se trata de un problema de diseño. Existendiferentes tipos de conocimiento que permiten resover diferentes tipos de problemas.Basándose en esta propiedad se pueden formular tareas genéricas que resulten de utilidad en laconstrucción de los sistemas basados en el conocimiento. En un principio Chandrasekaran[Chandrasekaran,1986] identifica una lista no exhaustiva compuesta por seis de estas tareasgenéricas: (1) clasificación jerárquica (2) establecimiento de hipótesis (3) paso de informacióndirigida por el conocimiento (4) síntesis de objetos mediante selección y refinamiento de planes(5) abstracción de estados (6) ensamblaje abductivo de hipótesis. Usando estas tareas comobloques elementales pueden construirse sistemas expertos de diversos tipos.

En abstracto, una tarea genérica puede caracterizarse de acuerdo a los siguientesaspectos: (1) el tipo de problema, es decir el tipo de entradas y salidas que utiliza la tarea; (2) larepresentación del conocimiento, es decir, las formas en las que se necesita el conocimiento deldominio y como debe estar organizado para realizar la tarea; y (3) la estrategia de inferencia, esdecir, formas en las que se aplica el conocimiento de control necesario para realizar la tarea.

Como ejemplo de tareas genéricas se describen la tarea genérica de "Clasificaciónjerárquica" y la terea genérica de "Establecimiento de hipótesis" que se llevan a cabo en elsistema experto de diagnóstico médico MDX [Chandrasekaran,1986]

Page 107: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 6. La estructuración de los sistemas inteligentes___________________________________________________________________________

93

El proceso de diagnóstico puede considerarse como un proceso de clasificación, porejemplo, para el caso de un diagnóstico médico, puede considerarse como la tareacorrespondiente a identificar a un paciente dentro de una jerarquía de enfermedades.

El conocimiento del dominio está por tanto distribuido en la propia organizaciónjerárquica, el conocimiento de control se corresponde al proceso de recorrer la jerarquía desdelos conceptos más generales hasta conceptos más específicos. Cada elemento de la jerarquíaconsiste en un cuerpo de conocimiento que permite determinar si el paciente corresponde o no aeste tipo de efección. En este sentido cada uno de estos elementos de la jerarquía se denominaun “especialista”.

El proceso general de inferencia se denomina “establecer y refinar”. Cada especialista dela jerarquía trata de establecer o rechazar el hecho de que el paciente pertenece al tipo depacientes con los que trata, si lo consigue, anota el conjunto de síntomas que es capaz deexplicar y procede a refinar la clasificación invocando a sus sucesores en la jerarquía para queintenten establecerse. El proceso continúa hasta que todos los síntomas pueden ser cubiertos.

Otra tarea genérica a la que se ha hecho referencia anteriormente es el establecimiento dehipótesis. Siguiendo con el ejemplo médico, cuando un especialista establece que ciertossíntomas de un paciente pertenecen a su campo de conocimiento, está realizando una tareadistinta de la tarea clasificatoria. Esta tarea consiste en reconocer en qué grado los hechosobservados coinciden con una cierta hipótesis, en el caso del diagnóstico, o bien en el caso deldiseño, si un plan es aplicable en unas determinadas circunstancias. Para realizarla son deaplicación las teorías del razonamiento aproximado.

El enfoque basado en tareas genéricas sugiere una alternativa al enfoque clásico en lossistemas expertos en donde el conocimiento esta disociado de su forma de usarlo. Existe unaíntima conexión entre las tareas, el conocimiento y la estrategia que se resume en la máximafundamental de este enfoque es que "El conocimiento y su uso no pueden separarse" .

Esto conlleva la existencia de distintos tipos de representaciones del conocimiento paradistintos tipos de problemas. Para cada tarea genérica, la forma de organización delconocimiento requiere una representación apropiada del dominio que junto con elprocedimiento de inferencias propio de la tarea constituye el agente resolutor de problemas.

La idea de tarea genérica [Chandrasekaran,1992b], evoluciona paralelamente aldesarrollo de las arquitecturas cognitivas*. Enlazando con la idea de agente propuesta porNewell, una inteligencia capaz de resolver un problema desde un punto de vista funcional, seconcibe como una colección de estrategias para el procesamiento de la información. Laconstrucción de un sistema basado en el conocimiento capaz de resolver una tarea compleja seconsigue mediante la agrupación de un conjunto de estas estrategias, cada una de los cuales asu vez implica la realización de otras (sub-)tareas.

Las tareas genéricas se agrupan formando estructuras de tareas [Chandrasekaran,1992]que definen una jerárquica del conocimiento necesario para realizar una tarea compleja. Lajerarquía de tareas puede definirse a distintos niveles de generalidad según sea necesario. Pararealizar cada una de estas tareas deben identificarse asimismo uno o varios métodos oelementos computaciones, y el conocimiento de control correspondiente. Por tanto, paraestablecer una estructura de tareas es necesario: (1) identificación de las entradas y salidas quedeterminan cada tarea; (2) identificación de los métodos y de las subtareas y (3) identificacióndel conocimiento necesario para implementar las subtareas, secuencialización de las mismas yselección de los método más adecuados (conocimiento de control necesario para realizar la tareaglobal).

* Véase el siguiente epígrafe dentro de este capítulo.

Page 108: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 6. La estructuración de los sistemas inteligentes___________________________________________________________________________

94

La siguiente figura muestra la estructura de tareas que determinan el problema deldiagnóstico. En este diagrama, los elementos redondeados representan tareas y losrectangulares representan los métodos:

Explicaciones bayesianas

Composición abductiva

Cubrir y diferenciar

Generar hipótesis

plausibles

Generación bayesiana Clasificación

Simulación

RefinarEstablecer

Diagnóstico

Seleccionar hipótesis

Comprobación de hipótesis

Métodos abductivos

Métodos axiomáticos

Esta descomposición del problema en una estructura de tareas facilita la modelizacióndel conocimiento en los siguientes aspectos:

(1) Asocia las tareas con los métodos para realizarlas, y el conocimiento necesario para usardichos métodos, permitiendo así una comparación entre estos.

(2) Dado que los métodos se caracterizan por el conocimiento que necesitan las tareaspueden realizarse atendiendo al conocimiento disponible en cada dominio concreto.

(3) No restringen el problema a un solo método general de resolución sino que presentanun abanico de métodos, que se adaptan a cada problema concreto.

(4) La estructura de tareas hace especial énfasis en que varios métodos pueden combinarsepara la resolución de un problema, permitiendo la cooperación de métodos basados enconocimiento cualitativo, cuantitativo, métodos algorítmicos y heurísticos, etc.

6.4. Las arquitecturas cognitivas

A continuación se estudian las diversas propuestas metodológicas que han evolucionadoa partir de la idea de "Nivel del Conocimiento". Estas metodologías constituyen unasistematización del proceso de análisis y formulación de los sistemas inteligentes que hacenhincapié en los aspectos cognitivos. En algunos casos, estas metodologías han dado lugar aldesarrollo de herramientas software que sirven de soporte para el desarollo de arquitecturascognitivas.

6.4.1. El sistema PROTÉGÉ

Uno de los problemas detectados en la construcción de sistemas expertos radica en elproceso de adquisición del conocimiento. Este punto supone un cuello de botella en muchos

Page 109: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 6. La estructuración de los sistemas inteligentes___________________________________________________________________________

95

sistemas dada la dificultad que supone la transmisión de los conocimientos del experto alsistema. Varios son los factores que intervienen en este proceso:

(1) En general, los expertos no son capaces de exponer sus acciones en la forma sistemáticaque requiere el sistema experto. En muchos casos el propio experto no es consciente delconocimiento que utiliza para resolver un problema o no es capaz de expresarlo en losformalismos de representación requeridos. Además, el experto tiende a proporcionarinformación incompleta debido a que muchas de las piezas del conocimiento queintervienen en el problema las considera obvias o de "sentido común".

(2) El ingeniero del conocimiento, o persona que intenta "extraer" el conocimiento delexperto para incorporarlo al sistema, no suele ser en general, conocedor del dominio, ypor tanto puede cometer errores al interpretar las instrucciones del experto. Por ejemplo,en muchos casos estos errores de interpretación se producen entre lo que el expertoconsidera causas y efectos y su correspondiente representación mediante unaimplicación material mediante una regla.

(3) Los sistemas expertos tipo MYCIN que se basan en razonamientos aproximadosrequieren una estimación de la probabilidad, posibilidad, verosimilitud, o credibilidadde las distintas reglas y eventos que aplican. Se ha demostrado en la práctica que losexpertos fallan estrepitosamente al asignar empíricamente estos valores, ya que enmuchos casos llevan al sistema a establecer conclusiones distintas a las que ellosmismos establecen.

(4) El mantenimiento de la coherencia, consistencia y adecuación de las base deconocimientos es una tarea complicada. La incorporación de nuevo conocimiento en unabase de conocimientos requiere en muchos casos la revisión de otras piezas deconocimiento que se ven afectadas, para ello es fundamental conocer el papel que lasdistintas piezas de conocimiento juegan en la resolución del problema.

Algunas de las arquitecturas que se han desarrollado para modelizar el comportamientode los agentes inteligentes surgen como respuesta al problema de la adquisición delconocimiento. En esta línea se han propuesto sistemas como MOLE [Eshelman,1987] o SALT[Marcus,1989] que incorporan una concha de sistemas expertos junto con una herramientaespecializada para la adquisición autónoma del conocimiento necesario para construir la base deconocimientos del sistema. En ambos casos el sistema experto final realiza una tarea concreta:en el caso de MOLE un diagnóstico basado en una variante del método de clasificaciónheurística denominado "cubrir y diferenciar", y en el caso de SALT, un diseño rutinario basadoen la asignación de valores a los parámetros del sistema evaluando las restricciones aplicables alos mismos según el método denominado "proponer y revisar". Estas tareas son independientesdel dominio, y por tanto se podría decir estos sistemas realizan ciertas tareas genéricas mediantela adaptación y especialización de ciertos métodos. Esta distinción entre tareas (problemas quedeben ser resueltos) y métodos (estrategias usadas en la resolución) coincide por tanto con elenfoque porpuesto por Chandrasekaran [Chandrasekaran,1992].

Un paso más en la evolución de este tipo de sistemas que realizan una tarea fijaadaptándola a distintos dominios y configurando el método de resolución, es el sistemaPROTÉGÉ [Musen,1989]. Esta sistema evoluciona a partir de OPAL, una herramienta deadquisición de conocimiento para el "shell" del sistema experto ONCOCIN. La tarea genéricaque se aborda consiste en la planificación del tratamiento del cancer, mediante la organizaciónde una secuencia de sesiones con diferentes dosis de quimioterapia. OPAL interactúa con unexperto para construir los planes específicos de actuación en cada caso concreto, generando lascorespondientes reglas para el sistema ONCOCIN. La labor llevada a cabo por OPAL es laadquisición de conocimiento, sin embargo, al analizar detenidamente el sistema se comprendeque la identificación de la propia tarea a realizar constituye otra labor de análisis previa y queuna vez construída una herramienta como OPAL para la adquisición del conocimiento quepuede ser usado por una tarea específica, el universo de discurso de los expertos se ve reducidoa los términos impuestos por esta tarea. Para solucionar este problema se construye el entorno

Page 110: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 6. La estructuración de los sistemas inteligentes___________________________________________________________________________

96

PROTÉGÉ, un sistema que permite construir diferentes modelos de tareas para la solución deproblemas de planificación basados en esquemas de planes ("skeletal-plan"). En el entornoPROTÉGÉ se define el esquema de plan correspondiente a la tarea genérica (de planificación)que se desea resolver, mediante la definición de: (1) las entidades del dominio que intervienenen el plan; (2) las acciones que pueden modificar la aplicación de las entidades del plan; y (3)los datos que debe proporcionar el usuario para determinar las acciones a realizar. A partir deesta definición es capaz de generar la correspondiente herramienta denominada p-OPAL para laadquisición del conocimiento de los planes específicos correspondientes a este esquema deplan. Finalmente la base de conocimiento generada por la herramienta p-OPAL puede ejecutarsemediante un sistema concha denominado e-ONCOCIN.

En el proceso de adquisición del conocimiento en el esquema PROTÉGÉ se identificanclaramente tres etapas: (1) El ingeniero del conocimiento, junto con los expertos del dominiodeterminan la tarea a realizar desde un punto de vista conceptual mediante la identificación delos conceptos y relaciones que intervienen en el esquema del plan; (2) Los expertos del dominiodesarrollan o refinan el esquema de plan para obtener aplicaciones específicas; (3) El usuarioconsulta el sistema experto proporcionando los datos concretos del caso que desea resolver.Este enfoque es especialmente adecuado cuando se necesita resolver distintos problemas deplanificación sobre un mismo deominio.

6.4.2. La metodología KADS.

La metodología que clasicamente se seguía para de desarrollo de sistemas expertos deprimera generación consistía en el prototipado rápido. Motivado en muchos casos por ladificultad de realizar unas especificaciones precisas, los sistemas expertos se desarrollan enmuchos casos con una metodología de prueba y refinamiento. Se genera un prototipo, secontrasta con el experto y se modifica para cubrir los nuevos aspectos que se han puesto demanifiesto tras la operación del mismo.

Varios autores han puesto de manifiesto que esta metodología es insuficiente cuando seplantea el desarrollo de aplicaciones de cierta complejidad, que implican la incorporación deconocimiento proveniente de distintas fuentes que deben cooperar de forma adecuada, o en losque se requiere una autonomía de funcionamiento de manera que sean los propios expertos yusuarios quienes hagan explícito su conocimiento en el sistema, pudiendo revisarlo cuando loestimen necesario.

Breuker, Wielinga y sus colaboradores [Wielinga,1992] proponen una metodologíapara la construcción de sistemas basados en el conocimiento que incorpore a la inteligenciaartificial una herramienta similar a las metodologías de análisis y construcción de los sistemasde información [deMarco,1978]. En este sentido emplean el término "ingeniería delconocimiento" acuñado en inteligencia artificial [Feigenbaum,1979], en un sentido mucho másamplio, como una extrapolación del concepto de "ingeniería del software" a los sistemasbasados en el conocimiento.

Sin embargo, los problemas que aborda la inteligencia artificial suelen ser máscomplejos y menos estructurados que en el caso de los sistemas de información, las solucionesque aporta la inteligencia artificial consisten en la construcción de modelos computacionales delcomportamiento de los agentes encargados de resolverlos, y para ello es necesario realizar unproceso de adquisición de conocimiento. Todos estas características específicas de los sistemasinteligentes han puesto de manifiesto la necesidad de una metodología de análisis propia.

El desarrollo de una aplicación es en gran medida un problema de diseño, en el que serequiere la elección de las técnicas adecuadas para satisfacer los objetivos marcados. Desde estaperspectiva KADS propone la construcción de una variedad de modelos que ayudan a percibirel sistema desde distintos puntos de vista reduciendo así su complejidad. Estos modelos son:

Page 111: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 6. La estructuración de los sistemas inteligentes___________________________________________________________________________

97

(1) Modelo operacional. Propone un análisis de los aspectos sociales y organizativos delsistema en el entorno. Descripción de las funciones, las tareas, los cuellos de botellaque existen en la organización donde se pretende establecer el sistema.

(2) Modelo de aplicación. Definición del problema y de la función que el sistema deberesolver dentro de la organización. Asimismo, deben especificarse las restriccciones quedeban tenerse en cuanta en su realización.

(3) Modelo de tarea. Especificación de cómo van a ser realizadas las funciones marcadas enel modelo de aplicación mediante el conjunto de tareas que el sistema es capaz derealizar. En el contenido del modelo de tarea se distinguen tres fases:

(a) Descomposición de tareas. Cada tarea se describe mediante las entradas y losobjetivos que con ella se pretenden alcanzar, descomponiéndolas de formajerárquica;

(b) Distribución de tareas; es decir asignación de las distintas tareas a los agentes quelas realizan que pueden ser sistemas informáticos o agentes humanos.

(c) Entorno en el que se realizan las tareas, es decir restricciones que deben tenerse encuenta la interacción entre los agentes que componen el sistema y los agenteshumanos externos.

(5) Modelo de conocimiento experto. Especificación de la pericia necesaria para realizar lastareas identificadas para la resolución del problema desde la perspectiva delcomportamiento que el sistema debe mostrar y del conocimiento implicado en el mismo,con independencia de los detalles de implementación. Es en definitiva una descripcióndel sistema al nivel del conocimiento según la propuesta de Newell [Newell,1982]. Estaes una de las características diferenciadoras de KADS frente a las metodologías deingeniería del software de los sistemas de información.

(6) Modelo conceptual. Resulta de la unión del modelo de conocimiento experto y elmodelo de cooperación. Contiene la descripción abstracta de los objetos y lasoperaciones que con ellos se realizan en términos del mundo real, por tanto es elvehículo de comunicación entre el ingeniero del conocimiento y el experto.

(7) Modelo de diseño. Descripción de las técnicas computacionales y la representación delconocimiento con las que se implementa el modelo conceptual. Para finalmenteseleccionar las representación y las herramientas más adecuadas para resolver elproblema el ingeniero del conocimiento debe tener en cuenta aspectos adicionales comola velocidad de ejecución requerida, las limitaciones de hardware y software existentes,etc. Es en definitiva una descripción del sistema al nivel simbólico según la propuestade Newell [Newell,1982].

El modelo de conocimiento experto en KADS hace una clara distinción entre elconocimiento del dominio y el conocimiento de control, diferenciando en este último en trestipos. Cada uno de estos tipos de conocimiento puede verse como diferentes niveles en laconceptualización del problema con sus correspondeintes (meta-)conceptos y (meta-)relaciones:

(1) Conocimiento del dominio: Incluye: (a) conceptos, que son los objetos fundamentalesy se identifican con un nombre; (b) propiedades, definidas por el nombre y los posiblesvalores asociados a esta propiedad; (c) relaciones entre conceptos. En general seránrelaciones de diferentes tipos que se establecen sobre los conceptos del dominio, comoes-un, es-parte-de, etc; (d) relaciones entre propiedades, que pueden ser causales otemporales; y (e) estructuras, que son objetos complejos formados a partir de otrosobjetos y relaciones. Tambien podrían considerarse en caso necesario otras primitivascomo fórmulas matemáticas, etc. La declaración de todas estas primitivas constituye loque se denomina el esquema del dominio.

Page 112: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 6. La estructuración de los sistemas inteligentes___________________________________________________________________________

98

(2) Conocimiento de inferencia: En este nivel se describen las inferencias que se deseanrealizar en sobre el conocimiento del dominio, mediante su nombre, sus entradas ysalidas y las referencias necesarias al conocimiento del dominio. Las primitivas deinferencia son: (a) Fuentes de conocimiento, que representan los pasos elementales deinferencia; (b) Meta-clases, cada fuente de conocimiento opera sobre los elementos deldominio y produce nuevos elementos, que son descritos mediante estas meta-clases; y(c) Visiones del dominio, que especifican como puede usar el conocimiento deldominio, una fuente de conocimiento.

(3) Conocimiento de tarea: Incluye conocimiento sobre como se pueden combinar lasdistintas fuentes de conocimiento, es decir, las piezas elementales de conocimiento decontrol que se caracterizaron anteriormente, para conseguir los objetivos fijados. Seutilizan las siguientes construcciones: (a) tarea, es una acción que conduce a laconsecución de un objetivo; (b) términos de control, son etiquetas correspondientes alos términos usados en la resolución del problema; y (c) estructuras de tarea,especificación mediante un lenguaje estructurado de la descomposición de tareas ensubtareas y de las dependencias de control entre estas subtareas en términos de las meta-clases o de los propios términos de control.

(4) Conocimiento de estrategia: A este nivel se determinan los objetivos y subobjetivos queson relevantes para la resolución del problema. (El modo de alcanzar estos objetivos sedetermina en el nivel de tarea). Fundamentalmente este nivel incorpora al sistema elconocimiento relativo a la planificación dinámica de la ejecución de las tareas, es decir,las estrategias a seguir en caso de conflicto o cuando cierto conocimiento no estedisponible, etc.

Una de las principales ventajas de la utilización de una metodología es que facilita lareutilización del software contruido para una aplicación en otra. Para ello KADS establece unatipología de las piezas elementales de inferencia (fuentes de conocimiento), basada en lasprimitivas de KL-ONE [Brachman,1979], tales como instanciación, clasificación,generalización, abstracción, especificación, selección, asignación, comparación,descomposición, etc.; así como unos modelos de interpretación consistentes en esquemas demodelos de conocimiento experto en los que se abstrae el conocimiento del dominio,obteniendo así esquemas para realizar una determinada tarea (genérica) con independencia deldominio, de manera que el ingeniero del conocimiento pueda adaptar estos modelos a laresolución de problemas concretos.*

6.4.3. La metodología KREST

Uno de los factores determinantes de la necesidad de establecer una metodología en laconstrucción de los sistemas inteligentes es el mantenimiento, reutilización y configuración delos programas. La propuesta de Luc Steels [Steels,1992] aborda esta cuestión desde laperspectiva ambiciosa, y en cierta forma utópica, de que estas labores puedan ser llevadas acabo tanto por los ingenieros del conocimiento como por los propios usuarios finales de lossistemas inteligentes, empleando un nivel de abstracción tal que se evite la necesidad deprogramar, en el sentido clásico del término.

A este nivel de abstracción se le denomina Nivel del Conocimiento, por analogía con eltérmino empleado por Newell [Newell,1982]. En este nivel deben definirse los componentesdel sistema conformados a partir de unos elementos primitivos de manera que puedan serfácilmente modificables y reutilizables. El nivel en el que se encuentran los programas sedenomina Nivel Simbólico y puede tener dos formas: el Nivel de Código, que hace referencia alos ficheros de texto que describen los objetos y los procesos que se manejan y el Nivel deEjecución que se refiere a los programas preparados para su ejecución.

* Estos modelos de interpretación corresponden a esquemas como el de clasificación heurística propuesto porClancey [Clancey,1985] o a la idea de tareas genéricas de Chandrasekaran [Chandrasekaran,1983].

Page 113: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 6. La estructuración de los sistemas inteligentes___________________________________________________________________________

99

Steels propone una metodología de desarrollo de aplicaciones que incluye los nivelesmencionados anteriormente y especialmente orientada al análisis, diseño, adquisición delconocimiento y ejecución de sistemas inteligentes; para la que desarrolla una herramienta a laque denomina KREST, similar a las herramientas CASE del tipo “Workbench” o "Banco deTrabajo" usadas en la ingeniería del software convencional (no inteligente).

Una aplicación puede ser descrita al Nivel del Conocimiento desde tres perspectivasdiferentes correspondientes a los modelos, las tareas y los métodos.

El término modelo se usa en sentido amplio para referirse a una abstracción de ciertosaspectos de la realidad. En un modelo deben identificarse los objetos que intervienen, susrelaciones, sus propiedades y atributos, las relaciones entre las propiedades de los objetos, etc.Los modelos pueden ser modelos del dominio, si son válidos para cualquier aplicación que serealice en el dominio, o modelos del caso, si sólo son válidos para la solución de un casoconcreto que la aplicación intenta resolver.

La tarea define qué es lo que se quiere realizar. La realización de una tarea implicageneralmente el empleo y la modificación de uno o varios modelos. Los modelos que una tareautiliza se denominan modelos origen y los que modifica se denominan modelos destino. Unatarea puede producir entradas o salidas a partir del usuario mediante un “interface”. Todos estasrelaciones se muestran gráficamente mediante los diagramas de dependencia de modelos, querepresentan el flujo de datos entre los modelos y las tareas:

Tarea1

Interface

Tarea2

Modelo

Modelo

Modelo

1

2

3

Las tareas se estructuran en subtareas estableciéndose una jerarquía que representa ladescomposición del problema. La granularidad con la que se haga esta descomposición detareas en subtareas redundará en la mayor o menor reutilización que se desee conseguir:

Tarea1

Tarea3Tarea2Tarea4

Tarea5 Tarea6 Tarea7 Tarea8Tarea9

Desde el punto de vista del problema se pueden distinguir dos tipos de tareas: las tareasde adquisición del dominio, responsables de la adquisición de modelos del dominio; y lastareas de aplicación, responsables de desarrrollar modelos del caso y de las entradas y salidas

Page 114: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 6. La estructuración de los sistemas inteligentes___________________________________________________________________________

100

del sistema durante el tiempo de ejecución de la aplicación.Desde el punto de vista de laspropias tareas se pueden distinguir entre tareas de descomposición, que son aquellas que sedividen en subtareas y tareas solución que corresponden a las hojas del árbol de la jerarquía detareas

Los métodos especifican como deben realizarse las tareas. Un método es por tanto unalgoritmo que contiene una serie de actividades y un flujo de control de las mismas. Según eltipo de tarea que implemente el método se tendrán métodos de tareas de descomposición ométodos solución. Los métodos solución pueden estar predefinidos en una biblioteca o kit deaplicaciones, o bien deben ser construídos previamente por el usuario. Los aspectos de controlde los métodos de tareas de descomposición se representan mediante diagramas de controlsimilares a autómatas finitos, en los que los estados corresponden con las actividades o tareasque deben realizarse y las etiquetas de sus arcos indican las condiciones que deben satisfacersepreviamente a la realización de cada tarea.

Tarea2 Tarea3Tarea1 Tarea4

Tarea5

Cond1 Cond 2

Cond 3

Cond4Cond5

El trabajo con el “Banco de Trabajo” KREST consiste en mediante operaciones de“cortar-y-pegar”. Los esquemas correspondientes a los diagramas de dependencia de modelos,la jerarquía de tareas y los diagramas de control asociados a los métodos de descomposición detareas.

6.4.4. La metodología KSM*

La metodología de programación basada en Unidades Cognitivas, cuyo entornosoftware de desarrollo se denomina KSM, surge como una evolución natural de la idea de"Programación Cognitiva" [Cuena,1992], [Cuena,1993]. Este término sugiere un nuevoparadigma de programación que se acerca más a la forma de entender un problema que a laforma de computar.

A diferencia de otras propuestas de estructuración, cuyo principal y muchas veces únicoobjetivo es el análisis al nivel más alto posible de un sistema basado en el conocimiento; lapropuesta de la programación cognitiva pretende alcanzar no sólo un análisis estructurado delos sistemas basados en el conocimiento, sino a su vez una descripción en términos cercanos ala forma de entender de los usuarios del sistema que pueda ser traducida automáticamente (esdecir, sin necesidad de programar) en un nivel de programación convencional.

La metodología de estructuración del conocimiento que soporta KSM [Molina,1993]propone la existencia de tres niveles en la descripción de un sistema; el primero corresponde alo que Newell [Newell,1992] llama "Nivel del Conocimiento", y los dos siguientes desdoblanlo que Newell llama "Nivel Simbólico":

* Iniciales correspondientes a "Knowledge Structure Manager", que puede traducirse en "Gestor de la Estructura delConocimiento"

Page 115: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 6. La estructuración de los sistemas inteligentes___________________________________________________________________________

101

(1) Nivel del Conocimiento. Es similar al propuesto por Newell. En él, el sistema se defineen términos cercanos al modo de entender humano, como si se tratase de un serinteligente, en el que lo importante es el conocimiento de que dispone (¿ qué sabe ?) ylas acciones que realiza (¿ qué hace ?)

(2) Nivel Simbólico, en el que el sistema se define en función de los esquemas o módulosde representación del conocimiento disponibles, conformando su estructura medianteUnidades Cognitivas, que se derivan del análisis realizado al Nivel del Conocimiento.

(3) Nivel de Implementación, que constituye el soporte computacional que permite laejecución de las estructuras definidas en el nivel superior.

Nivel del Conocimiento

El elemento central del análisis al Nivel del Conocimiento es el "agente". Un agente esun ente inteligente que dispone de un conocimiento que utiliza para la realización de una o másfunciones. Por tanto, la descripción de un agente se realiza mediante una "Unidad Cognitiva"que caracteriza al agente desde una doble vertiente, como indica el siguiente esquema:

-- Relación entre síntomas y enfermedades-- Tratamiento adecuado a cada enfermedad-- Excepciones al tratamiento general

Funcionalidad

UNIDAD COGNITIVA

-- Diagnosticar

-- Recetar

Conocimientos

(1) Conocimiento. (Lo que el agente sabe.) Cada uno de los temas que un agente sabe sedenominan Areas de Conocimiento. Por ejemplo, un agente sabe cuáles son lossíntomas de una serie de enfermedades, cuales son los tratamientos aplicables en cadacaso, cuáles son las excepciones a estos tratamientos.

(2) Funcionalidad. (Lo que el agente hace.) Cada una de las funciones que hace un agentese denomina Tarea. Siguiendo con el ejemplo anterior, el agente, usando suconocimiento, diagnostica una enfermedad y receta un tratamiento.

A diferencia del planteamiento de Newell, las Unidades Cognitivas que describen a losagentes pueden descomponerse en otras Unidades Cognitivas más sencillas, permitiendo asíuna mejor estructuración del sistema. Desde un punto de vista antropomórfico, estadescomposición equivale a la organización de equipos de trabajo formados por profesionales enlos que cada agente (Unidad Cognitiva) para realizar sus tareas puede disponer como recursobásico de otro u otros agentes (Unidades Cognitivas), a los que ve como otras Areas deConocimiento más a su alcance. Esta dependencia pone de manifiesto la estructura misma detodo conocimiento que se emplea en la resolución del problema.

La estructura que KSM impone a las unidades de conocimiento se caracteriza por dosrelaciones:

(1) Relación es-parte-de: Desde el punto de vista de la relación de inclusión la metodologíaKSM ofrece dos perspectivas diferentes al estructurar una aplicación:

(a) Una perspectiva centrada en el Conocimiento: Para modelizar sus Areas deConocimiento, las Unidades Cognitivas pueden incluir o bien Componentes, o

Page 116: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 6. La estructuración de los sistemas inteligentes___________________________________________________________________________

102

bien otras Unidades Cognitivas. Ésto da origen a una estructuración que puederepresentarse para cada aplicación mediante un grafo de dependenciasconceptuales, parecido al siguiente:

Componente

Area de Conocimiento

Unidad Cognitiva

Area de Conocimiento

Area de Conocimiento

Unidad Cognitiva

Unidad Cognitiva

Area de Conocimiento

Area de Conocimiento

Componente

Area de Conocimiento

Componente

Area de Conocimiento

Componente

(b) Una perspectiva centrada en Tareas: Cada una de las Tareas se llevan a cabomediante Procedimientos, que a su vez pueden requerir la realización de otrasTareas más simples, lo que da origen a un grafo de dependencias de tareas similaral propuesto en la estructuración de las Tareas Genéricas [Chandrasekaran,1993].Las tareas más elementales de esta estructura son las que realizan directamente losComponentes.

TAREA

Procedimiento

TAREA

TAREA TAREA TAREA

TAREA

Procedimiento Procedimiento

(2) Relación es-un : En la metodología KSM se pueden definir clases generales deUnidades Cognitivas que representan conocimientos y funciones abstractas, que sonparticularizadas para cada caso concreto o subproblema. Así por ejemplo, una UnidadCognitiva capaz de resolver un problema de diagnóstico de tipo médico basado en unsistema de reglas heurísticas puede particularizarse para diagnosticar una enfermedad dela sangre, o para diagnósticar una enfermedad del sistema circulatorio, empleando losconjuntos de reglas adecuadas en cada caso. A semejanza de los sistemas deprogramación orientados a objetos, pueden definirse Unidades Cognitivas Genéricasque, al igual que las clases, dan soporte a las distintas Unidades Cognitivas delDominio, que actúan como instancias de estas clases. Los componentes también puedenorganizarse en clases, subclases y objetos

Page 117: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 6. La estructuración de los sistemas inteligentes___________________________________________________________________________

103

U.C. Genérica U.C. Genérica

U.C.U.C.U.C.Componentes(SubClases)

Componente(Clase)

Componentes(Objetos)

Para las Unidades Cognitivas Genéricas se han de definir las Areas de Conocimiento deque disponen y las Tareas que realizan, particularizando en cada Unidad Cognitiva delDominio el contenido de las bases de conocimiento de los componentes , elprocedimiento que se sigue para llevar a cabo cada tarea, y el número exacto decomponentes que hay de cada tipo.

Nivel Simbólico

La Unidad Cognitiva se utiliza a su vez como elemento de estructuración del NivelSimbólico. Dentro de cada Unidad Cognitiva se toman las decisiones necesarias para construirun modelo que se comporte conforme a la descripción al Nivel del Conocimiento. En este nivella Unidad Cognitiva se define en función de los módulos de conocimiento declarativo yprocedural capaces de modelar el conocimiento y el comportamiento del agente. Para ello sedefinen los elementos que aparecen en el siguiente esquema:

Funcionalidad

UNIDAD COGNITIVA

Conocimientos

Area de Conocimientos 1

Area de Conocimientos N

Tarea 1

Tarea M

Método

MétodoUnidad Cognitiva

Componente

Los elementos básicos de estructuración al Nivel Simbólico son:

(1) El vocabulario conceptual. Define la terminología común entre distintas Areas deConocimiento.

En el nivel simbólico el vocabulario conceptual esta formado por conceptos, cada unode los cuales tiene atributos que describen sus características propias. Cada uno de estosatributos a su vez viene caracterizado por facetas tales como el dominio en el que estádefinido, el rango, las unidades en que se mide y el propio valor de la constante quetoma el atributo. El vocabulario conceptual define conceptos fijos o estáticos, quepermanecen constantes durante todo el proceso de razonamiento, y que pueden sercompartidos por varias Unidades Cognitivas de un sistema.

Page 118: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 6. La estructuración de los sistemas inteligentes___________________________________________________________________________

104

Para describir un vocabulario conceptual se usa el lenguaje CONCEL, cuya sintaxisabreviada viene dada por la siguiente gramática EBNF:

Vocabulario → Concepto{ }0∞

Concepto → Cabecera Atributos

Cabecera → CONCEPTO ID_ Concepto ES UN ID_ Concepto .

CONCEPTO ID_ Concepto SUBCLASE DE ID_ Concepto .

Atributos → ATRIBUTOS :

ID_ atributo Dominio[ ] : Valor[ ] Unidades[ ] { }0∞

Dominio → [ Tipo Rango[ ] ]{ Valor , Valor{ }1

∞ }

Valor → Número ID_Valor [ Número , Número ]

Unidades → [ ID_Unidades ]

Tipo → ENTERO BOOLEANO INTERVALO INSTANCIA DE

Rango → RANGO Número - Número

Los conceptos se organizan en clases, subclases, e instancias, estableciendose entre losconceptos un mecanismo de herencia que facilita y hace más compacta su definición.

Una aplicación constará de uno o más vocabularios conceptuales. Cada uno de ellos sedice que define un mundo de conceptos.

(2) Métodos. Definen la estrategia de uso del conocimiento para realizar una tarea. Paradefinir un método es menester determinar:

(a) Los datos, o entradas que requiere.(b) Los resultados, o salidas que proporciona.(c) Los parámetros que controlan su funcionamiento, como por ejemplo el número

máximo de soluciones que debe proporcionar, el tiempo máximo defuncionamiento que puede emplear, etc.

(d) Los estados de control en los que puede terminar su ejecución. Por ejemplo, puedeterminar con un estado correcto si ha conseguido completar satisfactoriamente sutarea, o bien con un estado de error en caso contrario.

El contenido de un método es la descripción de cómo se utilizan las áreas deconocimiento para realizar la tarea. Para ésto debe definirse:

(a) El flujo de información, es decir, cómo se comunican las entradas con las salidas(b) El control de la secuencia de ejecución, es decir, las instrucciones a partir de las

cuales se debe determinar la secuencia de ejecución de los métodos.

Para la definición de los métodos se emplea el lenguaje LINK, cuya sintaxis abreviadaviene dada por la siguiente gramática EBNF:

Page 119: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 6. La estructuración de los sistemas inteligentes___________________________________________________________________________

105

Metodo → Cabecera Argumentos Flujo_ Información Flujo_ Control

Cabecera → METODO ID_ metodo

Argumentos → ARGUMENTOS ENTRADA ID_ entrada{ }0

SALIDA ID_ salida{ }0

Flujo_ Información → FLUJO DE INFORMACION

©(© ID_ uc ©)© ID_ tarea

ENTRADA UNION[ ] ID_ entrada{ }{ }0

SALIDA TODOS[ ] ID_ salida{ }0

1

Flujo_ Control → CONTROL DE FLUJO

Regla{ }1

Regla → Antecedente ©→© Consecuente ©.©

Antecedente → INICIO

©(© ID_ uc ©)© ID_ tarea ES ID_ estado[ ] ©,© ©(© ID_ uc ©)© ID_ tarea ES ID_ estado[ ]{ }

0

Consecuente → FIN ID_ estado[ ]©(© ID_ uc ©)© ID_ tarea MODO ID_ parametro ES valor[ ] ©,© Consecuente{ }0

El flujo de control se establece dinámicamente en función de las reglas. Básicamente,consiste en un mecanismo de inferencia hacia delante que dispara en paralelo* laejecución de los métodos definidos en los consecuentes de aquellas reglas cuyosantecedentes se han verificado previamente. Inicialmente sólo se verifica el Antecedentefijado como INICIO. Este proceso continúa recursivamente hasta alcanzar los puntosde terminación fijados como FINAL, que dan lugar a la terminación del metodo poresta rama con el estado de control que se indica.** Este mecanismo hace posible unanueva vía de indeterminismo en la ejecución de los métodos. Por una parte, variosmétodos pueden ser lanzados simultáneamente para su ejecución, en caso de que severifiquen múltiples antecedentes; por otra, la ejecución de cada uno de estos métodospuede resultar en un conjunto de soluciones posibles.

Para controlar la generación de soluciones por parte de los métodos, se utilizan losmodificadores UNION , que agrupa las entradas de un método en una sóla, yTODOS, que indica que las salidas que proporciona el método deben agruparse en unúnico atributo.

(3) Primitivas de representación. Corresponden a los Componentes de conocimiento queforman parte de las Unidades Cognitivas. Son módulos de software previamenteconstruídos que permiten realizar las tareas encomendadas a los componentes básicosde las Unidades Cognitivas. Cada Componente se define instanciando una Primitiva deRepresentación de manera que se construya un modelo del Area de Conocimiento. Porejemplo, para modelizar el conocimiento sobre síntomas y enfermedades puede usarseun conjunto de reglas si se dispone de una primitiva de representación que sea capaz de

* En la implementación actual el paralelismo se simula mediante una pila de procesos que se ejecutan utilizandoun mecanismo de "backtracking" similar al de PROLOG.** Es responsabilidad del usuario garantizar la terminación de todas las ramas del árbol de estados que se genera.

Page 120: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 6. La estructuración de los sistemas inteligentes___________________________________________________________________________

106

realizar inferencias a partir de las mismas. Existen distintos tipos de primitivas derepresentación:

(a) Primitivas fijas: no permiten su adaptación porque no disponen de parámetros.Corresponden a procesos fijos que se ejecutan de igual forma todas las veces quese empleen, aunque sobre distintos conjuntos de datos de entrada.

(b) Primitivas parametrizables: Permiten su adecuación a cada caso concreto medianteel paso de uno o más parámetros de control.

(c) Primitivas basadas en el conocimiento. Disponen de una base de conocimiento quese debe particularizar en cada uno de los componentes. Corresponden a lo quetradicionalmente se ha denominado sistemas-concha en la terminología de sistemasexpertos, si bien desde una perspectiva más amplia, ya que proporcionan unconjunto de operaciones de inferencia, una base de conocimientos, y facilitadoresde adquisición del conocimiento mediante iconos, plantillas, etc. Por ejemplo, unaprimitiva de representación basada en el conocimiento puede ser un sistema dereglas heurísticas con inferencia hacia atrás, o una base de datos con unprocedimiento de búsqueda rápida, o un sistema de restricciones con sumecanismo de resolución, etc. Cada una de estas primitivas de representación debedisponer de una herramienta de adquisición del conocimiento propia, a través de lacual se particulariza para su utilización en cada uno de los Componentes en que seanecesaria. Esta herramienta de adquisición del conocimiento puede ser un lenguajeformal, un sistema de menús, una interfaz gráfica, etc. El ususario trabaja al nivelsimbólico con esta herramienta que es traducida automáticamente en larepresentación interna necesaria para su ejecución al nivel de implementación.

Nivel de Implementación

La idea central de KSM es la separación de los trabajos que se realizan en los distintosniveles, cada uno de los cuales puede ser realizado por diferentes equipos. Este es el nivel deprogramación más bajo considerado en KSM y a él accede sólamente el equipo que diseña de laaplicación genérica.

En el Nivel de Implementación, sólo es necesario definir mediante programas enlenguaje C o PROLOG las Primitivas de Representación. Estos programas resultan ser como"ladrillos" con los que se construye el sistema. La estructura del sistema en su conjunto, asícomo la secuencia de ejecución de estas piezas, se genera automáticamente a partir de lasespecificaciones realizadas en el nivel simbólico.

La programación de estas piezas elementales requiere a su vez la definición eimplementación de los mecanismos de adquisición del conocimiento en el caso de que se tratede primitivas basadas en el conocimiento.

Desde el punto de vista de la programación al nivel de implementación, cualquierprograma puede ser incorporado como primitiva de KSM siempre que se proporcione unenvoltorio adecuado para la comunicación de las entradas, las salidas, los parámetros y losestados de control, mediante ciertas cláusulas PROLOG. De esta forma, junto a programas depropósito general tales como sistemas expertos, sistemas de satisfacción de restricciones, etc.,pueden definirse programas específicos que implementen de forma genérica las tareas propiasde la aplicación.

La metodología de KSM permite por tanto trabajar a tres niveles en la definición de unsistema basado en el conocimiento. KSM ofrece al usuario una visión de la aplicación comouna "caja blanca" en la que los dos primeros niveles están abiertos, de manera que la definiciónde la aplicación puede realizarse y modificarse sin necesidad de programar. La programación serealiza sólo al nivel de implementación mediante la definición de primitivas reutilizablesadecuadas al tipo de problemas que se es necesario resolver.

Page 121: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 6. La estructuración de los sistemas inteligentes___________________________________________________________________________

107

KSM se usa en la actualidad como herramienta de análisis y desarrollo del sistemabasado en el conocimiento para el control de tráfico TRYS. [Cuena,1994] También se hapropuesto la reformulación mediante KSM del sistema de previsión de avenidas CYRAH[Molina,1993]

6.5. Conclusiones

El denominador común de todas las propuestas de estructuración del conocimiento quese han analizado anteriormente es la necesidad de establecer un nivel de programación superioral que proporcionan los lenguajes formales convencionales en el que se pongan de manifiestoclaramente los aspectos cognitivos relevantes en la construcción de los sistemas artificialmenteinteligentes. Este nuevo nivel de concebir los sistemas suele denominarse nivel delconocimiento.

Desde el punto de vista de las propuestas concretas que se han realizado con el objetivode establecer este nivel del conocimiento como una herramienta práctica que pueda ser utilizadapara el desarrollo de sistemas reales, se pueden establecer las siguientes conclusiones:

(1) La propuesta de Newell es más bien un planteamiento teórico que, como el mismo autorreconoce, no tiene una aplicación práctica directa. Sin embargo, la trascendencia de estapropuesta, un tanto filosófica, de estructuración al nivel del conocimiento queda demanifiesto ya que sirve de base a todas las propuestas metodológicas.

(2) Los planteamientos de Clancey sobre clasificación heurística resultan ser una primeraaproximación al problema de estructuración, si bien están planteados desde unaperspectiva muy estrecha, centrada en la construcción de sistemas expertos. Como se havisto en el capítulo anterior, el conocimiento que se emplea para resolver una tareaingenieril en el campo de la hidrología es multiforme, y no encaja completamente conlos patrones de inferencia de Clancey. Por ejemplo, la utilización de modelos pararesolver problemas no corresponde a ninguna de las tareas de clasificación heurísticaseñaladas.

(3) La propuesta de Chandrasekaran surge como respuesta a la estructuración de lossistemas expertos, con la idea de construir tareas genéricas, que funcionen como"ladrillos" con los que poder construir estos sistemas. Este planteamiento evolucionacon el tiempo dando lugar a una metodología de análisis de sistemas inteligentes basadaen tareas y métodos, que resulta muy atractiva conceptualmente, pero sobre la que nohay ninguna herramienta disponible que permita instrumentalizar la propuesta.

(4) Las diferentes propuestas metodológicas surgen inicialmente como respuesta aproblemas concretos dentro del problema de diseño de sistemas inteligentes. Así, elsistema PROTÉGÉ surge como una herramienta cuyo principal objetivo en un principioes facilitar la adquisición del conocimiento. KREST hace más énfasis en laestructuración de las aplicaciones de manera que resulten reutilizables y configurablespor no-programadores. KADS y KSM resultan ser las propuestas más generales, yaque engloban a las propuestas anteriores.

(5) KSM resulta adecuada a los objetivos que se persiguen con esta tesis, ya que incluyetanto una metodología de análisis y estructuración del conocimiento, como unaherramienta integrada para desarrollo de software. Por otra parte, la estructuración entres niveles (nivel del conocimiento, nivel simbólico y nivel de implementación) resultamás adecuada al desarrollo de sistemas reales que otras propuestas similares.

(6) KSM surge, en parte, como una respuesta a las necesidades de estructuración desistemas inteligentes reales, entre ellos CYRAH y SIRAH, que se aplican ya al campode la hidrología. La experiencia en el desarrollo de estos sistemas ha sido una fuente deinspiración importante en la definición de esta metodología. Esta herencia histórica

Page 122: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 6. La estructuración de los sistemas inteligentes___________________________________________________________________________

108

garantiza su aplicabilidad al campo hidrológico, así como la incorporación de lastécnicas de modelización y algunos de los elementos conceptuales desarrollados enestos sistemas.

Por todo ello, se estima conveniente la utilización tanto de la metodología KSM, comode la herramienta de desarrollo que facilita el desarrollo de una aplicación flexible y configurablepor no-programadores.

Page 123: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

109

CAPÍTULO 7

EL MODELO GENÉRICO DEVALIDACIÓN DE DATOS

7.1. Análisis del problema.

Para proporcionar una solución al problema de validación de datos hidrológicos tal comose ha planteado en el capítulo segundo de esta memoria, se procede, siguiendo la metodologíaKSM, a realizar un estudio del problema al nivel del conocimiento. Es decir, previamente a laformulación de una solución concreta al mismo, se hacen explícitos el conocimiento queinterviene en él y los factores o características del problema a tener en cuenta en la solución.Para ello, deben identificarse claramente las tareas encomendadas al sistema, así como lasfuentes de conocimiento que pueden resultar de utilidad para la solución del mismo.

Siguiendo un planteamiento antropomórfico, se considera que el sistema de validaciónde los datos del sistema hidrológico en tiempo real actúa como un agente inteligente, el cual:

Percibe:Una historia de datos en un periodo y en un espacio que están relacionados.

Sabe:Cuándo y qué conjunto de datos son inconsistentes. Para ello debe conocerlas formas de comportamiento físico que revelan estos datos a distintosniveles y condicionan implícitamente los valores de los datos.

Responde:Con una enumeración del grupo de datos detectados como inconsistentes,explicando por qué lo son y proponiendo hipótesis razonables para asumirvalores de los mismos.

El agente opera según el principio de racionalidad* al usar el conocimiento, es decir,aplica el conocimiento adecuado en cada instante para alcanzar sus objetivos.

La información de que dispone el agente está constituida por:

(1) series de datos temporales de valores medidos por los sensores en distintos puntos delsistema físico.

(2) condiciones generales de tipo medioambiental en el periodo de operación.

* En clara alusión al principio planteado por Newell [Newell,1982] que se ha expuesto en el primer epígrafe delcapítulo anterior.

Page 124: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 7. El Modelo Genérico de validación de datos___________________________________________________________________________

110

Las tareas que debe realizar el agente son:

(1) Identificar las inconsistencias en la información recibida.(2) Identificar los sensores que no están funcionando correctamente, es decir, aquellos cuyo

comportamiento no refleja la magnitud que se supone que están midiendo, y que portanto explican las inconsistencias detectadas.

(3) Inferir valores aproximados correspondientes a los sensores que no funcionan.(4) Justificar o explicar las razones que llevan a las afirmaciones y suposiciones anteriores.

Las piezas básicas de conocimiento que emplea el agente son:

(1) La estructura del sistema físico y organización de los distintos elementos que locomponen

(2) Los procesos que relacionan un subconjunto de datos en su entrada con otrosubconjunto de datos en su salida. Dado un conjunto de datos puede haber variosmodelos que relacionen subconjuntos de datos a distintos niveles de detalle. Puedencoexistir modelos globales que emitan juicios simples y modelos locales que emitanjuicios más técnicos.

(3) Las características y correspondencia entre sí de los fallos que suelen ocurrir en elsistema, a fin de realizar hipótesis razonables para alcanzar los objetivos eficientemente.

La forma de razonar sobre el problema puede ser diseñada de distintas maneras:

(1) Jerárquica. Aplicando una estructura en los modelos de mayor a menor nivel de detalle.(2) Espacial. Para ello es necesario definir una inteligencia que focalice las áreas a investigar

y por lo tanto ahorre exploración.(3) Mixta. Escogiendo lo mejor de ambas estrategias según convenga al problema concreto

que se quiere resolver. Esto implica la formulación de Agentes especializados por áreasy supervisados.

El fallo en los sensores puede ser de distintos tipos:

(1) Fallos permanentes. Correspondientes a disfunciones en el sensor persistentes a lo largodel tiempo, como por ejemplo, cuando la carencia absoluta de datos en un periodo detiempo es sustituida por valores nulos. Este tipo de fallo en los datos generalmentecorresponde a un fallo físico del sensor estando prevista en el sistema SAIH laautodetección de los mismos cuando se trata de una avería en el sistema electrónico delos sensores o en el de transmisión de los datos. Sin embargo, no es descartable lahipótesis de un fallo permanente no detectado por el sistema de autovalidación al nivelfísico del SAIH, debido a roturas de los elementos físicos, que conduciría a la obtenciónde series de datos claramente anormales.

(2) Fallos instantáneos aislados o Errores espurios. Correspondientes a valores claramenteincorrectos, que por cualquier causa se introducen en una serie fundamentalmentecorrecta, es decir, los que se producen cuando un sensor que funciona correctamente deimproviso envía una medida anómala.

(3) Errores sistemáticos. Se producen cuando en todo el periodo de observación el datoobtenido por el sensor es mayor (o menor) que la magnitud real que se está midiendo.Estos fallos no implican necesariamente un mal funcionamiento en los sensores, sinoprobablemente un error en la calibración, que puede ser corregido.

(4) Errores aleatorios. Son los debidos a la sensibilidad misma del sistema o elprocedimiento de medida. Por ejemplo, es evidente que con un limnímetro es imposibledeterminar con absoluta exactitud el caudal de una sección.

Page 125: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 7. El Modelo Genérico de validación de datos___________________________________________________________________________

111

La estrategía de validación del sistema propuesto debe tener en cuenta la posibleaparición de estos tipos de fallo. Desde el punto de vista real, el problema es aún más complejo,ya que los distintos tipos de fallo se superponen unos a otros y además ciertas medidas resultanmás verosímiles o fiables que otras. Aparece así uno de los problemas ya clásicos enInteligencia Artificial, y del que se ha hablado ya en capítulos anteriores: el tratamiento de laimprecisión y la incertidumbre.*

Conviene en este punto exponer claramente la diferencia entre ambos conceptos. Undato es impreciso si su valor no corresponde al valor real, pero existe entre ellos una ciertarelación. Es el caso de los errores sistemáticos y aleatorios. En general, en ingeniería estaimprecisión es acotada estableciendo unos errores porcentuales que se suman o se restan alvalor medido estableciendo así unos intervalos en los que está el dato real. Por otra parte, undato puede ser incierto si no se tiene absoluta confianza de que guarde relación con el datoverdadero.

Normalmente, cuando se trata con valores numéricos establecidos sobre un continuo,ambos conceptos aparecen entrelazados, estableciendose a veces una dualidad entre ellos. Dadauna medida, si se consideran unos márgenes de error excesivamente pequeños, crece laincertidumbre de que el valor real se encuentre en el intervalo definido alrededor del valormedido. Por el contrario, estableciendo unos márgenes de error amplios se tendrá la certeza deencontrar el valor real dentro de este intervalo, pero se habrá pagado un alto precio enimprecisión.

Es evidente que el sistema de validación debe ser capaz de tratar explícita oimplícitamente estos dos conceptos. El criterio seguido en esta tesis es el de proporcionar unentorno abierto, fácilmente asequible y configurable por el propio usuario. Por tanto, se hará untratamiento explícito de estos factores.

7.2. Síntesis de la solución.

Teniendo en cuenta que los procesos involucrados en la hidrología son variopintos, esnecesario definir una arquitectura cognitiva en la que puedan representarse los distintos tipos deconocimiento que intervienen en el problema. La tarea de validación de los datos de los sensoresde un sistema hidrológico puede realizarse en tres fases o etapas, cada una de las cualesincorpora un mayor nivel de detalle:

(1) Validación física. El primer nivel de validación que puede realizarse consiste encomprobar el funcionamiento físico del sistema de adquisición, es decir, si existe unfallo físico en los sensores, en el sistema de transmisión, en el sistema de archivo, etc.Estos fallos provocan por lo general la carencia absoluta de datos. El problema en estecaso no es tanto la detección del error sino su corrección, para lo cual es necesarioinferir los valores correspondientes a partir de los demás valores disponibles. Este nivelde validación es el que está actualmente implementado en el sistema SAIH, existiendoindicadores que permiten detectar si una determinada estación está funcionando o no.

* Existen distintos modelos para el tratamiento de la imprecisión e incertidumbre de los datos. Tradicionalmente,se ha aplicado un modelo probabilístico, como por ejemplo, el que propone el Reglamento Técnico de laOrganización Meteorológica Mundial [OMM,1988] basado en un "nivel de confianza del 95%", para el que seestablece un "intevalo de incertidumbre" que es función de las magnitudes directamente medidas. En las últimasdécadas, el problema de la modelización del Razonamiento Aproximado se ha estudiado ampliamente dentro delmarco de la Inteligencia Artificial, en especial, por sus aplicaciones a la construcción de sistemas expertos.(Véase el capítulo 4) En general, el problema se aborda desde tres enfoques o paradigmas diferentes: los modelosprobabilisticos, los modelos basados en la teoría de la evidencia de Dempster-Shafer, y los modelos basados enlógica y conjuntos difusos. (Como referencia véase por ejemplo [López de Mántaras,1990], en donde se hace unareseña de estos paradigmas.)

Page 126: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 7. El Modelo Genérico de validación de datos___________________________________________________________________________

112

(2) Validación local. Dado que los sensores registran magnitudes físicas correspondientes afenómenos naturales, una de las mayores fuentes de conocimiento que el personal acargo del sistema emplea para verificar la corrección de los datos son las restriccionesque las leyes físicas imponen sobre los valores y la variación en el tiempo de lamagnitud medida. Por ejemplo, lecturas de un pluviómetro o un aforo negativas, oniveles superiores a una cierta cota en un embalse son a priori rechazables. Así mismo,las ecuaciones de continuidad y un cierto conocimiento “de sentido común”, imponenrestricciones a las variaciones bruscas de algunos datos. Por ejemplo, los datos de unaforo no pueden oscilar bruscamente en intervalos de cinco minutos. En resumen, lavalidación local conlleva: (a) validación local instantánea: la que se realiza atendiendosólamente a los valores instantáneos de los datos, es decir, comprobación de rangos; y(b) validación local temporal: la que se realiza atendiendo al conjunto de valores medidosen un intervalo de tiempo por un mismo sensor.

(3) Validación global. El último nivel de validación de datos se obtiene a partir delconocimiento sobre el funcionamiento del sistema en su conjunto. Evidentemente, si seconoce cuál es el comportamiento real del sistema, los valores reales se podríancontrastar con los medidos por los sensores. El problema se plantea debido a queprecisamente este conocimiento viene dado por los datos registrados por los propiossensores. Sin embargo, no todas las combinaciones de valores resultan admisibles, yaque el funcionamiento del sistema físico se rige por ciertas leyes naturales. En caso deconflicto entre las medidas realizadas por los sensores y su interpretación en el mundoreal, pueden establecerse diversas hipótesis de comportamiento basadas en el correctofuncionamiento de un subconjunto de sensores. Este nivel de validación es el que resultamás interesante, dado que permite calibrar con mayor precisión y fiabilidad los datosrecogidos.

En general, los tipos de errores que se ponen de manifiesto durante la validación localcorresponden a errores espurios, facilmente detectables. Por el contrario, la validaciónglobal puede detectar errores sistemáticos de funcionamiento. Por ejemplo, supóngaseuna estación de aforos cuyo sensor registra sistemáticamente un 20% más de caudal queel real; desde el punto de vista local la serie puede ser perfectamente coherente y, sinembargo, al contrastar esta serie con la serie de caudales medidos aguas arriba o aguasabajo por otros aforos se detectará esta discrepancia (suponiendo, claro está, que elconocimiento del tramo indica que no hay otras aportaciones o pérdidas).

Las piezas básicas del conocimiento que se emplea para realizar la validación global delos datos consisten en restricciones o modelos que relacionan unos datos con otros.Cada uno de estos modelos representa el comportamiento de un determinado elementofísico de la red hidrológica o una correspondencia empírica entre los valores que seconsideran factibles como lecturas de los sensores. Estos modelos pueden establecerse adistintos niveles de detalle, debido a varios aspectos:

• Diferentes procesos y conocimientos modelados. Por ejemplo, se pueden establecerrelaciones entre los valores obtenidos por los pluviómetros en las cuencas altas delos ríos y los caudales obtenidos aguas abajo mediante modelos lluvia-escorrentía, opueden establecerse restricciones sobre el volumen medio de agua que un aguacerodescarga en regiones cercanas, o bien entre los caudales detectados en una serie deaforadores y el nivel de agua en un embalse, o entre dos aforadores situados en unmismo cauce, etc.

• Diferente número de sensores involucrados. Algunos modelos pueden considerar undominio más amplio que otros, por ejemplo, algunos modelos pueden abarcar unacuenca completa y otros sólo una parte.

• Diferente intervalo temporal. Cada modelo puede requerir un nivel de detallediferente para la componente temporal, por ejemplo, un modelo que relacione los

Page 127: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 7. El Modelo Genérico de validación de datos___________________________________________________________________________

113

aforos en la cabecera con el nivel del embalse en general se establece sobre unperiodo de tiempo necesariamente mayor que otro que relacione dos estaciones deaforo situadas en un mismo cauce a escasa distancia.

• Diferente precisión y consiguientemente diferente coste computacional. Se puedenestablecer modelos cuantitativos, lo que requiere una gran finura en la calibración delos parámetros del modelo, o bien pueden usarse modelos basados en ecuacionescualitativas, que pueden requerir una menor calidad en el calibrado. Evidentementesiempre que se disponga de recursos es mejor emplear un modelo cuantitativo, peroeso normalmente no será el caso dada la penuria de información para calibración.Además, cuanto más preciso es un modelo suele requerir un mayor tiempo decómputo, lo que impone limitaciones prácticas si se quiere que el sistema funcioneen tiempo real.

Si se supone que los modelos que se establecen sobre el sistema físico son correctos ycompletamente fiables, cuando alguno de los modelos no se satisface, esto debeinterpretarse como un fallo en alguna de las hipótesis que lo sustentan, es decir, en unoo en varios de los valores correspondientes a los sensores que en él intervienen. (Porejemplo, un caso trivial consistiría en dos aforadores situados a escasa distancia en unmismo cauce. El modelo dice que estos caudales deben diferir como máximo en uncierto error admisible; si esto no es así quiere decir que alguno de los aforadores se hallaen mal estado). Por lo general, que un modelo no se verifique no es suficiente paraestablecer cuál es el sensor que se puede considerar responsable de este evento, pero almenos se podrán establecer algunas hipótesis de fallo. (Por ejemplo, la hipótesis de queel aforador de aguas arriba falla, o bien la hipótesis de que falla el de aguas abajo). Pararefinar estas hipótesis será necesario emplear otros modelos que permitan confirmar orechazar las hipótesis anteriormente realizadas.

Por el contrario, cuando un modelo se satisface, esto no implica que todos los datos enél involucrados sean necesariamente correctos. Esto puede ocurrir si (a) Se producenerrores o fallos opuestos que se compensan unos con otros, aunque esta hipótesis esbastante improbable y podría desecharse o (b) El nivel de detalle del modelo no permitegarantizar los datos más allá de una cierta precisión. Evidentemente, para solucionar esteproblema será necesario recurrir a modelos exactos, de los que raramente se dispondrá.Sin embargo, pueden existir otros modelos que sin llegar a ser exactos acoten losvalores previstos con mayor precisión. (Por ejemplo, supóngase un modelo cuantitativocon el que se relacionan los datos de dos pluviómetros situados en dos cuencaslimítrofes, una grande y otra pequeña, con los de una estación de aforos situada aguasabajo tras la confluencia de ambos cauces. Debido a la diferente magnitud de ambascuencas, es posible que el pluviómetro de la cuenca pequeña falle y aún así el modelo severifique. En casos como éste será necesario recurrir a otros modelos que, por ejemplo,relacionen los valores admisibles en ambos pluviómetros).

Por todo lo dicho anteriormente, el proceso de modelización y la estructuración de loscomponentes del sistema físico es una característica importante que debe quedar abiertapara permitir la elección más adecuada en cada caso concreto. Sin embargo, desde elpunto de vista genérico pueden identificarse las siguientes fuentes de conocimiento pararealizar la validación global:

• Coherencia de los datos registrados por distintos pluviómetros siuados en zonaspróximas.

• Coherencia de los datos medidos por las estaciones de aforo y los inferidos a partirde los modelos de transferencia lluvia-caudal y escorrentía.

• Coherencia entre los niveles de embalse y las aportaciones previstas por lospluviómetos de la cuenca receptora.

Page 128: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 7. El Modelo Genérico de validación de datos___________________________________________________________________________

114

7.3. Descripción del Modelo Genérico

En ocasiones se denomina con el término “arquitectura software” o simplemente“arquitectura” tanto a la metodología de construcción de Modelos del Dominio a partir de unModelo Genérico, como a las propias piezas o elementos del Modelo Genérico.* Este términoexpresa la idea de composición de elementos en la construcción de una solución concreta a unproblema de validación de datos. Por ello, en este capítulo dedicado a la descripción del ModeloGenérico se exponen tanto las Primitivas de Representación del conocimiento usadas, como laforma en que deben combinarse para construir Modelos del Dominio.

Desde el punto de vista simbólico, la arquitectura propuesta es un reflejo de loscomponentes cognitivos descritos en el nivel anterior. Se pretende diseñar un entorno de muyalto nivel que permita la construcción de diversos sistemas de validación de datos adaptables ensu estrategia y conocimiento a cada sistema físico concreto, de manera que sea el propioingeniero encargado de realizar esta tarea quien finalmente construya la inteligencia auxiliar quele ayude a realizar su labor, elicitando de esta forma su conocimiento dentro de un marcoflexible que le proporciona un conjunto o librería de herramientas adecuado a este tipo deproblemas.

En la terminología empleada en la propuesta de KSM [Molina,1993] el conjunto deUnidades Cognitivas y Primitivas de Representación del conocimiento que conforman estabiblioteca se denomina Modelo Genérico; diferenciándolo claramente del sistema que seconstruye para resolver un problema concreto utilizando los elementos de esta biblioteca, al quese denomina Modelo del Dominio.

Al máximo nivel de abstracción, el sistema puede verse como un Agente que realiza lavalidación de los datos de una cuenca hidrográfica, planteando para ello una o varias hipótesisdel posible comportamiento de la misma a partir de los valores medidos por los sensoresjustificando cada una de ellas por el funcionamiento correcto de un subconjunto de sensores y elfallo en el resto, planteando alternativas de posibles valores para las magnitudes aforadas porsensores cuyo fallo se supone. Así mismo, este Agente es capaz de explicar sus hipótesis enfunción del conocimiento que le lleva a establecerlas.

La representación de este Agente en el sistema se realiza mediante una UnidadCognitiva, dotada de esta funcionalidad. El conocimiento de que dispone el Agente para realizarsu labor se modela a su vez mediante otras Unidades Cognitivas que incorporan conocimientosobre los componentes del sistema físico (la cuenca), los elementos de medida (los sensores) osobre el propio proceso de validación.

Así mismo, como estrategia de estructuración básica en el Modelo Genérico se proponela descomposición jerárquica de las Unidades Cognitivas de Cuenca en otras UnidadesCognitivas de Cuenca que representan a agentes capaces de realizar la tarea de validación dedatos en subcuencas menores incluídas en la cuenca principal

El siguiente esquema representa la composición del Modelo Genérico de Validación deDatos a partir de las piezas elementales o Unidades Cognitivas Primarias. Los arcos de estegrafo representan la relación "es-parte-de", en el universo de Unidades Cognitivas propuestasen la arquitectura. El número de componentes de cada una de las Unidades Cognitivas no puedefijarse a nivel genérico, ya que depende de cada caso en concreto. Por tanto este esquema sólomuestran los distintos tipos de Unidades Cognitivas que se contemplan en la arquitectura y susrelaciones con el resto.

* El uso del término “arquitectura” proviene de la acepción de “mecano” o conjunto de piezas de un juego deconstrucción infantil. Esta acepción no es muy común en castellano pero si en inglés de donde deriva su uso.Otra acepción con la que indistintamente se emplea este término es la de "metodología" de estructuración de unsistema informático, o composición de las piezas que lo integran.

Page 129: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 7. El Modelo Genérico de validación de datos___________________________________________________________________________

115

U.C. CUENCA

U.C. CUENCA U.C. SENSORU.C. CUENCA

U.C. CUENCAU.C. CUENCA

U.C.MODELOSU.C.COH. GLOBAL

U.C. COH. LOCAL

U.C.COH. GLOBALU.C.COH. GLOBAL

U.C.MODELOSU.C.MODELOS

U.C.MODELOS

Preferencias ModelosSíntesisCoherenciaCorrecciónLectura Conversión

COVALTO

U.C. SENSORU.C. SENSORU.C. SENSORU.C. SENSORU.C. SENSORU.C. SENSOR

Esquema General del Modelo Genérico de Validación de Datos

En el Modelo Genérico que se recoge en el esquema anterior se distinguen las siguientesUnidades Cognitivas, cada una de las cuales realiza una función específica que se expone másadelante:

• Unidades Cognitivas de Cuenca.

• Unidades Cognitivas de SensorU.C. de PluviómetrosU.C. de AforadoresU.C. de Niveles

• Unidades Cognitivas de Coherencia LocalU.C. Coherencia Local de Intensidad de LluviaU.C. Coherencia Local de CaudalesU.C. Coherencia Local de Niveles

• Unidades Cognitivas de Coherencia GlobalU.C. Coherencia Global de LluviasU.C. Coherencia Global de CaudalesU.C. Coherencia Global de Aportaciones

• Unidades Cognitivas de ModelosU.C. Modelos de Areas ReceptorasU.C. Modelos de Tramos de TransporteU.C. Modelos de Embalse

El Modelo Genérico que se propone es aplicable a la Validación de tres tipos desensores: Pluviógrafos (o Pluviómetros en general), Aforadores y sensores de Nivel de agua enlos embalses. Para dar cobertura a estos sensores es posible definir Unidades Cognitivas de

Page 130: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 7. El Modelo Genérico de validación de datos___________________________________________________________________________

116

Sensor específicas para cada tipo de Sensor. De la misma manera pueden definirse en el ModeloGenérico Unidades Cognitivas específicas para cada tipo de conocimiento, como se verá en lossiguientes epígrafes.

Un modelo del Dominio, para realizar la validación de datos de una determinada cuenca,tendrá una estructura similar a la planteada en este Modelo Genérico, fijando claro está, elnúmero unidades de cada tipo según el sistema físico al que se aplique.

Al mínimo nivel de abstracción la arquitectura está basada en un conjunto de UnidadesCognitivas Primarias que proporcionan la funcionalidad necesaria para realizar las tareasencomendadas al sistema mediante la composición de las mismas. Estas Unidades CognitivasPrimarias o Primitivas de Representación* constituyen los "ladrillos" de la arquitectura a los quese debe dar soporte, bien sea mediante "programas" convencionales, o mediante "sistemasexpertos" o, en general, mediante técnicas de programación basadas en representaciones delconocimiento involucrado en la resolución del problema, que son los que actualmente sedenominan "sistemas basados en el conocimiento".

La jerarquía de Primitivas de Representación del conocimiento correspondientes alModelo Genérico que componen la biblioteca son las siguientes:

• Primitivas de Representación de Lectura de Medidas

• Primitivas de Representación de Conversión de Medidas

• Primitivas de Representación de Corrección de Valores y Relleno de Huecos

• Primitivas de Representación de Coherencia de Valores

• Primitivas de Representación de Síntesis de Hipótesis

• Primitivas de Representación de Preferencias entre Hipótesis

• Primitivas de Representación de Modelos

En concreto, de entre las Primitivas de Representación que se plantean en el ModeloGenérico, las primitivas de Lectura y Conversión de Medidas son programas convencionales,que se encargan de leer los datos proporcionados por el SAIH en tiempo real, o bien deobtenerlos a partir de un fichero de episodios, realizando un proceso previo de adaptación a larepresentación interna usada por la arquitectura. Las otras cinco se implementan medianterespectivos sistemas basados en el conocimiento. Como se verá más adelante, laimplementación de estas cinco piezas fundamentales del sistema se ha realizado gracias a ladefinición de un nuevo lenguaje de programación de propósito específico, común a todas ellas,al que se denomina COVALTO; y a la construcción de los cinco "motores de inferencia"específicos para realizar las funciones propias de cada una de ellas.

A continuación se describen en detalle cada una de las Unidades Cognitivasconsideradas en el Modelo Genérico y las Areas de Conocimiento que incluyen. En orden a unamayor claridad expositiva las Primitivas de Representación del conocimiento se describensimultáneamente según aparecen como Areas de Conocimiento en cada una de las UnidadesCognitivas.

* La terminología de KSM ha evolucionado paralelamente al desarrollo de la presente tesis. En la actualidad las"Primitivas de Representación" se denominan también "Unidades Cognitivas Primarias". Este cambio dedenominación pone de relieve un aspecto importante dentro de KSM y es que cualquier Unidad Cognitiva oPrimitiva de Representación puede a su vez ser descompuesta en tareas más simples. Por tanto, el concepto dePrimitiva de Representación como elemento atómico deja paso al concepto de Unidad Cognitiva Primaria comoúltimo elemento que se contempla en la descomposición de un determinado problema. Así mismo, al desaparecerla diferenciación conceptual entre "Primitiva de Representación" y "Unidad Cognitiva" el término "Area deConocimiento" que en las primeras versiones de KSM se emplea para denominar tanto a unas como a otras, quedacomo sinónimo de "Unidad Cognitiva". En general, a lo largo de este documento se emplea la denominaciónoriginalmente empleada en la propuesta de KSM recogida en [Molina,1993]

Page 131: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 7. El Modelo Genérico de validación de datos___________________________________________________________________________

117

Para exponer los procedimientos o métodos que son capaces de realizar las UnidadesCognitivas Genéricas se emplea (una versión ampliada de) el lenguaje LINK [Molina, 1993], enla que se describen las entradas y salidas, así como el flujo de información y de control. Estasdescripciones pueden ser redefinidas o modificadas por el usuario al definir las UnidadesCognitivas del Dominio. Por consiguiente, las que aquí se definen pueden considerarse comoejemplos de las posibilidades de representación que ofrece la arquitectura propuesta.

7.3.1. Unidad Cognitiva de Cuenca

Esta Unidad Cognitiva es la encargada de realizar la validación de los datos a nivelglobal correspondiente al ámbito territorial que abarca la cuenca. Para realizar esta tarea debesaber los sensores que están instalados en la misma, y los elementos hidrológicos que laconforman a nivel simbólico, es decir, las abstracciones de los distintos elementos físicos quecomponen la cuenca, como áreas receptoras de lluvia, tramos de transporte o embalses. Elconocimiento de cada uno de estos elementos se hace explícito mediante los correspondientesmodelos de funcionamiento. Por último, es necesario incorporar el conocimiento específico devalidación que se requiere para realizar las tareas, esto es, las reglas o restricciones que imponenla coherencia entre las intensidades de lluvia registrada en distintos pluviómetros de la cuenca, lacoherencia entre los caudales medidos por las estaciones de aforo y los inferidos a partir de losmodelos, y la coherencia entre los niveles de embalse y las aportaciones previstas por lospluviómetos de la cuenca receptora.

El concepto de cuenca hidrológica responde a una característica física bien definida queresulta de uso común en hidrología. Por ello, los sistemas informáticos basados en elconocimiento aplicados a la hidrología deben ser capaces de capturar este concepto. Así mismo,la forma humana de entender los distintos procesos que se llevan a cabo en una cuenca extensainduce a su descomposición en otras subcuencas de menor tamaño, que se estudian porseparado y finalmente se incorporan a la cuenca principal.

En un enfoque basado en el conocimiento esta estructuración jerárquica natural debeconservarse. Para ello se prevé en el Modelo Genérico que las Unidades Cognitivas de Cuencapuedan incluir otras Unidades Cognitivas de Cuencas. Ahora bien, la estructura concreta de estajerarquía no puede establecerse en el Modelo Genérico sino que deberá establecerse en cadacaso en el Modelo del Dominio, siendo ésta una de las labores de modelización propias delingeniero del conocimiento (o del propio usuario), al igual que lo son la determinación delnúmero de áreas receptoras y tramos de transporte a considerar. Por tanto, la descripción de estaUnidad Cognitiva será necesariamente incompleta. Más adelante, mediante un ejemplo, sepresentará la construcción de un Modelo del Dominio; por el momento sólo se describen lasprimitivas de conocimiento que se pueden utilizar.

En resumen, los componentes de la Unidad Cognitiva de Cuenca son:

(1) Otras Unidades Cognitivas de Cuencas que representan la validación de datos efectuadaen subcuencas y que ofrecen como resultado diversas hipótesis del funcionamiento delas mismas.

(2) Unidades Cognitivas de Sensores (Pluviómetros, Estaciones de Aforo y Niveles) queproporcionan series de valores de ciertas magnitudes hidrológicas aparentementecoherentes, es decir, series de valores de datos completas (sin huecos) en las que no seaprecian "a primera vista" errores espurios. Estas Unidades cognitivas, como se verá enel siguiente epígrafe, obtienen estas series a partir de los datos leídos y del conocimientode que disponen.

(3) Unidades Cognitivas de Modelos de los componentes del sistema hidrológico: AreasReceptoras, Tramos de Transporte y Embalse, que permiten simular el comportamientode los correspondientes componentes físicos.

Page 132: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 7. El Modelo Genérico de validación de datos___________________________________________________________________________

118

(4) Unidades Cognitivas de Coherencia, que proporcionan el conocimiento necesario para ladetección de las inconsistencias entre los datos de los sensores o los inferidos a partir deellos; y permiten, en su caso, gestionar diversas hipótesis de comportamiento delsistema físico basadas en la aceptación de un subconjunto propio del conjunto demedidas realizadas.

El esquema de esta Unidad Cognitiva es el siguiente:

Estimación

Explicar

Coherenciade Caudales

Coherencia de Lluvias

Tramo deTransporte 1

Tramo deTransporte T

Pluv. 1 Pluv. P

AreaReceptora 1

AreaReceptora R

Aforo 1 Aforo A

U.C. CUENCA

Nivel 1 Nivel N

Embalse 1 Embalse E

Subcuenca 1 Subcuenca S

en donde:

Modelo deArea

Recepora

Los modelos de Areas Receptoras representan los procesos de transferencialluvia-caudal que se producen en áreas geográficas homogéneas con respecto asus características hidrológicas, sometidas a una precipitación uniforme en todasu extensión. El modelo supone que existe un único punto de desagüe por el quese obtiene la totalidad de la escorrentía superficial, laminada en función del tiempode concentración u otros parámetros del área.

En principio estas limitaciones no suponen una pérdida de generalidad en elModelo Genérico, ya que pueden construirse cuantas áreas receptoras seannecesarias para simular el comportamiento de áreas geográficas no homogéneas, osobre las que llueve con diferente intensidad, o en las que existen varios puntos dedrenaje. Así mismo en cada Modelo del Dominio puede redefinirse el método quese desee emplear para realizar esta tarea de simulación de forma que se adapte a lascaracterísticas específicas de cada región.

Page 133: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 7. El Modelo Genérico de validación de datos___________________________________________________________________________

119

El concepto de Area Receptora aparece ya en los trabajos anteriores demodelización del conocimiento hidrológico, concretamente en el sistema SIRAHpara predicción de avenidas y por tanto supone un ejemplo de las potencialidadesde reutilización del conocimiento que se persiguen con las nuevas propuestasestructurantes, y especialmente con KSM.

Sin embargo, es cuestión propia del nivel inferior, es decir, del nivel de laimplementación, la definición concreta de las estructuras de datos y programascorrespondientes. Por tanto, cuando en el nivel simbólico se hace referencia alArea de Conocimiento que constituye un Area Receptora, no se supone enprincipio que se trate de un modelo cuantitativo o cualitativo, ni tan siquiera espreciso en este nivel establecer el modelo hidrológico que se emplea. De estaforma, los detalles referentes a la representación interna de los datos en elcomputador quedan ocultos en este nivel, lo que permite una descripción máscercana al modo de entender humano.

Estimación: Calcula la serie correspondiente al caudal que se obtiene en elpunto de desagüe como consecuencia de la intensidad de lluviaregistrada en el Area Receptora. En general este proceso de cálculo será no-determinista, entendiendo por este término el hecho de que tras la aplicaciónde un modelo pueden considerarse múltiples alternativas o hipótesis, todasellas posibles como valor de este caudal. El indeterminismo de los modeloses una cuestión inherente al incompleto conocimiento de que se dispone en lamayor parte de los casos. Si el modelo fuera determinista se obtedría una solaalternativa.

ENTRADA: (intensidad de lluvia,justificacion)

SALIDA : (caudal,justificacion)

traza de area receptora

PARAMETROS: longitud de la serie

numero de alternativas

ESTADOS DE CONTROL: { OK, ERROR }

Modelo deTramo de

Transporte

Los modelos de Tramos de Transporte representan el comportamiento de tramosde la red fluvial en los que pueden suponerse características hidráulicashomogéneas . El modelo supone que existe un único punto de entrada de caudal altramo y un único punto de desagüe. Al igual que en el modelo de AreasReceptoras estas limitaciones no imponen una restricción a la capacidad demodelización, ya que pueden considerarse tantos tramos como sea necesario encaso de que las características hidráulicas sean variables o bien existan variospuntos en los que afluyan diferentes caudales.

Al igual que el de Area Receptora, el concepto de Tramo de Transporte aparece enlos sistemas CYRAH y SIRAH* , si bien en la arquitectura que aquí se propone ydesde el punto de vista simbólico tiene un ámbito más general, ya que, al igualque antes, al hablar del modelo de Tramo de Transporte no se imponenecesariamente que se trate de un modelo cuantitativo o cualitativo, ni ningún tipode modelo hidrológico concreto.

Una de las nuevas características que aporta el Area de Conocimiento de Tramo deTransporte es la utilización del polimorfismo de datos en la entrada. Estepolimorfismo se muestra en dos aspectos:

* Véase el Apéndice B en donde se exponen brevemente los conceptos que manejan estos sistemas y sufuncionamiento.

Page 134: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 7. El Modelo Genérico de validación de datos___________________________________________________________________________

120

(1) En caso de que estén implementados modelos cuantitativos y modeloscualitativos, el sistema puede decidir dinámicamente cuál de ellos debeejecutar según el tipo de datos que reciba a la entrada, siendo esta operacióntransparente al usuario.*

(2) El número de argumentos de la entrada es variable. El Tramo de Transportese caracteriza por tener un solo punto de entrada de agua y otro de salida, sinembargo, es posible que diversas fuentes confluyan en la entrada. Porejemplo en el caso de la confluencia de dos ríos el Tramo de Transporte deaguas abajo recibe aportaciones en un mismo punto procedentes de dosfuentes. En la descripción del Área de Conocimiento en la Unidad Cognitivadel Modelo Genérico, este tipo de polimorfismo se indica mediante trespuntos consecutivos.**

Estimación: Calcula la serie correspondiente al caudal de salida que seobtiene en el punto de desagüe final del tramo como consecuencia del caudalde entrada. En general el proceso de simulación se supone no-determinista,es decir, a partir de un mismo caudal de entrada el modelo puederesponder con varias alternativas posibles para el caudal de salida enfunción del conocimiento de que dispone.***

ENTRADA: ((caudal de entrada, justificacion)...)

SALIDA : (caudal de salida, justificacion)

traza de tramo de transporte

PARAMETROS: longitud de la serie

numero de alternativas

ESTADOS DE CONTROL: { OK, ERROR }

Modelo deEmbalse

Este modelo incorpora el conocimiento sobre volumen y la superficie del embalseen función de la altura de agua, así como el conocimiento sobre los procesos deinfiltración y evaporación que pueden producirse. A efectos de realizar lavalidación de datos con este conocimiento es suficiente, aunque puedenconstruirse modelos más complejos que permitan además realizar otrosprocedimientos, potenciando así la reutilización.

Estimación: Predice el nivel del embalse a partir de las aportaciones y losdesembalses efectuados, teniendo en cuenta las pérdidas naturales porinfiltración y por evaporación. En general se puede suponer que se disponede la suficiente información como para construir modelos de embalsedeterministas.

ENTRADA: ((caudal de entrada, justificacion1),

(caudal de salida, justificacion2) )SALIDA : (nivel de embalse, justificacion)

traza de embalse

PARAMETROS: longitud de la serie

ESTADOS DE CONTROL: { OK, ERROR }

* Opción no implementada actualmente.** En la implementación actual de KSM el lenguaje LINK no permite este tipo de definiciones polimórficas enlas unidades cognitivas del Modelo Genérico. Su implementación sin embargo no plantea problemas ya quepueden definirse a nivel genérico modelos de tramo de transporte con una dos o tres entradas, siendo estosuficiente*** La aplicación de modelos deterministas es por tanto sólo un caso particular en el que sólo se obtiene unarespuesta tras la aplicación del modelo.

Page 135: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 7. El Modelo Genérico de validación de datos___________________________________________________________________________

121

Coherencia de Lluvia

Establece las condiciones que deben satisfacer diversas series de intensidad delluvia de los pluviómetros para que puedan ser consideradas coherentes entre sí,y la fiabilidad que se asigna a priori a cada una de ellas; hallando la intensidad delluvia correspondiente a cada hipótesis aplicable a cada una de las AreasReceptoras. Básicamente se trata de un Área de Conocimiento de control, ya quesu misión en el sistema es la de comparar las medidas de los pluviómetrossituados en una zona geográfica bien definida, de manera que las series de datosque proporcionan sean filtradas adecuadamente para conseguir conjuntos de seriesde datos coherentes.

Validación: Averigua si los valores que proporcionan varias UnidadesCognitivas de Pluviómetros son coherentes entre sí. La entrada a esteprocedimiento consiste en p conjuntos de series de valores de intensidad delluvia en los pluviómetros*, siendo p el número de pluviómetros a validar.Cada uno de estos Pluviómetros tiene asignado en principio una o más seriestemporales de intensidad en pluviometro, debido al indeterminismo delsistema. Cada uno de los p argumentos de este procedimiento es la unión detodas las series de cada pluviómetro. El método de validación, usando elconocimiento de coherencia establecido en su base de conocimientos,produce en su salida una o más hipotesis de lluvia en la zona quecubren los pluviómetros, junto con la justificacion asociada, consistenteen el conjunto de sensores que apoyan dicha hipótesis. En general, estashipótesis no son otra cosa que combinaciones coherentes de intensidad delluvia en cada uno de los pluviómetros.

Por otra parte, si se asigna a cada pluviómetro una medida de su fiabilidad apriori, es posible establecer una medida de confianza de cada una de lasposibles hipotesis de lluvia, en modo similar al enfoque seguido por[deKleer,1991]. Usando el parámetro umbral, puede controlarse el númerode alternativas que se generan en función de la credibilidad de las mismas.

ENTRADA: (UNION intensidad en pluviometro...)

SALIDA : (hipotesis de lluvia,justificacion)

traza de validacion

PARAMETROS: longitud de la serie

umbral

ESTADOS DE CONTROL: { OK, NOK, ERROR }

Estimación: Halla una o más series de intensidad de lluvia en elarea aplicable a una determinada Area Receptora, junto con la justi-ficacion que la sustenta, a partir de cada una de las hipotesis de lluviacoherentes que se han establecido anteriormente. Es decir, cada una de lasposibles salidas de este procedimiento está formada por una serie deintensidad de lluvia para un Area Receptora y las suposiciones defuncionamiento correcto de un subconjunto de Pluviómetros que avalan lahipótesis de que la serie propuesta sea la serie de valores de la intensidad delluvia real sobre el Area Receptora. Téngase en cuenta, por ejemplo, que en elcaso de sólo dos pluviómetros con igual fiabilidad situados en una mismaArea Receptora, si ambos difieren en sus medidas más allá de límitesrazonables, según el conocimiento de coherencia, existen dos suposicionesfactibles a priori, cada una de ellas avalada por el correcto funcionamiento deuno de los pluviómetros y el fallo del otro.

* Corresponden a lo que en el nivel de implementación se denominarán "instancias dinámicas"

Page 136: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 7. El Modelo Genérico de validación de datos___________________________________________________________________________

122

Debe existir un procedimiento de cálculo de la intensidad para cada una de lasAreas Receptoras que se consideren en el Modelo del Dominio (véase elejemplo que se plantea en la sección siguiente).*

ENTRADA: (hipotesis de lluvia,justificacion)

SALIDA : (intensidad de lluvia en el area,justificacion area)

traza de estimacion

PARAMETROS: longitud de la serie

ESTADOS DE CONTROL: { OK, NOK, ERROR }

Explicación: Presenta de forma ordenada las reglas o restricciones por las quese ha deducido que existe un conflicto entre varias series de valores deintensidad de lluvia en los pluviómetros

ENTRADA: (traza de validacion,traza de estimacion)

SALIDA : PARAMETROS: ESTADOS DE CONTROL: { OK, ERROR }

Coherencia de Caudal

Sabe las condiciones que deben satisfacerse para que puedan considerarsecoherentes las series de caudales previstos en un mismo punto por dos o másmétodos. Este Área de Conocimiento establece la tolerancia admisible entre losvalores obtenidos por los sensores de aforo y las predicciones que se obtienen apartir de los datos de los pluviómetros, o de otras estaciones de aforo, aplicandolos modelos de transferencia lluvia-caudal y los modelos de simulación de la redhidrológica.

Básicamente se trata de un Área de Conocimiento de control, que en un puntosingular de la red hidrológica contrasta unas hipótesis con otras transmitiendocomo conclusión las hipótesis de funcionamiento más plausibles.

Estimación: Averigua si las series de valores de caudal para un mismo puntoque proporcionan diferentes áreas de conocimiento son coherentes entre sí,transmitiendo en su salida una o más alternativas que estiman el valor real delcaudal en dicho punto, con sus justificaciones debidamente sintetizadas.

Al igual que en el caso anterior, si se asigna al aforo una medida de sufiabilidad, es posible establecer una medida de confianza de cada una de lasposibles series de caudal. Usando el parámetro umbral, puede controlarseel número de alternativas que se generan en función de la credibilidad de lasmismas.

ENTRADA: ( UNION (caudal previsto,justif),

UNION caudal en aforo )SALIDA : (caudal,justificacion)

traza de estimacion

PARAMETROS: longitud de la serie

umbral

ESTADOS DE CONTROL: { OK, NOK, ERROR }

* Desde el punto de vista del nivel de implementación puede emplearse el método que se estime más oportunopara realizar este cálculo, ya sea una simple media ponderada, la determinación de los polígonos de Voronoi sobrelos que influye cada pluviómetro o la construcción del mapa de isoyetas de la región.

Page 137: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 7. El Modelo Genérico de validación de datos___________________________________________________________________________

123

Explicación: Presenta de forma ordenada las reglas o restricciones por las quese ha deducido que existe un conflicto entre varias series de valores de caudalprevistos .

ENTRADA: traza de estimacion

SALIDA : PARAMETROS: ESTADOS DE CONTROL: { OK, ERROR }

Coherencia de Aportaciones

Es similar al Area de Conocimiento de Coherencia de Caudal, pero con cono-cimiento sobre niveles en vez de caudales.

Estimación: Establece la coherencia entre los niveles previstos por el Area deConocimiento de embalse y los medidos por la Unidad Cognitiva de Nivelcorrespondiente

ENTRADA: ( UNION (nivel previsto,justif), UNION nivel en sensor)

SALIDA : (nivel,justificacion)

traza de estimacion

PARAMETROS: longitud de la serie

umbral

ESTADOS DE CONTROL: { OK, NOK, ERROR }

Explicación: Presenta de forma ordenada las reglas o restricciones por las quese ha deducido que existe un conflicto entre varias series de valores de nivelprevistos .

ENTRADA: traza de estimacion

SALIDA : PARAMETROS: ESTADOS DE CONTROL: { OK, ERROR }

Pluvióm. Aforo Nivel

Unidades Cognitivas de Sensor correspondientes a cada uno de losaparatos de medida que recogen datos de las magnitudeshidrológicas correspondientes. Se estudian en detalle en el siguienteepígrafe.

Estimación

Este procedimiento es el encargado de estimar el comportamiento hidrológico de lacuenca. Este comportamiento vendrá dado por los valores de una o másmagnitudes hidrológicas. Por ejemplo, para determinadas aplicaciones se puedeestimar el comportamiento de una cuenca sólamente mediante el cálculo de la seriede valores de caudal que se obtiene en el punto más bajo de la misma.

Dado el indeterminismo previsto de los modelos, y las diferentes fuentes deconocimiento involucradas, en general el comportamiento de la cuenca no podráser determinado como un único valor, sino que se pueden plantear diversashipótesis factibles de comportamiento según la información recibida de lossensores. Por ejemplo, si el comportamiento del sistema viene definido por laserie de caudal que se obtiene en el punto más bajo, es posible que la serie que seobtenga no sea única, sino que se obtengan varias, cada una de ellas acompañadapor el conjunto de sensores que soportan cada una de estas hipótesis. (Porejemplo, si los valores de caudal medidos por dos estaciones de aforo nocoinciden, o si no coincide el valor medido con el rango de valores previsible apartir de las precipitaciones medidas en los pluviómetros). El procedimiento devalidación de los datos es por tanto inherente a este método.

Page 138: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 7. El Modelo Genérico de validación de datos___________________________________________________________________________

124

El flujo de información y el flujo de control deben definirse específicamente encada una de las Unidades Cognitivas de Cuenca del Modelo del Dominio, como severá más adelante.

La metodología KSM permite que coexistan en un mismo sistema varios de estosmétodos de estimación correspondientes cada uno de ellos a diferentes estrategiasglobales para la realización de la validación de los datos, bien sea mediante laaplicación de diferentes modelos hidrológicos (multimodeling) o combinando dediferentes formas el flujo de información y control.

Explicación

Este método es el encargado de presentar de forma ordenada las inferencias que sehan realizado para determinar las distintas hipótesis funcionamiento del sistemautilizando para ello los procedimientos de explicación necesarios de las áreas deconocimiento involucradas. Su flujo de información y de control deben definirseen el Modelo del Dominio.

7.3.2. Unidad Cognitiva de Sensor

Esta Unidad Cognitiva es la encargada de suministrar la entrada al sistema de validaciónglobal, realizando previamente un proceso de validación local de los datos leídos por cada unode los sensores del sistema físico que constituyen instancias de esta Unidad Cognitiva Genérica.Para ello sabe cómo obtener los datos a partir del fichero o dispositivo de entrada, sabe lacorrespondencia entre estos guarismos y la representación de datos empleada por el sistema devalidación y sabe cómo establecer la coherencia interna de una serie de datos correspondientes ala magnitud física que se esta midiendo (la intensidad de lluvia, el caudal o el nivel según sea elcaso). El esquema de esta Unidad Cognitiva es el siguiente:

Medidas

Conversiónde medidas

Validación local

U.C. SENSOR

Explicación

Coherencia local

en donde:

A.C.Medidas

Este Area de Conocimiento sabe cómo obtener los datos correspondientes a lo quehan registrado o están registrando los sensores a partir del fichero o dispositivo deentrada. La implementación puede realizarse mediante una primitiva fija. Sóloconsta de un método denominado Lectura:

Lectura: Obtiene una serie de datos leida cuyo tamaño vienedeterminado por un PARÁMETRO a partir del dispositivo de entrada. LosESTADOS DE CONTROL resultantes pueden ser: OK, si se ha conseguidoadquirir los datos con normalidad y ERROR, si la operación fracasa.

Page 139: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 7. El Modelo Genérico de validación de datos___________________________________________________________________________

125

ENTRADA: --------------------

SALIDA : serie de datos leida

PARAMETROS: longitud de la serie

ESTADOS DE CONTROL: { OK, ERROR }

A.C.Conversiónde medidas

Se trata de una primitiva fija o parametrizable que sabe cómo interpretar los datosleídos por el sistema de adquisición (SAIH) en términos de las mágnitudes físicasque se están midiendo (la intensidad de lluvia, el caudal o el nivel según sea elcaso), discretizando los valores en la forma que sea necesaria o interpretando losmismos como pertenecientes al espacio cualitativo que corresponda, según larepresentación del conocimiento que finalmente se utilice para implementar otrasUnidades Cognitivas del sistema de validación.

Traducción: Traduce una serie de datos leida cuyo tamaño se determinacon el PARÁMETRO: longitud de la serie, y obtiene una serie dedatos que puede emplearse en el sistema de validación. Los ESTADOS DECONTROL resultantes pueden ser: OK, si se ha conseguido traducir los datoscon normalidad y ERROR, si la operación fracasa.

ENTRADA: serie de datos leida

SALIDA : serie de datos

PARAMETROS: longitud de la serie

ESTADOS DE CONTROL: { OK, ERROR }

U.C.Coherencia

local

Esta Unidad Cognitiva sabe cuándo una serie de datos es en principio correctaatendiendo a criterios locales, es decir, a criterios que sólo tienen en cuenta losdatos leídos por el propio sensor o ciertas variables medioambientales. Engeneral, el tipo de condiciones que se impondrán serán sobre los valores máximosadmisibles para los valores en cada punto, la pendiente máxima en cada punto,acotaciones a los valores máximos resultantes de la integración en un intervalo detiempo, etc. Representa por tanto un primer filtrado de los datos.

Validación: Averigua si los datos de un sensor son internamente coherentes,es decir si verifican las restricciones impuestas por la base de conocimientos.Los ESTADOS DE CONTROL resultantes pueden ser: OK, si los datos soninternamente coherentes; NOK, si no lo son; y ERROR, si la operación fracasa.La salida de este procedimiento es implemente la traza de validacioncorrespondiente a las disfunciones detectadas.

ENTRADA: conjunto de datos

SALIDA : traza de validacion

PARAMETROS: longitud de la serie

ESTADOS DE CONTROL: { OK, NOK, ERROR }

Corrección: Comprueba si se verifican determinadas circunstancias en la seriede datos de entrada, y en caso afirmativo procede a realizar correccionessobre los datos leídos según las restricciones que se imponen en la base deconocimientos. El objetivo del proceso de corrección es realizar un filtradoprevio de los datos de entrada al sistema de validación global. De esta formase eliminan los errores evidentes y se completan de forma razonable las seriesde datos que presentan huecos.

Page 140: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 7. El Modelo Genérico de validación de datos___________________________________________________________________________

126

ENTRADA: conjunto de datos

SALIDA : serie corregida

traza de correccion

PARAMETROS: longitud de la serie

ESTADOS DE CONTROL: { OK, ERROR }

Explicación: Presenta de forma ordenada las restricciones por las que se hadeducido que una determinada serie de datos no es coherente

ENTRADA: traza

SALIDA : PARAMETROS: ESTADOS DE CONTROL: { OK, ERROR }

Validaciónlocal

Realiza la lectura de los datos del sensor y devuelve una serie de valoresnormalizados en el dominio del problema y si es posible internamente coherentes(estado de control OK) .

ENTRADA: -----------------------

SALIDA : serie de valores

(traza de correccion,traza de validación)

PARAMETROS: longitud de la serie

ESTADOS DE CONTROL: { OK, NOK, ERROR }FLUJO DE INFORMACIÓN :

(Medidas) LecturaENTRADA:SALIDA: serie datos leida

(Conversion de medidas) TraduccionENTRADA: serie datos leidaSALIDA: serie datos

(Coherencia Local) ValidacionENTRADA: serie de datosSALIDA: traza de validacion

(Coherencia Local) CorreccionENTRADA: serie de datosSALIDA: traza de correccion serie de valores

FLUJO DE CONTROL :INICIO ->

(Medidas)Lectra(Conversion de medidas) Traduccion(Coherencia Local) Coreccion

(Coherencia Local) Correccion ES OK ->(Coherencia Local) Validacion

(Coherencia Local) Correccion ES ERROR ->FIN ERROR

(Coherencia Local) Validacion ES ERROR ->FIN ERROR

(Coherencia Local) Validacion ES OK ->FIN OK

(Coherencia Local) Validacion ES NOK ->FIN NOK

Explicación

Presenta de forma ordenada las restricciones por las que se ha deducido que unadeterminada serie de datos no es coherente

ENTRADA: conjunto de datos

SALIDA : PARAMETROS: ESTADOS DE CONTROL: { OK, ERROR }

Page 141: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 7. El Modelo Genérico de validación de datos___________________________________________________________________________

127

FLUJO DE INFORMACIÓN : (Coherencia Local) Validacion

ENTRADA: conjunto de datosSALIDA: traza de validacion

(Coherencia Local) CorrecionENTRADA: conjunto de datosSALIDA: serie de valores traza de correccion

(Coherencia Local) ExplicacionENTRADA: (traza de validacion,traza de correccion)SALIDA:

FLUJO DE CONTROL :INICIO ->

(Coherencia Local) Validacion(Coherencia Local) Validacion ES OK ->

FIN OK(Coherencia Local) validar ES NOK ->

(Coherencia Local) ExplicacionFIN OK

(Coherencia Local) validar ES ERROR ->FIN ERROR

Unidades Cognitivas de Pluviómetros, Aforos y Niveles

En el sistema de adquisición de datos del SAIH se han instalado diversos tipos desensores. Los más numerosos son los pluviómetros, aunque también se dispone de nivómetros,aforadores, medidores de nivel en embalse, medidores de nivel en pozos, etc. En esta tesis seatenderá exclusivamente a los pluviómetros, los aforos y los niveles de embalse. De modoanálogo podría sistematizarse un Modelo Genérico que incluyese otro tipo de sensores.

En el Modelo Genérico se definen tres Unidades Cognitivas herederas de la UnidadCognitiva Sensor (subclases de la clase Sensor) para cada uno de estos tipos de sensores. EstasUnidades Cognitivas son estructuralmente iguales a la unidad de la que heredan. Las diferenciasentre ellas radican en las áreas de conocimiento por defecto que emplean unas y otras.

U.C.Nivel

U.C.Aforo

U.C.Pluviom.

U.C. SENSOR

Por ejemplo, la Unidad Cognitiva Pluviómetro tiene la siguiente estructura:

Page 142: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 7. El Modelo Genérico de validación de datos___________________________________________________________________________

128

A.C. Coherencia local de i. lluvia

Medidas dePluviómetro

Conversiónde intensidad de lluvia

Validación local

U.C. PLUVIOMETRO

Explicación

Las Areas de Conocimiento que emplea son particularizaciones de las Areas deConocimiento de la Unidad Cognitiva de Sensor. Al construir el Modelo del Dominio debencrearse instancias de esta Unidad Cognitiva para cada uno de los pluviómetros que existan en laregión de estudio, que heredarán la estructura de áreas de conocimiento de esta UnidadCognitiva Genérica , según el mecanismo tradicional de la herencia (a menos que explícitamentese defina otra cosa). La Unidad Cognitiva Genérica de Pluviómetro sirve para establecer loscriterios generales que se aplican por defecto a la adquisición de datos, y los criterios deconversión y coherencia propios de este tipo de sensores. Igualmente ocurre con las UnidadesCognitivas (Genéicas) de Aforo y de Nivel.

7.3.3. Unidad Cognitiva de Coherencia Local

Como se ha visto en los epígrafes anteriores, la arquitectura propuesta se estructurajerárquica y espacialmente validando primero los datos localmente, a fin de detectar los fallosinstantáneos aislados. Posteriormente se confrontan las series de distintos sensores entre sí,directamente o mediante la aplicación de modelos, y con otros datos ambientales, con lafinalidad de detectar errores sistemáticos y aleatorios.

La validación de los datos en cada una de estas fases se realiza principalmente gracias ala aportación de conocimiento sobre el funcionamiento del sistema hidrológico. En los epígrafesanteriores se establece la estructuración necesaria de este conocimiento. En este y en los dossiguientes epígrafes se describen las Unidades Cognitivas a través de las cuales es posibleincorporar dicho conocimiento al sistema.

Estas Unidades Cognitivas emplean como vía de representación del conocimiento unconjunto de Primitivas de Representación basadas en la computación del lenguaje COVALTO.Este lenguaje está especialmente diseñado para que en él pueda hacerse explícito, en formadeclarativa, el conocimiento empleado en el proceso de validación. Cada una de las UnidadesCognitivas que se construyen a partir de estas Primitivas de Representación emplea unsubconjunto propio de dicho lenguaje.*

Desde el punto de vista de la implementación del lenguaje COVALTO, se emplea elparadigma de la programación orientada a objetos. Como pieza básica de este nivel deimplementación se define un conjunto de clases y objetos, cada uno de los cuales tieneasociados un conjunto de atributos de diversos tipos. La arquitectura propuesta no imponeninguna restricción o estructura al conjunto de objetos, dejando libertad al usuario para definiraquellos que crea más relevantes en el proceso de validación.

* La descripción completa de este lenguaje COVALTO se encuentra en el apéndice A. En este capítulo, buscandouna mayor claridad en la exposición, se ha optado por describir dicho lenguaje imbricándolo en las UnidadesCognitivas a las que da soporte.

Page 143: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 7. El Modelo Genérico de validación de datos___________________________________________________________________________

129

La primera aproximación al problema de validación de datos consiste en establecer unosrangos o dominios en los que la medida es aceptable como válida. Por otra parte, dado que losdatos no están aislados, sino que forman parte de una sucesión temporal que corresponde a unamagnitud física determinada, es de esperar que su comportamiento no sea completamentealeatorio dentro de este dominio, estando relacionado con los valores anteriores y siguientes. Dehecho, en el caso concreto de la hidrología se tienen ejemplos claros de la existencia de este tipode restricciones. Por ejemplo, una serie de valores de caudal en una sección de un cauce, poruna parte estará comprendida entre 0 y un cierto valor máximo, y por otra no podrá crecer deforma muy brusca en un intervalo temporal breve. Restricciones de este tipo, que dicta elsentido común, permiten detectar con facilidad el fallo de un sensor cuyas medidas no lasverifiquen, y también la corrección o recuperación de datos correspondientes a fallosinstantáneos aislados.

Para proporcionar esta funcionalidad al sistema se ha implementado una UnidadCognitiva denominada "Coherencia Local", cuyo esquema es el siguiente:

Corrección

Coherencia

Validación

U.C. COHERENCIA LOCAL

Explicación

Corrección

Esta Unidad Cognitiva proporciona tres métodos de inferencia para realizar las funcionesde Validación, Corrección y Explicación. La Base de Conocimientos de la primitiva deCoherencia Local utiliza las Primitivas de Representación de CORRECCION y COHERENCIAdefinidas en el lenguaje COVALTO.

La sintaxis básica de este lenguaje viene dada por la siguiente gramática de contextolibre, descrita en notación BNF.*

BasedeConocimientos → Corrección[ ] Coherencia[ ] Corrección → CORRECCION: TranfCorrección{ }1

TransfCorrección → Condición ⇒ Asignación{ }1∞

Coherencia → COHERENCIA: { Objeto } Condición

Asignación → Var := Exp ;

Los métodos que proporciona esta primitiva son:

Validación. Este método tiene como entrada un conjunto de objetos, entre los que debeestar incluída la medida realizada por el sensor consistente en una serie de valoresnuméricos. La serie dada comienza en un instante al que se denomina T=0, y continúa

* Como criterio tipográfico, los símbolos terminales de esta gramática aparecen en caracteres en negrilla,mientras que para los no-terminales se emplean caracteres en bastardilla. A fin de evitar la confusión entre lossímbolos del lenguaje y los meta-símbolos de la notación BNF, éstos últimos son de mayor tamaño.

Page 144: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 7. El Modelo Genérico de validación de datos___________________________________________________________________________

130

indefinidamente para valores T=1, T=2, etc. Un parámetro denominado '"Longitud dela serie" controla el intervalo temporal sobre el que se efectua la validación. Laarquitectura propuesta no impone ninguna restricción sobre cuál es realmente esteinstante T=0. Tampoco impone cuál es el intervalo de tiempo real existente entre dosvalores consecutivos, siendo el propio usuario quien establece estos criterios. Noobstante, cuando se usa más de una serie, se recomienda trabajar con intervalostemporales iguales para todas ellas. El método de validación no tiene ninguna salida,salvo la propia traza de funcionamiento, aunque puede finalizar su ejecución en tresestados de control diferentes: "ok", si se verifica cierta condición impuesta sobre losatributos de los objetos de entrada, "nok", si no se verifica dicha condición y "error",si por cualquier circunstancia no puede llevarse a cabo la comprobación.

El método de Validación termina con el estado correspondiente a la evaluación de lacondición que aparece bajo este epígrafe en la base de conocimientos. Esta condición seexpresa mediante una relación entre los valores de los atributos de los objetos en uninstante dado, y debe entenderse cuantificada universalmente, es decir se comprueba quepara todo instante entre un instante inicial en el que la relación tiene sentido y un instantefinal dado por el parámetro "Longitud de la serie" se verifica una expresiónbooleana dada en la base de conocimientos.

Corrección. Se basa en un conjunto de reglas de transformación del tipo "SI ...ENTONCES ...". En el antecedente de estas reglas se impone una condición y en elconsecuente se asignan valores a los atributos de los objetos en caso de que se verifiquedicha condición. El método de Corrección invoca la ejecución de estas reglas, queaparecen en la base de conocimientos bajo el epígrafe correspondiente, procediendo aejecutar las asignaciones o modificaciones de los valores de los atributos de los objetosde entrada, para todos aquellos instantes en los que se verifique la condiciónantecedente.

Las condiciones se suponen cuantificadas existencialmente en el tiempo, es decir, cadauna de las reglas de transformación que aparecen en la base de conocimientos expresaque si existe algún valor de T (uno o más de uno), para el cual se cumpla la condicióndada, debe realizarse la operación u operaciones de asignación definidas en elconsecuente. Por lo general estas operaciones de asignación consistirán en lamodificación del valor de la serie de datos en el mismo instante T.

La aplicación de estas reglas de transformación se realiza secuencialmente siguiendo elorden en que aparecen en la base de conocimientos, es decir, primero se aplica la primerade las reglas para todo instante, a continuación la siguiente para todo instante,y asísucesivamente, realizando cada una de ellas una labor de "filtrado" del objeto de entrada.Gracias a esta versatilidad el usuario puede configurar el sistema de manera que apliqueunas correcciones antes que otras, o bién todas ellas simultáneamente para cada instantesiguiendo un estilo de programación imperativo.

En la Unidad Cognitiva de Coherencia Local pueden incluirse una o más Primitivas deCorrección, cada una de las cuales constará de un conjunto de reglas de transformaciónimperativas, pero cuya secuencia de ejecución puede establecerse dinámicamente enKSM mediante el lenguaje LINK, lo que permite también aplicar diferentes conjuntos demodificaciones en paralelo, obteniendo así múltiples configuraciones que exploren lasdistintas posibilidades que surgen de la aplicación de distintos conjuntos de reglas detransformación o de su aplicación en distinto orden.

La entrada a este método es el conjunto de objetos sobre los que se establecen lascondiciones y la salida son esos mismos objetos con sus atributos corregidosconvenientemente y la traza de las correcciones efectuadas. Análogamente al casoanterior, el intervalo temporal de funcionamiento se establece dinámicamente, entre uncierto valor inicial de T, en el que tienen sentido las condiciones impuestas y un valor

Page 145: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 7. El Modelo Genérico de validación de datos___________________________________________________________________________

131

final dado por el parámero '"Longitud de la serie ". En este caso los estados decontrol son sólo dos, "ok" y "error", dependiendo del éxito o fracaso de lasoperaciones.

Los métodos de validación y corrección son complementarios, y están diseñados parausos bien distintos. La validación responde a la idea de comprobación del estado defuncionamiento del sensor, es decir, su objetivo es determinar si se puede asumir unfuncionamiento correcto a la vista de la serie proporcionada por el sensor y delconocimiento existente sobre la magnitud medida. En general, al nivel de estudio localestas condiciones proporcionan cobertura para la detección de los fallos queanteriormente se han denominado permanentes; o también, a un nivel de estudio másamplio, para la detección de algunos de los errores sistemáticos, como se verá másadelante. Por el contrario, el método de corrección está diseñado para proporcionarcobertura a la detección y corrección de fallos o errores espurios. La arquitecturapropuesta no impone la necesidad de realizar estas operaciones en ningún ordenpreestablecido, siendo el usuario quién decide mediante el código que escribe en ellenguaje LINK si debe efectuarse una corrección previa a la validación o es preferiblevalidar primero, corrigiendo a posteriori aquellos valores que aunque discordantes, noimplican un fallo permanente del sensor. Incluso podrían combinarse sucesivas etapas decorrección y validación si se estimase oportuno.

Alternativas al método de Corrección.

Desde un punto de vista teórico, la solución adoptada en el nivel de implementación en laprimitiva de Corrección no sigue las normas de la programación declarativa, ya que es elpropio usuario el que debe vigilar el orden en que se aplican las reglas.

La solución canónica a este problema sería utilizar una primitiva de corrección basada enun sistema de satisfacción de restricciones. En este caso, la base de conocimientosvendría dada por las condiciones que debe cumplir un objeto (una serie de datos leída)para que pudiera ser considerado correcto. Como motor de inferencias de esta primitivapodría usarse alguno de los algorítmos de satisfacción, como el algoritmo de Waltz, *que a partir de esta base de conocimientos y de una entrada dada propusiera lasmodificaciones mínimas de la entrada que dieran satisfacción a las restricciones de labase.

Esta opción es puramente declarativa, y no exige que el usuario sea consciente del ordenen que se aplican las reglas, siendo por tanto preferible desde el punto de vista de lamayor facilidad de “programación” por parte del propio usuario. Sin embargo, comocontrapartida, puede provocar un gran número de alternativas de solución. Dado que enla declaración de la base de conocimientos de un sistema de restricciones sólo seincluyen las condiciones que ha de cumplir, y no el orden, ni las acciones que debenllevarse a cabo para resolver los conflictos, y dado que por lo general existen múltiplessoluciones para realizar esta tarea; en general el sistema produciría un excesivo númerode soluciones. Este problema es especialmente importante cuando se trabaja con seriesde números reales, o con dominios cualitativos con gran número de elementos.

Otra opción intermedia entre el sistema de restricciones y la solución propuesta, esutilizar un sistema de reglas de producción con encadenamiento hacia delante, en el cualel mecanismo de control no viene establecido por la secuencia en la que se escriben lasreglas, sino que todas ellas se aplican simultáneamente a la entrada, generando un árbolde estimaciones al aplicar en forma paralela los consecuentes de las reglas cuyosantecedentes se satisfacen, volviendo a aplicar nuevamente todo el conjunto de reglas deprodución sobre todas las ramas que se obtienen en el paso anterior, y así

* véase [Nadel,1988], en donde se hace un estudio detallado de muchos de estos métodos de satisfacción derestricciones.

Page 146: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 7. El Modelo Genérico de validación de datos___________________________________________________________________________

132

sucesivamente. Este proceso termina cuando para todas las ramas del árbol deestimaciones, ninguno de los antecedentes de las reglas se verifica.

Esta opción constituye una alternativa interesante a la actual Primitiva de Corrección, yaque descarga al usuario/programador de la tarea de prever la secuencia de aplicación delas reglas de transformación. Sin embargo, este estilo declarativo no exime al usuario decontemplar la posibilidad de que el conjunto de reglas de producción conduzca asecuencias de transformación infinitas, es decir, que alguna de las ramas no terminen.

Debido al pequeño número de reglas de transformación, o de reglas de producción decada una de las bases de conocimiento, no es previsible que estas cuestiones tenganmucha importancia práctica, por lo que se ha optado por la solución más simple desde elpunto de vista de la implementación.

No obstante, la solución adoptada pone de manifiesto la posibilidad de combinardiferentes estilos de programación en la resolución de una misma tarea. Por una parte,mediante el método de Corrección se usa un modelo imperativo para efectuar pequeñastransformaciones en las series de datos leídas, por otra, mediante el método deValidación se comprueba que se cumplen un cierto conjunto de restricciones, y en casode que no sea así, en vez de realizar una estimación local, se recurre al proceso deestimación global que se describe en el siguiente epígrafe.

Explicación. La función de este método es simplemente la presentación ordenada de lasoperaciones realizadas en los métodos anteriores. Su entrada es la traza de operacionesgenerada por estos métodos.*

Unidades Cognitivas de Coherencia Local de Intensidad de Lluvia, de Caudal y de Nivel

En el Modelo Genérico deben construirse tres Unidades Cognitivas de Coherencia Localespecíficas para cada una de de las Unidades Cognitivas de Sensor correspondientes(Pluviómetros, Aforadores y Niveles). Cada una de estas Unidades Cognitivas específicas tienela misma estructura, aunque emplean distintas bases de conocimiento. Las bases deconocimiento que se establecen en el Modelo Genérico sirven como base para la definiciónmediante el tradicional mecanismo de herencia de las bases de conocimiento de las UnidadesCognitivas de Coherencia Local de las respectivas Unidades Cognitivas de Sensor del Modelodel Dominio. Es decir, ya que previsiblemente las reglas aplicables tanto para la Correccióncomo para la Validación serán comunes a todos los sensores de un mismo tipo en toda lacuenca, y a fin de evitar la duplicidad en la definición de las mismas para cada uno de lossensores, pueden definirse en el Modelo Genérico bases de conocimiento por defecto para lasUnidades Cognitivas de Coherencia Local de Intensidad de Lluvia, de Caudales y de Niveles.Estas bases de conocimiento definidas en el Modelo Genérico serán heredadas por lasrespectivas Unidades Cognitivas del Modelo del Dominio a menos que expresamente seredefinan. Este mecanismo de herencia por defecto permite simplificar la definición de las basesde conocimiento sin imponer una homogeneidad en todos los sensores de una misma cuenca, yaque el conocimiento aplicable puede ser revisado localmente si las circunstancias así lo exigen.

Ejemplo:

En una determinada estación de aforo, se sabe que las fluctuaciones de caudal entre dosmediciones consecutivas realizadas con un intervalo de 5 minutos, son siempre menores de 1.5m3/seg, y que el caudal medio horario es menor de 40 m3/seg y mayor que 5 m3/seg. Por otra

* La implementación actual del sistema proporciona como salida del método de explicación simplemente unavisulización de la traza de ejecución. La elaboración de mecanismos más sofisticados de presentación queda másallá del objeto de investigación de esta tesis.

Page 147: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 7. El Modelo Genérico de validación de datos___________________________________________________________________________

133

parte, se sabe que el rango de funcionamiento del sensor varía entre 0 y 60 m3/seg, y que aveces, coincidiendo con situaciones meteorológicas con vientos de levante, el sensor mide porexceso para caudales altos cercanos a 40 m3/seg.* Por tanto, la base de conocimientos de laprimitiva de validación local puede escribirse como sigue:

CORRECCION:(Aforo) caudal [T] < 0

==> (Aforo) caudal [T] := (Aforo) caudal [T-1];(Situacion meteorologica) viento == levante &&(Aforo) caudal [T] > 40 &&(Aforo) caudal [T] < 60 &&

==> (Aforo) caudal [T] := 40 + 0.25*((Aforo)caudal[T]-40);(Aforo) caudal [T] > 60

==> (Aforo) caudal [T] := (Aforo) caudal [T-1];

COHERENCIA: { Aforo } /* VALIDACION: */

| (Aforo) caudal [T] - (Aforo) caudal [T-1] | <= 1.5 &&media ( (Aforo) caudal [T-5..T+6] ) >= 5 &&media ( (Aforo) caudal [T-5..T+6] ) <= 40

El método de Corrección tiene como entrada el conjunto de datos que forman los objetos"Situacion meteorologica" y "Aforo" y como salida proporciona una nueva instancia delobjeto "Aforo" con los valores corregidos. Sean los siguientes valores de los atributos de lasinstancias de los objetos de entrada:

(Situacion meteorologica) viento = levante

(Aforo) caudal = [40,44,40,39,38,37,-4,36,35,36,37.5,39,40,44,48,46,48,44 ...

La ejecución del método de Corrección asignando al parámetro "Longitud de laserie" el valor 18 proporciona una nueva instancia del objeto "Aforo" que se obtiene en lasalida modificando los valores de todos aquellos datos mayores de 40, y reeemplazando el valorespurio -4 por el que se ha medido en el instante anterior, es decir, los valores corregidos delatributo caudal en esta instancia son:

(Aforo) caudal = [40,41,40,39,38,37,37,36,35,36,37.5,39,40,41,42,41.5,42,41 ...

Invocando al método de Validación de la Unidad Cognitiva, utilizando como entrada estainstancia del objeto "Aforo", resulta un estado de control que confirma que esta serie cumple larestricción impuesta en la base de conocimientos, ya que todos los valores consecutivos difierenmenos de 1.5, y las 6 medias horarias que pueden realizarse considerando doce valoresconsecutivos de esta serie están comprendidas en el intervalo [0..40]

7.3.4. Unidad Cognitiva de Coherencia Global

La Unidad Cognitiva de Coherencia Global da soporte a las Unidades Cognitivas deCoherencia de Caudales, Coherencia de Lluvias y Coherencia de Aportaciones. El conocimientocontenido en esta Unidad Cognitiva le permite averiguar cuándo un conjunto instancias deobjetos son coherentes entre sí, y estimar en caso contrario los valores de los atributos de lasinstancias de objetos de modo conveniente.

* Este ejemplo se usa solamente para exponer la potencia expresiva del lenguaje de esta primitiva, por tanto, norefleja unas reglas de comportamiento de ninguna estación de aforos real.

Page 148: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 7. El Modelo Genérico de validación de datos___________________________________________________________________________

134

Esta Unidad Cognitiva proporciona un mecanismo para establecer las relaciones quedeben verificarse entre distintas series de datos leídas o estimadas anteriormente*, por ejemplo,entre las series de los pluviómetros situadas en una misma región, o entre los caudales aforadosen estaciones adyacentes, o entre los caudales medidos y estimados en una misma estación, etc.La estructura de estas Unidades Cognitivas responde al siguiente esquema:

Unificación

Coherencia Validación

U.C. COHERENCIA GLOBAL

Explicación

Estimación

Preferencias Síntesis

Las bases de conocimientos empleadas por esta Unidad Cognitiva deben escribirse en unsubconjunto del lenguaje COVALTO, cuyos principales componentes sintácticos correspondena las siguientes reglas en notación BNF:**

BasedeConocimientos → Coherencia[ ] Síntesis[ ] Preferencias[ ] Coherencia → ReglaCoherencia{ }1

ReglaCoherencia → COHERENCIA: { ListaObjetos }

Condición → Asignación{ }1∞

Síntesis → Re glaSíntesis{ }1∞

ReglaSíntesis → SINTESIS: { IdObjetos }

Condición → Asignación{ }1∞

Preferencias → PREFERENCIA: Pref{ }1∞

Esta Unidad Cognitiva proporciona los siguientes métodos:

Validación. Es similar al método de Validación de la Unidad Cognitiva anterior. Suentrada es un conjunto de instancias de objetos, su salida es sólamente la traza de

* En la introducción del segundo capítulo de esta memoria se hace referencia a ciertos criterios de validaciónpropuestos en el Reglamento Técnico de Hidrología de la Organización Meteológica Mundial [OMM,1988].Todos estos criterios pueden ser fácilmente expresados en la base de conocimientos de esta primitiva.** Como puede apreciarse en esta gramática, el lenguaje de la sección de Coherencia es un superconjunto dellenguaje de la sección de Coherencia de la Unidad Cognitiva de Coherencia Local. Las principales diferencias conésta son: (a) Puede existir más de una regla de coherencia, (b) Cada regla de coherencia tiene asociada una listacorrespondiente a los objetos que pueden ser coherentes según esta regla, (c) Para cada conjunto soporte de objetospuede existir más de una regla de coherencia, lo que proporciona una o más alternativas de estimación en caso deque se verifiquen la condiciones correspondientes a los respectivos antecedentes.

Page 149: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 7. El Modelo Genérico de validación de datos___________________________________________________________________________

135

validacion, que posteriormente se emplea en el método de explicación, y como estadosfinales igualmente puede concluir en un estado ok para indicar que existe coherenciaentre el conjunto de instancias de los objetos de entrada, nok, si no existe tal coherencia,y error en caso de que se produzca cualquier fallo imprevisto durante la ejecución. Alexistir varias reglas de coherencia en la base de conocimientos es necesario establecercuál de las condiciones es la que se comprueba para responder a la cuestión devalidación. Existen múltiples alternativas en este punto. La solución implementadaactualmente consiste en seleccionar la conjunción de las condiciones correspondientes alas reglas de coherencia cuyas listas de objetos sea la misma y correspondan al elementomaximal del retículo formado por todas las listas de objetos que aparecen en la cabecerade las reglas de coherencia. En caso de que existan dos o más elementos maximales, lacondición que se verifica es la conjunción de ambos conjuntos de condiciones. Porejemplo, si en la base de coherencia existen cinco reglas de coherencia, y cada una deellas hace referencia a los conjuntos de objetos {A,B}, {A,B,C}, {A,B,C}, {A,C},{A,C}, {B} y {A} respectivamente, la condición de validación que se comprueba es lacorrespondiente a la conjunción de la segunda y tercera regla de coherencia.* Al igualque en la Unidad Cognitiva de Coherencia Local, se utiliza un parámetro denominado"Longitud de la serie" que indica el número de elementos de las series(potencialmente infinitas) que son objeto de validación. Este parámetro afecta a laslongitudes de todas las series de todas las instancias que intervienen en la entrada.

Estimación : Este método tiene dos entradas. La primera de ellas es el conjunto deinstancias de objetos cuyos valores se ven implicados en el proceso, acompañadas de lajustificación que las soporta, y el segundo es el nombre el objeto que se desea estimar.La salida que proporciona este método es una nueva instancia del objeto, o un conjuntode nuevas instancias de este objeto, junto con la justificación que sustenta a cada una deellas, y cuyos atributos son estimados en función de los atributos de las instancias de losobjetos de la primera entrada, atendiendo a las sentencias de estimación que se imponenen la base de conocimientos. Este conjunto de instancias se obtiene ordenado según elcriterio que se fija al final de la base de conocimientos en la sección de preferencias. Asímismo el método proporciona en su salida una traza de estimacion, que resume lasoperaciones llevadas a cabo. El funcionamiento del método se controla mediante dosparámetros; el primero de ellos, análogamente a los casos anteriores, define la"Longitud de la serie" con la que se trabaja; el segundo controla el "Numero deestimaciones" que se desean obtener. Los estados resultantes pueden ser como encasos anteriores "ok", y "error", dependiendo del éxito o fracaso de las operaciones.

El método está diseñado para efectuar una o varias hipótesis sobre los valores de losatributos que componen el objeto de salida, a la luz del conocimiento de los valores delos atributos de otros objetos, o incluso, de los valores de los atributos de la instancia dedicho objeto perteneciente al conjunto de objetos de la primera entrada. Cada una deestas hipótesis o estimaciones aparecen separadamente en la base de conocimientos,representada mediante una regla etiquetada mediante el conjunto soporte de objetos queavalan dicha hipótesis. Pueden existir diversas reglas para un mismo conjunto soportepor lo que puede obtenerse ninguna, una o más estimaciones para cada combinación deobjetos, según se verifiquen o no los antecedentes de cada una de ellas. Un esquemamás complejo se produce cuando la entrada es no-determinista, es decir, cuando contienea su vez copias clónicas de un mismo objeto con diversos valores en sus atributos. Eneste caso, el número de salidas se multiplica según las combinaciones posibles de losvalores de los objetos de entrada. El mecanismo elegido para controlar la explosióncombinatoria que se produciría al propagar esta información a otros módulos consiste enintroducir un orden entre las posibles hipótesis o estimaciones, y truncar esta lista según

* En caso de que el usuario considere necesario evaluar otras condiciones para realizar la validación, siempre puedeoptar por incluir en la condición del elemento maximal una llamada explícita a la condición que se impone en elantecedente de cualquier otra regla de Coherencia, tal como se indica en la descripción del lenguaje que aparece enel apéndice A.

Page 150: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 7. El Modelo Genérico de validación de datos___________________________________________________________________________

136

el valor de un parámetro. Tanto este parámetro como el criterio de ordenación de losobjetos resultantes de este método son introducidos explícitamente por el usuario en laarquitectura propuesta; es más, el criterio de ordenación forma parte de la propia base deconocimientos.**

Tanto las entradas como las salidas de cada uno de los métodos que proporciona laUnidad Cognitiva utilizan "instancias dinámicas" de los objetos que se han definido en elsistema. El empleo de estas instancias dinámicas permite trabajar simultáneamente condistintas combinaciones de los valores de un mismo objeto. El cálculo de lascombinaciones de estas justificaciones se efectúa implícitamente. Cada una de estasjustificaciones define un contexto en el que una instancia (conjunto de valores de losatributos) es verdadera. Este mecanismo se implementa mediante un sistema demantenimiento de la razón basado en suposiciones (ATMS).**

En aras de una mayor claridad expositiva, se supondrá primero que existe un soloconjunto de reglas de coherencia asociadas a un mismo conjunto soporte de objetos, queconsta cada una de ellas de un antecedente o condición de validación y de un consecuenteo estimación. Se supondrá asimismo que sólo existe una instancia dinámica de cada unode los objetos en la primera de las entradas. La salida del método de estimación, es unconjunto de instancias correspondientes cada una de ellas a una nueva instancia delobjeto de salida en la que se asignan a sus atributos los valores que se indican en elcuerpo de la sección de estimación correspondiente a aquellas reglas cuyo antecedente severifica. En caso contrario (si no se verifica ningún antecedente) la salida es un conjuntovacío de instancias. Al conjunto de estas instancias se le denomina estado. Lajustificación que sustenta a cada una de estas instancias de un estado es la misma y seobtiene combinando las justificaciones que soportan a las instancias de los objetosenumerados en la cabecera de la regla de coherencia y que (presumiblemente) han sidousados para el cálculo de los valores de los atributos de las instancias del objeto desalida.

El siguiente supuesto es que existan varias reglas de coherencia en la base de datos.Cada una de estas reglas tendrá asociada a su cabecera una lista de objetos. La salida delmétodo de estimación es igualmente un conjunto de estados o conjuntos de instanciasque se obtiene mediante la unión de las instancias de todas las estimaciones cuyascorrespondientes condiciones de validación se verifican. Cada uno de estos estados o

** Esta característica refleja una de las máximas tenidas en cuenta al diseñar la arquitectura: el conocimiento quese emplee en la resolución del problema debe ser explícito. La experiencia en el desarrollo de los sistemas basadosen el conocimiento acumulada en los últimos años apunta en esta línea. (Véanse las consideraciones yconclusiones que se realizan en los capítulos 4 y 5). Es éste un planteamiento importante, y en el que radicabuena parte de la flexibilidad y potencia expresiva de la arquitectura propuesta. El objetivo de que absolutamentetodo el conocimiento aparezca explícito es un tanto utópico. De hecho, como ya indicó Newell [Newell,1982], elpropio diseño de la arquitectura es una tarea que requiere conocimiento. La estructuración del conocimiento a nivelgenérico impone una serie de restricciones a aquello que puede ser expresado a nivel del dominio; por otra parte, ladefinición de las primitivas computacionales que dan soporte a la arquitectura implica la selección de un conjuntode operaciones o métodos determinados y la elección de un lenguaje de representación de la base deconocimientos. Es evidente que la definición de la sintaxis y especialmente de la semántica de la base deconocimientos asociada a cada uno de estos métodos presupone la existencia de un conocimiento implícito para larealización de los procesos necesarios. El criterio que se ha seguido es por tanto la simplicidad de estos procesos,a fin de obtener una arquitectura más abierta en la que se exprese de forma explícita la mayor parte delconocimiento.** Las técnicas de mantenimiento de la razon basadas en suposiciones (ATMS), fueron introducidas por[deKleer,1986]. Véase la descripción del sistema GDE en el apartado 4.4.2. en que éstas se aplican a un sistemade diagnóstico basado en modelos. Sin embargo, las justificaciones utilizadas en el sistema de validación sonintrínsecamente diferentes a los conjuntos de suposiciones que maneja el GDE. GDE pretende llegar a larefutación del comportamiento correcto de un componente mediante la construcción de conjuntos conflicto decomponentes que no pueden ser simultáneamente asumidos como ciertos. Por el contrario en este sistema semantienen los conjuntos de componentes consistentes que avalan una misma medida, siguiendo un enfoquesimilar al que plantea Oliver Raiman al hablar de “coartadas” (vease el epígrafe 4.3.5.). Por ello, al agrupar lassuposiciones se mantienen conjuntos maximales y no minimales como en el sistema de Joham deKleer.

Page 151: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 7. El Modelo Genérico de validación de datos___________________________________________________________________________

137

conjuntos de instancias lleva asociada una justificación que se calcula según el criterioexpuesto en el párrafo anterior. Evidentemente, en este caso no todas las instancias de unmismo objeto pertenecientes a varios estados tendrán la misma justificación, sino quecada una de ellas tendrá la justificación correspondiente a los objetos (sensores)supuestamente correctos, que avalan los valores de la nueva instancia.

Los conjuntos de objetos que figuran en la cabecera de cada una de estas reglas pueden ygeneralmente serán subconjuntos unos de otros, indicando las diversas situaciones quepueden presentarse durante el funcionamiento, por ejemplo que tres aforos seancoherentes, que sólo lo sean dos y el tercero discrepe de ambos, etc. Por lo tanto, elconjunto de reglas de coherencia forma un retículo definido sobre el conjunto de objetoscon el que se trabaja. Dada la semántica asignada a los conjuntos soporte de las reglas,se ha impuesto en cada regla del sistema la condición implícita de que no se verifiqueninguna regla cuyo soporte sea un superconjunto del conjunto soporte de la propiaregla.*

En general, sólo se efectuará una estimación para cada una de las diversas situaciones decoherencia, aunque esto queda a elección del usuario que puede escribir en la base deconocimientos más de una estimación para una misma regla de coherencia, con objeto deplantear varios “tanteos” en una determinada situación.

Por último, el caso más general a tratar se produce cuando existen varias instancias decada uno de los objetos en la entrada y varias reglas de coherencia cada una de ellas conuna o más estimaciones. Esta situación se trata de forma análoga a la descrita en elpárrafo anterior para cada una de las posibles combinaciones entre las instancias de losobjetos de la entrada, obteniendo finalmente un único conjunto de instancias de salidamediante la unión de todos los que se obtienen según el mecanismo explicadoanteriormente para cada una de las combinaciones posibles.

De este modo, el método de estimación es capaz de proporcionar un conjunto deinstancias correspondientes cada una de ellas a una estimación de los valores de losatributos de un cierto objeto. El inconveniente de esta generosidad en cuanto a posiblesexplicaciones es el excesivo coste computacional que pueden suponer. De hecho, si seencadenan varias llamadas al método de estimación a través de las Unidades Cognitivasde Cuenca definidas en el Modelo del Dominio, se puede producir una explosióncombinatoria de complejidad exponencial. Para ello, se ha previsto incorporar en la basede conocimientos una sección que indique cómo puede establecerse un orden total entrelas instancias que genera el método. Por defecto, se toma como criterio el orden en elque aparecen las reglas de coherencia y estimación en la base de conocimientos; pero esmuy recomendable que el usuario defina un nuevo criterio de ordenación en función delos valores numéricos de alguno de los atributos del objeto. En el apéndice A se describeen detalle la sintaxis que debe utilizarse. Una vez establecido este orden, la lista deobjetos puede ser truncada fácilmente mediante un parámetro que fije el número deinstancias máximo que se desean obtener**

El método de estimación genera internamente estados o conjuntos de instancias de cadauno de los objetos que intervienen en el proceso. Previamente al truncado de esteconjunto de estados , es necesario calcularlos todos, ya que la ordenación ha de llevarsea cabo cuando se han generado todas las posibles hipótesis. Por ello, localmente no seobtiene una ganancia en cuanto al rendimiento del sistema si se disminuye el parámetrodel número de estimaciones, pero desde un punto de vista global, teniendo en cuenta que

* Si un superconjunto de objetos es coherente, se supone que cualquier subconjunto también lo será y por tantola estimación que pudiera proporcionar seria igual que la ya obtenida según la regla anterior. Por otra parte, ya quese mantienen conjuntos maximales de suposiciones, al unir las instancias de ambos estados el resultado de lajustificación eliminaría el subconjunto frente al superconjunto.** Este mecanismo de filtrado de hipótesis es similar al propuesto por [deKleer,1991] para los sistemas GDE ySherlock.

Page 152: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 7. El Modelo Genérico de validación de datos___________________________________________________________________________

138

las instancias de salida de esta Unidad Cognitiva pueden conectarse a otra, la ganancia síes sustancial. Por otra parte, el truncado se realiza por estados o conjuntos de instancias,y no por instancias independientes, con lo que en la salida de este método se obtendrá engeneral una instancia de cada objeto que interviene.

En las reglas de coherencia, a fin de simplificar la escritura del lenguaje, se han definidosentencias de asignación por defecto para todos los atributos de un mismo objeto. Si seindica una de estas sentencias de asignación por defecto se copiarán todos los atributosde la instancia del objeto de entrada en una instancia del objeto en la salida. Lógicamenteel usuario puede redefinir estas reglas por defecto, cambiándolas por otras, o inclusoeliminar la transmisión automática de cualquiera de los atributos de la instancia deentrada en la salida aplicando la asignación al valor DESCONOCIDO para el atributo quedesee.

A la vista del funcionamiento de los métodos de validación y de estimación, podríapensarse que el primero de ellos no es necesario, ya que el método de Estimación tieneque realizar forzosamente una Validación previa. Sin embargo, conceptualmentecorresponden a funciones distintas, y podría desarrollarse un modelo en el que no siendonecesaria la realización de estimaciones se utilizase sólamente el método de Validación.Por tanto, la existencia de este método permite al ingeniero del conocimiento una mayorflexibilidad en el diseño del sistema de validación. En el Modelo Genérico propuesto seha incluído en ocasiones este método para ilustrar estas posibilidades.

Ejemplo:

Sea una región en la que se sitúan dos pluviómetros: P y R, cada uno de los cuales midela intensidad de lluvia con una precisión de ±10mm/h, y sea la fiabilidad (una ciertamedida de confianza en que funcionen correctamente) atribuida al primero de ellos del95% y al segundo del 98%. Se supone que la condición de validación que debeestablecerse es que las medias horarias de ambas difieran en menos del doble de laprecisión de la medida. En este caso, la estimación de la intensidad de lluvia media en laregión (Area Receptora) se considera igual a la media aritmética de ámbas. En caso deque las medidas de los pluviómetros P y R sean tan dispares que no cumplan lacondición de validación impuesta, se deben efectuar dos hipótesis sobre la intensidad delluvia en el área, la primera de ellas a partir de los datos del pluviómetro P,multiplicándolos por un coeficiente de 1.1, la segunda a partir de los datos delpluviómetro R, minorándolos según un factor de 0.9.* Según este conocimiento, laUnidad Cognitiva de Coherencia de Lluvias (que es heredera directa de la de CoherenciaGlobal) refleja en su base de conocimientos las siguientes reglas:

COHERENCIA: {P,R} /* VALIDACION: */ | media( (P)intensidad[T-5..T+6]) - media( (R)intensidad[T-5..T+6]) | < 2 * (P)imprecision /* ESTIMACION: */ --> (Area Receptora)intensidad[T]:=((P)intensidad[T]+(R)intensidad[T])/ 2; (Area Receptora)imprecision := (P)imprecision + (R)imprecision ; (Area Receptora)fiabilidad:=1- (1-(P)fiabilidad) * (1-(R)fiabilidad) ; <-- P --> // Asignacion por defecto de todos los atributos de P <-- R --> // Asignacion por defecto de todos los atributos de R

* El interés de este ejemplo es solamente la exposición de la riqueza expresiva del lenguaje de la base deconocimientos, al igual que en el ejemplo descrito anteriormente para la primitiva de Coherencia Local. Lasimplificación que se hace del problema busca una mayor claridad en la exposición. Evidentemente, el lenguajepermite el establecimiento de relaciones entre cualquier número de objetos, y el uso de condiciones tancomplicadas como sea necesario.

Page 153: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 7. El Modelo Genérico de validación de datos___________________________________________________________________________

139

COHERENCIA: {P} /* VALIDACION: */ ! COHERENCIA:{P,R} //Condicion innecesaria ya que se aplica por defecto && (P)intensidad[T]>0 && (P)intensidad[T]<150 /* ESTIMACION: */ --> (Area Receptora)intensidad[T] := 1.1 * (P)intensidad[T] ; (Area Receptora)imprecision := 1.1 * (P)imprecision ; (Area Receptora)fiabilidad := 0.9 * (P)fiabilidad; <-- R --> // Asignacion por defecto de todos los atributos de R (R)intensidad[T] = 1.1* (P)intensidad[T]; (R)imprecision := 1.1 * (P)imprecision ; (R)fiabilidad := 0.9 * (P)fiabilidad; <-- P --> // Asignacion por defecto de todos los atributos de P

COHERENCIA: {R} /* VALIDACION: */ ! COHERENCIA:{P,R} //Condicion innecesaria ya que se aplica por defecto && (R)intensidad[T]>0 && (R)intensidad[T]<150 /* ESTIMACION: */ --> (Area Receptora)intensidad[T] := 0.9 * (R)intensidad[T] ; (Area Receptora)imprecision := 0.9 * (R)imprecision ; (Area Receptora)fiabilidad := 0.9 * (R)fiabilidad; <-- P --> // Asignacion por defecto de todos los atributos de P (P)intensidad[T] = (R)intensidad[T]; (P)imprecision := (R)imprecision ; (P)fiabilidad := 0.9 * (R)fiabilidad; <-- R --> // Asignacion por defecto de todos los atributos de R

PREFERENCIA: > (Area Receptora)fiabilidad; < (Area Receptora)imprecision; > (P)fiabilidad; > (R)fiabilidad;

Se supone que el método de Estimación tiene como entradas el conjunto formado porinstancias del objeto P y del objeto R, y que se solicita la estimación del objeto AreaReceptora (los valores de su intensidad, su fiabilidad y su imprecision). Seconsidera que existen dos instancias del primero y una del segundo, que provienen demediciones reales o de otras estimaciones realizadas con anterioridad en alguna UnidadCognitiva. Los valores de los atributos de estas instancias son los siguientes:

(P)intensidad = [70,80,80,90,90,100,90,90,80,70,60,60,50,40,20,10,0,0,....(P)fiabilidad = 0.95(P)imprecision = 10

(P)intensidad = [50,50,50,40,50,60,60,70,70,70,70,70,50,40,20,10,0,0,.....(P)fiabilidad = 0.75(P)imprecision = 10

(R)intensidad = [60,70,80,90,100,110,120,110,90,80,60,40,40,30,10,0,0,0,.....(R)fiabilidad = 0.8820(R)imprecision = 10

La justificación que soporta a estas instancias corresponde en el primer caso al propioobjeto P, lo que se interpreta como un funcionamiento correcto del pluviómetrocorrrespondiente. La segunda instancia se justifica en función de otros dos objetos K yM del sistema, lo que indica que los valores esta instancia han sido estimados a partir delos de ciertos objetos K y M. Si los valores de esta instancia son correctos, ésta a su vezpuede interpretarse como una evidencia del correcto funcionamiento de los sensores quehan servido para hallar esta estimación. Por último la justificación de la tercera instanciaes el propio objeto R. El manejo y composición de estas justificaciones es implícito, ya

Page 154: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 7. El Modelo Genérico de validación de datos___________________________________________________________________________

140

que se trata de una característica inherente a la arquitectura propuesta. A efectos de laimplementación puede considerarse que las justificaciones se tratan como atributos"ocultos" de los objetos.

El método de Estimación procede a formar las combinaciones posibles entre lasinstancias de los objetos de entrada. En este caso sólo existen dos posiblescombinaciones de entrada.

La primera de las combinaciones de instancias de entrada verifica la condición devalidación de la regla de coherencia entre P y R, ya que para las seis parejas de mediashorarias que pueden hallarse en la secuencia de hora y media que muestra el ejemplo(Supuesto que el parámetro Longitud de la serie es 18), la diferencia es siempremenor de 20. Por tanto, para esta combinación se obtiene una única estimación, ya queconsiguientemente no se verifican las otras dos condiciones de coherencia. Utilizando lastres asignaciones que se refieren al objeto Area Receptora, se pueden obtener losvalores de los atributos. La justificación de todos los atributos que se deducen a partir deesta regla se calcula en función de la de los objetos P y R, tal como indica la cabecera dela regla de coherencia. La instancia del objeto Area Receptora que se obtiene comoestimación en este caso es la siguiente:

(Area Receptora)intensidad =[65,75,80,90,95,105,105,100,85,75,60,50,45,35,15,..(Area Receptora)fiabilidad = 0.9985(Area Receptora)imprecision = 20

La segunda de las combinaciones no verifica la regla de coherencia entre P y R; sinembargo, verifica la segunda y la tercera de las reglas de coherencia de la base deconocimientos, que en este ejemplo no imponen ninguna condición salvo la noverificación de la primera condición de validación (regla por defecto) y que los valoresde los pluviómetros correspondientes estén comprendidos en unos límites razonables.Por consiguiente, se obtienen dos instancias del objeto Area Receptora. La primera deestas se justifica mediante los objetos K y M (que son las justificaciones del objeto P queaparece en la cabecera de la segunda de las reglas de coherencia). Los valores de estainstancia son los siguientes:

(Area Receptora)intensidad =[55,55,55,44,55,66,66,77,77,77,77,77,55,44,22,11,..(Area Receptora)fiabilidad = 0.6750(Area Receptora)imprecision = 11

La siguiente instancia que genera esta combinación se obtiene a partir de los valores de lainstancia del objeto R independientemente (y su justificación sólo dependerá de lajustificación del objeto R). El resultado es una nueva instancia del objeto AreaReceptora:

(Area Receptora)intensidad =[54,63,72,81,90,99,108,99,81,72,54,36,36,27,9,0,..(Area Receptora)fiabilidad = 0.8820(Area Receptora)imprecision = 9

Las tres instancias que se han obtenido se ordenan según el primero de los criteriosexpresados en la lista de preferencias de la base de conocimientos. Este criterio es el demayor fiabilidad del objeto Area Receptora, por lo que la secuencia de instanciasordenada corresponde a la primera, tercera y segunda que se obtuvieron. En caso de quesegún el primero de los criterios el orden no fuese total, se atendería al segundo de loscriterios, y en último extremo se ordenarían según el orden de aparición.

Page 155: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 7. El Modelo Genérico de validación de datos___________________________________________________________________________

141

Una vez ordenada, la lista de instancias de salida puede ser truncada si el mensaje pasadoal método de Estimación incluye un valor del parámetro Numero de estimacionesmenor que el número de instancias obtenidas.

El método de estimación de esta Unidad Cognitiva también puede invocarse para obtenerestimaciones de los valores del objeto P y del objeto R.* Estos valores son unsubproducto de la estimación y no se usan en el Modelo Genérico que se plantea en estecapítulo. No obstante, el usuario puede incluir nuevos métodos en la Unidad Cognitivaque realicen una llamada al método de Estimación de la Unidad Cognitiva de Coherenciade Lluvias, usando como primera entrada el mismo conjunto de instancias, y comosegunda el nombre del objeto a estimar. Por ejemplo, para el objeto P, se obtienen lasestimaciones:

(P)intensidad = [70,80,80,90,90,100,90,90,80,70,60,60,50,40,20,10,0,0,....(P)fiabilidad = 0.95(P)imprecision = 10

(P)intensidad = [50,50,50,40,50,60,60,70,70,70,70,70,50,40,20,10,0,0,.....(P)fiabilidad = 0.75(P)imprecision = 10

(P)intensidad = [60,70,80,90,100,110,120,110,90,80,60,40,40,30,10,0,0,0,.....(P)fiabilidad = 0.98(P)imprecision = 9

Estas estimaciones se obtienen mediante el mismo proceso seguido anteriormente para elcálculo del objeto Area Receptora. Las dos primeras aplican simplemente una regla decopia por defecto de la entrada en la salida (regla de asignación por defecto) mientras quela tercera de las estimaciones se halla a partir de las reglas de la tercera regla decoherencia aplicadas a la segunda combinación de las instancias de entrada. Lasjustificaciones para cada una de estas instancias son las mismas que las que correpondenal objeto Area Receptora, que se ha visto anteriormente.

Síntesis. La función del método de Síntesis puede considerarse dual del método deEstimación. En el método anterior, el conocimiento expresaba cuándo dos o másmedidas de sensores distintos eran coherentes entre sí, y cómo a partir de cada uno deellos, o de un subconjunto de los mismos podía inferirse la medida de otro u otrossensores, o eventualmente cualquier otra magnitud relevante del proceso. Es decir, conel conocimiento de la Primitiva de Coherencia se generan escenarios de posiblescombinaciones de hipótesis que expliquen el comportamiento del sistema a tenor de lasmediciones realizadas. Por el contrario, la Primitiva de Síntesis incluye el conocimientonecesario para agrupar varias de estas hipótesis en una sóla.

La base de conocimientos de la Primitiva de Síntesis pone de manifiesto la condiciónnecesaria para que dos instancias de un mismo objeto puedan ser sintetizadas en una sóla(antecedente) y las acciones a realizar o la manera como debe llevarse a cabo la síntesis(consecuente). En principio, debería existir una regla de síntesis para cada uno de losobjetos con los que el sistema trabaja.

Al igual que en el caso anterior este método emplea la base de conocimientos de laPrimitiva de Representación de Preferencias para expresar el conocimiento que debe

* En realidad, en la implementación se calculan estados, o conjuntos de instancias de objetos para cada una de lasestimaciones que se realizan. Cada uno de estos estados contiene una sóla instancia de los objetos que seespecifican en la estimación correspondiente. Gracias a este mecanismo es posible ordenar las instancias de salidaen función de una combinación de atributos de cualquiera de los objetos de dicho estado.

Page 156: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 7. El Modelo Genérico de validación de datos___________________________________________________________________________

142

aplicarse para ordenar las instancias en caso de que se desee realizar un truncamiento delnúmero de hipótesis una vez realizada la síntesis.

La entrada a este método es un conjunto de instancias de objetos, acompañados de lajustificación que los soportan. La salida es otro conjunto de instancias de objetos juntocon sus justificaciones y una traza que posteriormente se emplea en el método deexplicación. Los conjuntos de instancias de entrada y de salida están definidos sobre elmismo conjunto de objetos. Cada una de las instancias de salida representa la síntesis oagrupación de una o más instancias de entrada. Se emplean dos parámetros paracontrolar el proceso, el primero de ellos define la “Longitud de la Serie” y elsegundo el “Numero maximo de Instancias”. La terminación del método puede darorigen a dos estados denominados ok y error, según se haya conseguido efectuar o nocon éxito.

El mecanismo que se sigue para sintetizar las entradas viene determinado por la base deconocimientos. La síntesis se efectúa de forma independiente para cada uno de losobjetos de la entrada. En general, para cada uno de los objetos de las instancias deentrada debe estar definida una regla de síntesis. Si para un objeto no se encuentra estaregla, la síntesis se realiza suponiendo que existe una regla trivial de síntesis por defectoque resume en una sola instancia a todas aquellas que tienen los mismos valores paratodos sus atributos.

Si existe una regla de síntesis para un objeto, en su antecedente se establece una relaciónentre cualquiera dos instancias del mismo.* Todas estas relaciones se calculan, hallandoa partir de ellas los subconjuntos de instancias sobre los que la relación dada es deequivalencia. Es decir, se representa como un grafo la relación entre dos instancias, y secalculan todos los subgrafos completamente conectados. De entre estos, se consideransólo los elementos maximales (lo que en teoría de grafos se conoce como cliques), ypara cada uno de estos subconjuntos se efectúan la síntesis de todas sus instancias. Porconsiguiente, cada uno de los subgrafos maximales completamente conectados daránlugar a la aparición de una nueva instancia que sintetiza a todas las demás. Para hallaresta nueva instancia a partir de las anteriores, se emplean las reglas definidas en la reglade síntesis.

La justificación correspondiente a la nueva instancia sintetizada es la conjunción de lasjustficaciones de las instancias del clique que da origen a la nueva instancia.

Finalmente, las instancias resultantes del proceso de síntesis son ordenadas atendiendo alos criterior fijados en la base de conocimientos (sección de Preferencias) y se efectua untruncamiento de la salida según el valor del parámetro “Numero maximo deInstancias”. Al igual que en la Primitiva de Coherencia, el truncamiento se realizasobre conjuntos de instancias o estados. Estos estados los forman en este caso todas lasinstancias de un mismo objeto que resultan del proceso de síntesis, por lo que a cada unode los estados sólo le serán de aplicación los criterios de preferencia en los que figureexclusivamente el objeto en cuestión, a fin de que los criterios puedan ser efectivamentecomputados para cada estado .

Ejemplo:

Supóngase que se ha inferido por tres vías diferentes el caudal en una seccióndeterminada de un río (ya sean varias medidas realizadas directamente, ya sea porinferencia a partir de modelos de comportamiento, etc.).

El conocimiento de síntesis impone que se pueden agrupar dos instancias del objeto Rio,independientemente de la fiabilidad de las mismas, siempre y cuando los valores delcaudal instantáneo no difieran en más de un 10%. Por otra parte, si dos instancias

* Véase el apéndice A

Page 157: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 7. El Modelo Genérico de validación de datos___________________________________________________________________________

143

resultan ser agrupables se debe escoger como valor del caudal el correpondiente a lainstancia de máxima fiabilidad. Este conocimiento se expresaría en el lenguaje mediantela regla de síntesis:

SINTESIS: {Rio}/* VALIDACION: */

(Rio)caudal[T] <= 1.1 * (Rio)caudal[T]|| 1.1 * (Rio)caudal[T] >= (Rio Seco)caudal[T]// La segunda condicion es innecesaria

/* ESTIMACION: */ -->(Rio)caudal[T] :=

media( (Rio)caudal[T] :: (Rio)fiabilidad == max({(Rio)fiabilidad}));

(Rio)fiabilidad := max({(Rio)fiabilidad});

Sean tres instancias del objeto Rio, cada una de ellas con sus correspondientes valoresde los atributos caudal y fiabilidad, y soportadas por justificaciones independientesJ1,J2, y J3 respectivamente:

(Rio)caudal = [40,41,41,42,44,45,47,48,47,46,44,43....(Rio)fiabilidad = 0.95

(Rio)caudal = [42,41,42,45,44,45,44,45,47,46,44,41.....(Rio)fiabilidad = 0.75

(Rio)caudal = [44,47,48,47,46,44,43,45,49,50,52,50,......(Rio)fiabilidad = 0.8820

Según el conocimiento de Síntesis es posible agrupar las dos primeras instancias en unasóla, que tenga como justificación la conjunción de J1 y de J2, no siendo agrupable conellas la tercera instancia. Por tanto el conjunto de instancias se ha reducido a dos y losvalores de los atributos de estas dos nuevas instancias, que se supone que contienen lamisma información sobre el posible comportamiento del sistema que las tres anteriores,son:

(Rio)caudal = [40,41,41,42,44,45,47,48,47,46,44,43....(Rio)fiabilidad = 0.95

(Rio)caudal = [44,47,48,47,46,44,43,45,49,50,52,50,......(Rio)fiabilidad = 0.8820

Un resultado similar se habría obtenido simplemente ordenando el conjunto de instanciasy truncando a dos el número de hipótesis. Tanto el proceso de Síntesis como el truncadode un conjunto de hipótesis persiguen un mismo objetivo: acotar el indeterminismo delsistema de manera que se controle la explosión combinatoria que se produce al generarhipótesis.

La principal diferencia en lo que se refiere al resultado de ambos mecanismos es que enel caso de la síntesis la justificación de la primera instancia es la conjunción de J1 y J2 yaque ambas justificaciones avalan los valores de la nueva instancia. Sin embargo, en elcaso del truncamiento, la hipótesis J2 queda también truncada, quedando J1 como únicosoporte para la primera instancia resultante. Evidentemente, desde el punto de vistaconceptual ambos procesos son radicalmente ditintos ya que la síntesis supone unaagrupación de hipótesis en otra común, mientras que el truncamiento simplemente ignoralas hipótesis menos fiables.

Page 158: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 7. El Modelo Genérico de validación de datos___________________________________________________________________________

144

Alternativas a la Primitiva de Síntesis.

El método de síntesis, tal como se ha descrito anteriormente, realiza una tarea de síntesisde los posibles valores de un objeto en un punto concreto del proceso de validación.Para cubrir esta funcionalidad podrían considerarse otras alternativas, basadas enplanteamientos ya clásicos.

A primera vista la tarea a la que da soporte computacional la primitiva de Síntesis estárelacionada con los problemas de clasificación y agrupación (“clustering” ) que han sidoampliamente estudiados dentro del marco general del problema de Reconocimiento dePatrones [Tou,1974].

El problema de clasificación se plantea habitualmente de la siguiente forma: Dado unobjeto de entrada y dado un conjunto finito y constante de categorías, hallar a cuál deellas pertenece dicho objeto. Este problema ha sido ampliamente estudiado desdemuchos enfoques diferentes, entre los que cabe citar la teoría bayesiana de la decisión,[Duda,1973], la clasificación heurística [Clancey,1985]*, la clasificación jerárquica[Chandrasekaran, 1987]**, etc., y se ha aplicado tanto a problemas de reconocimientode patrones como a sistemas expertos en general.

Relacionado directamente con este problema surge el problema de agrupación(“clustering”) [Duda,1973], cuyo planteamiento consite en: Dado una muestra H de nvalores x1...xn hallar una partición de la misma en exactamente c conjuntos disjuntosH1...Hc , denominados grupos (“clusters”), de manera que se obtenga un óptimo de unacierta función objetivo. En general esta función objetivo que se considera y que seintenta minimizar es la suma de los errores cuadráticos medios, es decir:

Je = x − mi2

x∈Hi

∑i=1

c

en donde mi es la media de cada uno de los c grupos Hi . Este método se basa en lasuposición de que dado un grupo (“cluster”) cuya media es mi, este valor es el mejorrepresentante del grupo, y por tanto se debe minimizar la suma total de las desviacionesrespecto a estos valores en cada uno de los grupos.

Siguiendo en esta línea, un problema más general es el de agrupación jerárquica(“hierarchical clustering”) [Duda,1973], que consiste en realizar ordenadamente nproblemas de agrupación en los que el número c de grupos varía entre 1 y n., es decirconsiste en realizar la agrupación a un primer nivel de agrupación con exactamente c=ngrupos, a un segundo nivel con c=n-1 grupos, y así sucesivamente. A los métodos queresuelven este problema se les impone la condición de monotonía, es decir, cuando dosobjetos pertenecen a una misma clase en el nivel de agrupación k, seguiran perteneciendoa una misma clase en el nivel de agrupación k+1. Esto da lugar a los conocidosdendogramas o representaciones en forma de árbol de la estructura jerárquica de lassucesivas clasificaciones. Los métodos para resolver este problema pueden seraglomerativos si parten del mayor número posible de grupos y los van agrupando hastaformar un solo grupo, o divisivos, si se parte de un único grupo inicial que se vafragmentado sucesivamente.

El siguiente problema en esta línea se conoce como problema de validez de los grupos(“cluster validity”) [Duda,1973], y consiste en determinar cuál es el mejor número c de

* Véanse los epígrafes 4.3.1., 4.3.2. y 6.3.1.** Véanse los epígrafes 4.3.4. y 6.3.2.

Page 159: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 7. El Modelo Genérico de validación de datos___________________________________________________________________________

145

grupos que deben considerarse para una muestra dada. Si la función objetivo es laminimización del error cuadrático medio Je(c) que se ha expuesto anteriormente, esevidente que dicha función decrece monótonamente a medida que aumenta c, tomando elvalor 0 para c=n. Sin embargo, de existir un número óptimo grupos es de esperar que lafunción decrezca con mayor fuerza hasta alcanzar este número y en menor medida apartir de este punto. No existe un criterio unánime aplicable a todos los problemas deagrupación jerárquica, aplicandose en la práctica criterios del tipo de maximizar larelación entre dos valores consecutivos de Je(c), o similares.

En otra línea que comparte algunas características con ésta, se plantea el problema derepresentación de una muestra mediante un número reducido de elementos, es decir,reducir la dimensionalidad de la muestra representándola mediante combinaciones(lineales) de cada una de las características de los elementos. En esta línea se mueven losmétodos estadísticos de análisis de componentes principales y de análisis factorial, quetienen en cuenta respectivamente la varianza y la correlación de las diversascaracterísticas. Las técnicas de agrupación (“clustering”) suelen emplearse cuando sequieren combinar elementos de una muestra cuyas características tienen una altacorrelación [Duda,1973], y principalmente a efectos de realizar operaciones declasificación. con las categorías resultantes. Por el contrario las técnicas de componentesprincipales y de análisis factorial son adecuadas a efectos de representación de lamuestra.

La tarea que realiza la primitiva de Síntesis comparte algunas características tanto con elproblema de agrupación jerárquica como con los de análisis factorial y de componentesprincipales. Desde el punto de vista del problema estrictamente matemático, paraproporcionar la funcionalidad de esta tarea debería aplicarse el análisis factorial. Sinembargo, desde un punto de vista más práctico, este enfoque no resulta adecuado dadaslas siguientes características del problema:

(1) Los elementos de la muestra, que en este caso corresponden con las instancias delos objetos que se hayan definido en el sistema, son complejos, y por lo tantopluridimensionales. Cada uno de los atributos del objeto añade uno o varios gradosde libertad al objeto, en el caso de que se trate de un tipo numérico, enumerado, o detipo serie respectivamente.

(2) Las muestras con las que se trabaja suelen ser pequeñas. En un punto concreto delproceso de validación que lleva a cabo el sistema se plantearán una o variashipótesis, cada una de las cuales incluye como máximo una instancia del objeto. Elnúmero de hipótesis que se generan directamente (mediante una única Primitiva deCoherencia), no es muy elevado, por lo que la proliferación de las mismas se debe ala combinatoria que se produce con la aplicación sucesiva de varias Primitivas deCoherencia, siendo éste precisamente el efecto que se pretende controlar con laprimitiva de Síntesis. Por tanto, llegado el momento de realizar la tareaencomendada a esta primitiva, el número de hipótesis plausibles debe mantenersetambién pequeño (del orden de una decena debe ser más que suficiente). En general,al ser mayor el número de grados de libertad del sistema que el número de elementosde la muestra, los métodos puramente estadísticos de análisis factorial o decomponentes principales no garantizan la obtención de mejores resultados que elmétodo heurístico de Síntesis que se ha propuesto, teniendo como contrapartida unamayor complejidad y coste computacional, y una mayor opacidad cara al usuario.

(3) Cada elemento de la muestra (cada objeto) lleva asociada una justificación, que estáformada por una o varias combinaciones de suposiciones de funcionamientocorrecto simultáneo de algunos de los elementos del sistema (los sensores). Estajustificación es inseparable del valor obtenido, ya que representa el contexto en elcual es correcta. Por tanto al aplicar un método de análisis factorial, para reducir ladimensionalidad del conjunto de hipótesis, debe definirse un mecanismo quepermita conservar o combinar las justificaciones de las hipótesis que intervienen en

Page 160: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 7. El Modelo Genérico de validación de datos___________________________________________________________________________

146

cada una de las hipótesis resultantes. Sin embargo, por lo general, todas lashipótesis iniciales intervienen en mayor o menor grado en todas las hipótesisresumidas, por lo que la información sobre justificaciones se perdería diluída entreel conjunto de todas ellas.

Los métodos de clustering tradicionales no presentan este último inconveniente, ya queen esencia el mecanismo de agrupación de hipótesis es el mismo que se usa en laprimitiva de Síntesis, pero tampoco resultan adecuados, ya que la tarea a realizar noexige una labor de clasificación, sino por el contrario una representación del conjuntooriginal mediante algunos elementos distinguidos (véase el epígrafe 6.14. de[Duda,1973]).

Por otra parte, el conocimiento necesario para realizar la tarea de agrupación jerárquica esmás complejo que el necesario en la primitiva de Síntesis. En principio, los métodos deagrupación requieren del establecimiento de una métrica entre los elementos de lamuestra (en este caso las instancias de los ojetos), realizando la hipótesis implícita de queel mejor representante de una categoría es la media. Por el contrario, en la primitiva deSíntesis sólo requiere definir una relación entre ellos a la que en principio sólo se le exigeque sea reflexiva, y no se requiere un concepto de media sino de "mejor representante".*Además, el metodo de agrupación jerárquica requiere un crirterio adicional para elproblema de validez de los grupos que, o bien debe incluirse de forma implícita en elsistema, quedando fuera del control del usuario; o bien debe incluirse en la base deconocimientos, con la consiguiente complicación de ésta.

El método de síntesis va más allá del método de clustering tradicional. Las técnicas declustering tradicional están basada en parámetros numéricos y resultan opacas a unusuario ajeno a las mismas, ya que no siempre resultan intuitivas. Por el contrario, elmétodo de síntesis propuesto esta basado en información no estrictamente numérica yresulta mucho más intuitivo, por lo que, en general, será mucho más fácil de configurary modificar que el anterior.

En cierta forma el método de síntesis puede considerarse una generalización basada en elconocimiento del método de agrupación en la que se ha sustituido el concepto de métrica,por el de relación, exigiendo que se cumpla la propiedad de equivalencia internamente encada uno de los grupos, y se ha suprimido la condición de disyunción de los grupos.

En resumen, la solución adoptada tiene la ventaja de estar orientada a la representacióndel conjunto de hipótesis, y no a su agrupación a efectos de clasificación , y de utilizarbases de conocimientos sencillas en las que el usuario sólo debe establecer los límites detolerancia que crea oportunos, y no toda una métrica definida sobre el conjunto dehipótesis cuyos elementos son complejos y pluridimensionales.

Explicación. Al igual que en la Unidad Cognitiva anterior, la función de este método essimplemente la presentación ordenada de las operaciones realizadas en los métodosanteriores. Su entrada es la traza de operaciones generada por estos métodos.

7.3.5. Unidad Cognitiva de Modelos Hidrológicos

No es el objetivo de esta tesis profundizar en la problemática de determinaciónconstrucción o calibración de los modelos hidrológicos, sino definir una arquitectura en la cual

* La definición de un "objeto medio" que represente a la categoría es una característica consustancial delmecanismo de agrupación. Dado que los objetos son complejos no siempre el objeto cuyos atributos toman elvalor medio de los atributos de todos los demás será el mejor representante. En determinadas circunstancias esmejor considerar como representante, por ejemplo, al que tenga un mayor valor del atributo "fiabilidad".

Page 161: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 7. El Modelo Genérico de validación de datos___________________________________________________________________________

147

puedan incorporarse estos modelos para realizar la validación de los datos. Por tanto, en el nivelde implementación no se han definido las Unidades Cognitivas específicas para los modelos delas Areas Receptoras, de los Tramos de Transporte o de los Embalses que figuran en ladescripción del Modelo Genérico.

La definición de Unidades Cognitivas o primitivas específicas para cada uno de estostipos de modelos puede ser llevada a cabo por un programador de forma independiente,incluyéndolas en la arquitectura mediante la definición de sus entradas, salidas, parámetros yestados de control, y en su caso, de la base de conocimientos que requiera. La arquitecturapropuesta no impone ninguna restricción al tipo de modelo específico que se quiera incluir.

Sin embargo, a fin de obtener un producto terminado e ilustrar la flexibilidad de laarquitectura propuesta, se ha definido una Unidad Cognitiva de Modelos, basada en unaPrimitiva de Representación de Modelos y una Primitiva de Representación de Preferencias, quepuede dar soporte a una amplia gama de modelos hidrológicos simples, comunes en hidrología,y que pueden resultar muy útiles para realizar la validación de los datos. La estructura de estaUnidad Cognitiva viene dada por el siguiente esquema:

Modelos

Preferencias

Estimación

U.C. COHERENCIA LOCAL

Explicación

Esta Unidad Cognitiva básica para el soporte de Modelos se sustenta sobre una base deconocimientos definida mediante un subconjunto del lenguaje COVALTO, cuyas reglassintácticas principales en notación BNF son las siguientes* :

BasedeConocimientos → Modelo{ }1∞ Preferencia[ ]

Modelo → MODELO: { ListaObjetos } Asignación{ }1∞

Preferencia → PREFERENCIA: Pref{ }1∞

La Unidad Cognitiva de Modelos proporciona dos métodos de inferencia:

Estimación: Su entrada es el conjunto de instancias de los objetos a partir de los cuales serealizan las asignaciones, y el nombre del objeto cuyo valor se desea calcular. Su salidaes una o más instancias de dicho objeto. En una misma base de conocimientos puedeaparecer la declaración de uno o más modelos. En el primer caso, el funcionamiento delmétodo es determinista, es decir, sólo responde con una instancia del objeto en la salida.Sin embargo, si se declaran varios modelos en la misma base de conocimientos, la salidaconsistirá en el conjunto de todos ellos, ordenado según el criterio de preferencias que sehaya fijado en la sección correspondiente de la base de conocimientos. Como segundasalida se obtiene una traza de la ejecución del modelo. Al igual que en el método deestimación de la Unidad Cognitiva de Coherencia Global, se utilizan dos parámetros quecontrolan la Longitud de la serie (o series de entrada y salida) y el Numero deestimaciones o instancias que devuelve el método. Los estados de control posiblescomo resultado de la ejecución del método son igualmente ok y error.

* Véase el apéndice A para una descripción completa de la gramática.

Page 162: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 7. El Modelo Genérico de validación de datos___________________________________________________________________________

148

Por lo que se refiere a las justificaciones, su funcionamiento es similar a la UnidadCognitiva de Coherencia Global. La lista de objetos que acompaña a la cabecera de cadamodelo en la base de conocimientos sirve para limitar el número de objetos cuyasjustificaciones se propagan.

Desde el punto de vista del método de estimación propuesto para la Unidad CognitivaGenérica de Modelos, el funcionamiento equivale al de la Primitiva de Coherenciasupuesto que en la base de conocimientos se intercambia cada modelo por una regla decoherencia sin ninguna condición de validación, asociando a cada regla una únicaestimación con las mismas asignaciones que el modelo correspondiente.

En este punto es conveniente destacar que el empleo de esta primitiva de Modelospermite fácilmente la incorporación de modelos hidrológicos diferentes para lasimulación de un mismo elemento hidrológico ("multimodeling") en línea con las nuevaspropuestas de modelización hidrológica multimétodo y multimodelo realizadas pordiversos autores, por ejemplo [Cunge,1995].

Explicación. Al igual que en la Unidad Cognitiva anterior, la función de este método essimplemente la presentación ordenada de las operaciones realizadas en el método deestimación. Su entrada es la traza de operaciones generada por este método.

Ejemplo:

Como ejemplo de un modelo hidrológico que puede ser construído mediante esta UnidadCognitiva, se propone la aplicación del método del hidrograma unitario en su formulaciónmatricial. Los valores del hidrograma se supone que ya han sido calculados y calibrados para elArea Receptora. El valor de este hidrograma se almacena como una serie constante en unatributo del objeto Area Receptora (en orden inverso de cara a facilitar el producto escalar).La base de conocimientos es la siguiente:

MODELO: { Area Receptora } (Area Receptora) Hidrograma unitario := [0.2, 0.4, 0.6, 0.8, 1.0, 1.2, 1.4, 1.6, 2.0, 2.0, 1.4, 0.8]; (Area Receptora) caudal [T] := sumatorio ( (Area Receptora) Hidrograma unitario * (Area Receptora) intensidad [T-11..T] ); (Area receptora) imprecision caudal = 2.5 * (Area Receptora) imprecision;

La entrada a este modelo esta constituida por una (o más) instancias del objeto AreaReceptora en el que debe ser conocida la serie correspondiente a la intensidad de lluvia. Porejemplo, considérese que los atributos de la instancia de entrada tienen los siguientes valores:

(Area Receptora)intensidad =[65,75,80,90,95,105,105,100,85,75,60,50,45,35,15,5,0,0,(Area Receptora)fiabilidad = 0.9985(Area Receptora)imprecision = 20

La aplicación del modelo a través del método de estimación proporciona en la salida unainstancia del objeto Area Receptora en la que los atributos toman los siguientes valores:

Page 163: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 7. El Modelo Genérico de validación de datos___________________________________________________________________________

149

(Area Receptora)intensidad =[65,75,80,90,95,105,105,100,85,75,60,50,45,35,15,5,0,0,(Area Receptora)fiabilidad = 0.9985(Area Receptora)imprecision = 20(Area Receptora) Hidrograma unitario = [0.2, 0.4, 0.6, 0.8, 1.0, 1.2,1.4, 1.6, 2.0, 2.0, 1.4, 0.8](Area Receptora) caudal = [x,x,x,x,x,x,x,x,x,x,x,1135,1060,968,857,728,587,451,....(Area Receptora)imprecision del caudal = 50

La nueva instancia copia por defecto los valores de los atributos de la correspondienteinstancia de entrada para aquellos atributos que no han sido definidos en las asignaciones. Lasalida proporciona además los valores de los dos nuevos atributos, el primero de ellos es unaserie constante, y el segundo una serie ilimitada de valores de caudal, en la que no han podidoser calculados los valores iniciales debido a las características intrínsecas del método.

La justificación asociada a esta nueva instancia es la misma que la asociada a la instanciade entrada, como marca la cabecera de la definición del modelo*.

Ejemplo:

Usando esta Unidad Cognitiva Genérica de Modelos también es posible simular elcomportamiento de los Tramos de Transporte basados en la fórmula de Muskingum.**

Suponiendo que se han calibrado los parámetros del modelo para valores medios horarios, yque las series de datos que se desean validar se obtienen a intervalos de 5 minutos, la base deconocimientos podría ser la siguiente:

MODELO: { Tramo de Transporte } (Tramo de Transporte) caudal de salida [T] := 1.86 * media ( (Tramo de transporte) caudal de entrada [T-17..T-6] ) - 0.43 * media ( (Tramo de transporte) caudal de entrada [T-5..T+6] ) - 0.43 * media ( (Tramo de transporte) caudal de salida [T-17..T-6] );

Nótese que para que este modelo funcione correctamente es necesario que tenga comoentrada tanto la serie de caudal de entrada, como los valores correspondientes a la primera horade la serie de valores de salida. Esto no supone ningún problema desde el punto de vista de laimplementación. El lenguaje COVALTO utiliza como tipo de dato básico las series indefinidas,es decir series a las que no se les exige un número concreto de elementos, sino sólamente "losnecesarios" para el cálculo. Por tanto, la entrada a este modelo consiste en una instancia (ovarias) del objeto Tramo de Transporte, con dos atributos:

(Tramo de transporte) caudal de entrada = [7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,..(Tramo de transporte) caudal de salida = [8,8,8,8,8,8,8,8,8,8,8,8,8,8,8,8,8,8...

La serie correspondiente al caudal de entrada tiene todos sus elementos biendefinidos. Sin embargo, la serie correspondiente al caudal de salida en la instancia deentrada, sólo tiene que tener definidos los diecisiete primeros elementos. Al comenzar laejecución del modelo se copian los atributos de la instancia de entrada en la instancia de salida,al tratarse del mismo objeto, y sobre esta nueva instancia se realizan las asignaciones que señala

* Nótese que en este punto resulta fácil incluir un mecanismo de validación de los modelos. Basta para elloincorporar a la justificación de la nueva instancia una etiqueta asociada al modelo que ha sido aplicado. Estacaracterística abre nuevas horizontes de aplicación de la arquitectura propuesta como una herramienta útil para lavalidación de modelos hidrológicos. Véanse las futuras lineas de investigación propuestas en el capítulo 9.** Véase el epígrafe 5.3.4

Page 164: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 7. El Modelo Genérico de validación de datos___________________________________________________________________________

150

el modelo. Por otra parte, en el modelo se hace mención al valor T-17, y por tanto sólo secalculan los valores a partir del instante T=17 (que corresponde al elemento décimo octavo de laserie), obteniendo finalmente:

(Tramo de transporte) caudal de entrada = [7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,7...(Tramo de transporte) caudal de salida = [8,8,8,8,8,8,8,8,8,8,8,8,8,8,8,8,8,8,6.5..

En caso de que se desconozca el valor o valores iniciales de la serie de salida, puedenreemplazarse por ceros, aunque esto provoca que la primera porción de la serie no sea correcta.Sin embargo, la influencia de este error inicial decrece conforme se realizan nuevas iteraciones,por lo que, a partir de un cierto instante, el resto de la serie puede considerarse correcta.

Otra posible solución que proporciona una mejor aproximación de las condiciones decontorno inicales consiste en utilizar un modelo en dos etapas, que puede definirse en ellenguaje mediante la yustaposición de dos reglas de Modelo, según se indica en la siguientefigura:

MODELO: { Tramo de Transporte } (Tramo de Transporte) caudal de salida [T] := (Tramo de transporte) caudal de entrada [T];

MODELO: { Tramo de Transporte } (Tramo de Transporte) caudal de salida [T] := 1.86 * media ( (Tramo de transporte) caudal de entrada [T-17..T-6] ) - 0.43 * media ( (Tramo de transporte) caudal de entrada [T-5..T+6] ) - 0.43 * media ( (Tramo de transporte) caudal de salida [T-17..T-6] );

En este caso, basta que la instancia de entrada propocione el atributo caudal de entradaya que en una primera etapa éste se transmite al atributo caudal de salida para todos losinstantes, calculandose posteriormente el modelo de Muskingum en el que las condiciones decontorno inicales están definidas según una mejor aproximación.

7.4. Operación del sistema en tiempo real

Un sistema de estas características puede ser conectado en línea con la recepción dedatos del SAIH, de manera que sea capaz de advertir en tiempo real anomalías en las series dedatos recibidas.

El sistema funcionaría de forma interactiva con un usuario cualificado u operadorestratégico, proporcionandole información sobre los valores estimados de las magnitudeshidrológicas definidas en el modelo de validación, justificando cada una de estas posibleshipótesis mediante los conjuntos de sensores cuyo correcto funcionamiento la avala ydestacando aquellos otros que proporcionan medidas inconsistentes con dicha hipótesis. Estopermite identificar los sensores que no están funcionando correctamente, según el grado deverosimilitud asociado a cada una de las hipótesis.

Mediante un interfaz múltiple el usuario controlaría la operación del sistema, pudiendoconsultar en todo momento los valores que proporcionan los sensores, comparándolos con losque propone el sistema, solicitando de este último las explicaciones de las razones que le hanllevado a rechazar los valores leídos en caso de que difieran; y tomando sus propias decisionessobre la validez o no de las medidas directas y las correcciones propuestas en función de todaesta información.

En función de la experiencia en la operación con el sistema el propio operadorestratégico o un usuario especializado puede decidir efectuar cambios en la base deconocimientos que se aplica para realizar la validación, siguiendo un proceso de refinamiento

Page 165: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 7. El Modelo Genérico de validación de datos___________________________________________________________________________

151

progresivo, de manera que se modifiquen las pautas de comportamiento mediante las cuales elsistema emite sus diagnósticos.

Finalmente, los datos resultantes del proceso de validación pueden ser utilizados porotros programas de aplicación actualmente disponibles, como por ejemplo el software depresentación y gestión de la información , sistemas de alerta para previsión de avenidas, etc.

Sistema de Validación

Recepción de datos

del SAIH

Bases de conocimiento

Software de aplicación

USU

AR

IO

Gestión de bases de conocimiento

Consulta de resultados

Explic

acio

nes

Oper

ació

n

Archivo directo de

datos

Archivo de datos

corregidosTraza de

validación

Operación del sistema de validación en tiempo real

El sistema también podría utilizarse "fuera de línea", para estudiar con detalle episodiosde datos almacenados con anterioridad. Este modo de operación es menos exigente en cuanto atiempos de respuesta, por lo que resulta ideal para contrastar los resultados obtenidos por elsistema en caso de que no se efectúe ninguna poda en el árbol de hipótesis, permitiendo unamejor puesta a punto de las bases de conocimiento correspondientes.

7.5. Conclusiones

En este capítulo se ha realizado la propuesta de una arquitectura capaz de realizar lavalidación integral de los datos recibidos de los sensores del SAIH. Para definir estaarquitectura se ha seguido la metodología KSM de desarrollo y gestión de sistemas basados enel conocimiento, proponiendo un Modelo Genérico a partir del cual se pueden definir sistemasadaptables a las diversas configuraciones de las cuencas sobre las que se ha implantado elSAIH.

La arquitectura propuesta se basa en la descomposición del problema en “UnidadesCognitivas” que representan a “Agentes” o “Inteligencias” capaces de realizar ciertas subtareasque debidamente estructuradas resuelven el problema de validación.

La arquitectura se sustenta en un conjunto de componentes de software básicosdenominados Primitivas de Representación que permiten realizar las subtareas elementales. Para

Page 166: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 7. El Modelo Genérico de validación de datos___________________________________________________________________________

152

la implementación de estas Primitivas se ha definido un nuevo lenguaje de propósito específicodenominado COVALTO, con el objeto de que todo el conocimiento empleado para realizar cadauna de las subtareas necesarias para resolver el problema de validación se haga explícito. Conello se persiguen dos fines principalmente: (a) Proporcionar una estructura abierta ysuficientemente flexible para que el sistema pueda ser fácilmente modificable; y (b) Aproximarla forma de entender el problema por parte de los usuarios, a la forma en que se realiza lacomputación del mismo, de manera que los propios usuarios puedan realizar estasmodificaciones.

Para construir un Modelo del Dominio, es decir, un sistema de validación de datosconcreto para una determinada cuenca o conjunto de cuencas, a partir del Modelo Genéricopuede actuarse de la siguiente forma:

(1) Descomponer espacialmente el problema de manera que se obtengan subproblemas enlos que haya un menor número de sensores involucrados. Si bien no es condiciónindispensable en la arquitectura propuesta el que se realice esta descomposición, con ellase favorece la eficiencia en la computación. Esta descomposición debe agrupar aquelloscúmulos de sensores que a priori se conozca que tienen entre sí una mayor relación. Seha supuesto que esta descomposición coincide con la descomposición física en cuencas ysubcuencas Para incorporar esta descomposición al sistema basta con definir UnidadesCognitivas diferentes para cada cúmulo de sensores.

(2) Para cada uno de los sensores de la cuenca deben establecerse las condiciones según lascuales es a priori posible que el sensor esté funcionando correctamente. Es decir, debenestablecerse los criterios según los cuales es posible determinar que una serie tienehuecos o valores que no son coherentes con los leídos en instantes anteriores (oposteriores), así como, en su caso, las reglas que permiten corregir estos errores o losumbrales bajo los cuales la serie leída puede ser claramente rechazada. La definición deestas reglas se efectúa mediante las respectivas Unidades Cognitivas de CoherenciaLocal.

(3) La etapa anterior de validación de datos es probablemente suficiente en un alto porcentajede casos para eliminar las deficiencias de las series de datos del SAIH. Sin embargo,ciertos errores sistemáticos y ciertas circunstancias especiales no pueden ser detectadassólamente mediante una inspección independiente de las series de valores. Es necesarioestablecer las relaciones que existen entre las distintas series de datos leídas; para ellodebe construirse un modelo de comportamiento de la cuenca. Dicho modelo puedeconstruirse mediante la agregación de pequeños modelos de comportamiento de losprincipales elementos hidrológicos, como Areas Receptoras, Tramos de Transporte,Embalses, etc. Estos modelos proporcionan la inferencia de unas medidas en función deotras, consiguiendo así la redundancia necesaria para llevar a cabo la validación. Puedenconstruirse mediante la Unidad Cognitiva de Modelos, o bien pueden ser implementadosdirectamente mediante programación convencional, permitiendo así la reutilización delsoftware existente. En este último caso sólo es necesario construir una interfaz entre elsistema de validación y los modelos externos.

(4) Finalmente, para realizar la validación global propiamente dicha, es necesario establecerlos criterios de tolerancia según los cuales son coherentes dos o más medidas obtenidas,bien por sensores similares situados en un mismo entorno, o bien por diferentessensores a partir de los cuales se extrapola alguna magnitud hidrológica mediante laaplicación de los modelos. Estos criterios se hacen explícitos en las respectivas UnidadesCognitivas de Coherencia Global.

El siguiente capítulo presenta un ejemplo de aplicación de la arquitectura que aquí sepropone, realizando un sistema de validación de datos aplicable a la cuenca del río Vélezmediante la construcción de un Modelo del Dominio a partir de este Modelo Genérico.

Page 167: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

153

CAPÍTULO 8

UN MODELO DEL DOMINIO PARAVALIDACIÓN DE DATOS EN LA

CUENCA DEL RIO VÉLEZ

8.1. Descripción del Modelo del Dominio.

Si bien la arquitectura propone un marco en el que desarrollar los sistemas de validación,una parte de las tareas de modelización propias de lo que tradicionalmente se ha denominado“ingeniería del conocimiento” deben llevarse a cabo desde la perspectiva del Modelo delDominio concreto al cual se apliquen. A continuación se presenta un ejemplo de aplicación de laarquitectura propuesta para afrontar el problema de validación de los datos de los sensores delsistema SAIH de la cuenca del río Vélez, cuyo plano aparece en la primera figura de estecapítulo

La cuenca del río Vélez tiene una extensión aproximada de 600 km2, y está formada pordos cauces principales, el río Guaro y el río Benamargosa, que confluyen en un punto a partirdel cual el cauce se denomina río Vélez. Sobre el cauce del río Guaro se sitúa la presa de laViñuela. Por su parte el río Benamargosa se llama así hasta el Salto del Negro, aguas arriba delcuál el cauce principal se denomina río de la Cueva. En el plano se muestran en trazo grueso loscauces que componen la red hidrográfica, y en trazo discontinuo las subcuencascorrespondientes a cada uno de ellos. Se indican también los núcleos de población y se hacereferencia a las hojas del mapa geográfico nacional a escala 1:50.000 correspondientes

También aparecen en este plano, las estaciones del sistema SAIH representadas mediantecírculos, dentro de los cuales se indica el tipo de sensores de que dispone cada estaciónmediante un símbolo característico. En total hay instalados: 1 sensor de nivel en el embalse de laViñuela; 3 estaciones de aforo, una en el propio embalse, que mide el caudal desaguado, otra enel Salto del Negro, y otra en la desembocadura del río Vélez* ; y 6 pluviómetros, uno en cadaestación.

Para construir un sistema de validación de datos de los sensores de esta cuenca a partirde la arquitectura propuesta en el capítulo anterior, debe construirse un Modelo del Dominio apartir del Modelo Genérico. En la construcción de este Modelo del Dominio, y en aras de unamayor claridad expositiva, se han tomado decisiones de modelización que resaltan laversatilidad de la propuesta, dado que se trata de un ejemplo cuyo objetivo es ilustrar las

* Este último aforo no existe en la realidad, aquí se supone su existencia para poder realizar una exposición máscompleta de la arquitectura propuesta.

Page 168: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 8. Un Modelo del Dominio para Validación de Datos en la Cuenca del Río Vélez___________________________________________________________________________

154

características de la arquitectura. Estas decisiones, en algunos casos, pueden resultar un tantoartificiosas o excesivamente simplistas. Para la construcción de un sistema real de validaciónpara la cuenca del río Vélez, los criterios de modelización deben emanar de la experiencia o delestudio hidrológico de situaciones anteriores. La determinación de los mejores criterios a aplicaren cada caso concreto van más allá del objeto de esta tesis.

fig.1. Plano Hidrológico de la Cuenca del Río Vélez

Dentro de la cuenca total del río Vélez se han considerado cinco subcuencas; la cuencadel río de la Cueva se ha modelado mediante la Unidad Cognitiva del río de la Cueva, lasubcuenca del río Guaro que afluye al embalse de la Viñuela se ha modelado mediante la UnidadCognitiva de Cuenca de la Viñuela y las tres subcuencas inferiores se ha preferido modelarlasdirectamente como parte de la cuenca total representada por la Unidad Cognitiva de Cuenca delrío Vélez de la que también forman parte las otras Unidades Cognitivas. Estas decisiones demodelización imponen la jerarquía de objetos sobre la que se efectuará la validación. El tamañoy número de las cuencas que se consideran como Unidades Cognitivas no es un factor

Page 169: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 8. Un Modelo del Dominio para Validación de Datos en la Cuenca del Río Vélez___________________________________________________________________________

155

determinante en la aplicación de la arquitectura. Sin embargo, dado que las validacionesglobales se efectúan a nivel de cada Unidad Cognitiva, el establecimiento de esta jerarquíaconlleva decisiones sobre el mecanismo de control de flujo que se desea imponer en el sistema.

Se ha considerado un nivel de agregación temporal de los datos de 1 hora, considerandoseries de 24 datos. La arquitectura propuesta no impone el nivel de agregación que debeelegirse. Sin embargo éste debe fijarse antes de definir las bases de conocimiento, ya que puedevariar para distintos niveles de agregación.*

A.R.

VIÑUELA

A.R.

VELEZ

A.R.

SANTOPITAR

fig.2. Esquema general del Modelo del Dominio

Esta descomposición establece la estrategia con la que se realiza la validación de losdatos. En primer lugar se realizan las validaciones de los sensores situados en las subcuencas

* De hecho, para niveles de agregación muy pequeños, es posible que no se tenga suficiente conocimiento pararealizar la validación. Por ejemplo, en el caso de dos pluviómetros cercanos la correlación entre las medidas deámbos disminuye sensiblemente conforme lo hace el nivel de agregación temporal.

Page 170: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 8. Un Modelo del Dominio para Validación de Datos en la Cuenca del Río Vélez___________________________________________________________________________

156

del río de la Cueva y del embalse de la Viñuela. La validación en estas subcuencas se hace deforma independiente, obteniendo como conclusión de las mismas una o varias hipótesis decaudal en el punto más bajo de las mismas, así como una estimación de la intensidad de lluviamedia horaria en la zona. Estas hipótesis, junto con las medidas de los sensores situados en lazona inferior sirven de base para la validación total de la cuenca del río Vélez.

Estas etapas de validación de datos se implementan mediante la correspondiente UnidadCognitiva de Cuenca. Cada una de ellas incluye como elementos de conocimiento principales:

(1) los sensores situados en la cuenca (Unidades Cognitivas de Sensor), que incluyen a suvez las rutinas de lectura y conversión de los datos y las comprobaciones locales sobrelas series leídas (Unidades Cognitivas de Coherencia Local),

(2) los modelos de funcionamiento (Unidades Cognitivas de Modelos)(3) los criterios con los que se realiza la validación (Unidades Cognitivas de Coherencia

Global)

La siguiente figura presenta el esquema general de la estructuración del conocimiento enel Modelo del Dominio. Este esquema corresponde a una instancia del esquema del ModeloGenérico de la sección 7.3. Los siguientes epígrafes de este capítulo están dedicados a estudiarcon detalle cada una de las Unidades Cognitivas de Cuenca.

Coherencia de Caudales en la Confluencia (Benamargosa)

Coherencia de Lluvias en la Cuenca del Vélez

ModeloA. Receptora

El Borge

ModeloA. Receptora

Alcaucín

ModeloT. TransporteBenamargosa

ModeloT. TransporteGuaro Bajo

ModeloT. Transporte

Vélez

ModeloA. ReceptoraVélez-Málaga

Coherencia de Caudales

en la Desembocadura (Vélez-Málaga)

Coherencia de Aportaciones

Embalse Viñuela

Modelo T. TransporteGuaro Alto

ModeloA. Receptora

Alfarnate

Modelo del Embalse Viñuela

Modelo A. Receptora

Periana

U.C. CUENCADEL EMBALSE DE LA

VIÑUELA

U.C. CUENCADEL RÍO VÉLEZ

ModeloA. Receptora

Canillas

U.C.Coherencia Local Pluv.Santopítar

U.C.PluviómetroSantopítar

Coherencia Global

Pluviómetros

U.C. Pluviómetro

Salto del Negro

U.C. AforoSalto del

Negro

U.C. CUENCADEL RÍO DE LA CUEVA

Coherencia deCaudales en

Salto del Negro

ModeloArea Receptora

Santopítar

ModeloArea Receptora

Colmenar

ModeloT. Transporte

Río de la Cueva

U.C.Coherencia Local Pluv.

Salto del Negro

U.C.Coherencia Local Aforo

Salto del Negro

U.C.Coherencia Local Pluv.Alfarnatejo

U.C.PluviómetroAlfarnatejo

U.C.Coherencia Local Aforo

Viñuela

U.C.Coherencia Local Nivel

Viñuela

U.C. AforoViñuela

U.C. NivelViñuela

U.C.Coherencia Local Pluv.Alcaucín

U.C.Coherencia Local Pluv.

Vélez- Málaga

U.C.Pluviómetro

Alcaucín

U.C.PluviómetroVélez-Málag

a

U.C. Aforo

Vélez-Málaga

U.C.Coherencia Local Aforo

Vélez-Málaga

Esquema General del Modelo del Dominio

Page 171: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 8. Un Modelo del Dominio para Validación de Datos en la Cuenca del Río Vélez___________________________________________________________________________

157

8.2.Unidad Cognitiva de Cuenca del Río de la Cueva

Esta Unidad Cognitiva representa el conocimiento de un agente que sabe sobre elcomportamiento de toda la cuenca que vierte sobre el Salto del Negro, y que emplea esteconocimiento, junto con un conocimiento de tipo genérico, para realizar la validación de losdatos de tres sensores situados en este área geográfica: el pluviómetro de Santopítar; elpluviómetro y el aforo en el Salto del Negro.

A.R.

SANTOPITAR

Estimar

Explicar

Coherencia deCaudales en Salto del Negro

T. TransporteRío de la Cueva

U.C.PluviómetroSantopitar

Coherencia Global Pluviómetros

U.C. PluviómetroSalto del Negro

U.C. CUENCA DE LA CUEVA

U.C. AforoSalto del Negro

Area ReceptoraSantopitar

Area ReceptoraColmenar

Para modelizar esta cuenca, se considera que puede descomponerse en tres elementoshidrológicos principales: un Area Receptora que promedia la lluvia de toda la zona norte,cercana a la población de Colmenar, otra Area Receptora que represente a la zona sur, y unTramo de Transporte que simula el comportamiento de una parte del cauce principal,estableciendo un retardo en el caudal obtenido en el área norte.

Para que sea posible realizar la validación de los datos de los sensores, se incluyentambién dos Unidades Cognitivas de Coherencia: una que establece la relación existente entrelas medidas de los dos pluviómetros, y otra que establece las discrepancias que son admisiblesentre el caudal aforado en el Salto del Negro y el caudal que resulta de la previsión que losmodelos hacen a partir de las medidas de los dos pluviómetros.

Con todo este conocimiento, esta unidad debe ser capaz de generar diversas hipótesissobre el funcionamiento de la cuenca, caracterizadas mediante la intendidad de lluvia media y elcaudal en el punto de desagüe, y justificadas en función de la combinación de los sensores queavalan cada combinación de valores.

En términos de KSM Las Areas de Conocimiento y las tareas a realizar son lassiguientes:

Page 172: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 8. Un Modelo del Dominio para Validación de Datos en la Cuenca del Río Vélez___________________________________________________________________________

158

Pluviómetro Santopítar

Es una instancia de la Unidad Cognitiva Genérica de Pluviómetro. Las áreas deconocimiento de esta Unidad Cognitiva son a su vez instancias de las primitivasde representación que incluye la correspondiente Unidad Cognitiva Genérica.Entre éstas la más significativa es la Unidad Cognitiva de Coherencia Local delPluviómetro de Santopítar. En ella se establecen las condiciones que debecumplir la señal del pluviómetro sabiendo que la magnitud que mide es unaintensidad de lluvia, y corrigiendo aquellos valores espurios claramenteinconsistentes. La base de conocimientos es la siguiente* :

ALIAS: I :: (Pluviometro Santopitar) intensidad de lluvia; c :: (Pluviometro Santopitar) contador de fallos;

CORRECCION:

I[T] < 0 // valor minimo ==> {

I[T] := 0; c := c+1; }

I[T] > 15 // valor maximo en 1 hora. ==> {

I[T] := I[T-1]; c := c+1; }

I[T] > I[T-1] + 5 // pendiente maxima ==> {

I[T] := min ( (I[T-1]+I[T+1])/2, I[T-1] + 5 ); c := c+1; }

I[T] < I[T-1] - 10 // pendiente minima ==> {

I[T] := max ( (I[T-1]+I[T+1])/2, I[T-1] - 10 ); c := c+1; }

Esta base de conocimientos indica que deben eliminarse aquellos valoresmenores que 0 y mayores de 15 mm/h, así como aquellos que excedan unapendiente máxima o mínima que se considera admisible. En los distintos casosse hace una estimación del valor que debería haberse medido. Las reglas decorrección se aplican secuencialmente para cada instante T entre 0 y 23.

Asimismo, la Unidad Cognitiva de Coherencia Local puede proporcionar unmétodo de Validación que permita rechazar completamente la serie medida si seconsidera que presenta demasiados errores. Para ello se incluye en la base deconocimientos la siguiente sección:

COHERENCIA: { Pluviometro Santopitar } /* VALIDACION: */

sumatorio(I[T..T+11]) < 50 && c<5

* El listado completo de las bases de conocimientos empleadas en el sistema de validación puede encontrarse en elapéndice B. Aquí se presentan sólo algunas de ellas de forma abreviada con el objeto de exponer la arquitectura.

Page 173: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 8. Un Modelo del Dominio para Validación de Datos en la Cuenca del Río Vélez___________________________________________________________________________

159

Este conocimiento impone que es rechazable cualquier serie que proporcionemás de 50 mm. en 12 horas, o bien que en las 24 horas de estudio presente másde cinco fallos puntuales.

Pluviómetro Salto del N.

Es una unidad Cognitiva similar a la anterior, que se aplica a los valores delpluviómetro situado en el Salto del Negro. Su salida es la serie de intensidad delluvia una vez eliminados los valores espurios.

Aforo Salto del Negro

Es una unidad Cognitiva análoga a la anterior, que se aplica en este caso a losvalores del aforo situado en el Salto del Negro.

Coherencia Global

Pluviómetros

La misión de esta Área de Conocimiento es determinar cuándo puedenconsiderarse coherentes los valores medidos por los pluviómetros de la regiónque abarca esta Unidad Cognitiva.

En general pueden darse cuatro situaciones: (1) que ambos pluviómetros funcio-nen correctamente, en cuyo caso las series de intensidades de lluvia medidas enellos serán coherentes, (2) y (3) que las medidas de ambos pluviómetrosdiscrepen en cuyo caso se puede suponer que uno de ellos funcionacorrectamente y el otro no, o viceversa; y (4) que ambos pluviómetros fallensimultáneamente. En los tres primeros casos se realiza una estimación de losvalores correctos según proceda.

La base de conocimientos para llevar a cabo esta tarea es la siguiente:

COHERENCIA: { Pluviometro Santopitar, Pluviometro Salto del Negro } /* VALIDACION: */ (Pluviometro Santopitar) contador de fallos < 1 && (Pluviometro Salto del Negro) contador de fallos < 1 && media( (Pluviometro Santopitar) intensidad de lluvia ) > 1.1 * media( (Pluviometro Salto del Negro) intensidad de lluvia ) /* ESTIMACION: */ --> <-- Pluviometro Santopitar --> (Pluviometro Santopitar) fiabilidad := max((Pluviometro Santopitar) fiabilidad, (Pluviometro Salto del Negro) fiabilidad ); <-- Pluviometro Salto del Negro --> (Pluviometro Salto del Negro) fiabilidad := max((Pluviometro Santopitar) fiabilidad, (Pluviometro Salto del Negro) fiabilidad );

COHERENCIA: { Pluviometro Salto del Negro } /* VALIDACION: */ (Pluviometro Salto del Negro) contador de fallos < 5 /* ESTIMACION: */ --> <-- Pluviometro Santopitar --> (Pluviometro Santopitar) intensidad de lluvia[T] := 1.20 * (Pluviometro Salto del Negro) intensidad de lluvia[T]; (Pluviometro Santopitar) fiabilidad := (Pluviometro Salto del Negro) fiabilidad; <-- Pluviometro Salto del Negro -->

Page 174: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 8. Un Modelo del Dominio para Validación de Datos en la Cuenca del Río Vélez___________________________________________________________________________

160

COHERENCIA: { Pluviometro Santopitar } /* VALIDACION: */ (Pluviometro Santopitar) contador de fallos < 5 /* ESTIMACION: */ --> <-- Pluviometro Salto del Negro --> (Pluviometro Salto del Negro) intensidad de lluvia[T] := 0.80 * (Pluviometro Santopitar) intensidad de lluvia[T]; (Pluviometro Salto del Negro) fiabilidad := (Pluviometro Santopitar) fiabilidad; <-- Pluviometro Santopitar -->

De forma resumida, esta base de conocimientos de coherencia impone comocondición para que puedan ser consideradas ambas series válidas que ambas nopresenten ningún valor espurio que deba ser corregido y que la media (en las 24horas objeto de estudio) de intensidades en Santopítar, situado a mayor altitud,sea mayor que el 110% de la media en el pluviómetro del Salto del Negro. Encaso de que se verifique esta condición los valores de las series de lospluviómetros se estima que corresponden a los valores medidos, siendo avaladaesta hipótesis por el funcionamiento de ambos sensores.

En caso de que no se verifique la condición anterior, la base de conocimientosplantea la segunda y tercera hipótesis, en las que sólo se impone como condiciónprevia que no se produzcan más de cinco fallos espurios. En estos casos, lasegunda de las reglas de coherencia permite realizar una estimación del valor quedebía haberse medido en el pluviómetro de Santopítar a partir del valor que se hamedido en el Salto del Negro (y que en esta hipótesis se considera correcto). Latercera regla es simétrica de la anterior para el caso en el que la hipótesis defuncionamiento correcto sea la del pluviómetro de Santopítar.

Area ReceptoraSantopitar

Area ReceptoraColmenar

T. TransporteRío de la Cueva

Estas tres Unidades Cognitivas, con sus respectivas bases de conocimiento,representan la aplicación de los modelos que simulan el comportamientohidrológico de la cuenca del Río de la Cueva.

La arquitectura propuesta permite el empleo de cualquier tipo de modelohidrológico. Lo único que se exige es que sea capaz de inferir las respuestas delsistema dadas unas entradas, y que se determinen convenientemente lasjustificaciones resultantes de la combinación de hipótesis realizadas. Si se deseanemplear modelos numéricos complejos precompilados, basta con llamarlossucesivamente para las distintas hipótesis que se consideren.

En cualquier caso, se ha implementado una Unidad Cognitiva de Modelos quepermite definir cómodamente modelos hidrológicos simples de gran utilidad alos efectos de validación de datos.

En el ejemplo que sirve de base a este capítulo, dado que se trata de cuencas depoca extensión, con tiempos de concentración pequeños, se ha considerado unmodelo basado en la fórmula de Coutagne (véase [Remenieras,1971]) para elcálculo del caudal de escorrentía Q resultante en un área receptora de superficieS, sometida a un aguacero de intensidad I:

Q = k ⋅ S ⋅ In

en donde k y n son parámetros que deben estimarse estadísticamente.

Page 175: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 8. Un Modelo del Dominio para Validación de Datos en la Cuenca del Río Vélez___________________________________________________________________________

161

Así por ejemplo, para el Area Receptora de Colmenar, se puede calcular el valorde la serie de caudal de escorrentía en función de las series de intensidad de llu-via de los pluviómetros de Santopítar y Salto del Negro. Este conocimiento seexpresa mediante el siguiente código:

MODELO: Area Receptora Colmenar { Pluviometro Santopitar, Pluviometro Salto del Negro }

Q1[T] := 0.625 * k1 * S1 * I1[T]^n1

+ 0.375 * k1 * S1 * I2[T]^n1 ; // media ponderada

En donde Q1[T] es el caudal de escorrentía resultante, I1[T] e I2[T] represen-tan respectivamente a las intensidades de lluvia horarias en ambos pluviómetros,S1 es el área de la subcuenca de Colmenar (aproximadamente unos 100 km2), yK1 y n1 son los parámetros de la fórmula de Coutagne, cuyos valores por de-fecto son 0,01 y 2,5 respectivamente. De forma similar se define el modelo delArea Receptora de Santopítar.

En cuanto al modelo del Tramo de Transporte del Río de la Cueva, se ha simpli-ficado al máximo, suponiendo que sintetiza los caudales de escorrentía de ambasáreas receptoras, si bien aplicando un retardo de una hora para el caudal obtenidoen la subcuenca superior. La formalización de este modelo es la siguiente:

MODELO: Tramo de Transporte del Rio de la Cueva{ Area Receptora Colmenar, Area Receptora Santopitar }

QE[T] := Q1[T];QS[T] := Q1[T-1] + Q2[T];

I[T] := media(I1[T],I2[T]); f := 0.75 * f1 * f2;

en donde Q1[T] y Q2[T] representan respectivamente los caudales de ambasáreas receptoras y, QE[T] y QS[T] representan los caudales aguas arriba y aguasabajo del tramo de transporte. Asimismo se calcula la intensidad de lluvia mediaen la zona, en función de las intensidades de lluvia en los pluviómetros y la fia-bilidad global de estas medidas mediante una fórmula heurística simplificada.

En esta base de conocimientos, los objetos que aparecen entre llaves en lacabecera del modelo son aquellos de cuya combinación de justificaciones depen-den los valores de salida.

Coherencia Global de

caudales en Salto del Negro

Una vez establecidos los modelos hidrológicos de la cuenca del Río de la Cueva,se obtendrán una o varias estimaciones del caudal que se produce en el Salto delNegro. Este caudal estimado se compara con el caudal realmente aforado(previamente eliminados de esta medida los valores espurios) utilizando para ellolas reglas de coherencia de esta base de conocimientos.

Al igual que en la Unidad Cognitiva de Coherencia anterior, puede ocurrir queambas medidas sean coherentes, o que no lo sean, lo que provocará lascorrespondientes estimaciones en su caso. La base de conocimientos de esteelemento del sistema es la siguiente:

Page 176: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 8. Un Modelo del Dominio para Validación de Datos en la Cuenca del Río Vélez___________________________________________________________________________

162

COHERENCIA: {Aforo Salto del Negro,Tramo de Transporte del Rio de la Cueva} /* VALIDACION: */ | Qaforado[T] - Qestimado[T] | < 0.5*Qaforado[T]+5 /* ESTIMACION: */ --> (Unidad Cognitiva Rio de la Cueva) caudal[T] := Qaforado[T]; (Unidad Cognitiva Rio de la Cueva) intensidad de lluvia media[T] := I[T]; (Unidad Cognitiva Rio de la Cueva) fiabilidad := 1-(1-f1)*(1-f2);

COHERENCIA: {Tramo de Transporte del Rio de la Cueva} /* VALIDACION: */ // sea cual sea /* ESTIMACION: */ --> (Unidad Cognitiva Rio de la Cueva) caudal[T] := Qestimado[T] ; (Unidad Cognitiva Rio de la Cueva) intensidad de lluvia media[T] := I[T]; (Unidad Cognitiva Rio de la Cueva) fiabilidad := f2;

COHERENCIA: {Aforo Salto del Negro} /* VALIDACION: */ // sea cual sea /* ESTIMACION: */ --> (Unidad Cognitiva Rio de la Cueva) caudal[T] := Qaforado[T]; (Unidad Cognitiva Rio de la Cueva) intensidad de lluvia media[T] := DESCONOCIDO; (Unidad Cognitiva Rio de la Cueva) fiabilidad := f1;

En esta base de conocimientos la condición que se impone para considerar quelos caudales medidos y estimados son coherentes es que difieran en menos de un50% del valor del caudal aforado + 5 m3/sg. En este fragmento de la base deconocimientos, I[T] representa la intensidad de lluvia media, asociada al caudalque se ha estimado en el modelo del Tramo de Transporte anterior y, f1 y f2son respectivamente las fiabilidades de los valores medidos y estimados. Nóteseque en el caso en el que deba hacerse una estimación sólo a partir de los valoresde caudal aforado, resulta imposible estimar el valor de la intensidad de lluviamedia, dado que se ha empleado un modelo cuantitativo de lluvia-escorrentía.*Sin embargo, si se hubiera empleado un modelo cualitativo podría reutilizarse eneste punto para hacer una abducción de las lluvias que provocan el caudalaforado.

Estimar

Este método de inferencia es el encargado de la ejecución ordenada de las distin-tas primitivas de inferencia que se han citado anteriormente. El método realizaimplícitamente la validación de los datos de todos los sensores de la cuenca ygenera diferentes hipótesis en caso de conflicto entre las informaciones queprovienen de diversas fuentes.

En el siguiente esquema se recoge el flujo de información y control general de laUnidad Cognitiva del Río de la Cueva. Los métodos se representan mediantecírculos y los resultados de la ejecución de los mismo mediante cuadrados. Paraindicar cuándo el resultado de la ejecución de uno de estos métodos da origen avarias instancias de salida**, se emplean varios cuadrados. Así mismo, se indicaen cada caso mediante la etiqueta correspondiente qué objetos se manejan,señalando entre paréntesis el número de instancias de los mismos que inicial-mente se generan durante la ejecución del ejemplo.

* En este caso el modelo es muy simple y podría hallarse su inverso, pero no en el caso general.** En este sentido se dice que el proceso es "indeterminista".

Page 177: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 8. Un Modelo del Dominio para Validación de Datos en la Cuenca del Río Vélez___________________________________________________________________________

163

Coherencia LocalPluv. Salto del N.

Coherencia LocalAforo Salto del N.

Coherencia LocalPluv. Santopítar

Aforo Salto del N.(datos leídos)

Aforo Salto del N.(datos corregidos)

Pluv. Salto del N.(datos leídos)

Pluv. Salto del N.(datos corregidos)

Pluv. Santopítar(datos corregidos)

Pluv. Santopítar(datos leídos)

Coherencia GlobalRío de la Cueva

Pluv. Santopitar (2 hipótesis = corregidos + inferidos de P.Salto N.)

Pluv. Salto del N. (2 hipotesis =corregidos + inferidos de P.Santopítar)

Modelo delA.R. Santopitar

Modelo delA.R. Colmenar

Modelo del T.T. Río de la Cueva

A.R. Santopitar (2 hip.) A.R. Colmenar (2 hip. )

T.T. Río de la Cueva (2 hip. )

Coherencia GlobalCaudales en Salto del N.

U.C. Río de la Cueva (3 hipotesis)

Explicar

Es el procedimiento encargado de presentar las explicaciones en caso de quesean solicitadas por el usuario*. Estas se obtienen a partir de los ficheros de trazaque va generando el método de estimación durante su funcionamiento (Véase unejemplo de una posible ejecución de este método al final del siguiente epígrafe).

8.2.1. Ejemplo de ejecución

Para ilustrar el funcionamiento del sistema se ha considerado una serie de datos de entradapara cada uno de los sensores que intervienen en la cuenca del río Vélez.** Seguidamentese exponen la secuencia y los resultados obtenidos en la ejecución del método deestimación de la Unidad Cognitiva. A continuación se simula la llamada al método deExplicación para algunos de los resultados obtenidos.

Estimación En la siguiente figura se muestran tres series correspondientes a los valoresleídos en el pluviómetro de Santopítar, los que se obtienen corrigiendo la serie según elconocimiento de la Unidad Cognitiva de Coherencia Local, y el que resulta de laestimación a partir de los datos del pluviómetro del Salto del Negro***:

* Este método no se ha implementado en el prototipo.** En el ejemplo que se propone no se trabaja con datos reales, debido a la dificultad de encontrar un ejemplocompleto que permitiera exponer las caracteristicas de la arquitectura propuesta. Normalmente, en situacionesreales los fallos que se producen son menores, por lo que la validación desde el punto de vista metodológico esmás fácil. Sin embargo, la determinación del conocimiento de validación aplicable a un caso real, asi como losmodelos de comportamiento reales de los componentes hidrológicos del sistema, es mucho más complicada yrequiere un gran esfuerzo previo de conceptualización que queda fuera de los objetivos que se persiguen en estatesis.*** El sistema de validación implementado no incluye una salida gráfica. Estas han sido obtenidas transcribiendoen una hoja de cálculo los valores hallados por el sistema para la mejor exposición de su funcionamiento. En un

Page 178: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 8. Un Modelo del Dominio para Validación de Datos en la Cuenca del Río Vélez___________________________________________________________________________

164

0 5 10 15 20 25

-5

0

5

10

Tiempo en horas

intensidad de lluvia (mm)

leidos corregidos inferidos de PSlt

Santopitar(intensidad de lluvia)

La primera de las condiciones impuesta en la base de conocimientos de coherencia globalde los pluviómetros de la cuenca no se satisface, y por tanto se realizan las dos siguientesestimaciones. Por ello, se obtienen finalmente dos posibles valores de intensidad de lluviaen el pluviómetro Santopítar. Ambas hipótesis tienen como soporte respectivamente elfuncionamiento correcto del propio pluviómetro y el fallo del otro, o bien elfuncionamiento del otro y el fallo en el primero.

En el ejemplo que se desarrolla se ha asociado un valor de "fiabilidad" a cada una de estashipótesis, lo que permitirá rechazar unas frente a otras cuando la combinación de lasmismas produzca una explosión combinatoria.

Análogamente para el pluviómetro del Salto del Negro se establecen otras dos hipótesis defuncionamiento que se sintetizan en el siguiente gráfico. En este caso los valorescorregidos coinciden con los leídos, es decir, no hay correcciones previas.

0 5 10 15 20 25

0

2

4

6

8

10

Tiempo en horas

intensidad de lluvia (mm)

leidos corregidos inferidos de PStp

Salto del Negro(intensidad de lluvia)

Dado que hay dos hipótesis de valores para la intensidad de lluvia en cada uno de lospluviómetros, existen cuatro combinaciones de hipótesis en la entrada a los modelos. Sinembargo, sólo dos de ellas son consistentes entre sí: las dos parejas cuyas justificacionessoporte son consistentes. Gracias al mecanismo de estimación previo, un modelooriginalmente diseñado para la estimación del caudal de escorrentía a partir de las medidasde dos pluviómetros puede ser aplicado basándose sólamente en el funcionamiento de uno

desarrollo de este prototipo estas rutinas de presentación de la salida podrían incorporarse como nuevos métodosde la unidad cognitiva.

Page 179: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 8. Un Modelo del Dominio para Validación de Datos en la Cuenca del Río Vélez___________________________________________________________________________

165

de ellos. El resultado de estos modelos vuelven a ser dos hipótesis basadas así mismo enel funcionamiento correcto de cada uno de los pluviómetros y el fallo del otro.

Estas dos hipótesis son la entrada al Area de Conocimiento de Coherencia de Caudales enel Salto del Negro, en donde se realizan las dos combinaciones posibles de estas hipótesiscon el caudal aforado, para hallar de esta forma una o más estimaciones del caudalresultante de esta Unidad Cognitiva.

La ejecución de este proceso da como resultado la coherencia de la hipótesis basada en elfuncionamiento del pluviómetro del Salto del Negro, con el caudal medido por el Aforo enel mismo punto, lo que genera una estimación para el caudal de la Unidad Cognitiva. Laotra hipótesis de caudal estimado no es coherente con el caudal aforado, por lo que serealizan dos estimaciones más, una de ellas basada en dicho caudal estimado y otra basadasólo en el caudal aforado.

Las distintas medidas y estimaciones del caudal en este punto se presentan en el siguientegráfico:

0 5 10 15 20 25

-20

0

20

40

60

80

100

120

Tiempo en horas

caudal (m3/sg)

leidos: ASlt corregidos: ASlt

inferidos: PSlt, no(PStp) inferidos: PStp, no(PSlt)

Salto de Negro(caudal)

Por consiguiente, el resultado de la ejecución de esta Unidad Cognitiva es un conjunto detres instancias, que finalmente quedan en dos, al agrupar aquellas que dan el mismocaudal. La primera de estas hipótesis se sigue del funcionamiento del aforo en Salto delNegro o bien del funcionamiento del pluviómetro en este punto y el no funcionamiento delotro pluviómetro. La segunda de las hipótesis (de la que se infiere un caudalsensiblemente diferente) se sigue del funcionamiento correcto del pluviómetro deSantopítar y del fallo simultáneo de los sensores de caudal e intensidad de lluvia en elSalto del Negro.

Una opción en este punto sería considerar como única posibilidad la primera de estasalternativas, obteniendo así un comportamiento determinista para esta Unidad Cognitiva yfijando en este punto las decisiones sobre el funcionamiento de los sensores. Sinembargo, a efectos de este ejemplo, se transmiten ambas hipótesis para su posteriortratamiento.

Explicación El método de explicación consiste en la presentación de la traza deoperaciones que se han efectuado para llegar a una determinada conclusión. La entrada aeste método sería una instancia de alguno de los objetos para cuyos valores se requiereexplicación.

Page 180: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 8. Un Modelo del Dominio para Validación de Datos en la Cuenca del Río Vélez___________________________________________________________________________

166

Por ejemplo, tras la ejecución anterior puede solicitarse al sistema que justifique por quéasigna al objeto correspondiente a la Unidad Cognitiva del río de la Cueva los siguientesvalores:

funciona Pluviómetro Santopítar y no funciona Aforo Salto del Negroy no funciona Pluviometro Salto del Negro

Unidad Cognitiva Rio de la Cueva

caudal

['x',3.43,0.70,2.80,7.15,4.63,4.96,3.80,5.30,6.22,2.39,3.36,4.10,3.48,3.48,1.56,0.00,0.00,2.68,94.94,77.46,5.45,3.75,1.50]

intensidad de lluvia media

['x',0.36,0.81,1.35,1.89,0.63,1.80,0.00,1.89,1.26,0.90,1.44,1.26,1.26,1.26,0.00,0.00,0.00,1.44,5.94,1.35,1.62,0.90,0.90]

fiabilidad

0.48

Instancia correspondiente a la Hipótesis :

El sistema llamará sucesivamente a los métodos de explicación de cada una de lasUnidades Cognitivas que se han empleado en orden inverso a su aplicación. Como primerpaso llamará al método de explicación de la Unidad Cognitiva de Coherencia Global decaudales en el Salto del Negro. Este método presentará una ventana con la siguienteinformación* :

funciona Pluviómetro Santopítar y no funciona Aforo Salto del Negroy no funciona Pluviometro Salto del Negro

Explicación: Unidad Cognitiva Rio de la Cueva

Se ha aplicado

Instancia correspondiente a la Hipótesis :

"Coherencia Global de Caudales en el Salto del Negro"

a las instancias de los objetos:

"Aforo en Salto del Negro"

"Tramo de Transporte del Rio de la Cueva"

No se ha verificado la regla: (para T=6)

Se ha verificado la regla (para todo T)

COHERENCIA: {Aforo Salto del Negro,Tramo de Transporte del Rio de la Cueva} /* VALIDACION: */ | Qaforado[T] - Qestimado[T] | < 0.5*Qaforado[T]+5

COHERENCIA: {Tramo de Transporte del Rio de la Cueva} /* VALIDACION: */ // sea cual sea /* ESTIMACION: */ --> (Unidad Cognitiva Rio de la Cueva) caudal[T] := Qestimado[T] ; (Unidad Cognitiva Rio de la Cueva) intensidad de lluvia media[T] := I[T]; (Unidad Cognitiva Rio de la Cueva) fiabilidad := f2;

en donde aparece la traza que ha dado lugar a los valores de la instancia cuya explicaciónse solicita. En ciertos puntos de esta ventana pueden incluirse controles para visulizar, labase de conocimientos, o bien las instancias de los objetos que han servido de base a laaplicación de las reglas. Por ejemplo, a demanda del operador en el icono correspondientea los objetos "Aforo en Salto del Negro" y "Tramo de Transporte en el Riode la Cueva" el sistema puede responder con otras nuevas ventanas con la informaciónsobre las instancias de estos objetos que han sido utilizadas, y que en este caso sonrespectivamente:

* Las ventanas que aparecen en este epígrafe no han sido implementadas, las que aquí se muestran debenconsiderarse solamente como una posible especificación de la implementación de este método.

Page 181: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 8. Un Modelo del Dominio para Validación de Datos en la Cuenca del Río Vélez___________________________________________________________________________

167

funciona Aforo en Salto del Negro

Aforo Salto del Negro

caudal

contador de fallos

2

fiabilidad

0.95

Instancia correspondiente a la Hipótesis :

[1.10,2.70,1.90,6.50,3.00,18.00,49.00,45.00,6.00,2.20,5.10,5.20,3.10,0.40,0.00,0.30,2.90,80.00,84.00,34.00,6.20,1.90,0.90,0.30]

y

funciona "Pluviometro Santopítar"y no funciona "Pluviómetro en Salto del Negro"

Tramo de Transporte Rio de la Cue

caudal aguas arriba

caudal aguas abajo

fiabilidad

0.95

Instancia correspondiente a la Hipótesis :

intensidad de lluvia media

['x',3.43,0.70,2.80,7.15,4.63,4.96,3.80,5.30,6.22,2.39,3.36,4.10,3.48,3.48,1.56,0.00,0.00,2.68,94.94,77.46,5.45,3.75,1.50]

['x',0.07,0.52,1.85,4.29,0.28,3.80,0.00,4.29,1.56,0.67,2.18,1.56,1.56,1.56,0.00,0.00,0.00,2.18,75.17,1.85,2.92,0.67,0.67]

['x',0.36,0.81,1.35,1.89,0.63,1.80,0.00,1.89,1.26,0.90,1.44,1.26,1.26,1.26,0.000.00,0.00,1.44,5.94,1.35,1.62,0.90,0.90]

Según se expone en la ventana de explicación , a partir de estos valores y al menos enalgún instante (concretamente para T=6), no se ha verificado la primera de las condicionesde coherencia que exigía que los valores de caudal de ambas instancias no fuesen muydispares, pero sí se ha verificado la segunda de las condiciones de la base deconocimientos de Coherencia Global (condición vacía), para todo instante T. Esta regla sefundamenta en la creencia en los valores del "Tramo de Transporte del Rio de laCueva" , y consiguientemente se han realizado la estimación del consecuente, para todoinstante T:

La justificación correspondiente a la instancia final del objeto "Unidad Cognitiva delRio de la Cueva" se obtiene como combinación de las justificaciones de cada una delas instancias de la hipótesis de partida. Como la regla aplicada supone la confianza en losvalores de la instancia del objeto "Tramo de Transporte del Rio de la Cueva" ypresupone el fallo de la primera regla que exigía también la confianza en la instancia del"Aforo Salto del Negro", el resultado supone la creencia en las justificaciones de laprimera y niega la creencia en las justificaciones de la segunda, es decir, la justificación seobtiene de la afirmación de la hipótesis "funciona Pluviometro en Salto deSantopitar y no funciona el Pluviometro del Salto del Negro" y delrechazo de la hipótesis en que se basa la otra instancia, es decir: "funciona el Aforoen Salto del Negro"

Page 182: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 8. Un Modelo del Dominio para Validación de Datos en la Cuenca del Río Vélez___________________________________________________________________________

168

El sistema puede continuar en sus explicaciones encadenando las reglas aplicadasanteriormente de forma automática o bien a instancias del propio usuario.* Por ejemplo,podría explicar los valores correspondientes a la instancia del objeto "Aforo Salto delNegro" , invocando a la Unidad Cognitiva de Aforo en Salto del Negro. Estos valores sehan obtenido a partir de los valores de caudal leídos del SAIH e incorporados al sistemamediante las rutinas de lectura correspondientes. La ventana de explicacióncorrespondiente a este objeto podría ser:

funciona Aforo en Salto del Negro

Explicación: Aforo en Salto del Negro

Se ha aplicado

Instancia correspondiente a la Hipótesis :

"Coherencia Local de Caudales en el Salto del Negro" metodo de "Corrección"

a las instancias de los objetos:

"Aforo en Salto del Negro"

Se ha aplicado la transformación: (para T=14)

CORRECCION: (Aforo Salto del Negro) caudal[T] < 0 ==> (Aforo Salto del Negro) caudal[T] := 0; (Aforo Salto del Negro) contador = (Aforo Salto del Negro) contador + 1;

Se ha aplicado la transformación: (para T=19)

CORRECCION: (Aforo Salto del Negro) caudal[T] < (Aforo Salto del Negro) caudal[T-1] - 50 ==> (Aforo Salto del Negro[T] == max ( ( (Aforo Salto del Negro) caudal[T-1]+ (Aforo Salto del Negro) caudal[T+1]) / 2 , (Aforo Salto del Negro) caudal[T-1]-50 )

a partir de la cual la Unidad Cognitiva de Coherencia Local, aplicando el método deCorrección, se han corregido los valores correspondientes a T=14 y T=19 aplicandorespectivamente las reglas primera y cuarta de su base de conocimientos.

A su vez , estos valores provienen de otra instancia del objeto "Aforo en Salto delNegro", que puede inspeccionarse pulsando el icono correspondiente, con lo que seobtiene la ventana:

datos leídos de Aforo Salto del Negro

Aforo Salto del Negro

caudal

contador de fallos

0

fiabilidad

0.95

Instancia correspondiente a la Hipótesis :

[1.10,2.70,1.90,6.50,3.00,18.00,49.00,45.00,6.00,2.20,5.10,5.20,3.10,0.40,-5.40,0.30,2.90,80.00,84.00,12.00,6.20,1.90,0.90,0.30]

* Para que el método de explicación sea de verdadera utilidad práctica, debería incorporar una interfaz de usuariointeractiva que presente visualmente los resultados en el punto correspondiente del esquema de la cuenca,utilizando representaciones gráficas allá donde sean necesarias (por ejemplo para visualización de las series dedatos). Esta tarea de desarrollo tecnológico va más alla del objetivo de investigación de esta tesis.

Page 183: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 8. Un Modelo del Dominio para Validación de Datos en la Cuenca del Río Vélez___________________________________________________________________________

169

8.3. Unidad Cognitiva de Cuenca del embalse de la Viñuela

Esta Unidad Cognitiva es muy parecida a la anterior. Su característica más destacada esque incluye un embalse y, consiguientemente, una Unidad Cognitiva de Embalse y unainstancia de la Unidad Cognitiva para validación de Coherencia de Aportaciones, según se ve enel siguiente esquema:

A.R.

VIÑUELA

Estimar

Explicar

Coherencia de AportacionesEmbalse Viñuela

T. TransporteGuaro Alto

U.C.PluviómetroAlfarnatejo

A. ReceptoraAlfarnate

U.C. NivelViñuela

U.C. CUENCA VIÑUELA

Modelo del Embalse Viñuela

U.C. NivelViñuela

A. ReceptoraPeriana

Los sensores que intervienen en esta cuenca son el pluviómetro situado en Alfarnatejo,el pluviómetro de la Viñuela, el sensor de nivel del embalse, y el aforo del caudal desaguado. Laestructura de este elemento es la siguiente:

Pluviómetro Alfarnatejo

PluviometroViñuela

Nivel Viñuela

AforoViñuela

Instancias de Unidades Cognitivas desensores similares a las que se hanvisto anteriormente. Realizan lascorrecciones y/o la validación delmétodo de Coherencia Local.

A.R. Alfarnate

A.R.Periana

T.T. Guaro alto

Instancias de las Unidades Cognitivas de AreaReceptora, Tramo de Transporte y Embalse quesimulan de forma simplificada el comportamiento dela cuenca. Similares a las que se han vistoanteriormente. Su función es calcular el caudal deescorrentía que llega al embalse.

Modelo delEmbalse Viñuela

La función de este modelo es estimar, a partir de los datos del nivel de embalse yde las curvas de altura-volumen, cuál es el incremento de volumen que debeproducirse y consiguientemente, a partir del caudal de escorrentía previsto, inferirel caudal desaguado por el embalse.

Page 184: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 8. Un Modelo del Dominio para Validación de Datos en la Cuenca del Río Vélez___________________________________________________________________________

170

En el modelo simplificado usado como ejemplo se ha considerado un crecimientocuadrático de la superficie del embalse:

ALIAS:

H :: (Embalse de la Vinuela) nivel de embalse; S :: (Embalse de la Vinuela) superficie del embalse; DVmedido :: (Embalse de la Vinuela) incremento de volumen ; Vembalsado :: (Embalse de la Vinuela) volumen embalsado; Qaportacion :: (Tramo de Transporte Rio Guaro Alto) caudal aguas abajo ; Qdesembalse :: (Embalse de la Vinuela) caudal desembalse ; f :: (Embalse de la Vinuela) fiabilidad ;// ----------------------------------------------------------------------

MODELO: Medicion Embalse de la Vinuela 1 // valido entre H=190 y H=200 { Nivel Vinuela, Tramo de Transporte Rio Guaro Alto }

H[T] := (Nivel Vinuela) nivel de embalse[T]; S[T] := 0.0035*(H[T]-190)^2 + 0.265*(H[T]-190) + 5; Vembalsado[T] := H[T] * S[T];

MODELO: Medicion Embalse de la Vinuela 2 // valido entre H=190 y H=200 { Nivel Vinuela, Tramo de Transporte Rio Guaro Alto }

DVmedido[T] := 1000000*(Vembalsado[T] - Vembalsado[T-1]);Qdesembalse[T] := Qaportacion[T] - (DVmedido[T]/3600); f := (Nivel Vinuela) fiabilidad * (Tramo de Transporte Rio Guaro Alto) fiabilidad;

En este caso se ha considerado un modelo en dos etapas, de manera que primerose calcula el volumen embalsado en todo instante y posteriormente se estima elcaudal desembalsado.*

Coherencia de Aportaciones al Embalse de la Viñuela

Es un Área de Conocimiento de coherencia similar a las áreas de conocimiento decoherencia de caudal vistas anteriormente. Una característica que la diferencia esque utiliza series de valores de mayor longitud (correspondientes a intervalos detiempo mayores). Desde el punto de vista práctico (real) la validación que realizano es muy buena, ya que la fiabilidad de los modelos que infieren el caudalprevisto es escasa. Evidentemente la validación sería mejor en caso de quehubiera una estación de aforos que registrase directamente el caudal entrante en elembalse. La siguiente es la regla principal que establece la coherencia entre elcaudal previsto y el medido:

COHERENCIA: { Embalse de la Vinuela, Aforo Vinuela } VALIDACION: // segun la precision de la medida de nivel en m3/sg. | media(Qmedido[T-5..T])-media(Qprevisto[T-5..T]) | < 30 ESTIMACION: Q := Qmedido; f := 1-(1-f1)*(1-f2);

Como se ve, en este caso la coherencia se establece no entre valores horarios sinoentre valores medios con una agregación temporal de 6 horas.

* En general, este modelo tendrá una escasa fiabilidad, ya que las medidas de nivel en el embalse generalmentesolo son capaces de apreciar diferencias del orden de centímetros, lo que supone variaciones de volumenconsiderables para los órdenes de magnitud del nivel de agregación temporal escogido.

Page 185: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 8. Un Modelo del Dominio para Validación de Datos en la Cuenca del Río Vélez___________________________________________________________________________

171

Estimar

Al igual que en la Unidad Cognitiva anterior, este método de inferencia es elencargado de la ejecución ordenada de los distintos métodos de inferencia que sehan citado anteriormente. El flujo de información y control de esta UnidadCognitiva se muestra en el siguiente esquema:

Coherencia LocalPluv. Viñuela

Coherencia LocalNivel Viñuela

Coherencia LocalPluv. Alfarnatejo

Aforo Viñuela(datos leídos)

Aforo Viñuela(datos corregidos)

Nivel Viñuela(datos leídos)

Pluv. Viñuela(datos corregidos)

Pluv. Alfarnatejo(datos corregidos)

Modelo delA.R. Alfarnate

Modelo delA.R. Viñuela

Modelo del T.T. Río Guaro Alto

A.R. Alfarnate A.R. Viñuela

T.T. Río Guaro Alto

Modelo delEmbalse de la Viñuela

Pluv. Viñuela(datos leídos)

Coherencia LocalAforo Viñuela

Nivel Viñuela(datos corregidos)

Pluv. Alfarnatejo(datos leídos)

Modelo delEmbalse de la Viñuela

U.C. Viñuela

Embalse de la Viñuela

Hay que destacar que a diferencia de la Unidad Cognitiva anterior en ésta no seestablece ninguna condición de coherencia entre los pluviómetros, lo queequivale a considerarlos completamente independientes. Por lo demás, la UnidadCognitiva es muy similar a la anterior.

Explicar

Es el procedimiento encargado de presentar las explicaciones.

8.3.1. Ejemplo de ejecución

Estimación En la secuencia de control que se establece al invocar al método deestimación, las primeros métodos que se ejecutan son los de las Unidades Cognitivas dePluviómetro, Aforo y Nivel, que realizan la validación local.

En el conjunto de datos de entrada se ha supuesto que el caudal desaguado es cero, siendoesta medida coherente con la estimación del incremento de volumen previsto porescorrentía y con la serie de nivel de embalse medido por el sensor.

Dado que no se produce ninguna discrepancia en las medidas de los sensores, elfuncionamiento de esta Unidad Cognitiva resulta ser completamente determinista.

Algunas de estas magnitudes se muestran en los siguientes gráficos:

Page 186: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 8. Un Modelo del Dominio para Validación de Datos en la Cuenca del Río Vélez___________________________________________________________________________

172

0 5 10 15 20 25

-5

0

5

10

15

Tiempo en horas

intensidad de lluvia (mm)

leidos corregidos

Alfarnatejo(intensidad de lluvia)

0 5 10 15 20 25

0

20

40

60

80

100

120

140

Tiempo en horas

(m3/sg.)

Estimacion: PAlf, PVin

Tramo de Transporte Guaro Alto(caudal aguas abajo)

0 5 10 15 20 25

-200

-100

0

100

200

Tiempo en horas

(m3/sg.)

leidos (AVin) estimados (NVin,PVin, PAlf)

Embalse de la Viñuela(caudal desembalsedo)

Page 187: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 8. Un Modelo del Dominio para Validación de Datos en la Cuenca del Río Vélez___________________________________________________________________________

173

8.4. Unidad Cognitiva de Cuenca del río Vélez

Esta unidad representa al agente encargado de la validación global de los datos de toda lacuenca del río Vélez. Al definir el Modelo del Dominio, se ha decidido estudiar de formaautónoma las subcuencas del río Benamargosa y la cuenca de la presa de la Viñuela.* Por tanto,los elementos que componen la Cuenca del río Vélez son los que se indican en el siguientecroquis:

A.R.

VELEZ

U.C. CUENCA DE LA VIÑUELA

Esta Unidad Cognitiva, al igual que las que se han visto anteriormente, incorporaconocimiento sobre los sensores (dos pluviómetros y una estaciones de aforo), y sobre loselementos físicos o componentes con los que se construye el modelo hidrológico (cuatro AreasReceptoras y tres Tramos de Transporte)

La primera observación que conviene hacer sobre esta Unidad Cognitiva es que incluyea las otras dos: (1) la Unidad Cognitiva de la Cuenca del río de la Cueva, que proporciona unprocedimiento para validar y hallar las diferentes hipótesis de caudal en su sección inferiordenominada Salto del Nego; y (2) la Unidad Cognitiva de la Cuenca de la Viñuela, queproporciona el valor del caudal desaguado por el embalse. Por tanto, desde el punto de vista dela Unidad Cognitiva de la Cuenca del río Vélez, tanto la cuenca del río de la Cueva, como lacuenca aguas arriba del embalse se reduce a esta información. Nótese que desde el punto devista procedimental es lo mismo que si se situara en este punto un simple aforo, en lugar de la

* En este caso se ha decidido así en aras de una mayor claridad expositiva de la arquitectura que se propone. Engeneral, en casos reales la construcción de la jerarquía de unidades de cuenca responderá a criterios dehomogeneidad espaciales, temporales, o a las tradiciones y usos del equipo de usuarios.

Page 188: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 8. Un Modelo del Dominio para Validación de Datos en la Cuenca del Río Vélez___________________________________________________________________________

174

Unidad Cognitiva de Cuenca del río de la Cueva. La diferencia radica en que las hipótesis decaudal vienen dadas en función no sólo del aforo, sino también del pluviómetro de Santopítar ydel pluviómetro en el Salto del Negro, por lo que su fiabilidad puede ser mayor en caso de queambos sensores se corroboren mutuamente. Además, en caso de que el sensor del aforo falle,siempre puede estimarse el caudal en función de la lluvia acaecida.

Otros elementos o piezas de conocimiento que se emplean en esta Unidad Cognitiva sonlas Areas de Conocimiento de Coherencia. Por las características propias de la cuenca seconsideran tres: (1) un Area de Coherencia de Lluvias entre los dos pluviómetros; (2) un Areade Coherencia de las Aportaciones que los dos cauces principales, el Río Benamargosa y el RíoGuaro, vierten sobre el cauce común, denominado a partir de este punto Río Vélez; y (3) unArea de Coherencia entre el Caudal previsto y el medido en la estación de Vélez-Málaga. Elesquema conceptual de la Unidad Cognitiva de la Cuenca del río Vélez es el siguiente:

Estimar

Explicar

Coherencia de Caudales en la Confluencia (Benamargosa)

Coherencia de Lluvias en la cuenca del Vélez

A. ReceptoraCanillas

U.C. CUENCA VÉLEZ

U.C.PluviómetroAlcaucín

U.C.PluviómetroVélez-Málaga

U.C. AforoVélez-Málaga

A. ReceptoraEl Borge

A. ReceptoraAlcaucín

T. TransporteBenamargosa

T. TransporteGuaro Bajo

T. TransporteVélez

U.C. Cuencade la Cueva

U.C. CuencaEmb. Viñuela

A. ReceptoraVélez-Málaga

Coherencia de Caudales en la Desembocadura (Vélez-Málaga)

en donde:

U.C. Cuenca de la Cueva

U.C.Cuenca de la

Viñuela

Unidades Cognitivas que se han visto anteriormente.

U.C. Pluv.Alcaucín

U.C. Pluv.Vélez-Málaga

U.C. AforoVélez-Málaga

Instancias de Unidades Cognitivas de Pluviómetrosy Aforos similares a las que se han vistoanteriormente.

Page 189: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 8. Un Modelo del Dominio para Validación de Datos en la Cuenca del Río Vélez___________________________________________________________________________

175

A. R.Alcaucín

A. R.Canillas

T.T.Guaro bajo

Estas tres Areas de Conocimiento constituyen elmodelo hidrológico de la porción de cuenca com-prendida entre la confluencia de los ríos Guaro yBenamargosa y el embalse de la Viñuela. Lasentradas a estos modelos son: (1) los objetosPluviómetro en Vélez, y Pluviómetro en Alcaucín, apartir de los cuales se infiere la parte de caudaldebido a escorrentía, y (2) el caudal desaguado porel embalse.

A. R.El Borge

T.T.Benamargosa

Al igual que en el caso anterior, con estos modelos se engloba alconjunto de ríos que afluyen al río Vélez, esta vez por su margenderecha. Igualmente se supone que todo el caudal resultante afluyeen la misma sección de confluencia entre los ríos Guaro yBenamargosa.

A.R.Velez-Málaga

T. T. Río Vélez

Este es el modelo del tramo final, propiamente conocido como ríoVélez. A su entrada se supone que el caudal que afluye es la sumade los caudales de los ríos Benamargosa y Guaro, más lasaportaciones directas de los pequeños arroyos de su margenderecha e izquierda que se modelan mediante el Area Receptora deVélez-Málaga.

Coherencia Global de

Pluviómetros

Este Area de Conocimiento es similar a la que se utiliza en la Unidad Cognitivadel Río de la Cueva. En este caso se imponen unas condiciones menos estrictaspara relacionar el pluviómetro de Alcaucín con el situado en la desembocaduradel río Vélez.

Coherencia Global de

Aportaciones en

Benamargosa

Esta es una Área de Conocimiento basada en la Unidad Cognitiva de CoherenciaGlobal, que se usa para incorporar al sistema conocimiento de sentido comúnsobre el funcionamiento de la cuenca. En la cuenca se pueden distinguir dosgrandes subcuencas correspondientes a los ríos Guaro y Benamargosa. Lasáreas (geométricas) de estas subcuencas son del mismo orden del magnitud.Además la extensión total es pequeña, por lo que es previsible que exista unafuerte correlación entre los caudales de escorrentía que se obtienen en amboscauces en secciones inmediatamente anteriores a la confluencia. Además losvalores absolutos de caudal no deben ser muy diferentes.

Por tanto, pueden imponerse estas condiciones de coherencia, con el cuidado dedescontar de la comparación los valores debidos al desagüe del embalse de laViñuela. La estimación resultante de este proceso de coherencia es, a diferenciade las áreas de Coherencia de Pluviómetros o Aforos vistas anteriormente, lasuma de ambos caudales, más el caudal debido al vertido del embalse.

En caso de que la condición impuesta no se verifique, se debe poder estimar elcaudal resultante en función de los datos disponibles. La solución adoptada eneste ejemplo es considerar iguales los caudales de escorrentía de ambosafluentes.

La base de conocimientos empleada impone que el coeficiente de correlaciónentre ambas series sea mayor de 0,85 y que los caudales medios debidos aescorrentía (en el periodo de 24 horas) difieran en menos de 15 m3/sg.

Page 190: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 8. Un Modelo del Dominio para Validación de Datos en la Cuenca del Río Vélez___________________________________________________________________________

176

COHERENCIA: { Tramo de Transporte Benamargosa, Tramo de Transporte Rio Guaro Bajo } VALIDACION: correlacion(Q1,Q2i) > 0.85 && | media(Q1) - media(Q2i) | < 15 ESTIMACION: f := 1-(1-f1)*(1-f2); Q[T] := Q1[T]+Q2[T]; COHERENCIA: { Tramo de Transporte Benamargosa } VALIDACION: ESTIMACION: Q[T] := 2*Q1[T]+Q2p[T]; f := 0.8 * f1;

COHERENCIA: { Tramo de Transporte Rio Guaro Bajo } VALIDACION: ESTIMACION: Q[T] := 2*Q2i[T]+Q2p[T]; f := 0.8 * f2;

en donde Q[T] Q1[T] y Q2[T] representan los caudales de los ríos Benamargosa yGuaro justo antes de su confluencia respectivamente, siendo Q2i[T] y Q2p[T] lasseries que descomponen éste último en cuadal debido a escorrentía directa ycaudal debido al desagüe de la presa. Q[T] representa el caudal aguas abajo de laconfluencia y f1, f2 y f, son las fiabilidades asociadas a estos valores.

En caso de que existan múltiples hipótesis en las entradas a esta Área deConocimiento, se producirá un incremento en el número de los valores quepueden suponerse para Q[T]. Este componente conceptual incorpora a su vezconocimiento para realizar la síntesis de estas hipótesis cuando sean "parecidas",a fin de considerarlas como una sóla.

La base de conocimiento de síntesis tiene como única regla:

SINTESIS: { Confluencia en Benamargosa } VALIDACION: // si el caudal medio es +- 20% entonces sintetizar Q[T-2]+Q[T-1]+Q[T] <= 1.2*(Q[T-2]+Q[T-1]+Q[T]) + 5 ESTIMACION: f := max( {f} ); Q[T] := media( { Q[T] :: f == max({f}) } );

Esta regla expresa que deben considerarse como una misma hipótesis para elcaudal aguas abajo de la confluencia, aquellas cuyos valores (medios) encualquier periodo de tres horas difieran menos de un 20% más 5 m3/sg. Elvalor resultante de esta síntesis es la media de los valores de caudal de lasinstancias cuya fiabilidad sea máxima. Así mismo, la fiabilidad de la instanciaresultante será la máxima de las instancias que se sintetizan.

Page 191: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 8. Un Modelo del Dominio para Validación de Datos en la Cuenca del Río Vélez___________________________________________________________________________

177

Coherencia de Caudales

en la Desembocadura

Es similar a las áreas de conocimiento de coherencia que se han vistoanteriormente. En este caso contrasta los valores que se infieren a partir de laspredicciones del modelo de Tramo de Transporte del Río Vélez, con losobtenidos en la estación de aforos de Vélez-Málaga.

Estimar

Al igual que en la Unidad Cognitiva anterior, este método de inferencia es elencargado de la ejecución ordenada de las distintas primitiva de inferencia que sehan citado anteriormente. El flujo de información y control de esta UnidadCognitiva se muestra en el siguiente esquema:

Coherencia LocalPluv. Alcaucín

Pluv. Alcaucín(datos corregidos)

Pluv. Alcaucin(datos leídos)

U.C. Viñuela(datos leídos)

U.C. Río de la Cueva (2 hipótesis)

Coherencia LocalPluv. Vélez

Coherencia LocalAforo Vélez

Aforo Vélez(datos leídos)

Pluv. Vélez(datos corregidos)

Pluv. Vélez(datos leídos)

Aforo Vélez(datos corregidos)

Coherencia Global Pluv. Cuenca del Rio Velez

Pluv. Vélez (2 hipótesis)Pluv. Alcaucín (2 hipótesis)

Modelo delA.R. Canillas Modelo del

A.R. Alcaucín

Modelo delT.T. Guaro Bajo

A.R. Canillas (2 hipótesis)

A.R. Alcaucín (2 hipótesis)

Modelo delA.R. El Borge

A.R. El Borge(2 hipótesis)

Modelo delT.T. Benamargosa

Coherencia GlobalCuenca del Río Vélez

T.T. Benamargosa (2 hipótesis)

T.T. Guaro Bajo (2 hipótesis)

A.R. Vélez (2 hipótesis)Confluencia en Benamargosa (7 hipótesis)

Modelo delA.R. Vélez Coherencia Global de

Aportaciones en Benamargosa

Modelo delT.T. Río Vélez

T.T. Vélez (5 hipótesis)

U. C. Río Vélez (3 hipótesis)

Explicar

Es el procedimiento encargado de presentar las explicaciones. Análogo al de lasUnidades Cognitivas que se han visto anteriormente.

Page 192: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 8. Un Modelo del Dominio para Validación de Datos en la Cuenca del Río Vélez___________________________________________________________________________

178

8.4.1. Ejemplo de Ejecución

Estimación La ejecución del método de estimación de esta Unidad Cognitiva implica,como puede verse en el esquema del control de flujo que aparece anteriormente, laejecución previa de los métodos de estimación de la Unidad Cognitiva del Río de la Cuevay de la Unidad Cognitiva del Embalse de la Viñuela. También es necesario previamenterecurrir a la comprobación de Coherencia Local mediante la llamada a las correspondientesUnidades Cognitivas de Pluviómetro y Aforo.

Una vez que se obtienen estos resultados de ejecución, pueden empezar a aplicarse lasUnidades Cognitivas de Coherencia Global. La primera en ejecutarse es la CoherenciaGlobal de los Pluviómetros de Alcaucín y Vélez-Málaga. En este ejemplo se ha supuestoque ambas medidas no son consistentes, por lo que vuelve a producirse una generación dehipótesis, de forma similar a lo que ocurría al comprobar la Coherencia Global de losPluviómetros de la Cuenca del Río de la Cueva. Las dos hipótesis que se generan comovalores de la intensidad de lluvia de los Pluviómetros son las siguientes:

0 5 10 15 20 25

0

2

4

6

8

10

Tiempo en horas

intensidad de lluvia (mm)

leidos = corregidos estimacion (PAlc, no(PVel) estimacion (PVel, no(PAlc))

Pluviometro Alcaucin(intensidad de lluvia)

0 5 10 15 20 25

0

2

4

6

8

10

Tiempo en horas

intensidad de lluvia (mm)

leidos = corregidos estimacion (PVel, no(PAlc) estimacion (PAlc, no(PVel))

Pluviometro Velez(intensidad de lluvia)

A partir de estos valores, y del caudal de la Unidad Cognitiva del Embalse de la Viñuela,es posible aplicar el modelo o los modelos hidrológicos que determinan las distintashipótesis de caudal afluente al río Vélez en Benamargosa por su margen izquierda. Estasresultan ser dos: (1) inferida con la hipótesis de funcionamiento correcto del Pluviómetro

Page 193: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 8. Un Modelo del Dominio para Validación de Datos en la Cuenca del Río Vélez___________________________________________________________________________

179

de Vélez, y el fallo del Pluviómetro de Alcaucín; y (2) inferida con la hipótesis defuncionamiento correcto del Pluviómetro de Alcaucín y el fallo del Pluviómetro de Vélez.

Aplicando otros modelos se calculan igualmente las hipótesis del caudal afluente al ríoVélez en Benamargosa por su margen derecha, que vuelven a ser dos: (1) avalada por elfuncionamiento correcto del Aforo o el Pluviómetro de Santopítar (ambos coherentes), conla exclusión del Pluviómetro del Salto del Negro; y (2) avalada sólo por el funcionamientodel Pluviómetro de Santopítar y el fallo en los dos sensores situados en el Salto del Negro.Combinando estas hipótesis dos a dos se obtienen cuatro combinaciones en la entrada alArea de Conocimiento de Coherencia de Caudales en Benamargosa:

0 5 10 15 20 25

0

50

100

150

200

Tiempo en horas

caudales (m3/sg)

Tramo de Transporte Benamargosa Tramo de Transporte Buaro Bajo

Aportaciones en Benamargosa(hipotesis: ASlt,... + PAlc, no(PVel))

0 5 10 15 20 25

0

50

100

150

200

Tiempo en horas

caudales (m3/sg)

Tramo de Transporte Benamargosa Tramo de Transporte Buaro Bajo

Aportaciones en Benamargosa(hipotesis: ASlt, .... + PVel, no(PAlc))

0 5 10 15 20 25

0

50

100

150

200

Tiempo en horas

caudales (m3/sg)

Tramo de Transporte Benamargosa Tramo de Transporte Buaro Bajo

Aportaciones en Benamargosa(hipotesis: PStp,... + PAlc, no(PVel))

0 5 10 15 20 25

0

50

100

150

200

Tiempo en horas

caudales (m3/sg)

Tramo de Transporte Benamargosa Tramo de Transporte Buaro Bajo

Aportaciones en Benamargosa(hipotesis: PStp,... + PVel, no(PAlc))

Dado el conocimiento que se ha impuesto para realizar esta tarea, sólo resulta coherenteuna de las combinaciones propuesta, la basada en el Aforo en Salto del Negro y elPluviómetro en Río Vélez entre otros (la que aparece en la esquina superior derecha). Elresto de las combinaciones no son coherentes. Sin embargo, en las combinaciones que noson coherentes, cada una de las respectivas hipótesis por separado puede dar lugar a dosestimaciones del caudal aguas abajo de la confluencia, habida cuenta de las reglas que sehan impuesto. En total se obtienen siete hipótesis que se reducen a cinco mediante lasíntesis, ya que representan caudales iguales, y de las que sólo se desea considerar las trescon mayor fiabilidad, y que aparecen en el gráfico inferior, por cuestiones de eficiencia enel proceso.

0 5 10 15 20 25

0

100

200

300

400

Tiempo en horas

caudales (m3/sg)

[[ASlt,...],....] [[PVel,...], [ASlt], ....] [[PVel,,..],....]

Confluencia en Benamargosa(caudal)

Page 194: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 8. Un Modelo del Dominio para Validación de Datos en la Cuenca del Río Vélez___________________________________________________________________________

180

Una vez obtenidas estas tres hipótesis se aplican los modelos hidrológicos de la zona bajade cuenca, es decir, el Tramo de Transporte Vélez y el Area Receptora de Vélez-Málaga,obteniendo a partir de estos tres valores y de los dos posibles valores de intensidad delluvia en el pluviómetro de río Vélez, otras tantas hipótesis de caudal en la desembocadura.Nótese que en este caso no todas las combinaciones de hipótesis de caudal en laconfluencia son coherentes con los valores de intensidad de lluvia en el pluviómetro, yaque algunas de las primeras hipótesis pueden haber sido halladas bajo el supuesto de quedicho pluviómetro no funciona.*

Finalmente, las tres hipótesis resultantes de este modelo son comparadas con el aforosituado en la desembocadura, lo que permite comprobar la coherencia entre una de ellas yel valor medido:

0 5 10 15 20 25

0

100

200

300

Tiempo en horas

caudales (m3/sg)

caudal aforado (AVel) Estimacion (PAlc, ....)

Estimacion (ASlt, PVel, no(PAlc)...) Estimacion (PVel, no(PAlc) o (ASlt,)

Desembocadura del Rio Velezcoherencia de caudales aforados y estimados

* La gestión del mecanismo de combinación de hipótesis y selección de las combinaciones de entrada válidas almodelo lo realiza automáticamente el propio sistema

Page 195: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

181

CAPÍTULO 9

CONCLUSIONES

9.1. Aportaciones de la tesis

El objetivo fundamental de esta tesis ha sido el estudio del problema de validación de losdatos hidrológicos, y en especial de aquellos que son recogidos automáticamente mediantesistemas de información en tiempo real. Este problema es nuevo en hidrología, y se planteacomo consecuencia directa del gran volumen de información que se maneja y del tratamientoautomático de los datos que, en general, no pueden ser supervisados manualmente.

Las principales aportaciones a la solución de este problema que se realizan en esta tesisson las siguientes:

(1) En primer lugar se realiza un estudio de la posible aplicación de las técnicas devalidación de datos surgidas en diferentes contextos al caso hidrológico, llegando a laconclusión de que en la mayoría de los casos no son aplicables directamente debido alas características específicas del problema en hidrología, entre las que cabe destacar elalto coste económico de implantación de duplicidad directa en las medidas y lacomplejidad de los procesos que tienen lugar en el sistema hidrológico. De hecho, laarquitectura que se propone es suficientemente general como para permitir lacoexistencia con las técnicas de validación tradicionales en aquellos puntos del sistemaen los que si exista una redundancia directa en las medidas.

(2) Dado que las soluciones actuales al problema de validación no son adecuadas enprincipio al caso hidrológico, se plantea la búsqueda de una nueva solución más generalmediante la aplicación de técnicas de Inteligencia Artificial. Para ello se realiza unestudio exhaustivo de las técnicas y los sistemas de diagnóstico, mostrando sudualiadad con el problema de validación y analizando en cada caso su posible aplicacióna la validación de datos hidrológicos. Se estudian dos grandes líneas de soluciones, lossistemas basados en reglas heurísticas y los sistemas basados en modelos. Comoresultado principal de este estudio se llega a la conclusión de que los sistemas dediagnóstico basados en modelos ofrecen una vía de solución del problema, aunque sinembargo, resultan demasiado estrictos en lo que se refiere a la formulación delconocimiento, en muchos casos impreciso, con el que se trabaja en hidrología. Estadeficiencia puede ser solventada mediante el empleo de sistemas híbridos que permitanla inclusión de modelos de comportamiento definidos mediante reglas heurísticas, juntocon los convencionales.

(3) Seguidamente, se estudia la incorporación de los modelos hidrológicos existentes comofuente de conocimiento que permita establecer la redundancia en las medidas, necesariapara realizar la validación. Así mismo, se analizan las ventajas que supone laformulación de estos modelos mediante técnicas de representación simbólica, talescomo marcos, reglas, sistemas de restricciones, etc., que permiten realizar un usoabductivo de los mismos.

(4) Se propone una arquitectura software mediante la cual pueden definirse sistemas querealicen la validación de los datos hidrológicos. A efectos de la clase de problemas quese intentan resolver esta arquitectura puede considerarse en cierta forma como una

Page 196: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 9. Conclusiones___________________________________________________________________________

182

versión computable de una teoría de validación de datos hidrológicos, ya que con ellano se pretende resolver sólo un problema concreto aislado, sino el conjunto de losproblemas de esta clase.

La arquitectura se define mediante la metodología y entorno de desarrollo de sistemasinteligentes KSM que permite trabajar a tres niveles de abstracción: nivel delconocimiento, nivel simbólico y nivel de implementación. El problema de validación dedatos es analizado en cada uno de estos niveles proponiendo un Modelo Genérico, apartir del cual pueden definirse Modelos del Dominio adaptados a la validación de datosen cualquier cuenca.

Por lo que se refiere a la arquitectura propuesta son de destacar dos característicasfundamentales:

• Recoge de forma natural la estructuración del conocimiento que se aplica enhidrología, ya que existe una relación directa entre los elementos del sistema físicoy los componentes de la propia arquitectura software.

• La mayor parte del conocimiento empleado para realizar la validación se incluye deforma explícita, de manera que el comportamiento del sistema puede fijarse deacuerdo a las características particulares de cada problema en concreto.

Como consecuencia directa de estas características las aplicaciones construídas tienenuna gran capacidad explicativa, ya que son capaces de presentar, a demanda delusuario, las acciones llevadas por el sistema justificándolas a partir del conocimientoaplicado en cada caso para realizarlas.

Estos características son también de gran importancia, ya que favorecen en gran medidatanto el desarrollo como el mantenimiento de las aplicaciones construídas mediante laarquitectura, incluso por usuarios sin conocimientos profundos de las técnicas deprogramación.

Por otra parte, la arquitectura es suficientemente flexible y permite la coexistencia ycooperación de modelos numéricos y modelos simbólicos, así como de modelosdeterministas y modelos que tengan en cuenta la imprecisión e incertidumbre, así comola coexistencia de varios de estos modelos simultáneamente para la representación de unmismo elemento hidrológico, gestionando explicitamente el universo de hipótesis queesta coexistencia origina.

(5) A fin de proporcionar un soporte computacional a la arquitectura propuesta se hadesarrollado un conjunto de componentes de software basados en el conocimiento.Como vehículo de expresión del conocimiento que incorporan estos componentes se hadefinido un nuevo lenguaje de programación de propósito específico denominadoCOVALTO. Entre las características de este lenguaje destacan las siguientes:

• Está basado en el paradigma de la programación orientada a objetos, incorporandolos clásicos mecanismos de herencia y polimorfismo. Esta característica favoreceuna mayor proximidad conceptual entre las entidades del mundo real y surepresentación computable.

• Gestiona automáticamente múltiples tanteos o hipótesis procedentes de lacombinación de diversos valores posibles para una misma magnitud, incorporandoun sistema de mantenimiento de la razón que permite asociar una "justificación" oconjunto de premisas que deben verificarse en cada uno de los contextos. Asímismo permite gestionar explícitamente el conjunto de hipótesis mediante unmecanismo de síntesis de aquellas que son similares, con el consiguiente controlsobre una posible explosión combinatoria del cardinal de este conjunto.

Page 197: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 9. Conclusiones___________________________________________________________________________

183

• Facilita la computación de series temporales de valores numéricos proporcionandouna amplia biblioteca de funciones y operaciones externas e internas sobre estedominio.

Este lenguaje ha sido implementado mediante un traductor del mismo a su equivalenteprograma en código PROLOG. Se han desarrollado dos versiones de este traductor,una para su funcionamiento en cualquier tipo de estación de trabajo bajo el sistemaoperativo UNIX, y otra que funciona de forma autónoma en microordenadores tipo PC,bajo el sistema operativo MS-DOS.*

(6) Por último, la tesis se substancia mediante la construcción de un Modelo del Dominioconcreto, como ejemplo de programación estructurado según la arquitectura propuesta,y desarrollado a alto nivel de programación mediante el entorno de desarrollo de KSM.Este Modelo del Dominio permite realizar la validación de los datos captados por trestipos distintos de sensores: Pluviómetros, Aforadores y Niveles de Embalse en lacuenca del río Vélez, de la provincia de Málaga.

9.2. Limitaciones

En la arquitectura propuesta se han tomado algunas decisiones de diseño que puedenafectar a la conceptualización del problema. El Modelo Genérico definido pretende sersuficientemente amplio como para poder ser aplicado a cualquier cuenca, si bien en el desarrollodel mismo se ha pensado especialmente en las cuencas de la vertiente mediterránea del levante yel sur de España. Algunas limitaciones que se imponen en la arquitectura son las siguientes:

(1) Se considera como unidad de decisión a efectos de validación la cuenca. A undeterminado nivel, todos los modelos que se utilicen deben estar referidos a una mismacuenca o subcuenca. Dada la estructura jerárquica de la arquitectura esto no debesuponer un problema substancial, ya que los modelos globales pueden referirse a losniveles más altos de la jerarquía, mientras que los modelos de detalle pueden referirse alas subcuencas.

Si bien es posible operar con cualquier tipo de modelo de cuenca, externo a laarquitectura propuesta, para poder imbricar dichos modelos en el sistema de validaciónes necesario que puedan ser descompuestos modularmente para representar de formaindependiente los distintos elementos hidrológicos de la cuenca. Al menos, en caso deque operen sobre todo el conjunto de la cuenca, deben de ser capaces de proporcionarresultados parciales de las magnitudes hidrológicas objeto de estudio, a fin de quepuedan ser confrontadas con los datos medidos por los sensores.

(2) En la arquitectura propuesta se consideran únicamente cuencas naturales, en la que seintentan validar datos de lluvía y de escorrentía. No se han considerado cuencas en lasque exista una influencia apreciable de precipitaciones en forma de nieve y fenómenosanuales de deshielo. Tampoco se han considerado en la definición de la arquitectura laexistencia de obras de captación, o las aportaciones de caudal de saneamiento depoblaciones, etc. Para contemplar estas situaciones en el marco de esta arquitectura seríanecesario definir los correspondientes modelos de fusión de nieves, cuantificar lasaportaciones extraordinarias e incorporarlas en la subucenca correspondiente, etc.

(3) Otra limitación fuerte que afecta al sistema de validación propuesto, aunque es ajena almismo, es la determinación y precisión de los modelos que se empleen. En muchoscasos, con los modelos disponibles no será posible realizar una validación de datos másque a niveles medios de agregación temporal. En resumen, no pueden validarse aquellas

* La versión de UNIX es la única que funciona sobre el entorno KSM. La versión de MS-DOS funciona sólo deforma autónoma y con las limitaciones propias de este sistema operativo.

Page 198: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Capítulo 9. Conclusiones___________________________________________________________________________

184

series de datos cuyos valores no pueden ser previstos dentro de unos márgenes de erroracotados.

9.3. Futuras líneas de investigación.

A raíz de los trabajos realizados en esta tesis se abren nuevas líneas de investigación enevolución de la misma. Son las siguientes:

(1) Validación de modelos. La arquitectura del sistema de validación de datos hidrológicospuede ser considerada dual de una arquitectura de validación de modelos hidrológicosbasada en datos ciertos y fiables, es decir, la arquitectura propuesta podría serreutilizada para la validación de los modelos que a priori se cree que funcionan bienpero que en ciertas circunstancias proporcionan resultados diferentes a los medidos enla realidad.

(2) Análogamente, una arquitectura similar a la propuesta en esta tesis puede servir pararealizar un diagnóstico de la calidad de los modelos a efectos de supervisar sucalibración, es decir, detectar aquellas situaciones especiales en las que uno o variosconjuntos de modelos difieren en sus resultados, localizando los modelos responsablesde las discrepancias y proponiendo correcciones de los parámetros de control de losmismos. En esta línea también puede resultar interesante el estudio de técnicas deaprendizaje no supervisado para la determinación o calibración automática de losmodelos.

(3) Generalización de la arquitectura de los sistema de validación de datos hidrológicos,para su posible utilización en validación de datos de otros tipos. Especialmente, puederesultar interesante la definición de una arquitectura similar para realizar la validación delos datos de caudales en redes de distribución de agua, tanto de canales de regadío comode abastecimiento a poblaciones. En este sentido, una variante interesante puede ser laaplicación al diagnóstico y la localización de averías en una red de distribución de aguasmonitorizada mediante sensores. En este caso las discrepancias en las medidas podríaninterpretarse bien como fallos en los sensores (problema de validación) o bien comofallo en el sistema (problema de diagnóstico)* .

(4) La estructuración impuesta por las Unidades Cognitivas puede servir de base para unadistribución computacional de las tareas de proceso. La ejecución en paralelo de lasmismas es posible y puede beneficiar considerablemente la eficiencia global del sistemade validación, dado el actual avance de este tipo de hardware.

(5) Determinación y construcción de modelos. Dado que el nivel de detalle de los datoshidrológicos de que actualmente se dispone es mayor, muchos de los modelos clásicosen hidrología resultan insuficientes para realizar la validación de los datos a pequeñosniveles de agregación temporal. Es necesario realizar estudios más detallados quepermitan definir modelos de relación más precisos entre los datos hidrológicos.

* Nótese que en el caso hidrológico no existe esta dualidad ya que el sistema físico siempre "funciona"correctamente. Sin embargo, en el problema hidrológico y dada la complejidad intrínseca de los modelos, puederesultar interesante partir de la base de que éstos pueden no ser representativos del funcionamiento real, lo quelleva a proponer una nueva línea de investigación que se analiza en el primer punto de este epígrafe.

Page 199: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

185

APÉNDICES

Page 200: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

186

Page 201: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

187

APENDICE A

DESCRIPCIÓN DEL LENGUAJECOVALTO

A.1. Introducción

Como vía de expresión de las bases de conocimiento de las Unidades Cognitivas usadasen la arquitectura de validación propuesta se ha diseñado un único lenguaje denominadoCOVALTO*. Según se expone en la memoria de esta tesis, cada una de las UnidadesCognitivas utiliza un subconjunto propio de este lenguaje. La existencia de un solo lenguajecomo soporte a todas las Primitivas de Representación nace de la síntesis de los lenguajes decada una de ellas, tras una primera aproximación al problema en el que se empleaban lenguajesdiferentes para cada primitiva. La principal ventaja de este enfoque es la homogeneidad en lasestructuras sintácticas y la unicidad de construcción de traductores de las bases de conocimientoal código Prolog que se ejecuta bajo KSM.

A continuación se describe formalmente este lenguaje, estableciendo los signos léxicosque lo componen (tokens), las reglas de su sintaxis en notación BNF**, y algunas de lascaracterísticas semánticas. El lenguaje COVALTO es un lenguaje puramente declarativo; notiene ninguna instrucción de control de flujo, ya que éste se realiza mediante el encadenamientode los métodos de las primitivas y de las Unidades Cognitivas que se construyen a partir deellas, usando el lenguaje LINK que proporciona KSM.

La implementación del traductor de este lenguaje se ha realizado mediante lasherramientas LEX y YACC que proporciona el sistema operativo UNIX, generando código enProlog que se integra en el entorno de programación de KSM.

A.2. El preprocesador

Par facilitar la escritura de los ficheros se ha dotado al traductor del lenguaje COVALTOde un pequeño preprocesador, que permite el uso de:

• COMENTARIOS: Para la documentación de las Bases de Conocimientos se empleandos tipos de comentarios, similares a los que se emplean en C++. Todo trozo de códigocomprendido entre la secuencia: /* y */ se ignora, así como el resto de una líneaque contenga la secuencia: //

* El nombre del lenguaje deriva de las operaciones o métodos principales que permite realizar, es decir:COrrección y VALidación de daTOs.** Como criterio tipográfico, para la escritura de las reglas de la gramática mediante la notación de Backus-Naur,los símbolos del lenguaje aparecen realzados, los símbolos terminales de la gramática del nivel sintáctico (tokens)aparecen en mayuscula en bastardilla, mientras que para los símbolos no-terminales del nivel sintáctico seemplean identificadores en minúscula con la primera letra mayúscula y en bastardilla. A fin de evitar la confusiónentre los símbolos del lenguaje y los meta-símbolos de la notación BNF, éstos últimos son de mayor tamaño.

Page 202: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice A Descripción del lenguaje COVALTO___________________________________________________________________________

188

• INCLUSION DE FICHEROS: Es similar a la inclusión de ficheros que se emplea en C.La sintaxis de la instrucción es:

# INCLUIR: {Nombre de fichero }

en donde {Nombre de fichero. } representa a uno o más nombres separados porespacios en blanco o tabuladores. Su procesamiento provoca la sustitución de esta líneapor el contenido de los ficheros que se indican consecutivamente. Cada Nombre defichero debe ser válido en el sistema operativo anfitrión, pudiendo incluirse el caminocompleto para la localización de cada fichero. Las instrucciones de inclusión puedenanidarse, aunque queda al cuidado del programador el que no se provoquen ciclos deinclusiones infinitas.

A.3. Descripción léxica

Los elementos básicos de este lenguaje a nivel lexicográfico son:

• PALABRAS RESERVADAS: En general las palabras reservadas del lenguaje terminancon dos puntos, lo que permite diferenciarlas claramente de los identificadores a nivelléxico. Son las siguientes:

CLASE:OBJETO:ES UN:ATRIBUTOS:ALIAS:CORRECCION:COHERENCIA:SINTESIS:MODELO:PREFERENCIA:DESCONOCIDOT

La palabra reservada T se emplea para denominar el instante temporal actual, es decir,representa a la variable que se supone cuantificada en los métodos de Corrección,Coherencia y Síntesis, que acceden a la base de conocimientos.

• IDENTIFICADORES : Son secuencias de caracteres alfanuméricos (letras o números)que comienzan por una letra* , pudiendo contener espacios en blanco en su interior. Adiferencia de otros lenguajes de programación, se consideran caracteres diferentes lasletras mayúsculas de las minúsculas. Son ejemplos válidos de identificadores lossiguientes:

CaudalIntensidad de lluvia

serie 1

* Dado que el sistema se ha desarrollado en el sistema operativo UNIX, sobre el alfabeto ASCII de 127 caracteres,no se considera como una letra a estos efectos la letra Ñ del alfabeto español .

Page 203: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice A Descripción del lenguaje COVALTO___________________________________________________________________________

189

• No deben emplearse como identificadores palabras reservadas, identificadores que seutilicen en la declaración del tipos de los atributos de los objetos, o aquellos que seempleen para las funciones o modelos predefinidas** .

• NÚMEROS: El lenguaje emplea sólamente números reales sin signo expresados ennotación decimal mediante una secuencia de digitos y un punto que separa la parte enteray la fraccionaria. Son ejemplos de numeros válidos los siguientes:

1 218.5

0.0008

• OPERADORES ARITMETICOS: Se emplean los operadores binarios correspondientesa las cuatro operaciones elementales: + - * /. Como se verá, estos operadores estánsobrecargados, ya que pueden aplicarse a expresiones tanto entre escalares como entreseries de datos (vectores). El lenguaje emplea también el operador unario -, para indicarnúmeros negativos y la dobre barra | operando | como operador unario que implementala función valor absoluto.

• OPERADORES RELACIONALES: Se emplean para comparar valores numéricos. Porsimplicidad se consideran lexicográficamente iguales a los que se definen en el lenguajede programación C:

< =< == != >= >

• OPERADORES LOGICOS: Para las operaciones lógicas básicas de negación,conjunción y disyunción se emplean operadores lógicos lexicográficamente equivalentesa los del lenguaje C:

! | | &&

• SIGNOS ESPECIALES: Existen símbolos especiales que se componen mediante dos omás caracteres, el signo de rango, que se forma mediante dos puntos consecutivos: .. eloperador de asignación: := el de transformación que se emplea en las reglas(transformaciones) de corrección ==>, el de implicaión de las reglas de produción -->,el operador “tal que”, que se representa mediante cuatro puntos: :: y los operadores deasignación por defecto <- y ->.

• SIGNOS DE PUNTUACION: El lenguaje usa los habituales signos de puntuación, conuna semántica similar a otros lenguajes de programación:

( ) { } [ ] : ; ,

A.4. Sistema de tipos

En la versión actualmente implementada del lenguaje el sistema de tipos es muy simple,y está formado por tres tipos que pueden considerarse básicos:

• Tipo Numérico: Su dominio es el de los números reales.

** En el estado actual de la implementación se han definido las funciones max, min, media,sumatorio, varianza, desviacion, covarianza y correlacion, y no se hapredefinido ningún modelo.

Page 204: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice A Descripción del lenguaje COVALTO___________________________________________________________________________

190

• Tipo Serie: Representa series temporales de números reales de longitud indefinida.Como se verá más adelante, también es posible utilizar series de valores constantes delongitud definida. Ambos subtipos, las series indefinidas y las series constantes, sonfuncionalmente equivalentes, si bien existen dferencias en lo que a las operaciones entreéstas se refiere. El lenguaje asume que el origen de tiempos de todas las seriestemporales indefinidas es el mismo. Existe un tercer subtipo de series indefinidas que seusa sólamente para establecer condiciones sobre secuencias de valores y que sedenominan expresiones regulares, su uso se verá más adelante.

• Tipo enumerado: Toma valores entre un conjunto finito de identificadores definidos porel usuario.

A.5. Descripción sintáctica y semántica

Los principales elementos sintácticos que definen el lenguaje son los siguientes:

• Declaración de Objetos: Los objetos que se mencionan en la base de conocimientosdeben ser declarados previamente. La principal ventaja de esta declaración previa radicaen la detección de errores lexicos durante el proceso de compilación de la base deconocimientos. Se ha definido un simple mecanismo de herencia que dota a los objetosde una clase de todos los atributos definidos en la misma, pudiendo definir nuevosatributos, o redefinir los tipos de los atributos de la clase, en la subclase u objetoheredero. En caso de que un objeto o clase no sea descendiente de ningún otro, bastacon omitir la parte declarativa correspondiente, dotando a dicho objeto sólamente de losatributos en él definidos.

La sintaxis de esta declaración de Clases y Objetos es la siguiente:

Decl_ Clases → CLASE:Id_ Clase ;[ ] Decl_ Subclase[ ] Decl_ Atributos[ ]{ }0

OBEJTO:Id_ Objeto ;[ ] Decl_ Subclase[ ] Decl_ Atributos[ ]{ }0

Decl_ Subclase → ES UN: Id_ Clase ;[ ]Decl_ Atributos → ATRIBUTOS: Lista_ Atributos Inicializacion[ ]Lista_ Atributos → Id_ Atributo ( Tipo ) ; { }1

Tipo NUMERICO SERIE Lista_ Id

Lista_ Id → Lista_ Id , IDENTIFICADOR

IDENTIFICADOR

Id_ Objeto → IDENTIFICADOR

Id_ Clase → IDENTIFICADOR

Id_ Atributo → IDENTIFICADOR

Inicializacion → := NUMERO

:= Serie_ Constante

:= IDENTIFICADOR

En el lenguaje COVALTO se manejan tres conceptos fundamentales: Clases, Objetos eInstancias. Los conceptos de Clase y Objeto corresponden al concepto de marco enInteligencia Artificial. Instancias son cada una de las posibles combinaciones de valoresque pueden tomar (durante el proceso de ejecución) los atributos de un Objeto. La

Page 205: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice A Descripción del lenguaje COVALTO___________________________________________________________________________

191

diferencia entre Clases y Objetos es que para las Clases no se definen instancias entiempo de ejecucion. Asi pues, las Clases representan conceptos abstractos que seespecifican en los Objetos, y las Instancias son los valores de estos Objetos. Tanto lasClases como los Objetos pueden anidarse indefinidamente.

Por ejemplo, una declaración de Clases y Objeto válida es la siguiente:

CLASE: AforoATRIBUTOS: Caudal (SERIE) ; error porcentual (NUMERICO) ;

OBJETO: Aforo Rio VelezES UN: AforoATRIBUTOS: factor de credibilidad (NUMERICO) = 0.7;

OBJETO: Aforo Rio GuaroES UN: AforoATRIBUTOS: error porcentual (poco, medio, mucho);

En esta declaración se define la clase "Aforo", con dos atributos, y los objetos "AforoRio Velez", con tres atributos, dos que hereda de la clase "Aforo" y uno propio, yel objeto "Aforo Rio Guaro", que tiene dos atributos, que hereda de la clase de losque redefine el atributo "error porcentual", como un atributo enumerado quepuede tomar tres valores discretos

En tiempo de ejecución, las entradas de los diversos métodos que pueden ejecutarsesobre las bases de conocimientos escritas en este lenguaje proporcionan InstanciasDinámicas de los objetos definidos en ellas.*

Tanto a nivel de Clase como de Objeto, puede definirse un valor inicial por defecto paracada uno de los atributos. Estos valores de inicialización dependen del tipo de atributo,pudiendo ser constantes numéricas, series constantes, o identificadores de un tipoenumerado. Los valores de inicialización se heredan de las Clases a los Objetos y deéstos a las Instancias Dinámicas, pudiendo redefinir su valor tanto en las SubClases o enlos Objetos que hereden de una Clase (con un nuevo valor por defecto), como en lasInstancias Dinámicas (mediante la asignación de un valor en la entrada). Los atributosinicializados no se supone que deban ser constantes, y pueden ser modificados al igualque cualquier otro atributo por alguno de los métodos que se definen.

• Expresión temporales: Puede hacerse referencia a cualquier valor de una serie temporalde valores mediante una expresión relativa a un cierto instante actual T, que representa acualquier valor de la serie. Como se verá en las reglas de Corrección esta variable estácuantificada existencial, mientras que en las de Coherencia Síntesis y Modelos, secuantifica universalmente:

ExpT → T

T + Exp

T - Exp

* La terminología empleada aquí es ligeramente distinta de la terminología empleada habitualmente en otrosprogramación orientada a objetos, como por ejemplo C++. En general, en los lenguajes de programaciónconvencionales sólo se habla de clases y objetos, ya que un objeto tiene una única instancia, por lo que ámbosconceptos se funden. Sin embargo, debido al indeterminismo inherente al lenguaje COVALTO, es necesaria estadistinción. (También podrían denominarse clases, subclases y objetos, buscando una mayor compatibilidad conotras convenciones, en lugar de clases, objetos e instancias, pero esta últma denominación es más clara).

Page 206: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice A Descripción del lenguaje COVALTO___________________________________________________________________________

192

En la gramática anterior la expresión debe ser de tipo numérico y debe poderse evaluarcorrectamente en tiempo de ejecución.

• Variables: Se consideran como una variable cualquier atributo de cualquiera de losobjetos definidos en el lenguaje, o cualquier identificador definido como un "alias" dealguno de estos atributos

Var → ( Id_ Objeto ) Id_ Atributo

Id_ Alias

Id_ Alias → IDENTIFICADOR

Id_ Objeto → IDENTIFICADOR

Id_ Atributo → IDENTIFICADOR

Si el atributo es de tipo serie, puede accederse a él directamente, o bien a partir de unelemento genérico que se indique mediante una expresión temporal que aparece entrecorchetes adosada a su derecha. Por ejemplo, pra representar en el lenguaje el valor delcaudal aforado en el río Vélez en un instante genérico T, o la intensidad de lluvia medidaen el pluviómetro de Alcaucín, en un instante anterior, correspondiente a 5 veces elintervalo de tiempo entre medidas que se considere en el sistema, se utilizan lasvariables:

(Aforo Rio Velez) Caudal [T](Pluviometro Alcaucin) intensidad de lluvia [T-5]

• Alias: A los meros efectos de simplicidad y economía en la expresión, pueden definirselocalmente en cada base de conocimientos identificadores que funcionen como "alias" delos atributos de los objetos más usados. Estos alias deben declararse previamente con lasiguiente sintáxis:

Decl _ Alias → ALIAS: Def _ Alias{ }1∞

Def _ Alias → Id _ Alias :: ( Id _ Objeto ) Id _ Atributo ;

Así, por ejemplo, la declaración de los siguientes alias:

ALIAS: X :: (Aforo Rio Velez) Caudal; Y :: (Pluviometro Alcaucin) intensidad de lluvia ;

permite simplificar la escritura de la base de conocimientos sustituyendo las variables delejemplo anterior por las siguientes:

X[T]Y[T-5]

• Series constantes: En el lenguaje es posible definir series de valores constantes, cuyafunción se verá más adelante. Para expresar una serie constante se enumeran susvalores, separados por comas y delimitados mediante cochetes, usando la siguientesintaxis:

Page 207: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice A Descripción del lenguaje COVALTO___________________________________________________________________________

193

Serie_ Constante → [ Lista_ Números ]

Var [ ExpT .. ExpT ]

Var [ ExpT .. ]

Var [ .. ExpT ]

Lista_ Números → Lista_ Números , Exp

Exp

Así, por ejemplo, la siguiente secuencia de caracteres expresa una serie constante:

[10,20,30,45.5,25.8,2,-4]

También pueden obtenerse series constantes a partir de las series de longitud indefinida.Por ejemplo, la siguiente expresión representa a la serie constante compuesta por sietevalores que se obtienen en un instante dado T considerando los valores de caudalaforados en río Vélez en tres instantes anteriores, en el instante actual y en tresposteriores:

(Rio Velez) Caudal [T-3 .. T+3]

Por último, es posible construir series constantes de longitud indefinida desde el instanteinicial de validación a un instante relativo al valor actual o desde un instante relativo alinstante actual hasta el final de la serie, como por ejemplo:

(Rio Velez) Caudal [.. T+3](Rio Velez) Caudal [T..]

• Expresiones: Una expresión es una combinación de operadores y operandos que seobtiene mediante la siguiente gramática:

Exp → Exp + Exp

Exp - Exp

Exp * Exp

Exp / Exp

- Exp

| Exp |

( Exp )

{ Exp }

{ Exp :: Cond }

{ Exp == Exp }

Var

Var [ ExpT ]

NUMERO

Función

Exp Reg

Serie_ Constante

Page 208: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice A Descripción del lenguaje COVALTO___________________________________________________________________________

194

La precedencia entre los operadores de esta gramática es la habitual en los lenguajes deprogramación, y corresponde a la indicada en el orden de aparición de las reglas de lagramática anterior de menor a mayor. La semántica de estas operaciones es diferentesegún sea el tipo de las expresiones que sirven de operandos. En el estado actual de laimplementación se han definido las siguientes operaciones:

Suma, Resta, Multiplicación y División, Inverso respecto a la suma y Valor absoluto.Estos operadores están sobrecargados, ya que son válidas las operaciones internas entreseries, las operaciones internas entre escalares (números) y las operaciones externasentre escalares y series y viceversa. Las operaciones internas entre números tienen lasemántica habitual. Las operaciones externas entre escalares y series representan laoperación del escalar con todos los elementos de la serie, en el orden en que apareceescrita. Por último, las operaciones internas entre series dan como resultado una seriecuyos elementos se obtienen mediante la operación de los pares de números de las seriesde los operandos, relativos a un mismo instante temporal. En el caso de que ambasseries no sean de igual longitud, la longitud de la serie resultante es igual a la menor delas longitudes de las series operadas. En caso de que una de las series sea una serieconstante, se supone que su primer elemento corresponde al instante actual.

Por ejemplo, en el lenguaje resultan válidas las siguientes expresiones:

(Rio Velez) Caudal + (Rio Benamargosa) Caudal2.5 * ( Pluviometro Alcaucin ) intensidad de lluvia

[2,3,2]*X[T-1..T+1]

La primera expresión suma dos series indefinidas, la segunda mayora una serieindefinida por un factor de 2.5, y la tercera equivale a:

[2*X[T-1],3*X[T],2*X[T+1]]

Los operadores { Exp } y { Exp :: Cond } tienen una sintaxis y semántica similara las expresiones matemáticas usadas para la denotación de conjuntos. Se aplican a unaexpresión numérica y su resultado es una serie de longitud fija compuesta por los valoresque toma esta expresión para cada una de las instancias de un mismo objeto que verificanuna condición dada. Este operador sólo se utiliza en las reglas de síntesis, en donde severá su función con más detalle.

El operador { Exp == Exp } crea una serie constante a partir de una condiciónestablecida entre dos expresiones de tipo serie. La serie resultante es la mayor queverifica la igualdad. Cuando se comparan dos series no vacías se efectuan una o variascomparaciones entre los respectivos pares de elementos. Si las dimensiones de ambasseries son diferentes, la condición se satisface cuando todas las comparaciones que sehan realizado hasta el final de la serie más corta se verifican. Este operador recupera elvalor de la serie correspondiente al primer argumento de la condición.

• Funciones: Para obtener una mayor potencia expresiva, pueden emplearse funcionesdefinidas por el usuario* o predefinidas, la sintaxis de la llamada a una de estasfunciones es la siguiente:

Función → Id_ Función ( Lista_ Argumentos )

Lista_ Argumentos → Lista_ Argumentos , Exp

Exp

Id_ Función → IDENTIFICADOR

* Opción no implementada en la actual versión del lenguaje.

Page 209: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice A Descripción del lenguaje COVALTO___________________________________________________________________________

195

Se han predefinido las siguientes funciones, algunas de ellas polimórficas:

Longitud. Esta función tiene como argumento una expresión de tipo serie y devuelvecomo resultado una expresión de tipo numérico cuyo valor corresponde al número deelementos de la serie.

Máximo y Mínimo. Se trata de unas funciones polimórficas. Si tienen como argumentosdos valores numéricos, el resultado es un valor numérico mayor (menor) entre ambos, sitienen como argumento una serie constante, el resultado es el valor numérico mayor(menor) de la serie, y si tienen como argumentos dos series constantes el resultado es laserie constante de valores máximos (mínimos) entre los pares de elementos de ámbas encada instante.

Sumatorio. Tiene como argumento una serie constante y como resultado el valornumérico de la suma de los valores que la componen. Combinando esta función y elproducto de series constantes que se ha definido anteriormente es posible obtener elproducto escalar de ambas, por ejemplo, la expresión:

sumatorio( [1,2,3]*[4,5,6] )

equivale a:

1*4 + 2*5 + 3*6

Media: Tiene como argumento una serie y como resultado el valor numérico de la mediaaritmetica de los valores que la componen.

Gracias a estas funciones pueden construirse, por ejemplo, expresiones como:

max( media(X[T-1..T+1]), media(Y[T-1.T+1]) )media( max(X[T-1..T+1],Y[T-1.T+1]) )

Varianza y Desviación: Tienen como argumento una serie y como resultado respectiva-mente el valor numérico de la varianza y la desviación típica de los valores que lacomponen, por ejemplo:

varianza( (Pluviometro A)intensidad de lluvia )desviacion( (Pluviometro A)intensidad de lluvia[T-5.T+6] )

Covarianza y Correlación: Tienen como argumento dos series y como resultadorespectivamente el valor numérico de la covarianza, o el del coeficiente de correlaciónentre ambas, por ejemplo:

correlacion( (Pluviometro A)intensidad de lluvia, (Pluviometro B)intensidad de lluvia )

Estas cuatro últimas funciones podrían definirse fácilmente en función de las anteriores,por ejemplo, la covariaza entre dos atributos de tipo serie X e Y puede expresarsetambién como:

media( (X[T] - media(X)) * (Y[T] - media(Y)) )*

* Esto proporciona también un ejemplo del polimorfismo de los operadores, ya que el signo - se refiere a unaoperación entre una serie y un escalar (la media), y el signo * se aplica a dos series, dando como resultado otraserie que finalmente se promedia. Otros estadísticos más complejos pueden construirse de forma similar.

Page 210: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice A Descripción del lenguaje COVALTO___________________________________________________________________________

196

Al igual que ocurre con los operadores entre series, todas estas funciones se puedenaplicar tanto a series constantes como a series indefinidas.

En el caso en que la función se aplique a dos series de dimensiones diferentes, se suponeque los primeros valores de ambas series corresponden al instante inicial, y en caso deque el número de elementos de ambas sea diferente se trunca la mayor antes de realizar laoperación

Por ejemplo, el coeficiente de autocorrelación de una serie en un periodo de 25 intervalostemporales, puede calcularse mediante la expresión:

correlacion( (Pluviometro A)intensidad de lluvia[T..T+24], (Pluviometro A)intensidad de lluvia[T+1..T+25] )

• Expresiones Regulares: A veces es interesante poder expresar series cuyas longitudes ovalores no son completamente conocidos, y usarlas como elementos de comparación conotras series definidas. Por ejemplo, expresar series como "una secuencia de ceros", "unasecuencia de -1's seguidos de un cero", etc. A fin de dotar al lenguaje de una potenciaexpresiva suficiente en este sentido se ha optado por incorporar expresiones regulares *definidas sobre el alfabeto de los números reales.

Exp Reg → Serie_ Constante

[ Lista_ Números | Lista_ Numeros { }0

∞ ]

Exp Reg | Exp Reg

Exp Reg . Exp Reg

Exp Reg #

Exp Reg ##

Exp Reg ?

El operador | se usa para denotar la disyunción, y puede usarse indistintamente dentrode una serie constante separando listas de números o bien directamente estableciendo ladisyunción entre dos expresiones regulares. Por ejemplo, las expresiones regulares:

[1,1,1] | [2,2,2][1,1,1 | 2,2,2 ]

son equivalentes y representan una serie de longitud tres cuyos elementos son todosunos o doses.

El operador . representa la concatenación o yustaposición de dos expresiones regulares.Si bien es habitual omitir este operador en las expresiones regulares, en este lenguaje sehace necesario que aparezca explícitamente para evitar la ambigüedad sintáctica de ciertasconstrucciones. Por ejemplo, una lista de tres 1´s o tres 2's seguidos de un cero puederepresentarse mediante la expresion:

[1,1,1 | 2,2,2 ].[0]

* Las expresiones regulares son una formulación matemática que se emplea para describir lenguajes regulares, esdecir lenguajes de tipo 3 en la jerarquía de Chomsky que pueden ser reconocidos mediante autómatas finitosdeterministas. Las operaciones básicas que definen las expresiones regulares son la disyunción, la unión y laoperación estrella de Kleene (Véase [Lewis,1988]) El empleo en este lenguaje de expresiones regulares pararepresentar series de números reales es una extrapolación de este procedimiento de definición de lenguajes. Dadoque no todo lenguaje es regular, la potencia expresiva de estas estructuras del lenguaje es limitada aunque seestima más que suficiente para la aplicación a los casos reales.

Page 211: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice A Descripción del lenguaje COVALTO___________________________________________________________________________

197

El operador # representa la operación estrella de Kleene, es decir representa a la serievacía o a cualquiera compuesta por una o más repeticiones de la serie sobre la que seaplica. Por ejemplo para representar la serie formada por uno o más unos seguidos de uncero puede usarse la expresion:

[1] . [1]# . [0]

El operador ## es similar a la estrella de Kleene, pero requiere al menos una ocurrenciade la expresión afectada. Por ejemplo, la expresión anterior es equivalente a:

[1]##. [0]

Por último el operador ? denota que la expresión anterior es opcional, es decir,representa a la lista vacía o bien a la propia expresion. Por ejemplo, para expresar laslista compuestas exactamente por dos o tres ceros puede usarse la expresión regular:

[0] . [0] . [0]?

• Condiciones: Las condiciones resultan de la aplicación de los operadores relacionales alas expresiones, o de la combinación de condiciones mediante operadores lógicos denegación disyunción y conjunción, según la siguiente gramática:

Cond → Exp = = Exp

Exp != Exp

Exp >= Exp

Exp =< Exp

Exp > Exp

Exp < Exp

Cond || Cond

Cond && Cond

! Cond

( Cond )

COHERENCIA: { Lista_ Objetos }

Todos los operadores relacionales pueden emplearse con las expresiones de tiponumérico. Con las expresiones de tipo enumerado sólo son aplicables los operadores deigualdad y desigualdad. Con las expresiones de tipo serie son aplicables todos losoperadores si ambas series son constantes, y sólamente los de igualdad y desigualdadpara el caso en que alguno de los operandos sea una expresión regular.

La precedencia entre los operadores lógicos es la habitual en los lenguajes deprogramación: negación, conjunción y disyunción, y la evaluación se efectúa en corto-circuito, es decir, en una condición compuesta, sólo se evalúa la subcondición izquierdanecesaria para obtener el valor de la conjunción global.

Por ejemplo, es una condición válida en el lenguaje la siguiente:

Page 212: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice A Descripción del lenguaje COVALTO___________________________________________________________________________

198

(Rio Velez) Caudal [T] < 1.5*media((Rio Velez)Caudal[T-5..T+5]) && (Rio Velez) Caudal < 40 && (Rio Velez) Caudal >= 0

Como se verá más adelante, en la base de conocimientos puede aparecer más de unaregla de coherencia, cada una de las cuales establece la consistencia entre un conjunto deobjetos.

La última de las reglas de la gramática establece como una condición más, el resultado dela evaluación de la disyunción de los antecedentes de las reglas de coherenciacorrespondientes a la lista de objetos que se indica. El uso habitual de esta condición esen combinación con la negación, para indicar como antecedente de una regla la noverificación de ninguno de los antecedentes de otras reglas de coherencia asociadas a unalista de objetos dada. Evidentemente, esto puede dar lugar a declaraciones decondiciones cíclicas en el lenguaje que deben ser evitadas al diseñar la base deconocimientos.*

Para expresiones de tipo serie (que no sean expresiones regulares) pueden usarse todoslos operadores relacionales. La operación de comparación entre series se evalúafavorablemente si se evalúan favorablemente todas las comparaciones de pares de datosde las series operadas de izquierda a derecha hasta el final de cualquiera de ellas. Así,por ejemplo, la siguiente comparación:

[1,2,3,4] < [7,8,9]

se evalua como verdadera ya que equivale a:

1<7 && 2<8 && 3<9

Cuando alguno de los operandos es una expresión regular sólo son aplicables losoperadores de igualdad y desigualdad. El operador de igualdad se evalúa afirmativa-mente cuando ambas series tienen al menos un elemento en común en la parte izquierda,y negativamente en caso contrario. El operador de desigualdad equivale a la negaciónlógica del operador de igualdad. Por ejemplo, la condición:

[-1,-1,-1,0,13,6,8] == [-1]##.[0]

se evalúa positivamente ya que la expresión regular representa a cualquier serie formadapor una secuencia de -1's seguidos por un 0, y la serie constante que aparece a laizquierda tiene comienza por tres -1's y un 0. Recuerdase que la subserie izquierdacomún a ambas series puede representarse mediante el operador { Exp == Exp }, encaso de que exista más de una subserie no vacía en común, este operador devuelve la demayor longitud.

• Asignaciones: Las asignaciones crean o modifican el valor de un atributo de unadeterminada instancia de un objeto, haciéndole corresponder el resultado de unaexpresión. Las reglas sintácticas son las siguientes:

* En su versión actual el lenguaje incorpora de forma implícita en los antecedentes de las reglas de coherencia laconjunción de las negaciones de las condiciones de validación de los superconjuntos del conjunto soporte deobjetos de la propia regla, por lo que esta condición no suele ser necesaria y ha quedado en desuso.

Page 213: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice A Descripción del lenguaje COVALTO___________________________________________________________________________

199

Asigns → Asigns Asign

Asign

Asign → Var := Exp ;

Var := DESCONOCIDO ;

Var [ ExpT ] := Exp ;

Var [ ExpT ] := DESCONOCIDO ;

Var [ ExpT .. ExpT ] := Exp ;

Var [ ExpT .. ExpT ] := DESCONOCIDO ;

← Id_ Objeto →{ Asigns }

Las asignaciones se usan para cambiar los valores de los atributos de un objeto en losmodelos o cuando se realiza una estimación. Es posible asignar valores instantáneos paracada valor de la variable temporal T, asignándolos a la variable que representa el valor dela serie en el instante actual, o bien valores de tipo serie de datos a atributos de este tipo.Como convención, cuando se asigna un valor numérico a una variable de tipo seriecuyos límites están bien definidos, se efectua una asignación uniforme de este valornumérico para todos los instantes. Por ejemplo son válidas las siguientes asignaciones:

(P)intensidad de lluvia := 1.2 * (Q)intensidad de lluvia ;(P) intensidad de lluvia [T| = 12.7;

(P) intensidad de lluvia [T..T+2] := [12.7, 12.8, 12.9];(P)intensidad de lluvia [T..T+2] := 12.8;

Una salvedad importante con respecto a la sintaxis es que no puede asignarseexpresiones regulares a ninguna variable, ya que los tipos de las variables correspondensólamente a series constantes o indefinidas y no a series variables.

En caso de que sea necesario asignar valores a más de un atributo se emplearán distintassentencias de asignación para cada uno de ellos.

También es posible asignar valores por defecto a todos los atributos de un objeto,usando el operador <-- y -->, que realiza una copia de los valores de todos los atributosde la instancia del objeto de entrada, en la instancia del objeto de salida. Esto resulta útilen la práctica para simplificar la escritura de la base de conocimientos.

En ciertos casos puede ser necesario indicar que el valor de un atributo es desconocido(por ejemplo, cuando se realiza una estimación que conlleva una escasa o nula fiabilidadde algunos de los atributos de entrada). El lenguaje incorpora un simbolo especial paraindicar esta circunstancia independientemente del tipo del atributo al que se adjudiqueeste valor, evitando así la propagación de dicho atributo a la instancia de salida.

Sintácticamente, una asignacion, puede componerse de otras asignaciones mediante eluso de llaves, lo que permite utilizar asignaciones múltiples en cualquier punto de la basede conocimientos. El orden en que se efectúan las asignaciones es importante, ya que lassubsiguientes asignaciones pueden emplear en su parte derecha valores previamentecalculados. Dentro de un bloque de asignaciones éstas se realizan secuencialmente paracada instante T

• Corrección: El primero de los módulos en los que se declara el conocimiento empleadoen el sistema de validación de datos, se centra en el conocimiento necesario para realizarla corrección de los errores espurios. Este componente del conocimiento se aplica

Page 214: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice A Descripción del lenguaje COVALTO___________________________________________________________________________

200

cuando se invoca al correspondiente método de Corrección. Sintácticamente el módulode correcciones se obtiene mediante la siguientes reglas:

Corrección → CORRECCION: TranfCorrección{ }1∞

TransfCorrección → Cond ⇒ Asign

La interpretación de las transformaciones de corrección correponde a la aplicaciónsucesiva de un conunto de instrucciones del tipo SI...ENTONCES. Cada una de estastransformaciones está formada por una condición y una asignación (que puede a su vezestar compuesta por varias asignaciones). Si existe algun instante T para el cual secumple la condición antecedente, se efectúan las modificaciones a que dan lugar laasignación o asignaciones correspondiente en ese preciso instante. Este proceso serealiza para todos los instantes sucesivamente. Una vez aplicada una transformación decorrección se pasa a la siguiente cuya entrada son las instancias cuyos valoresposiblemente han sido modificados por la regla anterior, y así sucesivamente hastaaplicar todas las reglas.*

• Coherencia: Las declaraciones de Coherencia son la pieza central del lenguaje. En unamisma base de conocimientos pueden aparecer distintos conocimientos de coherencia, yaque esta puede darse entre distintas combinaciones de objetos. Cada una de estasdeclaraciones de coherencia representa el hecho de que ciertos objetos presentan valoresque se avalan entre sí, y por tanto pueden considerarse válidos simultáneamente. Desdeel punto de vista sintáctico este conocimiento se declara mediante el lenguaje derivado delas siguientes reglas:

Corrección → COHERENCIA: { Lista_ Objetos }

Cond[ ] → Asigns{ }0∞

0

Lista_ Objetos → Lista_ Objetos , Id _ Objeto

Id _ Objeto

Si la base de conocimientos se aplica a n objetos, en principio se puede considerar laexistencia de 2n -1 combinaciones de estos objetos que pueden resultar coherentes.Pueden existir por tanto una (o varias) reglas de coherencia para cada una de estascombinaciones. Dicha combinación se expresa mediante la lista de objetos que apareceen la cabecera de la reglas de coherencia. La conjunción de todos los antecedentes de lasreglas de coherencia para un subconjunto de objetos dado determina la existencia de unarelación de coherencia para dicho subconjunto de objetos. En el caso de pares de objetosesta relación es simétrica, aunque no tiene porque ser reflexiva ni transitiva,* porconsiguiente, en el lenguaje se emplean relaciones n-arias de coherencia, tales que la

* En el estado actual de la implementación todo este proceso se realiza sólo una vez, aplicando las reglas decorrección en el orden en que aparecen en la base de conocimientos. Esto no garantiza que al finalizar el procesose verifiquen todas las reglas ya que podría haber algunas que alterasen los valores de manera inconsistente con lasreglas anteriores. De todas formas conviene resaltar que dado el funcionamiento del sistema la última condiciónde validación es la que en general siempre se verifica en la salida. La solución a esta cuestión es delicada. Podríapensarse en repetir el proceso de corrección hasta que no se produzcan nuevas modificaciones, pero en este casopueden presentarse problemas de terminación en el proceso de corrección. Por otra parte, sería necesario restringirla sintáxis del lenguaje de manera que una regla no pudiese alterar los valores de instantes anteriores al actual. Sedeja al cuidado del programador evitar que ocurran este tipo de problemas.* El objetivo de la validación local es precisamente la determinación de la propiedad reflexiva de la relación decoherencia. Por otra parte, la propiedad transitiva de esta relación no puede establecerse como axiomática, ya queen este caso cualquiera dos objetos serían coherentes entre sí en caso de existir un conjunto finito de ellos quepermitiese el tránsito.

Page 215: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice A Descripción del lenguaje COVALTO___________________________________________________________________________

201

verificación para cualquier n-tupla implica la verificación para cualquiera de suspermutaciones.

Como puede verse en las reglas sintácticas, las declaraciones de coherencia constan dedos partes. La primera de ellas (el antecedente) permite realizar la validación de lacondición, en general compuesta, que se impone en la base de conocimientos comocriterio de coherencia del conjunto de objetos correspondiente. A continuación (en elconsecuente) se declara la estimación de los valores de los atributos de los objetos quedebe realizarse en el caso de que se verifique la condición de validación.

La base de conocimientos de coherencia permite un funcionamiento determinista o no-determinista, según que el usuario declare uno o más conjuntos de reglas de coherencia.Los distintos conjuntos de reglas de coherencia representan las diversas alternativas deconsistencia entre un conjunto de objetos.

Algunas de estas reglas son mutuamente excluyentes, tal como se deriva de la semánticade la relación n-aria de coherencia. Si se verifica una condición de coherencia entre unobjetos, que forman un conjunto coherente, se supone que cualquier combinación de losmismos forman un conjunto coherente. Por tanto, cuando en una base de conocimientosaparecen reglas de coherencia cuyo conjunto de objetos es un subconjunto de loscorrespondientes a otra regla de coherencia, esta última debe ser evaluada primero, yaque si se satisface haría innecesaria la aplicación de la primera que es más restrictiva.

Por otra parte, una segunda fuente de indeterminismo puede venir dada por la apariciónde múltiples reglas de coherencia para un mismo conjunto soporte de objetos. El sentidode estas últimas responde a lo que en ingeniería suele denominarse "tanteo" de lasolución Se elaboran varias hipótesis, cada una de ellas controlada por una condiciónantecedente, que posteriormente serán filtradas en sucesivas etapas del proceso devalidación llevado a cabo por el sistema.

Dado que el sistema esta orientado al tratamiento de datos, posiblemente erróneos, seadosa a cada una de las estimaciones que se realizan el conjunto de objetos coherente quesoporta dicha estimación.** Este conjunto de objetos cuya suposición de corrección escoherente entre sí y que lleva a establecer los valores de los atributos que se calculan enla estimación, es precisamente el que se cita en la cabecera de la regla de coherencia. Apesar de que los valores que se asignan pueden obtenerse a partir de otros objetos, sólolos que aparecen en esta lista son objetivo de la validación. Estos objetos de entrada a suvez pueden estar sustentados por la creencia en la corrección de otros, y asísucesivamente. Los procedimientos de inferencia incorporan un mecanismo demantenimiento de la razón basado en suposiciones (ATMS) que permite gestionareficientemente este universo de hipótesis, combinando las suposiciones en casonecesario y manejando siempre conjuntos maximales de creencias o suposiciones*3 enforma normal disyuntiva*4 .

En cada una de las estimaciones de las reglas de coherencia se incluyen asignaciones pordefecto que copia los valores de las instancias de los objetos de entrada en la salida, demanera que el conjunto de objetos que forma un "Estado", o conjunto de instancias dadopor una estimación esta compuesto por todos los objetos calculados en las asignaciones

** El concepto de conjunto de objetos coherente que soportan las estimaciones realizadas constituye lo queRaiman denomina "coartadas" , y afectan a todos los objetos que se estiman a partir de una misma regla decoherencia. (véase el apartado 4.4.5.)*3 Véase el apartado 4.4.2. en el que se aplica el mecanismo del ATMS al sistema GDE para realizar eldiagnóstico basado en modelos. El mecanismo para manejar las suposiciones o "coartadas" de los objetos aquíempleado es similar a aquel, salvo que deben mantenerse conjuntos maximales de suposiciones en vez deconjuntos minimales, dado que cualquier "coartada" incluida en otra es irrelevante ante la mayor fuerza probatoriade un mayor número de "testigos".*4 Unión de disyunciones, cada una de las cuales es un grupo de "testigos" coherente.

Page 216: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice A Descripción del lenguaje COVALTO___________________________________________________________________________

202

de la estimación más todos los objetos de entrada a la regla de coherencia menos aquelloscuyo valor se define como DESCONOCIDO.

El conocimiento aquí expresado es puramente declarativo, la parte procedural del mismose fija al describir los métodos que cada primitiva emplea para proporcionar inferenciassobre la base de conocimientos escrita en este lenguaje.

• Síntesis: El módulo de síntesis establece un mecanismo en virtud del cual puedenagruparse las instancias de un mismo objeto a partir de un conjunto de reglas queproporciona el usuario. La sintaxis de estas reglas es la siguiente:

Síntesis →

SINTESIS: { Id _ Objeto }

Cond → Asigns

0

Cada una de las reglas de síntesis hacen referencia a un único objeto de la base deconocimientos, y establece la condición que debe cumplirse para que puedan agruparsedos o más instancias del mismo, así como las operaciones necesarias para llevar a caboesta operación.

Dado que en tiempo de ejecución el conjunto de instancias de un determinado objeto noes conocido, y dado que en general la relación binaria que se establece entre los valoresde los atributos de dos instancias cualesquiera no es una relación simétrica ni muchomenos transitiva*5 , el proceso de síntesis es difícil de expresar sintácticamente. En ellenguaje se ha optado por definir una relación binaria entre cualquiera dos instancias,hallando a partir de ella una relación de equivalencia que permite establecer lasagrupaciones de instancias.

La condición de las reglas de síntesis tiene una semántica diferente a la de lascondiciones de coherencia. Las condiciones de síntesis establecen una relación binariaentre dos instancias de un mismo objeto. Por simplicidad y economía del lenguaje, seasume que en las condiciones de síntesis la expresión derecha de las condicionesatómicas de síntesis representa a una de estas dos instancias, y la expresión izquierda a laotra.

Por ejemplo, la condición:

(Obj)atr[T] < (Obj)atr[T] + 5

representa que dos instancias xi y xj del objeto "Obj" son susceptibles de sersintetizadas si en todo instante T, se verifica que el valor del atributo "atr" de lainstancia xi es menor que el del atributo "atr" de la instancia xj + 5.

Esta relación binaria se calcula para todos los posibles pares de instancias del conjuntode instancias del objeto que existan en tiempo de ejecución. A partir de esta relación seobtienen los "cliques" o conjuntos maximales totalmente conectados del grafo de larelación binaria. Cada uno de estos cliques constituye un subconjunto del conjunto totalde instancias en el que la relación binaria es de equivalencia. Cada uno de estos cliquesda lugar a una síntesis distinta.*

*5 Cualquier condición de unificación debe ser reflexiva, ya que una instancia siempre puede ser unificada con símisma. En general no es extraño que también sea simétrica, aunque pueden plantearse situaciones en las que estono ocurra, el verdadero problema surge si se fuerza a que la relación sea transitiva, ya que se corre el riesgo de quecualquiera dos instancias sean unificables siempre y cuando existan las instancias intermedias que permitanrealizar el transito.* Por desgracia, en general estos subconjuntos no tienen por qué ser disjuntos, por lo que en algunos casos launificación no resulta en una disminución del número de instancias totales.

Page 217: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice A Descripción del lenguaje COVALTO___________________________________________________________________________

203

Una vez seleccionados los subconjuntos de las instancias que se van a sintetizar se debenestablecer las asignaciones que permitan crear una instancia que represente a estesubconjunto. Una vez más se plantea un problema sintáctico al ser indeterminado elnúmero de instancias que se deben sintetizar. En este caso la semántica de lasasignaciones es similar a la de las estimaciones de las reglas de coherencia, salvo que laparte izquierda de las estimaciones sólo debe hacer referencia a atributos del objeto quese sintetiza. En la parte derecha de las reglas se puede emplear el operador {::} paraconstruir una serie con los valores de la expresión en cada una de las instancias que sesintetizan.

Asi por ejemplo, para tomar el valor medio de los valores instantáneos de una serie cmovalor de síntesis puede usarse la asignación:

(Obj)atr[T] := media( {(Obj)atr[T]} )

Tambien pueden emplearse expresiones más complejas, para seleccionar valoresatendiendo a una condicion, por ejemplo, para tomar como valor de síntesis de losvalores instantáneos de una serie, el correspondiente a la instancia cuyo valor del atributode fiabilidad sea máximo puede usarse la expresión* :

(Obj)serie[T] := media( { (Obj)serie[T] :: (Obj)fiab == max({(Obj)fiab}) } )

La justificación o suposición que avala la nueva instancia sintetizada es el maximal de launión de las justificaciones de cada una de las instancias del subconjunto que sesintetiza.

Para cualquier objeto se ha predefinido una regla de síntesis por defecto que consiste enla agrupación de las instancias con atributos iguales. Dado que esta relación es deequivalencia, en este caso basta con calcular las clases de equivalencia tomando unainstancia cualquiera como marca de clase y agrupando en ella las justificaciones de todasellas en forma normal disyuntiva.

• Modelos: El lenguaje permite también la declaración de modelos, entendiendo como talesal conjunto de asignaciones que permiten obtener los valores de los atributos de unosobjetos en función de otros. Sintácticamente las regla para declarar modelos es lasiguiente:

Modelos → MODELO: IDENTIFICADOR[ ] { Lista_ Objetos }

Asigns

0

Al igual que en el caso anterior, las conclusiones establecidas por un modelo se justificanmediante la suposición de que son correctos y coherentes los valores de las instancias delos objetos que aparecen enumerados en la lista de objetos.

Sintácticamente se puede considerar un modelo como una regla de coherencia cuyacondición no aparece porque es siempre cierta, y cuya estimación es única y equivalentea la que aparece en el cuerpo del modelo. Sin embargo, los modelos representanconceptos diferentes de las estimaciones y por tanto sólo aparecen en las bases de

* Téngase en cuenta que el valor máximo del atributo “fiabilidad” puede alcanzarse en más de una instancia delconjunto que se pretende unificar, por lo que en general, se hace necesario hallar la media de los valores delatributo “serie” para todas aquellas instancias que alcanzan el máximo del valor de “fiabilidad”

Page 218: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice A Descripción del lenguaje COVALTO___________________________________________________________________________

204

conocimiento de la primitiva de modelización. En general, cada modelo puede calcularlos atributos de múltiples objetos, pudiendo coexistir más de un modelo en una base deconocimientos, lo que implica su funcionamiento no-determinista.

• Preferencia: La sintaxis usada para declarar las preferencias es la siguiente:

Pr eferencia → PREFERENCIA: Pr ef{ }1∞

Pr ef → > Exp ;

< Exp ;

Tanto la primitiva de Coherencia como la de Síntesis pueden generar múltiples instanciasde un mismo objeto dada una combinación de instancias de entrada. La solución triviales que los métodos que se aplican sobre las bases de conocimientos generen las distintasinstancias de sus objetos de salida en el orden en que las calculan. No obstante, a fin depermitir un filtrado que limite la explosión combinatoria que se produciría, se hacenecesario establecer criterios de ordenación entre el conjunto de instancias calculadas, demanera que si se procede al truncado de la sucesión corespondiente se obtengan sóloaquellas instancias con mejores características. Esta ordenación de las instancias se hacede acuerdo al valor numérico de una expresión, que debe ser independiente del instanteT, ya que se evalúa globalmente cuando ya se han obtenido las estimaciones de lasseries. El resultado de esta ordenación puede ser creciente (el signo < representa demenor a mayor) o decreciente (el signo > representa de mayor a menor). El lenguajepermite la definición de múltiples criterios de ordenación de las soluciones, aplicandoseprimero el criterio correspondiente a la expresión que aparece en primera posición y asísucesivamente con las siguientes.

Las reglas de preferencia se aplican a un conjunto de conjuntos de instancias tanto en losprocesos de coherencia como de síntesis, previamente a la aplicación de la operación detruncado de la salida según el parámetro que controla el número máximo de hipótesis.Alternando procesos de generación y selección es posible explorar un árbol de hipótesisde manera eficiente, ya que este método heurístico permite realizar una selección de lasinstancias más verosímiles para su propagación a otros módulos de proceso, con elconsiguiente ahorro en el coste computacional del proceso global.*

• Estructura general del lenguaje: La estructura general del lenguaje se obtiene mediante layuxtaposición de los módulos anteriormente citados, mediante la regla sintáctica:

Axioma → Decl _ Objetos[ ]Decl _ Alias[ ]Corrección[ ]Coherencia[ ]Síntesis[ ]Modelos[ ]Pr eferencia[ ]

* El mecanismo de generación y selección es controlado en todo momento por el usuario, y será un compromisoentre las capacidades de cálculo disponibles y el número de hipótesis a considerar. Este mecanismo es similar alempleado en el sistema SIRAH en las Tareas Básicas de Simulación (TBS) y las Tareas de Generación deEscenarios (TGE) [Alonso,1993].

Page 219: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice A Descripción del lenguaje COVALTO___________________________________________________________________________

205

Como indica la gramática, la aparición de cada uno de los bloques o módulos dellenguaje en una determinada base de conocimientos es opcional. En general, cada una delas primitivas que usan este lenguaje como vía de expresión de su base de conocimientosrequerirá de ciertos módulos para poder llevar a cabo sus inferencias, por lo que puedeconsiderarse que cada una de ellas utiliza un subconjunto propio de este lenguaje.

Page 220: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice A Descripción del lenguaje COVALTO___________________________________________________________________________

206

Page 221: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

207

APÉNDICE B

LOS SISTEMAS CYRAH y SIRAH

B.1. Introducción

La estructuración del conocimiento hidrológico que se hace en esta tesis es en ciertaforma heredera de otros trabajos de investigación desarrollados en la línea de sistemas basadosen el conocimiento aplicados a la Hidrología que se ha llevado a cabo bajo la dirección del Prof.Dr. D. José Cuena Bartolomé. Entre los proyectos realizados en los últimos años, cabe destacarlos sistemas CYRAH y SIRAH, que han dado origen a varias tesis doctorales tanto en laE.T.S.Ing. Caminos, Canales y Puertos, como en la Facultad de Informática de la UniversidadPolitécnica de Madrid.

Este apendice constituye una breve reseña de los aspectos más destacables de estossistemas:

B.2. El sistema CYRAH*

El sistema CYRAH tiene como objetivo la predicción de las situaciones conflictivas quepueden ocurrir en una región compuesta por varias cuencas sometidas a un aguacero. Paracumplir este objetivo se identifican dos tipos de conocimiento necesarios [Cuena,1992c]:

(1) Conocimiento sobre el sistema físico, representado por modelos matemáticos yprogramas de simulación. Concretamente, como subprocesos del sistema CYRAH seutilizan dos programas de simulación numérica preexistentes:

(a) El programa SAVEL que simula el proceso lluvia-escorrentía en una cuencaintegrando efectos de acumulación en la misma. Este programa es una sintesis delos sistemas de simulación numérica HEC-1 y SWMM.

(b) El programa REBOLSA para simular el flujo variable en canales, que realiza unaintegración numérica de las ecuaciones de Saint-Venant.

(2) Conocimiento sobre cómo usar los modelos, y cuáles son los escenarios que debenconsiderarse para predecir las posibles consecuencias en unas determinadascircunstancias. Este conocimiento se basa en consideraciones empíricas y muchas veces

* Acróstico de "Cálculo Y RAzonamiento Hidrológico"

Page 222: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice B. Los sistemas CYRAH y SIRAH___________________________________________________________________________

208

subjetivas que se expresan mediante marcos y reglas heurísticas. Concretamente constade las siguientes bases de conocimiento heurístico [Garrote,1990]:

(a) Base de conocimientos de acceso al sistema de información. Su misión esinterpretar los datos recibidos del SAIH de manera que puedan ser expresados en laforma cualitativa usada por otras bases de conocimiento.

(b) Base de conocimiento de control del proceso CYRAH. A partir de las condicionesmedidas en un instante dado, y de una simulación previa, este sistema de reglasestablece qué zonas podrían evolucionar desfavorablemente y requieren un estudiomás detallado. Esta selección inicial redunda en una reducción substancial del costecomputacional.

(c) Base de conocimiento meteorológica. Mediante este sistema de reglas que recogende forma heurística la experiencia histórica en la zona, y a partir de los datos leídose interpretados, se generan diversos escenarios posibles sobre la evolución espacio-temporal del aguacero.

(d) Base de conocimiento de identificación de problemas. Representa la opinión delusuario sobre las consecuencias que los caudales máximos previsibles en cada unade las secciones tendrán sobre las poblaciones y las vías de comunicación

(e) Base de conocimientos de control de la simulación. Describe cómo inferir losparámetros y como gestionar la incertidumbre para realizar la simulación mediantelos modelos numéricos.

Todas estas bases de conocimiento se gestionan localmente mediante un motor deinferencias con encadenamiento hacia atras, y son capaces de establecer una o variasconclusiones, asociando a cada una de ellas un grado de confianza que calculan a partirdel grado de confianza de las entradas y el de las propias reglas.

(3) Un conocimiento general de control, representado mediante una estrategia de inferenciafija. El esquema general de funcionamiento es el siguiente: [Cuena,1991]

Como puede verse en el siguiente esquema, el flujo principal del sistema CYRAHconsiste en una secuencia alternativa de tareas de inferencia y de control. Primero sehace una interpretación de los datos en el dominio cualitativo que se requiere para lassucesivas tareas de razonamiento. A partir de estos datos y de la aplicación simplificadadel modelo SAVEL a las condiciones de lluvia actuales, se realiza un primer tanteodeterminando groseramente los caudales esperables en un futuro próximo. A partir delos datos actuales y de esta previsión inicial se identifican las cuencas quepotencialmente pueden tener problemas, es decir aquellas en las que los caudalescalculados suponen un problema, aunque sea en forma incipiente. Una vezseleccionadas estas cuencas, se generan, mediante el subsistema de predicción de lluvia,distintos escenarios de evolución del aguacero, cuyas consecuencias se simulannuevamente mediante el programa SAVEL. A continuación se seleccionan lascombinaciones de los escenarios que resultan relevantes para la determinación deavenidas y sobre estos se aplica el programa REBOLSA para calcular la propagación delflujo a lo largo de la red fluvial. Finalmente, a partir de los caudales actuales y losresultantes de las simulaciones realizadas, se disparan las reglas que permiten inferir lasconsecuencias previsibles sobre la red de carreteras y los núcleos de población endistintos horizontes temporales.

Page 223: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice B. Los sistemas CYRAH y SIRAH___________________________________________________________________________

209

BC

Tarea de Interpretación

Interpretación de las medidas de los sensores

Tarea de Control

BCPredicción de lluvias

Tarea de Control

Selección de Cuencas con problemas potenciales BC

Tarea de Control

Generación de escenarios

........

Tarea de Control

Generación de escenarios

Tarea de Control

Generación de escenariosTarea de Control

Síntesis

........

Tarea de Simulación

SAVEL

Tarea de Simulación

REBOLSA

BC

Tarea de Interpretación

Identificación de problemas

ADQUISICION DE DATOS

RA

ZO

NA

MIE

NT

O Y

SIM

UL

AC

ION

DECISION Y MONITORIZACION

Una de las características más atractivas del sistema CYRAH es que su estrategia deinferencia es similar a la que clásicamente realizan los ingenieros humanos. La utilización de losmismos modelos numéricos cuantitativos ya consagrados en la práctica de la hidrologíaestablece una mayor proximidad entre el sistema y los usuarios. En cierta forma, los usuariospueden ver a CYRAH como un envoltorio que facilita el uso de los modelos, automatizando laselección y comprobación de las diferentes hipótesis y expresando los resultados, no entérminos de caudales, sino directamente en términos de las consecuencias previsibles sobrepoblaciones y vías de comunicación.

Page 224: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice B. Los sistemas CYRAH y SIRAH___________________________________________________________________________

210

B.3. El sistema SIRAH*

El sistema SIRAH, al igual que el CYRAH, tiene como objetivo la predicción de losproblemas que, como consecuencia de un aguacero, pueden ocurrir en un área geográfica. Estaárea geográfica, en general, estará formada por un conjunto de cuencas vertientes unas sobreotras o directamente al mar. Una de las principales diferencias entre ambos sistemas es que enSIRAH se emplean modelos cualitativos de simulación, que son definidos por el usuario, enlugar de los modelos cuantitativos usados en CYRAH.

SIRAH es un sistema complejo en el que hay muchos tipos de conocimiento quecoexisten y son manejados por procedimientos de inferencia propios que funcionan localmente.Existe a su vez un mecanismo general de control que se encarga de establecer la estrategia deinferencia global. Los elementos o piezas cognitivas con las que se modelan los objetos físicosde la cuenca son los siguientes:

(1) Espacios cualitativos y Dominios. El ingeniero, en su práctica diaria, esta acostumbradoa trabajar con rangos y ordenes de magnitud en sustitución de valores exactos, y arazonar a partir de estos “valores cualitativos”. Este es el enfoque que persigue afrontarel llamado “Razonamiento Cualitativo”** , en el que se basan gran parte de los módulosdel sistema SIRAH. Lo primero por tanto que hay que hacer para construir un modelosegún la terminología SIRAH es definir cuáles son los valores cualitativos que se van aemplear, las operaciones que pueden realizarse con ellos, y en su caso los rangos devalores exactos a los que corresponden. Uno de los principales espacios cualitativos quese emplean en SIRAH es el de caudales. Este espacio cualitativo es muy útil desde elpunto de vista práctico para tratar con la imprecisión inherente a los datos hidrológicos.

(2) Objetos simples. Estos elementos están descritos mediante marcos, métodos y reglas.Cada uno de los marcos indica los atributos del objeto. Los métodos y las reglas definenel modo de calcularlos. Hay objetos de distintos tipos, que representan a elementosfísicos del sistema hidrológico tales como:

(a) Parte meteorológico. Representa la situación meteorológica global y una indicaciónsobre el volumen global de las lluvias acaecidas recientemente.Para ello este objetodefine parámetros tales como: "la direccion del viento", "presencia degota fria", etc.

(b) Pluviómetros. Los pluviómetros pueden representarse en SIRAH mediante objetos,en el sentido computacional de la palabra. Es necesario definir el objetopluviómetro, sus variables y sus métodos (funciones que trabajan con él). Losobjetos que representan a los pluviómetros tienen varios atributos, entre ellos unaconstante alfanumérica llamada “Codigo Variable”, que contiene el nombre delfichero en donde el SAIH almacena los datos recibidos; y un atributo generalmentedenominado “intensidad de lluvia 15 min”, que realiza una interpolación delos valores del pluviograma cada cuarto de hora. Este atributo es una sucesiónbinaria de valores correspondientes a los extremos inferior y superior de lasintensidades de lluvia que pueden darse en un instante dado. Esto permiterepresentar la incertidumbre en instantes temporales futuros.

(c) Aforos. Son objetos simples similares computacionalmente similares a lospluviómetros. Sus atributos principales suelen ser el “Nivel” y el “Caudal”. Laprimera de estas variables representa la lectura del linnimetro, que se obtiene a partirde un fichero cuyo nombre se proporciona en una constante denominada “CodigoVariable”, para cada una de las instancias que finalmente se definan. A partir deesta sucesión se calcula el valor de la variable “Caudal”, obtenida mediante lainterpolación de los valores de una curva de gasto definida en un fichero auxiliar,distinto para cada una de las instancias.

* Acróstico de "Sistema Inteligente de RAzonamiento Hidrológico"** Véanse [Forbus,1984], [Kuipers,1986] y [deKleer,1984] como referencias básicas sobre Razonamiento,Modelado y Simulación Cualitativa.

Page 225: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice B. Los sistemas CYRAH y SIRAH___________________________________________________________________________

211

(d) Areas de lluvia. Las áreas de lluvia representan a las superficies sobre las que sepuede estimar que se produce una lluvia de intensidad uniforme. En general sedefinen tantas Areas de Lluvia como permita el conocimiento de la región deestudio. Las áreas de lluvia son objetos sencillos que contienen los pluviogramasponderados representándolos mediante sucesiones binarias. Otros atributosrepresentan algunas características hidrológicas conocidas como son la superficie dela cuenca correspondiente, el tiempo de concentración, etc.

(3) Tareas básicas de simulación (TBS). Estos elementos son objetos especiales querealizan la simulación cualitativa de los procesos hidrológicos. Cada uno de estosobjetos se define mediante sus entradas, sus salidas, sus variables o atributos y elproceso de simulación que realizan. Este último viene dado por las acciones que debenrealizarse en la creación del objeto, al principio y al final de la simulación, y en cada unade las sucesivas iteraciones que se realizan en el horizonte temporal que se estudia. Elproceso, en general, es no determinista, dado que para una sucesión de valores deentrada puede generar más de una solución posible.

(a) TBS Zona de Lluvia. Las zonas de lluvia son por tanto los elementos del sistemaque infieren los valores de las lluvias previstas a partir de los datos de pluviómetrosy de la situación meteorológica conocida.

(b) TBS Area Receptora. Las áreas receptoras representan trozos de cuenca que sesupone que tienen características físicas homogéneas: coeficiente de escorrentía,pendiente, tiempo de concentración, etc. En estas unidades se realiza el proceso desimulación lluvia-caudal, obteniendo a partir de las los datos recogidos en las áreasde lluvia y de los inferidos en las zonas de lluvia, el hidrograma de respuesta que seproduce. Puede emplearse cualquier modelo iterativo que se desee para realizar lasimulación, entre ellos el método del hidrograma unitario.

(c) TBS Tramos de Transporte. Los tramos de transporte representan trozos de caucecon unas características físicas que pueden considerarse homogéneas. En los tramosde transporte se realiza un proceso de simulación cualitativa, que a partir delhidrogramas (o los hidrogramas) que se consideran para una determinada secciónde entrada al cauce es capaz de obtener el hidrograma (o los hidrogramas) en lasección de salida. El método por el cual se calculan estos hidrogramas se define porel propio usuario, al igual que en ocasiones anteriores. Por ejemplo, uno de losmétodos implementados en las aplicaciones prácticas de SIRAH es el de loscoeficientes de Muskingum. Asimismo, la simulación en sí es un proceso nodeterminista en el sentido de que a partir de un único hidrograma de entrada psepuede considerar que se produce un abanico de hidrogramas de respuesta diferentesque nuestro conocimiento a priori no es capaz de determinar.Los embalses existentes en un cauce pueden considerarse como tramos detransporte especiales, en los que el hidrograma de entrada y el de salida no estánsólamente sometidos a las leyes hidráulicas de continuidad. Para este tipo especialde tramos se ha definido a su vez una tarea genérica que permite modelizarlos

(4) Tareas de Generación de Escenarios (TGE). Las Tareas de Generación de Escenarios,TGE, son objetos abstractos especiales que sirven para filtrar las combinaciones devalores de un grupo de objetos que deben estudiarse, rechazando aquellascombinaciones que no son coherentes (filtrado por “VEROSIMILITUD”), o aquellas queno interesa estudiar porque a desde un primer momento se sabe que no van a producirproblemas (filtrado por “PERTINENCIA”). Como resultado de la ejecución de una TGEsobre un conjunto de atributos se obtiene una sensible reducción en el número decombinaciones de valores que finalmente se estudiarán, con la consiguiente mejora en elrendimiento global del sistema.En el sistema SIRAH se emplean dos tipos de TGE: LaTGE de Barrancos y la TGE Meteorológica.

(a) TGE Meteorológica. Para filtrar la explosión combinatoria que se produce alejecutar las tareas básicas de simulación correspondientes en este caso a las Zonasde lluvia, existe un objeto especial en SIRAH denominado “Tge Meteorologica”.

Page 226: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice B. Los sistemas CYRAH y SIRAH___________________________________________________________________________

212

La función de este elemento del lenguaje es eliminar de entre el producto cartesianode todos los pluviogramas posibles calculados por las TBS Zona de Lluviacorrespondientes, aquellos que no van a producir problemas (filtrado porPERTINENCIA) y aquellas combinaciones de hidrogramas en distintas zonas que noson razonables, o que no se cree que vayan a ocurrir (filtrado por VEROSIMILITUD)

(b) TGE Barranco. La TGE de Barrancos filtra las combinaciones de los valores de loshidrogramas de respuesta de las Areas receptoras que drenan sobre un Barranco, afin de obtener aquellas combinaciones de hidrogramas que más interesa estudiarpara realizar un diagnóstico de la situación. Se consideran pertinentes aquelloshidrogramas cuyos caudales pueden producir problemas en algún Patrón. Seconsideran verosímiles aquellas combinaciones que están dentro de unos ordenes demagnitud esperables

(5) Conectores. Los conectores son unos objetos auxiliares que, al contrario de las AreasReceptoras y los Tramos de Transporte, no tienen un equivalente físico. Sin embargo,son de gran utilidad para el sistema ya que con ellos se define la topología de la redhidráulica, mediante las conexiones entre los distintos elementos que la componen.Portanto, existen Conectores de distinta índole según los elementos a conectar. Para cadatipo de conector se definirá una clase genérica que realice las operaciones necesarias enel engarce. De esta forma se deben definir conectores entre Areas receptoras y tramos detransporte, conectores entre un tramo de transporte y otro aguas abajo, conectores entredos tramos de transporte que vierten en otro, etc. Además de la simple definicióntopológica, los conectores realizan un proceso de filtrado de los hidrogramas quemanejan. Los procesos de cálculo de los hidrogramas de respuesta tanto de Areasreceptoras como de Tramos de transporte y demás elementos del sistema, producen porlo general más de una solución. Al combinar dos de estos atributos no deterministas conmás de un valor posible, el resultado puede tomar en la salida un número de valoresigual al producto de ambas entradas; si este proceso se repite varias veces la explosióncombinatoria de valores posibles en la salida provocaría que el sistema fuese ineficazdesde el punto de vista computacional. Los conectores tienen en cuenta esta situación yrestringen el número de valores finalmente posibles mediante un proceso de filtrado queelimina de la lista de valores posibles aquellos que coresponden a valores redundantescon otros de la misma lista.

(6) Barrancos. Los barrancos son instancias que representan cuencas o subcuencas que seconsideran unidades relevantes en el problema y en las que se define la topología de lared. Un barranco viene dado por sus conexiones. Los barrancos tienen como entrada lasAreas receptoras o Cabeceras que drenan sobre el Barranco y como salida el últimoelemento de la red del barranco. Estos elementos son importantes, ya que a ellos serefieren las definiciones de otros elementos más simples como conectores, patrones yáreas problema.

(7) Areas problema. Además de los objetos vistos hasta el momento, que componen la redhidrológica del sistema que se está analizando e intentando modelar, se debenrepresentar también como objetos los elementos que pueden verse afectados por laacción de una avenida. La clase principal de estos objetos es el “Area problemabasica”, que representa las zonas inundables.

(a) Areas problema de poblaciones. Representan núcleos de población que puedenquedar inundados o incomunicados.

(b) Areas problema de tramos de carretera. Representan los tramos de carretera quepueden verse afectados por cortes o desprendimientos ocasionados por la avenida

(8) Patrones. Los Patrones son unos objetos especiales que se toman como representantesde la situación o estado de un trozo de una cuenca en la que hay una o más Areasproblema. El patrón debe ser pues un indicador fiable de la aparición de problemas enalguna de las Areas problema a las que representa. Los Patrones son elementos muyimportantes, ya que el Motor de Inferencias del sistema SIRAH, los utiliza junto con el

Page 227: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice B. Los sistemas CYRAH y SIRAH___________________________________________________________________________

213

Retículo de Hipótesis para dirigir el proceso de simulación, es decir, para lanzar lassimulaciones que parezca interesante realizar para determinar posibles situacionescríticas en las Areas problemaSon esenciales para cualquier modelo SIRAH las variables “Activo” y “Verificado”,que controlan el mecanismo de inferencia del Retículo de Hipótesis. El primero de estosatributos informa a priori de la situación del Patrón. Mediante un sistema de reglasprevio es posible desestimar el estudio hipótesis o simulaciones de avenidas que se sabeque no se están produciendo y de las que se tiene la certeza de que no se van a produciren las próximas horas. Por ejemplo, mediante los valores obtenidos por las estacionesde aforo, en los pluviómetros, o en cualquier otro objeto que se estime representativo,se puede descartar a priori la existencia de problemas en algunas áreas de la región deestudio. Es de sentido común que si la magnitud de la lluvia es pequeña o si los aforosno marcan caudales importantes no es necesario realizar ninguna simulación paradeterminar que no se van a producir situaciones de avenida preocupantes. Este “sentidocomún” puede y debe ser definido explícitamente en SIRAH. El atributo “Verificado”,por el contrario se calcula a posteriori, de forma que una vez que se ha estudiado laexistencia de problemas en un área determinada, se continúe la exploración de otrasáreas

(9) Retículo de Hipótesis. El Retículo de Hipótesis es la estructura de datos del modeloencargada de dirigir la simulación de forma eficiente. Es la guía que utiliza el Motor deInferencias (llamado familiarmente GOLEM) para lanzar las simulaciones. Desde unpunto de vista formal el Retículo es un Grafo Acíclico Dirigido. Los nodoscorresponden conceptualmente a esquemas de situaciones de peligro frente a lasavenidas. Cada uno de estos esquemas constituye una hipótesis de trabajo que endeterminados casos conviene analizar en profundidad. Para determinar si una hipótesisdebe ser estudiada se utilizan los patrones como “REPRESENTANTES”, de toda laextensión que abarca la hipótesis. El GOLEM considera las distintas Hipótesissucesivamente y procede a activar el modelo correspondiente lanzando el proceso desimulación, empezando por la Hipótesis que considera más interesante o más urgente.Para determinar el orden de lanzamiento de Hipótesis de utiliza una heurística basada enel estado de los patrones.

Para adaptar el modelo SIRAH a un área geográfica concreta es menester definir tantasinstancias de estos elementos como sean necesarias, cada uno de estos objetos representa a unelemento físico de la cuenca y esta diseñado para que el conocimiento sobre su funcionamientopueda expresarse mediante un lenguaje propio. Cada uno de estos objetos puede utilizar losatributos que otro ha definido, realizando así una llamada implícita a la ejecución de losprocedimientos necesarios para su determinación.

La estrategia o mecanismo general de inferencia no es completamente fijo, sino que enparte se determina al construir el modelo de aplicación del sistema al área geográfica y en ladefinición de los atributos asociados a cada elemento conceptal. Sin embargo, la complejidaddel modelo sugiere su utilización de forma unívoca, ya que existen muchos elementosinterdependientes. La siguiente figura muestra un ejemplo de modelización de un sistemahidrológico simple mediante los elementos cognitivos utilizados en SIRAH. Cada sistemahidrológico requiere la definición e interconexión de varias instancias de estos elementos

Page 228: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice B. Los sistemas CYRAH y SIRAH___________________________________________________________________________

214

Pluviometro

Pluviometro

TBSTramo detransporte

TBSTramo detransporte

TBSTramo detransporte

TBSTramo detransporte

TBS Area

Receptora

Barranco Barranco

TBS Zona de lluvias

Conector

TGE_Meteorologica

TBS Zona de lluvias

Conector ConectorConector

TBS Area

Receptora

TBS Area

Receptora

Pluviometro

Area de lluvias Area de lluvias Area de lluvias

Area problema

Area problemaArea problema

Patron

Patron

Patron

TGE_barranco

TBSTramo detransporte

de embalse

Conector

Aforo

TGE_barranco

El elemento principal de control es el Retículo de Hipótesis. El mecanismo general deinferencia (GOLEM) averigua que Hipótesis tienen activos todos sus patrones, construyendo unfrente dentro del Retículo formado por aquellas Hipótesis cuyos patrones están todos activos yque no son descendientes de ninguna otra Hipótesis que cumpla esta propiedad. Entre dosHipótesis activas relacionadas siempre es preferible la Hipótesis padre. Este proceso equivale acalcular las distintas Hipótesis mínimas que se pueden considerar activas, al igual que en unsistema de mantenimiento de la verdad basado en suposiciones se calculan los conjuntos deHipótesis mínimas que justifican un determinado comportamiento (véase por ejemplo el ATMSdescrito por [deKleer,1986]). Las Hipótesis mínimas son las más altas en la jerarquía. Una vezformado este frente o lista de Hipótesis que interesa estudiar se hace una valoración del interésen función de varios atributos de los patrones que abarca la Hipótesis, tales como el valor decaudal actúa, el valor previsto, el gradiente de cambio, la superficie que representa, etc. Todosestos atributos están definidos en cada patrón, con unos valores por defecto que pueden serredefinidos en la construcción del modelo mediante un conjunto de reglas. La función devaloración es interna al sistema. Tras este proceso se elige una Hipótesis y se procede a lanzar elproceso de simulación descrito esquemáticamente en la figura anterior, aunque restringido a losBarrancos que están incluídos en la lista de patrones correspondiente a la Hipótesis. El modeloque se simula para una Hipótesis concreta en general no es el total, sino sólamente elsubconjunto necesario para averiguar el valor del caudal de todos los patrones que intervienen

Page 229: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice B. Los sistemas CYRAH y SIRAH___________________________________________________________________________

215

en ella (tanto explícitos como implícitos en hipótesis descendientes). Siguiendo esta idea en laTGE Meteorológica, común a todos los Barrancos, sólo se aplican las restricciones referentes alos patrones que intervienen en la situación que se está estudiando. Tras el proceso desimulación se obtienen valores de “Caudal” en los patrones, y mediante un sistema de reglas sedetermina si cada patrón se ha “Verificado”, es decir, si los caudales que se han obtenido trasla simulación de la Hipótesis pueden causar problemas. Aquellos patrones que se hanverificado, y que por tanto se sabe ya que van a ocasionar problemas, se desactivan, de maneraque las sucesivas hipótesis que se consideren correspondan a situaciones de avenida claramentedistintas de las ya estudiadas. En cualquier caso, se hayan verificado o no los patronesrepresentantes de la Hipótesis que dió lugar a la simulación, ésta se elimina de manera que novuelva a ser considerada. En este punto se replantea la situación del Retículo de la misma formaque al principio, salvo que en este caso algunas patrones más estarán desactivados. Seconstruye un nuevo frente y se aplica la función de interés para determinar la Hipótesis másprometedora. El proceso termina cuando todos los patrones están desactivados, o bien todos losque están activos se han verificado, o bien todas las hipótesis han sido consideradas.

El mecanismo utilizado por SIRAH consiste en estudiar empezando por la hipótesis ohipótesis más generales, el comportamiento de los patrones. Si todos los patrones se verifican,la hipótesis se cumple, si alguno de los patrones no se verifica se debe descender en el grafosiguiendo las ramas correspondientes a patrones que se hayan verificado. Este proceso continúarecursivamente hasta que no haya ningún patrón activo y se haya explorado completamente elRetículo de Hipótesis.

Page 230: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice B. Los sistemas CYRAH y SIRAH___________________________________________________________________________

216

Page 231: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

217

APÉNDICE C

BASES DE CONOCIMIENTO YRESULTADOS DE EJECUCIÓN DEL

SISTEMA DE VALIDACIÓN DE DATOSEN LA CUENCA DEL RIO VÉLEZ

C.1. Introducción

A continuación se muestran los listados completos tanto de las bases de conocimiento,como de los resultados de la ejecución del ejemplo que se presenta en el capítulo 8. Esteepigrafe se organiza en cuatro secciones, la primera recoge las definiciones básicas de losobjetos que se emplean en las bases de conocimiento, en estas definiciones se establecen losvalores por defecto de ciertos atributos que pueden ser modificados mediante el mecanismo deherencia. A continuación hay tres epígrafes dedicados cada uno de ellos a una de las UnidadesCognitivas principales del ejemplo. Cada una de estas secciones incluye un esquema de laorganización modular de los ficheros que utiliza la implementación del prototipo del sistema ellistado completo de las bases de conocimiento (ficheros fuente en lenguaje COVALTO, conextensión *.ent), los ficheros con los datos u objetos de entrada (*.de) y los ficheros con losobjetos resultantes (*.ds). Al final de cada uno de estos epígrafes se incluye un cuadro resumende los valores de los atributos principales del modelo.

C.2. Clases

aforo.cla

/*******************************************//* DEFINICION DE LA CLASE AFORO *//*******************************************/

CLASE: AforoATRIBUTOS: caudal (SERIE); fiabilidad (NUMERICO) := 0.90; contador de fallos (NUMERICO) := 0;

Page 232: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice C Bases de Conocimiento y Resultados de ejecución del sistema en la cuenca del Río Vélez___________________________________________________________________________

218

area.cla

/*******************************************//* DEFINICION DE LA CLASE AREA RECEPTORA *//*******************************************/

CLASE: Area ReceptoraATRIBUTOS: superficie (NUMERICO); // en km2 caudal de escorrentia (SERIE); // en m3/sg fiabilidad (NUMERICO); k (NUMERICO) := 0.01; // parametro de la regresion n (NUMERICO) := 2.5; // parametro de la regresion

nivel.cla

/*******************************************//* DEFINICION DE LA CLASE NIVEL *//*******************************************/

CLASE: NivelATRIBUTOS: nivel de embalse (SERIE); fiabilidad (NUMERICO) := 0.99; contador de fallos (NUMERICO) := 0;

pluviom.cla

/*******************************************//* DEFINICION DE LA CLASE PLUVIOMETRO *//*******************************************/

CLASE: PluviometroATRIBUTOS: intensidad de lluvia (SERIE);// altura sobre el nivel del mar (NUMERICO);// error porcentual (NUMERICO) := 0.05; fiabilidad (NUMERICO) := 0.90; contador de fallos (NUMERICO) := 0;

tramo.cla

/************************************************//* DEFINICION DE LA CLASE TRAMO DE TRANSPORTE *//************************************************/

CLASE: Tramo de TransporteATRIBUTOS: caudal aguas arriba (SERIE); // en m3/sg caudal aguas abajo (SERIE); // en m3/sg fiabilidad (NUMERICO);

Page 233: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice C Bases de Conocimiento y Resultados de ejecución del sistema en la cuenca del Río Vélez___________________________________________________________________________

219

C. 3. Unidad Cognitiva de la Cuenca del Río de la Cueva.

cl_slt.de

cl_slt.ent

cl_slt.ds

cl_stp.de

cl_stp.ent

cl_stp.ds

cg_cue.ent

cg_cue.ds

mg_cue.ent

mg_cue.ds

cg_slt.ent

cg_slt.ds

Coherencia LocalPluv. Salto del N.

Coherencia LocalAforo Salto del N.

Coherencia LocalPluv. Santopitar

Aforo Salto del N.

Aforo Salto del N.

Pluv. Salto del N.

Pluv. Salto del N.Pluv. Santopitar

Pluv. Santopitar

Coherencia GlobalRio de la Cueva

Pluv. Santopitar (2)Pluv. Salto del N. (2)

Modelo delA.R. Santopitar

Modelo delA.R. Colmenar

Modelo del T.T. Rio de la Cueva

A.R. Santopitar (2) A.R. Colmenar (2)

T.T. Rio de la Cueva (2)

Coherencia GlobalCaudales en Salto del N.

U.C. Rio de la Cueva (3->2)

Page 234: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice C Bases de Conocimiento y Resultados de ejecución del sistema en la cuenca del Río Vélez___________________________________________________________________________

220

cl_stp.ent

/****************************************************************************//* COHERENCIA LOCAL DEL PLUVIOMETRO DE SANTOPITAR *//****************************************************************************/

INCLUIR: pluviom.cla

OBJETO: Pluviometro Santopitar; ES UN: Pluviometro

ALIAS: I :: (Pluviometro Santopitar) intensidad de lluvia; c :: (Pluviometro Santopitar) contador de fallos;

// --------------------------------------------------------// CORRECCION://// Se comprueban los valores maximos y minimos de todas las// medidas instantaneas, asi como el gradiente de variacion//// --------------------------------------------------------

CORRECCION:

I[T] < 0 // valor minimo ==> {

I[T] := 0; c := c+1; }

I[T] > 15 // valor maximo en 1 hora. ==> {

I[T] := I[T-1]; c := c+1; }

I[T] > I[T-1] + 5 // pendiente maxima ==> {

I[T] := min ( (I[T-1]+I[T+1])/2, I[T-1] + 5 ); c := c+1; }

I[T] < I[T-1] - 10 // pendiente minima ==> {

I[T] := max ( (I[T-1]+I[T+1])/2, I[T-1] - 10 ); c := c+1; }

// --------------------------------------------------------// COHERENCIA//// La medida del pluviometro se considera coherente si// la suma total de lluvia es menor que 250 mm. en 1 hora// y en toda la serie hay menos de 5 medidas que hayan// necesitado correccion// --------------------------------------------------------

COHERENCIA: { Pluviometro Santopitar } /* VALIDACION: */

sumatorio(I[T..T+11]) < 50 && c<5

//-----------------------------------------------

EJECUCION:

CORRECCION: TMAX:=24;// COHERENCIA: TMAX:=24;

Page 235: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice C Bases de Conocimiento y Resultados de ejecución del sistema en la cuenca del Río Vélez___________________________________________________________________________

221

cl_stp.de

[ ['Pluviometro Santopitar', [ ['__justificacion__' , [['PStp']]], ['altura sobre el nivel del mar' , 800], ['contador' , 0], ['fiabilidad' , 0.80], ['error porcentual' , 0.1], ['intensidad de lluvia' , [ 1.9, 0.4, 0.9, 7.5, 2.1, 0.7, 2.0, -3.0, 2.1, 1.4, 1.0, 1.6, 1.4, 25.0, 25,0, 0,0, 1.6, 6.6, 1.5, 1.8, 1.0, 1.0, 0.4, 0,0 ]] ] ]].

cl_stp.ds

[ ['Pluviometro Santopitar', [ ['__justificacion__' , [['PStp']]], ['contador de fallos' , 4.00], ['fiabilidad' , 0.80], ['intensidad de lluvia' ,[1.90,0.40,0.90,1.50,2.10,0.70,2.00,0.00,2.10,1.40,1.00,1.60,1.40,1.40,1.40,0.00,0.00,0.00,1.60,6.60,1.50,1.80,1.00,1.00,0.40,0.00,0.00]] ] ]].

Page 236: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice C Bases de Conocimiento y Resultados de ejecución del sistema en la cuenca del Río Vélez___________________________________________________________________________

222

cl_slt.ent

/****************************************************************************//* COHERENCIA LOCAL DEL PLUVIOMETRO DEL SALTO DEL NEGRO *//* COHERENCIA LOCAL DEL AFORO DEL SALTO DEL NEGRO *//****************************************************************************/

INCLUIR: pluviom.claINCLUIR: aforo.cla

OBJETO: Pluviometro Salto del NegroES UN: Pluviometro

OBJETO: Aforo Salto del NegroES UN: Aforo

ALIAS:I :: (Pluviometro Salto del Negro) intensidad de lluvia;c :: (Pluviometro Salto del Negro) contador de fallos;Q :: (Aforo Salto del Negro) caudal;cq :: (Aforo Salto del Negro) contador de fallos;

// --------------------------------------------------------// CORRECCION://// Se comprueban los valores maximos y minimos de todas las// medidas instantaneas, asi como el gradiente de variacion//// --------------------------------------------------------

CORRECCION:

/************************** Pluviometro *****************************/

I[T] < 0 // valor minimo ==> {

I[T] := 0; c := c+1;

}

I[T] > 15 // valor maximo en 1 hora. ==> {

I[T] := I[T-1]; c := c+1;

}

I[T] > I[T-1] + 5 // pendiente maxima de subida ==> { I[T] := min( (I[T-1]+I[T+1])/2, I[T-1] + 5 );

c := c+1; }

I[T] < I[T-1] - 10 // pendiente minima de bajada ==> {

I[T] := max ( (I[T-1]+I[T+1])/2, I[T-1] - 10 ); c := c+1;

}

Page 237: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice C Bases de Conocimiento y Resultados de ejecución del sistema en la cuenca del Río Vélez___________________________________________________________________________

223

/************************** Aforo *****************************/

Q[T] < 0 // valor minimo ==> {

Q[T] := 0; cq := cq+1; }

Q[T] > 200 // valor maximo en 1 hora. ==> {

Q[T] := Q[T-1]; cq := cq+1; }

Q[T] > Q[T-1] + 100 // pendiente maxima de subida ==> {

Q[T] := max ( (Q[T-1]+Q[T+1])/2, Q[T-1] + 100 ); cq := cq+1; } Q[T] < Q[T-1] - 50 // pendiente minima de bajada

==> { Q[T] := min ( (Q[T-1]+Q[T+1])/2, Q[T-1] - 50 );

cq := cq+1; }

// --------------------------------------------------------// COHERENCIA//// La medida del Pluviometro se considera coherente si// la suma total de lluvia es menor que 100 mm. en 12 horas// y en toda la serie hay menos de 5 medidas que hayan// necesitado correccion//// La Coherencia Local del Aforo se determina acotando el// valor de la desviacion tipica//// --------------------------------------------------------

COHERENCIA: { Pluviometro Salto del Negro }/* VALIDACION: */

sumatorio(I[T..T+11]) < 100&& c<5

COHERENCIA: { Aforo Salto del Negro }/* VALIDACION: */

desviacion(Q) < 0.8

// --------------------------------------------------------

EJECUCION:

CORRECCION: TMAX:=24;// COHERENCIA: TMAX:=24;

Page 238: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice C Bases de Conocimiento y Resultados de ejecución del sistema en la cuenca del Río Vélez___________________________________________________________________________

224

cl_slt.de

[ ['Pluviometro Salto del Negro', [ ['__justificacion__' , [['PSlt']]], ['altura sobre el nivel del mar' , 400], ['contador' , 0], ['fiabilidad' , 0.93], ['error porcentual' , 0.1], ['intensidad de lluvia' , [1.4, 0.0, 1.1, 1.4, 0.5, 3.0, 4.1, 1.5, 1.0, 1.0, 1.6, 1.2, 0.4, 0.0, 0.0, 0.0, 1.4, 5.6, 3.1, 1.6, 1.0, 0.7, 0.0, 0.0 ]] ] ], ['Aforo Salto del Negro', [ ['__justificacion__' , [['ASlt']]], ['contador' , 0], ['fiabilidad' , 0.95], ['error porcentual' , 0.1], ['caudal' ,[ 1.1, 2.7, 1.9, 6.5, 3.0, 18.0, 49.0, 45.0, 6.0, 2.2, 5.1, 5.2, 3.1, 0.4, -5.4, 0.3, 2.9, 80.0, 84.0, 12.0, 6.2, 1.9, 0.9, 0.3 ]] ] ]].

cl_slt.ds

[ ['Aforo Salto del Negro', [ ['__justificacion__' , [['ASlt']]], ['contador de fallos' , 2.00], ['fiabilidad' , 0.95], ['caudal' ,[1.10,2.70,1.90,6.50,3.00,18.00,49.00,45.00,6.00,2.20,5.10,5.20,3.10,0.40,0.00,0.30,2.90,80.00,84.00,34.00,6.20,1.90,0.90,0.30]] ] ], ['Pluviometro Salto del Negro', [ ['__justificacion__' , [['PSlt']]], ['contador de fallos' , 0.00], ['fiabilidad' , 0.93], ['intensidad de lluvia' ,[1.40,0.00,1.10,1.40,0.50,3.00,4.10,1.50,1.00,1.00,1.60,1.20,0.40,0.00,0.00,0.00,1.40,5.60,3.10,1.60,1.00,0.70,0.00,0.00]] ] ]].

Page 239: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice C Bases de Conocimiento y Resultados de ejecución del sistema en la cuenca del Río Vélez___________________________________________________________________________

225

cg_cue.ent

/****************************************************************************//* COHERENCIA GLOBAL DE LOS PLUVIOMETROS DE LA CUENCA DEL RIO DE LA CUEVA *//****************************************************************************/

INCLUIR: pluviom.cla

OBJETO: Pluviometro Salto del NegroES UN: Pluviometro

OBJETO: Pluviometro SantopitarES UN: Pluviometro

// ----------------------------------------------------------------------COHERENCIA: { Pluviometro Santopitar, Pluviometro Salto del Negro } /* VALIDACION: */ (Pluviometro Santopitar) contador de fallos < 1 && (Pluviometro Salto del Negro) contador de fallos < 1 && media( (Pluviometro Santopitar) intensidad de lluvia ) > 1.1 * media( (Pluviometro Salto del Negro) intensidad de lluvia ) /* ESTIMACION: */ --> <-- Pluviometro Santopitar --> (Pluviometro Santopitar) fiabilidad := max((Pluviometro Santopitar) fiabilidad, (Pluviometro Salto del Negro) fiabilidad ); <-- Pluviometro Salto del Negro --> (Pluviometro Salto del Negro) fiabilidad := max((Pluviometro Santopitar) fiabilidad, (Pluviometro Salto del Negro) fiabilidad );

COHERENCIA: { Pluviometro Santopitar } /* VALIDACION: */ (Pluviometro Santopitar) contador de fallos < 5 /* ESTIMACION: */ --> <-- Pluviometro Salto del Negro --> (Pluviometro Salto del Negro) intensidad de lluvia[T] := 0.80 * (Pluviometro Santopitar) intensidad de lluvia[T]; (Pluviometro Salto del Negro) fiabilidad := (Pluviometro Santopitar) fiabilidad; <-- Pluviometro Santopitar -->

COHERENCIA: { Pluviometro Salto del Negro } /* VALIDACION: */ (Pluviometro Salto del Negro) contador de fallos < 5 /* ESTIMACION: */ --> <-- Pluviometro Santopitar --> (Pluviometro Santopitar) intensidad de lluvia[T] := 1.20 * (Pluviometro Salto del Negro) intensidad de lluvia[T]; (Pluviometro Santopitar) fiabilidad := (Pluviometro Salto del Negro) fiabilidad; <-- Pluviometro Salto del Negro -->

//--------------------------------------------------

EJECUCION:

COHERENCIA: TMAX:=24;// SINTESIS: TMAX:=24;

Page 240: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice C Bases de Conocimiento y Resultados de ejecución del sistema en la cuenca del Río Vélez___________________________________________________________________________

226

cg_cue.ds

[ ['Pluviometro Salto del Negro', [ ['__justificacion__' , [['PSlt',no('PStp')]]], ['contador de fallos' , 0.00], ['fiabilidad' , 0.93], ['intensidad de lluvia' ,[1.40,0.00,1.10,1.40,0.50,3.00,4.10,1.50,1.00,1.00,1.60,1.20,0.40,0.00,0.00,0.00,1.40,5.60,3.10,1.60,1.00,0.70,0.00,0.00]] ] ], ['Pluviometro Salto del Negro', [ ['__justificacion__' , [['PStp',no('PSlt')]]], ['contador de fallos' , 0.00], ['fiabilidad' , 0.80], ['intensidad de lluvia' ,[1.52,0.32,0.72,1.20,1.68,0.56,1.60,0.00,1.68,1.12,0.80,1.28,1.12,1.12,1.12,0.00,0.00,0.00,1.28,5.28,1.20,1.44,0.80,0.80]] ] ], ['Pluviometro Santopitar', [ ['__justificacion__' , [['PSlt',no('PStp')]]], ['contador de fallos' , 4.00], ['fiabilidad' , 0.93], ['intensidad de lluvia' ,[1.68,0.00,1.32,1.68,0.60,3.60,4.92,1.80,1.20,1.20,1.92,1.44,0.48,0.00,0.00,0.00,1.68,6.72,3.72,1.92,1.20,0.84,0.00,0.00,0.40,0.00,0.00]] ] ], ['Pluviometro Santopitar', [ ['__justificacion__' , [['PStp',no('PSlt')]]], ['contador de fallos' , 4.00], ['fiabilidad' , 0.80], ['intensidad de lluvia' ,[1.90,0.40,0.90,1.50,2.10,0.70,2.00,0.00,2.10,1.40,1.00,1.60,1.40,1.40,1.40,0.00,0.00,0.00,1.60,6.60,1.50,1.80,1.00,1.00,0.40,0.00,0.00]] ] ]].

Page 241: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice C Bases de Conocimiento y Resultados de ejecución del sistema en la cuenca del Río Vélez___________________________________________________________________________

227

mg_cue.ent

/****************************************************************************//* MODELO GENERAL DE LA CUENCA DEL RIO DE LA CUEVA *//****************************************************************************/

INCLUIR: pluviom.claINCLUIR: area.claINCLUIR: tramo.cla

OBJETO: Pluviometro SantopitarES UN: Pluviometro

OBJETO: Pluviometro Salto del NegroES UN: Pluviometro

OBJETO: Area Receptora ColmenarES UN: Area ReceptoraATRIBUTOS: superficie (NUMERICO) := 80;

OBJETO: Area Receptora SantopitarES UN: Area ReceptoraATRIBUTOS: superficie (NUMERICO) := 100;

OBJETO: Tramo de Transporte del Rio de la CuevaES UN: Tramo de TransporteATRIBUTOS: intensidad de lluvia media (SERIE) ;

// -----------------------------------------------------------------

ALIAS:

I1 :: (Pluviometro Santopitar) intensidad de lluvia;f1 :: (Pluviometro Santopitar) fiabilidad;I2 :: (Pluviometro Salto del Negro) intensidad de lluvia;f2 :: (Pluviometro Salto del Negro) fiabilidad;

Q1 :: (Area Receptora Colmenar) caudal de escorrentia;S1 :: (Area Receptora Colmenar) superficie;k1 :: (Area Receptora Colmenar) k;n1 :: (Area Receptora Colmenar) n;

Q2 :: (Area Receptora Santopitar) caudal de escorrentia;S2 :: (Area Receptora Santopitar) superficie;k2 :: (Area Receptora Santopitar) k;n2 :: (Area Receptora Santopitar) n;

QE :: (Tramo de Transporte del Rio de la Cueva) caudal aguas arriba;QS :: (Tramo de Transporte del Rio de la Cueva) caudal aguas abajo;I :: (Tramo de Transporte del Rio de la Cueva) intensidad de lluvia media;f :: (Tramo de Transporte del Rio de la Cueva) fiabilidad;

Page 242: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice C Bases de Conocimiento y Resultados de ejecución del sistema en la cuenca del Río Vélez___________________________________________________________________________

228

/***************************************************************//* MODELO DEL AREA RECEPTORA DE COLMENAR *//***************************************************************/

MODELO: Area Receptora Colmenar { Pluviometro Santopitar, Pluviometro Salto del Negro }

Q1[T] := 0.625 * k1 * S1 * I1[T]^n1 + 0.375 * k1 * S1 * I2[T]^n1 ; // media ponderada

/**************************************************************//* MODELO DEL AREA RECEPTORA DE SANTOPITAR *//**************************************************************/

MODELO: Area Receptora Santopitar { Pluviometro Santopitar, Pluviometro Salto del Negro }

Q2[T] := 0.6 * k2 * S2 * I1[T]^n2 + 0.4 * k2 * S2 * I2[T]^n2 ; // media ponderada

/**************************************************************//* MODELO DEL TRAMO DE TRANSPORTE DEL RIO DE LA CUEVA *//**************************************************************/

MODELO: Tramo de Transporte del Rio de la Cueva{ Area Receptora Colmenar, Area Receptora Santopitar }

QE[T] := Q1[T];QS[T] := Q1[T-1] + Q2[T];

I[T] := media(I1[T],I2[T]); f := 0.75 * f1 * f2;

// -----------------------------------------------------------------

EJECUCION:

MODELOS: TMAX:=24;

Page 243: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice C Bases de Conocimiento y Resultados de ejecución del sistema en la cuenca del Río Vélez___________________________________________________________________________

229

mg_cue.ds

[ ['Area Receptora Colmenar', [ ['__justificacion__' , [['PSlt',no('PStp')]]], ['n' , 2.50], ['k' , 0.01], ['caudal de escorrentia' ,[2.52,0.00,1.38,2.52,0.19,16.97,37.06,3.00,1.09,1.09,3.53,1.72,0.11,0.00,0.00,0.00,2.52,80.80,18.42,3.53,1.09,0.45,0.00,0.00]], ['superficie' , 80.00] ] ], ['Area Receptora Colmenar', [ ['__justificacion__' , [['PStp',no('PSlt')]]], ['n' , 2.50], ['k' , 0.01], ['caudal de escorrentia' ,[3.34,0.07,0.52,1.85,4.29,0.28,3.80,0.00,4.29,1.56,0.67,2.18,1.56,1.56,1.56,0.00,0.00,0.00,2.18,75.17,1.85,2.92,0.67,0.67]], ['superficie' , 80.00] ] ], ['Area Receptora Santopitar', [ ['__justificacion__' , [['PSlt',no('PStp')]]], ['n' , 2.50], ['k' , 0.01], ['caudal de escorrentia' ,[3.12,0.00,1.71,3.12,0.24,20.99,45.83,3.71,1.35,1.35,4.36,2.12,0.14,0.00,0.00,0.00,3.12,99.92,22.78,4.36,1.35,0.55,0.00,0.00]], ['superficie' , 100.00] ] ], ['Area Receptora Santopitar', [ ['__justificacion__' , [['PStp',no('PSlt')]]], ['n' , 2.50], ['k' , 0.01], ['caudal de escorrentia' ,[4.13,0.08,0.64,2.28,5.30,0.34,4.69,0.00,5.30,1.92,0.83,2.68,1.92,1.92,1.92,0.00,0.00,0.00,2.68,92.77,2.28,3.60,0.83,0.83]], ['superficie' , 100.00] ] ],

Page 244: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice C Bases de Conocimiento y Resultados de ejecución del sistema en la cuenca del Río Vélez___________________________________________________________________________

230

['Tramo de Transporte del Rio de la Cueva', [ ['__justificacion__' , [['PSlt',no('PStp')]]], ['fiabilidad' , 0.65], ['caudal aguas abajo' ,['x',2.52,1.71,4.50,2.76,21.18,62.80,40.77,4.35,2.44,5.45,5.65,1.85,0.11,0.00,0.00,3.12,102.45,103.58,22.78,4.87,1.64,0.45,0.00]], ['caudal aguas arriba' ,['x',0.00,1.38,2.52,0.19,16.97,37.06,3.00,1.09,1.09,3.53,1.72,0.11,0.00,0.00,0.00,2.52,80.80,18.42,3.53,1.09,0.45,0.00,0.00]], ['intensidad de lluvia media' ,['x',0.00,1.21,1.54,0.55,3.30,4.51,1.65,1.10,1.10,1.76,1.32,0.44,0.00,0.00,0.00,1.54,6.16,3.41,1.76,1.10,0.77,0.00,0.00]] ] ], ['Tramo de Transporte del Rio de la Cueva', [ ['__justificacion__' , [['PStp',no('PSlt')]]], ['fiabilidad' , 0.48], ['caudal aguas abajo' ,['x',3.43,0.70,2.80,7.15,4.63,4.96,3.80,5.30,6.22,2.39,3.36,4.10,3.48,3.48,1.56,0.00,0.00,2.68,94.94,77.46,5.45,3.75,1.50]], ['caudal aguas arriba' ,['x',0.07,0.52,1.85,4.29,0.28,3.80,0.00,4.29,1.56,0.67,2.18,1.56,1.56,1.56,0.00,0.00,0.00,2.18,75.17,1.85,2.92,0.67,0.67]], ['intensidad de lluvia media' ,['x',0.36,0.81,1.35,1.89,0.63,1.80,0.00,1.89,1.26,0.90,1.44,1.26,1.26,1.26,0.00,0.00,0.00,1.44,5.94,1.35,1.62,0.90,0.90]] ] ]].

Page 245: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice C Bases de Conocimiento y Resultados de ejecución del sistema en la cuenca del Río Vélez___________________________________________________________________________

231

cg_slt.ent

/****************************************************************************//* COHERENCIA GLOBAL DEL CAUDAL EN EL SALTO DEL NEGRO *//****************************************************************************/

INCLUIR: aforo.claINCLUIR: tramo.cla

OBJETO: Aforo Salto del NegroES UN: Aforo

OBJETO: Tramo de Transporte del Rio de la CuevaES UN: Tramo de TransporteATRIBUTOS: intensidad de lluvia media (SERIE); // en l/m2.

OBJETO: Unidad Cognitiva Rio de la CuevaATRIBUTOS: caudal (SERIE); // en m3/seg. intensidad de lluvia media (SERIE); // en l/m2. fiabilidad (NUMERICO); regla (NUMERICO);

ALIAS:

Qaforado :: (Aforo Salto del Negro) caudal; f1 :: (Aforo Salto del Negro) fiabilidad; Qestimado :: (Tramo de Transporte del Rio de la Cueva) caudal aguas abajo; I :: (Tramo de Transporte del Rio de la Cueva) intensidad de lluvia media; f2 :: (Tramo de Transporte del Rio de la Cueva) fiabilidad;

// ----------------------------------------------------------------------

COHERENCIA: { Aforo Salto del Negro, Tramo de Transporte del Rio de la Cueva } /* VALIDACION: */ | Qaforado[T] - Qestimado[T] | < 0.5*Qaforado[T]+5 /* ESTIMACION: */ --> (Unidad Cognitiva Rio de la Cueva) caudal[T] := Qaforado[T]; (Unidad Cognitiva Rio de la Cueva) intensidad de lluvia media[T] := I[T]; (Unidad Cognitiva Rio de la Cueva) fiabilidad := 1-(1-f1)*(1-f2); (Unidad Cognitiva Rio de la Cueva) regla := 1;

COHERENCIA: { Tramo de Transporte del Rio de la Cueva } /* VALIDACION: */ // sea cual sea /* ESTIMACION: */ --> (Unidad Cognitiva Rio de la Cueva) caudal[T] := Qestimado[T] ; (Unidad Cognitiva Rio de la Cueva) intensidad de lluvia media[T] := I[T]; (Unidad Cognitiva Rio de la Cueva) fiabilidad := f2; (Unidad Cognitiva Rio de la Cueva) regla := 2;

COHERENCIA: { Aforo Salto del Negro } /* VALIDACION: */ // sea cual sea /* ESTIMACION: */ --> (Unidad Cognitiva Rio de la Cueva) caudal[T] := Qaforado[T]; (Unidad Cognitiva Rio de la Cueva) intensidad de lluvia media[T] := DESCONOCIDO; (Unidad Cognitiva Rio de la Cueva) fiabilidad := f1; (Unidad Cognitiva Rio de la Cueva) regla := 3;

Page 246: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice C Bases de Conocimiento y Resultados de ejecución del sistema en la cuenca del Río Vélez___________________________________________________________________________

232

// -------------------------------------------------

SINTESIS: { Unidad Cognitiva Rio de la Cueva } /* VALIDACION: */

(Unidad Cognitiva Rio de la Cueva) caudal[T] <= 1.1*(Unidad Cognitiva Rio de la Cueva) caudal[T]

/* ESTIMACION: */ -->(Unidad Cognitiva Rio de la Cueva) caudal[T] := media( { (Unidad Cognitiva Rio de la Cueva) caudal[T] :: (Unidad Cognitiva Rio de la Cueva) fiabilidad == max( {(Unidad Cognitiva Rio de la Cueva) fiabilidad} ) } );(Unidad Cognitiva Rio de la Cueva) intensidad de lluvia media[T] := media( { (Unidad Cognitiva Rio de la Cueva) intensidad de lluvia media[T] :: (Unidad Cognitiva Rio de la Cueva) fiabilidad == max( {(Unidad Cognitiva Rio de la Cueva) fiabilidad} ) } );(Unidad Cognitiva Rio de la Cueva) fiabilidad := max( {(Unidad Cognitiva Rio de la Cueva) fiabilidad} );

// -------------------------------------------------PREFERENCIAS:

> (Unidad Cognitiva Rio de la Cueva) fiabilidad ;> media( (Unidad Cognitiva Rio de la Cueva) caudal );

//--------------------------------------------------

EJECUCION:

COHERENCIA: TMAX:=24; SINTESIS: TMAX:=24; // NMAX := 1;

Page 247: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice C Bases de Conocimiento y Resultados de ejecución del sistema en la cuenca del Río Vélez___________________________________________________________________________

233

cg_slt.ds

[ ['Unidad Cognitiva Rio de la Cueva', [ ['__justificacion__' , [['ASlt'],['PSlt',no('PStp')]]], ['caudal' ,['x',2.70,1.90,6.50,3.00,18.00,49.00,45.00,6.00,2.20,5.10,5.20,3.10,0.40,0.00,0.30,2.90,80.00,84.00,34.00,6.20,1.90,0.90,0.30]], ['intensidad de lluvia media' ,['x',0.00,1.21,1.54,0.55,3.30,4.51,1.65,1.10,1.10,1.76,1.32,0.44,0.00,0.00,0.00,1.54,6.16,3.41,1.76,1.10,0.77,0.00,0.00]], ['fiabilidad' , 0.98], ['regla' , 1.00] ] ], ['Unidad Cognitiva Rio de la Cueva', [ ['__justificacion__' , [['PStp',no('ASlt'),no('PSlt')]]], ['caudal' ,['x',3.43,0.70,2.80,7.15,4.63,4.96,3.80,5.30,6.22,2.39,3.36,4.10,3.48,3.48,1.56,0.00,0.00,2.68,94.94,77.46,5.45,3.75,1.50]], ['intensidad de lluvia media' ,['x',0.36,0.81,1.35,1.89,0.63,1.80,0.00,1.89,1.26,0.90,1.44,1.26,1.26,1.26,0.00,0.00,0.00,1.44,5.94,1.35,1.62,0.90,0.90]], ['fiabilidad' , 0.48], ['regla' , 2.00] ] ]].

Page 248: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice C Bases de Conocimiento y Resultados de ejecución del sistema en la cuenca del Río Vélez___________________________________________________________________________

234

JUST

IFIC

AC

ION

FI

AB

. 0,

1,

2,

3,

4,

5,

6,

7,

8,

9,

10

, 11

, 12

, 13

, 14

, 15

, 16

, 17

, 18

, 19

, 20

, 21

, 22

, 23

,

0,

93

1,40

0,

00

1,10

1,

40

0,50

3,

00

4,10

1,

50

1,00

1,

00

1,60

1,

20

0,40

0,

00

0,00

0,

00

1,40

5,

60

3,10

1,

60

1,00

0,

70

0,00

0,

00

--(P

luvi

omet

ro S

alto

de

Neg

ro)

inte

nsid

ad d

e llu

via

(cl

_slt.

ds)

[[PS

lt]]

0,93

1,

40

0,00

1,

10

1,40

0,

50

3,00

4,

10

1,50

1,

00

1,00

1,

60

1,20

0,

40

0,00

0,

00

0,00

1,

40

5,60

3,

10

1,60

1,

00

0,70

0,

00

0,00

--

(Plu

viom

etro

Sal

to d

el N

egro

) in

tens

idad

de

lluvi

a (

cg_c

ue.d

s)[[

PSlt,

no(P

Stp)

]]

0,93

1,

40

0,00

1,

10

1,40

0,

50

3,00

4,

10

1,50

1,

00

1,00

1,

60

1,20

0,

40

0,00

0,

00

0,00

1,

40

5,60

3,

10

1,60

1,

00

0,70

0,

00

0,00

--

[[PS

tp,n

o(PS

lt)]]

0,

80

1,52

0,

32

0,72

1,

20

1,68

0,

56

1,60

0,

00

1,68

1,

12

0,80

1,

28

1,12

1,

12

1,12

0,

00

1,28

5,

28

1,20

1,

44

0,80

0,

32

0,00

0,

00

--

[[PS

tp]]

0,

80

1,90

0,

40

0,90

7,

50

2,10

0,

70

2,00

-3

,00

2,10

1,

40

1,00

1,

60

1,40

25

,00

25

,00

0,

00

1,60

6,

60

1,50

1,

80

1,00

0,

40

0,00

0,

00

--(P

luvi

omet

ro S

anto

pita

r) in

tens

idad

de

lluvi

a (

cl_s

tp.d

s)[[

PStp

]]

0,80

1,

90

0,40

0,

90

1,50

2,

10

0,70

2,

00

0,00

2,

10

1,40

1,

00

1,60

1,

40

1,40

1,

40

0,00

1,

60

6,60

1,

50

1,80

1,

00

0,40

0,

00

0,00

--

(Plu

viom

etro

San

topi

tar)

inte

nsid

ad d

e llu

via

(cg

_cue

.ds)

[[PS

lt,no

(PSt

p)]]

0,

93

1,68

0,

00

1,32

1,

68

0,60

3,

60

4,92

1,

80

1,20

1,

20

1,92

1,

44

0,48

0,

00

0,00

0,

00

1,68

6,

72

3,72

1,

92

1,20

0,

84

0,00

0,

00

--[[

PStp

,no(

PSlt)

]]

0,80

1,

90

0,40

0,

90

1,50

2,

10

0,70

2,

00

0,00

2,

10

1,40

1,

00

1,60

1,

40

1,40

1,

40

0,00

1,

60

6,60

1,

50

1,80

1,

00

0,40

0,

00

0,00

--

(Are

a R

ecep

tora

Col

men

ar)

caud

al d

e es

corr

entia

mg_

cue.

ds)

[[PS

lt,no

(PSt

p)]]

0,

93

2,52

0,

00

1,38

2,

52

0,19

16

,97

37

,06

3,

00

1,09

1,

09

3,53

1,

72

0,11

0,

00

0,00

0,

00

2,52

80

,80

18

,42

3,

53

1,09

0,

45

0,00

0,

00

-[[

PStp

,no(

PSlt)

]]

0,80

3,

34

0,07

0,

52

1,85

4,

29

0,28

3,

80

0,00

4,

29

1,56

0,

67

2,18

1,

56

1,56

1,

56

0,00

2,

18

75,1

7

1,85

2,

92

0,67

0,

07

0,00

0,

00

-

(Are

a R

ecep

tora

San

topi

tar)

cau

dal d

e es

corr

entia

(

mg_

cue.

ds)

[[PS

lt,no

(PSt

p)]]

0,

93

3,12

0,

00

1,71

3,

12

0,24

20

,99

45

,83

3,

71

1,35

1,

35

4,36

2,

12

0,14

0,

00

0,00

0,

00

3,12

99

,92

22

,78

4,

36

1,35

0,

55

0,00

0,

00

-[[

PStp

,no(

PSlt)

]]

0,80

4,

13

0,08

0,

64

2,28

5,

30

0,34

4,

69

0,00

5,

30

1,92

0,

83

2,68

1,

92

1,92

1,

92

0,00

2,

68

92,7

7

2,28

3,

60

0,83

0,

08

0,00

0,

00

-

(Tra

mo

de T

rans

port

e R

io d

e la

Cue

va)

caud

al a

guas

aba

jo

(mg_

cue.

ds)

[[PS

lt,no

(PSt

p)]]

0,

93

2,

52

1,71

4,

50

2,76

21

,18

62

,80

40

,77

4,

35

2,44

5,

45

5,65

1,

85

0,11

0,

00

0,00

3,

12

102,

45

103,

58

22,7

8

4,87

1,

64

0,45

0,

00

-[[

PStp

,no(

PSlt)

]]

0,80

3,43

0,

70

2,80

7,

15

4,63

4,

96

3,80

5,

30

6,22

2,

39

3,36

4,

10

3,48

3,

48

1,56

2,

68

94,9

4

77,4

6

5,45

3,

75

0,76

0,

07

0,00

-

(Afo

ro S

alto

del

Neg

ro)

caud

al (

cl_s

lt.de

)[[

ASl

t]]

0,95

1,

10

2,70

1,

90

6,50

3,

00

18,0

0

49,0

0

45,0

0

6,00

2,

20

5,10

5,

20

3,10

0,

40

-5,4

0 0,

30

2,90

80

,00

84

,00

12

,00

6,

20

1,90

0,

90

0,30

-

(Afo

ro S

alto

del

Neg

ro)

caud

al (

cl_s

lt.ds

)[[

ASl

t]]

0,95

1,

10

2,70

1,

90

6,50

3,

00

18,0

0

49,0

0

45,0

0

6,00

2,

20

5,10

5,

20

3,10

0,

40

0,00

0,

30

2,90

80

,00

84

,00

34

,00

6,

20

1,90

0,

90

0,30

-

(Uni

dad

Cog

nitiv

a R

io d

e la

Cue

va)

caud

al

(cg_

slt.d

s)[[

ASl

t],[

PSlt,

no(P

Stp)

]]

0,98

1,

10

2,70

1,

90

6,50

3,

00

18,0

0

49,0

0

45,0

0

6,00

2,

20

5,10

5,

20

3,10

0,

40

0,00

0,

30

2,90

80

,00

84

,00

34

,00

6,

20

1,90

0,

90

0,30

-

[[A

Slt,

no(P

Stp)

]]

0,93

1,

10

2,70

1,

90

6,50

3,

00

18,0

0

49,0

0

45,0

0

6,00

2,

20

5,10

5,

20

3,10

0,

40

0,00

0,

30

2,90

80

,00

84

,00

34

,00

6,

20

1,90

0,

90

0,30

*

[[PS

tp,n

o(A

Slt)

,no(

PSlt)

]]

0,48

3,43

0,

70

2,80

7,

15

4,63

4,

96

3,80

5,

30

6,22

2,

39

3,36

4,

10

3,48

3,

48

1,56

2,

68

94,9

4

77,4

6

5,45

3,

75

0,76

0,

07

0,00

-

(Uni

dad

Cog

nitiv

a R

io d

e la

Cue

va)

inte

nsid

ad d

e llu

via

med

ia

( cg_

slt.d

s)[[

ASl

t],[

PSlt,

no(P

Stp)

]]

0,98

1,

54

0,00

1,

21

1,54

0,

55

3,30

4,

51

1,65

1,

10

1,10

1,

76

1,32

0,

44

0,00

0,

00

0,00

1,

54

6,16

3,

41

1,76

1,

10

0,77

0,

00

0,00

-

[[PS

tp,n

o(A

Slt)

,no(

PSlt)

]]

0,48

1,

71

0,36

0,

81

1,35

1,

89

0,63

1,

80

0,00

1,

89

1,26

0,

90

1,44

1,

26

1,26

1,

26

0,00

1,

44

5,94

1,

35

1,62

0,

90

0,36

0,

00

0,00

-

Page 249: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice C Bases de Conocimiento y Resultados de ejecución del sistema en la cuenca del Río Vélez___________________________________________________________________________

235

C.4. Unidad Cognitiva del Embalse de la Viñuela.

cl_vin.de

cl_vin.ent

cl_vin.ds

cl_alf.de

cl_alf.ent

cl_alf.ds

mg_gua.ent

mg_gua.ds

me_vin.ent

me_vin.ds

cg_vin.ent

cg_vin.ds

Coherencia LocalPluv. Viñuela

Coherencia LocalNivel Viñuela

Coherencia LocalPluv. Alfarnatejo

Aforo Viñuela

Aforo Viñuela

Nivel Viñuela

Pluv. ViñuelaPluv. Alfarnatejo

Modelo delA.R. Alfarnate

Modelo delA.R. Viñuela

Modelo del T.T. Rio Guaro Alto

A.R. Alfarnate A.R. Viñuela

T.T. Rio Guaro Alto

Modelo delEmbalse de la Viñuela

Pluv. Viñuela

Coherencia LocalAforo Viñuela

Nivel Viñuela

Pluv. Alfarnatejo

Modelo delEmbalse de la Viñuela

U.C. Viñuela

Embalse de la Viñuela

Page 250: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice C Bases de Conocimiento y Resultados de ejecución del sistema en la cuenca del Río Vélez___________________________________________________________________________

236

cl_alf.ent

/****************************************************************************//* COHERENCIA LOCAL DEL PLUVIOMETRO DE ALFRANATEJO *//****************************************************************************/

INCLUIR: pluviom.cla

OBJETO: Pluviometro AlfarnatejoES UN: Pluviometro

ALIAS: I :: (Pluviometro Alfarnatejo) intensidad de lluvia; c :: (Pluviometro Alfarnatejo) contador de fallos;

// --------------------------------------------------------// CORRECCION://// Se comprueban los valores maximos y minimos de todas las// medidas instantaneas, asi como el gradiente de variacion//// --------------------------------------------------------

CORRECCION:

I[T] < 0 // valor minimo ==> {

I[T] := 0; c := c+1; }

I[T] > 15 // valor maximo en 1 hora. ==> {

I[T] := I[T-1]; c := c+1; }

I[T] > I[T-1] + 10 // pendiente maxima ==> {

I[T] := min ( (I[T-1]+I[T+1])/2, I[T-1] + 5 ); c := c+1; }

I[T] < I[T-1] - 10 // pendiente minima ==> {

I[T] := max ( (I[T-1]+I[T+1])/2, I[T-1] - 10 ); c := c+1; }

// --------------------------------------------------------

COHERENCIA: { Pluviometro Alfarnatejo } /* VALIDACION: */

sumatorio(I[T..T+11]) < 250 && c<5

// --------------------------------------------------------

EJECUCION:

CORRECCION: TMAX:=24;// COHERENCIA: TMAX:=24; NMAX:=99;

Page 251: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice C Bases de Conocimiento y Resultados de ejecución del sistema en la cuenca del Río Vélez___________________________________________________________________________

237

cl_alf.de

[ ['Pluviometro Alfarnatejo', [ ['__justificacion__' , [['PAlf']]], ['altura sobre el nivel del mar' , 900], ['contador de fallos' , 0], ['fiabilidad' , 0.99], ['error porcentual' , 0.1],

['intensidad de lluvia' , [0.3, 0.2, 0.2, 0.4, 1.9, 1.1, 2.5, 5.3, 7.4, 1.1, 1.5, 2.1,-3.3, 0.0, 0.0, 1.1, 14.2, 8.5, 2.8, 0.7, 0.2, 0.4, 0.1, 0]] ] ]].

cl_alf.ds

[ ['Pluviometro Alfarnatejo', [ ['__justificacion__' , [['PAlf']]], ['contador de fallos' , 2.00], ['fiabilidad' , 0.99], ['intensidad de lluvia' ,[0.30,0.20,0.20,0.40,1.90,1.10,2.50,5.30,7.40,1.10,1.50,2.10,0.00,0.00,0.00,1.10,4.80,8.50,2.80,0.70,0.20,0.40,0.10,0.00]] ] ]].

Page 252: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice C Bases de Conocimiento y Resultados de ejecución del sistema en la cuenca del Río Vélez___________________________________________________________________________

238

cl_vin.ent

/****************************************************************************//* COHERENCIA LOCAL DEL PLUVIOMETRO DE LA VINNUELA *//* COHERENCIA LOCAL DEL AFORO DE LA VINNUELA *//****************************************************************************/

INCLUIR: pluviom.claINCLUIR: aforo.claINCLUIR: nivel.cla

OBJETO: Pluviometro VinuelaES UN: Pluviometro

OBJETO: Aforo VinuelaES UN: AforoATRIBUTOS: caudal desaguado por la presa (NUMERICO); // en m3/sg.

OBJETO: Nivel VinuelaES UN: Nivel

ALIAS: I :: (Pluviometro Vinuela) intensidad de lluvia; c :: (Pluviometro Vinuela) contador de fallos;

Q :: (Aforo Vinuela) caudal;

H :: (Nivel Vinuela) nivel de embalse;

// --------------------------------------------------------// CORRECCION://// Se comprueban los valores maximos y minimos de todas las// medidas instantaneas, asi como el gradiente de variacion//// --------------------------------------------------------

CORRECCION:

/************************** Pluviometro *****************************/

I[T] < 0 // valor minimo ==> {

I[T] := 0; c := c+1;

}

I[T] > 15 // valor maximo en 1 hora. ==> {

I[T] := I[T-1]; c := c+1;

}

I[T] > I[T-1] + 7.5 // pendiente maxima de subida ==> { I[T] := min ( (I[T-1]+I[T+1])/2, I[T-1] + 5 );

c := c+1; }

I[T] < I[T-1] - 10 // pendiente minima de bajada ==> {

I[T] := max ( (I[T-1]+I[T+1])/2, I[T-1] - 10 ); c := c+1; }

Page 253: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice C Bases de Conocimiento y Resultados de ejecución del sistema en la cuenca del Río Vélez___________________________________________________________________________

239

/************************** Aforo *****************************/

Q[T] < 0 // valor minimo ==> {

Q[T] := 0; }

Q[T] > 200 // valor maximo en 1 hora. ==> {

Q[T] := Q[T-1]; }

Q[T] > Q[T-1] + 40 // pendiente maxima de subida ==> {

Q[T] := min ( (Q[T-1]+Q[T+1])/2, Q[T-1] + 40 ); }

Q[T] < Q[T-1] - 20 // pendiente minima de bajada ==> {

Q[T] := max ( (Q[T-1]+Q[T+1])/2, Q[T-1] - 20 ); }

/************************** Nivel *****************************/

H[T] < 190 // valor minimo ==> {

H[T] := 0; }

H[T] > 200 // valor maximo ==> {

H[T] := H[T-1]; }

H[T] > H[T-1] + 0.03 // pendiente maxima de subida ==> {

H[T] := min ( (H[T-1]+H[T+1])/2, H[T-1] + 0.03 ); }

H[T] < H[T-1] - 0.03 // pendiente maxima de bajada ==> {

H[T] := max ( (H[T-1]+H[T+1])/2, H[T-1] - 0.03 ); }

// --------------------------------------------------------// COHERENCIA

COHERENCIA: { Pluviometro Vinuela } /* VALIDACION: */

sumatorio(I[T..T+11]) < 100 && c<5 /* ESTIMACION: */ --> <-- Pluviometro Vinuela -->

COHERENCIA: { Aforo Vinuela } /* VALIDACION: */

desviacion(Q) < 0.8

COHERENCIA: { Nivel Vinuela } /* VALIDACION: */

desviacion(Q) < 0.1

// --------------------------------------------------------EJECUCION:

CORRECCION: TMAX:=24;// COHERENCIA: TMAX:=24; NMAX:=99;

Page 254: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice C Bases de Conocimiento y Resultados de ejecución del sistema en la cuenca del Río Vélez___________________________________________________________________________

240

cl_vin.de

[ ['Pluviometro Vinuela', [ ['__justificacion__' , [['PVin']]], ['altura sobre el nivel del mar' , 220], ['contador' , 0], ['fiabilidad' , 0.93], ['intensidad de lluvia' , [ 0.9, 0.2, 0.6, 0.9, 2.1, 0.3, 2.2, 4.7, 2.0, 1.2, 1.3, 0.7, 0.6, 1.0, 0.5, 0.1, 0.2, 0.9, 5.2, 1.2, 0.8, 0.5, 0.2, 0.0 ]] ] ], ['Aforo Vinuela', % lo que desagua el embalse en m3/sg. [ ['__justificacion__' , [['AVin']]], ['fiabilidad' , 1.00], ['caudal' , [ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]] ] ], ['Nivel Vinuela', % Nivel del embalse [ ['__justificacion__' , [['NVin']]], ['fiabilidad' , 1.00], ['nivel de embalse' , [ 192.50, 192.50, 192.50, 192.50, 192.50, 192.50, 193.50, 192.50, 192.51, 192.51, 193.51, 192.51, 192.51, 192.51, 193.51, 192.51, 192.51, 192.52, 193.52, 192.53, 192.53, 192.53, 193.53, 192.53 ]]

] ]].

Page 255: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice C Bases de Conocimiento y Resultados de ejecución del sistema en la cuenca del Río Vélez___________________________________________________________________________

241

cl_vin.ds

[ ['Aforo Vinuela', [ ['__justificacion__' , [['AVin']]], ['contador de fallos' , 0.00], ['fiabilidad' , 1.00], ['caudal' ,[0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00]] ] ], ['Nivel Vinuela', [ ['__justificacion__' , [['NVin']]], ['contador de fallos' , 0.00], ['fiabilidad' , 1.00], ['nivel de embalse' ,[192.50,192.50,192.50,192.50,192.50,192.50,192.50,192.50,192.51,192.51,192.51,192.51,192.51,192.51,192.51,192.51,192.51,192.52,192.53,192.53,192.53,192.53,192.53,192.53]] ] ], ['Pluviometro Vinuela', [ ['__justificacion__' , [['PVin']]], ['contador de fallos' , 0.00], ['fiabilidad' , 0.93], ['intensidad de lluvia' ,[0.90,0.20,0.60,0.90,2.10,0.30,2.20,4.70,2.00,1.20,1.30,0.70,0.60,1.00,0.50,0.10,0.20,0.90,5.20,1.20,0.80,0.50,0.20,0.00]] ] ]].

Page 256: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice C Bases de Conocimiento y Resultados de ejecución del sistema en la cuenca del Río Vélez___________________________________________________________________________

242

mg_gua.ent

/****************************************************************************//* MODELO GENERAL DE LA CUENCA DEL RIO GUARO ALTO *//****************************************************************************/

INCLUIR: pluviom.claINCLUIR: area.claINCLUIR: tramo.cla

OBJETO: Pluviometro AlfarnatejoES UN: Pluviometro

OBJETO: Pluviometro VinuelaES UN: Pluviometro

OBJETO: Area Receptora AlfarnateES UN: Area ReceptoraATRIBUTOS: superficie (NUMERICO) := 40;

OBJETO: Area Receptora PerianaES UN: Area ReceptoraATRIBUTOS: superficie (NUMERICO) := 100;

OBJETO: Tramo de Transporte Rio Guaro AltoES UN: Tramo de Transporte

// -----------------------------------------------------------------

ALIAS:

I1 :: (Pluviometro Alfarnatejo) intensidad de lluvia;f1 :: (Pluviometro Alfarnatejo) fiabilidad;I2 :: (Pluviometro Vinuela) intensidad de lluvia;f2 :: (Pluviometro Vinuela) fiabilidad;

Q1 :: (Area Receptora Alfarnate) caudal de escorrentia;S1 :: (Area Receptora Alfarnate) superficie;k1 :: (Area Receptora Alfarnate) k;n1 :: (Area Receptora Alfarnate) n;

Q2 :: (Area Receptora Periana) caudal de escorrentia;S2 :: (Area Receptora Periana) superficie;k2 :: (Area Receptora Periana) k;n2 :: (Area Receptora Periana) n;

QE :: (Tramo de Transporte Rio Guaro Alto) caudal aguas arriba;QS :: (Tramo de Transporte Rio Guaro Alto) caudal aguas abajo;f :: (Tramo de Transporte Rio Guaro Alto) fiabilidad;

Page 257: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice C Bases de Conocimiento y Resultados de ejecución del sistema en la cuenca del Río Vélez___________________________________________________________________________

243

/***************************************************************//* MODELO DEL AREA RECEPTORA DE ALFARNATE *//***************************************************************/

MODELO: Area Receptora Alfarnate { Pluviometro Alfarnatejo, Pluviometro Vinuela }

Q1[T] := k1 * S1 * I1[T]^n1;

/**************************************************************//* MODELO DEL AREA RECEPTORA DE PERIANA *//**************************************************************/

MODELO: Area Receptora Periana { Pluviometro Alfarnatejo, Pluviometro Vinuela }

Q2[T] := k2 * S2 * ((I1[T]+I2[T])/2)^n2 ;

/**************************************************************//* MODELO DEL TRAMO DE TRANSPORTE DEL RIO GUARO ALTO *//**************************************************************/

MODELO: Tramo de Transporte Rio Guaro Alto{ Area Receptora Alfarnate, Area Receptora Periana }

QE[T] := Q1[T];QS[T] := Q1[T-1] + Q2[T] + 0.1;f := f1 * f2;

// -----------------------------------------------------------------

EJECUCION:

MODELOS: TMAX:=24;

Page 258: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice C Bases de Conocimiento y Resultados de ejecución del sistema en la cuenca del Río Vélez___________________________________________________________________________

244

mg_gua.ds

[ ['Area Receptora Alfarnate', [ ['__justificacion__' , [['PAlf','PVin']]], ['n' , 2.50], ['k' , 0.01], ['caudal de escorrentia' ,[0.02,0.01,0.01,0.04,1.99,0.51,3.95,25.87,59.59,0.51,1.10,2.56,0.00,0.00,0.00,0.51,20.19,84.26,5.25,0.16,0.01,0.04,0.00,0.00]], ['superficie' , 40.00] ] ], ['Area Receptora Periana', [ ['__justificacion__' , [['PAlf','PVin']]], ['n' , 2.50], ['k' , 0.01], ['caudal de escorrentia' ,[0.28,0.02,0.10,0.34,5.66,0.41,8.47,55.90,47.89,1.42,2.32,2.32,0.05,0.18,0.03,0.28,9.88,47.89,32.00,0.88,0.18,0.14,0.01,0.00]], ['superficie' , 100.00] ] ], ['Tramo de Transporte Rio Guaro Alto', [ ['__justificacion__' , [['PAlf','PVin']]], ['fiabilidad' , 0.92], ['caudal aguas abajo' ,['x',0.14,0.21,0.45,5.80,2.50,9.07,59.95,73.86,61.10,2.93,3.52,2.71,0.28,0.13,0.38,10.49,68.18,116.36,6.23,0.44,0.24,0.15,0.10]], ['caudal aguas arriba' ,['x',0.01,0.01,0.04,1.99,0.51,3.95,25.87,59.59,0.51,1.10,2.56,0.00,0.00,0.00,0.51,20.19,84.26,5.25,0.16,0.01,0.04,0.00,0.00]] ] ]].

Page 259: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice C Bases de Conocimiento y Resultados de ejecución del sistema en la cuenca del Río Vélez___________________________________________________________________________

245

me_vin.ent

/****************************************************************************//* MODELO DEL EMBALSE DE LA VINNUELA *//****************************************************************************/

INCLUIR: nivel.claINCLUIR: tramo.cla

OBJETO: Nivel VinuelaES UN: Nivel

OBJETO: Tramo de Transporte Rio Guaro AltoES UN: Tramo de Transporte

OBJETO: Embalse de la VinuelaATRIBUTOS: nivel de embalse (SERIE); // en m. superficie del embalse (SERIE); // en km2. volumen embalsado (SERIE); // en Hm3. incremento de volumen (SERIE); // en m3. caudal desembalse (SERIE); // en m3/sg. fiabilidad (NUMERICO);

ALIAS:

H :: (Embalse de la Vinuela) nivel de embalse; S :: (Embalse de la Vinuela) superficie del embalse; DVmedido :: (Embalse de la Vinuela) incremento de volumen ; Vembalsado :: (Embalse de la Vinuela) volumen embalsado;

Qaportacion :: (Tramo de Transporte Rio Guaro Alto) caudal aguas abajo ;

Qdesembalse :: (Embalse de la Vinuela) caudal desembalse ; f :: (Embalse de la Vinuela) fiabilidad ;

// ----------------------------------------------------------------------

MODELO: Medicion Embalse de la Vinuela 1 // valido entre H=190 y H=200 { Nivel Vinuela, Tramo de Transporte Rio Guaro Alto }

H[T] := (Nivel Vinuela) nivel de embalse[T];S[T] := 0.0035*(H[T]-190)^2 + 0.265*(H[T]-190) + 5;Vembalsado[T] := H[T] * S[T];

MODELO: Medicion Embalse de la Vinuela 2 // valido entre H=190 y H=200 { Nivel Vinuela, Tramo de Transporte Rio Guaro Alto }

DVmedido[T] := 1000000*(Vembalsado[T] - Vembalsado[T-1]);Qdesembalse[T] := Qaportacion[T] - (DVmedido[T]/3600);f := (Nivel Vinuela) fiabilidad * (Tramo de Transporte Rio Guaro Alto) fiabilidad;

// -----------------------------------------------------------------

EJECUCION:

MODELOS: TMAX:=24;

Page 260: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice C Bases de Conocimiento y Resultados de ejecución del sistema en la cuenca del Río Vélez___________________________________________________________________________

246

me_vin.ds

[ ['Embalse de la Vinuela', [ ['__justificacion__' , [['NVin','PAlf','PVin']]], ['nivel de embalse' ,['x',192.50,192.50,192.50,192.50,192.50,192.50,192.50,192.51,192.51,192.51,192.51,192.51,192.51,192.51,192.51,192.51,192.52,192.53,192.53,192.53,192.53,192.53,192.53]], ['superficie del embalse' ,['x',5.68,5.68,5.68,5.68,5.68,5.68,5.68,5.69,5.69,5.69,5.69,5.69,5.69,5.69,5.69,5.69,5.69,5.69,5.69,5.69,5.69,5.69,5.69]], ['volumen embalsado' ,['x',1094.24,1094.24,1094.24,1094.24,1094.24,1094.24,1094.24,1094.84,1094.84,1094.84,1094.84,1094.84,1094.84,1094.84,1094.84,1094.84,1095.44,1096.05,1096.05,1096.05,1096.05,1096.05,1096.05]], ['incremento de volumen' ,['x','x',0.00,0.00,0.00,0.00,0.00,0.00,600751.88,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,600943.15,601134.44,0.00,0.00,0.00,0.00,0.00]], ['caudal desembalse' , ['x','x',0.21,0.45,5.80,2.50,9.07,59.95,-93.02,61.10,2.93,3.52,2.71,0.28,0.13,0.38,10.49,-98.75,-50.62,6.23,0.44,0.24,0.15,0.10]], ['fiabilidad' , 0.92] ] ]].

Page 261: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice C Bases de Conocimiento y Resultados de ejecución del sistema en la cuenca del Río Vélez___________________________________________________________________________

247

cg_vin.ent

/****************************************************************************//* COHERENCIA GLOBAL DE APORTACIONES AL EMBALSE DE LA VINNUELA *//****************************************************************************/

INCLUIR: aforo.cla

OBJETO: Aforo Vinuela; ES UN: AforoATRIBUTOS: regla (NUMERICO);

OBJETO: Embalse de la VinuelaATRIBUTOS: nivel de embalse (SERIE); // en m. superficie del embalse (SERIE); // en km2. volumen embalsado (SERIE); // en Hm3. incremento de volumen (SERIE); // en m3. caudal desembalse (SERIE); // en m3/sg. fiabilidad (NUMERICO);

OBJETO: Unidad Cognitiva de la VinuelaATRIBUTOS: caudal (SERIE); // en m3/sg. fiabilidad (NUMERICO); regla (NUMERICO);

ALIAS:

Qprevisto :: (Embalse de la Vinuela) caudal desembalse; Qmedido :: (Aforo Vinuela) caudal; Q :: (Unidad Cognitiva de la Vinuela) caudal;

f1 :: (Embalse de la Vinuela) fiabilidad; f2 :: (Aforo Vinuela) fiabilidad; f :: (Unidad Cognitiva de la Vinuela) fiabilidad;

regla :: (Unidad Cognitiva de la Vinuela) regla;

// ----------------------------------------------------------------------

COHERENCIA:{Embalse de la Vinuela, Aforo Vinuela} /* VALIDACION: */ // segun la precision de la medida de nivel en m3/sg. | media(Qmedido[T-5..T])-media(Qprevisto[T-5..T]) | < 30 /* ESTIMACION: */ --> Q := Qmedido; f := 1-(1-f1)*(1-f2);

regla := 1;

COHERENCIA: { Aforo Vinuela} /* VALIDACION: */ /* ESTIMACION: */ --> Q := Qmedido; f := f1; regla := 2;

COHERENCIA:{Embalse de la Vinuela} /* VALIDACION: */ /* ESTIMACION: */ --> Q := Qprevisto; f := 0.5*f2; regla := 3;

//--------------------------------------------------

EJECUCION:COHERENCIA: TMAX:=24;

Page 262: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice C Bases de Conocimiento y Resultados de ejecución del sistema en la cuenca del Río Vélez___________________________________________________________________________

248

cg_vin.ds

[ ['Unidad Cognitiva de la Vinuela', [ ['__justificacion__' , [['AVin'],['NVin','PAlf','PVin']]], ['caudal' ,[0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00]], ['fiabilidad' , 1.00], ['regla' , 1.00] ] ]].

Page 263: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice C Bases de Conocimiento y Resultados de ejecución del sistema en la cuenca del Río Vélez___________________________________________________________________________

249

JUST

IFIC

AC

ION

FI

AB

. 0,

1,

2,

3,

4,

5,

6,

7,

8,

9,

10

, 11

, 12

, 13

, 14

, 15

, 16

, 17

, 18

, 19

, 20

, 21

, 22

, 23

,

(Plu

viom

etro

Alf

arna

tejo

) in

tens

idad

de

lluvi

a (

cl_a

lf.d

e)[[

PAlf

]]

0,99

0,

30

0,20

0,

20

0,40

1,

90

1,10

2,

50

5,30

7,

40

1,10

1,

50

2,10

-3

,30

0,00

0,

00

1,10

14

,20

8,

50

2,80

0,

70

0,20

0,

40

0,10

0,

00(P

luvi

omet

ro A

lfar

nate

jo)

inte

nsid

ad d

e llu

via

( cl

_alf

.ds)

[[PA

lf]]

0,

99

0,30

0,

20

0,20

0,

40

1,90

1,

10

2,50

5,

30

7,40

1,

10

1,50

2,

10

0,00

0,

00

0,00

1,

10

4,80

8,

50

2,80

0,

70

0,20

0,

40

0,10

0,

00

(Plu

viom

etro

Vin

uela

) in

tens

idad

de

lluvi

a

(cl_

vin.

de)

[[PV

in]]

0,

93

0,90

0,

20

0,60

0,

90

2,10

0,

30

2,20

4,

70

2,80

1,

20

1,30

0,

70

0,60

1,

00

0,50

0,

10

0,20

0,

90

5,20

1,

20

0,80

0,

50

0,20

0,

00(P

luvi

omet

ro V

inue

la)

inte

nsid

ad d

e llu

via

(cl

_vin

.ds)

[[PV

in]]

0,

93

0,90

0,

20

0,60

0,

90

2,10

0,

30

2,20

4,

70

2,80

1,

20

1,30

0,

70

0,60

1,

00

0,50

0,

10

0,20

0,

90

5,20

1,

20

0,80

0,

50

0,20

0,

00

(Are

a R

ecep

tora

Alf

arna

te)

caud

al

(mg_

gua.

ds)

[[PA

lf]]

0,

92

0,02

0,

01

0,01

0,

04

1,99

0,

51

3,95

25

,87

59

,59

0,

51

1,10

2,

56

0,00

0,

00

0,00

0,

51

20,1

9

84,2

6

5,25

0,

16

0,01

0,

04

0,00

0,

00

(Are

a R

ecep

tora

Per

iana

) ca

udal

(m

g_gu

a.ds

)[[

PAlf

, PV

in]]

0,

92

0,28

0,

02

0,10

0,

34

5,66

0,

41

8,47

55

,90

58

,74

1,

42

2,32

2,

32

0,05

0,

18

0,03

0,

28

9,88

47

,89

32

,00

0,

88

0,18

0,

14

0,01

0,

00

(Tra

mo

de T

rans

port

e R

io G

uaro

Alto

) ca

udal

agu

as a

bajo

(m

g_gu

a.ds

)[[

PAlf

, PV

in]]

0,

92

0,

14

0,21

0,

45

5,80

2,

50

9,07

59

,95

84

,71

61

,10

2,

93

3,52

2,

71

0,28

0,

13

0,38

10

,49

68

,18

11

6,4

6,

23

0,44

0,

24

0,15

0,

10

(Niv

el V

inue

la)

nive

l de

emba

lse

(cl

_vin

.de)

[[N

Vin

]]

1,00

19

2,50

19

2,50

19

2,50

19

2,50

19

2,50

19

2,50

19

2,50

19

2,50

19

2,51

19

2,51

19

2,51

19

2,51

19

2,51

19

2,51

19

2,51

19

2,51

19

2,51

19

2,52

19

2,52

19

2,53

19

2,53

19

2,53

19

2,53

19

2,53

(Niv

el V

inue

la)

nive

l de

emba

lse

(cl

_vin

.ds)

[[N

Vin

]]

1,00

19

2,50

19

2,50

19

2,50

19

2,50

19

2,50

19

2,50

19

2,50

19

2,50

19

2,51

19

2,51

19

2,51

19

2,51

19

2,51

19

2,51

19

2,51

19

2,51

19

2,51

19

2,52

19

2,52

19

2,53

19

2,53

19

2,53

19

2,53

19

2,53

(Em

bals

e de

la V

inue

la )

vol

umen

em

bals

ao

(me_

vin.

ds)

[[N

Vin

]]

0,92

10

94,2

10

94,2

10

94,2

10

94,2

10

94,2

10

94,2

10

94,2

10

94,2

10

94,8

10

94,8

10

94,8

10

94,8

10

94,8

10

94,8

10

94,8

10

94,8

10

94,8

10

95,4

10

95,4

10

96,0

10

96,0

10

96,0

10

96,0

10

96,0

(Em

bals

e de

la V

inue

la)

incr

emen

to d

e vo

lum

en

(me_

vin.

ds)

[[N

Vin

]]

0,92

0,

0,

0,

0,

0,

0,

0,

6E+

05

0,

0,

0,

0,

0,

0,

0,

0,

6E+

05

0,

6E+

05

0,

0,

0,

0,(E

mba

lse

de la

Vin

uela

) ca

udal

des

emba

lse

(m

e_vi

n.ds

)[[

NV

in, P

Vin

, PA

lf]]

0,

92

0,

14

0,21

0,

45

5,80

2,

50

9,07

59

,95

-8

2

61,1

0

2,93

3,

52

2,71

0,

28

0,13

0,

38

10,4

9

-99

11

6

-161

0,

44

0,24

0,

15

0,10

(Afo

ro V

inue

la)

caud

al

(cl_

vin.

de)

[[A

Vin

]]

1,00

0,

00

0,00

0,

00

0,00

0,

00

0,00

0,

00

0,00

0,

00

0,00

0,

00

0,00

0,

00

0,00

0,

00

0,00

0,

00

0,00

0,

00

0,00

0,

00

0,00

0,

00

0,00

(Afo

ro V

inue

la)

caud

al

(cl_

vin.

ds)

[[A

Vin

]]

1,00

0,

00

0,00

0,

00

0,00

0,

00

0,00

0,

00

0,00

0,

00

0,00

0,

00

0,00

0,

00

0,00

0,

00

0,00

0,

00

0,00

0,

00

0,00

0,

00

0,00

0,

00

0,00

(Uni

dad

Cog

nitiv

a V

inue

la)

caud

al

(cg

_vin

.ds)

[[A

Vin

],[N

Vin

, PV

in, P

Alf

]]

1,00

0,

00

0,00

0,

00

0,00

0,

00

0,00

0,

00

0,00

0,

00

0,00

0,

00

0,00

0,

00

0,00

0,

00

0,00

0,

00

0,00

0,

00

0,00

0,

00

0,00

0,

00

0,00

Page 264: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice C Bases de Conocimiento y Resultados de ejecución del sistema en la cuenca del Río Vélez___________________________________________________________________________

250

C.5. Unidad Cognitiva de la Cuenca del Río Vélez

cl_alc.ent

cl_alc.ent

cg_can.ent

cg_can.ds

cl_alc.decl_vel.de

cl_vel.entcl_vel.ds

cg_vin.ds cg_slt.ds

mg_ben.ent

mg_gub.ent

mg_gub.ds

cg_ben.ent

cg_ben.ds

mg_ben.ds

cg_vel.ent

cg_vel.ds

mg_vel.ds

mg_vel.ent

Coherencia LocalPluv. Alcaucín

Pluv. Alcaucín

Pluv. Alcaucin U.C. Viñuela U.C. Rio de la Cueva (2)

Coherencia LocalPluv. Vélez

Coherencia LocalAforo Vélez

Aforo Vélez

Pluv. Vélez

Pluv. Vélez

Aforo Vélez

Coherencia Global Pluv. Cuenca del Rio Velez

Pluv. Vélez (2)Pluv. Alcaucín (2)

Modelo delA.R. Canillas

Modelo delA.R. Alcaucín

Modelo delT.T. Guaro Bajo

A.R. Canillas (2) A.R. Alcaucín (2)

Modelo delA.R. El Borge

A.R. El Borge(2)

Modelo delT.T. Benamargosa

Coherencia GlobalCuenca del Rio Velez

T.T. Benamargosa (2)

T.T. Guaro Bajo (2)

A.R. Vélez (2)Confluencia en Benamargosa (8)

Modelo delA.R. Vélez

Coherencia Global de Aportaciones en Benamargosa

Modelo delT.T. Rio Vélez

T.T. Vélez (5)

U. C. Río Vélez (3)

Page 265: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice C Bases de Conocimiento y Resultados de ejecución del sistema en la cuenca del Río Vélez___________________________________________________________________________

251

cl_vel.ent

/****************************************************************************//* COHERENCIA LOCAL DEL PLUVIOMETRO DE VELEZ-MALAGA *//* COHERENCIA LOCAL DEL AFORO DE VELEZ-MALAGA *//****************************************************************************/

INCLUIR: pluviom.claINCLUIR: aforo.cla

OBJETO: Pluviometro VelezES UN: Pluviometro

OBJETO: Aforo VelezES UN: Aforo

ALIAS:I :: (Pluviometro Velez) intensidad de lluvia;f :: (Pluviometro Velez) fiabilidad;

c1 :: (Pluviometro Velez) contador de fallos;

Q :: (Aforo Velez) caudal; c2 :: (Aforo Velez) contador de fallos;

// --------------------------------------------------------// CORRECCION://// Se comprueban los valores maximos y minimos de todas las// medidas instantaneas, asi como el gradiente de variacion//// --------------------------------------------------------

CORRECCION:

/************************** Pluviometro *****************************/

I[T] < 0 // valor minimo ==> {

I[T] := 0; c1 := c1+1; }

I[T] > 15 // valor maximo en 1 hora. ==> {

I[T] := I[T-1]; c1 := c1+1; }

I[T] > I[T-1] + 7 // pendiente maxima ==> {

I[T] := min ( (I[T-1]+I[T+1])/2, I[T-1] + 7 ); c1 := c1+1; }

I[T] < I[T-1] - 10 // pendiente minima ==> {

I[T] := max ( (I[T-1]+I[T+1])/2, I[T-1] - 10 ); c1 := c1+1; }

Page 266: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice C Bases de Conocimiento y Resultados de ejecución del sistema en la cuenca del Río Vélez___________________________________________________________________________

252

/************************** Aforo *****************************/

Q[T] < 0 // valor minimo ==> {

Q[T] := 0; c2 := c2+1; }

Q[T] > 300 // valor maximo en 1 hora. ==> { Q[T] := Q[T-1];

c2 := c2+1; }

Q[T] > Q[T-1] + 100 // pendiente maxima de subida ==> {

Q[T] := min ( (Q[T-1]+Q[T+1])/2, Q[T-1] + 100 ); c2 := c2+1;

}

Q[T] < Q[T-1] - 100 // pendiente minima de bajada ==> {

Q[T] := max ( (Q[T-1]+Q[T+1])/2, Q[T-1] - 100 ); c2 := c2+1; }

// --------------------------------------------------------// COHERENCIA//// La medida del Pluviometro se considera coherente si// la suma total de lluvia es menor que 100 mm. en 12 horas// y en toda la serie hay menos de 5 medidas que hayan// necesitado correccion//// La Coherencia Local del Aforo se determina acotando el// valor de la desviacion tipica//// --------------------------------------------------------

COHERENCIA: { Pluviometro Velez }/* VALIDACION: */

sumatorio(I[T..T+11]) < 100&& c1<5

COHERENCIA: { Aforo Velez }/* VALIDACION: */

desviacion(Q) < 0.8

// --------------------------------------------------------

EJECUCION:

CORRECCION: TMAX:=24;// COHERENCIA: TMAX:=24;

// --------------------------------------------------------

Page 267: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice C Bases de Conocimiento y Resultados de ejecución del sistema en la cuenca del Río Vélez___________________________________________________________________________

253

cl_vel.de

[ ['Pluviometro Velez', [ ['__justificacion__' , [['PVel']]], ['altura sobre el nivel del mar' , 20], ['intensidad de lluvia' , [0.5, 0.5, 1.0, 2.7, 0.7, 3.0, 5.7, 2.7, 1.4, 1.9, 1.2, 1.1, 1.3, 0.3, 0.0, 0.0, 1.2, 7.3, 1.6, 1.2, 0.8, 0.4, 0.2, 0.0 ]] ] ], ['Aforo Velez', [ ['__justificacion__' , [['AVel']]], ['caudal' , [ 5.7, 7.1, 9.8, 20.0, 19.3, 35.1, 62.2, 114.9, 140.7, 129.2, 45.4, 14.3, 12.1, 11.2, 10.6, 9.59, 9.84, 64.8,140.6,231.6,220.2, 130.4, 45.9, 12.66]] ] ]].

cl_vel.ds

[ ['Aforo Velez', [ ['__justificacion__' , [['AVel']]], ['contador de fallos' , 0.00], ['fiabilidad' , 0.90], ['caudal' ,[5.70,7.10,9.80,20.00,19.30,35.10,62.20,114.90,140.70,129.20,45.40,14.30,12.10,11.20,10.60,9.59,9.84,64.80,140.60,231.60,220.20,130.40,45.90,12.66]] ] ], ['Pluviometro Velez', [ ['__justificacion__' , [['PVel']]], ['contador de fallos' , 0.00], ['fiabilidad' , 0.90], ['intensidad de lluvia' ,[0.50,0.50,1.00,2.70,0.70,3.00,5.70,2.70,1.40,1.90,1.20,1.10,1.30,0.30,0.00,0.00,1.20,7.30,1.60,1.20,0.80,0.40,0.20,0.00]] ] ]].

Page 268: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice C Bases de Conocimiento y Resultados de ejecución del sistema en la cuenca del Río Vélez___________________________________________________________________________

254

cl_alc.ent

/****************************************************************************//* COHERENCIA LOCAL DEL PLUVIOMETRO DE ALCAUCIN *//****************************************************************************/

INCLUIR: pluviom.cla

OBJETO: Pluviometro AlcaucinES UN: Pluviometro

ALIAS: I :: (Pluviometro Alcaucin) intensidad de lluvia; f :: (Pluviometro Alcaucin) fiabilidad; c :: (Pluviometro Alcaucin) contador de fallos;

// --------------------------------------------------------// CORRECCION://// Se comprueban los valores maximos y minimos de todas las// medidas instantaneas, asi como el gradiente de variacion//// --------------------------------------------------------

CORRECCION:

I[T] < 0 // valor minimo ==> {

I[T] := 0; c := c+1; }

I[T] > 15 // valor maximo en 1 hora. ==> {

I[T] := I[T-1]; c := c+1; }

I[T] > I[T-1] + 5 // pendiente maxima ==> {

I[T] := min ( (I[T-1]+I[T+1])/2, I[T-1] + 5 ); c := c+1; }

I[T] < I[T-1] - 10 // pendiente minima ==> {

I[T] := max ( (I[T-1]+I[T+1])/2, I[T-1] - 10 ); c := c+1; }

Page 269: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice C Bases de Conocimiento y Resultados de ejecución del sistema en la cuenca del Río Vélez___________________________________________________________________________

255

// --------------------------------------------------------// COHERENCIA//// La medida del pluviometro se considera coherente si// la suma total de lluvia es menor que 250 mm. en 1 hora// y en toda la serie hay menos de 5 medidas que hayan// necesitado correccion//// --------------------------------------------------------

COHERENCIA: { Pluviometro Alcaucin } /* VALIDACION: */

sumatorio(I[T..T+11]) < 50 && c<5

// --------------------------------------------------------

EJECUCION:

CORRECCION: TMAX:=24;// COHERENCIA: TMAX:=24; NMAX:=99;

cl_alc.de

[ ['Pluviometro Alcaucin', [ ['__justificacion__' , [['PAlc']]], ['altura sobre el nivel del mar' , 700], ['fiabilidad' , 0.87], ['intensidad de lluvia' , [0.4, 0.5, 3.3, 0.4, 1.4, 1.5, 3.7, 3.3, 3.5, 3.8, 2.0, 1.0, 1.8, 3.2, 1.0, 0.0, 0.3, 3.5, 2.8, 3.1, 1.9, 1.0, 3.6, 0.2 ]] ] ]].

cl_alc.ds

[ ['Pluviometro Alcaucin', [ ['__justificacion__' , [['PAlc']]], ['contador de fallos' , 0.00], ['fiabilidad' , 0.87], ['intensidad de lluvia' ,[0.40,0.50,3.30,0.40,1.40,1.50,3.70,3.30,3.50,3.80,2.00,1.00,1.80,3.20,1.00,0.00,0.30,3.50,2.80,3.10,1.90,1.00,3.60,0.20]] ] ]].

Page 270: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice C Bases de Conocimiento y Resultados de ejecución del sistema en la cuenca del Río Vélez___________________________________________________________________________

256

cg_can.ent

/****************************************************************************//* COHERENCIA GLOBAL DE LOS PLUVIOMETROS QUE AFECTAN AL AREA DE CANILLAS *//****************************************************************************/

INCLUIR: pluviom.cla

OBJETO: Pluviometro AlcaucinES UN: Pluviometro

OBJETO: Pluviometro VelezES UN: Pluviometro

// ----------------------------------------------------------------------COHERENCIA: { Pluviometro Alcaucin, Pluviometro Velez } /* VALIDACION: */ max( (Pluviometro Alcaucin) intensidad de lluvia ) > max( (Pluviometro Velez) intensidad de lluvia ) && correlacion( (Pluviometro Alcaucin) intensidad de lluvia, (Pluviometro Velez) intensidad de lluvia ) > 0.7 /* ESTIMACION: */ --> <-- Pluviometro Alcaucin --> (Pluviometro Alcaucin) fiabilidad := max((Pluviometro Alcaucin) fiabilidad, (Pluviometro Velez) fiabilidad ); <-- Pluviometro Velez --> (Pluviometro Velez) fiabilidad := max((Pluviometro Alcaucin) fiabilidad, (Pluviometro Velez) fiabilidad );

COHERENCIA: { Pluviometro Alcaucin } /* VALIDACION: */ (Pluviometro Alcaucin) contador de fallos < 5 /* ESTIMACION: */ --> // hipotesis de que la lluvia avanza hacia el norte <-- Pluviometro Velez --> (Pluviometro Velez) intensidad de lluvia[T-1] := (1/1.20) * (Pluviometro Alcaucin) intensidad de lluvia[T]; (Pluviometro Velez) fiabilidad := (Pluviometro Alcaucin) fiabilidad; <-- Pluviometro Alcaucin -->

COHERENCIA: { Pluviometro Velez } /* VALIDACION: */ (Pluviometro Velez) contador de fallos < 5 /* ESTIMACION: */ --> // hipotesis de que la lluvia avanza hacia el norte // los valores de Alcaucin son mayores pero retardados <-- Pluviometro Alcaucin --> (Pluviometro Alcaucin) intensidad de lluvia[T] := 1.20 * (Pluviometro Velez) intensidad de lluvia[T-1]; (Pluviometro Alcaucin) fiabilidad := 1.00 * (Pluviometro Velez) fiabilidad; <-- Pluviometro Velez -->

//--------------------------------------------------

EJECUCION: COHERENCIA: TMAX:=24;

Page 271: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice C Bases de Conocimiento y Resultados de ejecución del sistema en la cuenca del Río Vélez___________________________________________________________________________

257

cg_can.ds

[ ['Pluviometro Alcaucin', [ ['__justificacion__' , [['PAlc',no('PVel')]]], ['contador de fallos' , 0.00], ['fiabilidad' , 0.87], ['intensidad de lluvia' ,[0.40,0.50,3.30,0.40,1.40,1.50,3.70,3.30,3.50,3.80,2.00,1.00,1.80,3.20,1.00,0.00,0.30,3.50,2.80,3.10,1.90,1.00,3.60,0.20]] ] ], ['Pluviometro Alcaucin', [ ['__justificacion__' , [['PVel',no('PAlc')]]], ['contador de fallos' , 0.00], ['fiabilidad' , 0.90], ['intensidad de lluvia' ,[0.40,0.60,0.60,1.20,3.24,0.84,3.60,6.84,3.24,1.68,2.28,1.44,1.32,1.56,0.36,0.00,0.00,1.44,8.76,1.92,1.44,0.96,0.48,0.24]] ] ], ['Pluviometro Velez', [ ['__justificacion__' , [['PAlc',no('PVel')]]], ['contador de fallos' , 0.00], ['fiabilidad' , 0.87], ['intensidad de lluvia' ,[0.42,2.75,0.33,1.17,1.25,3.08,2.75,2.92,3.17,1.67,0.83,1.50,2.67,0.83,0.00,0.25,2.92,2.33,2.58,1.58,0.83,3.00,0.17,0.00]] ] ], ['Pluviometro Velez', [ ['__justificacion__' , [['PVel',no('PAlc')]]], ['contador de fallos' , 0.00], ['fiabilidad' , 0.90], ['intensidad de lluvia' ,[0.50,0.50,1.00,2.70,0.70,3.00,5.70,2.70,1.40,1.90,1.20,1.10,1.30,0.30,0.00,0.00,1.20,7.30,1.60,1.20,0.80,0.40,0.20,0.00]] ] ]].

Page 272: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice C Bases de Conocimiento y Resultados de ejecución del sistema en la cuenca del Río Vélez___________________________________________________________________________

258

mg_gub.ent

/****************************************************************************//* MODELO GENERAL DEL TRAMO DE TRANSPORTE DEL RIO GUARO BAJO *//****************************************************************************/

INCLUIR: pluviom.claINCLUIR: area.claINCLUIR: tramo.cla

OBJETO: Pluviometro Alcaucin; ES UN: PluviometroOBJETO: Pluviometro Velez; ES UN: Pluviometro

OBJETO: Unidad Cognitiva de la Vinuela; ES UN: Unidad CognitivaATRIBUTOS: caudal (SERIE); // en m3/sg. fiabilidad (NUMERICO);

OBJETO: Area Receptora Alcaucin;ES UN: Area ReceptoraATRIBUTOS: superficie (NUMERICO) := 70; caudal de escorrentia (SERIE) := [0,0,0]; // en m3/sg.

OBJETO: Area Receptora Canillas;ES UN: Area ReceptoraATRIBUTOS: superficie (NUMERICO) := 110; caudal de escorrentia (SERIE) := [0,0,0]; // en m3/sg.

OBJETO: Tramo de Transporte Rio Guaro Bajo; ES UN: Tramo de TransporteATRIBUTOS: caudal desembalse aguas abajo (SERIE); // en m3/sg. caudal escorrentia aguas abajo (SERIE); // en m3/sg.

// -----------------------------------------------------------------

ALIAS:

IALC :: (Pluviometro Alcaucin) intensidad de lluvia; fALC :: (Pluviometro Alcaucin) fiabilidad;

IVEL :: (Pluviometro Velez) intensidad de lluvia; fVEL :: (Pluviometro Velez) fiabilidad;

QALC :: (Area Receptora Alcaucin) caudal de escorrentia; SALC :: (Area Receptora Alcaucin) superficie; kALC :: (Area Receptora Alcaucin) k; nALC :: (Area Receptora Alcaucin) n;

QCAN :: (Area Receptora Canillas) caudal de escorrentia; SCAN :: (Area Receptora Canillas) superficie; kCAN :: (Area Receptora Canillas) k; nCAN :: (Area Receptora Canillas) n;

QVIN :: (Unidad Cognitiva de la Vinuela) caudal; fVIN :: (Unidad Cognitiva de la Vinuela) fiabilidad;

QE :: (Tramo de Transporte Rio Guaro Bajo) caudal aguas arriba; QS :: (Tramo de Transporte Rio Guaro Bajo) caudal aguas abajo; QSi :: (Tramo de Transporte Rio Guaro Bajo) caudal escorrentia aguas abajo; QSp :: (Tramo de Transporte Rio Guaro Bajo) caudal desembalse aguas abajo; f :: (Tramo de Transporte Rio Guaro Bajo) fiabilidad;

// -----------------------------------------------------------------

Page 273: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice C Bases de Conocimiento y Resultados de ejecución del sistema en la cuenca del Río Vélez___________________________________________________________________________

259

/****************************************************************************//* MODELO DEL AREA RECEPTORA DE ALCAUCIN *//* MODELO DEL AREA RECEPTORA DE CANILLAS *//* MODELO DEL TRAMO DE TRANSPORTE DEL RIO GUARO BAJO *//****************************************************************************/MODELO: Cuenca del Rio Guaro { Unidad Cognitiva de la Vinuela, Pluviometro Alcaucin, Pluviometro Velez }

QALC[T] := kALC * SALC * IALC[T]^nALC; QCAN[T] := 0.7 * kCAN * SCAN * IALC[T]^nCAN

+ 0.3 * kCAN * SCAN * IVEL[T]^nCAN ; // media ponderada

QE[T] := QVIN[T] + QALC[T]; QS[T] := QVIN[T-1] + QALC[T-1] + QCAN[T]; // caudal total

QSi[T] := QALC[T-1] + QCAN[T]; // caudal debido a escorrentia QSp[T] := QVIN[T-1]; // caudal debido al desembalse

f := fALC * fVEL * fVIN;

// -----------------------------------------------------------------

EJECUCION:

MODELOS: TMAX:=24;

Page 274: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice C Bases de Conocimiento y Resultados de ejecución del sistema en la cuenca del Río Vélez___________________________________________________________________________

260

mg_gub.ds

[ ['Area Receptora Alcaucin', [ ['__justificacion__' ,[['AVin','PAlc',no('PVel')],['NVin','PAlc','PAlf','PVin',no('PVel')]]], ['n' , 2.50], ['k' , 0.01], ['caudal de escorrentia' ,[0.00,0.12,13.85,0.07,1.62,1.93,18.43,13.85,16.04,19.70,3.96,0.70,3.04,12.82,0.70,0.00,0.03,16.04,9.18,11.84,3.48,0.70,17.21,0.01]], ['superficie' , 70.00] ] ], ['Area Receptora Alcaucin', [ ['__justificacion__' ,[['AVin','PVel',no('PAlc')],['NVin','PAlf','PVel','PVin',no('PAlc')]]], ['n' , 2.50], ['k' , 0.01], ['caudal de escorrentia' ,[0.00,0.20,0.20,1.10,13.23,0.45,17.21,85.65,13.23,2.56,5.49,1.74,1.40,2.13,0.05,0.00,0.00,1.74,158.99,3.58,1.74,0.63,0.11,0.02]], ['superficie' , 70.00] ] ], ['Area Receptora Canillas', [ ['__justificacion__' ,[['AVin','PAlc',no('PVel')],['NVin','PAlc','PAlf','PVin',no('PVel')]]], ['n' , 2.50], ['k' , 0.01], ['caudal de escorrentia' ,[0.00,4.27,15.25,0.57,2.36,7.62,24.42,20.04,23.55,22.86,4.56,1.68,7.19,14.31,0.77,0.01,4.85,20.38,13.63,14.06,4.04,5.91,18.94,0.01]], ['superficie' , 110.00] ] ], ['Area Receptora Canillas', [ ['__justificacion__' ,[['AVin','PVel',no('PAlc')],['NVin','PAlf','PVel','PVin',no('PAlc')]]], ['n' , 2.50], ['k' , 0.01], ['caudal de escorrentia' ,[0.00,0.27,0.54,5.17,14.68,5.64,44.53,98.17,15.31,4.46,6.56,2.33,2.18,2.36,0.06,0.00,0.52,49.43,175.95,4.45,2.10,0.73,0.13,0.02]], ['superficie' , 110.00] ] ],

Page 275: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice C Bases de Conocimiento y Resultados de ejecución del sistema en la cuenca del Río Vélez___________________________________________________________________________

261

['Tramo de Transporte Rio Guaro Bajo', [ ['__justificacion__' ,[['AVin','PAlc',no('PVel')],['NVin','PAlc','PAlf','PVin',no('PVel')]]], ['fiabilidad' , 0.76], ['caudal aguas abajo' ,['x',4.27,15.38,14.41,2.43,9.24,26.34,38.47,37.40,38.91,24.27,5.64,7.89,17.35,13.59,0.71,4.85,20.42,29.67,23.25,15.88,9.40,19.64,17.23]], ['caudal aguas arriba' ,['x',0.12,13.85,0.07,1.62,1.93,18.43,13.85,16.04,19.70,3.96,0.70,3.04,12.82,0.70,0.00,0.03,16.04,9.18,11.84,3.48,0.70,17.21,0.01]], ['caudal desembalse aguas abajo' ,['x',0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00]], ['caudal escorrentia aguas abajo' ,['x',4.27,15.38,14.41,2.43,9.24,26.34,38.47,37.40,38.91,24.27,5.64,7.89,17.35,13.59,0.71,4.85,20.42,29.67,23.25,15.88,9.40,19.64,17.23]] ] ], ['Tramo de Transporte Rio Guaro Bajo', [ ['__justificacion__' ,[['AVin','PVel',no('PAlc')],['NVin','PAlf','PVel','PVin',no('PAlc')]]], ['fiabilidad' , 0.81], ['caudal aguas abajo' ,['x',0.27,0.74,5.36,15.79,18.87,44.98,115.38,100.97,17.69,9.13,7.83,3.92,3.76,2.19,0.05,0.52,49.43,177.69,163.44,5.68,2.47,0.76,0.13]], ['caudal aguas arriba' ,['x',0.20,0.20,1.10,13.23,0.45,17.21,85.65,13.23,2.56,5.49,1.74,1.40,2.13,0.05,0.00,0.00,1.74,158.99,3.58,1.74,0.63,0.11,0.02]], ['caudal desembalse aguas abajo' ,['x',0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00]], ['caudal escorrentia aguas abajo' ,['x',0.27,0.74,5.36,15.79,18.87,44.98,115.38,100.97,17.69,9.13,7.83,3.92,3.76,2.19,0.05,0.52,49.43,177.69,163.44,5.68,2.47,0.76,0.13]] ] ], ['Unidad Cognitiva de la Vinuela', [ ['__justificacion__' ,[['AVin','PAlc',no('PVel')],['NVin','PAlc','PAlf','PVin',no('PVel')]]], ['caudal' ,[0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00,0.00]], ['fiabilidad' , 1.00] ] ],].

Page 276: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice C Bases de Conocimiento y Resultados de ejecución del sistema en la cuenca del Río Vélez___________________________________________________________________________

262

mg_ben.ent

/****************************************************************************//* MODELO DEL TRAMO DE TRANSPORTE DEL RIO BENAMARGOSA *//* MODELO DEL AREA RECEPTORA DEL BORGE *//****************************************************************************/

INCLUIR: tramo.claINCLUIR: area.cla

OBJETO: Unidad Cognitiva Rio de la CuevaATRIBUTOS: intensidad de lluvia media (SERIE); // en l/m2. caudal (SERIE); // en m3/seg. fiabilidad (NUMERICO);

OBJETO: Area Receptora El BorgeES UN: Area ReceptoraATRIBUTOS: superficie (NUMERICO) := 60; fiabilidd (NUMERICO);

OBJETO: Tramo de Transporte BenamargosaES UN: Tramo de Transporte

// -----------------------------------------------------------------

ALIAS:

QCUE :: (Unidad Cognitiva Rio de la Cueva) caudal;ICUE :: (Unidad Cognitiva Rio de la Cueva) intensidad de lluvia media;fCUE :: (Unidad Cognitiva Rio de la Cueva) fiabilidad;

QBOR :: (Area Receptora El Borge) caudal de escorrentia;SBOR :: (Area Receptora El Borge) superficie;kBOR :: (Area Receptora El Borge) k;nBOR :: (Area Receptora El Borge) n;

QE :: (Tramo de Transporte Benamargosa) caudal aguas arriba;QS :: (Tramo de Transporte Benamargosa) caudal aguas abajo;f :: (Tramo de Transporte Benamargosa) fiabilidad;

// -----------------------------------------------------------------

MODELO: Tramo de Transporte Benamargosa { Unidad Cognitiva Rio de la Cueva }

QBOR[T] := kBOR * SBOR * ICUE[T]^nBOR;

QE[T] := QCUE[T]; QS[T] := QCUE[T-1] + QBOR[T];

f := fCUE;

// -----------------------------------------------------------------

EJECUCION:

MODELOS: TMAX:=24;

Page 277: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice C Bases de Conocimiento y Resultados de ejecución del sistema en la cuenca del Río Vélez___________________________________________________________________________

263

mg_ben.ds

[ ['Area Receptora El Borge', [ ['__justificacion__' , [['ASlt'],['PSlt',no('PStp')]]], ['n' , 2.50], ['k' , 0.01], ['caudal de escorrentia' ,['x','x',0.97,1.77,0.13,11.87,25.92,2.10,0.76,0.76,2.47,1.20,0.08,0.00,0.00,0.00,1.77,56.51,12.88,2.47,0.76,0.31,0.00,0.00]], ['superficie' , 60.00] ] ], ['Area Receptora El Borge', [ ['__justificacion__' , [['PStp',no('ASlt'),no('PSlt')]]], ['n' , 2.50], ['k' , 0.01], ['caudal de escorrentia' ,['x','x',0.35,1.27,2.95,0.19,2.61,0.00,2.95,1.07,0.46,1.49,1.07,1.07,1.07,0.00,0.00,0.00,1.49,51.60,1.27,2.00,0.46,0.46]], ['superficie' , 60.00] ] ], ['Tramo de Transporte Benamargosa', [ ['__justificacion__' , [['ASlt'],['PSlt',no('PStp')]]], ['fiabilidad' , 0.98], ['caudal aguas abajo' ,['x','x',3.67,3.67,6.63,14.87,43.92,51.10,45.76,6.76,4.67,6.30,5.28,3.10,0.40,0.00,2.07,59.41,92.88,86.47,34.76,6.51,1.90,0.90]], ['caudal aguas arriba' ,['x','x',1.90,6.50,3.00,18.00,49.00,45.00,6.00,2.20,5.10,5.20,3.10,0.40,0.00,0.30,2.90,80.00,84.00,34.00,6.20,1.90,0.90,0.30]] ] ], ['Tramo de Transporte Benamargosa', [ ['__justificacion__' , [['PStp',no('ASlt'),no('PSlt')]]], ['fiabilidad' , 0.48], ['caudal aguas abajo' ,['x','x',3.78,1.97,5.75,7.34,7.24,4.96,6.75,6.37,6.68,3.88,4.43,5.17,4.55,3.48,1.56,0.00,1.49,54.28,96.21,79.46,5.91,4.21]], ['caudal aguas arriba' ,['x','x',0.70,2.80,7.15,4.63,4.96,3.80,5.30,6.22,2.39,3.36,4.10,3.48,3.48,1.56,0.00,0.00,2.68,94.94,77.46,5.45,3.75,1.50]] ] ]].

Page 278: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice C Bases de Conocimiento y Resultados de ejecución del sistema en la cuenca del Río Vélez___________________________________________________________________________

264

cg_ben.ent

/****************************************************************************//* COHERENCIA GLOBAL DE LAS APORTACIONES AL RIO VELEZ *//****************************************************************************/

INCLUIR: tramo.cla

OBJETO: Tramo de Transporte Benamargosa; ES UN: Tramo de TransporteOBJETO: Tramo de Transporte Rio Guaro Bajo; ES UN: Tramo de TransporteATRIBUTOS: caudal escorrentia aguas abajo (SERIE); // en m3/sg. caudal desembalse aguas abajo (SERIE); // en m3/sg.

OBJETO: Confluencia en BenamargosaATRIBUTOS: caudal (SERIE); fiabilidad (NUMERICO); regla (R1, R2, R3);

// ----------------------------------------------------------------------

ALIAS:

Q1 :: (Tramo de Transporte Benamargosa) caudal aguas abajo; f1 :: (Tramo de Transporte Benamargosa) fiabilidad;

Q2 :: (Tramo de Transporte Rio Guaro Bajo) caudal aguas abajo; Q2i :: (Tramo de Transporte Rio Guaro Bajo) caudal escorrentia aguas abajo; Q2p :: (Tramo de Transporte Rio Guaro Bajo) caudal desembalse aguas abajo; f2 :: (Tramo de Transporte Rio Guaro Bajo) fiabilidad;

Q :: (Confluencia en Benamargosa) caudal; f :: (Confluencia en Benamargosa) fiabilidad; R :: (Confluencia en Benamargosa) regla;

// ----------------------------------------------------------------------

COHERENCIA: { Tramo de Transporte Benamargosa, Tramo de Transporte Rio Guaro Bajo } /* VALIDACION: */ correlacion(Q1,Q2i) > 0.85 && | media(Q1) - media(Q2i) | < 15 /* ESTIMACION: */ --> R := R1;

f := 1-(1-f1)*(1-f2);Q[T] := Q1[T]+Q2[T];

COHERENCIA: { Tramo de Transporte Benamargosa } /* VALIDACION: */ /* ESTIMACION: */ --> R := R2;

Q[T] := 2*Q1[T]+Q2p[T];f := 0.8 * f1;

Page 279: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice C Bases de Conocimiento y Resultados de ejecución del sistema en la cuenca del Río Vélez___________________________________________________________________________

265

COHERENCIA: { Tramo de Transporte Rio Guaro Bajo } /* VALIDACION: */ /* ESTIMACION: */ --> R := R3;

Q[T] := 2*Q2i[T]+Q2p[T];f := 0.8 * f2;

//--------------------------------------------------

SINTESIS: { Confluencia en Benamargosa } /* VALIDACION: */ // si el caudal medio es +- 20% sintetizar

Q[T-2]+Q[T-1]+Q[T] <= 1.2*(Q[T-2]+Q[T-1]+Q[T]) + 5 /* ESTIMACION: */ -->

f := max( {f} );Q[T] := media( { Q[T] :: f == max({f}) } );

//--------------------------------------------------

PREFERENCIAS:

> (Confluencia en Benamargosa) fiabilidad;

//--------------------------------------------------

EJECUCION:

COHERENCIA: TMAX:=24; NMAX := 3; SINTESIS: TMAX:=24; NMAX := 3;

Page 280: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice C Bases de Conocimiento y Resultados de ejecución del sistema en la cuenca del Río Vélez___________________________________________________________________________

266

mg_ben.ds

[ ['Confluencia en Benamargosa', [ ['__justificacion__' ,[['ASlt'],['AVin','PVel',no('PAlc')],['NVin','PAlf','PVel','PVin',no('PAlc')],['PSlt',no('PStp')]]], ['caudal' ,['x','x',4.41,9.03,22.42,33.74,88.90,166.48,146.73,24.45,13.80,14.13,9.20,6.86,2.59,0.05,2.59,108.84,270.57,249.91,40.44,8.98,2.66,1.03]], ['fiabilidad' , 1.00], ['regla' , 'R1'] ] ], ['Confluencia en Benamargosa', [ ['__justificacion__' ,[['ASlt',no('AVin'),no('NVin')],['ASlt',no('AVin'),no('PAlf')],['ASlt',no('AVin'),no('PVin')],['ASlt',no('PAlc')],['PSlt',no('AVin'),no('NVin'),no('PStp')],['PSlt',no('AVin'),no('PAlf'),no('PStp')],['PSlt',no('AVin'),no('PStp'),no('PVin')],['PSlt',no('PAlc'),no('PStp')]]], ['caudal' ,['x','x',7.34,7.34,13.26,29.74,87.84,102.20,91.52,13.52,9.34,12.60,10.56,6.20,0.80,0.00,4.14,118.82,185.76,172.94,69.52,13.02,3.80,1.80]], ['fiabilidad' , 0.78], ['regla' , 'R2'] ] ], ['Confluencia en Benamargosa', [ ['__justificacion__' ,[['AVin','PVel',no('PAlc'),no('PStp')],['NVin','PAlf','PVel','PVin',no('PAlc'),no('PStp')]]], ['caudal' ,['x','x',1.48,10.72,31.58,37.74,89.96,230.76,201.94,35.38,18.26,15.66,7.84,7.52,4.38,0.10,1.04,98.86,355.38,326.88,11.36,4.94,1.52,0.26]], ['fiabilidad' , 0.65], ['regla' , 'R3'] ] ]].

Page 281: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice C Bases de Conocimiento y Resultados de ejecución del sistema en la cuenca del Río Vélez___________________________________________________________________________

267

mg_vel.ent

/****************************************************************************//* MODELO DEL TRAMO DE TRANSPORTE DEL RIO VELEZ *//* MODELO DEL AREA RECEPTORA DE VELEZ-MALAGA *//****************************************************************************/

INCLUIR: pluviom.claINCLUIR: tramo.claINCLUIR: area.cla

OBJETO: Pluviometro VelezES UN: Pluviometro

OBJETO: Tramo de Transporte Rio VelezES UN: Tramo de Transporte

OBJETO: Area Receptora VelezES UN: Area ReceptoraATRIBUTOS: superficie (NUMERICO) := 50; fiabilidd (NUMERICO);

OBJETO: Confluencia en BenamargosaATRIBUTOS: caudal (SERIE); fiabilidad (NUMERICO); regla (R1, R2, R3);

// -----------------------------------------------------------------

ALIAS:

I :: (Pluviometro Velez) intensidad de lluvia;fV :: (Pluviometro Velez) fiabilidad;

QV :: (Area Receptora Velez) caudal de escorrentia;S :: (Area Receptora Velez) superficie;k :: (Area Receptora Velez) k;n :: (Area Receptora Velez) n;

QB :: (Confluencia en Benamargosa) caudal;fB :: (Confluencia en Benamargosa) fiabilidad;

QE :: (Tramo de Transporte Rio Velez) caudal aguas arriba;QS :: (Tramo de Transporte Rio Velez) caudal aguas abajo;f :: (Tramo de Transporte Rio Velez) fiabilidad;

// -----------------------------------------------------------------

MODELO: Tramo de Transporte Rio Velez { Pluviometro Velez, Confluencia en Benamargosa }

QV[T] := k * S * I[T]^n;

QE[T] := QB[T]; QS[T] := QB[T-1]+QV[T] ;

// Dado que la Cuenca del rio Velez la confluencia en Benamrgosa // es mucho mayor que la parte de cuenca baja, la fiabilidad de // la medida depende mayormente de la fiabilidad de la primera // de estas medidas

f := fB * (0.50+0.50*fV) ;

Page 282: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice C Bases de Conocimiento y Resultados de ejecución del sistema en la cuenca del Río Vélez___________________________________________________________________________

268

// -----------------------------------------------------------------

PREFERENCIAS:

> (Tramo de Transporte Rio Velez) fiabilidad; > (Confluencia en Benamargosa) fiabilidad; > (Pluviometro Velez) fiabilidad;

// -----------------------------------------------------------------

EJECUCION:

MODELOS: TMAX:=24; SINTESIS: TMAX:=24; NMAX := 3;

mg_vel.ds

[ ['Area Receptora Velez', [ ['__justificacion__' ,[['ASlt','PAlc',no('PVel')],['PAlc','PSlt',no('PStp'),no('PVel')]]], ['n' , 2.50], ['k' , 0.01], ['caudal de escorrentia' ,['x','x','x',0.74,0.87,8.32,6.27,7.28,8.95,1.80,0.31,1.38,5.82,0.31,0.00,0.02,7.28,4.14,5.35,1.57,0.31,7.79,0.01,0.00]], ['superficie' , 50.00] ] ], ['Area Receptora Velez', [ ['__justificacion__' ,[['ASlt','PVel',no('PAlc')],['AVin','PVel',no('PAlc')],['NVin','PAlf','PVel','PVin',no('PAlc')],['PSlt','PVel',no('PAlc'),no('PStp')]]], ['n' , 2.50], ['k' , 0.01], ['caudal de escorrentia' ,['x','x','x',5.99,0.20,7.79,38.78,5.99,1.16,2.49,0.79,0.63,0.96,0.02,0.00,0.00,0.79,71.99,1.62,0.79,0.29,0.05,0.01,0.00]], ['superficie' , 50.00] ] ], ['Tramo de Transporte Rio Velez', [ ['__justificacion__' ,[['ASlt','PAlc',no('AVin'),no('NVin'),no('PVel')],['ASlt','PAlc',no('AVin'),no('PAlf'),no('PVel')],['ASlt','PAlc',no('AVin'),no('PVel'),no('PVin')],['PAlc','PSlt',no('AVin'),no('NVin'),no('PStp'),no('PVel')],['PAlc','PSlt',no('AVin'),no('PAlf'),no('PStp'),no('PVel')],['PAlc','PSlt',no('AVin'),no('PStp'),no('PVel'),no('PVin')]]], ['fiabilidad' , 0.73], ['caudal aguas abajo' ,['x','x','x',8.08,8.21,21.58,36.01,95.12,111.15,93.32,13.83,10.72,18.42,10.87,6.20,0.82,7.28,8.28,124.17,187.33,173.25,77.31,13.03,3.80]], ['caudal aguas arriba' ,['x','x','x',7.34,13.26,29.74,87.84,102.20,91.52,13.52,9.34,12.60,10.56,6.20,0.80,0.00,4.14,118.82,185.76,172.94,69.52,13.02,3.80,1.80]] ] ],

Page 283: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice C Bases de Conocimiento y Resultados de ejecución del sistema en la cuenca del Río Vélez___________________________________________________________________________

269

['Tramo de Transporte Rio Velez', [ ['__justificacion__' ,[['ASlt','PAlc',no('PVel')],['PAlc','PSlt',no('PStp'),no('PVel')]]], ['fiabilidad' , 0.94], ['caudal aguas abajo' ,['x','x','x',5.15,9.90,30.74,40.01,96.18,175.43,148.53,24.76,15.18,19.95,9.51,6.86,2.61,7.33,6.73,114.19,272.14,250.22,48.23,8.99,2.66]], ['caudal aguas arriba' ,['x','x','x',9.03,22.42,33.74,88.90,166.48,146.73,24.45,13.80,14.13,9.20,6.86,2.59,0.05,2.59,108.84,270.57,249.91,40.44,8.98,2.66,1.03]] ] ], ['Tramo de Transporte Rio Velez', [ ['__justificacion__' ,[['ASlt','PVel',no('PAlc')],['AVin','PVel',no('PAlc')],['NVin','PAlf','PVel','PVin',no('PAlc')],['PSlt','PVel',no('PAlc'),no('PStp')]]], ['fiabilidad' , 0.95], ['caudal aguas abajo' ,['x','x','x',10.40,9.23,30.21,72.52,94.89,167.64,149.22,25.24,14.43,15.09,9.22,6.86,2.59,0.84,74.58,110.46,271.36,250.20,40.49,8.99,2.66]], ['caudal aguas arriba' ,['x','x','x',9.03,22.42,33.74,88.90,166.48,146.73,24.45,13.80,14.13,9.20,6.86,2.59,0.05,2.59,108.84,270.57,249.91,40.44,8.98,2.66,1.03]] ] ]].

Page 284: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice C Bases de Conocimiento y Resultados de ejecución del sistema en la cuenca del Río Vélez___________________________________________________________________________

270

cg_vel.ent

/****************************************************************************//* COHERENCIA GLOBAL DE CAUDALES EN LA DESEMBOCADURA DEL RIO VELEZ *//****************************************************************************/

INCLUIR: aforo.claINCLUIR: tramo.cla

OBJETO: Aforo Velez; ES UN: Aforo;

OBJETO: Tramo de Transporte Rio Velez; ES UN: Tramo de Transporte;

OBJETO: Unidad Cognitiva Rio VelezATRIBUTOS: caudal (SERIE); // en m3/seg. fiabilidad (NUMERICO); regla (R1, R2, R3);

// ----------------------------------------------------------------------

ALIAS:

QS :: (Tramo de Transporte Rio Velez) caudal aguas abajo;QA :: (Aforo Velez) caudal;Q :: (Unidad Cognitiva Rio Velez) caudal;

fs :: (Tramo de Transporte Rio Velez) fiabilidad;fa :: (Aforo Velez) fiabilidad;f :: (Unidad Cognitiva Rio Velez) fiabilidad;

c :: (Aforo Velez) contador de fallos;

R :: (Unidad Cognitiva Rio Velez) regla;

// ----------------------------------------------------------------------

COHERENCIA: { Aforo Velez, Tramo de Transporte Rio Velez } /* VALIDACION: */ | media(QS[T-3..T]) - media(QA[T-3..T]) | < 0.3 * media(QA[T-3..T]) + 10 /* ESTIMACION: */ --> Q := QA; f := 1-(1-fa)*(1-fs); R := R1;

COHERENCIA: { Tramo de Transporte Rio Velez } /* VALIDACION: */ fs >= 0.75 /* ESTIMACION: */ --> Q := QS; f := fs; R := R2;

Page 285: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice C Bases de Conocimiento y Resultados de ejecución del sistema en la cuenca del Río Vélez___________________________________________________________________________

271

COHERENCIA: { Aforo Velez } /* VALIDACION: */ c < 5 /* ESTIMACION: */ --> Q := QA; f := fa; R := R3;

//--------------------------------------------------

SINTESIS: { Unidad Cognitiva Rio Velez } /* VALIDACION: */ // si el caudal medio es +- 10% sintetizar media(Q[T-12..T]) <= 1.1 * media(Q[T-12..T]) /* ESTIMACION: */ --> Q[T] := media ( {Q[T]} ) ; f := max ( {f} ) ;

//--------------------------------------------------

EJECUCION:

COHERENCIA: TMAX:=24; // NMAX := 2;// SINTESIS: TMAX:=24;

cg_vel.ds

[ ['Unidad Cognitiva Rio Velez', [ ['__justificacion__' , [['ASlt','PVel',no('PAlc')],['AVel'],['AVin','PVel',no('PAlc')],['NVin','PAlf','PVel','PVin',no('PAlc')],['PSlt','PVel',no('PAlc'),no('PStp')]]], ['caudal' , [5.70,7.10,9.80,20.00,19.30,35.10,62.20,114.90,140.70,129.20,45.40,14.30,12.10,11.20,10.60,9.59,9.84,64.80,140.60,231.60,220.20,130.40,45.90,12.66]], ['fiabilidad' , 0.99], ['regla' , 'R1'] ] ], ['Unidad Cognitiva Rio Velez', [ ['__justificacion__' , [['ASlt','PAlc',no('AVel'),no('PVel')],['PAlc','PSlt',no('AVel'),no('PStp'),no('PVel')]]], ['caudal' , ['x','x','x',5.15,9.90,30.74,40.01,96.18,175.43,148.53,24.76,15.18,19.95,9.51,6.86,2.61,7.33,6.73,114.19,272.14,250.22,48.23,8.99,2.66]], ['fiabilidad' , 0.94], ['regla' , 'R2'] ] ]].

Page 286: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Apéndice C Bases de Conocimiento y Resultados de ejecución del sistema en la cuenca del Río Vélez___________________________________________________________________________

272

JUST

IFIC

AC

ION

FI

AB

. 0,

1,

2,

3,

4,

5,

6,

7,

8,

9,

10

, 11

, 12

, 13

, 14

, 15

, 16

, 17

, 18

, 19

, 20

, 21

, 22

, 23

,

0,

87

0,40

0,

50

3,30

0,

40

1,40

1,

50

3,70

3,

30

3,50

3,

80

2,00

1,

00

1,80

3,

20

1,00

0,

00

0,30

3,

50

2,80

3,

10

1,90

1,

00

3,60

0,

20

--Pl

uvio

met

ro A

lcau

cin)

inte

nsid

ad d

e llu

via

(cl

_alc

.ds)

[[PA

lc]]

0,

87

0,40

0,

50

3,30

0,

40

1,40

1,

50

3,70

3,

30

3,50

3,

80

2,00

1,

00

1,80

3,

20

1,00

0,

00

0,30

3,

50

2,80

3,

10

1,90

1,

00

3,60

0,

20

--Pl

uvio

met

ro A

lcau

cin)

inte

nsid

ad d

e llu

via

(c

g_ca

n.ds

)[[

PAlc

, no(

PVel

)]]

0,87

0,

40

0,50

3,

30

0,40

1,

40

1,50

3,

70

3,30

3,

50

3,80

2,

00

1,00

1,

80

3,20

1,

00

0,00

0,

30

3,50

2,

80

3,10

1,

90

1,00

3,

60

0,20

--

[[PV

el, n

o(PA

lc)]

] 0,

90

0,

60

0,60

1,

20

3,24

0,

84

3,60

6,

84

3,24

1,

68

2,28

1,

44

1,32

1,

56

0,36

0,

00

0,00

1,

44

8,76

1,

92

1,44

0,

96

0,48

0,

24

--

(Plu

viom

etro

Vel

ez)

inte

nsid

ad d

e llu

via

( c

l_ve

l.de)

[[PV

el]]

0,

90

0,50

0,

50

1,00

2,

70

0,70

3,

00

5,70

2,

70

1,40

1,

90

1,20

1,

10

1,30

0,

30

0,00

0,

00

1,20

7,

30

1,60

1,

20

0,80

0,

40

0,20

0,

00

--Pl

uvio

met

ro V

elez

) in

tens

idad

de

lluvi

a

( cl

_vel

.ds)

[PV

el]]

0,

90

0,50

0,

50

1,00

2,

70

0,70

3,

00

5,70

2,

70

1,40

1,

90

1,20

1,

10

1,30

0,

30

0,00

0,

00

1,20

7,

30

1,60

1,

20

0,80

0,

40

0,20

0,

00

--(P

luvi

omet

ro V

elez

) in

tens

idad

de

lluvi

a

( cg_

can.

ds)

[[PA

lc, n

o(PV

el)]

] 0,

87

0,42

2,

75

0,33

1,

17

1,25

3,

08

2,75

2,

92

3,17

1,

67

0,83

1,

50

2,67

0,

83

0,00

0,

25

2,92

2,

33

2,58

1,

58

0,83

3,

00

0,17

0,

00

--[[

PVel

, no(

PAlc

)]]

0,90

0,

50

0,50

1,

00

2,70

0,

70

3,00

5,

70

2,70

1,

40

1,90

1,

20

1,10

1,

30

0,30

0,

00

0,00

1,

20

7,30

1,

60

1,20

0,

80

0,40

0,

20

0,00

--

(Are

a R

ecep

tora

Alc

auci

n) c

auda

l de

esco

rren

tia

( m

g_gu

b.ds

)[[

PAlc

, no(

PVel

)]]

0,87

0,

07

0,12

13

,85

0,

07

1,62

1,

93

18,4

3

13,8

5

16,0

4

19,7

0

3,96

0,

70

3,04

12

,82

0,

70

0,00

0,

03

16,0

4

9,18

11

,84

3,

48

0,70

17

,21

0,

01

--[[

PVel

, no(

PAlc

)]]

0,90

0,

00

0,20

0,

20

1,10

13

,23

0,

45

17,2

1

85,6

5

13,2

3

2,56

5,

49

1,74

1,

40

2,13

0,

05

0,00

0,

00

1,74

15

8,99

3,

58

1,74

0,

63

0,11

0,

02

--

(Are

a R

ecep

tora

Can

illas

) ca

udal

de

esco

rren

ta

(m

g_gu

b.ds

)[[

PAlc

, no(

PVel

)]]

0,87

0,

11

4,27

15

,25

0,

56

2,36

7,

63

24,4

2

20,0

3

23,5

4

22,8

6

4,56

1,

68

7,18

14

,31

0,

77

0,01

4,

83

20,3

9

13,6

4

14,0

7

4,04

5,

91

18,9

4

0,01

--

[[PV

el, n

o(PA

lc)]

] 0,

90

0,06

0,

27

0,54

5,

17

14,6

8

5,64

44

,53

98

,17

15

,31

4,

46

6,56

2,

33

2,18

2,

36

0,06

0,

00

0,52

49

,43

17

5,95

4,

45

2,10

0,

73

0,13

0,

02

--- (T

ram

o de

Tra

nspo

rte

Gua

ro B

ajo)

cau

dal a

guas

aba

jo

(m

g_gu

b.ds

)[[

AV

in,P

Alc

,no(

PVel

)],

[N

Vin

,PA

lc,..

.]]

0,76

4,35

15

,38

14

,41

2,

43

9,25

26

,34

38

,46

37

,38

38

,90

24

,27

5,

64

7,88

17

,36

13

,59

0,

71

4,83

20

,43

29

,68

23

,25

15

,88

9,

40

19,6

4

17,2

3

--[[

AV

in,P

Vel

,no(

PAlc

)],

[N

Vin

,PV

el,..

.]]

0,81

0,27

0,

74

5,36

15

,79

18

,87

44

,98

11

5,38

10

0,97

17

,69

9,

13

7,83

3,

92

3,76

2,

19

0,05

0,

52

49,4

3

177,

69

163,

44

5,68

2,

47

0,76

0,

13

--- (A

rea

Rec

epto

ra E

l Bor

ge)

caud

al d

e es

corr

entia

(m

g_be

n.ds

)[[

ASl

t],[

PSlt,

no(P

Stp)

]]

0,98

1,

77

0,00

0,

97

1,77

0,

13

11,8

7

25,9

2

2,10

0,

76

0,76

2,

47

1,20

0,

08

0,00

0,

00

0,00

1,

77

56,5

1

12,8

8

2,47

0,

76

0,31

0,

00

0,00

--

[[PS

tp, n

o(A

Slt)

,no(

PSlt)

]]

0,48

2,

29

0,05

0,

35

1,27

2,

95

0,19

2,

61

0,00

2,

95

1,07

0,

46

1,49

1,

07

1,07

1,

07

0,00

1,

49

51,6

0

1,27

2,

00

0,46

0,

05

0,00

0,

00

--

(Tra

mo

de T

rans

port

e B

enam

argo

sa)

caud

al a

guas

aba

jo

( m

g_be

n.ds

)[[

ASl

t],[

PSlt,

no(P

Stp)

]]

0,98

1,10

3,

67

3,67

6,

63

14,8

7

43,9

2

51,1

0

45,7

6

6,76

4,

67

6,30

5,

28

3,10

0,

40

0,00

2,

07

59,4

1

92,8

8

86,4

7

34,7

6

6,51

1,

90

0,90

--

[[PS

tp,n

o(A

Slt)

,no(

PSlt)

]]

0,48

0,05

3,

78

1,98

5,

75

7,34

7,

24

4,96

6,

75

6,37

6,

68

3,88

4,

43

5,17

4,

55

3,48

3,

05

54,2

8

96,2

1

79,4

6

5,92

3,

80

0,76

0,

07

--(C

onfl

uenc

ia e

n B

enam

argo

sa)

caud

l (

cg_b

en.d

s)[[

PAlc

,...]

,....]

0,

61

8,

69

30,7

6

28,8

2

4,87

18

,51

52

,69

76

,92

74

,77

77

,80

48

,54

11

,28

15

,76

34

,71

27

,19

1,

42

9,66

40

,85

59

,37

46

,51

31

,77

18

,79

39

,28

34

,45

--

[[A

Slt,.

..],..

..]

0,78

2,20

7,

33

7,33

13

,27

29

,74

87

,83

10

2,20

91

,52

13

,52

9,

33

12,6

0

10,5

5

6,20

0,

80

0,00

4,

13

118,

81

185,

77

172,

93

69,5

2

13,0

2

3,80

1,

80 *

[[PV

el,..

.], [

ASl

t],

....]

1,

00

1,

37

4,41

9,

03

22,4

2

33,7

4

88,9

0

166,

48

146,

73

24,4

5

13,7

9

14,1

3

9,20

6,

86

2,59

0,

05

2,59

10

8,84

27

0,6

24

9,91

40

,44

8,

98

2,66

1,

03 *

--

[[PA

lc,..

.],..

..]

0,61

8,69

30

,76

28

,82

4,

87

18,5

1

52,6

9

76,9

2

74,7

7

77,8

0

48,5

4

11,2

8

15,7

6

34,7

1

27,1

9

1,42

9,

66

40,8

5

59,3

7

46,5

1

31,7

7

18,7

9

39,2

8

34,4

5

--[[

PStp

,...]

,....]

0,

38

0,

09

7,56

3,

95

11,4

9

14,6

8

14,4

8

9,93

13

,49

12

,73

13

,35

7,

76

8,85

10

,33

9,

10

6,96

6,

10

108,

56

192,

43

158,

92

11,8

3

7,59

1,

51

0,14

--

[[PV

el,,.

.],..

..]

0,7

0,5

1,

5

10,7

31

,6

37,7

90

,0

230,

8

201,

9

35,4

18

,3

15,7

7,

8

7,5

4,

4

0,1

1,

0

98,9

35

5,4

32

6,9

11

,4

4,9

1,

5

0,3

*

[[PS

tp,..

.],..

..]

0,38

0,09

7,

56

3,95

11

,49

14

,68

14

,48

9,

93

13,4

9

12,7

3

13,3

5

7,76

8,

85

10,3

3

9,10

6,

96

6,10

10

8,56

19

2,43

15

8,92

11

,83

7,

59

1,51

0,

14

--

(Are

a R

ecep

tora

Vel

ez)

caud

al d

e es

corr

entia

(m

g_ve

l.ds)

[[PA

lc, n

o(PV

el)]

] 0,

87

0,06

6,

27

0,03

0,

74

0,87

8,

35

6,27

7,

26

8,92

1,

79

0,32

1,

38

5,81

0,

32

0,00

0,

02

7,26

4,

16

5,36

1,

58

0,32

7,

79

0,01

0,

00

--[[

PVel

, no(

PAlc

)]]

0,90

0,

09

0,09

0,

50

5,99

0,

20

7,79

38

,78

5,

99

1,16

2,

49

0,79

0,

63

0,96

0,

02

0,00

0,

00

0,79

71

,99

1,

62

0,79

0,

29

0,05

0,

01

0,00

--

- (Tra

mo

de T

rans

port

e V

elez

) ca

udal

agu

as a

bajo

( m

g_ve

l.ds)

[[A

Slt,P

Alc

...],

....]

0,

73

6,

27

2,23

8,

07

8,21

21

,62

36

,01

95

,10

11

1,12

93

,32

13

,84

10

,71

18

,41

10

,87

6,

20

0,82

7,

26

8,29

12

4,18

18

7,34

17

3,25

77

,32

13

,03

3,

80 *

[[A

Slt,P

Vel

...],

....]

0,

74

0,

09

2,70

13

,32

7,

54

21,0

6

68,5

2

93,8

2

103,

36

94,0

1

14,3

1

9,97

13

,57

10

,58

6,

20

0,80

0,

79

76,1

2

120,

43

186,

56

173,

22

69,5

7

13,0

3

3,80

*[[

ASl

t,PA

lc,..

],...

.]

0,94

6,27

1,

41

5,14

9,

90

30,7

7

40,0

1

96,1

7

175,

40

148,

52

24,7

6

15,1

7

19,9

4

9,51

6,

86

2,60

7,

32

6,74

11

4,20

27

2,16

25

0,2

48

,24

8,

99

2,66

*[[

ASl

t,PV

el,..

],[A

Vin

,..],

[NV

in,..

],[P

Slt..

.]]

0,95

0,09

1,

87

10,4

0

9,23

30

,22

72

,52

94

,89

16

7,64

14

9,22

25

,24

14

,43

15

,09

9,

22

6,86

2,

59

0,84

74

,58

11

0,46

27

1,37

25

0,19

40

,49

8,

99

2,66

*[[

PVel

,...]

,....]

0,

62

0,

09

1,05

7,

47

10,9

3

39,3

7

76,5

2

95,9

6

231,

93

204,

4

36,1

6

18,8

9

16,6

2

7,86

7,

52

4,38

0,

90

73,0

3

100,

48

356,

18

327,

17

11,4

1

4,95

1,

52

--

(Afo

ro V

elez

) ca

udal

(

cl_v

el.d

e)[[

AV

el]]

0,

90

5,70

7,

10

9,80

20

,00

19

,30

35

,10

62

,20

11

4,90

14

0,70

12

9,20

45

,40

14

,30

12

,10

11

,20

10

,60

9,

59

9,84

64

,80

14

0,60

23

1,60

22

0,2

13

0,40

45

,90

12

,60

--

(Afo

ro V

elez

) ca

udal

(

cl_v

el.d

s)[[

AV

el]]

0,

90

5,70

7,

10

9,80

20

,00

19

,30

35

,10

62

,20

11

4,90

14

0,70

12

9,20

45

,40

14

,30

12

,10

11

,20

10

,60

9,

59

9,84

64

,80

14

0,60

23

1,60

22

0,2

13

0,40

45

,90

12

,60

--

(Uni

dad

Cog

nitiv

a R

ioV

elez

) ca

udal

(

cg_v

el.d

s)[[

AV

el],

[ASl

t,PV

el,]

,[A

Vin

.],

[N

Vin

.],[

PSlt.

],...

] 0,

99

5,70

7,

10

9,80

20

,00

19

,30

35

,10

62

,20

11

4,90

14

0,70

12

9,20

45

,40

14

,30

12

,10

11

,20

10

,60

9,

59

9,84

64

,80

14

0,60

23

1,60

22

0,2

13

0,40

45

,90

12

,60

--

[[A

Vel

,...]

] 0,

90

5,70

7,

10

9,80

20

,00

19

,30

35

,10

62

,20

11

4,90

14

0,70

12

9,20

45

,40

14

,30

12

,10

11

,20

10

,60

9,

59

9,84

64

,80

14

0,60

23

1,60

22

0,2

13

0,40

45

,90

12

,60

--

[[A

Slt,P

Alc

,..],

....]

0,

94

6,

27

1,41

5,

14

9,90

30

,77

40

,01

96

,17

17

5,40

14

8,52

24

,76

15

,17

19

,94

9,

51

6,86

2,

60

7,32

6,

74

114,

20

272,

16

250,

2

48,2

4

8,99

2,

66

--

Page 287: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

273

BIBLIOGRAFÍA

Page 288: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

274

Page 289: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

275

BIBLIOGRAFÍA

[Alonso,1990] Alonso M., Cuena, J. y Molina, M.: SIRAH: An Architecture fora Professional Intelligence. Proceedings 9th European Conferenceon Artificial Intelligence (ECAI´90). Pitman, (1990)

[Alonso,1993] Alonso,M.: Una contribución a la programación cognitiva:Arquitecturas de segunda generación para representación delconocimiento. Tesis Doctoral. Facultad de Informática.Universidad Politécnica de Madrid. Madrid. (1993)

[Birminghan, 1992] Birminghan,W.P.y Tommelein,I.D: Towards a DomainIndependent Synthesis System. En Green, M. (ed): KnowledgeAided Design, London, Academic Press, (1992).

[Bobrow,1977] Bobrow, D.G. y Winograd, T. : An overview of KRL, Aknowledge Representation Language. Cognitive Science 1,(1977) 3-46. Reimpreso en Brachman, R.J. y Levesque, H.J.(eds.) Readings in Knowledge Representation. MorganKaufmann. San Mateo, CA (1985) 264-285.

[Bodington,1988] Bodington, R., y Elleby, P.: Justification and Assumption-basedTruth Maintenance Systems: When and How to use them forConstraint Satisfaction. En Reason Maintenance Systems andtheir Application. Smith,B., Kelleher,G. (eds. ) Ellis Horwood,Chichester (1988).

[Brachman,1979] Brachman, R.J.: On the epistemological Status of SemanticNetworks. En Findler, N.V. (ed.) .Associative Networks: Repre-sentation and use of knowledge by computers. Academic Press.New York (1979) 3-50. Reimpreso en Brachman, R.J. yLevesque, H.J. (eds.) Reading in Knowledge Representation.Morgan Kaufmann. San Mateo, CA (1985)192-215.å

[Brown,1982] Brown, J.S., Burton, R.R., deKleer, J. : Pedagogical, naturallanguage and knowledge engineering techniques in SOPHIE I, II,and III. En Sleeman,D. y Brown, J.S. (eds.) Intelligent TutoringSystems. Academic Press. London. (1982) 227-279.

[Buchanan,1984] Buchanan, B.G. y Shortliffe, E.M. : Rule-Based Expert Systems.Addisson-Wesley. Reading MA. (1984)

Page 290: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Bibliografía___________________________________________________________________________

276

[Buttner, 1988] Buttner,K., Duvvuru,S. y Freiling,M.: An Object-OrientedArchitecture for Model-Based Diagnostic Reasoning. EnJagannathan, V., Dodhiawala,R. (eds.) Blackboard Architecturesand Applications. Academic Press, London (1988)

[Cabezas,1995] Cabezas, F.; Experiencias de utilización del SAIH-Segura.EnJornadas sobre el SAIH en la Gestión Hídrica. Zaragoza(1995) 167-178.

[Chandrasekaran,1979] Chandrasekaran,B. Mittal,S., Gomez,F. y Smith,J.: An Aproachto Medical Diagnosis Based on Conceptual Structures.Proceedings IJCAI’79 (1979) 134-142.

[Chandrasekaran, 1983] Chnadrasekaran, B. y Mital, S. : Deep versus compiledknowledge approaches to diagnostic problem-solving.International Journal of Man Machine Studies 19, (1983).Reimpreso en Coombs, M.J. (ed.) Development in expertsystems Accademic Press. London. (1984) 23-34.

[Chandrasekaran,1986] Chandrasekaran, B.: Generic Task in Knowledge BasedReasoning: High level building blocks for expert systems design.IEEE Expert, 1, (1986) 23-29. Reimpreso en Buchanan,B.G. yWilkins,D.C. (eds.) Reading in Knowledge acquisition andlearning. Morgan Kaufmann. San Mateo. CA. (1993) 170-177

[Chandrasekaran,1986b] Chandrasekaran,B.: Expert Systems: Matching techniques to task.En Reitman, W. (ed.): Artificial Intelligence Application forBusiness, Ablex Publishing Corporation, Norwood, New Jersey(1986)

[Chandrasekaran,1987] Chandrasekaran, B. y Punch, W.F. III: Data validation duringdiagnosis, a step beyong traditional sensor validation.Proceedings AAAI´87. Seattle (1987) 778-782.

[Chandrasekaran,1992] Chandrasekaran, B.; Johnson, Todd R.; Smith, Jack W.:Task-structure analysis for knowledge modeling. Communications ofthe ACM 35:9, (1992) 124-136.

[Chandrasekaran,1992b] Chandrasekaran, B.: Generic Task: Evolution of an idea. Informetécnico. Laboratory for AI Reseach. Ohio University. ColumbusOH (1992)

[Chow,1988] Chow, V.T., Maidment, D., y Mays, L.: Applied Hydrology,Mac-Graw-Hill. New York (1988), Reimpreso y traducido enChow, V.T., Maidment, D., y Mays, L.: Hidrología AplicadaMac-Graw-Hill Iberoamericana. Mexico (1994).

[Clancey,1985] Clancey, W.J. :Heuristic Classification. Artificial Intelligent 27,(1985) 289-350. Reimpreso en Kowalik, J.S. (ed.) KnowledgeBased Problem Solving. Prentice-Hall. New Jersey. (1986) 1-67

[Clancey,1986] Clancey, W.J. : From GUIDON to NEOMYCIN andHERACLES in twenty short lessons. AI Magazine 7, (1986) 40-60. Reimpreso en van Lamsweerde, A. y Dufour, P. (eds.):Current Issues in Expert Systems.. Accademic Press. London(1987).

Page 291: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Bibliografía___________________________________________________________________________

277

[Clancey,1988] Clancey, W.J. : Acquiring, representing, and evaluating a compe-tence model of diagnostic strategy. En Chi, M., Glase, R. yFarr,M. (eds.), The Nature of Expertise, . Lawrence ErlbaumPress. Hillsdale (1988) 343-418. Reimpreso en Buchanan,B.G. yWilkins,D.C. (eds.) Reading in Knowledge acquisition andlearning. Morgan Kaufmann. San Mateo. CA. (1993) 178-215.

[Clancey,1992] Clancey, W.J. : Model construction operators. ArtificialIntelligence 53 (1992) 1-115.

[Clancey,1993] Clancey, W.J. : Notes on “Heuristic Classification. ArtificialIntelligence 59, (1993) 191-196.

[Conejo,1992] Conejo,R., Conejo, R., Perez de la Cruz, J.L. : Distributionfunctions for extreme values. Proceedings of the InternationalSymposium on Dams and Extreme Floods. Granada, (1992).

[Cuena,1983] Cuena, J. : The use of simulation models and human advise tobuild expert systems for the defense and control of river floods.Proceedings IJCAI'83. Karlsruhe, (1983)

[Cuena,1989] Cuena, J. : Knowledge-based systems for aid in decision-making:methodology and examples. En Campbell, J.A. y Cuena, J.(eds.) Perpectives in Artificial Intelligence. Vol 1. expert systems:applications and technical foundations. Ellis Horwood, Chichester(1989) 73-91.

[Cuena,1991] Cuena,J., Molina,M., Garrote,L.: An architecture for cooperationof knowledge bases and quantitative models: The CYRAHenvironment. Proceedings Avignon´91. Avignon (1991)

[Cuena,1992] Cuena, J. : Contributions to a unifying view of SoftwareDevelopment. En Workshop AIFIPP’92, Madrid (1992).

[Cuena,1992b] Cuena, J. : Arquitecturas para sistemas inteligentes de segundageneración. En Maravall, D. (ed.) Curso de Conferencias sobreInteligencia Artificial. Fundamentos Teóricos y Aplicaciones..Real Academia de Ciencias Exactas, Físicas y naturales. Madrid.(1992)

[Cuena,1992c] Cuena,J., Molina,M., Garrote,L.: Combining simulation modelsand knowledge bases for real time flood management.Proceedings Hydrosoft'92. (1992)

[Cuena,1993] Cuena,J. : Contributions to a Knowledge Oriented View ofSoftware Design. En Cuena, J. (ed.) Knowledge OrientedSoftware Design Elsevier (1993).

[Cuena,1994] Cuena, J., Molina,M. "KSM: An Environment for KnowledgeOriented Design of Applications Using Structured KnowledgeArchitectures. en Applications and Impacts. IFIP'94, vol 2.Brunstein, K y Raubolds E. (eds.) Elsevier Science B.V. North-Holand (1994)

[Cunge,1995] Cunge, J. A.; Modélisation et Prévision de Crues: Cadre desTechnologies DÍnformation. EnJornadas sobre el SAIH en laGestión Hídrica. Zaragoza (1995) 53-60.

Page 292: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Bibliografía___________________________________________________________________________

278

[Davis,1977] Davis, R. y Buchanan, B. :Meta-level knowledge: Overview andapplications. Proceedings IJCAI 5 (1977) 920-928.

[Davis,1983] Davis,R.: Reasoning from first principles in electronictrobleshooting. International Journal of Man Machine Studies 19,(1983) 403-423. Reimpreso en Coombs, M.J. (ed.) Developmentin expert systems . Accademic Press. London. (1984) 1-34.

[Davis,1984] Davis,R. : Diagnostic Reasoning Based on structure andBehavior. Artificial Intelligence 24, (1984) 347-410.

[Davis,1988] Davis,R. y Hamscher,W. : Model-based reasoning:Troubleshooting. En Shrobe, H.E. (ed.) Exploring ArtificialIntelligence: Survey Talks from the National Conferences onArtificial Intelligence. Morgan-Kauffman. San Mateo. California(1988) 297-346. Reimpreso en Hamscher,W, Console,L. ydeKleer,J. (eds.): Model-Based diagnosis. Morgan KauffmanPublisher, Los Altos, California, (1992) 3-24.

[Davis,1993] Davis,R.: Retrospective on “Diagnostic Reasoning Based onstructure and Behavior”. Artificial Intelligence 59, (1993) 149-157.

[Davis,1993b] Davis,R. y Resnick, P.: Multiple Dimensions of Generalization inModel-Based Troubleshooting. En Proceedings AAAI’93.,Washington, (1993) 160-167.

[deCoste,1990] deCoste, D. : Dynamic Across-Time Measurement Interpretation.Proceedings 8th National Conference on Artificial Intelligence.Boston MA (1990) 373-379. Reimpreso en Hamscher,W,Console,L. y deKleer,J. (eds.): Model-Based diagnosis. MorganKauffman Publisher, Los Altos, California, (1992) 255-261.

[deCoste,1991] deCoste, D. : Dynamic Across-Time Measurement Interpretation.Artificial Intelligence 51 (1991) 273-341.

[deMarco,1978] de Marco, T. : Structured Analysis and System Specification.Yourdon Press, New York. (1978).

[deKleer,1984] de Kleer,J., Brown, J.S. : A Qualitative Physics Based onConfluences. Artificial Intelligence 24 (1984) 7-83. Reimpreso enWeld,D.S. y de Kleer, J. (eds.): Qualitative Reasoning abouphysical systems. Morgan Kauffman. San Mateo (1990) 88-126.

[deKleer,1986] de Kleer,J.: An Asumption Based T.M.S. Artificial Intelligence28, (1986) 127-162 y también en Ginsberg, M.L. (ed.): Readingsin Nonmonotonic Reasoning, Morgan Kauffman Publisher, LosAltos, California, (1987) 280-297.

[deKleer,1987] de Kleer, J., y Williams,B.C.: Diagnosing Multiple Faults.Artificial Intelligence 32, (1987) 97-130 y también en Ginsberg,M.L. (ed.): Readings in Nonmonotonic Reasoning, MorganKauffman Publisher, Los Altos, California, (1987) 372-388.

Page 293: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Bibliografía___________________________________________________________________________

279

[deKleer,1989] deKleer,J. y Williams,B.C.: Diagnosis with behavioral models.Proceedings IJCAI-89,� Detroit, MI (1989) 1324-1330, ytambién en Hamscher,W, Console,L. y deKleer,J. (eds.): Model-Based diagnosis. Morgan Kauffman Publisher, Los Altos,California, (1992) 124-137.

[deKleer, 1991] de Kleer, J.: Focusing on Probable Diagnoses. : ProceedingsAAAI’91. Anaheim, CA (1991) 842-848

[deKleer, 1992] de Kleer,J., MacWorth, A.K., y Reiter,R. Characterizingdiagnoses and systems. Artificial Intelligence, 56 (1992) 197-222.

[Downing,1992[ Downing,K.L. : Consistency-Based Diagnosis in PhysiologicalDomains. En Proceedings AAAI’92, (1992) 558-563

[Dubois,1980] Dubois,D. y Prade,H.: Fuzzy Sets and Systems: Theory andApplications. Academic Press. Orlando, (1980).

[Dubois,1988] Dubois,D. y Prade,H.: Possibility Theory. An approach toComputerizad Processing of Uncertainty. Plenum Press. NewYork. (1988).

[Duda,1973] Duda,R. Hart,P.: Pattern Classsification and Scene Analysis.John Wiley &Sons. New York (1973).

[Eshelman,1987] Eshelman,L., Eiret, D., McDermott, J. y Tan, M.: MOLE: atenacious knowledge-acquisition tool. International Journal ofMan-Machine Studies 26 (1987) 41-54. Reimpreso enBuchanan,B.G. y Wilkins,D.C. (eds.) Reading in Knowledgeacquisition and learning. Morgan Kaufmann. San Mateo. CA.(1993)

[Feigenbaum,1979] Feigenbum,E.A.: Themes and case studies of KnowledgeEngineering. En Michie, D. (ed.): Expert Systems in the Micro-electronic Age. University Press. Edimburgh, (1979)

[Féret,1993] Féret,M.P. y Glasgow,J.I.: Hybrid Case-Based Reasoning forthe Diagnosis of Complex Devices. En Proceedings AAAI’93.,Washington, (1993) 168-175.

[Ferrer,1995] Ferrer, C.; Evolución en el seguimiento de las avenidas en laConfederación Hidrográfica del Ebro durante los últimosveinticinco años. El SAIH en la cuenca del Ebro. EnJornadassobre el SAIH en la Gestión Hídrica. Zaragoza (1995) 189-206.

[Ferrer y Estrada,1995] Ferrer, J.; Estrada,F. : Proyecto de modelización hidrológica y dela gestión hidráulica en el Sistema Automático de InformaciónHidrológica (SAIH). EnJornadas sobre el SAIH en la GestiónHídrica. Zaragoza (1995) 53-60.

[Forbus,1984] Forbus, K.D. : Qualitative Process Theory. Artificial Intelligence24 (1984) 85-164. Reimpreso en Weld,D.S. y de Kleer, J. (eds.):Qualitative Reasoning about physical systems. Morgan-Kauffman. San Mateo (1990) 178-219.

Page 294: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Bibliografía___________________________________________________________________________

280

[Forbus,1986] Forbus, K.D. : The Qualitative Process Engine. Department ofComputer Science Technical Report UIUDCS-R-86-1288.University of Illinois.(1986). Reimpreso en Weld,D.S. ydeKleer,J. (eds.) : Qualitative Reasoning About PhysicalSystems. Morgan-Kauffman. San Matea. CA (1990) 220-235.

[Garrote,1990] Garrote, L.: Modelos hidrológicos de ayuda a la decisión entiempo real basados en técnicas de inteligencia artificial. TesisDoctoral. Escuela Técnica Superior de Ingenieros de Caminos,Canales y Puertos. Universidad Politécnica de Madrid. Madrid.(1990)

[Hamscher,1991] Hamscher, W.: Modeling digital circuits for troubleshooting.Artificial Intelligence 51 (1991) 223-271. Reimpreso enHamscher,W, Console,L. y deKleer,J. (eds.): Model-Baseddiagnosis. Morgan Kauffman Publisher, Los Altos, California,(1992) 283-308.

[Heras,1983] Heras, R. : Recursos Hidráulicos: Síntesis, Metodologías yNormas. Colegio de Ingenieros de Caminos, Canales y Puertos,(1983).

[Kim,1990] Kim,J.S., Modarres,M., y Hunt,R.N.M.: A Model-BasedApproach to On-Line Process Disturbance Management: TheModels. Reliability Engineering and System Safety 28 (1990)265-305.

[Kowalski,1979] Kowalski; :Algorithm = logic + control. Communications of theACM 22:7, (1979)

[Kuipers,1986] Kuipers,B. : Qualitative Simulation. Artificial Intelligence 26(1986) 289-388. Reimpreso en Weld,D.S. y de Kleer, J. (eds.):Qualitative Reasoning about physical systems. MorganKauffman. San Mateo (1990) 236-260.

[Laird,1987] Laird,J.E., Newell, A., Rosenbloom, P.S. : SOAR: Anarchitecture for General Intelligence. Artificial Intelligence 33,(1987).

[Levesque,1989] Levesque,H. : A knowledge-level account of abduction. EnProceedings IJCAI’ 89. Detroit. MI. (1989) 1061-10647.

[Lewis,1988] Lewis,H.R. ; Papadimitriou, C.H. : Elements of the theory ofcomputation. Prentice-Hall, Englewood Cliffs, N.J. (1988).

[Lopez de Mántaras,1990] Lopez de Mántaras, R. : Approximate Reasoning Models. EllisHorwood Ltd. Chichester (1990).

[MacDermott,1988] MacDermott, J. : Preliminary Step Towards a Taxonomy ofProblem Solving Methods. En Marcus,S. (ed.) AutomatingKnowledge Acquisition for Expert Systems. Kluwer Academic.Boston (1988).

[Marcus,1989] Marcus, S. y McDermott, J.: SALT: A knowledge AcquisitionLanguage for Propose-and-Revise Systems. Artificial Intelligence39 (1989) 1-37. Reimpreso en Buchanan,B.G. y Wilkins,D.C.(eds.) Reading in Knowledge acquisition and learning. MorganKaufmann. San Mateo. CA. (1993) 263-281.

Page 295: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Bibliografía___________________________________________________________________________

281

[Minsky,1975] Minsky, M.: A framework for representing knowledge. EnWinston, P. (ed.) The Psichology of Computer Vision.MacGraw-Hill. New York. (1975) 211-277. Reimpreso enBrachman, R.J. y Levesque, H.J. (eds.) Reading in KnowledgeRepresentation. Morgan Kaufmann. San Mateo, CA (1985) 246-262.

[Molina,1993] Molina, M. :Desarrollo de Aplicaciones a Nivel Cognitivomediante entornos de Conocimiento Estructurado. Tesis Doctoral.Facultad de Informática. Universidad Politécnica de Madrid.Madrid. (1993)

[Musen,1989] Musen,M.A.: Automated Suport for Building and ExtendingExpert Models. Machine Learning 4, (1989) 347-375. Reimpresoen Buchanan,B.G. y Wilkins,D.C. (eds.) Reading in Knowledgeacquisition and learning. Morgan Kaufmann. San Mateo. CA.(1993) 282-296.

[Nadel,1988] Nadel,B.A. : The search and arc consistency in constraintsatisfaction algorithms. En Kanal, L.; y Kumar,V. (eds.) Searchin Artificial Intelligence. Springer-Verlag (1988).

[Nakakuki,1992] Nakakuki, Y., Koseki, Y., y Tanaka, M.: Adaptative Model-Based Diagnostic Mechanism Using Hierarchical Model Scheme.Prooceedings AAAI’92 (1992) 564-569.

[Newell, 1963] Newell, A., Simon, H.: GPS: A Program that Simulate HumanThought. en Feighenbaun y Feldman (eds.) Computers andThought. MacGraw-Hill, New York (1963).

[Newell,1982] Newell,A.: The knowledge level, Artificial Intelligence 18,(1982).

[Newell,1993] Newell,A.: Reflections on the knowledge level. ArtificialIntelligence 59, (1993) 31-38

[Ng,1990] Ng, H.T.: Model-based multiple fault diagnosis of time-varyingcontinuous physical devices. Proceedings 6th IEEE Conferenceon AI Applications. Santa Barbara. California (1990) 9-15.Reimpreso en Hamscher,W, Console,L. y deKleer,J. (eds.):Model-Based diagnosis. Morgan Kauffman Publisher, Los Altos,California, (1992) 242-248.

[Nooteboom, 1993] Nooteboom,P. y Leemeijer,G.B.: Focusing based on thestructure of a model in model-based diagnosis. InternationalJournal of Man-Machine Studies 38, (1993) 455-474.

[OMM,1984] Organización Meteorológica Mundial : Guía de PrácticasHidrológicas. Volumen I: Adquisición y Proceso de Datos.OMM-168. Secretaría de la Organización Meteorológica Mundial.Ginebra. Suiza (1984).

[OMM,1986] Organización Meteorológica Mundial : Guía de PrácticasHidrológicas. Volumen II: Análisis, Predicciones y OtrasAplicaicones OMM-186. Secretaría de la OrganizaciónMeteorológica Mundial. Ginebra. Suiza (1986).

Page 296: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Bibliografía___________________________________________________________________________

282

[OMM,1988] Organización Meteorológica Mundial : Reglamento Técnico.Volumen III: Hidrología. OMM-49. Secretaría de la OrganizaciónMeteorológica Mundial. Ginebra. Suiza (1988).

[Pearl,1988] Pearl, J. : Probabilistic Reasoning in Expert Systems. MorganKauffmann, San Mateo, (1988).

[Peng,1990] Peng, Y. y Reggia, J.A. : Abductive Inference Models forDiagnostic Problem-Solving. Springer Verlag. New York.(1990)

[Perez de la Cruz,1994] Perez de la Cruz, J.L. : Informe Tecnico. Dpto. Lenguajes yCiencias de la Computación. Universidad de Málaga, (1994).

[Pople,1977] Pople, H. : The formation of composite hypotheses in diagnosticproblem solving - An exercise in synthetic reasoning. ProceedingIJCAI’77. (1987) 1030-1037.

[Polenta,1988] Polenta,H.P., Ray,A. y Bernard,J.A.: Microcomputer-BasedFault Detection Using Redundant Sensors. IEEE Transactions onIndustry Applications 24:5 (1988) 905-912.

[Puerta,1993] Puerta, A.R.,Tu,S.W., Musen,M.A. : Modeling task withmechanisms. International Journal of Intelligent Systems 8(1993).

[Quilian,1967] Quilian, M.R. : Word Concepts: A theory and Simulation ofSome Basic Semantic Capabilities. Behavioral Science 12, (1967)410-430. Reimpreso en Brachman, R.J. y Levesque, H.J. (eds.)Reading in Knowledge Representation. Morgan Kaufmann. SanMateo, CA (1985)

[Raiman, 1989] Raiman, O. : Diagnosis as a trial: The alibi principle. IBMScientific Center (1989). Reimpreso en Hamscher,W,Console,L. y deKleer,J. (eds.): Model-Based diagnosis. MorganKauffman Publisher, Los Altos, California, (1992) 66-70.

[Ray,1986] Ray,A. y Desai, M. : A Redundancy Management Procedure forFault Detection and Isolation. Journal of Dynamic Systems,Measuremet, and Control 108 (1986) 248-254.

[Richards,1992] Richards,B.L.,Kuipers,B.J., Kraun,I. : Automatic Abduction ofQualitative Models. Proceedings AAAI’92. (1992) 723-728.

[Reggia,1983] Reggia, J.A., Nau, D.S., y Wang, P.Y. : Diagnostic expertsystems based on a set covering model. International Journal ofMan Machine Studies 19, (1983) 437-460. Reimpreso enCoombs, M.J. (ed.) Development in expert systems AccademicPress. London. (1984) 35-58

[Reiter,1987] Reiter, R. : A Theory of Diagnosis from First Principles. ArtificialIntelligence 32 (1987) 57-95. Reimpreso en Ginsberg, M.L.(ed.): Readings in Nonmonotonic Reasoning, Morgan KauffmanPublisher, Los Altos, California, (1987) 352-371.

[Remenieras,1971] Remenieras, G. : Tratado de Hidrología Aplicada. EditoresTécnicos Asociados. Barcelona (1971).

Page 297: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Bibliografía___________________________________________________________________________

283

[Selman,1990] Selman,B. y Levesque, H.: Abductive and Default Reasoning: AComputational Core. En Prooceedings AAAI’90. Boston. MA(1990) 343-348

[Shortliffe, 1976] Shortliffe, E.H. Computer based medical consultation: MYCIN.Elsevier, Nueva York, (1976)

[Shum,1988] Shum, S. K.; Davis, J. F.; Punch, W. F. III; Chandrasekaran,B.: Expert Systems approach to malfunction diagnosis in chemicalplants. Computers & Chemical Engineering 12:1 (1988) 27-36

[Smith,1988] Smith,B.M.: Forward Checking, The ATMS and SearchReduction. En Reason Maintenance Systems and theirApplication. Smith, B., Kelleher,G. (eds. ) Ellis Horwood,(1988)

[Steels,1986] Steels, L. y van de Velde, W. : Learning in second generationexpert systems. En Kowalik, J.S. (ed.) Knowledge BasedProblem Solving. Prentice-Hall. New Jersey. (1986)

[Steels, 1992] Steels, L.: Reusability and configuration of applications by non-programers. En Workshop AIFIPP’92, Madrid (1992).

[Tou, 1974] Tou,J.T.; Gonzalez,R.C.: Pattern Recognition Principles.Addisson-Wesley. London (1974).

[Upadhyaya,1985] Upadhyaya, B.R. : Sensors failure detection and estimation.Nuclear Safety 26:1, (1985) 32-43.

[Velasco,1995] Velasco, E.; Sierra, J. : El SAIH en la gestión hídrica de lascuencas internas de Cataluña. EnJornadas sobre el SAIH en laGestión Hídrica. Zaragoza (1995) 207-216.

[Watts,1993] Wats, P.J. y Knight, B. : A knowledge-based system for thequality control of telemetry data in water distribution networks.En Topping, B.H.V. (ed.): Knowledge Based Systems for Civiland Structural Engineering. Civil-Comp Press. Edimburgh,(1993) 135-143.

[Weiss,1978] Weiss, S.M., Kulikowski, C.A., Amarel, S., y Safir, A. : Amodel-based method for computer aided medical decision-meking. Artificial Inteligence 11, (1978) 145-172.

[Widman, 1989] Widman,L., Loparo, K. : Artificial Intelligence, Simulation andModeling: A Critical Survey. En Widman,L. Loparo, K. yNielsen,N (eds.) Artificial Inteligence, Simulation & modeling.John Wiley & sons, New York (1989) 1-44.

[Wielinga,1992] Wielinga, B.J., Schreiber, A.T., y Breuker, J.A. : KADS: amodeling approach to knowledge engineering. KnowledgeAdquisition 4, (1992). Reimpreso en Buchanan, B.G. y Wilkins,D.C. (eds.) Readings in Knowledge Adquisition and Learning.Morgan Kauffman. San Mateo. CA (1993) 92-116.

[William,1986] William,B.C: Doing Time: Putting Qualitative Reasoning onFirmer Ground. Proceedings AAAI’86 (1986) 105-112.

Page 298: SISTEMAS BASADOS EN EL CONOCIMIENTO APLICADOS A LA ... experimental (que se esta desarrollado actualmente en el departamento de Inteligencia Artificial de la U.P.M.) para la estructuración

Bibliografía___________________________________________________________________________

284

[Wu,1990] Wu, T.D. : Efficient diagnosis of multiple disorders based onsymptom clustering approach. Proceedings Eighth NationalConference on Artificial Intelligence (1990) 357-364.

[Wu,1991] Wu, T.D. : Domain Structure and the Complexity of DiagnosticProblem Solving. Proceedings AAAI’91. Anaheim, CA (1991)855-861.