Tesis doctorales defendidas en el año 2018:
8 de Febrero de 2018
- Autor: Pérez Álvarez, José Miguel.
- Titulo: “Decision-making support for the alignment of business-process-driven organization with strategic plans”
- Departamento: Lenguajes y Sistemas Informáticos.
- Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1571145
- Directores: María Teresa Gómez López.
- Sinopsis:
Los planes de negocio son documentos en los que los equipos ejecutivos de las organizaciones (BETs, por sus siglas en inglés), especifican todos y cada uno de los aspectos de la organización. Dos componentes muy importantes de los planes de negocio son el plan de operaciones y el plan estratégico. El plan de operaciones recoge, tanto las actividades/tareas que se pueden realizar en la organización, para proporcionar los productos o servicios que se ofrecen, cómo la forma en que se han de llevar a cabo estas actividades/tareas; El plan estratégico especifica la dirección y los objetivos de la organización, elabora objetivos e identifica estrategias para alcanzar éstos objetivos.
Las organizaciones siguen la dirección establecida sus planes estratégicos, pero debido a diversos factores, a menudo esto, mantener la dirección establecida es difícil. Uno de estos factores es la influencia de las personas, las cuales toman decisiones, en ocasiones basadas en su conocimiento local de la organización, sus experiencias previas y/o su intuición, en lugar de hacerlo mediante un análisis cuantitativo de cómo sus decisiones pueden afectar a la organización, y por tanto cómo de alineadas están con la dirección establecida. Esto hace que, en ocasiones, las decisiones no estén alineadas con la dirección marcada por la organización, y que además que ni se tenga constancia de este hecho.
En esta tesis doctoral se proponen metodologías y mecanismos para ayudar a las personas, a tomar decisiones alineadas con la dirección establecida por la organización. La consultora Gartner considera que la capacidad de ayudar en el proceso de toma de decisión es crucial para los sistemas que respaldan las operaciones de la empresa (BPMSs, por sus siglas en inglés). Por esta razón, las metodologías y mecanismos propuestos en esta tesis, se integran dentro con los BPMSs, como sistemas de ayuda a la toma de decisiones (DSS, por sus siglas en inglés).
De un análisis sistemático de la literatura existente, se derivaron varias propuestas para la mejora de DSSs, y se identificaron tres tipos de decisiones que se toman en procesos de negocio, las cuales no están ampliamente respaldadas por los DSSs actuales: (1) decisiones que direccionan la instancia de proceso de negocio (BPI, por sus siglas en inglés); (2) decisiones sobre el valor de las variables de entrada; y (3) decisiones sobre qué proceso de negocio (BP, por sus siglas in inglés) ejecutar. En esta tesis se proponen tres DSSs, cada uno de ellos, alineado con uno de los tipos de decisión antes mencionados.
Los DSSs para el direccionamiento de BPIs constituyen uno de los campos de estudio más conocidos en el contexto de la toma de decisiones en BPs, sin embargo, las propuestas encontradas en la literatura, no permiten considerar el contexto en el que se está ejecutando la BPI, es decir, estas propuestas solo consideran la información relacionada con BPI en ejecución (es decir, sólo tienen en cuenta información local) y no consideran el estado global de la organización. El DSS, para direccionar BPIs presentado en esta tesis, propone un lenguaje que permite definir variables, la cuales representan el estado global de la organización, y además mecanismos para utilizar éstas variables en las decisiones de direccionamiento de la BPI. Gracias a esto, las decisiones se pueden tomar de manera global a la organización.
Otro tipo de decisiones que se toman en BP está relacionado con elegir valores de entrada de los BP (por ejemplo, la cantidad a invertir o la cantidad de empleados que se asignan a una tarea). La elección de valores de entrada en BP puede influir directamente en que la empresa consiga los objetivos marcados, o no. Para determinar los valores más adecuados para las variables de entrada de los BP, se deben analizar tanto las instancias pasadas, como los modelos de procesos de negocio. En el DSS propuesto en esta tesis para decidir sobre los valores de entrada, la información extraída de instancias pasadas es utilizada utiliza para sugerir el rango de valores dentro del cual, el valor de la variable está alineado con los objetivos marcados por la organización. Dado que la información empleada para extraer el conocimiento de los BPI finalizados se almacena en bases de datos, también se propone una metodología para validar la alineación de los datos de estas instancias anteriores con el BP.
Los DSS descritos anteriormente están relacionados con las decisiones tomadas sobre BPI, es decir BP que se están ya ejecutando; sin embargo, la elección de qué BP se debe ejecutar, también constituye una decisión en sí misma. Esta decisión también puede afectar el estado de la organización y, por lo tanto, puede afectar el logro de los objetivos especificados en los planes estratégicos de la organización. Estas decisiones se conocen como decisiones de gobernanza, y también deben estar alineadas con los planes estratégicos. Con el fin de conseguir este alineamiento, en esta tesis se propone una metodología para modelar, tanto los BP, como la medida en que la ejecución de éstos afecta a los indicadores de la organización. Éste modelad lo hacen personas (expertos en negocios), por lo que en esta tesis también se proponen mecanismos para su validación respecto de la actividad de la organización en el pasado. El DSS propuesto para decisiones de gobernanza, se basa en la capacidad de simular estos modelos, para predecir el estado final de la organización en caso de ejecutar uno varios procesos de negocio, en un momento determinado.
Los DSSs y técnicas propuestas en esta tesis mejoran la capacidad de toma de decisiones en cuatro aspectos:
- Ayudan a los usuarios a tomar decisiones alineadas con la dirección marcada por la organización, en función del estado general de la empresa y de lo que sucedió en el pasado.
- Aseguran que las decisiones tomadas estén alineadas con los planes estratégicos, por lo que todas las personas involucradas en la organización toman decisiones de acuerdo con los objetivos definidos por la organización.
- Aprovechan la información de ejecuciones pasadas de BP de la empresa, para mejorar la organización.
- Aprovechan el conocimiento de las personas involucradas en la organización tienen del funcionamiento de la misma, al tiempo que permiten tomar decisión razonadas sobre por qué se toma realiza una acción u otra.
Por otro lado, estas técnicas están orientadas a: ser utilizadas por expertos del negocio, es decir, personas sin formación técnica; contribuir a una mejor comprensión de cómo las acciones realizadas en la organización pueden afectar el logro de los objetivos definidos; y a permitir que información del estado de la organización pueda ser utilizada por terceras aplicaciones.
Por último, destacar que las propuestas desarrolladas en el contexto de esta tesis y los ejemplos utilizados para ilustrarlas, han sido extraídas de casos de empresas reales.
6 de Abril de 2018
- Autor: Mora Merchán, Javier María.
- Titulo: “Análisis de cadenas derivadas de modelos desconocidos. Aplicación al análisis del cante flamenco ”
- Departamento: Tecnología Electrónica.
- Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1613265
- Directores: Carlos León de Mora y Joaquín Mora Roche (Codirector).
- Sinopsis:
Los sistemas derivados de modelos desconocidos son sistemas de transmisión de información sobre un canal ruidoso en los que no existe una trazabilidad en los mensajes ni mecanismos de realimentación con el emisor original de la misma. La presencia de estas limitaciones en el proceso de comunicación, conforma los mensajes recibidos como copias distorsionadas de los originales.
En la presente tesis, se presentan distintas herramientas que ayudan a caracterizar los modelos en los que se basan los mensajes registrados. Para ello sólo se impone la necesidad de que los mensajes puedan ser expresados en forma de cadena.
Las técnicas propuestas, basadas en tres enfoques complementarios, permiten posteriormente el procesado de la información generada en técnicas estándar de aprendizaje automático: desarrollo de una métrica que permite emplear técnicas de agrupación, construcción de un diccionario de descriptores que permite aplicar técnicas de lasificación y elaboración de un diccionario de subcadenas y agrupaciones de subcadenas que permite realizar técnicas de análisis semántico.
Además de exponer las herramientas de análisis, y dado que son de naturaleza general y, por tanto, abstracta, se han ensayado las mismas sobre un campo de aplicación concreto. Así, un resultado positivo en este campo pueda servir como validación de las herramientas presentadas. Para ello se ha trabajado en el análisis de las melodías de cantes flamencos.
Con objeto de poder validar adecuadamente las herramientas, se ha escogido un corpus de tonás que ya ha sido estudiado previamente en la literatura y se han reproducido la metodología empleada en los antecedentes. El resultado es significativamente mejor a los publicados. El resto de las herramientas ensayadas han mostrado resultados coherentes con el conocimiento existente sobre las tonás, lo que implica la validación de las herramientas que se presentan.
Un segundo corpus se ha escogido compuesto de fandangos de Huelva. La clasificación de los fandangos de Huelva se ha realizado históricamente por criterios geográficos, y en el presente trabajo se propone una clasificación original de los fandangos por criterios melódicos.
Por todo esto, la tesis abre nuevas líneas de investigación en el campo de la etnomusicología computacional convirtiendo a la presente en una pionera dentro del análisis del cante flamenco.
13 de Julio de 2018
- Autor: Gutiérrez Fernández, Antonio Manuel.
- Titulo: “Sla Management Of Non-Computational Services”
- Departamento: Lenguajes y Sistemas Informáticos.
- Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1719057
- Directores: Antonio Ruiz Cortés y Manuel Resinas Arias De Reyna (Tutor/Ponente).
- Sinopsis:
The rise of computational services in the last decade has promoted a number of tech- niques to automate and support their enactment. A crucial element in service engineering is the Service Level Agreement (SLA), which is used as a mechanism to define guaran- tees on the performance levels of the service provided. Furthermore, it usually specifies penalties or rewards in case the service levels are not achieved or overachieved, respec- tively. In the context of SLAs, the proposals from computational domains are mainly oriented to automate different tasks in their Lifecycle, such as the negotiation of terms which will form the SLA, the enactment of services based on the SLA terms or the man- agement of computational resources to accomplish SLA goals at runtime.
However, non-computational services, that is, services which are mainly based on business processes and are not performed by computational resources alone, such as logistics or software development services, are still supported by ad-hoc mechanisms. Therefore, the existing solutions for the management of their SLAs cannot be reused for other services. Moreover, this management is usually manually performed (e.g.: review- ing of the goals of an SLA in transport service), so their evaluation is error-prone and de- layed regarding the service execution (e.g.: it is performed when the SLA is finished), so preemptive actions to avoid SLA violations cannot be taken or are expensive to perform. Furthermore, in non-computational services, new SLA validation challenges appear as these SLAs are sometimes described in the context of a more general frame agreement that predefines several aspects of the SLA. This is common in logistics scenarios where a frame agreement with general conditions about transports is defined for a certain period of time and specific SLAs within the context of the frame agreement are created for each transport.
This dissertation is aimed at partially automating this management of SLAs in non- computational services based on the hypothesis that existing SLA models for computa- tional services can be extended to non computational services and enable the description of the service operative and their guarantees. The contributions of this dissertation are three. First, providing a model to describe Service Level Agreements of non computational services, as an extension of iAgree, an existing model for SLAs of computational services. Second, providing a design for oper- ations to partially automate the SLA lifecycle. And, lastly, providing a model for frame and specific agreements which relates their terms and formalises the analysis operations among them.
The current dissertation has been based on real SLAs from different domains, such as Transport & Logistics, public Cloud providers or IT Maintenance outsourcing, which have been used to validate the proposal. Furthermore, the contributions have been ap- plied in the context of real IT Maintenance outsourcing projects.
10 de Diciembre de 2018
- Autor: Fernández Cerero, Damian.
- Titulo: “Energy and Performance-Aware Scheduling and Shut-Down Models for Efficient Cloud-Computing Data Centers”
- Departamento: Lenguajes y Sistemas Informáticos.
- Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1721142
- Directores: Juan Antonio Ortega Ramírez, Alejandro Fernández-Montes González (Codirector) y Juan Antonio Ortega Ramírez (Tutor/Ponente).
- Sinopsis:
This Doctoral Dissertation, presented as a set of research contributions, focuses on resource efficiency in data centers. This topic has been faced mainly through the development of several energy-efficiency, resource-managing and scheduling policies, as well as the simulation tools required to test them in realistic cloud-computing environments.
Several models have been implemented in order to minimize energy consumption in Cloud-Computing environments. Among them: a) Fifteen probabilistic and deterministic energy policies which shut-down idle machines; b) Five energy-aware scheduling algorithms, including several genetic algorithm models; c) A Stackelberg game-based strategy which models the concurrency between opposite requirements of Cloud-Computing systems in order to dynamically apply the optimal scheduling algorithms and energy-efficiency policies depending on the environment; and d) A productive analysis on the resource efficiency of several realistic cloud-computing environments.
A novel simulation tool called SCORE, able to simulate several data-center sizes, machine heterogeneity, security levels, workload composition and patterns, scheduling strategies and energy-efficiency strategies, was developed in order to test such strategies in large-scale cloud-computing clusters. As results, more than fifty Key Performance Indicators (KPI) show that more than 20% of energy consumption can be reduced in realistic high-utilization environments when proper policies are employed.
30 de Noviembre de 2018
- Autor: Estrada Torres, Irene Bedilia.
- Titulo: “Enhancing the Modelling Perspective of Process Performance Management”
- Departamento: Lenguajes y Sistemas Informáticos.
- Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1719054
- Directores: Adela del Río Ortega, Manuel Resinas Arias de Reyna y Antonio Ruiz Cortés (Tutor/Ponente).
- Sinopsis:
Process Performance Management, which comprises the stages of planning, monitoring and controlling of business process performance, is considered an essential part of business process management and provides a detailed understanding of how business processes can be designed and redesigned to improve their performance. The performance of business processes is usually measured by means of process performance indicators (PPIs), that are evaluated and monitored with the aim of identifying whether strategic and operational goals are being achieved. The same as business processes, and actually together with them, these PPIs must be defined and modelled, so in this dissertation, we focus on their Modelling Perspective.
Most proposals related to the performance measurement of business processes have focused on measuring the performance of structured, repetitive and highly defined business processes. Changes and new requirements of businesses have given rise to new needs in the management of business processes, requiring more flexibility for instance, to manage collections of business process alternatives and knowledge-intensive and highly dynamic processes. However, current techniques of process performance management have not evolved at the same pace as business processes. Existing proposals cannot be used “as is” in scenarios with business processes that require more flexibility because those processes have different nature. For example, those proposals are not able to define PPIs on collections of business processes or to define PPIs taking into account process elements that are not usually present in traditional processes, such as decisions, interactions or collaborations between participants. This generates a gap between business processes and the measurement of their performance.
In order to face this challenge, this dissertation seeks to extend the current boundaries of process performance measurement. To do so, we based on existing and wellfounded techniques, mainly applicable to structured business processes whose behaviour is mostly known a priory, and extend them to cope with the new identified requirements. Specifically, we propose a set of artefacts that focus on the definition and modelling perspective of performance measures and indicators.
We validated the proposals presented through different scenarios and case studies: by analysing the processes and performance measures of the Supply Chain Operations Reference (SCOR) model, using measures and indicators provided by the Andalusian Health Service (Spain) and by means of a case study in an information and communication technology outsourcing company in Brazil.
Our proposal allows us to: reuse total or partial PPI definitions in different PPIs or business processes; define PPIs in a collection of business processes (process family) taking into account the variability of processes and PPIs themselves; define PPIs over Knowledge-intensive Processes; use a methodology to guide participants in the implementation of PPIs in accordance to business goals; analyse the impact of decisions related to business processes on PPIs; define decision performance indicators (DPIs) to measure the performance of decisions related to business processes; and use process performance information in the definition of decisions.
3 de Diciembre de 2018
- Autor: Domínguez Morales, Juan Pedro.
- Titulo: “Neuromorphic Audio Processing Through Real-Time Embedded Spiking Neural Networks”
- Departamento: Arquitectura y Tecnología de Computadores.
- Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1712415
- Directores: Angel Francisco Jiménez Fernández, Manuel Jesús Domínguez Morales (Codirector) y Saturnino Vicente Díaz (Tutor/Ponente).
- Sinopsis:
Neuromorphic engineering is a discipline that studies, designs and implements hardware and software with the aim of mimicking the way in which nervous systems work, focusing its main inspiration on how the brain solves complex problems easily. Audio processing and speech recognition have become important tasks to improve the human-machine interface. Taking into account the limitations of current automatic speech recognition systems, like non-real time cloud-based solutions or power demand, recent interest for neural networks and bio-inspired systems has motivated the implementation of new techniques. Among them, a combination of spiking neural networks and neuromorphic auditory sensors offer an alternative to carry out the human-like speech processing task.
In this work, novel speech recognition and audio processing systems based on a spiking artificial cochlea and neural networks are proposed and implemented, including a software tool for post-processing the information obtained from spiking cochleae, a hardware implementation of an audio samples classifier using spiking neural networks, a Deep Learning-based system for the recognition of heart murmurs that improves current state-of-the-art solutions, and a real-time speech recognition approach for voice commands classification using Deep Learning mechanisms and spiking convolutional neural networks implemented in hardware.
The performance and efficiency of these systems have been evaluated, obtaining conclusions and proposing improvements for future works.
5 de Febrero de 2018
- Autor: Cabrera Mendieta, Diego Roman.
- Titulo: “Modelado de Sistemas Dinámicos con Machine Learning: Aplicaciones al mantenimiento basado en la condición.”.
- Departamento: Ciencias de la Computación e Inteligencia Artificial.
- Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1567899
- Directores: Fernando Sancho Caparrini.
- Sinopsis:
El estudio de los sistemas dinámicos es un tema de gran interés tanto en la ingeniería como en las ciencias por su gran aplicabilidad a la resolución de problemas que, con frecuencia, aparecen en un sin número de áreas. Sin embargo los métodos formales hasta ahora utilizados para su análisis, no han tenido la flexibilidad suficiente para adaptarse a sistemas de complejidad creciente, donde la interacción de sus elementos no permite una inferencia directa del comportamiento del sistema, en una, o varias de sus variables. Por otro lado, los nuevos avances en las técnicas de Machine Learning han demostrado tener una gran capacidad de adaptación en dominios tan diversos resultando en la necesidad de cambios minoritarios para su aplicación entre uno u otro. A pesar de esto, su estudio en el modelado de sistemas dinámicos, como tarea fundamental, ha sido pocas veces abordado.
Por las razones anteriores, este trabajo se enfoca en el desarrollo de 3 metodologías para modelado de sistemas dinámicos desde la perspectiva del Machine Learning a partir de información incompleta de sus variables representadas como series temporales de alta complejidad. Las propuestas son presentadas en función de los diferentes escenarios de información disponible para el modelado, que pudieran llegar a aparecer en situaciones reales. Como primera metodología se propone el modelamiento del sistema dinámico con un enfoque manual de caracterización de estados usando el conocimiento a-priori del sistema mediante la descomposición por Wavelet Packet y la posterior identificación de patrones mediante una técnica clásica de clasificación llamada Random Forest. Como segunda propuesta se presenta el aprendizaje no-supervisado del proceso de caracterización que se adapta de forma automática al sistema dinámico en estudio mediante el modelo Stacked Convolucional Autoencoder, el cual inicializa una Red Neuronal Convolucional Profunda que luego es optimizada de forma supervisada, donde además el proceso de identificación de patrones se encuentra embebido, y es optimizado junto con el modelo de extracción de características. La tercera propuesta en cambio cumple la tarea de caracterización e identificación de patrones de forma no-supervisada, lo primero mediante el aprendizaje de una representación óptima de las series temporales codificada en los parámetros de un Echo State Network, y lo segundo por medio de un Variational Autoencoder, un modelo capaz de aproximar la distribución de probabilidad (a menudo compleja) de los datos. En esta última aproximación se elimina la necesidad de conocer la etiqueta de las series de tiempo que provienen de los estados del sistema dinámico.
Las metodologías propuestas son evaluadas en tareas de mantenimiento basado en la condición como son el diagnóstico de fallos, la estimación de la severidad de daño y la detección de fallos en elementos de maquinaria rotativa (concretamente distintos tipos de engranajes y rodamientos). Los altos indices de exactitud obtenidos en los resultados de la evaluación en cada tarea, muestran que las metodologías aportadas dan un nivel elevado de confiabilidad, robustez y flexibilidad. Además, frente a comparaciones realizadas con otras metodologías reportadas en el estado del arte, las propuestas presentan un desempeño superior en todos los casos.
12 de Septiembre de 2018
- Autor: Álvarez de la Concepción, Miguel Angel.
- Titulo: “Desarrollo y Versatilidad del Algoritmo de Discretización Ameva”
- Departamento: Lenguajes y Sistemas Informáticos.
- Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1675902
- Directores: Juan Antonio Álvarez García, Luis Miguel Soria Morillo y Juan Antonio Ortega Ramírez (Tutor/Ponente).
- Sinopsis:
This thesis, presented as a set of research papers, studies the problem of activity recognition and fall detection in mobile systems where the battery draining and the accuracy are the main areas of researching. These problems are tackled through the establishment of a new selection, discretization and classification algorithm based on the core of the algorithm Ameva. Thanks to the discretization process, it allows to get an efficient system in terms of energy and accuracy.
The new activity recognition algorithm has been designed to be run in mobile systems, smartphones, where the energy consumption is the most important feature to take into account. Also, the algorithm had to be efficient in terms of accuracy giving an output in real time. These features were tested both in a wide range of mobile devices by applying usage data from recognized databases and in some real scenarios like the EvAAL competition where non-related people carried a smart-phone with the developed system. In general, it had therefore been possible to achieve a trade-off between accuracy and energy consumption.
The developed algorithm was presented in the Activity Recognition track of the competition EvAAL (Evaluation of Ambient Assisted Living Systems through Competitive Benchmarking), which has as main objective the measurement of hardware and software performance. The system was capable of detecting some activities through the established set of benchmarks and evaluation metrics. It has been developed for multi-class datasets and obtains a good accuracy when there is approximately the same number of examples for each class during the training phase. The solution achieved the first award in 2012 competition and the third award in 2013 edition.