Tesis 2020

Tesis doctorales defendidas en el año 2020:

20 de julio de 2020

  • Autora: Cruz Risco, Mª Margarita
  • Titulo: Una Propuesta para Reportar Replicaciones de Experimentos en Ingeniería del Software.
  • Directores: Dra. Beatriz Bernárdez Jiménez y Dr. Amador Durán Toro
  • Sinopsis: En esta memoria, se presenta el trabajo de investigación llevado a cabo para aumentar el beneficio que se obtiene mediante la replicación de experimentos, desarrollando una propuesta que facilite la especificación sistemática de los cambios de las replicaciones y su documentación de forma homogénea.

    La importancia de especificar bien los cambios en las replicaciones viene dada por un doble motivo; por un lado, por el propio autor de la replicación; para tener una guía de cómo reportarla. Parte de los cambios que se propongan permitirán mitigar algunas limitaciones identificadas en el experimento base, o bien son consecuencia de adaptar el experimento al nuevo entorno y es necesario analizar su influencia en la validez del experimento. Por otro lado, a un experimentador externo que realiza una replicación, le será de gran ayuda conocer cómo ha evolucionado un experimento original dentro de una familia, por qué se han realizado cambios y de qué tipo son. De este modo, se facilita el diseño de experimentos, sin repetir fallos ya identificados y adaptar el experimento al nuevo entorno con más éxito.

    Partiendo de la información identificada en la descripción del cambio, se ha propuesto un metamodelo visualizado mediante una plantilla que presenta los datos de forma fija y sirve de guía para evitar que falte información relevante. La plantilla se completa con patrones lingüísticos que facilitan la redacción de los cambios. Basada en la plantilla propuesta, se presenta la herramienta CÆSAR que permite a los experimentadores la definición de los cambios, que pasan a formar parte del repositorio de información, proporcionando una visión global de la familia de experimentos.

    Para validar la plantilla, se ha instanciado mediante un estudio de caso múltiple que abarca las áreas de Ingeniería del Software, Ciencias y Experimentos automáticos. La utilización comparativa de la plantilla nos ha permitido establecer diferencias entre las áreas debidas, a la distinta terminología y conceptos utilizados al llevar a cabo un experimento.

  • Departamento: Lenguajes y Sistemas Informáticos
  • idUS: https://idus.us.es/handle/11441/100101

17 de junio de 2020

  • Autora: Cardenas Cobo, Jessenia
  • Titulo: Enhancing the Learning of Programming using Scratch.
  • Directores: David Benavides Cuevas y José Ángel Galindo Duarte
  • Sinopsis: The Ecuadorian State makes a high investment in the training of engineering career professionals offered by public universities. In Ecuador, these careers are highly demanded. However, a high student dropout is verified because of basic courses such as Fundamentals of programming in the first levels, with the consequent deficiencies in the performance of the careers. Additionally, the low qualification of students in computer skills indicates that they have not developed their computational thinking skills.

    For this reason, a pedagogical tool was introduced in teaching that allowed motivating programming learning, reducing dropout and improving academic performance in introductory programming courses at the university level.

    We present empirical evidence of the positive impact of Scratch on the Fundamentals of Programming courses. The use of this pedagogical tool allowed students to develop the concepts of programming logic and the use of basic control structures. Students who used Scratch scored better, reduced the number of suspensions and dropouts, and students were encouraged to enjoy the subject. On the other hand, when developing the exercises with Scratch in combination with the CARAMBA recommendation system, students were motivated to autonomous learning.

    The use of CARAMBA showed a positive correlation with the chances of success in the course. Specifically, > 52% success, whose result is 8% higher than the use of Scratch alone (without recommendations) and 21% higher than traditional education (without Scratch).

  • Departamento: Lenguajes y Sistemas Informáticos
  • idUS: https://idus.us.es/handle/11441/98819

14 de febrero de 2020

  • Autor: Sánchez Durán, Rafael
  • Titulo: El futuro y la demanda energética.
  • Directores: Joaquín Luque Rodríguez, Julio Barbancho Concejero
  • Sinopsis: Tesis con mención industrial

    La investigación se centra en el estudio de la evolución de la demanda de energía y su visión futura de abastecimiento. Existen diferentes motivos para defender la necesidad de un estudio en profundidad sobre la demanda energética, la sociedad avanza con cada vez mayores necesidades de recursos energéticos que acompañan al crecimiento poblacional y económico, impulsando a las sociedades y en especial a aquellas en vías de desarrollo. El análisis parte en términos de sostenibilidad y compromiso para las generaciones futuras, sobre la necesidad de racionalizar el uso de aquellos elementos de carácter finito y la demanda de energía es, sin duda, uno de los mayores retos que tiene la humanidad, para frenar el calentamiento del planeta derivado del aumento de emisiones de CO2 a la atmosfera. En la medida que seamos capaces de asociar la relación de la demanda de energía con otros elementos como economía, la relación con el clima, o la intensidad energética de los diferentes usos finales (industria, servicios, residencial y agricultura), lograremos un mayor entendimiento y acierto a la hora de realizar escenarios y pronósticos de su comportamiento futuro. Siguiendo con esta aproximación el recorrido comienza con una primera relación entre la energía y las emisiones. Desde el estudio del ciclo del carbono, se analiza la relación de la quema de combustibles con las emisiones y la vinculación de las emisiones con el calentamiento global del planeta, presentado como el mayor reto de la humanidad y consecuencias impredecibles.

    Evitar las consecuencias de este calentamiento, será la principal meta a alcanzar por la transición energética, la sustitución de combustibles fósiles por fuentes renovables supondrá un delicado equilibrio ante la creciente de demanda de energía del planeta, que necesita cada vez más para su desarrollo. Se compara la formulación del método Laspeyres y LMDI, ofreciendo con ellos el análisis del periodo 1990 a 2015, diferenciando una primera etapa con un crecimiento económico constante frente al segundo vinculado a la crisis y su posterior recuperación. El análisis de la crisis financiera y su impacto sobre el consumo energético, es uno de los mayores dilemas, y objetos de debate respecto a la recuperación de los niveles de crecimiento previos, se ofrece una metodología para su discusión. A futuro será muy importante la relación de la energía con el clima, donde el conocimiento de las temperaturas, la irradiación procedente del sol, el viento o la pluviometría, son requisitos básicos a la hora de predecir el volumen de energía producible sobre la capacidad instalada en cada momento. De un 38% de generación eléctrica renovable en el año 2018 se evolucionará a un valor de al menos el doble para el año 2030 y la variabilidad climática incidirá en una volatilidad permanente de los recursos renovables. Las energías renovables, dependientes de comportamientos variables o estocásticos, pero que con adecuadas herramientas puedan llegar a ser predecibles. Se analizan y desarrollan las diferentes metodologías de predicción, como la tendencia lineal, medias móviles simples o ponderadas, alisados exponenciales simples y ajustados. Una vez presentadas las alternativas para la planificación, se realiza un ejercicio de simulación, desarrollando un escenario desde la oferta de energías renovables al horizonte de 2030. Mediante la utilización de modelos y herramientas matemáticas se evalúa un escenario base de la evolución del mix eléctrico peninsular, una vez situados en el cierre de tecnologías convencionales, basadas en carbón y nuclear.

    Se complementa la visión de la demanda final a 2030 y permite el modelado del logro de objetivos climáticos y energéticos. Nuestro país, al igual que en Europa, dispone de un ambicioso objetivo de evolución hacia renovables, esperando la neutralidad climática a mediados de siglo. Se está produciendo un cambio de tendencia hacia la energía limpia en todo el planeta, superando los 333 billones de € en el último año. Por último y con la finalidad de abordar una propuesta de tesis con carácter industrial se propone la puesta en marcha de un ambicioso modelo de ciudad descarbonizada y sin contaminación.

  • Departamento: Tecnología Electrónica
  • idUS: https://idus.us.es/handle/11441/102598

19 de noviembre de 2020

    • Autor:
    • Titulo: Un marco de trabajo para evaluar la seguridad en el contexto de Sistemas de Sistemas.
    • Directores: Domínguez Mayo, Francisco José y Escalona Cuaresma, María José
    • Sinopsis: Desde hace más de 20 años la ingeniería del software ha diseñado pautas para unificar los procedimientos y crear marcos comunes, como en el caso del desarrollo de sistemas de información en la ingeniería informática. Estas pautas incluyen principios, estrategias, procedimientos y metodologías que asisten en el desarrollo y mantenimiento de los sistemas software. El uso de las guías, metodologías y marcos de trabajo han evolucionado a la par que los sistemas.

      Este tipo de estrategias se han visto favorecidas por los avances en comunicación, que facilitan el control y la gestión los productos y servicios. Sin embargo, estas guías están generalmente orientadas a la gestión del ciclo de vida de un único sistema. El uso de estas guías en sistemas complejos, como los sistemas de sistemas, incorporan dificultades adicionales como la sincronización del progreso y de los recursos compartidos.

      En esta tesis se estudian los comportamientos emergentes como origen de las vulnerabilidades en un sistema de sistemas y se diseña un marco de trabajo común que permita garantizar la seguridad del SoS. Este trabajo de investigación viene motivado por la criticidad de la seguridad en este contexto. Está basado en estudios que analizan la seguridad según la composición de los SoS, y la repercusión que puede tener un análisis de las vulnerabilidades que se derivan de tal colaboración.

      El objetivo general de esta tesis es investigar un problema que no ha sido identificado previamente que emerge cuando los sistemas constituyentes llevan a cabo una tarea conjunta: garantizar seguridad de los datos y funcionalidades que son compartidas en los sistemas de sistemas. Este trabajo viene fundamentado en dos hipótesis principales:

      • Identificar los efectos de los comportamientos emergentes que pueden causar vulnerabilidades.
      • Proponer un marco de trabajo que permita evaluar y garantizar la seguridad de los sistemas de sistemas.

 

22 de diciembre de 2020

  • Autor: Roldán Salvador, Juan Carlos
  • Titulo: Enterprise Data Integration: On Extracting Data from HTML Tables.
  • Directores: Corchuelo Gil, Rafael. Jiménez Aguirre, Patricia.
  • Sinopsis: La Web es una vía universal de comunicación que contiene un volumen de datos extraordinario sobre una gran variedad de temas. En los últimos años se ha producido un rápido aumento de los productos y servicios que consumen gran cantidad de datos, lo que ha motivado la necesidad de encontrar formas de extraerlos automáticamente.

    Las tablas HTML son una fuente de datos actualizados que no se está integrando de forma automatizada a las principales bases de conocimiento. La extracción de tablas resulta compleja ya que existe una gran variedad de estructuras y formas de presentar y codificar los datos. Usar extractores de propósito general no es una solución al problema, dado que ignoran las particularidades del rico lenguaje que se usa para representar tablas. En esta tesis hemos estudiado el problema de extraer datos de tablas HTML sin supervisión. Al realizar un análisis exhaustivo de la literatura de extracción de tablas, hemos observado que ninguna de las propuestas disponibles resuelve el problema al completo. Esto nos ha motivado a desarrollar TOMATE, una propuesta de extracción de tablas que abarca todas las tareas involucradas, aunque pone el énfasis en la tarea crucial de identificar la función de las celdas. Nuestro análisis experimental ha demostrado que hemos dado un paso adelante en el estado del arte con varias propuestas que tienen por objeto ayudar a investigadores y profesionales del sector.

    Durante el desarrollo de esta tesis, hemos producido algunas contribuciones marginales, a saber: Aquila, una propuesta para sintetizar etiquetas de metadatos para ficheros HTML; Kizomba, un extractor general de datos de la Web; y Rómulo, una propuesta para clusterizar datos. Además, hemos colaborado internacionalmente en un proyecto start-up denominado Stargazr en el que tenemos como objetivo poner en práctica gran parte del conocimiento que hemos generado en esta tesis.

  • Departamento: Lenguajes y Sistemas Informáticos
  • idUS: https://idus.us.es/handle/11441/105486

13 de noviembre de 2020

  • Autor: Civit Masot, Javier
  • Titulo: A Contribution to Deep Learning based Medical Image Diagnosis Aids.
  • Directores: Saturnino Vicente Díaz y Manuel Jesús Domínguez Morales
  • Sinopsis: En este trabajo se realiza un estudio intensivo acerca del uso de técnicas de Deep Learning como apoyo a los profesionales sanitarios para el reconocimiento de patologías mediante imágenes médicas.

    La mayor parte de la investigación está focalizada en la detección de glaucoma en base a imágenes del fondo del ojo; sin embargo, con el fin de demostrar la viabilidad de los sistemas de procesamiento implementados en este trabajo, se hace uso de otro tipo de imágenes (en este caso, imágenes de rayos X) para detectar otra patología completamente diferente, como es la detección de pacientes con COVID-19. Así pues, en este trabajo se estudian las técnicas clásicas de detección de dichas patologías, se realiza un estudio en profundidad de las técnicas basadas de Deep Learning, se implementan diversos modelos de tratamiento con etapas concretas de pre-procesamiento adaptadas al problema en cuestión y, finalmente, se aplican sobre amplias bases de datos para demostrar la viabilidad de los sistemas creados.

    Los resultados obtenidos demuestran que las técnicas basadas en Deep Learning puede ser utilizadas como ayuda al diagnóstico de aquellas enfermedades que precisen analizar imágenes médicas. De esta forma, se reduce notablemente la carga de trabajo humana que se necesita para estos análisis.

  • Departamento: Arquitectura y Tecnología de Computadores
  • idUS: https://idus.us.es/handle/11441/104769

13 de noviembre de 2020

  • Autor: Luna Perejón, Francisco
  • Titulo: Estudio e integración en sistemas empotrados de algoritmos de Aprendizaje Supervisado basados en Redes Neuronales Artificiales para el análisis de perturbaciones y eventos asociados a la marcha.
  • Directores: Civit Balcells, Antón Domínguez Morales, Manuel Jesús
  • Sinopsis: En este trabajo se contribuye al avance en el análisis de aspectos asociados a la marcha para la identificación de anomalías en la misma y de eventos de peligro, mediante el uso de algoritmos de Aprendizaje Supervisado basados en Redes Neuronales Artificiales.

    Se pretende estudiar la viabilidad de integración de estos algoritmos complejos en sistemas empotrados con recursos limitados y que puedan ejecutarse en tiempo real, posibilitando la creación de dispositivos de monitorización portátiles con una autonomía adecuada a su propósito. Se han realizado una serie de estudios que contribuyen en soluciones para dos problemas particulares del ámbito. Por una parte, la precisión y rendimiento de Redes Neuronales Feedforward para el análisis biomecánico de la pisada del usuario. Por otra parte, la efectividad de Redes Neuronales Recurrentes con Compuertas para la detección de actividades de vida diaria, caídas y eventos de riesgo durante la marcha del individuo.

    Los resultados obtenidos abren la posibilidad de nuevas vías de investigación. Se exponen propuestas de mejora que quedarán indicadas como trabajos futuros, y cuya finalidad es la creación de un sistema integrado de análisis de la marcha.

  • Departamento: Arquitectura y Tecnología de Computadores
  • idUS: https://idus.us.es/handle/11441/104755

22 de octubre de 2020

  • Autor: Ayala Hernández, Daniel
  • Titulo: On Data Engineering and Knowledge Graphs -A holistic, smarter approach to data enrichment.
  • Directores: David Ruiz Cortés, Inmaculada Hernández Salmerón
  • Sinopsis: La tesis realizada ha consistido en el desarrollo de métodos y herramientas para el enriquecimiento de grafos de conocimiento mediante integración de datos y completado de relaciones. Dichos métodos y herramientas hacen uso de técnicas de ingeniería de datos y aprendizaje supervisado.

    En lo referente a la integración de información, se han abordado los problemas específicos de “semantic labelling” (asignación de etiquetas a elementos de información estructurada) y “property matching” (identificación de propiedades relacionadas en fuentes de datos diferentes).

    En ambos casos, las contribuciones estuvieron basadas en el uso de características novedosas al entrenar clasificadores:

    • TAPON (nuestra propuesta de semantic labelling) etiqueta de forma iterativa para calcular características adicionales usando las etiquetas preliminares.
    • LEAPME (nuestra propuesta de property matching) usa características relacionadas con las instancias de las propiedades y embeddings de palabras precalculados.

    En lo referente al completado de relaciones en grafos, se ha desarrollado AYNEC, una suite de herramientas que busca establecer estándares y buenas prácticas en la evaluación de técnicas de completado, incluyendo tanto la generación de datasets como el cálculo de métricas.

  • Departamento: Lenguajes y Sistemas Informáticos
  • idUS: https://idus.us.es/handle/11441/103713

Tesis 2019

Tesis doctorales defendidas en el año 2019:

19 de Septiembre de 2019

  • Autor: Yañez Gómez, Rosa María.
  • Titulo: “Evaluacion Heuristica de la Usabilidad en Contextos Especificos”
  • Departamento: Arquitectura y Tecnología de Computadores.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1782282
  • Directores: José Luis Sevillano Ramos y Daniel Cascado Cabellero.
  • Sinopsis:

    La atención a la usabilidad de los sistemas de información, como requisito no funcional, es especialmente relevante al tratarse de un factor crítico que determina buena parte del volumen de desarrollos correctivos que van a necesitar los productos en su fase de mantenimiento y el grado de aceptación del usuario hacia dicho sistema, producto o programa. Para evaluar el grado de usabilidad de las interfaces y detectar precozmente el mayor número de problemas se diseñan planes de evaluación que seleccionarán y combinarán distintas herramientas teniendo en cuenta las características de la interfaz, los objetivos prioritarios de la evaluación y la fase de desarrollo del producto o prototipo objeto del análisis; así como cualesquiera otras circunstancias o condicionantes, sea el coste o el tiempo, la formación del personal, etc.

    La Evaluación Heurística es una herramienta de evaluación de la usabilidad basada en la intervención de expertos. Consiste en la comprobación de los elementos de una lista de heurísticas que, por su naturaleza, no pueden comprobarse automáticamente y requieren del criterio de un experto. Supone un método de bajo coste y buen rendimiento de detección de fallos que se adapta a distintos productos y objetivos, a las características de las distintas fases de desarrollo y, en definitiva, a muy distintos planes de evaluación.

    En la literatura coexisten distintas propuestas de listas heurísticas de carácter general que, en dominios específicos, deben adaptarse a las características del contexto para maximizar su eficacia. Un ejemplo es la heurística propuesta en esta Tesis, adaptada a la interacción con interfaces móviles. Estas listas adaptadas también se han multiplicado en la literatura atendiendo a distintos aspectos de los planes de evaluación. De este modo el volumen de propuestas a disposición de los evaluadores, para su selección y potencial combinación, resulta bastante inmanejable.

    Tomando un contexto tan específico como los videojuegos —juegos a partir de ahora— , sin embargo, una revisión sistemática de la literatura permite observar que la lista generalista de Nielsen sigue siendo la más usada, incluso cuando resulta insuficiente a la hora de abarcar las características específicas y novedosas de este dominio de aplicación.

    Partiendo de las hipótesis de que el gran número de propuestas, con distintas características y objetivos, supone un obstáculo a la hora de que los evaluadores puedan seleccionar la más ajustada a su caso y de que incluso una selección ajustada desaprovecharía potenciales ventajas de otras propuestas, se ha desarrollado una herramienta denominada MUSE (Meta-heUristics uSability Evaluation tool) que es capaz de generar una lista heurística personalizada para un plan de evaluación específico tomando como base las distintas propuestas de la bibliografía y automatizando al máximo su selección y filtrado.

    Una evaluación preliminar de la herramienta aventura resultados prometedores en cuanto a su capacidad de mejorar la detección de vulneraciones de la usabilidad frente al uso de herramientas genéricas en el caso del contexto específico de los juegos y, particularmente, cuando los evaluadores involucrados no son expertos.

25 de Diciembre de 2019

  • Autor: Tapiador Morales, Ricardo.
  • Titulo: “Neuromorphic deep convolutional neural network learning systems for fpga in real time”
  • Departamento: Arquitectura y Tecnología de Computadores.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1798119
  • Directores: Gabriel Jiménez Moreno, Alejandro Linares Barranco (Codirector) y Ángel Francisco Jiménez Fernández (Codirector).
  • Sinopsis:

    Deep Learning algorithms have become one of the best approaches for pattern recognition in several fields, including computer vision, speech recognition, natural language processing, and audio recognition, among others. In image vision, convolutional neural networks stand out, due to their relatively simple supervised training and their efficiency extracting features from a scene. Nowadays, there exist several implementations of convolutional neural networks accelerators that manage to perform these networks in real time. However, the number of operations and power consumption of these implementations can be reduced using a different processing paradigm as neuromorphic engineering. Neuromorphic engineering field studies the behavior of biological and inner systems of the human neural processing with the purpose of design analog, digital or mixed-signal systems to solve problems inspired in how human brain performs complex tasks, replicating the behavior and properties of biological neurons. Neuromorphic engineering tries to give an answer to how our brain is capable to learn and perform complex tasks with high efficiency under the paradigm of spike-based computation.

    This thesis explores both frame-based and spike-based processing paradigms for the development of hardware architectures for visual pattern recognition based on convolutional neural networks. In this work, two FPGA implementations of convolutional neural networks accelerator architectures for frame-based using OpenCL and SoC technologies are presented. Followed by a novel neuromorphic convolution processor for spike-based processing paradigm, which implements the same behaviour of leaky integrate-and-fire neuron model. Furthermore, it reads the data in rows being able to perform multiple layers in the same chip. Finally, a novel FPGA implementation of Hierarchy of Time Surfaces algorithm and a new memory model for spike-based systems are proposed.

4 de Diciembre de 2019

  • Autor: Rodas Silva, Jorge Luis.
  • Titulo: “On the selection and analysis of software product line implementation components using intelligent techniques”
  • Departamento: Lenguajes y Sistemas Informáticos.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1822182
  • Directores: David Benavides Cuevas y José Ángel Galindo Duarte.
  • Sinopsis:

    In recent years and with the growing technological advancement, companies no longer focus exclusively on producing a product for a customer (e.g. producing a website for the Decameron Hotel), but on producing for a domain (e.g. the production of websites for hotels); that is, producing products that can be easily adapted to the different changes and suit the individual tastes of customers.

    In software engineering, this can be achieved through software product lines (SPL). An SPL is defined as a set of systems that share a common set of features that meet the demand of a specific market. An SPL tries to reduce the effort and cost of implementing and maintaining a set of similar software products over time. However, managing the variability in these systems is a difficult task, the greater the number of products, the more complex they are to be handled.

    In this context, in this thesis we address two problems:

    The organization of feature models in different layers for different purposes.- Variability information from an SPL may no longer be concentrated on a single feature model but on several. For example, decoupling an Android application variability from the ecosystem variability. This, in turn, causes these models to relate to each other, making modeling itself a challenge, specifically when defining the constraints that could be added to the models and the management of the information associated with them. Understanding which attribute values can be chosen and which analysis operations can be executed in those models is a challenge to be solved.

    The leverage of information associated to the features.- In a feature model, we can find a series of features that can have associated information that could be exploited to take a series of variability management decisions. The problem arises when each feature can be implemented by one or several components that contain associated information. In this case, taking advantage of information from the implementation components to select the right one to implement a feature becomes a challenge during the product configuration.

    To address the problems described above, we propose two solutions:

    MAYA: A proposal designed to model several layers (top and bottom layer) in which we can assign to each of the models a series of attributes and establish relationships between them. To this end, we offer mechanisms to model these relationships and the introduction of new analysis operations that take into account the information from the two models. For example, if a bluetooth feature is activated on a mobile phone, which would be the API that should be used to support that function.

    RESDEC: A proposal designed to use of information associated with the implementation components in the feature models; that is, exploit the information generated around the components (e.g. number of errors, number of downloads, ratings, etc.) to implement features in the configuration of a product. To this end, we introduce a set of automated analysis operations that relying on recommender systems helps to select the best implementation component alternative that could be used to implement a certain feature. For example, if we are designing a sales website, which components might be the best option to implement the shopping cart feature.

    Our solutions were validated in different environments. MAYA was used it in an industrial context for mobile applications with Android and RESDEC was used to select implementation components in a virtual store using real information extracted from WordPress. All our implementations are available and are tools prototypes that we have used in the validations presented in this document.

    The information generated around feature models leads to a series of problems related to their management, which opens up new SPL research challenges. In this thesis, we have solved two of them; however, there is still more work to be done in relation to what information generated around the models can be taken, what modeling strategies should be considered, how many layers should be handled and how they can be arranged in each case, or what technique should be used to assist the configuration of products using additional information are some of them to just mention a few.

5 de Marzo de 2019

  • Autor: Potestad Ordóñez, Francisco Eugenio.
  • Titulo: “Vulnerabilidad y Análisis Diferencial Mediante Inserción de Fallos de Cifradores Trivium en Fpga y AsicTecnología Electrónica”
  • Departamento: Tecnología Electrónica.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1742502
  • Directores: Manuel Valencia Barrero y Carlos Jesús Jiménez Fernández.
  • Sinopsis:

    Las comunicaciones entre dispositivos aumenta día a día y un gran ejemplo de ello es el crecimiento del Internet de las cosas, en inglés Internet of things (IoT). De entre todas las comunicaciones que se producen, parte de ella está compuesta por información sensible susceptible de ser interceptada por terceras partes con fines malintencionados. Con el fin de evitar este gran problema, la comunidad científica se ha centrado en la constante búsqueda y desarrollo de algoritmos criptográficos o criptosistemas, algoritmos orientados tanto a software como a hardware, que permitan asegurar unas comunicaciones donde los canales de transmisión son potencialmente inseguros.

    A la hora de poder establecer nuevos estándares de seguridad, es necesario estudiar la seguridad ofrecida por los nuevos algoritmos desde el punto de vista de su vulnerabilidad con el objetivo de reducirla. Estas vulnerabilidades de los llamados criptosistemas es posible estudiarlas tomando el rol de una tercera parte que trata de obtener la información secreta del dispositivo y con ello conocer dónde se encuentran sus puntos débiles. Es aquí donde se enmarca la presente Tesis Doctoral. A lo largo de este texto, se realiza un estudio del estado del arte de la criptografía, así como las técnicas más importantes para comprometer la seguridad de los criptosistemas actuales, siendo objeto de estudio el cifrador de flujo Trivium, tanto el diseño original presentado en el portfolio del proyecto eSTREAM, como diferentes variantes de éste.

    Para poder estudiar la vulnerabilidad de estos criptosistemas y poder recuperar su información secreta, se han diseñado diferentes sistemas de inserción de fallos tanto en tecnología FPGA como en ASIC. Estos sistemas de ataque se han implementado para poder atacar al cifrador mediante la manipulación de su señal de reloj y sus señales de control. Gracias a estos sistemas de ataque experimentales, es posible determinar los puntos débiles de estos criptosistemas y mediante el uso de análisis diferenciales recuperar su información secreta, clave y vector de inicialización. Este estudio, por tanto, presenta la primera rotura de este cifrador de forma experimental, consiguiendo en el 100% de los casos la recuperación de su clave secreta y probando que este criptosistema es vulnerable a los ataques por inserción de fallos.

15 de Julio de 2019

  • Autor: Pérez García, Pablo.
  • Titulo: “Circuit Design for Biomedical Laboratories Based on Impedance Measurement”
  • Departamento: Tecnología Electrónica.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1784727
  • Directores: Alberto Yúfera García y Gloria Huertas Sánchez (Codirector).
  • Sinopsis:

    El presente estudio doctoral analiza la aplicación de una técnica de medida de cultivos celulares en tiempo real que es de alta utilidad para los investigadores en el área biomédica. Entre las diversas técnicas de medida aplicables a muestras biológicas, las medidas eléctricas de bio-impedancia destaca por el tremendo potencial que sugiere adquirir los datos con circuitos electrónicos de cara a su posterior desarrollo integrado en Lab-On-A-Chip y otros dispositivos biomédicos.

    El sistema desarrollado sigue el paradigma del Internet de las cosas (IoT), proponiendo un sensor que realizará las medidas físicas en el interior del incubador de cultivos celulares y un dispositivo que actuará como enlace entre el sensor y la capa de servicios que podrán utilizar los investigadores en biomedicina para evaluar los resultados obtenidos y configurar experimentos.

    El sensor ha sido diseñado siguiendo la técnica de test basado en oscilación (OBT). Esto se traduce en una serie de ventajas para el sistema tales como evitar la necesidad de sistemas de excitación eléctrica, no requiere de circuitos de sincronización complejos y al incluirse la muestra a analizar en el camino de la oscilación es sencillo controlar los niveles de tensión y corriente que circulan por la misma.

    El principio físico sobre el cuál se ha diseñado este sensor está basado en la técnica ECIS, un complejo estudio involucrando modelos de electrodo, variaciones de parámetros de diseño y tipos de crecimiento celular se han incluido en el trabajo para adquirir la intuición necesaria sobre el proceso de diseño. Para validar todo lo anterior, se plantearon experimentos que verifican los modelos y las simulaciones planteadas.

    Por último, se ha planteado un conjunto de experimentos empleando diversas líneas celulares (AA8, N2A, N2A APP, CRL-1458). Los experimentos realizados sobre estas células están clasificados en tres tipos; crecimiento celular, diferenciación celular y citotoxicidad. La estimación del número total de células emplea un algoritmo de estimación que ha podido validarse a la luz de los datos obtenidos.

13 de Diciembre de 2019

  • Autor: Perea Rodríguez, Juan José.
  • Titulo: “Técnicas para la mejora de la estabilidad en el método sph para la simulación de fluidos”
  • Departamento: Lenguajes y Sistemas Informáticos.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1826292
  • Directores: Juan Manuel Cordero Valle y Isabel Ramos Román (tutor/ponente).
  • Sinopsis:

    En el campo de la Informática Gráfica existen diversos problemas que siguen investigándose por no haber encontrado aún una solución suficientemente apropiada. En el caso de la Simulación de Fluidos, aunque existen herramientas y técnicas para simular el comportamiento dinámico de un fluido, los resultados obtenidos deben ser posprocesados para eliminar las perturbaciones que aparecen y que disminuyen el realismo visual.

    Simular un fluido, o más técnicamente el flujo de un fluido, requiere de un procesamiento en el que se resuelven el conjunto de ecuaciones en derivadas parciales con las que se describen, cuantitativamente, el flujo. En general, no puede simularse el fluido a partir de los resultados obtenidos mediante técnicas analíticas, en parte debido a que sólo es posible obtener estas soluciones bajo condiciones determinadas muy restrictivas. Además, esto supondría por una parte un esfuerzo computacional enorme y por otra parte unas simulaciones poco versátiles, ya que no sería posible introducir elementos dinámicos en el escenario de simulación.

    Para sobrepasar estas limitaciones es necesario utilizar técnicas discretas basadas en cálculo numérico que nos ofrecen mayor capacidad de intervención en la generación de resultados en un tiempo de cálculo plausible. Una de las técnicas más destacables es Smoothed Particles Hydrodynamic (SPH). El método SPH presenta algunas deficiencias que reducen la estabilidad y la precisión de los resultados obtenidos que no han sido resueltos de manera satisfactoria.

    Diversos estudios se han centrado en identificar el origen de estas deficiencias. A partir de las conclusiones de estos estudios se pueden identificar tres, estas son: (1) el número y la distribución de las partículas que interactúan mutuamente (las partículas vecinas), (2) la imposición de la incompresibilidad, (3) la simulación de la interacción fluido-contorno. La consecuencia de estas deficiencias es un comportamiento errático de las partículas, la aparición de dispersiones espurias de partículas, especialmente en los límites del fluido, y sobreamortiguamiento, lo que da lugar a unos resultados visuales poco realistas.

    Para resolver estos problemas proponemos tres mecanismos que mitigan las deficiencias enunciadas anteriormente. Estas son:

    1. Formulamos una nueva función de interacción entre partículas (conocida como función kernel) que mejora la estabilidad incluso en distribuciones de partículas no homogéneas.
    2. Modelamos la fuerza mutua entre partículas de modo que es posible imponer la incompresibilidad.
    3. Desarrollamos un nuevo mecanismo de modelado de las condiciones de contorno, que amplía la versatilidad de SPH al permitirnos introducir en la escena de simulación contornos no suaves.

    Para resolver estos problemas relacionados con la interacción fluido-contorno, que no están resuelto completamente a día de hoy, hemos desarrollado una nueva formulación basada en la discretización del contorno mediante partículas. Las mejoras que obtenemos con nuestra propuesta son: (1) simulamos la interacción del fluido con contorno complejos, (2) somos capaces de modelar condiciones de contorno complejas que no podían ser simuladas en el ámbito de la Informática Gráfica y (3) obtenemos una formulación con la que obtener todas las magnitudes dinámicas del fluido restringidas por las condiciones de contorno.

    Para demostrar las mejoras que se obtienen con nuestras técnicas, hemos desarrollado un conjunto de pruebas tanto cuantitativas, como cualitativas, en las que compararemos nuestra propuesta con otras técnicas también basadas en SPH. De los resultados que se obtienen en estas pruebas podemos inferir que:

    • La función kernel formulada permite una alta estabilidad, superior a las que se pueden obtener con otras funciones kernel muy utilizadas en simulaciones de fluidos mediante SPH. Esta alta estabilidad es destacable en simulaciones de muy baja energía. Además, conseguimos una alta precisión, superior a las obtenidas con otras funciones kernel, en simulaciones bajo condiciones extremas: a alta velocidad y baja densidad.
    • Con la nueva formulación del gradiente de presión conseguimos: (1) estabilidad y precisión incluso cuando el número de partículas es muy bajo, (2) imponer eficientemente la incompresibilidad mejorando los resultados que se obtienen con otras técnicas similares, (3) cuantificar el calentamiento (el trasvase de energía) en el fluido y disiparlo de un modo eficiente y preciso y (4) desarrollar un modelo estable y eficiente para un amplio rango de valores en los parámetros de simulación.
    • Somos capaces de simular la interacción fluido-contorno independientemente de la complejidad del contorno. Además, podemos modelar cualquier condición de contorno independientemente de su complejidad, lo cual representa una ventaja frente a otras técnicas de simulación de fluidos en el ámbito de la Informática Gráfica.

29 de Marzo de 2019

  • Autor: Ortega Gallego, Fernando.
  • Titulo: “Aspect-Based Sentiment Analysis. A Scalable System, a Condition Miner, and an Evaluation Dataset”
  • Departamento: Lenguajes y Sistemas Informáticos.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1742022
  • Directores: Rafael Corchuelo Gil (Director).
  • Sinopsis:

    Aspect-based sentiment analysis systems are a kind of text-mining systems that specialise in summarising the sentiment that a collection of reviews convey regarding some aspects of an item. There are many cases in which users write their reviews using conditional sentences; in such cases, mining the conditions so that they can be analysed is very important to improve the interpretation of the corresponding sentiment summaries. Unfortunately, current commercial systems or research systems neglect conditions; current frameworks and toolkits do not provide any components to mine them; furthermore, the proposals in the literature are insufficient because they are based on hand-crafted patterns that fall short regarding recall or machine learning models that are tightly bound with a specific language and require too much configuration.

    In this dissertation, we introduce Torii, which is an aspect-based sentiment analysis system whose most salient feature is that it can mine conditions; we also introduce Kami, which provides two deep learning proposals to mine conditions; and we also present Norito, which is the first publicly available dataset of conditions. Our experimental results prove that our proposals to mine conditions are similar to the state of the art in terms of precision, but improve recall enough to beat them in terms of F1 score. Finally, it is worth mentioning that this dissertation would not have been possible without the collaboration of Opileak, which backs up the industrial applicability of our work.

1 de Abril de 2019

  • Autor: Orellana Martín, David.
  • Titulo: “El Problema P Versus Np. Desarrollo de Nuevas Técnicas a través de Modelos de Computación Bio-Inspirados”
  • Departamento: Ciencias de la Computación e Inteligencia Artificial.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1751979
  • Directores: Mario de Jesús Pérez Jiménez y Luis Valencia Cabrera (Codirector).
  • Sinopsis:

    Desde la aparición de los primeros modelos de computación en la década de los treinta del pasado siglo, han surgido nuevos modelos inspirados en fuentes muy diversas, en particular en procesos de la Naturaleza viva. La teoría de la computabilidad es la disciplina científica que estudia la capacidad de los modelos de computación para resolver mecánicamente problemas abstractos. La construcción de las primeras máquinas de propósito general, en la década de los cuarenta del pasado siglo, dio origen al análisis de la capacidad de esas máquinas para resolver instancias de problemas de «gran» tamaño usando una «cantidad razonable» de recursos computacionales, dando origen a la teoría de la complejidad computacional.

    El problema P versus NP (determinar si las clases de complejidad P y NP son iguales) trata de precisar si «es más difícil hallar una solución de un problema que comprobar si una presunta solución es, realmente, una solución correcta del mismo». Este problema es, sin lugar a dudas, el más importante en Ciencias de la Computación y uno de los más relevantes que tiene planteada la Ciencia, en general. Con el fin de «dar la bienvenida a las Matemáticas del nuevo milenio», el Clay Mathematics Institute (CMI) de Cambridge, Massachusetts (USA), seleccionó siete problemas de especial relevancia (entre los que se encuentra el problema P versus NP), ofreciendo una dotación de un millón de dolares para aquel que resolviera alguno de ellos. La solución de dicho problema tendría unas repercusiones extraordinarias, especialmente desde el punto de vista económico, tanto en lo que respecta a la seguridad de los actuales sistemas de cifrado (RSA, DES, etc.), como a la posibilidad de construir un decodificador universal; es decir, una máquina capaz de romper, en tiempo record, los textos cifrados por los actuales sistemas de cifrado.

    En esta tesis se presenta una nueva metodología para abordar la resolución del problema antes citado, desde una perspectiva completamente novedosa, basada en la obtención de fronteras entre la no eficiencia y la presumible eficiencia de un modelo de computación arbitrario. La metodología desarrollada es aplicada, específicamente, a dispositivos computacionales en el paradigma de la Computación Celular con Membranas.

17 de Octubre de 2019

  • Autor: Luna Romera, José María.
  • Titulo: “New Internal and External Validation Indices for Clustering in Big Data”
  • Departamento: Lenguajes y Sistemas Informáticos.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1805781
  • Directores: María Del Mar Martínez Ballesteros, Jorge García Gutiérrez y José Cristóbal Riquelme Santos (Tutor/Ponente).
  • Sinopsis:

    Esta tesis, presentada como un compendio de artículos de investigación, analiza el concepto de índices de validación de clustering y aporta nuevas medidas de bondad para conjuntos de datos que podrían considerarse Big Data debido a su volumen. Además, estas medidas han sido aplicadas en proyectos reales y se propone su aplicación futura para mejorar algoritmos de clustering.

    El clustering es una de las técnicas de aprendizaje automático no supervisado más usada. Esta técnica nos permite agrupar datos en clusters de manera que, aquellos datos que pertenezcan al mismo cluster tienen características o atributos con valores similares, y a su vez esos datos son disimilares respecto a aquellos que pertenecen a los otros clusters. La similitud de los datos viene dada normalmente por la cercanía en el espacio, teniendo en cuenta una función de distancia. En la literatura existen los llamados índices de validación de clustering, los cuales podríamos definir como medidas para cuantificar la calidad de un resultado de clustering. Estos índices se dividen en dos tipos: índices de validación internos, que miden la calidad del clustering en base a los atributos con los que se han construido los clusters; e índices de validación externos, que son aquellos que cuantifican la calidad del clustering a partir de atributos que no han intervenido en la construcción de los clusters, y que normalmente son de tipo nominal o etiquetas.

    En esta memoria se proponen dos índices de validación internos para clustering basados en otros índices existentes en la literatura, que nos permiten trabajar con grandes cantidades de datos, ofreciéndonos los resultados en un tiempo razonable. Los índices propuestos han sido testeados en datasets sintéticos y comparados con otros índices de la literatura. Las conclusiones de este trabajo indican que estos índices ofrecen resultados muy prometedores frente a sus competidores.

    Por otro lado, se ha diseñado un nuevo índice de validación externo de clustering basado en el test estadístico chi cuadrado. Este índice permite medir la calidad del clustering basando el resultado en cómo han quedado distribuidos los clusters respecto a una etiqueta dada en la distribución. Los resultados de este índice muestran una mejora significativa frente a otros índices externos de la literatura y en datasets de diferentes dimensiones y características.

    Además, estos índices propuestos han sido aplicados en tres proyectos con datos reales cuyas publicaciones están incluidas en esta tesis doctoral. Para el primer proyecto se ha desarrollado una metodología para analizar el consumo eléctrico de los edificios de una smart city. Para ello, se ha realizado un análisis de clustering óptimo aplicando los índices internos mencionados anteriormente. En el segundo proyecto se ha trabajado tanto los índices internos como con los externos para realizar un análisis comparativo del mercado laboral español en dos periodos económicos distintos. Este análisis se realizó usando datos del Ministerio de Trabajo, Migraciones y Seguridad Social, y los resultados podrían tenerse en cuenta para ayudar a la toma de decisión en mejoras de políticas de empleo. En el tercer proyecto se ha trabajado con datos de los clientes de una compañía eléctrica para caracterizar los tipos de consumidores que existen. En este estudio se han analizado los patrones de consumo para que las compañías eléctricas puedan ofertar nuevas tarifas a los consumidores, y éstos puedan adaptarse a estas tarifas con el objetivo de optimizar la generación de energía eliminando los picos de consumo que existen la actualidad.

18 de Junio de 2019

  • Autor: Lopez Ojeda, Antonio.
  • Titulo: “Medida Continua de la Frecuencia en Redes Eléctricas con Perturbaciones Electromagnéticas Conducidas de Baja Frecuencia”
  • Departamento: Tecnología Electrónica.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1770462
  • Directores: Juan Carlos Montaño Asquerino y Alberto Yúfera García (Tutor/Ponente).
  • Sinopsis:

    Se ha realizado un análisis del estado del arte en la medida de la frecuencia de la red eléctrica.

    Se ha desarrollado un marco de trabajo que permite realizar una comparación objetiva, realista y completa de los distintos métodos de medida de la frecuencia de la red eléctrica, facilitando la tarea de decidir qué método es el más adecuado en función de la aplicación que se vaya a hacer de la información de la frecuencia y de las características de perturbación del entorno donde se realicen las medidas.

    Se ha elaborado de un banco de señales de prueba representativo de las perturbaciones electromagnéticas conducidas de baja frecuencia basado en la Norma Internacional IEC 61000 sobre compatibilidad electromagnética.

    Se ha desarrollado un nuevo método de medida de la frecuencia que mejore el comportamiento de los métodos existentes para determinados tipos de perturbaciones electromagnéticas.

    Se han simulado los distintos métodos de medida de la frecuencia con una herramienta matemática de alto nivel, con las señales de prueba propuestas y para distintas condiciones de ruido, de cuantificación y de frecuencia de muestreo de las señales utilizadas.

    Se han analizado los resultados simulados obtenidos, determinando para que señales de prueba, el nuevo método propuesto, mejora a los ya existentes.

    Se han ejecutado los distintos métodos de medida de la frecuencia en un controlador digital de señal, comprobándose la viabilidad de realización en tiempo real de la mayoría de los métodos estudiados y la coherencia estos resultados experimentales con los resultados simulados.

18 de Noviembre de 2019

  • Autor: Font Calvo, Juan Luis.
  • Titulo: “Network traffic characterisation, analysis, modelling and simulation for networked virtual environments”
  • Departamento: Arquitectura y Tecnología de Computadores.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1808091
  • Directores: Jose Luis Sevillano Ramos.
  • Sinopsis:

    Networked virtual environment (NVE) refers to a distributed software system where a simulation, also known as virtual world, is shared over a data network between several users that can interact with each other and the simulation in real-time. NVE systems are omnipresent in the present globally interconnected world, from entertainment industry, where they are one of the foundations for many video games, to pervasive games that focus on e-learning, e-training or social studies. From this relevance derives the interest in better understanding the nature and internal dynamics of the network traffic that vertebrates these systems, useful in fields such as network infrastructure optimisation or the study of Quality of Service and Quality of Experience related to NVE-based services. The goal of the present work is to deepen into this understanding of NVE network traffic by helping to build network traffic models that accurately describe it and can be used as foundations for tools to assist in some of the research fields enumerated before.

    First contribution of the present work is a formal characterisation for NVE systems, which provides a tool to determine which systems can be considered as NVE. Based on this characterisation it has been possible to identify numerous systems, such as several video games, that qualify as NVE and have an important associated literature focused on network traffic analysis. The next contribution has been the study of this existing literature from a NVE perspective and the proposal of an analysis pipeline, a structured collection of processes and techniques to define microscale network models for NVE traffic. This analysis pipeline has been tested and validated against a study case focused on Open Wonderland (OWL), a framework to build NVE systems of different purpose. The analysis pipeline helped to defined network models from experimental OWL traffic and assessed on their accuracy from a statistical perspective. The last contribution has been the design and implementation of simulation tools based on the above OWL models and the network simulation framework ns-3. The purpose of these simulations was to confirm the validity of the OWL models and the analysis pipeline, as well as providing potential tools to support studies related to NVE network traffic. As a result of this final contribution, it has been proposed to exploit the parallelisation potential of these simulations through High Throughput Computing techniques and tools, aimed to coordinate massively parallel computing workloads over distributed resources.

20 de Diciembre de 2019

  • Autor: Cimmino Arriaga, Andrea Jesús.
  • Titulo: “Enterprise information integration: on discovering links using genetic programming”
  • Departamento: Lenguajes y Sistemas Informáticos.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1812429
  • Directores: Rafael Corchuelo Gil.
  • Sinopsis:

    Both established and emergent business rely heavily on data, chiefly those that wish to become game changers. The current biggest source of data is the Web, where there is a large amount of sparse data. The Web of Data aims at providing a unified view of these islands of data. To realise this vision, it is required that the resources in different data sources that refer to the same real-world entities must be linked, which is they key factor for such a unified view. Link discovery is a trending task that aims at finding link rules that specify whether these links must be established or not. Currently there are many proposals in the literature to produce these links, especially based on meta-heuristics. Unfortunately, creating proposals based on meta-heuristics is not a trivial task, which has led to a lack of comparison between some well-established proposals. On the other hand, it has been proved that these link rules fall short in cases in which resources that refer to different real-world entities are very similar or vice versa. In this dissertation, we introduce several proposals to address the previous lacks in the literature. On the one hand we, introduce Eva4LD, which is a generic framework to build genetic programming proposals for link discovery; which are a kind of meta-heuristics proposals. Furthermore, our framework allows to implement many proposals in the literature and compare their results fairly. On the other hand, we introduce Teide, which applies effectively the link rules increasing significantly their precision without dropping their recall significantly. Unfortunately, Teide does not learn link rules, and applying all the provided link rules is computationally expensive. Due to this reason we introduce Sorbas, which learns what we call contextual link rules.

25 de Octubre de 2019

  • Autor: Castro García, Juan Antonio.
  • Titulo: “Adquisición y procesamiento de señales fisiológicas y sus aplicaciones”
  • Departamento: Tecnología Electrónica.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1814982
  • Directores: Isabel María Gómez González y Alberto Jesús Molina Cantero.
  • Sinopsis:

    Actualmente, la computación afectiva es una temática de investigación al alza. Ésta se apoya en dispositivos hardware para la adquisición de señales fisiológicas, que suelen ser privativos, caros y difíciles de coordinar con otros. En el documento se presenta una solución abierta, siguiendo las directrices del Open Source Hardware, para un sistema de bajo coste que es capaz de capturar de forma simultánea los siguientes elementos: una derivación del electrocardiograma (ECG); dos canales actividad electrodérmica (EDA), mediante técnicas de multiplexación en tiempo; y un canal de temperatura superficial. También se propone el uso del background noise level (BNL), un parámetro que ha sido adaptado del estándar MPEG-7, para determinar la calidad de la señal de electrocardiografía.

    Para el firmware se ha desarrollado una librería, bajo licencia LGPL v3 que asegura la frecuencia de muestreo a la vez que permite el uso de retardos no bloqueantes; e incluye funciones típicas del procesado digital de señales, como la capacidad de aplicar filtrado, análisis frecuencial por medio del algoritmo de Goertzel, y funciones de almacenamiento de ventanas para el cálculo de la energía contenida, o en número de cruces por cero de la señal.

    Del dispositivo se ha liberado tanto los esquemáticos como el firmware necesario para el microcontrolador. Asimismo, ha sido probado en un experimento que busca la detección de algún estado afectivo durante la realización de ejercicio físico.

29 de Noviembre de 2019

  • Autor: Campora Pérez, Daniel Hugo.
  • Titulo: “Optimization of high-throughput real-time processes in physics reconstruction”
  • Departamento: Ciencias de la Computación e Inteligencia Artificial.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1818999
  • Directores: Agustín Riscos Núñez, Niko Neufeld (codirector) y Agustín Riscos Núñez (tutor/ponente).
  • Sinopsis:

    La presente tesis se ha desarrollado en colaboración entre la Universidad de Sevilla y la Organización Europea para la Investigación Nuclear, CERN.

    El detector LHCb es uno de los cuatro grandes detectores situados en el Gran Colisionador de Hadrones, LHC. En LHCb, se colisionan partı́culas a altas energı́as para comprender la diferencia existente entre la materia y la antimateria. Debido a la cantidad ingente de datos generada por el detector, es necesario realizar un filtrado de datos en tiempo real, fundamentado en los conocimientos actuales recogidos en el Modelo Estándar de fı́sica de partı́culas. El filtrado, también conocido como High Level Trigger, deberá procesar un throughput de 40 Tb/s de datos, y realizar un filtrado de aproximadamente 1 000:1, reduciendo el throughput a unos 40 Gb/s de salida, que se almacenan para posterior análisis.

    El proceso del High Level Trigger se subdivide a su vez en dos etapas: High Level Trigger 1 (HLT1) y High Level Trigger 2 (HLT2). El HLT1 transcurre en tiempo real, y realiza una reducción de datos de aproximadamente 30:1. El HLT1 consiste en una serie de procesos software que reconstruyen lo que ha sucedido en la colisión de partı́culas. En la reconstrucción del HLT1 únicamente se analizan las trayectorias de las partı́culas producidas fruto de la colisión, en un problema conocido como reconstrucción de trazas, para dictaminar el interés de las colisiones. Por contra, el proceso HLT2 es más fino, requiriendo más tiempo en realizarse y reconstruyendo todos los subdetectores que componen LHCb.

    Hacia 2020, el detector LHCb, ası́ como todos los componentes del sistema de adquisición de datos, serán actualizados acorde a los últimos desarrollos técnicos. Como parte del sistema de adquisición de datos, los servidores que procesan HLT1 y HLT2 también sufrirán una actualización. Al mismo tiempo, el acelerador LHC será también actualizado, de manera que la cantidad de datos generada en cada cruce de grupo de partı́culas aumentare en aproxidamente 5 veces la actual. Debido a las actualizaciones tanto del acelerador como del detector, se prevé que la cantidad de datos que deberá procesar el HLT en su totalidad sea unas 40 veces mayor a la actual.

    La previsión de la escalabilidad del software actual a 2020 subestimó los recursos necesarios para hacer frente al incremento en throughput. Esto produjo que se pusiera en marcha un estudio de todos los algoritmos tanto del HLT1 como del HLT2, ası́ como una actualización del código a nuevos estándares, para mejorar su rendimiento y ser capaz de procesar la cantidad de datos esperada.

    En esta tesis, se exploran varios algoritmos de la reconstrucción de LHCb. El problema de reconstrucción de trazas se analiza en profundidad y se proponen nuevos algoritmos para su resolución. Ya que los problemas analizados exhiben un paralelismo masivo, estos algoritmos se implementan en lenguajes especializados para tarjetas gráficas modernas (GPUs), dada su arquitectura inherentemente paralela. En este trabajo se diseñan dos algoritmos de reconstrucción de trazas. Además, se diseñan adicionalmente cuatro algoritmos de decodificación y un algoritmo de clustering, problemas también encontrados en el HLT1. Por otra parte, se diseña un algoritmo para el filtrado de Kalman, que puede ser utilizado en ambas etapas.

    Los algoritmos desarrollados cumplen con los requisitos esperados por la colaboración LHCb para el año 2020. Para poder ejecutar los algoritmos eficientemente en tarjetas gráficas, se desarrolla un framework especializado para GPUs, que permite la ejecución paralela de secuencias de reconstrucción en GPUs. Combinando los algoritmos desarrollados con el framework, se completa una secuencia de ejecución que asienta las bases para un HLT1 ejecutable en GPU.

    Durante la investigación llevada a cabo en esta tesis, y gracias a los desarrollos arriba mencionados y a la colaboración de un pequeño equipo de personas coordinado por el autor, se completa un HLT1 ejecutable en GPUs. El rendimiento obtenido en GPUs, producto de esta tesis, permite hacer frente al reto de ejecutar una secuencia de reconstrucción en tiempo real, bajo las condiciones actualizadas de LHCb previstas para 2020. Ası́ mismo, se completa por primera vez para cualquier experimento del LHC un High Level Trigger que se ejecuta únicamente en GPUs. Finalmente, se detallan varias posibles configuraciones para incluir tarjetas gráficas en el sistema de adquisición de datos de LHCb.

14 de Enero de 2019

  • Autor: Arcos García, Alvaro.
  • Titulo: “Técnicas de Inteligencia Artificial Aplicadas a Sistemas de Detección y Clasificación de Señales de Tráfico”
  • Departamento: Lenguajes y Sistemas Informáticos.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1721292
  • Directores: Juan Antonio Álvarez García y Luis Miguel Soria Morillo.
  • Sinopsis:

    Esta tesis, presentada como conjunto de artículos de investigación, estudia y analiza soluciones para los sistemas de detección y clasificación de señales de tráfico que suponen un reto en aplicaciones de la actualidad, como son la seguridad y asistencia en carretera a conductores, los coches autónomos, el mantenimiento de señalización vertical, o el análisis de escenas de tráfico.

    Las señales de tráfico constituyen un activo fundamental dentro de la red de carreteras porque su objetivo es ser fácilmente perceptible por los peatones y conductores para advertirles y guiarlos tanto de día como de noche.

    El hecho de que las señales estén diseñadas para ser únicas y tener características distinguibles, como formas simples y colores uniformes, implica que su detección y reconocimiento sea un problema limitado. Sin embargo, el desarrollo de un sistema de reconocimiento de señales en tiempo real aún presenta desafíos debido a los tiempos de respuesta, los cuales son cruciales para tomar decisiones en el entorno, y la variabilidad que presentan las imágenes de escenas de tráfico, que pueden incluir imágenes a distintas escalas, puntos de vista complicados, oclusiones, y diferentes condiciones de luz. Cualquier sistema de detección y clasificación de señales de tráfico debe hacer frente a estos retos.

    En este trabajo, se presenta un sistema de clasificación de señales de tráfico basado en aprendizaje profundo (Deep Learning). Concretamente, los principales componentes de la red neuronal profunda (Deep Neural Network) propuesta, son capas convolucionales y redes de transformaciones espaciales (Spatial Transformer Networks). Dicha red es alimentada con imágenes RGB de señales de tráfico de distintos países como Alemania, Bélgica o España. En el caso de las señales de Alemania, que pertenecen al dataset denominado German Traffic Sign Recognition Benchmark (GTSRB), la arquitectura de red y los parámetros de optimización propuestos obtienen un 99.71% de precisión, mejorando tanto al sistema visual humano como a todos los resultados previos del estado del arte, siendo además más eficiente en términos de requisitos de memoria. En el momento de redactar esta tesis, nuestro método se encuentra en la primera posición de la clasificación a nivel mundial.

    Por otro lado, respecto a la problemática de la detección de señales de tráfico, se analizan varios sistemas de detección de objetos propuestos en el estado del arte, que son específicamente modificados y adaptados al dominio del problema que nos ocupa para aplicar la transferencia de conocimiento en redes neuronales (transfer learning). También se estudian múltiples parámetros de rendimiento para cada uno de los modelos de detección con el fin de ofrecer al lector cuál sería el mejor detector de señales teniendo en cuenta restricciones del entorno donde se desplegará la solución, como la precisión, el consumo de memoria o la velocidad de ejecución. Nuestro estudio muestra que el modelo Faster R-CNN Inception Resnet V2 obtiene la mejor precisión (95.77% mAP), mientras que R-FCN Resnet 101 alcanza el mejor equilibrio entre tiempo de ejecución (85.45 ms por imagen) y precisión (95.15% mAP).

15 de Julio de 2019

  • Autor: Ahmed Hussien Meidan, Ayman.
  • Titulo: “A Mda Proposal to Integrate the Measurement Lifecycle into the Process Lifecycle”
  • Departamento: Lenguajes y Sistemas Informáticos.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1763097
  • Directores: Julián Alberto García García, Isabel Ramos Román y María José Escalona Cuaresma (Tutor/Ponente).
  • Sinopsis:

    Contexto: la medición permite a las organizaciones obtener conocimiento sobre sus procesos y proyectos, también alcanzar un rendimiento predecible y procesos de alta capacidad, lo que pone las organizaciones en mejores posiciones para tomar decisiones apropiadas. La medición del proceso de desarrollo de software apoya a las organizaciones en su esfuerzo para comprender, evaluar, gestionar y mejorar sus procesos y proyectos de desarrollo.

    Objetivo: Esta disertación propone una solución novedosa para respaldar la identificación y la definición de los conceptos y objetivos de medición en una forma operativa. Además, busca definir un ciclo de vida de la medición e integrarlo en el ciclo de vida del proceso.

    Método: Hemos llevado a cabo una encuesta y estudios de mapeo para comprender el estado del arte e identificar brechas existentes. Posteriormente, hemos propuesto una solución teórica para respaldar la medición del proceso del software y, finalmente, hemos desarrollado esta solución para permitir su uso práctico en entornos reales, permitiendo su aplicación y evaluación en un proyecto real.

    Resultados: La solución propuesta consta de tres componentes principales: (i) Ciclo de vida de la medición; que define las actividades de medición a lo largo del ciclo de vida del proceso, (ii) Metamodelos de medición; estos metamodelos apoyan el ciclo de vida de la medición y su integración en el ciclo de vida del proceso, (iii) Proceso de transformación; que permite la derivación de los modelos de medición, artefactos y actividades necesarios a lo largo del ciclo de vida del proceso.

    Conclusión: la solución presentada en este trabajo permite a las organizaciones gestionar y mejorar sus procesos y proyectos; El modelo de información propuesto apoya la unificación del vocabulario de los conceptos de medición, los conecta de forma coherente y garantiza la trazabilidad entre estos conceptos. El ciclo de vida del proceso de medición proporciona una guía clara y completa para que las organizaciones establezcan los objetivos de medición y realicen las actividades necesarias para lograrlos. El metamodelo de definición de la medición apoya y guía a los ingenieros para definir los conceptos de medición y sus relaciones de manera completa y operativa; además, las transformaciones propuestas utilizan este metamodelo para respaldar el proceso de medición y derivar los artefactos y las actividades de medición necesarios durante el ciclo de vida del proceso.

Tesis 2018

Tesis doctorales defendidas en el año 2018:

8 de Febrero de 2018

  • Autor: Pérez Álvarez, José Miguel.
  • Titulo: “Decision-making support for the alignment of business-process-driven organization with strategic plans”
  • Departamento: Lenguajes y Sistemas Informáticos.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1571145
  • Directores: María Teresa Gómez López.
  • Sinopsis:

    Los planes de negocio son documentos en los que los equipos ejecutivos de las organizaciones (BETs, por sus siglas en inglés), especifican todos y cada uno de los aspectos de la organización. Dos componentes muy importantes de los planes de negocio son el plan de operaciones y el plan estratégico. El plan de operaciones recoge, tanto las actividades/tareas que se pueden realizar en la organización, para proporcionar los productos o servicios que se ofrecen, cómo la forma en que se han de llevar a cabo estas actividades/tareas; El plan estratégico especifica la dirección y los objetivos de la organización, elabora objetivos e identifica estrategias para alcanzar éstos objetivos.

    Las organizaciones siguen la dirección establecida sus planes estratégicos, pero debido a diversos factores, a menudo esto, mantener la dirección establecida es difícil. Uno de estos factores es la influencia de las personas, las cuales toman decisiones, en ocasiones basadas en su conocimiento local de la organización, sus experiencias previas y/o su intuición, en lugar de hacerlo mediante un análisis cuantitativo de cómo sus decisiones pueden afectar a la organización, y por tanto cómo de alineadas están con la dirección establecida. Esto hace que, en ocasiones, las decisiones no estén alineadas con la dirección marcada por la organización, y que además que ni se tenga constancia de este hecho.

    En esta tesis doctoral se proponen metodologías y mecanismos para ayudar a las personas, a tomar decisiones alineadas con la dirección establecida por la organización. La consultora Gartner considera que la capacidad de ayudar en el proceso de toma de decisión es crucial para los sistemas que respaldan las operaciones de la empresa (BPMSs, por sus siglas en inglés). Por esta razón, las metodologías y mecanismos propuestos en esta tesis, se integran dentro con los BPMSs, como sistemas de ayuda a la toma de decisiones (DSS, por sus siglas en inglés).

    De un análisis sistemático de la literatura existente, se derivaron varias propuestas para la mejora de DSSs, y se identificaron tres tipos de decisiones que se toman en procesos de negocio, las cuales no están ampliamente respaldadas por los DSSs actuales: (1) decisiones que direccionan la instancia de proceso de negocio (BPI, por sus siglas en inglés); (2) decisiones sobre el valor de las variables de entrada; y (3) decisiones sobre qué proceso de negocio (BP, por sus siglas in inglés) ejecutar. En esta tesis se proponen tres DSSs, cada uno de ellos, alineado con uno de los tipos de decisión antes mencionados.

    Los DSSs para el direccionamiento de BPIs constituyen uno de los campos de estudio más conocidos en el contexto de la toma de decisiones en BPs, sin embargo, las propuestas encontradas en la literatura, no permiten considerar el contexto en el que se está ejecutando la BPI, es decir, estas propuestas solo consideran la información relacionada con BPI en ejecución (es decir, sólo tienen en cuenta información local) y no consideran el estado global de la organización. El DSS, para direccionar BPIs presentado en esta tesis, propone un lenguaje que permite definir variables, la cuales representan el estado global de la organización, y además mecanismos para utilizar éstas variables en las decisiones de direccionamiento de la BPI. Gracias a esto, las decisiones se pueden tomar de manera global a la organización.

    Otro tipo de decisiones que se toman en BP está relacionado con elegir valores de entrada de los BP (por ejemplo, la cantidad a invertir o la cantidad de empleados que se asignan a una tarea). La elección de valores de entrada en BP puede influir directamente en que la empresa consiga los objetivos marcados, o no. Para determinar los valores más adecuados para las variables de entrada de los BP, se deben analizar tanto las instancias pasadas, como los modelos de procesos de negocio. En el DSS propuesto en esta tesis para decidir sobre los valores de entrada, la información extraída de instancias pasadas es utilizada utiliza para sugerir el rango de valores dentro del cual, el valor de la variable está alineado con los objetivos marcados por la organización. Dado que la información empleada para extraer el conocimiento de los BPI finalizados se almacena en bases de datos, también se propone una metodología para validar la alineación de los datos de estas instancias anteriores con el BP.

    Los DSS descritos anteriormente están relacionados con las decisiones tomadas sobre BPI, es decir BP que se están ya ejecutando; sin embargo, la elección de qué BP se debe ejecutar, también constituye una decisión en sí misma. Esta decisión también puede afectar el estado de la organización y, por lo tanto, puede afectar el logro de los objetivos especificados en los planes estratégicos de la organización. Estas decisiones se conocen como decisiones de gobernanza, y también deben estar alineadas con los planes estratégicos. Con el fin de conseguir este alineamiento, en esta tesis se propone una metodología para modelar, tanto los BP, como la medida en que la ejecución de éstos afecta a los indicadores de la organización. Éste modelad lo hacen personas (expertos en negocios), por lo que en esta tesis también se proponen mecanismos para su validación respecto de la actividad de la organización en el pasado. El DSS propuesto para decisiones de gobernanza, se basa en la capacidad de simular estos modelos, para predecir el estado final de la organización en caso de ejecutar uno varios procesos de negocio, en un momento determinado.

    Los DSSs y técnicas propuestas en esta tesis mejoran la capacidad de toma de decisiones en cuatro aspectos:

    1. Ayudan a los usuarios a tomar decisiones alineadas con la dirección marcada por la organización, en función del estado general de la empresa y de lo que sucedió en el pasado.
    2. Aseguran que las decisiones tomadas estén alineadas con los planes estratégicos, por lo que todas las personas involucradas en la organización toman decisiones de acuerdo con los objetivos definidos por la organización.
    3. Aprovechan la información de ejecuciones pasadas de BP de la empresa, para mejorar la organización.
    4. Aprovechan el conocimiento de las personas involucradas en la organización tienen del funcionamiento de la misma, al tiempo que permiten tomar decisión razonadas sobre por qué se toma realiza una acción u otra.

    Por otro lado, estas técnicas están orientadas a: ser utilizadas por expertos del negocio, es decir, personas sin formación técnica; contribuir a una mejor comprensión de cómo las acciones realizadas en la organización pueden afectar el logro de los objetivos definidos; y a permitir que información del estado de la organización pueda ser utilizada por terceras aplicaciones.

    Por último, destacar que las propuestas desarrolladas en el contexto de esta tesis y los ejemplos utilizados para ilustrarlas, han sido extraídas de casos de empresas reales.

6 de Abril de 2018

  • Autor: Mora Merchán, Javier María.
  • Titulo: “Análisis de cadenas derivadas de modelos desconocidos. Aplicación al análisis del cante flamenco ”
  • Departamento: Tecnología Electrónica.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1613265
  • Directores: Carlos León de Mora y Joaquín Mora Roche (Codirector).
  • Sinopsis:

    Los sistemas derivados de modelos desconocidos son sistemas de transmisión de información sobre un canal ruidoso en los que no existe una trazabilidad en los mensajes ni mecanismos de realimentación con el emisor original de la misma. La presencia de estas limitaciones en el proceso de comunicación, conforma los mensajes recibidos como copias distorsionadas de los originales.

    En la presente tesis, se presentan distintas herramientas que ayudan a caracterizar los modelos en los que se basan los mensajes registrados. Para ello sólo se impone la necesidad de que los mensajes puedan ser expresados en forma de cadena.

    Las técnicas propuestas, basadas en tres enfoques complementarios, permiten posteriormente el procesado de la información generada en técnicas estándar de aprendizaje automático: desarrollo de una métrica que permite emplear técnicas de agrupación, construcción de un diccionario de descriptores que permite aplicar técnicas de lasificación y elaboración de un diccionario de subcadenas y agrupaciones de subcadenas que permite realizar técnicas de análisis semántico.

    Además de exponer las herramientas de análisis, y dado que son de naturaleza general y, por tanto, abstracta, se han ensayado las mismas sobre un campo de aplicación concreto. Así, un resultado positivo en este campo pueda servir como validación de las herramientas presentadas. Para ello se ha trabajado en el análisis de las melodías de cantes flamencos.

    Con objeto de poder validar adecuadamente las herramientas, se ha escogido un corpus de tonás que ya ha sido estudiado previamente en la literatura y se han reproducido la metodología empleada en los antecedentes. El resultado es significativamente mejor a los publicados. El resto de las herramientas ensayadas han mostrado resultados coherentes con el conocimiento existente sobre las tonás, lo que implica la validación de las herramientas que se presentan.

    Un segundo corpus se ha escogido compuesto de fandangos de Huelva. La clasificación de los fandangos de Huelva se ha realizado históricamente por criterios geográficos, y en el presente trabajo se propone una clasificación original de los fandangos por criterios melódicos.

    Por todo esto, la tesis abre nuevas líneas de investigación en el campo de la etnomusicología computacional convirtiendo a la presente en una pionera dentro del análisis del cante flamenco.

13 de Julio de 2018

  • Autor: Gutiérrez Fernández, Antonio Manuel.
  • Titulo: “Sla Management Of Non-Computational Services”
  • Departamento: Lenguajes y Sistemas Informáticos.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1719057
  • Directores: Antonio Ruiz Cortés y Manuel Resinas Arias De Reyna (Tutor/Ponente).
  • Sinopsis:

    The rise of computational services in the last decade has promoted a number of tech- niques to automate and support their enactment. A crucial element in service engineering is the Service Level Agreement (SLA), which is used as a mechanism to define guaran- tees on the performance levels of the service provided. Furthermore, it usually specifies penalties or rewards in case the service levels are not achieved or overachieved, respec- tively. In the context of SLAs, the proposals from computational domains are mainly oriented to automate different tasks in their Lifecycle, such as the negotiation of terms which will form the SLA, the enactment of services based on the SLA terms or the man- agement of computational resources to accomplish SLA goals at runtime.

    However, non-computational services, that is, services which are mainly based on business processes and are not performed by computational resources alone, such as logistics or software development services, are still supported by ad-hoc mechanisms. Therefore, the existing solutions for the management of their SLAs cannot be reused for other services. Moreover, this management is usually manually performed (e.g.: review- ing of the goals of an SLA in transport service), so their evaluation is error-prone and de- layed regarding the service execution (e.g.: it is performed when the SLA is finished), so preemptive actions to avoid SLA violations cannot be taken or are expensive to perform. Furthermore, in non-computational services, new SLA validation challenges appear as these SLAs are sometimes described in the context of a more general frame agreement that predefines several aspects of the SLA. This is common in logistics scenarios where a frame agreement with general conditions about transports is defined for a certain period of time and specific SLAs within the context of the frame agreement are created for each transport.

    This dissertation is aimed at partially automating this management of SLAs in non- computational services based on the hypothesis that existing SLA models for computa- tional services can be extended to non computational services and enable the description of the service operative and their guarantees. The contributions of this dissertation are three. First, providing a model to describe Service Level Agreements of non computational services, as an extension of iAgree, an existing model for SLAs of computational services. Second, providing a design for oper- ations to partially automate the SLA lifecycle. And, lastly, providing a model for frame and specific agreements which relates their terms and formalises the analysis operations among them.

    The current dissertation has been based on real SLAs from different domains, such as Transport & Logistics, public Cloud providers or IT Maintenance outsourcing, which have been used to validate the proposal. Furthermore, the contributions have been ap- plied in the context of real IT Maintenance outsourcing projects.

10 de Diciembre de 2018

  • Autor: Fernández Cerero, Damian.
  • Titulo: “Energy and Performance-Aware Scheduling and Shut-Down Models for Efficient Cloud-Computing Data Centers”
  • Departamento: Lenguajes y Sistemas Informáticos.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1721142
  • Directores: Juan Antonio Ortega Ramírez, Alejandro Fernández-Montes González (Codirector) y Juan Antonio Ortega Ramírez (Tutor/Ponente).
  • Sinopsis:

    This Doctoral Dissertation, presented as a set of research contributions, focuses on resource efficiency in data centers. This topic has been faced mainly through the development of several energy-efficiency, resource-managing and scheduling policies, as well as the simulation tools required to test them in realistic cloud-computing environments.

    Several models have been implemented in order to minimize energy consumption in Cloud-Computing environments. Among them: a) Fifteen probabilistic and deterministic energy policies which shut-down idle machines; b) Five energy-aware scheduling algorithms, including several genetic algorithm models; c) A Stackelberg game-based strategy which models the concurrency between opposite requirements of Cloud-Computing systems in order to dynamically apply the optimal scheduling algorithms and energy-efficiency policies depending on the environment; and d) A productive analysis on the resource efficiency of several realistic cloud-computing environments.

    A novel simulation tool called SCORE, able to simulate several data-center sizes, machine heterogeneity, security levels, workload composition and patterns, scheduling strategies and energy-efficiency strategies, was developed in order to test such strategies in large-scale cloud-computing clusters. As results, more than fifty Key Performance Indicators (KPI) show that more than 20% of energy consumption can be reduced in realistic high-utilization environments when proper policies are employed.

30 de Noviembre de 2018

  • Autor: Estrada Torres, Irene Bedilia.
  • Titulo: “Enhancing the Modelling Perspective of Process Performance Management”
  • Departamento: Lenguajes y Sistemas Informáticos.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1719054
  • Directores: Adela del Río Ortega, Manuel Resinas Arias de Reyna y Antonio Ruiz Cortés (Tutor/Ponente).
  • Sinopsis:

    Process Performance Management, which comprises the stages of planning, monitoring and controlling of business process performance, is considered an essential part of business process management and provides a detailed understanding of how business processes can be designed and redesigned to improve their performance. The performance of business processes is usually measured by means of process performance indicators (PPIs), that are evaluated and monitored with the aim of identifying whether strategic and operational goals are being achieved. The same as business processes, and actually together with them, these PPIs must be defined and modelled, so in this dissertation, we focus on their Modelling Perspective.

    Most proposals related to the performance measurement of business processes have focused on measuring the performance of structured, repetitive and highly defined business processes. Changes and new requirements of businesses have given rise to new needs in the management of business processes, requiring more flexibility for instance, to manage collections of business process alternatives and knowledge-intensive and highly dynamic processes. However, current techniques of process performance management have not evolved at the same pace as business processes. Existing proposals cannot be used “as is” in scenarios with business processes that require more flexibility because those processes have different nature. For example, those proposals are not able to define PPIs on collections of business processes or to define PPIs taking into account process elements that are not usually present in traditional processes, such as decisions, interactions or collaborations between participants. This generates a gap between business processes and the measurement of their performance.

    In order to face this challenge, this dissertation seeks to extend the current boundaries of process performance measurement. To do so, we based on existing and wellfounded techniques, mainly applicable to structured business processes whose behaviour is mostly known a priory, and extend them to cope with the new identified requirements. Specifically, we propose a set of artefacts that focus on the definition and modelling perspective of performance measures and indicators.

    We validated the proposals presented through different scenarios and case studies: by analysing the processes and performance measures of the Supply Chain Operations Reference (SCOR) model, using measures and indicators provided by the Andalusian Health Service (Spain) and by means of a case study in an information and communication technology outsourcing company in Brazil.

    Our proposal allows us to: reuse total or partial PPI definitions in different PPIs or business processes; define PPIs in a collection of business processes (process family) taking into account the variability of processes and PPIs themselves; define PPIs over Knowledge-intensive Processes; use a methodology to guide participants in the implementation of PPIs in accordance to business goals; analyse the impact of decisions related to business processes on PPIs; define decision performance indicators (DPIs) to measure the performance of decisions related to business processes; and use process performance information in the definition of decisions.

3 de Diciembre de 2018

  • Autor: Domínguez Morales, Juan Pedro.
  • Titulo: “Neuromorphic Audio Processing Through Real-Time Embedded Spiking Neural Networks”
  • Departamento: Arquitectura y Tecnología de Computadores.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1712415
  • Directores: Angel Francisco Jiménez Fernández, Manuel Jesús Domínguez Morales (Codirector) y Saturnino Vicente Díaz (Tutor/Ponente).
  • Sinopsis:

    Neuromorphic engineering is a discipline that studies, designs and implements hardware and software with the aim of mimicking the way in which nervous systems work, focusing its main inspiration on how the brain solves complex problems easily. Audio processing and speech recognition have become important tasks to improve the human-machine interface. Taking into account the limitations of current automatic speech recognition systems, like non-real time cloud-based solutions or power demand, recent interest for neural networks and bio-inspired systems has motivated the implementation of new techniques. Among them, a combination of spiking neural networks and neuromorphic auditory sensors offer an alternative to carry out the human-like speech processing task.

    In this work, novel speech recognition and audio processing systems based on a spiking artificial cochlea and neural networks are proposed and implemented, including a software tool for post-processing the information obtained from spiking cochleae, a hardware implementation of an audio samples classifier using spiking neural networks, a Deep Learning-based system for the recognition of heart murmurs that improves current state-of-the-art solutions, and a real-time speech recognition approach for voice commands classification using Deep Learning mechanisms and spiking convolutional neural networks implemented in hardware.

    The performance and efficiency of these systems have been evaluated, obtaining conclusions and proposing improvements for future works.

5 de Febrero de 2018

  • Autor: Cabrera Mendieta, Diego Roman.
  • Titulo: “Modelado de Sistemas Dinámicos con Machine Learning: Aplicaciones al mantenimiento basado en la condición.”.
  • Departamento: Ciencias de la Computación e Inteligencia Artificial.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1567899
  • Directores: Fernando Sancho Caparrini.
  • Sinopsis:

    El estudio de los sistemas dinámicos es un tema de gran interés tanto en la ingeniería como en las ciencias por su gran aplicabilidad a la resolución de problemas que, con frecuencia, aparecen en un sin número de áreas. Sin embargo los métodos formales hasta ahora utilizados para su análisis, no han tenido la flexibilidad suficiente para adaptarse a sistemas de complejidad creciente, donde la interacción de sus elementos no permite una inferencia directa del comportamiento del sistema, en una, o varias de sus variables. Por otro lado, los nuevos avances en las técnicas de Machine Learning han demostrado tener una gran capacidad de adaptación en dominios tan diversos resultando en la necesidad de cambios minoritarios para su aplicación entre uno u otro. A pesar de esto, su estudio en el modelado de sistemas dinámicos, como tarea fundamental, ha sido pocas veces abordado.

    Por las razones anteriores, este trabajo se enfoca en el desarrollo de 3 metodologías para modelado de sistemas dinámicos desde la perspectiva del Machine Learning a partir de información incompleta de sus variables representadas como series temporales de alta complejidad. Las propuestas son presentadas en función de los diferentes escenarios de información disponible para el modelado, que pudieran llegar a aparecer en situaciones reales. Como primera metodología se propone el modelamiento del sistema dinámico con un enfoque manual de caracterización de estados usando el conocimiento a-priori del sistema mediante la descomposición por Wavelet Packet y la posterior identificación de patrones mediante una técnica clásica de clasificación llamada Random Forest. Como segunda propuesta se presenta el aprendizaje no-supervisado del proceso de caracterización que se adapta de forma automática al sistema dinámico en estudio mediante el modelo Stacked Convolucional Autoencoder, el cual inicializa una Red Neuronal Convolucional Profunda que luego es optimizada de forma supervisada, donde además el proceso de identificación de patrones se encuentra embebido, y es optimizado junto con el modelo de extracción de características. La tercera propuesta en cambio cumple la tarea de caracterización e identificación de patrones de forma no-supervisada, lo primero mediante el aprendizaje de una representación óptima de las series temporales codificada en los parámetros de un Echo State Network, y lo segundo por medio de un Variational Autoencoder, un modelo capaz de aproximar la distribución de probabilidad (a menudo compleja) de los datos. En esta última aproximación se elimina la necesidad de conocer la etiqueta de las series de tiempo que provienen de los estados del sistema dinámico.

    Las metodologías propuestas son evaluadas en tareas de mantenimiento basado en la condición como son el diagnóstico de fallos, la estimación de la severidad de daño y la detección de fallos en elementos de maquinaria rotativa (concretamente distintos tipos de engranajes y rodamientos). Los altos indices de exactitud obtenidos en los resultados de la evaluación en cada tarea, muestran que las metodologías aportadas dan un nivel elevado de confiabilidad, robustez y flexibilidad. Además, frente a comparaciones realizadas con otras metodologías reportadas en el estado del arte, las propuestas presentan un desempeño superior en todos los casos.

12 de Septiembre de 2018

  • Autor: Álvarez de la Concepción, Miguel Angel.
  • Titulo: “Desarrollo y Versatilidad del Algoritmo de Discretización Ameva”
  • Departamento: Lenguajes y Sistemas Informáticos.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1675902
  • Directores: Juan Antonio Álvarez García, Luis Miguel Soria Morillo y Juan Antonio Ortega Ramírez (Tutor/Ponente).
  • Sinopsis:

    This thesis, presented as a set of research papers, studies the problem of activity recognition and fall detection in mobile systems where the battery draining and the accuracy are the main areas of researching. These problems are tackled through the establishment of a new selection, discretization and classification algorithm based on the core of the algorithm Ameva. Thanks to the discretization process, it allows to get an efficient system in terms of energy and accuracy.

    The new activity recognition algorithm has been designed to be run in mobile systems, smartphones, where the energy consumption is the most important feature to take into account. Also, the algorithm had to be efficient in terms of accuracy giving an output in real time. These features were tested both in a wide range of mobile devices by applying usage data from recognized databases and in some real scenarios like the EvAAL competition where non-related people carried a smart-phone with the developed system. In general, it had therefore been possible to achieve a trade-off between accuracy and energy consumption.

    The developed algorithm was presented in the Activity Recognition track of the competition EvAAL (Evaluation of Ambient Assisted Living Systems through Competitive Benchmarking), which has as main objective the measurement of hardware and software performance. The system was capable of detecting some activities through the established set of benchmarks and evaluation metrics. It has been developed for multi-class datasets and obtains a good accuracy when there is approximately the same number of examples for each class during the training phase. The solution achieved the first award in 2012 competition and the third award in 2013 edition.

Tesis 2017

Tesis doctorales defendidas en el año 2017:

7 de Diciembre de 2017

  • Autor: Ventalon, Geoffrey Robert.
  • Titulo: “La Compréhension De La Métaphore Dans Les Images”.
  • Departamento: Lenguajes y Sistemas Informáticos.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1703082
  • Directores: María José Escalona Cuaresma (Director) y Charles Tijus (Director).
  • Sinopsis:

    A metaphor is a figure of speech in which the meaning of one term is transferred to another term. For example, the sentence “Axel is a fox” is a metaphor expressing that a man is smart. However, metaphors can be introduced not only in text, but in pictures as well. For example, the image of a man with the body of a fox can refer to the sentence “this man is a fox.” According to Forceville (2007,2009), a pictorial metaphor can be characterized according to its type (contextual metaphor, hybrid metaphor, simile, and integrated metaphor), its structure (monomodal and multimodal metaphor) and its use (in commercials, social campaigns, political cartoons, or art). The aim of this work is to create a knowledge base of the characteristics of pictorial metaphors (topics, vehicles). Five experimental studies examined the understanding of monomodal pictorial hybrid metaphors by focusing on the property attribution process in several situations concerning the effect of the native language (French versus Spanish), context, age, and use of the metaphor.

    The results of the first three experiments show that native French speaking participants attribute more conceptual properties than perceptual properties and succeed in determining the incongruence of a property while native Spanish speaking participants attribute more perceptual than conceptual properties and take the context into account when assigning properties. Moreover, they also succeed in detecting the incongruence of a pictorial metaphor’s property. Since the experimental material was created by native French participants, these results make it possible to highlight the cultural effect. The last two experiments concern the influence of the domain. Advertising and political caricatures on positive and negative valence show that advertising metaphors are judged more positively than political cartoons. The discussion section illustrates perspectives of research employed in current studies focused on pictorial metaphor comprehension and the use of specific tools (e.g., the eye tracker). The understanding of pictorial metaphors could be applied to others field of expertise in psychology (e.g., Neuropsychology), other people (e.g., children), and different cultures (e.g., Korean, Russian).

14 de Diciembre de 2017

  • Autor: Schon, Eva-Maria.
  • Titulo: “A Framework For Modeling And Improving Agile Requirements Engineering”.
  • Departamento: Lenguajes y Sistemas Informáticos.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1548891
  • Directores: María José Escalona Cuaresma y Jörg Thomaschewski.
  • Sinopsis:

    Context. Companies adopt hybrid development models consisting in an integration of agile methodologies and Human-Centered Design (HCD) with the aim to increase value delivery as well as to reduce time to market. This has an impact on how Requirements Engineering (RE) is carried out in an agile environment. To this end, people apply different kind of agile techniques like artifacts, meetings, methods and roles. In this context, companies often struggle with improving their value chain in a systematic manner, since guidelines for choosing an appropriate set of agile techniques are missing.

    Objective. The vision of this PhD thesis is to build a framework for modeling agile RE. Organizations benefit from implementing this framework by increasing their value delivery (organization external) and improving collaboration (organization internal).

    Method. We followed an inductive research approach, where we used the learning from several studies to create the framework. In the beginning, we carried out a Systematic Literature Review (SLR) to analyze the state of the art of agile RE with focus on user and stakeholder involvement. Subsequently, we created the agile RE metamodel, which evolved iteratively along the consecutively studies. Based on the metamodel, we defined a suitable profile to be used to create domain specific models according to the organizational environment. Moreover, we conducted a Delphi study in order to identify the most important problems industry has to face up today in terms of agile RE. The results were used as input for a systematic pattern mining process, which was utilized to create agile RE patterns.

    Results. The framework for modeling agile RE consists of three main components: i) agile RE metamodel, which can be used to analyze the organizational environment in terms of value delivery ii) catalog of agile RE problems, which allows detecting recurring problems in terms of agile RE iii) catalog of agile RE patterns, which allows to solve the detected problems. The agile RE metamodel comes with a profile, which can be used to deviate domain specific models. In addition, we created tool support for the framework by means of a web application (agileRE.org), which allows us to share knowledge and best practices for agile RE. Furthermore, we proved how the framework could be applied in industry by means of case studies conducted in Germany and in Spain.

    Conclusion. The framework for modeling agile RE empowers companies to improve their organizational environments in terms of value delivery and collaboration. Companies can utilize the framework for improving their value chain in a systematic manner. In particular, it gives guidance for choosing appropriate agile techniques that fit the changing needs of the organizational environment. In addition, we can state that the framework is applicable internationally.

30 de Marzo de 2017

12 de Mayo de 2017

  • Autor: José Miguel More Gutierrez.
  • Titulo: “Implementaciones VLSI de Cifradores de Flujo Trivium de Bajo Consumo ”.
  • Directores: Carlos Jesus Jimenez Fernandez y Manuel Valencia Barrero.
  • Sinopsis:

    En toda comunicación de datos se hace necesario proteger y garantizar de una manera adecuada la información enviada a través de cualquier tipo de red para evitar que un observador no autorizado pueda acceder o cambiar la información o suplantar identidades. Estas comunicaciones, cada vez más, se realizan entre dispositivos portables, cuyo funcionamiento con baterías y con limitados recursos de computación imponen importantes condicionantes a los mecanismos de cifrado y autenticación. La necesidad cada vez mayor de hacer segura y privada esta información transmitida entre dispositivos electrónicos portables e inalámbricos está haciendo que el uso de algoritmos criptográficos de bajo consumo de potencia y de recursos (lightweight cryptography) sea muy común hoy en día, y con un futuro muy prometedor sobre todo en el escenario de Internet de las Cosas (IoT: Internet of Things).

    En esta Tesis se presenta el diseño, implementación y caracterización de cifradores de flujo de bajo consumo de potencia. Para la selección de estos cifradores, nos hemos centrado en las propuestas de cifradores de flujo (stream ciphers) que el Proyecto eSTREAM de la Red Europea de Excelencia en Criptología, ECRYPT (European Network of Excellence in Cryptology) seleccionó como las que presentaban mejores prestaciones en sus implementaciones hardware. Entre ellos se eligió al cifrador Trivium para proponer arquitecturas eficientes en términos de consumo de potencia aplicando la técnica de paralelización en diferentes diseños a nivel lógico. La aplicación de esta técnica y la elección del cifrador Trivium han sido tomadas tras una revisión del estado del arte sobre las implementaciones hardware dentro de los algoritmos criptográficos con bajo consumo de recursos y del consumo de potencia.

    Se han realizado dos propuestas de cifradores de flujo Trivium con arquitecturas eficientes para bajo consumo denominadas MPLP (Mixed Parallel Low Power) y FPLP (Full Parallel Low Power). Estas propuestas han sido diseñadas y simuladas con uno, dos, ocho y dieciséis bits a la salida para obtener resultados de recursos, área y consumo de potencia. Estos resultados se han comparado con los obtenidos para la versión estándar con los mismos bits de salida. Se han utilizado para estos diseños distintas librerías de celdas estándar de diferentes tecnologías de fabricación de circuitos integrados y de dispositivos programables, FPGA. Como tecnologías ASIC se han usado tecnologías submicrónicas y nanométricas, en concreto, 350 nm, 180 nm, 130 nm, y 90 nm. En FPGAs se han utilizado las familias de dispositivos de Xilinx Spartan-3E y Virtex-5. Finalmente, para la verificación experimental, se ha implementado, mandado a fabricar y testado un circuito integrado (ASIC) en una tecnología de 90 nm, que contiene las propuestas de los cifradores Trivium con y sin técnicas de bajo consumo. Estas propuestas incluyen cifradores con salidas de uno, dos, ocho y dieciséis bits, y se han obtenido resultados experimentales de consumo de potencia y otras medidas con el equipo de test de señal mixta Agilent 93000.

    Como resultado del trabajo realizado se puede sintetizar y destacar como conclusión final que las propuestas de diseño Trivium presentadas mejoran el consumo de potencia de la versión estándar en los casos de uno, dos y ocho bits a la salida. No es así en el caso de dieciséis bits. Con respecto a los recursos empleados, estos crecen significativamente con el aumento del número de bits de salida, aunque las versiones de bajo consumo MPLP y FPLP mantienen una buena relación en los recursos empleados y en el área en las propuestas de un bit y dos bits.

    Todas las medidas realizadas, tanto por simulación como experimentalmente, avalan los datos de mejora en el consumo, siendo los casos de uno y dos bits de los cifradores Trivium FPLP y MPLP los que mejores resultados ofrecen en su conjunto, mejora que es extraordinariamente importante en el caso de un bit donde se alcanza el 50% manteniendo prácticamente los mismos costes en recursos y prestaciones en velocidad.

  • Teseo: N.A.
  • Repositorio USE: http://www.doctorado.us.es/tesis-doctoral/repositorio-tesis/tesis-2017/details/2/6193
  • IMSE/CNM: http://www.imse-cnm.csic.es/es/publicaciones.php?select1=60&select2=0&tipo_doc[]=All

13 de Octubre de 2017

  • Autor: José González Enriquez.
  • Titulo: “A Model-Driven Engineering Approach for the Uniquely Identity Reconciliation of Heterogeneous Data Sources”.
  • Directores: Francisco José Domínguez Mayo y María José Escalona Cuaresma.
  • Sinopsis:

    Previous chapters of this PhD thesis hold up the work where we present and define a theoretical and practical Framework. They also describe a work based on a real need in organizations (Chapter I), that later has turned into a specific problem (Chapter III) derived from the results and conclusions obtained after studying the state-of-the-art (Chapter II). Once the context has been specified, the remaining PhD thesis introduces a Framework composed three main pillars: (i) the MaRIA Process (Chapter IV), (ii) the Model-Driven approach (Chapter V) to support the entity reconciliation modeling preparing the system to be developed to be systematically tested defining a set of transformation mechanisms (Chapter VI) and (iii), a support tool to cover the previous two pillars called MaRIA Tool (Chapter VII). To apply the theoretical framework to real environments. In this sense this approach has been put in practice in two real world case studies presented in Chapter VIII.

    This Doctoral Thesis propose a suitable environment to support the entity reconciliation in the requirements and analysis phases. This environment allows the development team to prepare their future system to guarantee a suitable entity reconciliation with, besides could be systematically tested.

  • Teseo: N.A.
  • Repositorio USE: N.A.
  • SISIUS: https://investigacion.us.es/sisius/sis_showpub.php?idpers=20334

17 de Mayo de 2017

  • Autor:Jorge Sedeño Lopez.
  • Titulo: “Una propuesta para el descubrimiento sistemático de Servicios en fases tempranas de desarrollos ágiles”.
  • Directores: Maria José Escalona Cuaresma y Manuel Mejias Risoto.
  • Sinopsis:

    El objetivo principal de la presente Tesis Doctoral será proponer en un único proceso, la formalización de un requisito, fundamentándolo en técnicas ágiles (debido a su agilidad y completitud), que pueda ser gestionado contra un Catálogo de Servicios, a fin de descubrir qué Servicios dentro del contexto, son susceptibles de ser incorporados en el desarrollo de la nueva aplicación para dar cobertura a ese requisito.

    El cuerpo de esta Tesis Doctoral pues, se cimenta sobre la definición de una serie de metamodelos. Para ello, se define un metamodelo en el que se formalizarán los Servicios pertenecientes al Catálogo de Servicios de dicha organización, que contendrá la funcionalidad identificada y viva, en el contexto, de forma normalizada. A su vez, se define un metamodelo de requisitos que permita la formalización ágil, temprana y completa de los nuevos requisitos. Para este punto será necesario el uso de las nuevas técnicas y metodologías ágiles que se han usado con buen resultado, precisamente, para disponer de un conjunto homogéneo de requisitos funcionales y no funcionales, completo y ágil.

    Como resultado de la presente Tesis Doctoral, obtenemos un proceso sistemático y coherente para el descubrimiento de los Servicios Candidatos, definiendo la relación entre los metamodelos que nos permita descubrir qué Servicios dentro del Catálogo de Servicios dan cobertura a un conjunto total o parcial de los requisitos, es decir, identificar los Servicios Candidatos para su análisis, mediante la propuesta de un algoritmo que realice las consultas entre los diferentes campos de los metamodelos basada en la puntuación de dichas búsquedas, a partir de esa correspondencia. Así mismo se plantea una arquitectura tecnológica capaz de soportar dicho proceso, el framework DS4aRE.

    En conclusión, esta Tesis Doctoral plantea una solución a un problema específico: realizar el proceso sistemático y coherente para el descubrimiento de los Servicios Candidatos dentro del contexto de una organización que presta Servicios, a través de la formalización de requisitos usando técnicas y metodologías ágiles a fin de identificar, dentro del Catálogo de Servicios de la organización, qué funcionalidad de los nuevos requisitos está ya contenida.

    Por último, el trabajo presenta la evaluación de los resultados obtenidos en un entorno de producción real, basado en la instanciación de dicha solución, cuya aplicación ha sido considerada como satisfactoria.

    Como aportación de la presente Tesis Doctoral obtenemos un proceso sistemático y coherente para el descubrimiento de los Servicios Candidatos, que nos permita descubrir qué Servicios dentro del Catálogo de Servicios dan cobertura a un conjunto total o parcial de los requisitos, es decir, identificar los Servicios Candidatos para su análisis. Además se obtiene en este trabajo el framework DS4aRE que soporta e implementa dicho proceso y es desplegable en una organización real.

    En conclusión, esta Tesis Doctoral plantea una solución a un problema específico: realizar el proceso sistemático y coherente para el descubrimiento de los Servicios Candidatos dentro del contexto de una organización que presta Servicios, a través de la formalización de requisitos usando técnicas y metodologías ágiles a fin de identificar dentro del Catálogo de Servicios de la organización que funcionalidad de los nuevos requisitos está ya contenida.

    Uno de los beneficios fundamentales de esta gestión ágil de requisitos dentro el Gobierno de los Servicios, desde las etapas más tempranas del desarrollo, desembocará en la eficacia y eficiencia de los recursos, del propio desarrollo software y de una mejor prestación de dichos Servicios.

    Desde las etapas más tempranas de la elicitación de requisitos, se conocerá qué Servicios, dentro de la organización, cubren parte de la funcionalidad, por lo que la reutilización del software se maximizará para estos desarrollos, con el consiguiente ahorro en tiempo y coste y aumentando la calidad de las nuevas aplicaciones.

    Así mismo, se mejora, dentro del Gobierno de TI, el gobierno de los Servicios debido a que la temprana identificación de su uso, hace posible que se puedan ejecutar las políticas adecuadas a su ciclo de vida, redundando así en un mejor control de los Servicios y por tanto mejorando la prestación de los mismos y minimizando el impacto de los sucesivos cambios de estado dentro de su ciclo de vida.

    Por último, el trabajo presenta la evaluación de los resultados teóricos obtenidos en un entorno de producción basado en la instanciación de la solución, cuya aplicación ha sido considerada como satisfactoria.

  • Teseo: N.A.
  • Repositorio USE: http://www.doctorado.us.es/tesis-doctoral/repositorio-tesis/tesis-2017/details/2/6287
  • LinkedIn: https://www.linkedin.com/in/jorgesedeno/

12 de Julio de 2017

  • Autor: Javier Romero Lemos.
  • Titulo: “Técnicas de Minería de Datos en el Proceso de Secuencias Temporales. Aplicaciones a la Clasificación Industrial de Sonidos”.
  • Directores: Alejandro Carrasco Muñoz y7 Amalia Luque Sendra.
  • Sinopsis:

    El proceso de secuencias temporales supone un campo de trabajo específico dentro de las técnicas de minería de datos o aprendizaje automático. Entre las tareas de esta disciplina se encuentra la clasificación de secuencias temporales que, por su especificidad, admite el uso de tratamientos diferenciados. Entre los datos con estructura de secuencia temporal pueden destacarse las señales sonoras. Existen numerosas aplicaciones en las que resulta de utilidad la clasificación automatizada de sonidos. En muchas de ellas se requiere que la solución propuesta tenga unas características que podríamos calificar de industriales: robustez, inmunidad al ruido, normalización, operación en tiempo real, bajo consumo y bajo coste.

    En esta tesis se analizan y comparan distintos métodos de clasificación de sonidos. Para ello, se segmentan los sonidos en fragmentos (ventanas) de muy corta duración y se propone el uso del estándar ISO MPEG-7, cuya aplicación permite obtener un conjunto normalizado de parámetros. Se consideran hasta nueve algoritmos de clasificación que, tomando como patrones distintos sonidos de clases conocidas, realizan una clasificación supervisada sin tener en cuenta el carácter secuencial de las mismas (clasificación no secuencial). Para tener en cuenta el carácter secuencial de los sonidos se proponen y comparan distintos métodos (clasificación secuencial). Para pasar de la clasificación de una ventana, o secuencia de ventanas, a la clasificación de un sonido completo la presente investigación propone una clasificación de series derivadas. Se define una serie (vectorial) derivada como la secuencia de probabilidades de que cada ventana pertenezca a una determinada clase. Se propone la caracterización de las series derivadas como si se tratase de sonidos, es decir, mediante la caracterización de cada uno de sus ventanas usando parámetros MPEG-7 y su posterior clasificación supervisada usando alguno de los algoritmos clasificadores propios de la minería de datos.

    El resultado del análisis realizado permite afirmar que el uso de los parámetros MPEG-7 constituye una buena alternativa para caracterizar sonidos. En la aplicación analizada el mejor clasificador no secuencial ha resultado ser el árbol de decisión. Por otra parte, la introducción de un método de ventana deslizante aparece como la mejor opción de clasificación secuencial, aunque con una mejora muy discreta sobre la técnica no secuencial. Adicionalmente, se ha podido evidenciar que la clasificación de las series derivadas supone una mejora muy notable en las prestaciones del clasificador.

  • Teseo:
  • Repositorio USE: http://www.doctorado.us.es/tesis-doctoral/repositorio-tesis/details/2/6260
  • LinkedIn: https://www.linkedin.com/in/javier-romero-lemos-1bb256144/

3 de abril de 2017

  • Autora: Martínez García, Alicia
  • Titulo: Resolviendo el diseño de modelos de dominio HL7 mediante soluciones guiadas por modelos.
  • Directores: Domínguez Mayo, Francisco José, Escalona Cuaresma, María José
  • Sinopsis: Hoy en día, los sistemas de información sanitarios son cada vez más complejos, y su desarrollo se presenta como un desafío para las empresas de desarrollo de software que deseen encontrar mercado en los sistemas sanitarios, ofreciendo productos de calidad, mantenibles e interoperables. La necesidad de una historia clínica compartida a nivel mundial es una realidad, surgiendo la necesidad de utilizar estándares de informática sanitaria que permitan establecer las normas de intercambio de información clínica. UML (Unified Modeling Language) es un lenguaje estándar de modelado ampliamente conocido por los ingenieros del software, que permite definir las entidades y relaciones que presenta un sistema de información, permitiendo diseñar un sistema software en todas las fases del ciclo de vida por las que puede pasar. Son muchos los estándares que podemos encontrar en el ámbito de la interoperabilidad de información clínica. HL7 (Health Level 7) International es una organización internacional sin ánimo de lucro que define y mantiene estándares relacionados con los sistemas de información sanitarios. La mayoría de los modelos de dominio con los que trabaja HL7 están diseñados en base a un lenguaje gráfico propio. Muy pocas herramientas soportan los lenguajes de HL7. En la presente Tesis Doctoral se pretenden acercar estos 2 mundos, UML y HL7, para ofrecer a los ingenieros del software una metodología capaz de modelar sistemas de información sanitarios conformes a HL7, utilizando modelos de dominio UML ampliamente conocidos. Para tal fin, se decidió utilizar técnicas basadas en el paradigma MDE (Model Driven Engineering), consiguiendo un marco de referencia usable, reduciendo la curva de aprendizaje de los usuarios finales, y permitiendo modelar sistemas de información sanitarios mantenibles y adaptables. Este marco de referencia, desarrollado en el contexto de la presente Tesis Doctoral, bautizado como MoDHE (Model Driven Health Engineering), se sustenta sobre en 3 pilares principales. El primer pilar, la metodología, ofrece un procedimiento que permite diseñar modelos de dominio HL7 como parte del desarrollo de un sistema de información sanitario. El segundo pilar, el lenguaje de modelado basado en HL7, extiende a UML para modelar sistemas de información sanitarios conforme a todo el espectro de estándares de HL7. El tercer pilar, los mecanismos de derivación, hacen posible la interoperabilidad entre estándares, facilitando la mantenibilidad y extensión de los sistemas.

    A la hora de desarrollar la metodología de MoDHE, se decidió acotar el alcance de la presente Tesis Doctoral, ya que HL7 cuenta con cientos de estándares. Por ser los estándares más utilizados en España, se decidió trabajar con 3 de los principales estándares de HL7: v3, CDA y v2.x. Para materializar y automatizar este marco de referencia, se ha desarrollado una herramienta de soporte, registrada como MoDHE Suite. Esta herramienta permite diseñar modelos de dominio conformes a HL7 utilizando una interfaz basada en UML. También permite generar modelos de un estándar concreto tomando como base modelos ya existentes de otro estándar concreto. Dicha herramienta ha sido validada en un caso de estudio real extraído de un proyecto en el que participó el Grupo de Innovación Tecnológica del Hospital Universitario Virgen del Rocío, demostrando que la solución desarrollada es de gran utilidad. En definitiva, la presente Tesis Doctoral plantea el desarrollo de un marco de referencia que facilita el diseño de modelos de dominio conformes a HL7 utilizando una interfaz basada en UML, abordando tanto el planteamiento teórico que los sustenta a través del marco de referencia MoDHE, como el planteamiento práctico mediante la herramienta de soporte MoDHE Suite.

  • Departamento: Lenguajes y Sistemas Informáticos
  • idUS: https://idus.us.es/handle/11441/58960

29 de setiembre de 2017

  • Autor: Cabrera Cabrera, Rafael
  • Titulo: Diseño de interfaces para la mejora del acceso a las tecnologías de personas con dificultades motrices.
  • Directores: Molina Cantero, Alberto Jesús, Gómez González, Isabel María.
  • Sinopsis: La parálisis cerebral es la causa más común de discapacidad física en la infancia. La supervivencia de niños con parálisis cerebral cada vez es mayor y las terapias y tratamientos están mejorando por lo que el número de adultos con discapacidad física por parálisis cerebral está en crecimiento. Al igual que todo ser humano, estas personas tienen una serie de necesidades vitales que deben cubrir para poder completar con éxito sus labores personales, sociales y profesionales. Trabajar, comunicarse, aprender, compartir, alimentarse, informarse, etc. son algunas de las actividades que, en función de nuestras capacidades y habilidades personales, se puede convertir en un desafío difícil de superar, resultando a veces, incluso, inabordable. En estos casos, es habitual que los usuarios dependan de terceras personas para realizar sus tareas diarias, impidiendo que el usuario sienta una realización personal completa y provocando, en muchos casos, problemas psicológicos (autoestima, inseguridad, ansiedad, etc). Esta tesis doctoral tiene como principal objetivo encontrar mecanismos que permitan mejorar la calidad de vida de personas con discapacidad física mediante el uso de las tecnologías de la información y las comunicaciones (TIC). Los trabajos presentados están orientados al desarrollo de soluciones basadas en el sensor Kinect de Microsoft que permitan por un lado, ofrecer una alternativa más cómoda y eficiente a aquellas personas con dificultades motrices que acceden al ordenador habitualmente, y por otro lado, proveer acceso al ordenador a aquellas personas cuyas limitaciones físicas le impiden utilizar los dispositivos, convencionales o adaptados, existentes.

    Entre los resultados obtenidos, se ha confirmado que Kinect no solo tiene potencial como dispositivo de acceso para personas con dificultades motrices, sino que, además, en algunos caso resulta más eficiente que otros dispositivos. Se presenta un algoritmo, basado en velocidad, para la detección de movimientos voluntarios.

    También se aporta una herramienta para la captura de datos de los movimientos de los usuarios utilizando Kinect. Dicha herramienta no solo nos facilita el estudio de los movimientos de los usuarios para poder mejorar el algoritmo presentado, sino que además nos permite calcular la precisión del mismo, que, de forma preliminar, hemos establecido en un 86.67%.

  • Departamento: Tecnología Electrónica
  • idUS: https://idus.us.es/handle/11441/68535

26 de enero de 2017

  • Autor: Barcelona Liédana, Miguel Ángel
  • Titulo: Una solución basada en modelos para la generación de procesos y casos de negocio colaborativos.
  • Directores: Ramos Román, Isabel. Escalona Cuaresma, María José
  • Sinopsis: Hoy en día la mayoría de productos y servicios existentes son fruto de la colaboración de un gran número de compañías que forman una cadena de valor, a veces denominada cadena de suministro (CdS). Para conseguir eficiencia las organizaciones gestionan sus procesos y crean modelos de los mismos para analizarlos, mejorarlos, optimizarlos, así como para garantizar su uso de forma sistemática e institucionalizada. Existen muchos lenguajes que soportan el modelado de procesos, si bien la mayoría de ellos se centra en la perspectiva individual y no en la colaboración en la CdS. Aquellos que cubren la colaboración plantean un modelo top-down, partiendo del diseño del proceso global y posteriormente detallando el comportamiento individual, para lo cual todas las organizaciones deben acordar un único lenguaje tanto para modelar tanto su operativa interna como la colaboración en la CdS, lo que en la práctica impide la reutilización de la perspectiva individual que cada organización tenga de su operativa. Por ello este trabajo de tesis se centra en la necesidad de crear modelos de procesos de CdS reutilizando los modelos de los procesos que cada organización pueda haber creado, incluso con diversos lenguajes de modelado, incluyendo las capacidades de flexibilidad y adaptación que son propias en los escenarios de colaboración actuales. Nuestra propuesta de solución se basa en un marco de referencia denominado Collaborative Business Generation (CBG), que pretende abordar el modelado de procesos y casos colaborativos con un enfoque bottom-up. Para ello, haciendo uso de nuevos metamodelos, métodos y transformaciones, somos capaces de representar un modelo de proceso de una organización en: 1) una vista colaborativa del proceso, manteniendo la privacidad y la autonomía en la toma de decisiones y; 2) una vista del caso en colaboración, separando la parte estática del posible comportamiento dinámico. Para alcanzarlo el marco CBG está formado por: 1) el metamodelo CBGProcess para dar soporte al modelado de procesos de negocio colaborativos; 2) el metamodelo CBGCase que, siguiendo el paradigma de gestión de casos, soporta el modelado de casos en entornos colaborativos; 3) las transformaciones modelo de modelo entre los tres metamodelos anteriores; 4) los métodos para llevar a cabo el modelo de proceso y caso colaborativo a partir de los modelos individuales, y; 5) CBG-Tool, la herramienta para facilitar la creación de modelos y la ejecución de las transformaciones desde un punto de vista práctico y favorecer su uso en entornos empresariales.

    La propuesta junto con la herramienta han sido validadas mediante casos de estudio reales extraídos de proyectos de transferencia con empresas en los que se observa cómo la propuesta desarrollada ha sido de gran utilidad en los mismos. En definitiva, esta tesis doctoral plantea el desarrollo de un marco de referencia, tanto teórico como soportado con herramientas para su uso en la práctica, para facilitar la toma de decisiones en la CdS, mediante el modelado de los procesos colaborativos generados a partir de la vista individual de cada organización y añadiendo la flexibilidad y adaptación dinámica del dominio de casos.

  • Departamento: Lenguajes y Sistemas Informáticos
  • idUS: https://idus.us.es/handle/11441/54382

24 de febrero de 2017

  • Autor: Torrecilla Salinas, Carlos Joaquín
  • Titulo: A mature agile approach in web engineering contexts.
  • Directores: Mejías Risoto, Escalona Cuaresma, María José.
  • Sinopsis: En los últimos años la importancia de la Web y los desarrollos Web en la vida de ciudadanos y empresas ha aumentado significativamente. Desde sus inicios, la comunidad investigadora intentó definir aproximaciones metodológicas para los entornos Web. De ese modo, mientras que los sistemas Web eran desarrollados inicialmente sin seguir una aproximación estructurada que pudiera garantizar resultados de calidad, aparecieron diferentes propuestas que ayudaron a establecer la Ingeniería Web como una rama diferenciada dentro de la Ingeniería del Software con líneas de investigación específicas. Los sistemas Web se caracterizan, entre otros aspectos, por una aproximación flexible a los requisitos y por la necesidad de ciclos cortos de feedback, con el fin de adaptarse y ajustarse a nuevas necesidades de clientes y usuarios. Por otro lado, uno de los principios de las metodologías Ágiles es abrazar el cambio, por lo que las aproximaciones Ágiles podrían ofrecer un marco adecuado para algunas de las características específicas de los sistemas Web. Desde el comienzo del siglo XXI se ha podido observar una tendencia creciente en el uso de métodos Ágiles en la industria por parte de algunos de los grandes del sector como Microsoft, Amazon o Yahoo. Esta tendencia también tiene lugar en los entornos Web, encontrando incluso artículos que muestran un incremento de la calidad y mejora en los resultados de los proyectos que usan métodos Ágiles. Finalmente, CMMI-DEV (Capability Maturity Model Integration for Development), como parte de la familia CMMI (Capability Maturity Model Integration), proporciona un marco comparativo que permite evaluar el nivel de madurez alcanzado en el desarrollo de software. La posibilidad de usar una aproximación Ágil para que una organización que desarrolla sistemas Web alcance un determinado nivel de madurez CMMI podría eliminar miedos y dudas en clientes y usuarios potenciales, así como ayudar a la institucionalización de los métodos y prácticas Ágiles, mientras que mantendría la capacidad de respuesta y adaptación rápida que estos ofrecen, que son elementos básicos para el desarrollo Web.

    La investigación llevada a cabo en este trabajo de tesis se centra por tanto en la definición de un marco Ágil que permita a las organizaciones que desarrollan sistemas Web progresar a través de los distintos niveles de madurez de CMMI, sin perder la habilidad de adaptarse a cambios inesperados. La idea principal es evaluar si alguna de las dos propuestas puede, por sí misma, ser usada para alcanzar los requisitos de CMMI-DEV. Tras este análisis, y una vez que se hayan identificado los “gaps” entre CMMI-DEV y Scrum/XP, trataremos de destacar, de entre el resto de propuestas Ágiles existentes, alguna otra que permita cubrir las carencias detectadas. La idea es definir un conjunto de técnicas Ágiles que puedan cubrir todos los requisitos de CMMI-DEV para sus diferentes niveles de madurez. Para concluir, intentaremos evaluar la coherencia de este conjunto de prácticas, presentando un marco Ágil consistente y coherente, que denominaremos NDT-Agile, que pueda ser usado como referencia para que organizaciones que desarrollan sistemas Web puedan alcanzar un determinado nivel de madurez de CMMI-DEV.

    Como conclusión, podemos decir que el objetivo final de este trabajo de tesis es proporcionar una respuesta sistemática a la idea de institucionalizar las propuestas Ágiles para el desarrollo de sistemas Web.

  • Departamento: Lenguajes y Sistemas Informáticos
  • idUS: https://idus.us.es/handle/11441/56021

Tesis 2016

Tesis doctorales defendidas en el año 2016:

19 de febrero de 2016

  • Autora: García Borgoñón, Laura
  • Titulo: Un marco de referencia para facilitar la interoperabilidad y mantenibilidad de los modelos de procesos de software.
  • Directores: Mejías Risoto, Manuel, Escalona Cuaresma, María José
  • Sinopsis: Hoy en día los sistemas software son cada vez más complejos y su desarrollo se convierte en un desafío continuo para las empresas de software. Varias han sido las tendencias sobre las tecnologías base para su modelado, desde la creación de nuevos lenguajes de programación específicos para procesos, pasando por la formalidad de las redes de Petri, hasta los más modernos enfoques basados en modelos de acuerdo con el paradigma de la ingeniería dirigida por modelos (Model Driven Engineering, MDE). Sin embargo, a pesar de todos los esfuerzos por generar un lenguaje de modelado de procesos de software que sobresaliera por encima del resto y se convirtiera en un estándar de uso generalizado por las organizaciones de software a nivel mundial, ninguno ha tenido una aceptación muy superior al resto. Ni siquiera el respaldo de los más importantes organismos de estandarización en el ámbito del software ha conseguido cambiar esta inercia, ya sea por el conocimiento existente en los ingenieros de procesos o por la dinámica heredada por el sector en el que una empresa se mueve. Cada organización selecciona el lenguaje de modelado de procesos de software que considera más adecuado en sus inicios, estableciendo un vínculo tan fuerte que es difícil de romper más adelante, de forma que si las necesidades evolucionan con el tiempo, es preciso un cambio de lenguaje o, simplemente, es necesario que los procesos de una organización interoperen con los de otras para llevar a cabo algún proyecto específico, la actividad de transformación o traducción a otros lenguajes se convierte en una tarea muy costosa en tiempo y esfuerzo de personal, generadora de errores e inconsistencias. A diferencia de las propuestas de estandarización más extendidas, el planteamiento en este trabajo de tesis aboga por mantener la diversidad de lenguajes de modelado de procesos de software en la organizaciones de la forma en la que éstas lo consideren oportuno, siendo su objetivo fundamental el desarrollo de un marco de referencia para facilitar, mejorar y agilizar la interoperabilidad y mantenibilidad de los modelos de procesos de software, independientemente del lenguaje elegido para su modelado. Para alcanzarlo, el marco de referencia está basado en tres pilares fundamentales. El primero de ellos consiste en un lenguaje de modelado de procesos de software adecuado para el marco, que se considera como un lenguaje base y al que hemos denominado INROMA (INteROperabilidad y MAntenibilidad). Dicho lenguaje se caracteriza por ser de fácil aprendizaje y por contener únicamente aquellos conceptos necesarios comunes para la definición y modelado de cualquier proceso de software, siguiendo la norma ISO/IEC TR 24744:2007, por lo que se convierte en una pieza clave para la interoperabilidad y mantenibilidad de los mismos. Estas características le convierten en un lenguaje de fácil acceso para cualquier organización, y no privilegia ningún lenguaje de modelado de procesos de software existente frente al resto.

    El segundo de los pilares fundamentales es el método mediante el que se establecen las bases teóricas que permiten incorporar nuevos lenguajes de modelado de procesos de software al marco de referencia. Por último, el tercero de los pilares son las transformaciones que formalizan las correspondencias y se constituyen como el nexo entre cualquier lenguaje de modelado de procesos de software incorporado al marco de referencia e INROMA. Los tres elementos conforman el marco de referencia para facilitar la interoperabilidad y mantenibilidad de los procesos de software. Teniendo en cuenta que uno de los principales propósitos en el desarrollo de este trabajo de tesis es lograr su utilización en entornos empresariales, para conseguir un importante impacto en estos ámbitos todo este fundamento teórico se completa con MONETA, una herramienta de soporte para el marco de referencia, proporcionando asistencia y automatización en su uso. Dicha herramienta ha sido validada mediante casos de estudio reales extraídos de proyectos de transferencia con empresas en los que se observa cómo la propuesta desarrollada ha sido de gran utilidad en los mismos.

    En definitiva, esta tesis doctoral plantea el desarrollo de un marco de referencia para facilitar la interoperabilidad y mantenibilidad de los modelos de procesos de software, abordando tanto el planteamiento teórico que los sustenta como la parte práctica mediante una herramienta de soporte para su utilización en empresas..

  • Departamento: Lenguajes y Sistemas Informáticos
  • idUS: https://idus.us.es/handle/11441/39797

23 de Mayo de 2016

  • Autor: Dña. Ana Belén Sánchez Jerez.
  • Titulo: “Test case prioritization in highly-configurable systems”.
  • Directores: Dr. D. Antonio Ruiz Cortés y Dr. D. Sergio Segura Rueda. (Universidad de Sevilla)
  • Sinopsis: El desarrollo de software esta transformándose progresivamente de la producción de programas individuales a la producción de familias de programas relacionados. Los sistemas altamente configurables son una evidencia de ello. Estos sistemas proporcionan una funcionalidad básica común y un conjunto de características opcionales para adaptar todas las variantes de un sistema de acuerdo a un conjunto determinado de requisitos. Sistemas operativos como Linux o herramientas de desarrollo como Eclipse han sido presentados como ejemplos de sistemas altamente configurables. Otro ejemplo que podemos destacar son las líneas de producto software, que se centran en el desarrollo de familias de productos relacionados a través de la gestión sistemática de la variabilidad. Las pruebas en sistemas altamente configurables suponen un gran reto debido al elevado número de configuraciones que deben probarse. Por ejemplo, Debían Wheezy, una conocida distribución de Linux, tiene m ́ as de 37,000 paquetes que ́pueden combinarse dando lugar a miles de millones de configuraciones posibles. Esto hace que probar cada configuración individual de un sistema altamente configurable sea demasiado costoso. En este escenario, las restricciones de presupuesto y tiempo pueden impedir la ejecución completa de una suite de pruebas. Para paliar este problema, se han propuesto numerosos trabajos de investigación para reducir el número de configuraciones a probar manteniendo un buen nivel de cobertura del código. ́

    Sin embargo, reducir el espacio de pruebas no es siempre una buena opción porque incrementa la probabilidad de defectos en el software. Las técnicas de priorización de casos de prueba reordenan las pruebas de manera que se ejecuten primero aquellas que permitan maximizar un determinado objetivo de rendimiento, normalmente, detectar errores lo antes posible. A modo de ejemplo, podríamos acelerar la detección de errores probando primero aquellos componentes más complejos, asumiendo que estos son más propensos a contener errores. Las técnicas de priorización de casos de ́prueba ayudan a mejorar la efectividad del proceso de pruebas permitiendo un feed-back más rápido a los ingenieros del software y asegurando que las pruebas con mayor ́capacidad de detectar errores habrán sido ejecutadas si el proceso se parase por alguna circunstancia. Existen pocas contribuciones de priorización de casos de prueba ́en sistemas altamente configurables y la mayor ́ıa de ellas combinan selección y priorización para generar los casos de prueba, lo que no se considera priorización pura. Además, la priorización que encontramos en la literatura esta principalmente basada en un solo objetivo o una combinación de varios objetivos en una única función a la que se le asignan pesos proporcionales a la importancia de dichos objetivos, ignorándolos beneficios de combinar múltiples criterios de priorización con igual importancia ́para guiar las pruebas. Otro reto que identificamos es la necesidad de sistemas alta-mente configurables con código disponible, con modelos de variabilidad y registro de errores accesibles que puedan utilizarse para validar la efectividad de las técnicas de pruebas propuestas. Como resultado, los autores de dichas técnicas suelen evaluarlas en términos de rendimiento (por ejemplo, midiendo el tiempo de ejecución) utilizando modelos de variabilidad y datos aleatorios o artificiales, lo que introduce amenazas en la validación de las conclusiones. ́

    El principal objetivo de esta tesis es mejorar el soporte que existe para las pruebas en sistemas altamente configurables, considerando para mejora las limitaciones mencionadas en los párrafos anteriores. Con este propósito, se presentan un conjunto de objetivos, técnicas y herramientas para la priorización de casos de prueba en sistemas altamente configurables. Con respecto a los objetivos de priorización, definimos ́nuevos objetivos basados en propiedades funcionales y no funcionales del sistema para guiar el proceso de pruebas. También definimos diferentes técnicas de priorización de pruebas basadas en un solo objetivo y basadas en múltiples objetivos utilizando algoritmos evolutivos. En este sentido, se presenta una comparación de 63 combinaciones ́diferentes de 1, 2 y 3 objetivos con la intención de acelerar la detección de errores en un sistema altamente configurable. Por último, proponemos casos de estudio de sistemas reales altamente configurables con código accesible y reportamos un extenso ́informe sobre datos extraidos de repositorios Git y errores obtenidos de gestores de tareas. Estas contribuciones han sido evaluadas realizando rigurosos experimentos que han revelado la eficacia y efficiencia de nuestra propuesta. Entre otros resultados, podemos destacar que la priorización multi-objetivo guidada por propiedades no funcionales es más efectiva acelerando la detección de errores que la priorización basada en un solo objetivo, basándonos en nuestro caso de estudio. Los resultados también ́sugerían que nuestras técnicas de priorización pueden ser un buen complemento para las técnicas actuales de selección de casos de prueba. La mayoría de nuestras contribuciones han sido integradas en una herramienta denominada SmarTest para probar el sistema de Drupal, un gestor de contenidos web y framework ampliamente conocido.

  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1238625
  • Repositorio USE: http://www.doctorado.us.es/tesis-doctoral/repositorio-tesis/tesis-2016/details/2/5803
  • LinkedIn: https://www.linkedin.com/in/ana-bel%C3%A9n-s%C3%A1nchez-jerez-84988518

15 de Julio de 2016

  • Autor: D. Enrique Sarrión Morillo.
  • Titulo: “Hacia una concepción generalizada de la abducción, su modelización en lógicas no clásicas y su implementación en herramientas informáticas”.
  • Directores: Dr. D. Ángel Nepomuceno Fernández y Dr. D. Fernando Soler Toscano (Universidad de Sevilla)
  • Sinopsis: Entre los resultados de esta investigación se presenta una propuesta que generaliza sustancialmente la concepción sobre la abducción comúnmente aceptada en la actualidad, a la vez que ha establecido una tipología que amplía la hasta ahora existente. Del mismo modo ha probado de manera rigurosa importantes resultados sobre la caracterización estructural de ciertos tipos de relaciones inferenciales, dando respuesta a problemas que han permanecido abiertos casi dos décadas. También se han realizado varias aportaciones que permiten la modelización de la inferencia abductiva en sistemas lógicos no clásicos, teniendo en cuenta especialmente ciertas características que inciden sobre sus propiedades computacionales.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1275759
  • Repositorio USE: http://www.doctorado.us.es/tesis-doctoral/repositorio-tesis/tesis-2016/details/2/5807
  • LinkedIn: N.A.

17 de Mayo de 2016

  • Autor: D. Emre Yay.
  • Titulo: “An adaptive and rule based driving system for energy-effcient and safe driving behavior”.
  • Directores: Dr. D. Juan Antonio Ortega Ramírez (Universidad de Sevilla) y Dra. Dña. Natividad Martínez Madrid (Reutlingen University, Germany)
  • Sinopsis: Saving energy and protecting the environment became fundamental for society and politics, why several laws were enacted to increase the energy‐efficiency and to reduce the greenhouse gas emission. Furthermore, the growing number of vehicles and drivers leaded to more accidents and fatalities on the roads, why road safety became an important factor as well. Due to the increasing importance of energy‐efficiency and safety, car manufacturers started to optimise the vehicle itself in terms of energy‐efficiency and safety. However, energy‐efficiency and road safety can be also increased by adapting the driving behaviour to the given driving situation. The main objective of this thesis is the improvement of the driving behaviour in terms of energy‐efficiency and safety by showing driving recommendations to the driver on time. This allows an increase of energy‐efficiency up to 30 % and an increase of road safety, as driver mistakes are the main causes of accidents with personal injury.

    This thesis presents a concept of an adaptive and rule based driving system that tries to educate the driver in energy‐efficient and safe driving by showing recommendations. Unlike other driving systems, the proposed driving system considers, besides energy‐efficiency and safety relevant driving rules, also the driver condition and adapts itself to the individual driving behaviour. Therefore, new algorithms and methods were developed, which allow the detection of inefficient or unsafe driving behaviour and the decision whether to show a recommendation to the driver based on the driver condition and the individual driving behaviour. This allows for example to avoid the distraction of the driver due to inappropriate recommendations in stressful driving situations. Furthermore, acceptance of the driving system can be increased, as the driver is not bothered by recommendations that are not relevant in the sense of the driver.

    A prototype of the proposed driving system was developed and evaluated. The evaluation was done on a driving simulator using 42 test drivers, who tested the effect of the driving system on the driving behaviour and the effect of the adaptiveness of the driving system on the user acceptance. It has been proven during the evaluation that the energy‐efficiency and safety can be increased, when the driving system was used. Furthermore, it has been proven that the user acceptance of the driving system increases when the adaptive feature was turned used. A high user acceptance of the driving system allows a steady usage of the driving system and, thus, a steady improvement of the driving behaviour in terms of energy‐efficiency and safety.

  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1240803
  • Repositorio USE: http://www.doctorado.us.es/tesis-doctoral/repositorio-tesis/tesis-2016/details/2/5818
  • Researchgate: https://www.researchgate.net/profile/Emre_Yay

14 de junio de 2016

  • Autor: Arévalo Maldonado, Carlos
  • Titulo: Una propuesta basada en el paradigma dirigido por modelos para la extracción de procesos del software desde sistemas heredados utilizando la perspectiva temporal.
  • Directores: Escalona Cuaresma, María José, Ramos Román, Isabel
  • Sinopsis: Business Process Management (BPM) es un factor estratégico en el sector de las tecnologías de la información (TI), así como en otros sectores productivos. Las TI utilizan sistemas heredados (legacy systems) para gestionar su negocio, donde sus bases de datos (legacy databases) almacenan estados históricos de la ejecución de todo tipo de procesos, razón por la cual pueden considerarse como una fuente para extraer perspectivas o dimensiones de estos procesos: i) el tiempo, ii) los recursos, iii) la información y iv) los casos. Algunos estándares para representar procesos del software como UML AD, BPMN, SPEM e Iso/Iec 24744 están sustentados por robustos Meta-modelos. El paradigma Model Driven Engineering (MDE) es cada vez más aceptado al ofrecer modelos y Meta-modelos de diversos niveles de abstracción así como mecanismos para realizar transformaciones entre ellos. MDE puede emplearse para tanto para extraer modelos mediante ingeniería inversa como para generar modelos desde una especificación de alto nivel.

    Esta tesis define una propuesta general basada en MDE para hacer ingeniería inversa de legacy databases extrayendo la perspectiva temporal de procesos de TI. Se ha analizado la definición de dimensiones BPM sobre distintas categorías de legacy systems de uso frecuente en TI, concluyendo que casi toda TI organiza su actividad bajo proyectos que tiene que planificar y controlar. Un estudio sistemático de la literatura realizado sobre la especificación de la dimensión temporal de los procesos nos ha llevado a aportar una taxonomía de reglas que cubre la tipología que aparecen en las TI y también en otros sectores. Esta taxonomía nos ha permitido evaluar carencias de lenguajes de procesos de uso frecuentemente en TI y proponer Meta-modelos UML y OCL que permiten formalizar dichas reglas para resolver estas debilidades, además de facilitar la extracción de procesos desde legacy databases. MS Project (como legacy system) y BPMN (como estándar de modelación e intercambio de procesos serializados) son usados frecuentemente en el sector TI, razón por la que consideramos estos sistemas como piloto de la solución. La arquitectura general se especializa con este caso piloto, definiendo: i) un Meta-modelo de tareas para MS Project, ii) la extensión del Meta-modelo de BPMN con la dimensión temporal y iii) transformaciones MDE que extraen automáticamente procesos BPMN desde proyectos definidos en MS Project.

    La solución se ha contrastado en el proyecto de transferencia tecnológica AQUA-WS entre el grupo PAIDI TIC021 IWT2 y EMASESA, verificando la utilidad de los resultados obtenidos, que podrían extrapolarse a otros casos y sectores productivos. Por otro lado, como trabajo futuro, se podría: i) incorporar otras perspectivas BPM como: recursos y casos; ii) generar log de eventos para utilizarse en el campo de la minería de procesos.

  • Departamento: Lenguajes y Sistemas Informáticos
  • idUS: https://idus.us.es/handle/11441/42996

14 de enero de 2016

  • Autor: Delgado González, Antonio Luis
  • Titulo: Propuestas para la reutilización en el desarrollo de interfaces de usuario basado en modelos.
  • Directores: Estepa Alonso, Antonio José, Troyano Jiménez, José Antonio
  • Sinopsis: Esta tesis versa sobre la reutilización en el desarrollo de interfaces de usuario basado en modelos. La baja reusabilidad de las especificaciones de modelos de la interfaz de usuario ha sido identificada como un posible obstáculo para la adopción del desarrollo de interfaces de usuario basado en modelos por parte de la industria.

    El objetivo de esta investigación es aportar conocimiento sobre la reutilización en este ámbito para mejorar la situación actual de esta tecnología. En este trabajo se propone el uso de ciertas técnicas de reutilización empleadas habitualmente en la ingeniería del software para aplicarlas al desarrollo de interfaces de usuario basado en modelos y éstas son implementadas sobre un entorno de desarrollo concreto. Este entorno de desarrollo de interfaces de usuario basado en modelos con características de reutilización potenciadas es utilizado para construir varias aplicaciones que poseen aspectos comunes. A través de este caso práctico y siguiendo un método empírico, se analiza el impacto que las técnicas de reutilización han tenido en el desarrollo de las interfaces de usuario.

    Los resultados son importantes: además del alto grado de reutilización general (entorno al 46,2%) se alcanzan picos de reutilización del 56,9% para algunos casos particulares y se obtiene un ahorro en el tamaño de las especificaciones del 71%. Aunque los resultados obtenidos están condicionados por el contexto (entorno de desarrollo, proyectos desarrollados, etc.) se extraen algunas conclusiones aplicables a la generalidad del desarrollo de interfaces de usuario basado en modelos.

  • Departamento: Lenguajes y Sistemas Informáticos
  • idUS: https://idus.us.es/handle/11441/34239

Tesis 2015

Tesis doctorales defendidas en el año 2015:

19 de Octubre de 2015

  • Autor: Dña. Patricia Jiménez Aguirre.
  • Titulo: “Enterprise Information Integration – New Approaches to Web Information Extraction”.
  • Directores: Dr. D. Rafael Corchuelo Gil (Universidad de Sevilla)
  • Sinopsis: Information has changed the lives of most people forever thanks to the advent of the Web, which boost people using the Net at an increasing pace. Thus, the Web has become the universally accesible distribution channel for data. However, data itself is not powerful, but rather inferring knowledge from information, which is called Business Intelligence. To do that, we need web information extractors, which are the tools intended to extract data from the Web, and endow them with structure and semantics so that the information they produce can be consumed by people or can feed automated business processes to exploit it in an intelligent way. In this dissertation, we focus on developing web information extractors that learn rules to extract information from semi structured web documents and on how to evaluate different information extraction proposals so as to rank them automatically. We developed two proposals for web information extraction called TANGO and ROLLER; they both are based on an open catalogue of features, which eases evolving them as the Web evolves. We have also devised VENICE, an automated, open, agnostic, and non ad- hoc method to rank information extraction proposals homogeneously, fairly, and stringently.

    Our results have proven that we have advanced on the state-of-the-art regarding web information extraction proposals, which may help researchers and practitioners extract information from web pages effectively and efficiently. Also, we have advanced the state-of-the-art regarding how to evaluate and compare information extraction proposals so that researchers and practitioners can make informed decisions on which proposal is the most suitable for a particular problem.

  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1182735
  • Repositorio USE: http://www.doctorado.us.es/tesis-doctoral/repositorio-tesis/tesis-2015/details/2/4906
  • LinkedIn: http://www.tdg-seville.info/PatriciaJimenez/Home

21 de Julio de 2015

  • Autor: D. Juan Antonio Nepomuceno Chamorro.
  • Titulo: “Biclustering sobre datos de expresión génica basado en búsqueda dispersa”.
  • Directores: Dr. Dña Alicia Troncoso Lora (Universidad Pablo de Olavide) y Dr. D. Jesús Aguilar Ruiz (Universidad Pablo de Olavide).
  • Sinopsis: Los datos de expresión génica, y su particular naturaleza e importancia, motivan no sólo el desarrollo de nuevas técnicas sino la formulación de nuevos problemas como el problema del biclustering. El biclustering es una técnica de aprendizaje no supervisado que agrupa tanto genes como condiciones. Este doble agrupamiento lo diferencia del clustering tradicional sobre este tipo de datos ya que éste sólo agrupa o bien genes o condiciones.

    La presente tesis presenta un nuevo algoritmo de biclustering que permite el estudio de distintos criterios de búsqueda. Dicho algoritmo utilize esquema de búsqueda dispersa, o scatter search, que independiza el mecanismo de búsqueda del criterio empleado.

    Se han estudiado tres criterios de búsqueda diferentes que motivan las tres principales aportaciones de la tesis. En primer lugar se estudia la correlación lineal entre los genes, que se integra como parte de la función objetivo empleada por el algoritmo de biclustering. La correlación lineal permite encontrar biclusters con patrones de desplazamiento y escalado, lo que mejora propuestas anteriores. En segundo lugar, y motivado por el significado biológico de los patrones de activación-inhibición entre genes, se modifica la correlación lineal de manera que se contemplen estos patrones. Por último, se ha tenido en cuenta la información disponible sobre genes en repositorios públicos, como la ontología de genes GO, y se incorpora dicha información como parte del criterio de búsqueda. Se añade un término extra que refleja, por cada bicluster que se evalúe, la calidad de ese grupo de genes según su información almacenada en GO. Se estudian dos posibilidades para dicho término de integración de información biológica, se comparan entre sí y se comprueba que los resultados son mejores cuando se usa información biológica en el algoritmo de biclustering.

  • Teseo:  https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1161591
  • Repositorio USE:  http://www.doctorado.us.es/tesis-doctoral/repositorio-tesis/tesis-2015/details/2/4930
  • LinkedIn: https://www.linkedin.com/in/juan-antonio-nepomuceno-chamorro-74716b19

4 de Marzo de 2015

10 de Junio de 2015

  • Autor: D. Jesús García Galán.
  • Titulo: “Automating the support of highly-reconfigurable services”.
  • Directores: Dr. D. Antonio Ruiz Cortés (Universidad de Sevilla) y Dr. D. Pablo Trinidad Martín-Arroyo (Universidad de Sevilla)
  • Sinopsis: La oferta y demanda de servicios software se ha generalizado con el auge del cloud computing, permitiendo que prácticamente cualquier funcionalidad pueda ser ofrecida como servicio bajo demanda y de una forma elástica. Con el objetivo de abarcar un mercado más amplio, y de satisfacer a un mayor número de potenciales clientes, los proveedores de ofrecen cada vez servicios más configurables. Por ejemplo, proveedores de servicios de infraestructura tales como Amazon o Rackspace ofrecen decenas de instancias de computación distintas, que pueden correr bajo diferentes sistemas operativos en diversas localizaciones geográficas, y que pueden ser contratadas de múltiples formas. El proceso de configuración de estos servicios es tedioso y propenso a errores. En primer lugar, los usuarios tienen que estudiar la descripción del servicio, habitualmente en lenguaje natural, para comprender las distintas características y opciones de configuración ofrecidas. Sin embargo, dichas opciones y características a menudo no están descritas adecuadamente, existiendo además interrelaciones y restricciones entre ellas. Tras esto, los usuarios tienen que identificar sus necesidades sobre el servicio, para finalmente evaluar las diferentes configuraciones y determinar la mas satisfactoria. Mientras que algunos de estos servicios, como Dropbox, presentan pocas alternativas de configuración, otros, como Amazon EC2, presentan miles de ellas. Además, el soporte a la toma de decisiones para estos servicios es escaso y no ofrece la ayuda esperada. Mientras las herramientas ofrecidas por los proveedores se centran en el c´alculo del coste e ignoran la búsqueda de la mejor configuración, las herramientas ofrecidas por empresas especializadas a menudo devuelven falsos positivos.

    En esta tesis, partimos de la conjetura de que las técnicas de modelado y análisis de la variabilidad pueden ayudar a asistir el proceso de configuración de estos servicios altamente configurables. Estas técnicas ya han sido empleadas previamente con éxito para configurar sistemas software. Sin embargo, dichas técnicas tienen limitaciones en ciertos aspectos. Por un lado, las técnicas de modelado no son capaces de describir de forma precisa ni el servicio ni las preferencias de los usuarios sobre él. Por otro lado, las técnicas de análisis presentan algunas carencias a la hora de buscar la mejor configuración, especialmente en escenarios donde existen múltiples usuarios.

    En este trabajo presentamos dos contribuciones principales. En primer lugar, proponemos un nuevo tipo de modelo, llamado Configurable Service Model, que está basado en los modelos de variabilidad actuales, con el objetivo de paliar sus carencias a la hora de asistir el proceso de configuración. Para ello, dotamos a estos modelos de mecanismos para describir de una forma rigurosa y sucinta servicios altamente configurables. Adicionalmente, incorporamos mecanismos para que los usuarios puedan definir sus necesidades en términos de requisitos y preferencias. En segundo lugar, presentamos un soporte automático para evaluar las distintas alternativas de configuración de un servicio. Para ellos, describimos un catalogo de operaciones inspirado en las técnicas de análisis automatizado de la variabilidad, que permite al proveedor detectar anomalías en su oferta, y al usuario identificar cuál es la configuración m´as adecuada a sus necesidades. En este punto, cobran especial relevancia los procesos de configuración donde intervienen múltiples usuarios, puesto que a ´un son un desaf´ıo a resolver por las técnicas actuales. En este sentido, proponemos interpretar este tipo de configuración mediante la teoría de juegos, dando lugar a una nueva operación para identificar configuraciones que satisfagan las necesidades de múltiples usuarios.

    Los resultados de nuestra propuesta son esperanzadores. Por un lado, nuestra propuesta de modelado cuenta con la expresividad y sucintez suficiente como para describir espacios de configuración reales, como el de Amazon EC2. Por otro lado, demostramos que las operaciones de an´alisis propuestas son capaces encontrar configuraciones satisfactorias con un tiempo de ejecución insignificante. Incluso en determinados casos, las configuraciones resultantes mejoran los resultados ofrecidos por aplicaciones comerciales.

  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1159359
  • Repositorio USE: http://www.doctorado.us.es/tesis-doctoral/repositorio-tesis/tesis-2015/details/2/4817
  • LinkedIn: https://www.linkedin.com/in/jesusgarciagalan

25 de Septiembre de 2015

  • Autor: D. David Gutiérrez Avilés.
  • Titulo: “TrLab: Una metodología para la extracción y evaluación de patrones de comportamiento de grandes volúmenes de datos biológicos dependientes del tiempo”.
  • Directores: Dra. Dña. Cristina Rubio Escudero (Universidad de Sevilla).
  • Sinopsis:La tecnología de microarray ha revolucionado la investigación biotecnológica gracias a la posibilidad de monitorizar los niveles de concentración de ARN. El análisis de dichos datos representa un reto computacional debido a sus características. Las técnicas de Clustering han sido ampliamente aplicadas para crear grupos de genes que exhiben comportamientos similares. El Biclustering emerge como una valiosa herramienta para el análisis de microarrays ya que relaja la restricción de agrupamiento permitiendo que los genes sean evaluados sólo bajo un subconjunto de condiciones experimentales. Sin embargo, ante la consideración de una tercera dimensión, el tiempo, el Triclustering se presenta como la herramienta apropiada para el análisis de experimentos longitudinales en los que los genes son evaluados bajo un cierto subconjunto de condiciones en un subconjunto de puntos temporales. Estos triclusters proporcionan información oculta en forma de patrón de comportamiento para experimentos temporales con microarrays.

    En esta investigación se presenta TrLab, una metodología para la extracción de patrones de comportamiento de grandes volúmenes de datos biológicos dependientes del tiempo. Esta metodología incluye el algoritmo TriGen, un algoritmo genético para la búsqueda de triclusters, teniendo en cuenta de forma simultánea, los genes, condiciones experimentales y puntos temporales que lo componen, además de tres medidas de evaluación que conforman el núcleo de dicho algoritmo así como una medida de calidad para los triclusters encontrados.

    Todas estas aportaciones estarán integradas en una aplicación con interfaz gráfica que permita su fácil utilización por parte de expertos en el campo de la biología.

    Las tres medidas de evaluación desarrolladas son: MSR3D basada en la adaptación a las tres dimensiones del Residuo Cuadrático Medio, LSL basada en el cálculo de la recta de mínimos cuadrados que mejor ajusta la representación gráfica del tricluster y MSL basada en el cálculo de los ángulos que forman el patrón de comportamiento del tricluster. La medida de calidad se denomina TRIQ y aglutina todos los aspectos que determinan el valor de un tricluster: calidad de correlación, gráfica y biológica.

  • Teseo:  https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1169625
  • Repositorio USE:  http://www.doctorado.us.es/tesis-doctoral/repositorio-tesis/tesis-2015/details/2/4903
  • LinkedIn:  https://www.linkedin.com/in/davidgutierrezaviles

3 de Septiembre de 2015

  • Autor: D. Juan Manuel Cotelo Moya.
  • Titulo: “Análisis de Contenidos Generados por Usuarios mediante la Integración de Información Estructurada y No Estructurada”.
  • Directores: Dr. D. José A. Troyano (Universidad de Sevilla) y Dr. D. Fermín Cruz (universidad de Sevilla).
  • Sinopsis: Los servicios de redes sociales han pasado a ser una parte fundamental del entramado social de los últimos años. Estas herramientas permiten a las personas crear, intercambiar o compartir información, ideas, imágenes y cualquier tipo de medio en comunidades virtuales y redes. El impacto de estos servicios de redes sociales sobre la sociedad ha sido tal, que han introducido cambios sustanciales sobre la comunicación a todos los niveles: individual, comunitaria, organizacional y empresarial. Todo este contenido generado por el usuario tiene un carácter viral del que carecen el resto de medios de comunicación, sirviendo como fuente de conocimiento para nuevas oportunidades de negocio. Es más, la simbiosis que existe entre los dispositivos móviles y estas redes sociales ha provocado que los contenidos generados por los usuarios incorporen nuevos factores como la localización del usuario y el momento exacto de creación y edición del mensaje o contenido en cuestión. Esto abre nuevos mercados potenciales que relacionan a las personas, las redes sociales, el mercado móvil y los eventos en tiempo real.

    Al abordar este nuevo tipo de contenido, hay que comprender que las redes sociales nos otorgan la oportunidad de combinar dos aspectos fundamentales que los mensajes contienen: información estructurada con la no estructurada en forma, fundamentalmente, de textos cortos. La información estructurada nos proporciona conocimiento adicional que permite analizar el mensaje y al usuario dentro de un contexto específico de carácter social, temporal y/o espacial. Combinar significativamente ambos tipos de información puede resultar fundamental para un tratamiento efectivo de los mensajes.

    En esta memoria de tesis, se explora la hipótesis consistente en que, al integrar el conocimiento proveniente de dos tipos de información de distinta naturaleza (estructurada y no estructurada) existentes en los mensajes de las redes sociales, se pueden resolver, de forma más efectiva y significativa, ciertas tareas relacionadas con el procesamiento de este tipo de contenidos. Para validar dicha hipótesis, se proponen una serie de tareas a resolver, siempre bajo el paradigma de la integración de ambos tipos de información: la recuperación temática de mensajes en redes de microblogging, la normalización de mensajes cortos provenientes de redes sociales, clasificación de opinión sobre los mensajes de éstas redes y la caracterización de grupos de usuarios dentro de un contexto específico.

    Cada tarea es tratada de forma individual, proporcionando una formalización para la misma, caracterizando los fenómenos más relevantes, proponiendo uno o varios métodos para abordarla, realizando una evaluación sobre ellos y explorando los resultados de forma consecuente. Las principales aportaciones se resumen en las siguientes propuestas: un método dinámico y adaptativo para generar consultas que son consumibles por un sistema de microblogging como Twitter, un sistema de normalización léxica altamente modular, un esquema de integración para combinar modelos de características provenientes de información estructurada y no estructurada, y una aproximación indicada para la caracterización de grupos de usuarios de las redes dentro de un contexto específico.

  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1169748
  • Repositorio USE: http://www.doctorado.us.es/tesis-doctoral/repositorio-tesis/tesis-2015/details/2/4885
  • LinkedIn: https://www.linkedin.com/in/juan-manuel-cotelo-moya-1724a3103

Buscar

Noticias

Directorio

Tablón de Anuncios

Mapa del Sitio

Esta web usa cookies propias para el correcto funcionamiento y de terceros para analizar el tráfico de nuestra página web. Si continúas navegando, consideramos que aceptas su uso. Política de cookies.