Tesis 2019

Tesis doctorales defendidas en el año 2019:

19 de Septiembre de 2019

  • Autor: Yañez Gómez, Rosa María.
  • Titulo: “Evaluacion Heuristica de la Usabilidad en Contextos Especificos”
  • Departamento: Arquitectura y Tecnología de Computadores.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1782282
  • Directores: José Luis Sevillano Ramos y Daniel Cascado Cabellero.
  • Sinopsis:

    La atención a la usabilidad de los sistemas de información, como requisito no funcional, es especialmente relevante al tratarse de un factor crítico que determina buena parte del volumen de desarrollos correctivos que van a necesitar los productos en su fase de mantenimiento y el grado de aceptación del usuario hacia dicho sistema, producto o programa. Para evaluar el grado de usabilidad de las interfaces y detectar precozmente el mayor número de problemas se diseñan planes de evaluación que seleccionarán y combinarán distintas herramientas teniendo en cuenta las características de la interfaz, los objetivos prioritarios de la evaluación y la fase de desarrollo del producto o prototipo objeto del análisis; así como cualesquiera otras circunstancias o condicionantes, sea el coste o el tiempo, la formación del personal, etc.

    La Evaluación Heurística es una herramienta de evaluación de la usabilidad basada en la intervención de expertos. Consiste en la comprobación de los elementos de una lista de heurísticas que, por su naturaleza, no pueden comprobarse automáticamente y requieren del criterio de un experto. Supone un método de bajo coste y buen rendimiento de detección de fallos que se adapta a distintos productos y objetivos, a las características de las distintas fases de desarrollo y, en definitiva, a muy distintos planes de evaluación.

    En la literatura coexisten distintas propuestas de listas heurísticas de carácter general que, en dominios específicos, deben adaptarse a las características del contexto para maximizar su eficacia. Un ejemplo es la heurística propuesta en esta Tesis, adaptada a la interacción con interfaces móviles. Estas listas adaptadas también se han multiplicado en la literatura atendiendo a distintos aspectos de los planes de evaluación. De este modo el volumen de propuestas a disposición de los evaluadores, para su selección y potencial combinación, resulta bastante inmanejable.

    Tomando un contexto tan específico como los videojuegos —juegos a partir de ahora— , sin embargo, una revisión sistemática de la literatura permite observar que la lista generalista de Nielsen sigue siendo la más usada, incluso cuando resulta insuficiente a la hora de abarcar las características específicas y novedosas de este dominio de aplicación.

    Partiendo de las hipótesis de que el gran número de propuestas, con distintas características y objetivos, supone un obstáculo a la hora de que los evaluadores puedan seleccionar la más ajustada a su caso y de que incluso una selección ajustada desaprovecharía potenciales ventajas de otras propuestas, se ha desarrollado una herramienta denominada MUSE (Meta-heUristics uSability Evaluation tool) que es capaz de generar una lista heurística personalizada para un plan de evaluación específico tomando como base las distintas propuestas de la bibliografía y automatizando al máximo su selección y filtrado.

    Una evaluación preliminar de la herramienta aventura resultados prometedores en cuanto a su capacidad de mejorar la detección de vulneraciones de la usabilidad frente al uso de herramientas genéricas en el caso del contexto específico de los juegos y, particularmente, cuando los evaluadores involucrados no son expertos.

25 de Diciembre de 2019

  • Autor: Tapiador Morales, Ricardo.
  • Titulo: “Neuromorphic deep convolutional neural network learning systems for fpga in real time”
  • Departamento: Arquitectura y Tecnología de Computadores.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1798119
  • Directores: Gabriel Jiménez Moreno, Alejandro Linares Barranco (Codirector) y Ángel Francisco Jiménez Fernández (Codirector).
  • Sinopsis:

    Deep Learning algorithms have become one of the best approaches for pattern recognition in several fields, including computer vision, speech recognition, natural language processing, and audio recognition, among others. In image vision, convolutional neural networks stand out, due to their relatively simple supervised training and their efficiency extracting features from a scene. Nowadays, there exist several implementations of convolutional neural networks accelerators that manage to perform these networks in real time. However, the number of operations and power consumption of these implementations can be reduced using a different processing paradigm as neuromorphic engineering. Neuromorphic engineering field studies the behavior of biological and inner systems of the human neural processing with the purpose of design analog, digital or mixed-signal systems to solve problems inspired in how human brain performs complex tasks, replicating the behavior and properties of biological neurons. Neuromorphic engineering tries to give an answer to how our brain is capable to learn and perform complex tasks with high efficiency under the paradigm of spike-based computation.

    This thesis explores both frame-based and spike-based processing paradigms for the development of hardware architectures for visual pattern recognition based on convolutional neural networks. In this work, two FPGA implementations of convolutional neural networks accelerator architectures for frame-based using OpenCL and SoC technologies are presented. Followed by a novel neuromorphic convolution processor for spike-based processing paradigm, which implements the same behaviour of leaky integrate-and-fire neuron model. Furthermore, it reads the data in rows being able to perform multiple layers in the same chip. Finally, a novel FPGA implementation of Hierarchy of Time Surfaces algorithm and a new memory model for spike-based systems are proposed.

4 de Diciembre de 2019

  • Autor: Rodas Silva, Jorge Luis.
  • Titulo: “On the selection and analysis of software product line implementation components using intelligent techniques”
  • Departamento: Lenguajes y Sistemas Informáticos.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1822182
  • Directores: David Benavides Cuevas y José Ángel Galindo Duarte.
  • Sinopsis:

    In recent years and with the growing technological advancement, companies no longer focus exclusively on producing a product for a customer (e.g. producing a website for the Decameron Hotel), but on producing for a domain (e.g. the production of websites for hotels); that is, producing products that can be easily adapted to the different changes and suit the individual tastes of customers.

    In software engineering, this can be achieved through software product lines (SPL). An SPL is defined as a set of systems that share a common set of features that meet the demand of a specific market. An SPL tries to reduce the effort and cost of implementing and maintaining a set of similar software products over time. However, managing the variability in these systems is a difficult task, the greater the number of products, the more complex they are to be handled.

    In this context, in this thesis we address two problems:

    The organization of feature models in different layers for different purposes.- Variability information from an SPL may no longer be concentrated on a single feature model but on several. For example, decoupling an Android application variability from the ecosystem variability. This, in turn, causes these models to relate to each other, making modeling itself a challenge, specifically when defining the constraints that could be added to the models and the management of the information associated with them. Understanding which attribute values can be chosen and which analysis operations can be executed in those models is a challenge to be solved.

    The leverage of information associated to the features.- In a feature model, we can find a series of features that can have associated information that could be exploited to take a series of variability management decisions. The problem arises when each feature can be implemented by one or several components that contain associated information. In this case, taking advantage of information from the implementation components to select the right one to implement a feature becomes a challenge during the product configuration.

    To address the problems described above, we propose two solutions:

    MAYA: A proposal designed to model several layers (top and bottom layer) in which we can assign to each of the models a series of attributes and establish relationships between them. To this end, we offer mechanisms to model these relationships and the introduction of new analysis operations that take into account the information from the two models. For example, if a bluetooth feature is activated on a mobile phone, which would be the API that should be used to support that function.

    RESDEC: A proposal designed to use of information associated with the implementation components in the feature models; that is, exploit the information generated around the components (e.g. number of errors, number of downloads, ratings, etc.) to implement features in the configuration of a product. To this end, we introduce a set of automated analysis operations that relying on recommender systems helps to select the best implementation component alternative that could be used to implement a certain feature. For example, if we are designing a sales website, which components might be the best option to implement the shopping cart feature.

    Our solutions were validated in different environments. MAYA was used it in an industrial context for mobile applications with Android and RESDEC was used to select implementation components in a virtual store using real information extracted from WordPress. All our implementations are available and are tools prototypes that we have used in the validations presented in this document.

    The information generated around feature models leads to a series of problems related to their management, which opens up new SPL research challenges. In this thesis, we have solved two of them; however, there is still more work to be done in relation to what information generated around the models can be taken, what modeling strategies should be considered, how many layers should be handled and how they can be arranged in each case, or what technique should be used to assist the configuration of products using additional information are some of them to just mention a few.

5 de Marzo de 2019

  • Autor: Potestad Ordóñez, Francisco Eugenio.
  • Titulo: “Vulnerabilidad y Análisis Diferencial Mediante Inserción de Fallos de Cifradores Trivium en Fpga y AsicTecnología Electrónica”
  • Departamento: Tecnología Electrónica.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1742502
  • Directores: Manuel Valencia Barrero y Carlos Jesús Jiménez Fernández.
  • Sinopsis:

    Las comunicaciones entre dispositivos aumenta día a día y un gran ejemplo de ello es el crecimiento del Internet de las cosas, en inglés Internet of things (IoT). De entre todas las comunicaciones que se producen, parte de ella está compuesta por información sensible susceptible de ser interceptada por terceras partes con fines malintencionados. Con el fin de evitar este gran problema, la comunidad científica se ha centrado en la constante búsqueda y desarrollo de algoritmos criptográficos o criptosistemas, algoritmos orientados tanto a software como a hardware, que permitan asegurar unas comunicaciones donde los canales de transmisión son potencialmente inseguros.

    A la hora de poder establecer nuevos estándares de seguridad, es necesario estudiar la seguridad ofrecida por los nuevos algoritmos desde el punto de vista de su vulnerabilidad con el objetivo de reducirla. Estas vulnerabilidades de los llamados criptosistemas es posible estudiarlas tomando el rol de una tercera parte que trata de obtener la información secreta del dispositivo y con ello conocer dónde se encuentran sus puntos débiles. Es aquí donde se enmarca la presente Tesis Doctoral. A lo largo de este texto, se realiza un estudio del estado del arte de la criptografía, así como las técnicas más importantes para comprometer la seguridad de los criptosistemas actuales, siendo objeto de estudio el cifrador de flujo Trivium, tanto el diseño original presentado en el portfolio del proyecto eSTREAM, como diferentes variantes de éste.

    Para poder estudiar la vulnerabilidad de estos criptosistemas y poder recuperar su información secreta, se han diseñado diferentes sistemas de inserción de fallos tanto en tecnología FPGA como en ASIC. Estos sistemas de ataque se han implementado para poder atacar al cifrador mediante la manipulación de su señal de reloj y sus señales de control. Gracias a estos sistemas de ataque experimentales, es posible determinar los puntos débiles de estos criptosistemas y mediante el uso de análisis diferenciales recuperar su información secreta, clave y vector de inicialización. Este estudio, por tanto, presenta la primera rotura de este cifrador de forma experimental, consiguiendo en el 100% de los casos la recuperación de su clave secreta y probando que este criptosistema es vulnerable a los ataques por inserción de fallos.

15 de Julio de 2019

  • Autor: Pérez García, Pablo.
  • Titulo: “Circuit Design for Biomedical Laboratories Based on Impedance Measurement”
  • Departamento: Tecnología Electrónica.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1784727
  • Directores: Alberto Yúfera García y Gloria Huertas Sánchez (Codirector).
  • Sinopsis:

    El presente estudio doctoral analiza la aplicación de una técnica de medida de cultivos celulares en tiempo real que es de alta utilidad para los investigadores en el área biomédica. Entre las diversas técnicas de medida aplicables a muestras biológicas, las medidas eléctricas de bio-impedancia destaca por el tremendo potencial que sugiere adquirir los datos con circuitos electrónicos de cara a su posterior desarrollo integrado en Lab-On-A-Chip y otros dispositivos biomédicos.

    El sistema desarrollado sigue el paradigma del Internet de las cosas (IoT), proponiendo un sensor que realizará las medidas físicas en el interior del incubador de cultivos celulares y un dispositivo que actuará como enlace entre el sensor y la capa de servicios que podrán utilizar los investigadores en biomedicina para evaluar los resultados obtenidos y configurar experimentos.

    El sensor ha sido diseñado siguiendo la técnica de test basado en oscilación (OBT). Esto se traduce en una serie de ventajas para el sistema tales como evitar la necesidad de sistemas de excitación eléctrica, no requiere de circuitos de sincronización complejos y al incluirse la muestra a analizar en el camino de la oscilación es sencillo controlar los niveles de tensión y corriente que circulan por la misma.

    El principio físico sobre el cuál se ha diseñado este sensor está basado en la técnica ECIS, un complejo estudio involucrando modelos de electrodo, variaciones de parámetros de diseño y tipos de crecimiento celular se han incluido en el trabajo para adquirir la intuición necesaria sobre el proceso de diseño. Para validar todo lo anterior, se plantearon experimentos que verifican los modelos y las simulaciones planteadas.

    Por último, se ha planteado un conjunto de experimentos empleando diversas líneas celulares (AA8, N2A, N2A APP, CRL-1458). Los experimentos realizados sobre estas células están clasificados en tres tipos; crecimiento celular, diferenciación celular y citotoxicidad. La estimación del número total de células emplea un algoritmo de estimación que ha podido validarse a la luz de los datos obtenidos.

13 de Diciembre de 2019

  • Autor: Perea Rodríguez, Juan José.
  • Titulo: “Técnicas para la mejora de la estabilidad en el método sph para la simulación de fluidos”
  • Departamento: Lenguajes y Sistemas Informáticos.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1826292
  • Directores: Juan Manuel Cordero Valle y Isabel Ramos Román (tutor/ponente).
  • Sinopsis:

    En el campo de la Informática Gráfica existen diversos problemas que siguen investigándose por no haber encontrado aún una solución suficientemente apropiada. En el caso de la Simulación de Fluidos, aunque existen herramientas y técnicas para simular el comportamiento dinámico de un fluido, los resultados obtenidos deben ser posprocesados para eliminar las perturbaciones que aparecen y que disminuyen el realismo visual.

    Simular un fluido, o más técnicamente el flujo de un fluido, requiere de un procesamiento en el que se resuelven el conjunto de ecuaciones en derivadas parciales con las que se describen, cuantitativamente, el flujo. En general, no puede simularse el fluido a partir de los resultados obtenidos mediante técnicas analíticas, en parte debido a que sólo es posible obtener estas soluciones bajo condiciones determinadas muy restrictivas. Además, esto supondría por una parte un esfuerzo computacional enorme y por otra parte unas simulaciones poco versátiles, ya que no sería posible introducir elementos dinámicos en el escenario de simulación.

    Para sobrepasar estas limitaciones es necesario utilizar técnicas discretas basadas en cálculo numérico que nos ofrecen mayor capacidad de intervención en la generación de resultados en un tiempo de cálculo plausible. Una de las técnicas más destacables es Smoothed Particles Hydrodynamic (SPH). El método SPH presenta algunas deficiencias que reducen la estabilidad y la precisión de los resultados obtenidos que no han sido resueltos de manera satisfactoria.

    Diversos estudios se han centrado en identificar el origen de estas deficiencias. A partir de las conclusiones de estos estudios se pueden identificar tres, estas son: (1) el número y la distribución de las partículas que interactúan mutuamente (las partículas vecinas), (2) la imposición de la incompresibilidad, (3) la simulación de la interacción fluido-contorno. La consecuencia de estas deficiencias es un comportamiento errático de las partículas, la aparición de dispersiones espurias de partículas, especialmente en los límites del fluido, y sobreamortiguamiento, lo que da lugar a unos resultados visuales poco realistas.

    Para resolver estos problemas proponemos tres mecanismos que mitigan las deficiencias enunciadas anteriormente. Estas son:

    1. Formulamos una nueva función de interacción entre partículas (conocida como función kernel) que mejora la estabilidad incluso en distribuciones de partículas no homogéneas.
    2. Modelamos la fuerza mutua entre partículas de modo que es posible imponer la incompresibilidad.
    3. Desarrollamos un nuevo mecanismo de modelado de las condiciones de contorno, que amplía la versatilidad de SPH al permitirnos introducir en la escena de simulación contornos no suaves.

    Para resolver estos problemas relacionados con la interacción fluido-contorno, que no están resuelto completamente a día de hoy, hemos desarrollado una nueva formulación basada en la discretización del contorno mediante partículas. Las mejoras que obtenemos con nuestra propuesta son: (1) simulamos la interacción del fluido con contorno complejos, (2) somos capaces de modelar condiciones de contorno complejas que no podían ser simuladas en el ámbito de la Informática Gráfica y (3) obtenemos una formulación con la que obtener todas las magnitudes dinámicas del fluido restringidas por las condiciones de contorno.

    Para demostrar las mejoras que se obtienen con nuestras técnicas, hemos desarrollado un conjunto de pruebas tanto cuantitativas, como cualitativas, en las que compararemos nuestra propuesta con otras técnicas también basadas en SPH. De los resultados que se obtienen en estas pruebas podemos inferir que:

    • La función kernel formulada permite una alta estabilidad, superior a las que se pueden obtener con otras funciones kernel muy utilizadas en simulaciones de fluidos mediante SPH. Esta alta estabilidad es destacable en simulaciones de muy baja energía. Además, conseguimos una alta precisión, superior a las obtenidas con otras funciones kernel, en simulaciones bajo condiciones extremas: a alta velocidad y baja densidad.
    • Con la nueva formulación del gradiente de presión conseguimos: (1) estabilidad y precisión incluso cuando el número de partículas es muy bajo, (2) imponer eficientemente la incompresibilidad mejorando los resultados que se obtienen con otras técnicas similares, (3) cuantificar el calentamiento (el trasvase de energía) en el fluido y disiparlo de un modo eficiente y preciso y (4) desarrollar un modelo estable y eficiente para un amplio rango de valores en los parámetros de simulación.
    • Somos capaces de simular la interacción fluido-contorno independientemente de la complejidad del contorno. Además, podemos modelar cualquier condición de contorno independientemente de su complejidad, lo cual representa una ventaja frente a otras técnicas de simulación de fluidos en el ámbito de la Informática Gráfica.

29 de Marzo de 2019

  • Autor: Ortega Gallego, Fernando.
  • Titulo: “Aspect-Based Sentiment Analysis. A Scalable System, a Condition Miner, and an Evaluation Dataset”
  • Departamento: Lenguajes y Sistemas Informáticos.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1742022
  • Directores: Rafael Corchuelo Gil (Director).
  • Sinopsis:

    Aspect-based sentiment analysis systems are a kind of text-mining systems that specialise in summarising the sentiment that a collection of reviews convey regarding some aspects of an item. There are many cases in which users write their reviews using conditional sentences; in such cases, mining the conditions so that they can be analysed is very important to improve the interpretation of the corresponding sentiment summaries. Unfortunately, current commercial systems or research systems neglect conditions; current frameworks and toolkits do not provide any components to mine them; furthermore, the proposals in the literature are insufficient because they are based on hand-crafted patterns that fall short regarding recall or machine learning models that are tightly bound with a specific language and require too much configuration.

    In this dissertation, we introduce Torii, which is an aspect-based sentiment analysis system whose most salient feature is that it can mine conditions; we also introduce Kami, which provides two deep learning proposals to mine conditions; and we also present Norito, which is the first publicly available dataset of conditions. Our experimental results prove that our proposals to mine conditions are similar to the state of the art in terms of precision, but improve recall enough to beat them in terms of F1 score. Finally, it is worth mentioning that this dissertation would not have been possible without the collaboration of Opileak, which backs up the industrial applicability of our work.

1 de Abril de 2019

  • Autor: Orellana Martín, David.
  • Titulo: “El Problema P Versus Np. Desarrollo de Nuevas Técnicas a través de Modelos de Computación Bio-Inspirados”
  • Departamento: Ciencias de la Computación e Inteligencia Artificial.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1751979
  • Directores: Mario de Jesús Pérez Jiménez y Luis Valencia Cabrera (Codirector).
  • Sinopsis:

    Desde la aparición de los primeros modelos de computación en la década de los treinta del pasado siglo, han surgido nuevos modelos inspirados en fuentes muy diversas, en particular en procesos de la Naturaleza viva. La teoría de la computabilidad es la disciplina científica que estudia la capacidad de los modelos de computación para resolver mecánicamente problemas abstractos. La construcción de las primeras máquinas de propósito general, en la década de los cuarenta del pasado siglo, dio origen al análisis de la capacidad de esas máquinas para resolver instancias de problemas de «gran» tamaño usando una «cantidad razonable» de recursos computacionales, dando origen a la teoría de la complejidad computacional.

    El problema P versus NP (determinar si las clases de complejidad P y NP son iguales) trata de precisar si «es más difícil hallar una solución de un problema que comprobar si una presunta solución es, realmente, una solución correcta del mismo». Este problema es, sin lugar a dudas, el más importante en Ciencias de la Computación y uno de los más relevantes que tiene planteada la Ciencia, en general. Con el fin de «dar la bienvenida a las Matemáticas del nuevo milenio», el Clay Mathematics Institute (CMI) de Cambridge, Massachusetts (USA), seleccionó siete problemas de especial relevancia (entre los que se encuentra el problema P versus NP), ofreciendo una dotación de un millón de dolares para aquel que resolviera alguno de ellos. La solución de dicho problema tendría unas repercusiones extraordinarias, especialmente desde el punto de vista económico, tanto en lo que respecta a la seguridad de los actuales sistemas de cifrado (RSA, DES, etc.), como a la posibilidad de construir un decodificador universal; es decir, una máquina capaz de romper, en tiempo record, los textos cifrados por los actuales sistemas de cifrado.

    En esta tesis se presenta una nueva metodología para abordar la resolución del problema antes citado, desde una perspectiva completamente novedosa, basada en la obtención de fronteras entre la no eficiencia y la presumible eficiencia de un modelo de computación arbitrario. La metodología desarrollada es aplicada, específicamente, a dispositivos computacionales en el paradigma de la Computación Celular con Membranas.

17 de Octubre de 2019

  • Autor: Luna Romera, José María.
  • Titulo: “New Internal and External Validation Indices for Clustering in Big Data”
  • Departamento: Lenguajes y Sistemas Informáticos.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1805781
  • Directores: María Del Mar Martínez Ballesteros, Jorge García Gutiérrez y José Cristóbal Riquelme Santos (Tutor/Ponente).
  • Sinopsis:

    Esta tesis, presentada como un compendio de artículos de investigación, analiza el concepto de índices de validación de clustering y aporta nuevas medidas de bondad para conjuntos de datos que podrían considerarse Big Data debido a su volumen. Además, estas medidas han sido aplicadas en proyectos reales y se propone su aplicación futura para mejorar algoritmos de clustering.

    El clustering es una de las técnicas de aprendizaje automático no supervisado más usada. Esta técnica nos permite agrupar datos en clusters de manera que, aquellos datos que pertenezcan al mismo cluster tienen características o atributos con valores similares, y a su vez esos datos son disimilares respecto a aquellos que pertenecen a los otros clusters. La similitud de los datos viene dada normalmente por la cercanía en el espacio, teniendo en cuenta una función de distancia. En la literatura existen los llamados índices de validación de clustering, los cuales podríamos definir como medidas para cuantificar la calidad de un resultado de clustering. Estos índices se dividen en dos tipos: índices de validación internos, que miden la calidad del clustering en base a los atributos con los que se han construido los clusters; e índices de validación externos, que son aquellos que cuantifican la calidad del clustering a partir de atributos que no han intervenido en la construcción de los clusters, y que normalmente son de tipo nominal o etiquetas.

    En esta memoria se proponen dos índices de validación internos para clustering basados en otros índices existentes en la literatura, que nos permiten trabajar con grandes cantidades de datos, ofreciéndonos los resultados en un tiempo razonable. Los índices propuestos han sido testeados en datasets sintéticos y comparados con otros índices de la literatura. Las conclusiones de este trabajo indican que estos índices ofrecen resultados muy prometedores frente a sus competidores.

    Por otro lado, se ha diseñado un nuevo índice de validación externo de clustering basado en el test estadístico chi cuadrado. Este índice permite medir la calidad del clustering basando el resultado en cómo han quedado distribuidos los clusters respecto a una etiqueta dada en la distribución. Los resultados de este índice muestran una mejora significativa frente a otros índices externos de la literatura y en datasets de diferentes dimensiones y características.

    Además, estos índices propuestos han sido aplicados en tres proyectos con datos reales cuyas publicaciones están incluidas en esta tesis doctoral. Para el primer proyecto se ha desarrollado una metodología para analizar el consumo eléctrico de los edificios de una smart city. Para ello, se ha realizado un análisis de clustering óptimo aplicando los índices internos mencionados anteriormente. En el segundo proyecto se ha trabajado tanto los índices internos como con los externos para realizar un análisis comparativo del mercado laboral español en dos periodos económicos distintos. Este análisis se realizó usando datos del Ministerio de Trabajo, Migraciones y Seguridad Social, y los resultados podrían tenerse en cuenta para ayudar a la toma de decisión en mejoras de políticas de empleo. En el tercer proyecto se ha trabajado con datos de los clientes de una compañía eléctrica para caracterizar los tipos de consumidores que existen. En este estudio se han analizado los patrones de consumo para que las compañías eléctricas puedan ofertar nuevas tarifas a los consumidores, y éstos puedan adaptarse a estas tarifas con el objetivo de optimizar la generación de energía eliminando los picos de consumo que existen la actualidad.

18 de Junio de 2019

  • Autor: Lopez Ojeda, Antonio.
  • Titulo: “Medida Continua de la Frecuencia en Redes Eléctricas con Perturbaciones Electromagnéticas Conducidas de Baja Frecuencia”
  • Departamento: Tecnología Electrónica.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1770462
  • Directores: Juan Carlos Montaño Asquerino y Alberto Yúfera García (Tutor/Ponente).
  • Sinopsis:

    Se ha realizado un análisis del estado del arte en la medida de la frecuencia de la red eléctrica.

    Se ha desarrollado un marco de trabajo que permite realizar una comparación objetiva, realista y completa de los distintos métodos de medida de la frecuencia de la red eléctrica, facilitando la tarea de decidir qué método es el más adecuado en función de la aplicación que se vaya a hacer de la información de la frecuencia y de las características de perturbación del entorno donde se realicen las medidas.

    Se ha elaborado de un banco de señales de prueba representativo de las perturbaciones electromagnéticas conducidas de baja frecuencia basado en la Norma Internacional IEC 61000 sobre compatibilidad electromagnética.

    Se ha desarrollado un nuevo método de medida de la frecuencia que mejore el comportamiento de los métodos existentes para determinados tipos de perturbaciones electromagnéticas.

    Se han simulado los distintos métodos de medida de la frecuencia con una herramienta matemática de alto nivel, con las señales de prueba propuestas y para distintas condiciones de ruido, de cuantificación y de frecuencia de muestreo de las señales utilizadas.

    Se han analizado los resultados simulados obtenidos, determinando para que señales de prueba, el nuevo método propuesto, mejora a los ya existentes.

    Se han ejecutado los distintos métodos de medida de la frecuencia en un controlador digital de señal, comprobándose la viabilidad de realización en tiempo real de la mayoría de los métodos estudiados y la coherencia estos resultados experimentales con los resultados simulados.

18 de Noviembre de 2019

  • Autor: Font Calvo, Juan Luis.
  • Titulo: “Network traffic characterisation, analysis, modelling and simulation for networked virtual environments”
  • Departamento: Arquitectura y Tecnología de Computadores.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1808091
  • Directores: Jose Luis Sevillano Ramos.
  • Sinopsis:

    Networked virtual environment (NVE) refers to a distributed software system where a simulation, also known as virtual world, is shared over a data network between several users that can interact with each other and the simulation in real-time. NVE systems are omnipresent in the present globally interconnected world, from entertainment industry, where they are one of the foundations for many video games, to pervasive games that focus on e-learning, e-training or social studies. From this relevance derives the interest in better understanding the nature and internal dynamics of the network traffic that vertebrates these systems, useful in fields such as network infrastructure optimisation or the study of Quality of Service and Quality of Experience related to NVE-based services. The goal of the present work is to deepen into this understanding of NVE network traffic by helping to build network traffic models that accurately describe it and can be used as foundations for tools to assist in some of the research fields enumerated before.

    First contribution of the present work is a formal characterisation for NVE systems, which provides a tool to determine which systems can be considered as NVE. Based on this characterisation it has been possible to identify numerous systems, such as several video games, that qualify as NVE and have an important associated literature focused on network traffic analysis. The next contribution has been the study of this existing literature from a NVE perspective and the proposal of an analysis pipeline, a structured collection of processes and techniques to define microscale network models for NVE traffic. This analysis pipeline has been tested and validated against a study case focused on Open Wonderland (OWL), a framework to build NVE systems of different purpose. The analysis pipeline helped to defined network models from experimental OWL traffic and assessed on their accuracy from a statistical perspective. The last contribution has been the design and implementation of simulation tools based on the above OWL models and the network simulation framework ns-3. The purpose of these simulations was to confirm the validity of the OWL models and the analysis pipeline, as well as providing potential tools to support studies related to NVE network traffic. As a result of this final contribution, it has been proposed to exploit the parallelisation potential of these simulations through High Throughput Computing techniques and tools, aimed to coordinate massively parallel computing workloads over distributed resources.

20 de Diciembre de 2019

  • Autor: Cimmino Arriaga, Andrea Jesús.
  • Titulo: “Enterprise information integration: on discovering links using genetic programming”
  • Departamento: Lenguajes y Sistemas Informáticos.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1812429
  • Directores: Rafael Corchuelo Gil.
  • Sinopsis:

    Both established and emergent business rely heavily on data, chiefly those that wish to become game changers. The current biggest source of data is the Web, where there is a large amount of sparse data. The Web of Data aims at providing a unified view of these islands of data. To realise this vision, it is required that the resources in different data sources that refer to the same real-world entities must be linked, which is they key factor for such a unified view. Link discovery is a trending task that aims at finding link rules that specify whether these links must be established or not. Currently there are many proposals in the literature to produce these links, especially based on meta-heuristics. Unfortunately, creating proposals based on meta-heuristics is not a trivial task, which has led to a lack of comparison between some well-established proposals. On the other hand, it has been proved that these link rules fall short in cases in which resources that refer to different real-world entities are very similar or vice versa. In this dissertation, we introduce several proposals to address the previous lacks in the literature. On the one hand we, introduce Eva4LD, which is a generic framework to build genetic programming proposals for link discovery; which are a kind of meta-heuristics proposals. Furthermore, our framework allows to implement many proposals in the literature and compare their results fairly. On the other hand, we introduce Teide, which applies effectively the link rules increasing significantly their precision without dropping their recall significantly. Unfortunately, Teide does not learn link rules, and applying all the provided link rules is computationally expensive. Due to this reason we introduce Sorbas, which learns what we call contextual link rules.

25 de Octubre de 2019

  • Autor: Castro García, Juan Antonio.
  • Titulo: “Adquisición y procesamiento de señales fisiológicas y sus aplicaciones”
  • Departamento: Tecnología Electrónica.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1814982
  • Directores: Isabel María Gómez González y Alberto Jesús Molina Cantero.
  • Sinopsis:

    Actualmente, la computación afectiva es una temática de investigación al alza. Ésta se apoya en dispositivos hardware para la adquisición de señales fisiológicas, que suelen ser privativos, caros y difíciles de coordinar con otros. En el documento se presenta una solución abierta, siguiendo las directrices del Open Source Hardware, para un sistema de bajo coste que es capaz de capturar de forma simultánea los siguientes elementos: una derivación del electrocardiograma (ECG); dos canales actividad electrodérmica (EDA), mediante técnicas de multiplexación en tiempo; y un canal de temperatura superficial. También se propone el uso del background noise level (BNL), un parámetro que ha sido adaptado del estándar MPEG-7, para determinar la calidad de la señal de electrocardiografía.

    Para el firmware se ha desarrollado una librería, bajo licencia LGPL v3 que asegura la frecuencia de muestreo a la vez que permite el uso de retardos no bloqueantes; e incluye funciones típicas del procesado digital de señales, como la capacidad de aplicar filtrado, análisis frecuencial por medio del algoritmo de Goertzel, y funciones de almacenamiento de ventanas para el cálculo de la energía contenida, o en número de cruces por cero de la señal.

    Del dispositivo se ha liberado tanto los esquemáticos como el firmware necesario para el microcontrolador. Asimismo, ha sido probado en un experimento que busca la detección de algún estado afectivo durante la realización de ejercicio físico.

29 de Noviembre de 2019

  • Autor: Campora Pérez, Daniel Hugo.
  • Titulo: “Optimization of high-throughput real-time processes in physics reconstruction”
  • Departamento: Ciencias de la Computación e Inteligencia Artificial.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1818999
  • Directores: Agustín Riscos Núñez, Niko Neufeld (codirector) y Agustín Riscos Núñez (tutor/ponente).
  • Sinopsis:

    La presente tesis se ha desarrollado en colaboración entre la Universidad de Sevilla y la Organización Europea para la Investigación Nuclear, CERN.

    El detector LHCb es uno de los cuatro grandes detectores situados en el Gran Colisionador de Hadrones, LHC. En LHCb, se colisionan partı́culas a altas energı́as para comprender la diferencia existente entre la materia y la antimateria. Debido a la cantidad ingente de datos generada por el detector, es necesario realizar un filtrado de datos en tiempo real, fundamentado en los conocimientos actuales recogidos en el Modelo Estándar de fı́sica de partı́culas. El filtrado, también conocido como High Level Trigger, deberá procesar un throughput de 40 Tb/s de datos, y realizar un filtrado de aproximadamente 1 000:1, reduciendo el throughput a unos 40 Gb/s de salida, que se almacenan para posterior análisis.

    El proceso del High Level Trigger se subdivide a su vez en dos etapas: High Level Trigger 1 (HLT1) y High Level Trigger 2 (HLT2). El HLT1 transcurre en tiempo real, y realiza una reducción de datos de aproximadamente 30:1. El HLT1 consiste en una serie de procesos software que reconstruyen lo que ha sucedido en la colisión de partı́culas. En la reconstrucción del HLT1 únicamente se analizan las trayectorias de las partı́culas producidas fruto de la colisión, en un problema conocido como reconstrucción de trazas, para dictaminar el interés de las colisiones. Por contra, el proceso HLT2 es más fino, requiriendo más tiempo en realizarse y reconstruyendo todos los subdetectores que componen LHCb.

    Hacia 2020, el detector LHCb, ası́ como todos los componentes del sistema de adquisición de datos, serán actualizados acorde a los últimos desarrollos técnicos. Como parte del sistema de adquisición de datos, los servidores que procesan HLT1 y HLT2 también sufrirán una actualización. Al mismo tiempo, el acelerador LHC será también actualizado, de manera que la cantidad de datos generada en cada cruce de grupo de partı́culas aumentare en aproxidamente 5 veces la actual. Debido a las actualizaciones tanto del acelerador como del detector, se prevé que la cantidad de datos que deberá procesar el HLT en su totalidad sea unas 40 veces mayor a la actual.

    La previsión de la escalabilidad del software actual a 2020 subestimó los recursos necesarios para hacer frente al incremento en throughput. Esto produjo que se pusiera en marcha un estudio de todos los algoritmos tanto del HLT1 como del HLT2, ası́ como una actualización del código a nuevos estándares, para mejorar su rendimiento y ser capaz de procesar la cantidad de datos esperada.

    En esta tesis, se exploran varios algoritmos de la reconstrucción de LHCb. El problema de reconstrucción de trazas se analiza en profundidad y se proponen nuevos algoritmos para su resolución. Ya que los problemas analizados exhiben un paralelismo masivo, estos algoritmos se implementan en lenguajes especializados para tarjetas gráficas modernas (GPUs), dada su arquitectura inherentemente paralela. En este trabajo se diseñan dos algoritmos de reconstrucción de trazas. Además, se diseñan adicionalmente cuatro algoritmos de decodificación y un algoritmo de clustering, problemas también encontrados en el HLT1. Por otra parte, se diseña un algoritmo para el filtrado de Kalman, que puede ser utilizado en ambas etapas.

    Los algoritmos desarrollados cumplen con los requisitos esperados por la colaboración LHCb para el año 2020. Para poder ejecutar los algoritmos eficientemente en tarjetas gráficas, se desarrolla un framework especializado para GPUs, que permite la ejecución paralela de secuencias de reconstrucción en GPUs. Combinando los algoritmos desarrollados con el framework, se completa una secuencia de ejecución que asienta las bases para un HLT1 ejecutable en GPU.

    Durante la investigación llevada a cabo en esta tesis, y gracias a los desarrollos arriba mencionados y a la colaboración de un pequeño equipo de personas coordinado por el autor, se completa un HLT1 ejecutable en GPUs. El rendimiento obtenido en GPUs, producto de esta tesis, permite hacer frente al reto de ejecutar una secuencia de reconstrucción en tiempo real, bajo las condiciones actualizadas de LHCb previstas para 2020. Ası́ mismo, se completa por primera vez para cualquier experimento del LHC un High Level Trigger que se ejecuta únicamente en GPUs. Finalmente, se detallan varias posibles configuraciones para incluir tarjetas gráficas en el sistema de adquisición de datos de LHCb.

14 de Enero de 2019

  • Autor: Arcos García, Alvaro.
  • Titulo: “Técnicas de Inteligencia Artificial Aplicadas a Sistemas de Detección y Clasificación de Señales de Tráfico”
  • Departamento: Lenguajes y Sistemas Informáticos.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1721292
  • Directores: Juan Antonio Álvarez García y Luis Miguel Soria Morillo.
  • Sinopsis:

    Esta tesis, presentada como conjunto de artículos de investigación, estudia y analiza soluciones para los sistemas de detección y clasificación de señales de tráfico que suponen un reto en aplicaciones de la actualidad, como son la seguridad y asistencia en carretera a conductores, los coches autónomos, el mantenimiento de señalización vertical, o el análisis de escenas de tráfico.

    Las señales de tráfico constituyen un activo fundamental dentro de la red de carreteras porque su objetivo es ser fácilmente perceptible por los peatones y conductores para advertirles y guiarlos tanto de día como de noche.

    El hecho de que las señales estén diseñadas para ser únicas y tener características distinguibles, como formas simples y colores uniformes, implica que su detección y reconocimiento sea un problema limitado. Sin embargo, el desarrollo de un sistema de reconocimiento de señales en tiempo real aún presenta desafíos debido a los tiempos de respuesta, los cuales son cruciales para tomar decisiones en el entorno, y la variabilidad que presentan las imágenes de escenas de tráfico, que pueden incluir imágenes a distintas escalas, puntos de vista complicados, oclusiones, y diferentes condiciones de luz. Cualquier sistema de detección y clasificación de señales de tráfico debe hacer frente a estos retos.

    En este trabajo, se presenta un sistema de clasificación de señales de tráfico basado en aprendizaje profundo (Deep Learning). Concretamente, los principales componentes de la red neuronal profunda (Deep Neural Network) propuesta, son capas convolucionales y redes de transformaciones espaciales (Spatial Transformer Networks). Dicha red es alimentada con imágenes RGB de señales de tráfico de distintos países como Alemania, Bélgica o España. En el caso de las señales de Alemania, que pertenecen al dataset denominado German Traffic Sign Recognition Benchmark (GTSRB), la arquitectura de red y los parámetros de optimización propuestos obtienen un 99.71% de precisión, mejorando tanto al sistema visual humano como a todos los resultados previos del estado del arte, siendo además más eficiente en términos de requisitos de memoria. En el momento de redactar esta tesis, nuestro método se encuentra en la primera posición de la clasificación a nivel mundial.

    Por otro lado, respecto a la problemática de la detección de señales de tráfico, se analizan varios sistemas de detección de objetos propuestos en el estado del arte, que son específicamente modificados y adaptados al dominio del problema que nos ocupa para aplicar la transferencia de conocimiento en redes neuronales (transfer learning). También se estudian múltiples parámetros de rendimiento para cada uno de los modelos de detección con el fin de ofrecer al lector cuál sería el mejor detector de señales teniendo en cuenta restricciones del entorno donde se desplegará la solución, como la precisión, el consumo de memoria o la velocidad de ejecución. Nuestro estudio muestra que el modelo Faster R-CNN Inception Resnet V2 obtiene la mejor precisión (95.77% mAP), mientras que R-FCN Resnet 101 alcanza el mejor equilibrio entre tiempo de ejecución (85.45 ms por imagen) y precisión (95.15% mAP).

15 de Julio de 2019

  • Autor: Ahmed Hussien Meidan, Ayman.
  • Titulo: “A Mda Proposal to Integrate the Measurement Lifecycle into the Process Lifecycle”
  • Departamento: Lenguajes y Sistemas Informáticos.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1763097
  • Directores: Julián Alberto García García, Isabel Ramos Román y María José Escalona Cuaresma (Tutor/Ponente).
  • Sinopsis:

    Contexto: la medición permite a las organizaciones obtener conocimiento sobre sus procesos y proyectos, también alcanzar un rendimiento predecible y procesos de alta capacidad, lo que pone las organizaciones en mejores posiciones para tomar decisiones apropiadas. La medición del proceso de desarrollo de software apoya a las organizaciones en su esfuerzo para comprender, evaluar, gestionar y mejorar sus procesos y proyectos de desarrollo.

    Objetivo: Esta disertación propone una solución novedosa para respaldar la identificación y la definición de los conceptos y objetivos de medición en una forma operativa. Además, busca definir un ciclo de vida de la medición e integrarlo en el ciclo de vida del proceso.

    Método: Hemos llevado a cabo una encuesta y estudios de mapeo para comprender el estado del arte e identificar brechas existentes. Posteriormente, hemos propuesto una solución teórica para respaldar la medición del proceso del software y, finalmente, hemos desarrollado esta solución para permitir su uso práctico en entornos reales, permitiendo su aplicación y evaluación en un proyecto real.

    Resultados: La solución propuesta consta de tres componentes principales: (i) Ciclo de vida de la medición; que define las actividades de medición a lo largo del ciclo de vida del proceso, (ii) Metamodelos de medición; estos metamodelos apoyan el ciclo de vida de la medición y su integración en el ciclo de vida del proceso, (iii) Proceso de transformación; que permite la derivación de los modelos de medición, artefactos y actividades necesarios a lo largo del ciclo de vida del proceso.

    Conclusión: la solución presentada en este trabajo permite a las organizaciones gestionar y mejorar sus procesos y proyectos; El modelo de información propuesto apoya la unificación del vocabulario de los conceptos de medición, los conecta de forma coherente y garantiza la trazabilidad entre estos conceptos. El ciclo de vida del proceso de medición proporciona una guía clara y completa para que las organizaciones establezcan los objetivos de medición y realicen las actividades necesarias para lograrlos. El metamodelo de definición de la medición apoya y guía a los ingenieros para definir los conceptos de medición y sus relaciones de manera completa y operativa; además, las transformaciones propuestas utilizan este metamodelo para respaldar el proceso de medición y derivar los artefactos y las actividades de medición necesarios durante el ciclo de vida del proceso.

Buscar

Noticias

Directorio

Tablón de Anuncios

Mapa del Sitio

Esta web usa cookies propias para el correcto funcionamiento y de terceros para analizar el tráfico de nuestra página web. Si continúas navegando, consideramos que aceptas su uso. Política de cookies.