Font Calvo, Juan Luis

18 de Noviembre de 2019

  • Autor: Font Calvo, Juan Luis.
  • Titulo: “Network traffic characterisation, analysis, modelling and simulation for networked virtual environments”
  • Departamento: Arquitectura y Tecnología de Computadores.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1808091
  • Directores: Jose Luis Sevillano Ramos.
  • Sinopsis:

    Networked virtual environment (NVE) refers to a distributed software system where a simulation, also known as virtual world, is shared over a data network between several users that can interact with each other and the simulation in real-time. NVE systems are omnipresent in the present globally interconnected world, from entertainment industry, where they are one of the foundations for many video games, to pervasive games that focus on e-learning, e-training or social studies. From this relevance derives the interest in better understanding the nature and internal dynamics of the network traffic that vertebrates these systems, useful in fields such as network infrastructure optimisation or the study of Quality of Service and Quality of Experience related to NVE-based services. The goal of the present work is to deepen into this understanding of NVE network traffic by helping to build network traffic models that accurately describe it and can be used as foundations for tools to assist in some of the research fields enumerated before.

    First contribution of the present work is a formal characterisation for NVE systems, which provides a tool to determine which systems can be considered as NVE. Based on this characterisation it has been possible to identify numerous systems, such as several video games, that qualify as NVE and have an important associated literature focused on network traffic analysis. The next contribution has been the study of this existing literature from a NVE perspective and the proposal of an analysis pipeline, a structured collection of processes and techniques to define microscale network models for NVE traffic. This analysis pipeline has been tested and validated against a study case focused on Open Wonderland (OWL), a framework to build NVE systems of different purpose. The analysis pipeline helped to defined network models from experimental OWL traffic and assessed on their accuracy from a statistical perspective. The last contribution has been the design and implementation of simulation tools based on the above OWL models and the network simulation framework ns-3. The purpose of these simulations was to confirm the validity of the OWL models and the analysis pipeline, as well as providing potential tools to support studies related to NVE network traffic. As a result of this final contribution, it has been proposed to exploit the parallelisation potential of these simulations through High Throughput Computing techniques and tools, aimed to coordinate massively parallel computing workloads over distributed resources.

Cimmino Arriaga, Andrea Jesús

20 de Diciembre de 2019

  • Autor: Cimmino Arriaga, Andrea Jesús.
  • Titulo: “Enterprise information integration: on discovering links using genetic programming”
  • Departamento: Lenguajes y Sistemas Informáticos.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1812429
  • Directores: Rafael Corchuelo Gil.
  • Sinopsis:

    Both established and emergent business rely heavily on data, chiefly those that wish to become game changers. The current biggest source of data is the Web, where there is a large amount of sparse data. The Web of Data aims at providing a unified view of these islands of data. To realise this vision, it is required that the resources in different data sources that refer to the same real-world entities must be linked, which is they key factor for such a unified view. Link discovery is a trending task that aims at finding link rules that specify whether these links must be established or not. Currently there are many proposals in the literature to produce these links, especially based on meta-heuristics. Unfortunately, creating proposals based on meta-heuristics is not a trivial task, which has led to a lack of comparison between some well-established proposals. On the other hand, it has been proved that these link rules fall short in cases in which resources that refer to different real-world entities are very similar or vice versa. In this dissertation, we introduce several proposals to address the previous lacks in the literature. On the one hand we, introduce Eva4LD, which is a generic framework to build genetic programming proposals for link discovery; which are a kind of meta-heuristics proposals. Furthermore, our framework allows to implement many proposals in the literature and compare their results fairly. On the other hand, we introduce Teide, which applies effectively the link rules increasing significantly their precision without dropping their recall significantly. Unfortunately, Teide does not learn link rules, and applying all the provided link rules is computationally expensive. Due to this reason we introduce Sorbas, which learns what we call contextual link rules.

Castro García, Juan Antonio

25 de Octubre de 2019

  • Autor: Castro García, Juan Antonio.
  • Titulo: “Adquisición y procesamiento de señales fisiológicas y sus aplicaciones”
  • Departamento: Tecnología Electrónica.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1814982
  • Directores: Isabel María Gómez González y Alberto Jesús Molina Cantero.
  • Sinopsis:

    Actualmente, la computación afectiva es una temática de investigación al alza. Ésta se apoya en dispositivos hardware para la adquisición de señales fisiológicas, que suelen ser privativos, caros y difíciles de coordinar con otros. En el documento se presenta una solución abierta, siguiendo las directrices del Open Source Hardware, para un sistema de bajo coste que es capaz de capturar de forma simultánea los siguientes elementos: una derivación del electrocardiograma (ECG); dos canales actividad electrodérmica (EDA), mediante técnicas de multiplexación en tiempo; y un canal de temperatura superficial. También se propone el uso del background noise level (BNL), un parámetro que ha sido adaptado del estándar MPEG-7, para determinar la calidad de la señal de electrocardiografía.

    Para el firmware se ha desarrollado una librería, bajo licencia LGPL v3 que asegura la frecuencia de muestreo a la vez que permite el uso de retardos no bloqueantes; e incluye funciones típicas del procesado digital de señales, como la capacidad de aplicar filtrado, análisis frecuencial por medio del algoritmo de Goertzel, y funciones de almacenamiento de ventanas para el cálculo de la energía contenida, o en número de cruces por cero de la señal.

    Del dispositivo se ha liberado tanto los esquemáticos como el firmware necesario para el microcontrolador. Asimismo, ha sido probado en un experimento que busca la detección de algún estado afectivo durante la realización de ejercicio físico.

Campora Pérez, Daniel Hugo

29 de Noviembre de 2019

  • Autor: Campora Pérez, Daniel Hugo.
  • Titulo: “Optimization of high-throughput real-time processes in physics reconstruction”
  • Departamento: Ciencias de la Computación e Inteligencia Artificial.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1818999
  • Directores: Agustín Riscos Núñez, Niko Neufeld (codirector) y Agustín Riscos Núñez (tutor/ponente).
  • Sinopsis:

    La presente tesis se ha desarrollado en colaboración entre la Universidad de Sevilla y la Organización Europea para la Investigación Nuclear, CERN.

    El detector LHCb es uno de los cuatro grandes detectores situados en el Gran Colisionador de Hadrones, LHC. En LHCb, se colisionan partı́culas a altas energı́as para comprender la diferencia existente entre la materia y la antimateria. Debido a la cantidad ingente de datos generada por el detector, es necesario realizar un filtrado de datos en tiempo real, fundamentado en los conocimientos actuales recogidos en el Modelo Estándar de fı́sica de partı́culas. El filtrado, también conocido como High Level Trigger, deberá procesar un throughput de 40 Tb/s de datos, y realizar un filtrado de aproximadamente 1 000:1, reduciendo el throughput a unos 40 Gb/s de salida, que se almacenan para posterior análisis.

    El proceso del High Level Trigger se subdivide a su vez en dos etapas: High Level Trigger 1 (HLT1) y High Level Trigger 2 (HLT2). El HLT1 transcurre en tiempo real, y realiza una reducción de datos de aproximadamente 30:1. El HLT1 consiste en una serie de procesos software que reconstruyen lo que ha sucedido en la colisión de partı́culas. En la reconstrucción del HLT1 únicamente se analizan las trayectorias de las partı́culas producidas fruto de la colisión, en un problema conocido como reconstrucción de trazas, para dictaminar el interés de las colisiones. Por contra, el proceso HLT2 es más fino, requiriendo más tiempo en realizarse y reconstruyendo todos los subdetectores que componen LHCb.

    Hacia 2020, el detector LHCb, ası́ como todos los componentes del sistema de adquisición de datos, serán actualizados acorde a los últimos desarrollos técnicos. Como parte del sistema de adquisición de datos, los servidores que procesan HLT1 y HLT2 también sufrirán una actualización. Al mismo tiempo, el acelerador LHC será también actualizado, de manera que la cantidad de datos generada en cada cruce de grupo de partı́culas aumentare en aproxidamente 5 veces la actual. Debido a las actualizaciones tanto del acelerador como del detector, se prevé que la cantidad de datos que deberá procesar el HLT en su totalidad sea unas 40 veces mayor a la actual.

    La previsión de la escalabilidad del software actual a 2020 subestimó los recursos necesarios para hacer frente al incremento en throughput. Esto produjo que se pusiera en marcha un estudio de todos los algoritmos tanto del HLT1 como del HLT2, ası́ como una actualización del código a nuevos estándares, para mejorar su rendimiento y ser capaz de procesar la cantidad de datos esperada.

    En esta tesis, se exploran varios algoritmos de la reconstrucción de LHCb. El problema de reconstrucción de trazas se analiza en profundidad y se proponen nuevos algoritmos para su resolución. Ya que los problemas analizados exhiben un paralelismo masivo, estos algoritmos se implementan en lenguajes especializados para tarjetas gráficas modernas (GPUs), dada su arquitectura inherentemente paralela. En este trabajo se diseñan dos algoritmos de reconstrucción de trazas. Además, se diseñan adicionalmente cuatro algoritmos de decodificación y un algoritmo de clustering, problemas también encontrados en el HLT1. Por otra parte, se diseña un algoritmo para el filtrado de Kalman, que puede ser utilizado en ambas etapas.

    Los algoritmos desarrollados cumplen con los requisitos esperados por la colaboración LHCb para el año 2020. Para poder ejecutar los algoritmos eficientemente en tarjetas gráficas, se desarrolla un framework especializado para GPUs, que permite la ejecución paralela de secuencias de reconstrucción en GPUs. Combinando los algoritmos desarrollados con el framework, se completa una secuencia de ejecución que asienta las bases para un HLT1 ejecutable en GPU.

    Durante la investigación llevada a cabo en esta tesis, y gracias a los desarrollos arriba mencionados y a la colaboración de un pequeño equipo de personas coordinado por el autor, se completa un HLT1 ejecutable en GPUs. El rendimiento obtenido en GPUs, producto de esta tesis, permite hacer frente al reto de ejecutar una secuencia de reconstrucción en tiempo real, bajo las condiciones actualizadas de LHCb previstas para 2020. Ası́ mismo, se completa por primera vez para cualquier experimento del LHC un High Level Trigger que se ejecuta únicamente en GPUs. Finalmente, se detallan varias posibles configuraciones para incluir tarjetas gráficas en el sistema de adquisición de datos de LHCb.

Arcos García, Alvaro

14 de Enero de 2019

  • Autor: Arcos García, Alvaro.
  • Titulo: “Técnicas de Inteligencia Artificial Aplicadas a Sistemas de Detección y Clasificación de Señales de Tráfico”
  • Departamento: Lenguajes y Sistemas Informáticos.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1721292
  • Directores: Juan Antonio Álvarez García y Luis Miguel Soria Morillo.
  • Sinopsis:

    Esta tesis, presentada como conjunto de artículos de investigación, estudia y analiza soluciones para los sistemas de detección y clasificación de señales de tráfico que suponen un reto en aplicaciones de la actualidad, como son la seguridad y asistencia en carretera a conductores, los coches autónomos, el mantenimiento de señalización vertical, o el análisis de escenas de tráfico.

    Las señales de tráfico constituyen un activo fundamental dentro de la red de carreteras porque su objetivo es ser fácilmente perceptible por los peatones y conductores para advertirles y guiarlos tanto de día como de noche.

    El hecho de que las señales estén diseñadas para ser únicas y tener características distinguibles, como formas simples y colores uniformes, implica que su detección y reconocimiento sea un problema limitado. Sin embargo, el desarrollo de un sistema de reconocimiento de señales en tiempo real aún presenta desafíos debido a los tiempos de respuesta, los cuales son cruciales para tomar decisiones en el entorno, y la variabilidad que presentan las imágenes de escenas de tráfico, que pueden incluir imágenes a distintas escalas, puntos de vista complicados, oclusiones, y diferentes condiciones de luz. Cualquier sistema de detección y clasificación de señales de tráfico debe hacer frente a estos retos.

    En este trabajo, se presenta un sistema de clasificación de señales de tráfico basado en aprendizaje profundo (Deep Learning). Concretamente, los principales componentes de la red neuronal profunda (Deep Neural Network) propuesta, son capas convolucionales y redes de transformaciones espaciales (Spatial Transformer Networks). Dicha red es alimentada con imágenes RGB de señales de tráfico de distintos países como Alemania, Bélgica o España. En el caso de las señales de Alemania, que pertenecen al dataset denominado German Traffic Sign Recognition Benchmark (GTSRB), la arquitectura de red y los parámetros de optimización propuestos obtienen un 99.71% de precisión, mejorando tanto al sistema visual humano como a todos los resultados previos del estado del arte, siendo además más eficiente en términos de requisitos de memoria. En el momento de redactar esta tesis, nuestro método se encuentra en la primera posición de la clasificación a nivel mundial.

    Por otro lado, respecto a la problemática de la detección de señales de tráfico, se analizan varios sistemas de detección de objetos propuestos en el estado del arte, que son específicamente modificados y adaptados al dominio del problema que nos ocupa para aplicar la transferencia de conocimiento en redes neuronales (transfer learning). También se estudian múltiples parámetros de rendimiento para cada uno de los modelos de detección con el fin de ofrecer al lector cuál sería el mejor detector de señales teniendo en cuenta restricciones del entorno donde se desplegará la solución, como la precisión, el consumo de memoria o la velocidad de ejecución. Nuestro estudio muestra que el modelo Faster R-CNN Inception Resnet V2 obtiene la mejor precisión (95.77% mAP), mientras que R-FCN Resnet 101 alcanza el mejor equilibrio entre tiempo de ejecución (85.45 ms por imagen) y precisión (95.15% mAP).

Ahmed Hussien Meidan, Ayman

15 de Julio de 2019

  • Autor: Ahmed Hussien Meidan, Ayman.
  • Titulo: “A Mda Proposal to Integrate the Measurement Lifecycle into the Process Lifecycle”
  • Departamento: Lenguajes y Sistemas Informáticos.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1763097
  • Directores: Julián Alberto García García, Isabel Ramos Román y María José Escalona Cuaresma (Tutor/Ponente).
  • Sinopsis:

    Contexto: la medición permite a las organizaciones obtener conocimiento sobre sus procesos y proyectos, también alcanzar un rendimiento predecible y procesos de alta capacidad, lo que pone las organizaciones en mejores posiciones para tomar decisiones apropiadas. La medición del proceso de desarrollo de software apoya a las organizaciones en su esfuerzo para comprender, evaluar, gestionar y mejorar sus procesos y proyectos de desarrollo.

    Objetivo: Esta disertación propone una solución novedosa para respaldar la identificación y la definición de los conceptos y objetivos de medición en una forma operativa. Además, busca definir un ciclo de vida de la medición e integrarlo en el ciclo de vida del proceso.

    Método: Hemos llevado a cabo una encuesta y estudios de mapeo para comprender el estado del arte e identificar brechas existentes. Posteriormente, hemos propuesto una solución teórica para respaldar la medición del proceso del software y, finalmente, hemos desarrollado esta solución para permitir su uso práctico en entornos reales, permitiendo su aplicación y evaluación en un proyecto real.

    Resultados: La solución propuesta consta de tres componentes principales: (i) Ciclo de vida de la medición; que define las actividades de medición a lo largo del ciclo de vida del proceso, (ii) Metamodelos de medición; estos metamodelos apoyan el ciclo de vida de la medición y su integración en el ciclo de vida del proceso, (iii) Proceso de transformación; que permite la derivación de los modelos de medición, artefactos y actividades necesarios a lo largo del ciclo de vida del proceso.

    Conclusión: la solución presentada en este trabajo permite a las organizaciones gestionar y mejorar sus procesos y proyectos; El modelo de información propuesto apoya la unificación del vocabulario de los conceptos de medición, los conecta de forma coherente y garantiza la trazabilidad entre estos conceptos. El ciclo de vida del proceso de medición proporciona una guía clara y completa para que las organizaciones establezcan los objetivos de medición y realicen las actividades necesarias para lograrlos. El metamodelo de definición de la medición apoya y guía a los ingenieros para definir los conceptos de medición y sus relaciones de manera completa y operativa; además, las transformaciones propuestas utilizan este metamodelo para respaldar el proceso de medición y derivar los artefactos y las actividades de medición necesarios durante el ciclo de vida del proceso.

Buscar

Noticias

Directorio

Tablón de Anuncios

Mapa del Sitio

Esta web usa cookies propias para el correcto funcionamiento y de terceros para analizar el tráfico de nuestra página web. Si continúas navegando, consideramos que aceptas su uso. Política de cookies.