Yañez Gómez, Rosa María

19 de Septiembre de 2019

  • Autor: Yañez Gómez, Rosa María.
  • Titulo: “Evaluacion Heuristica de la Usabilidad en Contextos Especificos”
  • Departamento: Arquitectura y Tecnología de Computadores.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1782282
  • Directores: José Luis Sevillano Ramos y Daniel Cascado Cabellero.
  • Sinopsis:

    La atención a la usabilidad de los sistemas de información, como requisito no funcional, es especialmente relevante al tratarse de un factor crítico que determina buena parte del volumen de desarrollos correctivos que van a necesitar los productos en su fase de mantenimiento y el grado de aceptación del usuario hacia dicho sistema, producto o programa. Para evaluar el grado de usabilidad de las interfaces y detectar precozmente el mayor número de problemas se diseñan planes de evaluación que seleccionarán y combinarán distintas herramientas teniendo en cuenta las características de la interfaz, los objetivos prioritarios de la evaluación y la fase de desarrollo del producto o prototipo objeto del análisis; así como cualesquiera otras circunstancias o condicionantes, sea el coste o el tiempo, la formación del personal, etc.

    La Evaluación Heurística es una herramienta de evaluación de la usabilidad basada en la intervención de expertos. Consiste en la comprobación de los elementos de una lista de heurísticas que, por su naturaleza, no pueden comprobarse automáticamente y requieren del criterio de un experto. Supone un método de bajo coste y buen rendimiento de detección de fallos que se adapta a distintos productos y objetivos, a las características de las distintas fases de desarrollo y, en definitiva, a muy distintos planes de evaluación.

    En la literatura coexisten distintas propuestas de listas heurísticas de carácter general que, en dominios específicos, deben adaptarse a las características del contexto para maximizar su eficacia. Un ejemplo es la heurística propuesta en esta Tesis, adaptada a la interacción con interfaces móviles. Estas listas adaptadas también se han multiplicado en la literatura atendiendo a distintos aspectos de los planes de evaluación. De este modo el volumen de propuestas a disposición de los evaluadores, para su selección y potencial combinación, resulta bastante inmanejable.

    Tomando un contexto tan específico como los videojuegos —juegos a partir de ahora— , sin embargo, una revisión sistemática de la literatura permite observar que la lista generalista de Nielsen sigue siendo la más usada, incluso cuando resulta insuficiente a la hora de abarcar las características específicas y novedosas de este dominio de aplicación.

    Partiendo de las hipótesis de que el gran número de propuestas, con distintas características y objetivos, supone un obstáculo a la hora de que los evaluadores puedan seleccionar la más ajustada a su caso y de que incluso una selección ajustada desaprovecharía potenciales ventajas de otras propuestas, se ha desarrollado una herramienta denominada MUSE (Meta-heUristics uSability Evaluation tool) que es capaz de generar una lista heurística personalizada para un plan de evaluación específico tomando como base las distintas propuestas de la bibliografía y automatizando al máximo su selección y filtrado.

    Una evaluación preliminar de la herramienta aventura resultados prometedores en cuanto a su capacidad de mejorar la detección de vulneraciones de la usabilidad frente al uso de herramientas genéricas en el caso del contexto específico de los juegos y, particularmente, cuando los evaluadores involucrados no son expertos.

Tapiador Morales, Ricardo

25 de Diciembre de 2019

  • Autor: Tapiador Morales, Ricardo.
  • Titulo: “Neuromorphic deep convolutional neural network learning systems for fpga in real time”
  • Departamento: Arquitectura y Tecnología de Computadores.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1798119
  • Directores: Gabriel Jiménez Moreno, Alejandro Linares Barranco (Codirector) y Ángel Francisco Jiménez Fernández (Codirector).
  • Sinopsis:

    Deep Learning algorithms have become one of the best approaches for pattern recognition in several fields, including computer vision, speech recognition, natural language processing, and audio recognition, among others. In image vision, convolutional neural networks stand out, due to their relatively simple supervised training and their efficiency extracting features from a scene. Nowadays, there exist several implementations of convolutional neural networks accelerators that manage to perform these networks in real time. However, the number of operations and power consumption of these implementations can be reduced using a different processing paradigm as neuromorphic engineering. Neuromorphic engineering field studies the behavior of biological and inner systems of the human neural processing with the purpose of design analog, digital or mixed-signal systems to solve problems inspired in how human brain performs complex tasks, replicating the behavior and properties of biological neurons. Neuromorphic engineering tries to give an answer to how our brain is capable to learn and perform complex tasks with high efficiency under the paradigm of spike-based computation.

    This thesis explores both frame-based and spike-based processing paradigms for the development of hardware architectures for visual pattern recognition based on convolutional neural networks. In this work, two FPGA implementations of convolutional neural networks accelerator architectures for frame-based using OpenCL and SoC technologies are presented. Followed by a novel neuromorphic convolution processor for spike-based processing paradigm, which implements the same behaviour of leaky integrate-and-fire neuron model. Furthermore, it reads the data in rows being able to perform multiple layers in the same chip. Finally, a novel FPGA implementation of Hierarchy of Time Surfaces algorithm and a new memory model for spike-based systems are proposed.

Rodas Silva, Jorge Luis

4 de Diciembre de 2019

  • Autor: Rodas Silva, Jorge Luis.
  • Titulo: “On the selection and analysis of software product line implementation components using intelligent techniques”
  • Departamento: Lenguajes y Sistemas Informáticos.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1822182
  • Directores: David Benavides Cuevas y José Ángel Galindo Duarte.
  • Sinopsis:

    In recent years and with the growing technological advancement, companies no longer focus exclusively on producing a product for a customer (e.g. producing a website for the Decameron Hotel), but on producing for a domain (e.g. the production of websites for hotels); that is, producing products that can be easily adapted to the different changes and suit the individual tastes of customers.

    In software engineering, this can be achieved through software product lines (SPL). An SPL is defined as a set of systems that share a common set of features that meet the demand of a specific market. An SPL tries to reduce the effort and cost of implementing and maintaining a set of similar software products over time. However, managing the variability in these systems is a difficult task, the greater the number of products, the more complex they are to be handled.

    In this context, in this thesis we address two problems:

    The organization of feature models in different layers for different purposes.- Variability information from an SPL may no longer be concentrated on a single feature model but on several. For example, decoupling an Android application variability from the ecosystem variability. This, in turn, causes these models to relate to each other, making modeling itself a challenge, specifically when defining the constraints that could be added to the models and the management of the information associated with them. Understanding which attribute values can be chosen and which analysis operations can be executed in those models is a challenge to be solved.

    The leverage of information associated to the features.- In a feature model, we can find a series of features that can have associated information that could be exploited to take a series of variability management decisions. The problem arises when each feature can be implemented by one or several components that contain associated information. In this case, taking advantage of information from the implementation components to select the right one to implement a feature becomes a challenge during the product configuration.

    To address the problems described above, we propose two solutions:

    MAYA: A proposal designed to model several layers (top and bottom layer) in which we can assign to each of the models a series of attributes and establish relationships between them. To this end, we offer mechanisms to model these relationships and the introduction of new analysis operations that take into account the information from the two models. For example, if a bluetooth feature is activated on a mobile phone, which would be the API that should be used to support that function.

    RESDEC: A proposal designed to use of information associated with the implementation components in the feature models; that is, exploit the information generated around the components (e.g. number of errors, number of downloads, ratings, etc.) to implement features in the configuration of a product. To this end, we introduce a set of automated analysis operations that relying on recommender systems helps to select the best implementation component alternative that could be used to implement a certain feature. For example, if we are designing a sales website, which components might be the best option to implement the shopping cart feature.

    Our solutions were validated in different environments. MAYA was used it in an industrial context for mobile applications with Android and RESDEC was used to select implementation components in a virtual store using real information extracted from WordPress. All our implementations are available and are tools prototypes that we have used in the validations presented in this document.

    The information generated around feature models leads to a series of problems related to their management, which opens up new SPL research challenges. In this thesis, we have solved two of them; however, there is still more work to be done in relation to what information generated around the models can be taken, what modeling strategies should be considered, how many layers should be handled and how they can be arranged in each case, or what technique should be used to assist the configuration of products using additional information are some of them to just mention a few.

Potestad Ordóñez, Francisco Eugenio

5 de Marzo de 2019

  • Autor: Potestad Ordóñez, Francisco Eugenio.
  • Titulo: “Vulnerabilidad y Análisis Diferencial Mediante Inserción de Fallos de Cifradores Trivium en Fpga y AsicTecnología Electrónica”
  • Departamento: Tecnología Electrónica.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1742502
  • Directores: Manuel Valencia Barrero y Carlos Jesús Jiménez Fernández.
  • Sinopsis:

    Las comunicaciones entre dispositivos aumenta día a día y un gran ejemplo de ello es el crecimiento del Internet de las cosas, en inglés Internet of things (IoT). De entre todas las comunicaciones que se producen, parte de ella está compuesta por información sensible susceptible de ser interceptada por terceras partes con fines malintencionados. Con el fin de evitar este gran problema, la comunidad científica se ha centrado en la constante búsqueda y desarrollo de algoritmos criptográficos o criptosistemas, algoritmos orientados tanto a software como a hardware, que permitan asegurar unas comunicaciones donde los canales de transmisión son potencialmente inseguros.

    A la hora de poder establecer nuevos estándares de seguridad, es necesario estudiar la seguridad ofrecida por los nuevos algoritmos desde el punto de vista de su vulnerabilidad con el objetivo de reducirla. Estas vulnerabilidades de los llamados criptosistemas es posible estudiarlas tomando el rol de una tercera parte que trata de obtener la información secreta del dispositivo y con ello conocer dónde se encuentran sus puntos débiles. Es aquí donde se enmarca la presente Tesis Doctoral. A lo largo de este texto, se realiza un estudio del estado del arte de la criptografía, así como las técnicas más importantes para comprometer la seguridad de los criptosistemas actuales, siendo objeto de estudio el cifrador de flujo Trivium, tanto el diseño original presentado en el portfolio del proyecto eSTREAM, como diferentes variantes de éste.

    Para poder estudiar la vulnerabilidad de estos criptosistemas y poder recuperar su información secreta, se han diseñado diferentes sistemas de inserción de fallos tanto en tecnología FPGA como en ASIC. Estos sistemas de ataque se han implementado para poder atacar al cifrador mediante la manipulación de su señal de reloj y sus señales de control. Gracias a estos sistemas de ataque experimentales, es posible determinar los puntos débiles de estos criptosistemas y mediante el uso de análisis diferenciales recuperar su información secreta, clave y vector de inicialización. Este estudio, por tanto, presenta la primera rotura de este cifrador de forma experimental, consiguiendo en el 100% de los casos la recuperación de su clave secreta y probando que este criptosistema es vulnerable a los ataques por inserción de fallos.

Pérez García, Pablo

15 de Julio de 2019

  • Autor: Pérez García, Pablo.
  • Titulo: “Circuit Design for Biomedical Laboratories Based on Impedance Measurement”
  • Departamento: Tecnología Electrónica.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1784727
  • Directores: Alberto Yúfera García y Gloria Huertas Sánchez (Codirector).
  • Sinopsis:

    El presente estudio doctoral analiza la aplicación de una técnica de medida de cultivos celulares en tiempo real que es de alta utilidad para los investigadores en el área biomédica. Entre las diversas técnicas de medida aplicables a muestras biológicas, las medidas eléctricas de bio-impedancia destaca por el tremendo potencial que sugiere adquirir los datos con circuitos electrónicos de cara a su posterior desarrollo integrado en Lab-On-A-Chip y otros dispositivos biomédicos.

    El sistema desarrollado sigue el paradigma del Internet de las cosas (IoT), proponiendo un sensor que realizará las medidas físicas en el interior del incubador de cultivos celulares y un dispositivo que actuará como enlace entre el sensor y la capa de servicios que podrán utilizar los investigadores en biomedicina para evaluar los resultados obtenidos y configurar experimentos.

    El sensor ha sido diseñado siguiendo la técnica de test basado en oscilación (OBT). Esto se traduce en una serie de ventajas para el sistema tales como evitar la necesidad de sistemas de excitación eléctrica, no requiere de circuitos de sincronización complejos y al incluirse la muestra a analizar en el camino de la oscilación es sencillo controlar los niveles de tensión y corriente que circulan por la misma.

    El principio físico sobre el cuál se ha diseñado este sensor está basado en la técnica ECIS, un complejo estudio involucrando modelos de electrodo, variaciones de parámetros de diseño y tipos de crecimiento celular se han incluido en el trabajo para adquirir la intuición necesaria sobre el proceso de diseño. Para validar todo lo anterior, se plantearon experimentos que verifican los modelos y las simulaciones planteadas.

    Por último, se ha planteado un conjunto de experimentos empleando diversas líneas celulares (AA8, N2A, N2A APP, CRL-1458). Los experimentos realizados sobre estas células están clasificados en tres tipos; crecimiento celular, diferenciación celular y citotoxicidad. La estimación del número total de células emplea un algoritmo de estimación que ha podido validarse a la luz de los datos obtenidos.

Perea Rodríguez, Juan José

13 de Diciembre de 2019

  • Autor: Perea Rodríguez, Juan José.
  • Titulo: “Técnicas para la mejora de la estabilidad en el método sph para la simulación de fluidos”
  • Departamento: Lenguajes y Sistemas Informáticos.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1826292
  • Directores: Juan Manuel Cordero Valle y Isabel Ramos Román (tutor/ponente).
  • Sinopsis:

    En el campo de la Informática Gráfica existen diversos problemas que siguen investigándose por no haber encontrado aún una solución suficientemente apropiada. En el caso de la Simulación de Fluidos, aunque existen herramientas y técnicas para simular el comportamiento dinámico de un fluido, los resultados obtenidos deben ser posprocesados para eliminar las perturbaciones que aparecen y que disminuyen el realismo visual.

    Simular un fluido, o más técnicamente el flujo de un fluido, requiere de un procesamiento en el que se resuelven el conjunto de ecuaciones en derivadas parciales con las que se describen, cuantitativamente, el flujo. En general, no puede simularse el fluido a partir de los resultados obtenidos mediante técnicas analíticas, en parte debido a que sólo es posible obtener estas soluciones bajo condiciones determinadas muy restrictivas. Además, esto supondría por una parte un esfuerzo computacional enorme y por otra parte unas simulaciones poco versátiles, ya que no sería posible introducir elementos dinámicos en el escenario de simulación.

    Para sobrepasar estas limitaciones es necesario utilizar técnicas discretas basadas en cálculo numérico que nos ofrecen mayor capacidad de intervención en la generación de resultados en un tiempo de cálculo plausible. Una de las técnicas más destacables es Smoothed Particles Hydrodynamic (SPH). El método SPH presenta algunas deficiencias que reducen la estabilidad y la precisión de los resultados obtenidos que no han sido resueltos de manera satisfactoria.

    Diversos estudios se han centrado en identificar el origen de estas deficiencias. A partir de las conclusiones de estos estudios se pueden identificar tres, estas son: (1) el número y la distribución de las partículas que interactúan mutuamente (las partículas vecinas), (2) la imposición de la incompresibilidad, (3) la simulación de la interacción fluido-contorno. La consecuencia de estas deficiencias es un comportamiento errático de las partículas, la aparición de dispersiones espurias de partículas, especialmente en los límites del fluido, y sobreamortiguamiento, lo que da lugar a unos resultados visuales poco realistas.

    Para resolver estos problemas proponemos tres mecanismos que mitigan las deficiencias enunciadas anteriormente. Estas son:

    1. Formulamos una nueva función de interacción entre partículas (conocida como función kernel) que mejora la estabilidad incluso en distribuciones de partículas no homogéneas.
    2. Modelamos la fuerza mutua entre partículas de modo que es posible imponer la incompresibilidad.
    3. Desarrollamos un nuevo mecanismo de modelado de las condiciones de contorno, que amplía la versatilidad de SPH al permitirnos introducir en la escena de simulación contornos no suaves.

    Para resolver estos problemas relacionados con la interacción fluido-contorno, que no están resuelto completamente a día de hoy, hemos desarrollado una nueva formulación basada en la discretización del contorno mediante partículas. Las mejoras que obtenemos con nuestra propuesta son: (1) simulamos la interacción del fluido con contorno complejos, (2) somos capaces de modelar condiciones de contorno complejas que no podían ser simuladas en el ámbito de la Informática Gráfica y (3) obtenemos una formulación con la que obtener todas las magnitudes dinámicas del fluido restringidas por las condiciones de contorno.

    Para demostrar las mejoras que se obtienen con nuestras técnicas, hemos desarrollado un conjunto de pruebas tanto cuantitativas, como cualitativas, en las que compararemos nuestra propuesta con otras técnicas también basadas en SPH. De los resultados que se obtienen en estas pruebas podemos inferir que:

    • La función kernel formulada permite una alta estabilidad, superior a las que se pueden obtener con otras funciones kernel muy utilizadas en simulaciones de fluidos mediante SPH. Esta alta estabilidad es destacable en simulaciones de muy baja energía. Además, conseguimos una alta precisión, superior a las obtenidas con otras funciones kernel, en simulaciones bajo condiciones extremas: a alta velocidad y baja densidad.
    • Con la nueva formulación del gradiente de presión conseguimos: (1) estabilidad y precisión incluso cuando el número de partículas es muy bajo, (2) imponer eficientemente la incompresibilidad mejorando los resultados que se obtienen con otras técnicas similares, (3) cuantificar el calentamiento (el trasvase de energía) en el fluido y disiparlo de un modo eficiente y preciso y (4) desarrollar un modelo estable y eficiente para un amplio rango de valores en los parámetros de simulación.
    • Somos capaces de simular la interacción fluido-contorno independientemente de la complejidad del contorno. Además, podemos modelar cualquier condición de contorno independientemente de su complejidad, lo cual representa una ventaja frente a otras técnicas de simulación de fluidos en el ámbito de la Informática Gráfica.

Ortega Gallego, Fernando

29 de Marzo de 2019

  • Autor: Ortega Gallego, Fernando.
  • Titulo: “Aspect-Based Sentiment Analysis. A Scalable System, a Condition Miner, and an Evaluation Dataset”
  • Departamento: Lenguajes y Sistemas Informáticos.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1742022
  • Directores: Rafael Corchuelo Gil (Director).
  • Sinopsis:

    Aspect-based sentiment analysis systems are a kind of text-mining systems that specialise in summarising the sentiment that a collection of reviews convey regarding some aspects of an item. There are many cases in which users write their reviews using conditional sentences; in such cases, mining the conditions so that they can be analysed is very important to improve the interpretation of the corresponding sentiment summaries. Unfortunately, current commercial systems or research systems neglect conditions; current frameworks and toolkits do not provide any components to mine them; furthermore, the proposals in the literature are insufficient because they are based on hand-crafted patterns that fall short regarding recall or machine learning models that are tightly bound with a specific language and require too much configuration.

    In this dissertation, we introduce Torii, which is an aspect-based sentiment analysis system whose most salient feature is that it can mine conditions; we also introduce Kami, which provides two deep learning proposals to mine conditions; and we also present Norito, which is the first publicly available dataset of conditions. Our experimental results prove that our proposals to mine conditions are similar to the state of the art in terms of precision, but improve recall enough to beat them in terms of F1 score. Finally, it is worth mentioning that this dissertation would not have been possible without the collaboration of Opileak, which backs up the industrial applicability of our work.

Orellana Martín, David

1 de Abril de 2019

  • Autor: Orellana Martín, David.
  • Titulo: “El Problema P Versus Np. Desarrollo de Nuevas Técnicas a través de Modelos de Computación Bio-Inspirados”
  • Departamento: Ciencias de la Computación e Inteligencia Artificial.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1751979
  • Directores: Mario de Jesús Pérez Jiménez y Luis Valencia Cabrera (Codirector).
  • Sinopsis:

    Desde la aparición de los primeros modelos de computación en la década de los treinta del pasado siglo, han surgido nuevos modelos inspirados en fuentes muy diversas, en particular en procesos de la Naturaleza viva. La teoría de la computabilidad es la disciplina científica que estudia la capacidad de los modelos de computación para resolver mecánicamente problemas abstractos. La construcción de las primeras máquinas de propósito general, en la década de los cuarenta del pasado siglo, dio origen al análisis de la capacidad de esas máquinas para resolver instancias de problemas de «gran» tamaño usando una «cantidad razonable» de recursos computacionales, dando origen a la teoría de la complejidad computacional.

    El problema P versus NP (determinar si las clases de complejidad P y NP son iguales) trata de precisar si «es más difícil hallar una solución de un problema que comprobar si una presunta solución es, realmente, una solución correcta del mismo». Este problema es, sin lugar a dudas, el más importante en Ciencias de la Computación y uno de los más relevantes que tiene planteada la Ciencia, en general. Con el fin de «dar la bienvenida a las Matemáticas del nuevo milenio», el Clay Mathematics Institute (CMI) de Cambridge, Massachusetts (USA), seleccionó siete problemas de especial relevancia (entre los que se encuentra el problema P versus NP), ofreciendo una dotación de un millón de dolares para aquel que resolviera alguno de ellos. La solución de dicho problema tendría unas repercusiones extraordinarias, especialmente desde el punto de vista económico, tanto en lo que respecta a la seguridad de los actuales sistemas de cifrado (RSA, DES, etc.), como a la posibilidad de construir un decodificador universal; es decir, una máquina capaz de romper, en tiempo record, los textos cifrados por los actuales sistemas de cifrado.

    En esta tesis se presenta una nueva metodología para abordar la resolución del problema antes citado, desde una perspectiva completamente novedosa, basada en la obtención de fronteras entre la no eficiencia y la presumible eficiencia de un modelo de computación arbitrario. La metodología desarrollada es aplicada, específicamente, a dispositivos computacionales en el paradigma de la Computación Celular con Membranas.

Luna Romera, José María

17 de Octubre de 2019

  • Autor: Luna Romera, José María.
  • Titulo: “New Internal and External Validation Indices for Clustering in Big Data”
  • Departamento: Lenguajes y Sistemas Informáticos.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1805781
  • Directores: María Del Mar Martínez Ballesteros, Jorge García Gutiérrez y José Cristóbal Riquelme Santos (Tutor/Ponente).
  • Sinopsis:

    Esta tesis, presentada como un compendio de artículos de investigación, analiza el concepto de índices de validación de clustering y aporta nuevas medidas de bondad para conjuntos de datos que podrían considerarse Big Data debido a su volumen. Además, estas medidas han sido aplicadas en proyectos reales y se propone su aplicación futura para mejorar algoritmos de clustering.

    El clustering es una de las técnicas de aprendizaje automático no supervisado más usada. Esta técnica nos permite agrupar datos en clusters de manera que, aquellos datos que pertenezcan al mismo cluster tienen características o atributos con valores similares, y a su vez esos datos son disimilares respecto a aquellos que pertenecen a los otros clusters. La similitud de los datos viene dada normalmente por la cercanía en el espacio, teniendo en cuenta una función de distancia. En la literatura existen los llamados índices de validación de clustering, los cuales podríamos definir como medidas para cuantificar la calidad de un resultado de clustering. Estos índices se dividen en dos tipos: índices de validación internos, que miden la calidad del clustering en base a los atributos con los que se han construido los clusters; e índices de validación externos, que son aquellos que cuantifican la calidad del clustering a partir de atributos que no han intervenido en la construcción de los clusters, y que normalmente son de tipo nominal o etiquetas.

    En esta memoria se proponen dos índices de validación internos para clustering basados en otros índices existentes en la literatura, que nos permiten trabajar con grandes cantidades de datos, ofreciéndonos los resultados en un tiempo razonable. Los índices propuestos han sido testeados en datasets sintéticos y comparados con otros índices de la literatura. Las conclusiones de este trabajo indican que estos índices ofrecen resultados muy prometedores frente a sus competidores.

    Por otro lado, se ha diseñado un nuevo índice de validación externo de clustering basado en el test estadístico chi cuadrado. Este índice permite medir la calidad del clustering basando el resultado en cómo han quedado distribuidos los clusters respecto a una etiqueta dada en la distribución. Los resultados de este índice muestran una mejora significativa frente a otros índices externos de la literatura y en datasets de diferentes dimensiones y características.

    Además, estos índices propuestos han sido aplicados en tres proyectos con datos reales cuyas publicaciones están incluidas en esta tesis doctoral. Para el primer proyecto se ha desarrollado una metodología para analizar el consumo eléctrico de los edificios de una smart city. Para ello, se ha realizado un análisis de clustering óptimo aplicando los índices internos mencionados anteriormente. En el segundo proyecto se ha trabajado tanto los índices internos como con los externos para realizar un análisis comparativo del mercado laboral español en dos periodos económicos distintos. Este análisis se realizó usando datos del Ministerio de Trabajo, Migraciones y Seguridad Social, y los resultados podrían tenerse en cuenta para ayudar a la toma de decisión en mejoras de políticas de empleo. En el tercer proyecto se ha trabajado con datos de los clientes de una compañía eléctrica para caracterizar los tipos de consumidores que existen. En este estudio se han analizado los patrones de consumo para que las compañías eléctricas puedan ofertar nuevas tarifas a los consumidores, y éstos puedan adaptarse a estas tarifas con el objetivo de optimizar la generación de energía eliminando los picos de consumo que existen la actualidad.

López Ojeda, Antonio

18 de Junio de 2019

  • Autor: Lopez Ojeda, Antonio.
  • Titulo: “Medida Continua de la Frecuencia en Redes Eléctricas con Perturbaciones Electromagnéticas Conducidas de Baja Frecuencia”
  • Departamento: Tecnología Electrónica.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1770462
  • Directores: Juan Carlos Montaño Asquerino y Alberto Yúfera García (Tutor/Ponente).
  • Sinopsis:

    Se ha realizado un análisis del estado del arte en la medida de la frecuencia de la red eléctrica.

    Se ha desarrollado un marco de trabajo que permite realizar una comparación objetiva, realista y completa de los distintos métodos de medida de la frecuencia de la red eléctrica, facilitando la tarea de decidir qué método es el más adecuado en función de la aplicación que se vaya a hacer de la información de la frecuencia y de las características de perturbación del entorno donde se realicen las medidas.

    Se ha elaborado de un banco de señales de prueba representativo de las perturbaciones electromagnéticas conducidas de baja frecuencia basado en la Norma Internacional IEC 61000 sobre compatibilidad electromagnética.

    Se ha desarrollado un nuevo método de medida de la frecuencia que mejore el comportamiento de los métodos existentes para determinados tipos de perturbaciones electromagnéticas.

    Se han simulado los distintos métodos de medida de la frecuencia con una herramienta matemática de alto nivel, con las señales de prueba propuestas y para distintas condiciones de ruido, de cuantificación y de frecuencia de muestreo de las señales utilizadas.

    Se han analizado los resultados simulados obtenidos, determinando para que señales de prueba, el nuevo método propuesto, mejora a los ya existentes.

    Se han ejecutado los distintos métodos de medida de la frecuencia en un controlador digital de señal, comprobándose la viabilidad de realización en tiempo real de la mayoría de los métodos estudiados y la coherencia estos resultados experimentales con los resultados simulados.

Buscar

Noticias

Directorio

Tablón de Anuncios

Mapa del Sitio

Esta web usa cookies propias para el correcto funcionamiento y de terceros para analizar el tráfico de nuestra página web. Si continúas navegando, consideramos que aceptas su uso. Política de cookies.