Iniciar Sesión

Acceso mediante UVUS

Usuario
Contraseña *

Normativa

La normativa para la presentación y lectura de tesis doctorales se puede consultar en los enlaces:

Tesis doctorales defendidas en el Programa:

 
José González Enriquez

13 de Octubre de 2017

  • Autor: José González Enriquez.
  • Titulo: “A Model-Driven Engineering Approach for the Uniquely Identity Reconciliation of Heterogeneous Data Sources”.
  • Directores: Francisco José Domínguez Mayo y María José Escalona Cuaresma.
  • Sinopsis:

    Previous chapters of this PhD thesis hold up the work where we present and define a theoretical and practical Framework. They also describe a work based on a real need in organizations (Chapter I), that later has turned into a specific problem (Chapter III) derived from the results and conclusions obtained after studying the state-of-the-art (Chapter II). Once the context has been specified, the remaining PhD thesis introduces a Framework composed three main pillars: (i) the MaRIA Process (Chapter IV), (ii) the Model-Driven approach (Chapter V) to support the entity reconciliation modeling preparing the system to be developed to be systematically tested defining a set of transformation mechanisms (Chapter VI) and (iii), a support tool to cover the previous two pillars called MaRIA Tool (Chapter VII). To apply the theoretical framework to real environments. In this sense this approach has been put in practice in two real world case studies presented in Chapter VIII.

    This Doctoral Thesis propose a suitable environment to support the entity reconciliation in the requirements and analysis phases. This environment allows the development team to prepare their future system to guarantee a suitable entity reconciliation with, besides could be systematically tested.

  • Teseo: N.A.
  • Repositorio USE: N.A.
  • SISIUS: https://investigacion.us.es/sisius/sis_showpub.php?idpers=20334
Última actualización Jueves, 18 Enero 2018 13:26
 
Javier Romero Lemos

12 de Julio de 2017

  • Autor: Javier Romero Lemos.
  • Titulo: “Técnicas de Minería de Datos en el Proceso de Secuencias Temporales. Aplicaciones a la Clasificación Industrial de Sonidos”.
  • Directores: Alejandro Carrasco Muñoz y7 Amalia Luque Sendra.
  • Sinopsis:

    El proceso de secuencias temporales supone un campo de trabajo específico dentro de las técnicas de minería de datos o aprendizaje automático. Entre las tareas de esta disciplina se encuentra la clasificación de secuencias temporales que, por su especificidad, admite el uso de tratamientos diferenciados. Entre los datos con estructura de secuencia temporal pueden destacarse las señales sonoras. Existen numerosas aplicaciones en las que resulta de utilidad la clasificación automatizada de sonidos. En muchas de ellas se requiere que la solución propuesta tenga unas características que podríamos calificar de industriales: robustez, inmunidad al ruido, normalización, operación en tiempo real, bajo consumo y bajo coste.

    En esta tesis se analizan y comparan distintos métodos de clasificación de sonidos. Para ello, se segmentan los sonidos en fragmentos (ventanas) de muy corta duración y se propone el uso del estándar ISO MPEG-7, cuya aplicación permite obtener un conjunto normalizado de parámetros. Se consideran hasta nueve algoritmos de clasificación que, tomando como patrones distintos sonidos de clases conocidas, realizan una clasificación supervisada sin tener en cuenta el carácter secuencial de las mismas (clasificación no secuencial). Para tener en cuenta el carácter secuencial de los sonidos se proponen y comparan distintos métodos (clasificación secuencial). Para pasar de la clasificación de una ventana, o secuencia de ventanas, a la clasificación de un sonido completo la presente investigación propone una clasificación de series derivadas. Se define una serie (vectorial) derivada como la secuencia de probabilidades de que cada ventana pertenezca a una determinada clase. Se propone la caracterización de las series derivadas como si se tratase de sonidos, es decir, mediante la caracterización de cada uno de sus ventanas usando parámetros MPEG-7 y su posterior clasificación supervisada usando alguno de los algoritmos clasificadores propios de la minería de datos.

    El resultado del análisis realizado permite afirmar que el uso de los parámetros MPEG-7 constituye una buena alternativa para caracterizar sonidos. En la aplicación analizada el mejor clasificador no secuencial ha resultado ser el árbol de decisión. Por otra parte, la introducción de un método de ventana deslizante aparece como la mejor opción de clasificación secuencial, aunque con una mejora muy discreta sobre la técnica no secuencial. Adicionalmente, se ha podido evidenciar que la clasificación de las series derivadas supone una mejora muy notable en las prestaciones del clasificador.

  • Teseo:
  • Repositorio USE: http://www.doctorado.us.es/tesis-doctoral/repositorio-tesis/details/2/6260
  • LinkedIn: https://www.linkedin.com/in/javier-romero-lemos-1bb256144/
Última actualización Jueves, 18 Enero 2018 13:22
 
Jorge Sedeño Lopez

17 de Mayo de 2017

  • Autor:Jorge Sedeño Lopez.
  • Titulo: “Una propuesta para el descubrimiento sistemático de Servicios en fases tempranas de desarrollos ágiles”.
  • Directores: Maria José Escalona Cuaresma y Manuel Mejias Risoto.
  • Sinopsis:

    El objetivo principal de la presente Tesis Doctoral será proponer en un único proceso, la formalización de un requisito, fundamentándolo en técnicas ágiles (debido a su agilidad y completitud), que pueda ser gestionado contra un Catálogo de Servicios, a fin de descubrir qué Servicios dentro del contexto, son susceptibles de ser incorporados en el desarrollo de la nueva aplicación para dar cobertura a ese requisito.

    El cuerpo de esta Tesis Doctoral pues, se cimenta sobre la definición de una serie de metamodelos. Para ello, se define un metamodelo en el que se formalizarán los Servicios pertenecientes al Catálogo de Servicios de dicha organización, que contendrá la funcionalidad identificada y viva, en el contexto, de forma normalizada. A su vez, se define un metamodelo de requisitos que permita la formalización ágil, temprana y completa de los nuevos requisitos. Para este punto será necesario el uso de las nuevas técnicas y metodologías ágiles que se han usado con buen resultado, precisamente, para disponer de un conjunto homogéneo de requisitos funcionales y no funcionales, completo y ágil.

    Como resultado de la presente Tesis Doctoral, obtenemos un proceso sistemático y coherente para el descubrimiento de los Servicios Candidatos, definiendo la relación entre los metamodelos que nos permita descubrir qué Servicios dentro del Catálogo de Servicios dan cobertura a un conjunto total o parcial de los requisitos, es decir, identificar los Servicios Candidatos para su análisis, mediante la propuesta de un algoritmo que realice las consultas entre los diferentes campos de los metamodelos basada en la puntuación de dichas búsquedas, a partir de esa correspondencia. Así mismo se plantea una arquitectura tecnológica capaz de soportar dicho proceso, el framework DS4aRE.

    En conclusión, esta Tesis Doctoral plantea una solución a un problema específico: realizar el proceso sistemático y coherente para el descubrimiento de los Servicios Candidatos dentro del contexto de una organización que presta Servicios, a través de la formalización de requisitos usando técnicas y metodologías ágiles a fin de identificar, dentro del Catálogo de Servicios de la organización, qué funcionalidad de los nuevos requisitos está ya contenida.

    Por último, el trabajo presenta la evaluación de los resultados obtenidos en un entorno de producción real, basado en la instanciación de dicha solución, cuya aplicación ha sido considerada como satisfactoria.

    Como aportación de la presente Tesis Doctoral obtenemos un proceso sistemático y coherente para el descubrimiento de los Servicios Candidatos, que nos permita descubrir qué Servicios dentro del Catálogo de Servicios dan cobertura a un conjunto total o parcial de los requisitos, es decir, identificar los Servicios Candidatos para su análisis. Además se obtiene en este trabajo el framework DS4aRE que soporta e implementa dicho proceso y es desplegable en una organización real.

    En conclusión, esta Tesis Doctoral plantea una solución a un problema específico: realizar el proceso sistemático y coherente para el descubrimiento de los Servicios Candidatos dentro del contexto de una organización que presta Servicios, a través de la formalización de requisitos usando técnicas y metodologías ágiles a fin de identificar dentro del Catálogo de Servicios de la organización que funcionalidad de los nuevos requisitos está ya contenida.

    Uno de los beneficios fundamentales de esta gestión ágil de requisitos dentro el Gobierno de los Servicios, desde las etapas más tempranas del desarrollo, desembocará en la eficacia y eficiencia de los recursos, del propio desarrollo software y de una mejor prestación de dichos Servicios.

    Desde las etapas más tempranas de la elicitación de requisitos, se conocerá qué Servicios, dentro de la organización, cubren parte de la funcionalidad, por lo que la reutilización del software se maximizará para estos desarrollos, con el consiguiente ahorro en tiempo y coste y aumentando la calidad de las nuevas aplicaciones.

    Así mismo, se mejora, dentro del Gobierno de TI, el gobierno de los Servicios debido a que la temprana identificación de su uso, hace posible que se puedan ejecutar las políticas adecuadas a su ciclo de vida, redundando así en un mejor control de los Servicios y por tanto mejorando la prestación de los mismos y minimizando el impacto de los sucesivos cambios de estado dentro de su ciclo de vida.

    Por último, el trabajo presenta la evaluación de los resultados teóricos obtenidos en un entorno de producción basado en la instanciación de la solución, cuya aplicación ha sido considerada como satisfactoria.

  • Teseo: N.A.
  • Repositorio USE: http://www.doctorado.us.es/tesis-doctoral/repositorio-tesis/tesis-2017/details/2/6287
  • LinkedIn: https://www.linkedin.com/in/jorgesedeno/
Última actualización Jueves, 18 Enero 2018 13:18
 
José Miguel More Gutierrez

12 de Mayo de 2017

  • Autor: José Miguel More Gutierrez.
  • Titulo: “Implementaciones VLSI de Cifradores de Flujo Trivium de Bajo Consumo ”.
  • Directores: Carlos Jesus Jimenez Fernandez y Manuel Valencia Barrero.
  • Sinopsis:

    En toda comunicación de datos se hace necesario proteger y garantizar de una manera adecuada la información enviada a través de cualquier tipo de red para evitar que un observador no autorizado pueda acceder o cambiar la información o suplantar identidades. Estas comunicaciones, cada vez más, se realizan entre dispositivos portables, cuyo funcionamiento con baterías y con limitados recursos de computación imponen importantes condicionantes a los mecanismos de cifrado y autenticación. La necesidad cada vez mayor de hacer segura y privada esta información transmitida entre dispositivos electrónicos portables e inalámbricos está haciendo que el uso de algoritmos criptográficos de bajo consumo de potencia y de recursos (lightweight cryptography) sea muy común hoy en día, y con un futuro muy prometedor sobre todo en el escenario de Internet de las Cosas (IoT: Internet of Things).

    En esta Tesis se presenta el diseño, implementación y caracterización de cifradores de flujo de bajo consumo de potencia. Para la selección de estos cifradores, nos hemos centrado en las propuestas de cifradores de flujo (stream ciphers) que el Proyecto eSTREAM de la Red Europea de Excelencia en Criptología, ECRYPT (European Network of Excellence in Cryptology) seleccionó como las que presentaban mejores prestaciones en sus implementaciones hardware. Entre ellos se eligió al cifrador Trivium para proponer arquitecturas eficientes en términos de consumo de potencia aplicando la técnica de paralelización en diferentes diseños a nivel lógico. La aplicación de esta técnica y la elección del cifrador Trivium han sido tomadas tras una revisión del estado del arte sobre las implementaciones hardware dentro de los algoritmos criptográficos con bajo consumo de recursos y del consumo de potencia.

    Se han realizado dos propuestas de cifradores de flujo Trivium con arquitecturas eficientes para bajo consumo denominadas MPLP (Mixed Parallel Low Power) y FPLP (Full Parallel Low Power). Estas propuestas han sido diseñadas y simuladas con uno, dos, ocho y dieciséis bits a la salida para obtener resultados de recursos, área y consumo de potencia. Estos resultados se han comparado con los obtenidos para la versión estándar con los mismos bits de salida. Se han utilizado para estos diseños distintas librerías de celdas estándar de diferentes tecnologías de fabricación de circuitos integrados y de dispositivos programables, FPGA. Como tecnologías ASIC se han usado tecnologías submicrónicas y nanométricas, en concreto, 350 nm, 180 nm, 130 nm, y 90 nm. En FPGAs se han utilizado las familias de dispositivos de Xilinx Spartan-3E y Virtex-5. Finalmente, para la verificación experimental, se ha implementado, mandado a fabricar y testado un circuito integrado (ASIC) en una tecnología de 90 nm, que contiene las propuestas de los cifradores Trivium con y sin técnicas de bajo consumo. Estas propuestas incluyen cifradores con salidas de uno, dos, ocho y dieciséis bits, y se han obtenido resultados experimentales de consumo de potencia y otras medidas con el equipo de test de señal mixta Agilent 93000.

    Como resultado del trabajo realizado se puede sintetizar y destacar como conclusión final que las propuestas de diseño Trivium presentadas mejoran el consumo de potencia de la versión estándar en los casos de uno, dos y ocho bits a la salida. No es así en el caso de dieciséis bits. Con respecto a los recursos empleados, estos crecen significativamente con el aumento del número de bits de salida, aunque las versiones de bajo consumo MPLP y FPLP mantienen una buena relación en los recursos empleados y en el área en las propuestas de un bit y dos bits.

    Todas las medidas realizadas, tanto por simulación como experimentalmente, avalan los datos de mejora en el consumo, siendo los casos de uno y dos bits de los cifradores Trivium FPLP y MPLP los que mejores resultados ofrecen en su conjunto, mejora que es extraordinariamente importante en el caso de un bit donde se alcanza el 50% manteniendo prácticamente los mismos costes en recursos y prestaciones en velocidad.

  • Teseo: N.A.
  • Repositorio USE: http://www.doctorado.us.es/tesis-doctoral/repositorio-tesis/tesis-2017/details/2/6193
  • IMSE/CNM: http://www.imse-cnm.csic.es/es/publicaciones.php?select1=60&select2=0&tipo_doc[]=All
Última actualización Jueves, 18 Enero 2018 13:09
 
Luisa María Romero Moreno

30 de Marzo de 2017

Última actualización Jueves, 18 Enero 2018 13:00
 
D. Enrique Sarrión Morillo

15 de Julio de 2016

  • Autor: D. Enrique Sarrión Morillo.
  • Titulo: “Hacia una concepción generalizada de la abducción, su modelización en lógicas no clásicas y su implementación en herramientas informáticas”.
  • Directores: Dr. D. Ángel Nepomuceno Fernández y Dr. D. Fernando Soler Toscano (Universidad de Sevilla)
  • Sinopsis: Entre los resultados de esta investigación se presenta una propuesta que generaliza sustancialmente la concepción sobre la abducción comúnmente aceptada en la actualidad, a la vez que ha establecido una tipología que amplía la hasta ahora existente. Del mismo modo ha probado de manera rigurosa importantes resultados sobre la caracterización estructural de ciertos tipos de relaciones inferenciales, dando respuesta a problemas que han permanecido abiertos casi dos décadas. También se han realizado varias aportaciones que permiten la modelización de la inferencia abductiva en sistemas lógicos no clásicos, teniendo en cuenta especialmente ciertas características que inciden sobre sus propiedades computacionales.
  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1275759
  • Repositorio USE: http://www.doctorado.us.es/tesis-doctoral/repositorio-tesis/tesis-2016/details/2/5807
  • LinkedIn: N.A.
Última actualización Viernes, 07 Abril 2017 08:32
 
Dña. Ana Belén Sánchez Jerez

23 de Mayo de 2016

  • Autor: Dña. Ana Belén Sánchez Jerez.
  • Titulo: “Test case prioritization in highly-configurable systems”.
  • Directores: Dr. D. Antonio Ruiz Cortés y Dr. D. Sergio Segura Rueda. (Universidad de Sevilla)
  • Sinopsis: El desarrollo de software esta transformándose progresivamente de la producción de programas individuales a la producción de familias de programas relacionados. Los sistemas altamente configurables son una evidencia de ello. Estos sistemas proporcionan una funcionalidad básica común y un conjunto de características opcionales para adaptar todas las variantes de un sistema de acuerdo a un conjunto determinado de requisitos. Sistemas operativos como Linux o herramientas de desarrollo como Eclipse han sido presentados como ejemplos de sistemas altamente configurables. Otro ejemplo que podemos destacar son las líneas de producto software, que se centran en el desarrollo de familias de productos relacionados a través de la gestión sistemática de la variabilidad. Las pruebas en sistemas altamente configurables suponen un gran reto debido al elevado número de configuraciones que deben probarse. Por ejemplo, Debían Wheezy, una conocida distribución de Linux, tiene m ́ as de 37,000 paquetes que ́pueden combinarse dando lugar a miles de millones de configuraciones posibles. Esto hace que probar cada configuración individual de un sistema altamente configurable sea demasiado costoso. En este escenario, las restricciones de presupuesto y tiempo pueden impedir la ejecución completa de una suite de pruebas. Para paliar este problema, se han propuesto numerosos trabajos de investigación para reducir el número de configuraciones a probar manteniendo un buen nivel de cobertura del código. ́

    Sin embargo, reducir el espacio de pruebas no es siempre una buena opción porque incrementa la probabilidad de defectos en el software. Las técnicas de priorización de casos de prueba reordenan las pruebas de manera que se ejecuten primero aquellas que permitan maximizar un determinado objetivo de rendimiento, normalmente, detectar errores lo antes posible. A modo de ejemplo, podríamos acelerar la detección de errores probando primero aquellos componentes más complejos, asumiendo que estos son más propensos a contener errores. Las técnicas de priorización de casos de ́prueba ayudan a mejorar la efectividad del proceso de pruebas permitiendo un feed-back más rápido a los ingenieros del software y asegurando que las pruebas con mayor ́capacidad de detectar errores habrán sido ejecutadas si el proceso se parase por alguna circunstancia. Existen pocas contribuciones de priorización de casos de prueba ́en sistemas altamente configurables y la mayor ́ıa de ellas combinan selección y priorización para generar los casos de prueba, lo que no se considera priorización pura. Además, la priorización que encontramos en la literatura esta principalmente basada en un solo objetivo o una combinación de varios objetivos en una única función a la que se le asignan pesos proporcionales a la importancia de dichos objetivos, ignorándolos beneficios de combinar múltiples criterios de priorización con igual importancia ́para guiar las pruebas. Otro reto que identificamos es la necesidad de sistemas alta-mente configurables con código disponible, con modelos de variabilidad y registro de errores accesibles que puedan utilizarse para validar la efectividad de las técnicas de pruebas propuestas. Como resultado, los autores de dichas técnicas suelen evaluarlas en términos de rendimiento (por ejemplo, midiendo el tiempo de ejecución) utilizando modelos de variabilidad y datos aleatorios o artificiales, lo que introduce amenazas en la validación de las conclusiones. ́

    El principal objetivo de esta tesis es mejorar el soporte que existe para las pruebas en sistemas altamente configurables, considerando para mejora las limitaciones mencionadas en los párrafos anteriores. Con este propósito, se presentan un conjunto de objetivos, técnicas y herramientas para la priorización de casos de prueba en sistemas altamente configurables. Con respecto a los objetivos de priorización, definimos ́nuevos objetivos basados en propiedades funcionales y no funcionales del sistema para guiar el proceso de pruebas. También definimos diferentes técnicas de priorización de pruebas basadas en un solo objetivo y basadas en múltiples objetivos utilizando algoritmos evolutivos. En este sentido, se presenta una comparación de 63 combinaciones ́diferentes de 1, 2 y 3 objetivos con la intención de acelerar la detección de errores en un sistema altamente configurable. Por último, proponemos casos de estudio de sistemas reales altamente configurables con código accesible y reportamos un extenso ́informe sobre datos extraidos de repositorios Git y errores obtenidos de gestores de tareas. Estas contribuciones han sido evaluadas realizando rigurosos experimentos que han revelado la eficacia y efficiencia de nuestra propuesta. Entre otros resultados, podemos destacar que la priorización multi-objetivo guidada por propiedades no funcionales es más efectiva acelerando la detección de errores que la priorización basada en un solo objetivo, basándonos en nuestro caso de estudio. Los resultados también ́sugerían que nuestras técnicas de priorización pueden ser un buen complemento para las técnicas actuales de selección de casos de prueba. La mayoría de nuestras contribuciones han sido integradas en una herramienta denominada SmarTest para probar el sistema de Drupal, un gestor de contenidos web y framework ampliamente conocido.

  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1238625
  • Repositorio USE: http://www.doctorado.us.es/tesis-doctoral/repositorio-tesis/tesis-2016/details/2/5803
  • LinkedIn: https://www.linkedin.com/in/ana-bel%C3%A9n-s%C3%A1nchez-jerez-84988518
Última actualización Viernes, 07 Abril 2017 08:35
 
D. Emre Yay

17 de Mayo de 2016

  • Autor: D. Emre Yay.
  • Titulo: “An adaptive and rule based driving system for energy-effcient and safe driving behavior”.
  • Directores: Dr. D. Juan Antonio Ortega Ramírez (Universidad de Sevilla) y Dra. Dña. Natividad Martínez Madrid (Reutlingen University, Germany)
  • Sinopsis: Saving energy and protecting the environment became fundamental for society and politics, why several laws were enacted to increase the energy‐efficiency and to reduce the greenhouse gas emission. Furthermore, the growing number of vehicles and drivers leaded to more accidents and fatalities on the roads, why road safety became an important factor as well. Due to the increasing importance of energy‐efficiency and safety, car manufacturers started to optimise the vehicle itself in terms of energy‐efficiency and safety. However, energy‐efficiency and road safety can be also increased by adapting the driving behaviour to the given driving situation. The main objective of this thesis is the improvement of the driving behaviour in terms of energy‐efficiency and safety by showing driving recommendations to the driver on time. This allows an increase of energy‐efficiency up to 30 % and an increase of road safety, as driver mistakes are the main causes of accidents with personal injury.

    This thesis presents a concept of an adaptive and rule based driving system that tries to educate the driver in energy‐efficient and safe driving by showing recommendations. Unlike other driving systems, the proposed driving system considers, besides energy‐efficiency and safety relevant driving rules, also the driver condition and adapts itself to the individual driving behaviour. Therefore, new algorithms and methods were developed, which allow the detection of inefficient or unsafe driving behaviour and the decision whether to show a recommendation to the driver based on the driver condition and the individual driving behaviour. This allows for example to avoid the distraction of the driver due to inappropriate recommendations in stressful driving situations. Furthermore, acceptance of the driving system can be increased, as the driver is not bothered by recommendations that are not relevant in the sense of the driver.

    A prototype of the proposed driving system was developed and evaluated. The evaluation was done on a driving simulator using 42 test drivers, who tested the effect of the driving system on the driving behaviour and the effect of the adaptiveness of the driving system on the user acceptance. It has been proven during the evaluation that the energy‐efficiency and safety can be increased, when the driving system was used. Furthermore, it has been proven that the user acceptance of the driving system increases when the adaptive feature was turned used. A high user acceptance of the driving system allows a steady usage of the driving system and, thus, a steady improvement of the driving behaviour in terms of energy‐efficiency and safety.

  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1240803
  • Repositorio USE: http://www.doctorado.us.es/tesis-doctoral/repositorio-tesis/tesis-2016/details/2/5818
  • • Researchgate: https://www.researchgate.net/profile/Emre_Yay
Última actualización Viernes, 07 Abril 2017 08:36
 
Dña. Patricia Jiménez Aguirre

19 de Octubre de 2015

  • Autor: Dña. Patricia Jiménez Aguirre.
  • Titulo: “Enterprise Information Integration – New Approaches to Web Information Extraction”.
  • Directores: Dr. D. Rafael Corchuelo Gil (Universidad de Sevilla)
  • Sinopsis: Information has changed the lives of most people forever thanks to the advent of the Web, which boost people using the Net at an increasing pace. Thus, the Web has become the universally accesible distribution channel for data. However, data itself is not powerful, but rather inferring knowledge from information, which is called Business Intelligence. To do that, we need web information extractors, which are the tools intended to extract data from the Web, and endow them with structure and semantics so that the information they produce can be consumed by people or can feed automated business processes to exploit it in an intelligent way. In this dissertation, we focus on developing web information extractors that learn rules to extract information from semi structured web documents and on how to evaluate different information extraction proposals so as to rank them automatically. We developed two proposals for web information extraction called TANGO and ROLLER; they both are based on an open catalogue of features, which eases evolving them as the Web evolves. We have also devised VENICE, an automated, open, agnostic, and non ad- hoc method to rank information extraction proposals homogeneously, fairly, and stringently.

    Our results have proven that we have advanced on the state-of-the-art regarding web information extraction proposals, which may help researchers and practitioners extract information from web pages effectively and efficiently. Also, we have advanced the state-of-the-art regarding how to evaluate and compare information extraction proposals so that researchers and practitioners can make informed decisions on which proposal is the most suitable for a particular problem.

  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1182735
  • Repositorio USE: http://www.doctorado.us.es/tesis-doctoral/repositorio-tesis/tesis-2015/details/2/4906
  • LinkedIn: http://www.tdg-seville.info/PatriciaJimenez/Home
Última actualización Miércoles, 24 Febrero 2016 12:03
 
D. David Gutiérrez Avilés

25 de Septiembre de 2015

  • Autor: D. David Gutiérrez Avilés.
  • Titulo: “TrLab: Una metodología para la extracción y evaluación de patrones de comportamiento de grandes volúmenes de datos biológicos dependientes del tiempo”.
  • Directores: Dra. Dña. Cristina Rubio Escudero (Universidad de Sevilla).
  • Sinopsis:La tecnología de microarray ha revolucionado la investigación biotecnológica gracias a la posibilidad de monitorizar los niveles de concentración de ARN. El análisis de dichos datos representa un reto computacional debido a sus características. Las técnicas de Clustering han sido ampliamente aplicadas para crear grupos de genes que exhiben comportamientos similares. El Biclustering emerge como una valiosa herramienta para el análisis de microarrays ya que relaja la restricción de agrupamiento permitiendo que los genes sean evaluados sólo bajo un subconjunto de condiciones experimentales. Sin embargo, ante la consideración de una tercera dimensión, el tiempo, el Triclustering se presenta como la herramienta apropiada para el análisis de experimentos longitudinales en los que los genes son evaluados bajo un cierto subconjunto de condiciones en un subconjunto de puntos temporales. Estos triclusters proporcionan información oculta en forma de patrón de comportamiento para experimentos temporales con microarrays.

    En esta investigación se presenta TrLab, una metodología para la extracción de patrones de comportamiento de grandes volúmenes de datos biológicos dependientes del tiempo. Esta metodología incluye el algoritmo TriGen, un algoritmo genético para la búsqueda de triclusters, teniendo en cuenta de forma simultánea, los genes, condiciones experimentales y puntos temporales que lo componen, además de tres medidas de evaluación que conforman el núcleo de dicho algoritmo así como una medida de calidad para los triclusters encontrados.

    Todas estas aportaciones estarán integradas en una aplicación con interfaz gráfica que permita su fácil utilización por parte de expertos en el campo de la biología.

    Las tres medidas de evaluación desarrolladas son: MSR3D basada en la adaptación a las tres dimensiones del Residuo Cuadrático Medio, LSL basada en el cálculo de la recta de mínimos cuadrados que mejor ajusta la representación gráfica del tricluster y MSL basada en el cálculo de los ángulos que forman el patrón de comportamiento del tricluster. La medida de calidad se denomina TRIQ y aglutina todos los aspectos que determinan el valor de un tricluster: calidad de correlación, gráfica y biológica.

  • Teseo:  https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1169625
  • Repositorio USE:  http://www.doctorado.us.es/tesis-doctoral/repositorio-tesis/tesis-2015/details/2/4903
  • LinkedIn:  https://www.linkedin.com/in/davidgutierrezaviles
Última actualización Miércoles, 24 Febrero 2016 11:57
 
D. Juan Manuel Cotelo Moya

3 de Septiembre de 2015

  • Autor: D. Juan Manuel Cotelo Moya.
  • Titulo: “Análisis de Contenidos Generados por Usuarios mediante la Integración de Información Estructurada y No Estructurada”.
  • Directores: Dr. D. José A. Troyano (Universidad de Sevilla) y Dr. D. Fermín Cruz (universidad de Sevilla).
  • Sinopsis: Los servicios de redes sociales han pasado a ser una parte fundamental del entramado social de los últimos años. Estas herramientas permiten a las personas crear, intercambiar o compartir información, ideas, imágenes y cualquier tipo de medio en comunidades virtuales y redes. El impacto de estos servicios de redes sociales sobre la sociedad ha sido tal, que han introducido cambios sustanciales sobre la comunicación a todos los niveles: individual, comunitaria, organizacional y empresarial. Todo este contenido generado por el usuario tiene un carácter viral del que carecen el resto de medios de comunicación, sirviendo como fuente de conocimiento para nuevas oportunidades de negocio. Es más, la simbiosis que existe entre los dispositivos móviles y estas redes sociales ha provocado que los contenidos generados por los usuarios incorporen nuevos factores como la localización del usuario y el momento exacto de creación y edición del mensaje o contenido en cuestión. Esto abre nuevos mercados potenciales que relacionan a las personas, las redes sociales, el mercado móvil y los eventos en tiempo real.

    Al abordar este nuevo tipo de contenido, hay que comprender que las redes sociales nos otorgan la oportunidad de combinar dos aspectos fundamentales que los mensajes contienen: información estructurada con la no estructurada en forma, fundamentalmente, de textos cortos. La información estructurada nos proporciona conocimiento adicional que permite analizar el mensaje y al usuario dentro de un contexto específico de carácter social, temporal y/o espacial. Combinar significativamente ambos tipos de información puede resultar fundamental para un tratamiento efectivo de los mensajes.

    En esta memoria de tesis, se explora la hipótesis consistente en que, al integrar el conocimiento proveniente de dos tipos de información de distinta naturaleza (estructurada y no estructurada) existentes en los mensajes de las redes sociales, se pueden resolver, de forma más efectiva y significativa, ciertas tareas relacionadas con el procesamiento de este tipo de contenidos. Para validar dicha hipótesis, se proponen una serie de tareas a resolver, siempre bajo el paradigma de la integración de ambos tipos de información: la recuperación temática de mensajes en redes de microblogging, la normalización de mensajes cortos provenientes de redes sociales, clasificación de opinión sobre los mensajes de éstas redes y la caracterización de grupos de usuarios dentro de un contexto específico.

    Cada tarea es tratada de forma individual, proporcionando una formalización para la misma, caracterizando los fenómenos más relevantes, proponiendo uno o varios métodos para abordarla, realizando una evaluación sobre ellos y explorando los resultados de forma consecuente. Las principales aportaciones se resumen en las siguientes propuestas: un método dinámico y adaptativo para generar consultas que son consumibles por un sistema de microblogging como Twitter, un sistema de normalización léxica altamente modular, un esquema de integración para combinar modelos de características provenientes de información estructurada y no estructurada, y una aproximación indicada para la caracterización de grupos de usuarios de las redes dentro de un contexto específico.

  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1169748
  • Repositorio USE: http://www.doctorado.us.es/tesis-doctoral/repositorio-tesis/tesis-2015/details/2/4885
  • LinkedIn: https://www.linkedin.com/in/juan-manuel-cotelo-moya-1724a3103
Última actualización Miércoles, 24 Febrero 2016 11:52
 
D. Juan Antonio Nepomuceno Chamorro

21 de Julio de 2015

  • Autor: D. Juan Antonio Nepomuceno Chamorro.
  • Titulo: “Biclustering sobre datos de expresión génica basado en búsqueda dispersa”.
  • Directores: Dr. Dña Alicia Troncoso Lora (Universidad Pablo de Olavide) y Dr. D. Jesús Aguilar Ruiz (Universidad Pablo de Olavide).
  • Sinopsis: Los datos de expresión génica, y su particular naturaleza e importancia, motivan no sólo el desarrollo de nuevas técnicas sino la formulación de nuevos problemas como el problema del biclustering. El biclustering es una técnica de aprendizaje no supervisado que agrupa tanto genes como condiciones. Este doble agrupamiento lo diferencia del clustering tradicional sobre este tipo de datos ya que éste sólo agrupa o bien genes o condiciones.

    La presente tesis presenta un nuevo algoritmo de biclustering que permite el estudio de distintos criterios de búsqueda. Dicho algoritmo utilize esquema de búsqueda dispersa, o scatter search, que independiza el mecanismo de búsqueda del criterio empleado.

    Se han estudiado tres criterios de búsqueda diferentes que motivan las tres principales aportaciones de la tesis. En primer lugar se estudia la correlación lineal entre los genes, que se integra como parte de la función objetivo empleada por el algoritmo de biclustering. La correlación lineal permite encontrar biclusters con patrones de desplazamiento y escalado, lo que mejora propuestas anteriores. En segundo lugar, y motivado por el significado biológico de los patrones de activación-inhibición entre genes, se modifica la correlación lineal de manera que se contemplen estos patrones. Por último, se ha tenido en cuenta la información disponible sobre genes en repositorios públicos, como la ontología de genes GO, y se incorpora dicha información como parte del criterio de búsqueda. Se añade un término extra que refleja, por cada bicluster que se evalúe, la calidad de ese grupo de genes según su información almacenada en GO. Se estudian dos posibilidades para dicho término de integración de información biológica, se comparan entre sí y se comprueba que los resultados son mejores cuando se usa información biológica en el algoritmo de biclustering.

  • Teseo:  https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1161591
  • Repositorio USE:  http://www.doctorado.us.es/tesis-doctoral/repositorio-tesis/tesis-2015/details/2/4930
  • LinkedIn: https://www.linkedin.com/in/juan-antonio-nepomuceno-chamorro-74716b19
Última actualización Miércoles, 24 Febrero 2016 11:46
 
D. Jesús García Galán

10 de Junio de 2015

  • Autor: D. Jesús García Galán.
  • Titulo: “Automating the support of highly-reconfigurable services”.
  • Directores: Dr. D. Antonio Ruiz Cortés (Universidad de Sevilla) y Dr. D. Pablo Trinidad Martín-Arroyo (Universidad de Sevilla)
  • Sinopsis: La oferta y demanda de servicios software se ha generalizado con el auge del cloud computing, permitiendo que prácticamente cualquier funcionalidad pueda ser ofrecida como servicio bajo demanda y de una forma elástica. Con el objetivo de abarcar un mercado más amplio, y de satisfacer a un mayor número de potenciales clientes, los proveedores de ofrecen cada vez servicios más configurables. Por ejemplo, proveedores de servicios de infraestructura tales como Amazon o Rackspace ofrecen decenas de instancias de computación distintas, que pueden correr bajo diferentes sistemas operativos en diversas localizaciones geográficas, y que pueden ser contratadas de múltiples formas. El proceso de configuración de estos servicios es tedioso y propenso a errores. En primer lugar, los usuarios tienen que estudiar la descripción del servicio, habitualmente en lenguaje natural, para comprender las distintas características y opciones de configuración ofrecidas. Sin embargo, dichas opciones y características a menudo no están descritas adecuadamente, existiendo además interrelaciones y restricciones entre ellas. Tras esto, los usuarios tienen que identificar sus necesidades sobre el servicio, para finalmente evaluar las diferentes configuraciones y determinar la mas satisfactoria. Mientras que algunos de estos servicios, como Dropbox, presentan pocas alternativas de configuración, otros, como Amazon EC2, presentan miles de ellas. Además, el soporte a la toma de decisiones para estos servicios es escaso y no ofrece la ayuda esperada. Mientras las herramientas ofrecidas por los proveedores se centran en el c´alculo del coste e ignoran la búsqueda de la mejor configuración, las herramientas ofrecidas por empresas especializadas a menudo devuelven falsos positivos.

    En esta tesis, partimos de la conjetura de que las técnicas de modelado y análisis de la variabilidad pueden ayudar a asistir el proceso de configuración de estos servicios altamente configurables. Estas técnicas ya han sido empleadas previamente con éxito para configurar sistemas software. Sin embargo, dichas técnicas tienen limitaciones en ciertos aspectos. Por un lado, las técnicas de modelado no son capaces de describir de forma precisa ni el servicio ni las preferencias de los usuarios sobre él. Por otro lado, las técnicas de análisis presentan algunas carencias a la hora de buscar la mejor configuración, especialmente en escenarios donde existen múltiples usuarios.

    En este trabajo presentamos dos contribuciones principales. En primer lugar, proponemos un nuevo tipo de modelo, llamado Configurable Service Model, que está basado en los modelos de variabilidad actuales, con el objetivo de paliar sus carencias a la hora de asistir el proceso de configuración. Para ello, dotamos a estos modelos de mecanismos para describir de una forma rigurosa y sucinta servicios altamente configurables. Adicionalmente, incorporamos mecanismos para que los usuarios puedan definir sus necesidades en términos de requisitos y preferencias. En segundo lugar, presentamos un soporte automático para evaluar las distintas alternativas de configuración de un servicio. Para ellos, describimos un catalogo de operaciones inspirado en las técnicas de análisis automatizado de la variabilidad, que permite al proveedor detectar anomalías en su oferta, y al usuario identificar cuál es la configuración m´as adecuada a sus necesidades. En este punto, cobran especial relevancia los procesos de configuración donde intervienen múltiples usuarios, puesto que a ´un son un desaf´ıo a resolver por las técnicas actuales. En este sentido, proponemos interpretar este tipo de configuración mediante la teoría de juegos, dando lugar a una nueva operación para identificar configuraciones que satisfagan las necesidades de múltiples usuarios.

    Los resultados de nuestra propuesta son esperanzadores. Por un lado, nuestra propuesta de modelado cuenta con la expresividad y sucintez suficiente como para describir espacios de configuración reales, como el de Amazon EC2. Por otro lado, demostramos que las operaciones de an´alisis propuestas son capaces encontrar configuraciones satisfactorias con un tiempo de ejecución insignificante. Incluso en determinados casos, las configuraciones resultantes mejoran los resultados ofrecidos por aplicaciones comerciales.

  • Teseo: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=1159359
  • Repositorio USE: http://www.doctorado.us.es/tesis-doctoral/repositorio-tesis/tesis-2015/details/2/4817
  • LinkedIn: https://www.linkedin.com/in/jesusgarciagalan
Última actualización Miércoles, 24 Febrero 2016 11:38
 
D. José Ángel Galindo Duarte

4 de Marzo de 2015

Última actualización Miércoles, 24 Febrero 2016 11:30