Entre los resultados obtenidos, se ha confirmado que Kinect no solo tiene potencial como dispositivo de acceso para personas con dificultades motrices, sino que, además, en algunos caso resulta más eficiente que otros dispositivos. Se presenta un algoritmo, basado en velocidad, para la detección de movimientos voluntarios.
También se aporta una herramienta para la captura de datos de los movimientos de los usuarios utilizando Kinect. Dicha herramienta no solo nos facilita el estudio de los movimientos de los usuarios para poder mejorar el algoritmo presentado, sino que además nos permite calcular la precisión del mismo, que, de forma preliminar, hemos establecido en un 86.67%.
La investigación llevada a cabo en este trabajo de tesis se centra por tanto en la definición de un marco Ágil que permita a las organizaciones que desarrollan sistemas Web progresar a través de los distintos niveles de madurez de CMMI, sin perder la habilidad de adaptarse a cambios inesperados. La idea principal es evaluar si alguna de las dos propuestas puede, por sí misma, ser usada para alcanzar los requisitos de CMMI-DEV. Tras este análisis, y una vez que se hayan identificado los “gaps” entre CMMI-DEV y Scrum/XP, trataremos de destacar, de entre el resto de propuestas Ágiles existentes, alguna otra que permita cubrir las carencias detectadas. La idea es definir un conjunto de técnicas Ágiles que puedan cubrir todos los requisitos de CMMI-DEV para sus diferentes niveles de madurez. Para concluir, intentaremos evaluar la coherencia de este conjunto de prácticas, presentando un marco Ágil consistente y coherente, que denominaremos NDT-Agile, que pueda ser usado como referencia para que organizaciones que desarrollan sistemas Web puedan alcanzar un determinado nivel de madurez de CMMI-DEV.
Como conclusión, podemos decir que el objetivo final de este trabajo de tesis es proporcionar una respuesta sistemática a la idea de institucionalizar las propuestas Ágiles para el desarrollo de sistemas Web.
La propuesta junto con la herramienta han sido validadas mediante casos de estudio reales extraídos de proyectos de transferencia con empresas en los que se observa cómo la propuesta desarrollada ha sido de gran utilidad en los mismos. En definitiva, esta tesis doctoral plantea el desarrollo de un marco de referencia, tanto teórico como soportado con herramientas para su uso en la práctica, para facilitar la toma de decisiones en la CdS, mediante el modelado de los procesos colaborativos generados a partir de la vista individual de cada organización y añadiendo la flexibilidad y adaptación dinámica del dominio de casos.
A la hora de desarrollar la metodología de MoDHE, se decidió acotar el alcance de la presente Tesis Doctoral, ya que HL7 cuenta con cientos de estándares. Por ser los estándares más utilizados en España, se decidió trabajar con 3 de los principales estándares de HL7: v3, CDA y v2.x. Para materializar y automatizar este marco de referencia, se ha desarrollado una herramienta de soporte, registrada como MoDHE Suite. Esta herramienta permite diseñar modelos de dominio conformes a HL7 utilizando una interfaz basada en UML. También permite generar modelos de un estándar concreto tomando como base modelos ya existentes de otro estándar concreto. Dicha herramienta ha sido validada en un caso de estudio real extraído de un proyecto en el que participó el Grupo de Innovación Tecnológica del Hospital Universitario Virgen del Rocío, demostrando que la solución desarrollada es de gran utilidad. En definitiva, la presente Tesis Doctoral plantea el desarrollo de un marco de referencia que facilita el diseño de modelos de dominio conformes a HL7 utilizando una interfaz basada en UML, abordando tanto el planteamiento teórico que los sustenta a través del marco de referencia MoDHE, como el planteamiento práctico mediante la herramienta de soporte MoDHE Suite.
Context. Companies adopt hybrid development models consisting in an integration of agile methodologies and Human-Centered Design (HCD) with the aim to increase value delivery as well as to reduce time to market. This has an impact on how Requirements Engineering (RE) is carried out in an agile environment. To this end, people apply different kind of agile techniques like artifacts, meetings, methods and roles. In this context, companies often struggle with improving their value chain in a systematic manner, since guidelines for choosing an appropriate set of agile techniques are missing.
Objective. The vision of this PhD thesis is to build a framework for modeling agile RE. Organizations benefit from implementing this framework by increasing their value delivery (organization external) and improving collaboration (organization internal).
Method. We followed an inductive research approach, where we used the learning from several studies to create the framework. In the beginning, we carried out a Systematic Literature Review (SLR) to analyze the state of the art of agile RE with focus on user and stakeholder involvement. Subsequently, we created the agile RE metamodel, which evolved iteratively along the consecutively studies. Based on the metamodel, we defined a suitable profile to be used to create domain specific models according to the organizational environment. Moreover, we conducted a Delphi study in order to identify the most important problems industry has to face up today in terms of agile RE. The results were used as input for a systematic pattern mining process, which was utilized to create agile RE patterns.
Results. The framework for modeling agile RE consists of three main components: i) agile RE metamodel, which can be used to analyze the organizational environment in terms of value delivery ii) catalog of agile RE problems, which allows detecting recurring problems in terms of agile RE iii) catalog of agile RE patterns, which allows to solve the detected problems. The agile RE metamodel comes with a profile, which can be used to deviate domain specific models. In addition, we created tool support for the framework by means of a web application (agileRE.org), which allows us to share knowledge and best practices for agile RE. Furthermore, we proved how the framework could be applied in industry by means of case studies conducted in Germany and in Spain.
Conclusion. The framework for modeling agile RE empowers companies to improve their organizational environments in terms of value delivery and collaboration. Companies can utilize the framework for improving their value chain in a systematic manner. In particular, it gives guidance for choosing appropriate agile techniques that fit the changing needs of the organizational environment. In addition, we can state that the framework is applicable internationally.
A metaphor is a figure of speech in which the meaning of one term is transferred to another term. For example, the sentence “Axel is a fox” is a metaphor expressing that a man is smart. However, metaphors can be introduced not only in text, but in pictures as well. For example, the image of a man with the body of a fox can refer to the sentence “this man is a fox.” According to Forceville (2007,2009), a pictorial metaphor can be characterized according to its type (contextual metaphor, hybrid metaphor, simile, and integrated metaphor), its structure (monomodal and multimodal metaphor) and its use (in commercials, social campaigns, political cartoons, or art). The aim of this work is to create a knowledge base of the characteristics of pictorial metaphors (topics, vehicles). Five experimental studies examined the understanding of monomodal pictorial hybrid metaphors by focusing on the property attribution process in several situations concerning the effect of the native language (French versus Spanish), context, age, and use of the metaphor.
The results of the first three experiments show that native French speaking participants attribute more conceptual properties than perceptual properties and succeed in determining the incongruence of a property while native Spanish speaking participants attribute more perceptual than conceptual properties and take the context into account when assigning properties. Moreover, they also succeed in detecting the incongruence of a pictorial metaphor’s property. Since the experimental material was created by native French participants, these results make it possible to highlight the cultural effect. The last two experiments concern the influence of the domain. Advertising and political caricatures on positive and negative valence show that advertising metaphors are judged more positively than political cartoons. The discussion section illustrates perspectives of research employed in current studies focused on pictorial metaphor comprehension and the use of specific tools (e.g., the eye tracker). The understanding of pictorial metaphors could be applied to others field of expertise in psychology (e.g., Neuropsychology), other people (e.g., children), and different cultures (e.g., Korean, Russian).
Previous chapters of this PhD thesis hold up the work where we present and define a theoretical and practical Framework. They also describe a work based on a real need in organizations (Chapter I), that later has turned into a specific problem (Chapter III) derived from the results and conclusions obtained after studying the state-of-the-art (Chapter II). Once the context has been specified, the remaining PhD thesis introduces a Framework composed three main pillars: (i) the MaRIA Process (Chapter IV), (ii) the Model-Driven approach (Chapter V) to support the entity reconciliation modeling preparing the system to be developed to be systematically tested defining a set of transformation mechanisms (Chapter VI) and (iii), a support tool to cover the previous two pillars called MaRIA Tool (Chapter VII). To apply the theoretical framework to real environments. In this sense this approach has been put in practice in two real world case studies presented in Chapter VIII.
This Doctoral Thesis propose a suitable environment to support the entity reconciliation in the requirements and analysis phases. This environment allows the development team to prepare their future system to guarantee a suitable entity reconciliation with, besides could be systematically tested.
El proceso de secuencias temporales supone un campo de trabajo específico dentro de las técnicas de minería de datos o aprendizaje automático. Entre las tareas de esta disciplina se encuentra la clasificación de secuencias temporales que, por su especificidad, admite el uso de tratamientos diferenciados. Entre los datos con estructura de secuencia temporal pueden destacarse las señales sonoras. Existen numerosas aplicaciones en las que resulta de utilidad la clasificación automatizada de sonidos. En muchas de ellas se requiere que la solución propuesta tenga unas características que podríamos calificar de industriales: robustez, inmunidad al ruido, normalización, operación en tiempo real, bajo consumo y bajo coste.
En esta tesis se analizan y comparan distintos métodos de clasificación de sonidos. Para ello, se segmentan los sonidos en fragmentos (ventanas) de muy corta duración y se propone el uso del estándar ISO MPEG-7, cuya aplicación permite obtener un conjunto normalizado de parámetros. Se consideran hasta nueve algoritmos de clasificación que, tomando como patrones distintos sonidos de clases conocidas, realizan una clasificación supervisada sin tener en cuenta el carácter secuencial de las mismas (clasificación no secuencial). Para tener en cuenta el carácter secuencial de los sonidos se proponen y comparan distintos métodos (clasificación secuencial). Para pasar de la clasificación de una ventana, o secuencia de ventanas, a la clasificación de un sonido completo la presente investigación propone una clasificación de series derivadas. Se define una serie (vectorial) derivada como la secuencia de probabilidades de que cada ventana pertenezca a una determinada clase. Se propone la caracterización de las series derivadas como si se tratase de sonidos, es decir, mediante la caracterización de cada uno de sus ventanas usando parámetros MPEG-7 y su posterior clasificación supervisada usando alguno de los algoritmos clasificadores propios de la minería de datos.
El resultado del análisis realizado permite afirmar que el uso de los parámetros MPEG-7 constituye una buena alternativa para caracterizar sonidos. En la aplicación analizada el mejor clasificador no secuencial ha resultado ser el árbol de decisión. Por otra parte, la introducción de un método de ventana deslizante aparece como la mejor opción de clasificación secuencial, aunque con una mejora muy discreta sobre la técnica no secuencial. Adicionalmente, se ha podido evidenciar que la clasificación de las series derivadas supone una mejora muy notable en las prestaciones del clasificador.
El objetivo principal de la presente Tesis Doctoral será proponer en un único proceso, la formalización de un requisito, fundamentándolo en técnicas ágiles (debido a su agilidad y completitud), que pueda ser gestionado contra un Catálogo de Servicios, a fin de descubrir qué Servicios dentro del contexto, son susceptibles de ser incorporados en el desarrollo de la nueva aplicación para dar cobertura a ese requisito.
El cuerpo de esta Tesis Doctoral pues, se cimenta sobre la definición de una serie de metamodelos. Para ello, se define un metamodelo en el que se formalizarán los Servicios pertenecientes al Catálogo de Servicios de dicha organización, que contendrá la funcionalidad identificada y viva, en el contexto, de forma normalizada. A su vez, se define un metamodelo de requisitos que permita la formalización ágil, temprana y completa de los nuevos requisitos. Para este punto será necesario el uso de las nuevas técnicas y metodologías ágiles que se han usado con buen resultado, precisamente, para disponer de un conjunto homogéneo de requisitos funcionales y no funcionales, completo y ágil.
Como resultado de la presente Tesis Doctoral, obtenemos un proceso sistemático y coherente para el descubrimiento de los Servicios Candidatos, definiendo la relación entre los metamodelos que nos permita descubrir qué Servicios dentro del Catálogo de Servicios dan cobertura a un conjunto total o parcial de los requisitos, es decir, identificar los Servicios Candidatos para su análisis, mediante la propuesta de un algoritmo que realice las consultas entre los diferentes campos de los metamodelos basada en la puntuación de dichas búsquedas, a partir de esa correspondencia. Así mismo se plantea una arquitectura tecnológica capaz de soportar dicho proceso, el framework DS4aRE.
En conclusión, esta Tesis Doctoral plantea una solución a un problema específico: realizar el proceso sistemático y coherente para el descubrimiento de los Servicios Candidatos dentro del contexto de una organización que presta Servicios, a través de la formalización de requisitos usando técnicas y metodologías ágiles a fin de identificar, dentro del Catálogo de Servicios de la organización, qué funcionalidad de los nuevos requisitos está ya contenida.
Por último, el trabajo presenta la evaluación de los resultados obtenidos en un entorno de producción real, basado en la instanciación de dicha solución, cuya aplicación ha sido considerada como satisfactoria.
Como aportación de la presente Tesis Doctoral obtenemos un proceso sistemático y coherente para el descubrimiento de los Servicios Candidatos, que nos permita descubrir qué Servicios dentro del Catálogo de Servicios dan cobertura a un conjunto total o parcial de los requisitos, es decir, identificar los Servicios Candidatos para su análisis. Además se obtiene en este trabajo el framework DS4aRE que soporta e implementa dicho proceso y es desplegable en una organización real.
En conclusión, esta Tesis Doctoral plantea una solución a un problema específico: realizar el proceso sistemático y coherente para el descubrimiento de los Servicios Candidatos dentro del contexto de una organización que presta Servicios, a través de la formalización de requisitos usando técnicas y metodologías ágiles a fin de identificar dentro del Catálogo de Servicios de la organización que funcionalidad de los nuevos requisitos está ya contenida.
Uno de los beneficios fundamentales de esta gestión ágil de requisitos dentro el Gobierno de los Servicios, desde las etapas más tempranas del desarrollo, desembocará en la eficacia y eficiencia de los recursos, del propio desarrollo software y de una mejor prestación de dichos Servicios.
Desde las etapas más tempranas de la elicitación de requisitos, se conocerá qué Servicios, dentro de la organización, cubren parte de la funcionalidad, por lo que la reutilización del software se maximizará para estos desarrollos, con el consiguiente ahorro en tiempo y coste y aumentando la calidad de las nuevas aplicaciones.
Así mismo, se mejora, dentro del Gobierno de TI, el gobierno de los Servicios debido a que la temprana identificación de su uso, hace posible que se puedan ejecutar las políticas adecuadas a su ciclo de vida, redundando así en un mejor control de los Servicios y por tanto mejorando la prestación de los mismos y minimizando el impacto de los sucesivos cambios de estado dentro de su ciclo de vida.
Por último, el trabajo presenta la evaluación de los resultados teóricos obtenidos en un entorno de producción basado en la instanciación de la solución, cuya aplicación ha sido considerada como satisfactoria.
En toda comunicación de datos se hace necesario proteger y garantizar de una manera adecuada la información enviada a través de cualquier tipo de red para evitar que un observador no autorizado pueda acceder o cambiar la información o suplantar identidades. Estas comunicaciones, cada vez más, se realizan entre dispositivos portables, cuyo funcionamiento con baterías y con limitados recursos de computación imponen importantes condicionantes a los mecanismos de cifrado y autenticación. La necesidad cada vez mayor de hacer segura y privada esta información transmitida entre dispositivos electrónicos portables e inalámbricos está haciendo que el uso de algoritmos criptográficos de bajo consumo de potencia y de recursos (lightweight cryptography) sea muy común hoy en día, y con un futuro muy prometedor sobre todo en el escenario de Internet de las Cosas (IoT: Internet of Things).
En esta Tesis se presenta el diseño, implementación y caracterización de cifradores de flujo de bajo consumo de potencia. Para la selección de estos cifradores, nos hemos centrado en las propuestas de cifradores de flujo (stream ciphers) que el Proyecto eSTREAM de la Red Europea de Excelencia en Criptología, ECRYPT (European Network of Excellence in Cryptology) seleccionó como las que presentaban mejores prestaciones en sus implementaciones hardware. Entre ellos se eligió al cifrador Trivium para proponer arquitecturas eficientes en términos de consumo de potencia aplicando la técnica de paralelización en diferentes diseños a nivel lógico. La aplicación de esta técnica y la elección del cifrador Trivium han sido tomadas tras una revisión del estado del arte sobre las implementaciones hardware dentro de los algoritmos criptográficos con bajo consumo de recursos y del consumo de potencia.
Se han realizado dos propuestas de cifradores de flujo Trivium con arquitecturas eficientes para bajo consumo denominadas MPLP (Mixed Parallel Low Power) y FPLP (Full Parallel Low Power). Estas propuestas han sido diseñadas y simuladas con uno, dos, ocho y dieciséis bits a la salida para obtener resultados de recursos, área y consumo de potencia. Estos resultados se han comparado con los obtenidos para la versión estándar con los mismos bits de salida. Se han utilizado para estos diseños distintas librerías de celdas estándar de diferentes tecnologías de fabricación de circuitos integrados y de dispositivos programables, FPGA. Como tecnologías ASIC se han usado tecnologías submicrónicas y nanométricas, en concreto, 350 nm, 180 nm, 130 nm, y 90 nm. En FPGAs se han utilizado las familias de dispositivos de Xilinx Spartan-3E y Virtex-5. Finalmente, para la verificación experimental, se ha implementado, mandado a fabricar y testado un circuito integrado (ASIC) en una tecnología de 90 nm, que contiene las propuestas de los cifradores Trivium con y sin técnicas de bajo consumo. Estas propuestas incluyen cifradores con salidas de uno, dos, ocho y dieciséis bits, y se han obtenido resultados experimentales de consumo de potencia y otras medidas con el equipo de test de señal mixta Agilent 93000.
Como resultado del trabajo realizado se puede sintetizar y destacar como conclusión final que las propuestas de diseño Trivium presentadas mejoran el consumo de potencia de la versión estándar en los casos de uno, dos y ocho bits a la salida. No es así en el caso de dieciséis bits. Con respecto a los recursos empleados, estos crecen significativamente con el aumento del número de bits de salida, aunque las versiones de bajo consumo MPLP y FPLP mantienen una buena relación en los recursos empleados y en el área en las propuestas de un bit y dos bits.
Todas las medidas realizadas, tanto por simulación como experimentalmente, avalan los datos de mejora en el consumo, siendo los casos de uno y dos bits de los cifradores Trivium FPLP y MPLP los que mejores resultados ofrecen en su conjunto, mejora que es extraordinariamente importante en el caso de un bit donde se alcanza el 50% manteniendo prácticamente los mismos costes en recursos y prestaciones en velocidad.
© 2024 ETSII