EPILOG Sommersemester 2015

Auszeichnungen

Weitere Nominierungen für Distinguished Young Alumnus

Ausgestellte Arbeiten

Institut für Technische InformatikE182

Arbeitsbereich Cyber-Physical Systems

Diplomarbeitsposter Chmelar Markus

Markus Chmelar

Masterstudium Technische Informatik
Abstract:

On the road towards autonomous self driving cars, the reliability and accuracy of the vehicles sensors are becoming even more important than ever. An important parameter is the vehicles speed, which is traditionally measured with methods based on the rotation of the vehicle's wheels. When the vehicles wheels are slipping, these methods fail completely. The topic of this master thesis is the design and implementation of a new sensor system for movement parameters of a vehicle, i.e. speed and acceleration. The sensor uses a video camera in combination with a computer vision algorithm that extracts the parameters from the image stream. With the availability of high quality video systems at decreasing cost, a system like that could be used for instance in driving assistance systems and even autonomously self driving cars. In such a safety-critical system, it is required to provide several redundant sensors to capture the required parameters, in order to achieve fault tolerance. To avoid systematic errors caused by wheel slipping, it is advisable to use a fundamentally different method. Measurements of all sensors are combined in a sensor fusion system to provide the required level of fault tolerance and increase precision at the same time. In a sensor fusion system, it is necessary to have a confidence value that indicates if the current measurement is likely to be accurate and precise. Methods have been developed derive such a confidence value from the video stream while calculating the primary movement parameters. This work explores and implements algorithms based on different methods, and compares them for their performance. It was investigated if and how it is possible to dynamically adapt the resulting system to various conditions. As a result of this thesis, a sensor was implemented as a ROS module that can easily be reused. The sensor was tested in real world conditions with a autonomous research rover to prove the viability of the implemented sensor.

Diplomarbeitsposter Frischenschlager Albin

Albin Frischenschlager

Masterstudium Technische Informatik
Abstract:

Autonome Roboter müssen zur Erfüllung ihrer Aufgaben fähig sein, selbständig und sicher von einer Position eine andere Position zu erreichen. Pfadplanung erlaubt einem Roboter dieses Verhalten. Normalerweise wird dies mithilfe einer statischen Karte gemacht, welche statische Hindernisse (z.B. Mauern) der Umgebung enthält. Da in der Umgebung des Roboters auch dynamische Hindernisse (z.B. Menschen) vorkommen können, ist eine statische Karte alleine nicht ausreichend. Der Roboter benötigt zusätzlich Sensoren, um die Umgebung zu beobachten und somit dynamische Hindernisse zu entdecken und ihnen auszuweichen. Der Ansatz, dass der Roboter dynamisch Hindernissen ausweicht, wenn dieser "sie sieht", kann zu sehr suboptimalem Verhalten führen, da der Roboter dadurch oft starten, stoppen und Richtung wechseln wird. Um dieses Problem zu umgehen, wurde in diese Arbeit mithilfe von probabilistischen Karten bestehende Pfadplanungsstrategien verbessert. Im Gegensatz zu statischen Karten, beinhaltet eine probabilistische Karte Informationen über die Wahrscheinlichkeit auf ein dynamische Hindernis in einem bestimmten Teil der Umgebung zu stoßen. In dieser Arbeit wurde der navigation stack vom robot operation system (ROS) benutzt, um den Pioneer 3-AT (P3AT) Roboter autonom navigieren zu lassen. Der ROS navigation stack, welcher Pfadplanung durchführt, wurde so modifiziert, dass probabilistische Karten benutzt werden um dynamischen Hindernissen auszuweichen. Da der Pioneer 3-AT Roboter nur über Sonar Sensoren verfügt, wurde der ROS navigation stack modifiziert, damit diese Sensoren anstelle eines Laser Scanners eingesetzt werden. Sinnvolle Parameter für die neuen Planungsstrategien wurden mithilfe von Experimenten gefunden. Außerdem wurden die Vorteile von Pfadplanung mit probabilistischen Karten gegen über von statischen Karten mit weiteren Experimenten gezeigt.

Diplomarbeitsposter Grahsl Julian

Julian Grahsl

Masterstudium Technische Informatik
Abstract:

The subject of this project is to enhance an existing eye tracking system into a wearable device fitted inside a spectacle frame. The purpose of this system is to compute the direction of gaze of an individual by monitoring the eyes with miniature camera modules. Road safety investigations take advantage of accurate eyetrackers for analysing the cause of accidents. The direction of gaze also gives a first-hand indication of behavioral patterns during the perception of commercial advertisements. Eyetrackers further promise new ways of seamless human-machine interaction for people with disabilities. Finally, a completely mobile solution encourages the adoption of new applications. Currently available solutions for tracking eye movements are stationary or not suitable for mobile operation due to subprime ergonometry or overwhelming size. This situation is not only discomforting for the person using the eyetracker; Moreover, the qualitiy of the results are impeded due the fact that the person is constantly made aware of being monitored. A hardware and software architecture is proposed to work towards a lightweight but powerful eyetracking solution which is novel in its size and ergonometry. Resolving the constraint on physical size while providing a sophisticated computational platform for image processing is the key challenge of this work. This goal is achieved by the use of dedicated digital hardware components in combination with a pipelined image processing core that takes over performance critical functions. To make it possible to integrate this hardware into a curved spectacle frame, flexible printed circuit board technology is brought to its peak. The expected results beside the conception of the hardware and software architecture are custom designed prototypes for critical system components like image acquisition and image streaming.

Arbeitsbereich Embedded Computing Systems

Diplomarbeitsposter Heinisch Alexander

Alexander Heinisch

Masterstudium Technische Informatik
Abstract:

This thesis explores the possibility of using a consensus algorithm to replace the traditional, triple modular redundancy scheme for fault tolerance. We start with the presentation of state of the art fault tolerance mechanisms and discuss the advantages and drawbacks of TMR systems. To be able to compare these mechanisms to our approach, we outline the basics of distributed algorithms and discuss different consensus algorithms found in literature. Based on this theoretical background a reduction of TMR and replica determinism to consensus has been created. A theoretical evaluation of the well known Exponential Information Gathering protocol, the Phase King protocol and the Phase Queen protocol as well as modifications of these protocols to implement them directly in hardware is given. The theoretical results are analyzed in detail and augmented by results from fault injection experiments performed using a software simulator. As the simulator was specifically tailored to incorporate the properties of the target platform, we were able to evaluate their fitness for direct hardware implementation solely based on the simulation results. As the fault injection experiments were designed to violate the fault hypothesis in some cases, the degradation properties of the algorithms could also be analyzed. The Phase King and the Exponential Information Gathering protocol were implemented on a Field Programmable Gate Array (FPGA) network. To circumvent the single shared clock tree in synchronous systems which introduces a single point of failure we decided to implement the system based on a mesochronous clocking system, namely the Distributed Algorithms for Robust Tick-Synchronization (DARTS) protocol and a fully parametrizable communication buffer supporting metastability free communication in this setting. The implementation of these two illustrate that Byzantine fault tolerance using distributed algorithms is achievable in VLSI circuits.

Institut für Rechnergestützte AutomationE183

Arbeitsbereich Automatisierungssysteme

Diplomarbeitsposter Ascher Georg

Georg Ascher

Masterstudium Software Engineering & Internet Computing
Abstract:

TU Wien Informationssysteme und Services (TISS) ist ein hausinternes Entwicklungsprojekt der Technischen Universität Wien, das Abläufe betreffend Administration und Verwaltung der Fachbereiche Lehre, Forschung und Organisation abbildet. Die Aufgabenstellung der vorliegenden Diplomarbeit besteht darin, für den Bereich der Lehre einen Kommunikationsapparat zu entwerfen und zu entwickeln, der die Kommunikation zwischen Lehrenden und Lernenden unterstützt. Für diesen Zweck eignen sich Diskussionsforen. Zunächst erfolgt eine umfassende Evaluierung der Softwarequalität bereits bestehender Lösungen mithilfe standardisierter Modelle und Vorgehensweisen. Auf Basis des Ergebnisses der Evaluierung wird entschieden, ob eine vorhandene Softwarekomponente für einen spezifischen Zweck in ein Gesamtsystem integriert oder diese von Grund auf neu entwickelt wird. Das Gesamtsystem TISS ist eine moderne und eine am aktuellen Stand der Technik implementierte Software, deren integrierte Diskussionsplattform ebenso dem aktuellen State-of-the-Art entsprechen soll. Bereits verfügbare Diskussionsforen wurden einem definierten Evaluierungsprozess nach ISO 14598 unterzogen und die Qualität anhand eines Qualitätsmodells nach ISO/IEC 9126 analysiert. Das Ergebnis der Evaluierung zeigt, dass aktuell verfügbare Diskussionsforen in vielen Bereichen Mängel und Schwachstellen aufweisen und kein Kandidat für die Integration in Frage kommt. Auf Basis der Evaluierung und erhobener Anforderungen wird eine Softwarekomponente mithilfe eines iterativen Entwicklungsprozesses entworfen, implementiert und in das Gesamtsystem integriert. Die ingenieurwissenschaftliche Leistung dieser Arbeit liegt in der Entwicklung einer komplexen Anwendung unter Verwendung zeitgemäßer Technologien und Software-Engineering Methoden. Ein Schwerpunkt dieser Arbeit ist die Durchführung einer Software-Evaluierung existierender Software-Produkte auf Basis eines Anforderungskatalogs mithilfe aktueller Methoden und Prozesse.

Diplomarbeitsposter Hassler Thomas

Thomas Hassler

Masterstudium Technische Informatik
Abstract:

Gebäudeautomation bedeutet Überwachen, Messen, Steuern und Regeln der Anlagen und Geräte der technischen Gebäudeausrüstung. Typische Anwendungen der Gebäudeautomation sind Heizungs-, Lüftungs- und Klimatechnik. Überdies umfasst ein Gebäudeautomationssystem auch sicherheitsrelevante Applikationen. Dienste dieser Domänen werden zumeist von eigenständigen, anwendungsspezifischen Technologien abgedeckt. Eine Integration solcher Bereiche in ein Gebäudeautomationssystem findet, wenn überhaupt, erst auf der Managementebene statt. Die engere Integration der sicherheitskritischen Systeme in das zentrale Gebäudeautomationssystem ist aufgrund reduzierter Kosten, verbesserter Gebäudesteuerung sowie einfacherer Wartung erwünscht. Das zugrunde liegende Kommunikationssystem muss dazu eine sichere Kommunikation erlauben. KNX ist ein etablierter Standard der Gebäudeautomation, der allerdings keinerlei relevante Sicherheitsmechanismen aufweist. Die Gründe dafür liegen in der ursprünglichen Annahme, auf physische Isolation durch das Gebäude vertrauen zu können, die insbesondere durch den vermehrt aufkommenden Einsatz von drahtloser Kommunikation (KNX RF) nicht länger gegeben ist. Mit der Spezifikation des KNX S-AL wird ein Sicherheitskonzept eingeführt, das die Verwendung des KNX-Standards auch in sicherheitsrelevanten Domänen ermöglichen soll. Diese Arbeit stellt die Sicherheitsmechanismen gängiger Gebäudeautomationssysteme vor, um anschließend den KNX S-AL zu analysieren. Die Anforderungen an ein sicheres Kommunikationssystem werden für den S-AL überprüft und typische Angriffe analysiert. Darüber hinaus werden die Sicherheitsmechanismen mit jenen von BACnet und ZigBee verglichen. Um die Realisierbarkeit des S-AL zu zeigen, wurde eine prototypische Implementierung durchgeführt. Unklarheiten und Probleme der Spezifikation wurden im Zuge der praktischen Umsetzung festgestellt und festgehalten. Des Weiteren wurden Performance und Speicherbedarf der Implementierung untersucht.

Diplomarbeitsposter Kronabeter Andreas

Andreas Kronabeter

Masterstudium Business Informatics
Abstract:

Cloud Computing wurde zu einem wichtigen und allgegenwärtigen Begriff in der Welt der Informationstechnologie. Cloud Computing muss aber nicht unbedingt als eine neue Erfindung angesehen werden. Es ist vielmehr eine Vereinigung von bereits vorhandenen Technologien bzw. eine Evolution von Konzepten, wie zum Beispiel Grid Computing oder Utility Computing, die in dieser Arbeit beschrieben werden. Die wesentlichen Merkmale von Cloud Computing wie Elastizität oder die Möglichkeit des umfassenden Netzwerkzugriffs, bieten Nutzern viele wirtschaftliche Vorteile. Jedoch bringt Cloud Computing nicht nur Vorteile sondern auch Risiken im Bereich der Sicherheit und dem Schutz von Daten mit sich. Generell können diese Risiken in rechtliche und technische Belange unterteilt werden. Mit dieser Arbeit wird ein Rahmenwerk zur Bewertung von Cloud Computing Anbietern auf Basis standardisierter Anforderungen und Risiken dargestellt und für eine Bewertung des derzeitigen Cloud Marktes herangezogen. Die Adaption der Datenschutzverordnung des Europäischen Parlaments ist mit Sicherheit ein wichtiger und richtiger Schritt hinsichtlich eines sicheren Umgangs mit Cloud Services zur Minimierung der damit verbundenen Risiken. Des Weiteren wird in dieser Arbeit für Cloud Service Anbieter ein Rahmenwerk in Bezug auf die allgemeinen Datenschutzregelung definiert und erklärt.

Diplomarbeitsposter Lamber Rene

Rene Lamber

Masterstudium Business Informatics
Abstract:

Through the Austrian E-Government Act that became law on 1st March 2004, the demand on communal administration platforms and web applications by Austrian communities has increased. The main purpose of this law is to facilitate the implementation and deployment of E-Government solutions. Since the E-Government act entered into force lots of communities with a large amount of citizens and sufficient IT-resources have started using a comprehensive administration platform to manage E-Government processes. But there still exist small communes that lack in adequate IT- and financial resources for realizing one single expansive solution to handle E-Government processes. Some communities, those already have an E-Government application, demand alternatives with lower costs and maintenance effort. The course of this diploma thesis is to investigate how to create a high scalable E-Government system with low costs and maintenance effort, which can provide the interoperability between different communities and support those government requirements. The result is a possible concept and design of a centralized E-Government system that includes governmental services.

Diplomarbeitsposter Neumayr Matthias

Matthias Neumayr

Masterstudium Software Engineering & Internet Computing
Abstract:

In order to allow users to customize their web browser to their needs and to add additional functionality, all of today's major web browsers implement a modular extension system. However, the execution of third party software in the browser increases the risk of malicious tasks being performed by extension code. The rising use of web-based applications for everyday tasks results in an increased amount of sensitive data being processed in the browser. Due to the ability to access sensitive data and modify web pages visited by the users for monetary gain, malware developers try to leverage browser extensions for malicious tasks. To get an overview of the current state of browser extension security in modern web browsers, we analyzed the extension systems of today's most frequently used web browsers, particularly with regard to supported technologies, extension security mechanisms, and countermeasures against malicious extensions. Based on this analysis and related research, we identified multiple scenarios that allow browser extensions to perform malicious tasks inside and outside of the browser. To gather information about the current state of extension-based malware, we manually analyzed 38 extensions that have been added to the extension blocklist of Firefox since January 2013 due to their malicious behavior. In addition, we dissected the CoinThief malware extension, which highlights the ability to perform malicious tasks in web browsers with very restrictive extension systems, as well as the possibility to write malware extensions that are compatible with multiple browsers. We show that malicious extensions are a real threat, even in browsers with state of the art extension systems. Browser extensions should be treated with the same care as arbitrary executables and only be installed from trusted sources.

Diplomarbeitsposter Raich Philipp

Philipp Raich

Masterstudium Software Engineering & Internet Computing
Abstract:

The Internet of Things (IoT) is commonly anticipated to become an omnipresent reality in the near future. One self-evident application is the integration of wireless, constrained devices and their respective Wireless Sensor and Actuator Networks into the Internet, and hence making them generally accessible for interaction with other WSANs and other Internet enabled devices. Based on considerable efforts taken to successfully establish standardized network layers for this purpose, a common application protocol is still required to guarantee interoperability. This work proposes the use of Constrained Application Protocol (CoAP) as a standard for interactions between and with constrained devices. Establishing this stack on constrained devices might solve the interoperability issues the IoT is currently up against. The question remains if such a solution with its proposed components is generally feasible and if crucial metrics are within acceptable ranges. In particular, questions regarding the binary footprint of the solution and its capability for efficient group communication are yet unsettled. This work verifies the feasibility of the proposed stack through a proof of concept implementation, and thus tries to uncover shortcomings and remaining practical limits. Further, simulations are run to analyze the stack and its behavior in detail. This work presents an implementation of the aforementioned stack on constrained devices, which can interact with other CoAP-enabled devices outside its WSAN. Further, a simulation framework is proposed, which is used to run various simulations regarding scalability of the stack. A group communication facility is presented, to demonstrate and evaluate group communication with CoAP devices and multicast routing engines for the respective networks. The results lead to a better understanding of the practical aspects of the proposed solution, where its limits currently are and which questions are yet to be solved.

Diplomarbeitsposter Steiner Alexandra

Alexandra Steiner

Masterstudium Business Informatics
Abstract:

90 % of ERP implementations end up late or over budget. Among the most common ERP risks are missing business and technical knowledge, failure to redesign processes and unclear objectives. Most literature on ERP system implementations is kept on a high abstraction level and is not elaborated for different organizational departments such as purchasing or manufacturing what could reduce the implementation risks substantially. Especially warehouse management received little research attention, even though the introductions of new warehouse management systems (WMS) imply high optimization potential. As a consequence, potentials for process improvements often remain untapped. In the course of this thesis a procedure model for the implementation of warehouse management system is developed and evaluated. Two major aspects of WMS implementations are elaborated. The first one is concerned with factors influencing WMS implementation success. The second aspect deals with warehouse optimization. Key factors on a successful warehouse management system implementation are presented and optimization potentials identified. The developed framework provides business and technical knowledge, as expertise in both fields, warehousing and system implementation is needed to implement an optimal software solution. The framework is based on a profound literature review of implementation key success factors as well as case studies and a critical review of existing implementation models for warehouse management and ERP systems. To validate the results, expert interviews were held. In this way the framework is in step with actual practices and provides a strong tool for project members to prepare for and actively manage warehouse management system implementations. In addition business process reengineering potentials are presented to facilitate supply chain optimizations in the course of such implementation projects.

Diplomarbeitsposter Steyskal Simon

Simon Steyskal

Masterstudium Information & Knowledge Management
Abstract:

In the last years, the topic of smart home environments has gained more and more attention. Such an intelligent home offers several advantages to its users such as (i) increased energy efficiency, (ii) cost reduction or (iii) supporting them in their daily life. As part of a project called ThinkHome, an ontology-based intelligent home which utilizes artificial intelligence to improve control of home automation functions provided by dedicated automation systems, the present thesis aims at defining an actor preferences ontology which stores information about preferences of respective users. After classifying the different kinds of preferences and investigating the dependencies among them, relations to other already existing ontologies of the ThinkHome system as well as links to suitable external ontologies will be investigated. In order to be able to efficiently build the desired ontology, several ontology development approaches are explored and based on the principles of an approach called METHONTOLGY, the Actor Preferences Ontology, which enables the possibility to store, infer and schedule preferences and activities of actors within a smart home environment will be carried out. As addition to the development of a comprehensive ontology covering the domain of actor preferences, several state-of-the-art ontology reasoners will be evaluated, using domain-related reasoning tasks. The results of this evaluation can then be used to find the most suitable and best performing ontology reasoner for inferring new knowledge within the domain of the ThinkHome system.

Arbeitsbereich Computer Vision

Diplomarbeitsposter Schulz Thomas

Thomas Schulz

Masterstudium Visual Computing
Abstract:

Das automatisierte Abfragen von Dokumentenbildern wird verwendet, um in einer Menge unsortierter Bilder von Dokumenten jene zu finden, die für die vorliegende Aufgabe relevant sind. Um etwa Dokumente zu finden, die von der selben Person verfasst wurden, können händische Unterschriften verwendet werden, sofern die Dokumente Unterschriften enthalten. Daher wird in dieser Arbeit ein System präsentiert, das anhand einer Referenzunterschrift Bilder mit Unterschriften der selben Person findet. Hierfür wird ein Algorithmus zum Abgleich von Unterschriften mit einem Vorfilterungsschritt kombiniert um festzustellen, welche Unterschriftenbilder zur selben Person gehören. Es werden für jedes Bild jene Thin-Plate Spline (TPS) Transformationen berechnet, die ein Referenzbild am besten auf die anderen Unterschriften abbilden. Aus diesen Transformationen werden anschließend jeweils vier Distanzmaße berechnet. Die Gesamtdistanz eines Referenzbilds zu den anderen Unterschriften wird berechnet, indem die vier Distanzmaße mit Hilfe von Gewichten kombiniert werden, welche über Lineare Diskriminanzanalyse (LDA) ermittelt werden. Mit Hilfe eines Vorfilterungsschritts, der auf der shape context Distanz basiert, wird der Vorgang beschleunigt, so dass die zeitaufwendige Berechnung der Transformationen und der Distanzmaße nur mehr für 3% der Unterschrifen durchgeführt werden muss. Für die Evaluierung werden zwei Teilmengen der GPDS960signature Datenbank verwendet. Der hybride Ansatz dieser Arbeit erreicht eine um 1,6 Prozentpunkte höhere MRP und eine um 0,9 Prozentpunkte höhere MAP als die Distanzmaße allein, während gleichzeitig die Laufzeit auf der größeren Teilmenge um das 16-fache verringert werden kann. Weiters wird gezeigt, dass das vorliegende System zum Abgleich von Unterschriftenbildern nicht auf Trainingsdaten angewiesen ist, da die Ergebnisse mit 25% Trainingsdaten höchstens 0,3 Prozentpunkte besser sind als ohne Trainingsdaten.

Diplomarbeitsposter Seeböck Philipp

Philipp Seeböck

Masterstudium Medizinische Informatik
Abstract:

Machine Learning wird im Bereich der medizinischen Bildverarbeitung eingesetzt, wobei unter anderem Computergestützte Diagnose, Segmentierung und bildgestützte Therapie Aufgabenbereiche sind. Deep Learning Methoden sind spezielle Machine Learning Ansätze, welche versuchen automatisch mehrere Ebenen der Abstraktion zu lernen, um Daten interpretieren und verstehen zu können. Dies führt zu der Notwendigkeit die Charakteristiken der Deep Learning Methoden zu untersuchen, um in der Lage zu sein diese Methoden richtig anwenden zu können. Das Ziel dieser Arbeit ist deshalb Deep Learning Methoden in einem medizinischen Kontext zu evaluieren und herauszufinden, welche Vorteile Deep Learning Methoden (random recursive support vector machines, stacked sparse auto-encoders, stacked denoising auto-encoders, K-means deep learning algorithm) im Vergleich mit state of the art Ansätzen (K-nearest neighbor, support vector machines, extremely randomized trees) bringen. Dafür werden die Methoden auf zwei Klassifikationsaufgaben evaluiert. Neben einer Evaluierung in Bezug auf Vorhersagegenauigkeit und Laufzeit, enthält diese Arbeit auch eine qualitative Analyse der gelernten Eigenschaften der Deep Learning Ansätze und praktische Empfehlungen. Die Ergebnisse deuten darauf hin, dass stacked sparse auto-encoders, stacked denoising auto-encoders und support vector machines die höchste Vorhersagegenauigkeit auf beiden Datensätzen erreichen. Das bedeutet, dass diese Methoden zu bevorzugen sind, falls die vorhandenen Rechnerressourcen dies erlauben. Im Gegensatz dazu weisen die random recursive support vector machines die kürzeste Trainingsdauer auf beiden Datensätzen auf, erreichen allerdings eine niedrigere Vorhersagegenauigkeit im Vergleich mit den vorher genannten Methoden. Das impliziert, dass die random recursive support vector machines verwendet werden sollten, falls die Rechnerressourcen stark begrenzt sind und die Laufzeit ein wichtiger Faktor bei der Auswahl der Methode ist.

Institut für InformationssystemeE184

Arbeitsbereich Distributed Systems

Diplomarbeitsposter Osl Michael

Michael Osl

Masterstudium Software Engineering & Internet Computing
Abstract:

Orchestrierungssprachen in Cloud-Computing-Diensten ermöglichen es, die statische Struktur von Ressourcen-Kompositionen mit Templates zu spezifizieren. Übermittelt man eine solche Vorlage an den Orchestrierungsdienst, erstellt der Cloud-Anbieter die Ressourcen. Diese Orchestrierungssprachen verfügen jedoch nur über eingeschränkte Möglichkeiten, vom Anbieter verwaltetes, elastisches Laufzeitverhalten von Ressourcen festzulegen. Meist beschränkt sich diese Unterstützung auf Ressourcen-Skalierung und „Wenn-Dann“-Regeln. Detailliertere Kontrolle über das elastische Laufzeitverhalten (z. B. auf Anwendungsebene), muss extra implementiert werden. Wir erkunden die Möglichkeiten, Orchestrierungssprachen so zu erweitern, um damit detailliertes elastisches Verhalten zu spezifizieren. Wir untersuchen auch die Frage, wie ein Anbieter innerhalb einer Cloud-Infrastruktur einen Dienst zur Verfügung stellen kann, der die erweiterten Orchestrierungs-Templates unterstützt. Abschließend untersuchen wir, ob die gesammelten Daten der Anwendungen vom Anbieter verwendet werden können, um daraus adaptive Entscheidungen abzuleiten. Wir entwickeln einen Prototyp eines Adaptierungs-Dienstes auf Basis von OpenStack. Der Prototyp besteht aus einem Plug-In für den Orchestrierungs-Dienst Heat; einer Monitoring-Komponente; einem Dienst, welcher Beobachtungspunkte sammelt und die Konfigurationen bereitstellt sowie einem Programm, welches die Beobachtungspunkte an den Dienst sendet. Wir evaluieren den Prototypen mit einem Simulator und einem Anwendungs-Szenario. So zeigen wir, dass man bestehende Orchestrierungssprachen um elastische Gesichtspunkte erweitern kann. Ebenso demonstrieren wir, wie sich diese Erweiterung mittels Plug-Ins in OpenStack Heat einfügen lässt. Abschließend zeigen wir, dass man die gesammelten Beobachtungspunkte aller Anwendungen dazu nutzen kann, mit einem distanzbasierten Algorithmus sinnvolle Konfigurationen abzuleiten.

Diplomarbeitsposter Waibel Philipp

Philipp Waibel

Masterstudium Software Engineering & Internet Computing
Abstract:

Die Nutzung von Diensten als Grundbausteine für die Entwicklung von komplexen und zuverlässigen Systemen ist ein etabliertes Verfahren. Diese Systeme werden aus mehreren Diensten zusammengestellt, wobei jeder von ihnen eine spezielle Aufgabe in dem Gesamtsystem übernimmt. Ein solches System hat die Eigenschaften von leicht gekoppelten Diensten, unvorhergesehenen Dienste Verfügbarkeiten und sollte möglichst kein zentrales Steuerungssystem haben. Neben anderen Methoden ist die nachrichtenbasierte Kommunikation eine gute Methode für die Kommunikation zwischen den Diensten. Dennoch ist die Konstruktion und Entwicklung eines konsistenten, nachrichtenbasierten Service-Systems nicht trivial. Während sich bei Orchestration- und Choreography-basierten Ansätzen die Entwicklung von Systemen auf Workflow-basierten Architekturen als erfolgreich erwies, sind sie nicht sehr nützlich für Systeme mit einer nachrichtenbasierten Architektur. Jedoch kann, in verschiedenen Szenarien, eine nachrichtenbasierte Architektur besser geeignet sein, um komplexe Service-Systeme, die die oben beschriebenen Eigenschaften haben, zu entwickeln. Das Ziel dieser Arbeit ist es zu untersuchen, wie ein Software Architektur-zentrierter Ansatz verwendet werden kann, um nachrichtenbasierte Service-Systeme entwerfen und konfigurieren zu können. Dafür verwenden wir eine Architecture Description Language, um die Architektur des Systems modellieren zu können. Weiters wird eine Konsistenzprüfung des Systemes durchgeführt. Das Paket wird durch eine Architektur-zu-Konfigurations Transformation abgeschlossen. Des Weiteren können Veränderungen die zu einem späteren Zeiptunkt getätigt werden, in das bereits transformierte System integriert werden, ohne dass Informationen verloren gehen. Um die Nützlichkeit dieses Ansatzes zu beweisen wird ein Prototyp, auf der Grundlage von xADL und Archstudio 4, entwickelt.

Diplomarbeitsposter Zeppezauer Philipp

Philipp Zeppezauer

Masterstudium Software Engineering & Internet Computing
Abstract:

Hybrid and Diversity-Aware Collective Adaptive Systems (HDA-CAS) are highly distributed systems comprised of numerous heterogeneous human-based and machine-based computing (service) units. These units are required to perform tasks on their own and in cooperation with other units to solve complex problems. These units form dynamic adaptive collectives, which are subject to constant change. Whenever possible, the collectives are allowed to self-orchestrate, using familiar collaboration tools and environments. The flexibility of these collectives makes them suitable for processing elaborate tasks. At the same time, building a system to support diverse types of communication types in such collectives is challenging, because the way how human-based and machine-based units communicate differs fundamentally. To be able to use both in a hybrid system, the actual way of communication between the units has to be virtualized and handled in the system independently of the actual type of the communication participants allowing for a uniform communication between applications of the HDA-CAS platform and individual service units. In this thesis, the fundamental communication challenges for HDA-CAS are addressed and requirements, and properties of communication in a HDA-CAS are formulated. This thesis discusses these problems and presents a concept of how to virtualize the communication with service units and collectives. Therefore, the notion of service units is extended and the concept of communication adapters is discussed. Furthermore, this thesis presents a design of a middleware which uses the concepts for virtualizing the communication between, within and among collectives and service units. The middleware is able to handle numerous, intermittently available, human and machine-based service units, and manage the notion of collectivity transparently to the programmer. A prototype implementation for validation and evaluation purposes is also provided.

Arbeitsbereich Database and Artificial Intelligence

Diplomarbeitsposter Bader Kevin

Kevin Bader

Masterstudium Software Engineering & Internet Computing
Abstract:

Instances of constraint satisfaction problems can be solved in polynomial time if their underlying graph can be transformed into a tree decomposition of small width. There exist several exact algorithms and heuristics for finding tree decompositions of small widths for a given graph. However, developing new methods for finding good upper bounds for tree decompositions is still an important research issue. This thesis investigates the application of memetic algorithms, which have, to the best of our knowledge, not yet been applied to tree decompositions. We propose and implement three new memetic algorithms for finding tree decompositions of small width. All three variants have been tuned using state-of-the-art parameter tuning software on instances of the Second DIMACS Implementation Challenge. In order to achieve a better understanding of the algorithms, the correlation between parameter settings and solution quality has been examined. We offer an extensive comparison, which relates the performance of our memetic algorithms to state-of-the-art solvers for tree decomposition. Featuring a set of instances different to those used for parameter tuning, the comparison aims at providing real-world validity. The results have been confirmed using statistical significance tests. We show that our memetic algorithms do not dominate the state-of-the-art algorithms for this problem, but they prove to be competitive on most instances. Furthermore, one of our algorithms has been able to improve 8 best known upper bounds for the DIMACS benchmark instances.

Diplomarbeitsposter Jozaf Jan

Jan Jozaf

Masterstudium Software Engineering & Internet Computing
Abstract:

Das Thema “Datenqualität“ ist schon in vielen theoretischen Forschungsarbeiten und auch praktischen Implementierungen untersucht worden, wobei viele dieser Ansätze erfolgreich in der Praxis eingesetzt worden sind. Allerdings sind in den letzten Jahren mit neuen Anforderungen an immer detaillierte Datenqalitätsverifikationen und das steigende Datenvolumen neue Herausforderungen entstanden. Die meisten davon betreffen die Performanz der “Daten prüfenden“ Prozesse. Die einzelnen Datenqualitätsverifikationen müssen optimiert werden, um eine Steigerung der Performance und damit eine Verringerung der Durchlaufzeit zu erreichen. Diese Problematik steht auch im Fokus dieser Diplomarbeit und ist mit folgender Kernfrage detaillierter ausgedrückt: “Wie kann man die Validierung der Korrektheit von Daten in einem hochperformanten Weg für die täglichen Abläufe in einem DataWarehouse gewährleisten?“. Die derzeit verwendeten Techniken und Werkzeuge für die Datenvalidierung liefern zwar eine deutlich bessere Performanz im Vergleich zu früheren Jahren, sie sind aber immer noch nicht ausreichend, um kontinuierlich steigende Datenvolumen zu überprüfen. Beim Suchen nach möglichen Verbesserungen in den jetzigen DatenqualitätsAlgorithmen helfen uns die letzten Forschungsergebnisse aus dem Bereich von Data Exchange. Die algorithmische Ähnlichkeit zwischen Datenvalidierung und Data Exchange könnte uns als Inspiration für die Untersuchung von Forschungsergebnissen in Data Exchange dienen. In diese Diplomarbeit untersuchen wir die Möglichkeiten der Implementierung einer Data Exchange Lösung für die Datenqualität und die mögliche Performanz-Verbesserungen in Bezug auf die Standard-Implementierung innerhalb eines DataWarehouse Systems. Die Vorgehensweise, die für diese Diplomarbeit gewählt wurde, wirft einen detaillierten Blick auf die Forschung, die in Data Exchange gemacht wurde, und findet Möglichkeiten für ihre Umsetzung mit Mehrwert im Daten-Qualitätsbereich.

Diplomarbeitsposter Moldovan Marius

Marius Moldovan

Masterstudium Computational Intelligence
Abstract:

Das D-FLAT System ist ein Framework das die Vorteile von dynamischer Programmierung (DP) und Answer Set Programming (ASP) vereint. Hierbei wird die Eingabeinstanz zuerst in einen Baum zerlegt und anschließend wird ASP für das Befüllen der DP-Tabellen, basierend auf der deklarativen Spezifikation, verwendet. Dies wird entlang der Baumzerlegung von unten nach oben durchgeführt. Für einfache Graphenprobleme hat sich D-FLAT als durchaus effizient erwiesen, solange die Instanzen niedrige Baumweite aufweisen. Komplexere Probleme, wie zum Beispiel das NP-schwierige Optimierungsproblem des Handlungsreisenden, stellen weiterhin eine Herausforderung dar. Obwohl zahlreiche exakte sowie auch heuristische Ansätze für dieses Problem bekannt sind, gibt es bis dato noch keine Methode die sowohl durch praktische Effizienz, als auch durch eine einfache Handhabe und Adaptierbarkeit besticht. In dieser Diplomarbeit verwenden wir D-FLAT um eine vielseitige Lösung für das Handlungsreisendenproblem vorzuschlagen, welche in einem deklarativen, flexiblen Umfeld implementiert ist und eine kompetitive Alternative zu monolythischen ASP-Implementierungen auf Instanzen mit niedriger Baumweite darstellt.Wir stellen ein Konzept nach den Prinzipien der dynamischen Programmierung für das Handlungsreisendenproblem vor und implementieren zwei konkrete Versionen dieses Problems in D-FLAT. Unsere Aussagen untermauern wir mit den Ergebnissen unserer Experimente, die wir sowohl auf generierten Graphen, als auch auf Instanzen die auf dem öffentlichenWiener Verkehrsnetz basieren, durchgeführt haben. Neben den vielversprechenden Resultaten für Probleminstanzen mit niedriger Baumweite bekommt unsere Arbeit zusätzliche Bedeutung durch die Tatsache, dass das neu entwickelte, deklarative Konzept auch für zahlreiche weitere Probleme, die mit dem Handlungsreisendenproblem verwandt sind, angewandt werden kann.

Arbeitsbereich Knowledge Based Systems

Diplomarbeitsposter Berger Gerald

Gerald Berger

Masterstudium Computational Intelligence
Abstract:

Die polymodale Beweisbarkeitslogik GLP von G.K. Japaridze ist vollständig bezüglich einer arithmetischen Interpretation, welche eng mit den partiellen uniformen Reflexionsprinzipien der formalen Arithmetik zusammenhängt. In dieser Arbeit untersuchen wir diese mehrsortige Variante von GLP, welche aussagenlogischen Variablen Sorten α ≤ ω zuweist. Dabei wird jede aussagenlogische Variable der Sorte n < ω nur durch Π_{n+1}-Sätze interpretiert. In Beantwortung einer von L.D. Beklemishev gestellten Frage zeigen wir im ersten Teil dieser Arbeit, dass diese mehrsortige Logik arithmetisch vollständig bezüglich einer geeigneten arithmetischen Interpretation ist, welche der zuvor Einschränkung bezüglich der Sorten genügt. Da gewisse Anwendungen von GLP bereits in dem positiven Fragment derselben erfolgen können, folgen wir im zweiten Teil dieser Arbeit jüngsten Untersuchungen positiver Fragmente von GLP. In Anlehnung an eine Arbeit von Beklemishev definieren wir einen mehrsortigen positiven Reflexionskalkül, wobei wir die modalen Diamanten als verschiedene Formen der Reflexion in der formalen Arithmetik auffassen. Dabei erlaubt uns die Beschränkung auf das positive Fragment eine reichhaltigere Interpretation der aussagenlogischen Variablen: Diese werden nicht als arithmetische Sätze, sondern als primitiv rekursive Aufzählungen von möglicherweise unendlichen arithmetischen Theorien interpretiert. Hierbei werden Variablen der Sorte n < ω durch Π_{n+1}-axiomatisierbare Erweiterungen von PA instanziert, während jene der Sorte ω durch beliebige Erweiterungen derselben interpretiert werden. Diese Interpretation gestattet die Einführung eines modalen Operators <ω>, welcher als das Schema der vollen uniformen Reflexion der Arithmetik interpretiert wird, für welches es keine endliche, jedoch eine rekursive Axiomatisierung gibt. Wir zeigen, dass unser Reflexionskalkül arithmetisch vollständig bezüglich dieser Interpretation ist.

Diplomarbeitsposter Kiesl Benjamin

Benjamin Kiesl

Masterstudium Computational Intelligence
Abstract:

Die Antwortmengenprogrammierung ist eine Form der logischen Programmierung, welche die kompakte Formalisierung von Problemspezifikationen ermöglicht. Doch obwohl viele Antwortmengenprogramme für Programmiererinnen und Programmierer recht leicht verständlich sein mögen, kann es für Personen ohne ein entsprechendes Hintergrundwissen durchaus Probleme bereiten, deren Bedeutung zu erfassen. Es erscheint uns daher nützlich, diese Programme in eine einfacher verständliche Form zu übersetzen, die sich näher an der natürlichen Sprache orientiert. Wir präsentieren deshalb in dieser Arbeit eine Reihe von Ergebnissen, welche die Umsetzung einer derartigen Übersetzung ermöglichen sollen. Zuerst entwickeln wir ein Verfahren zur Analyse von Programmen: Die meisten Antwortmengenprogramme entsprechen dem sogenannten Generate-Define-Test-Modell, gemäß dem ein Programm aus drei verschiedenen Teilen besteht, die als Generate-, Define- und Test-Teil bezeichnet werden. Wir führen eine formale Definition dieser drei Teile ein und entwerfen einen Algorithmus, der die Regeln eines Programms entsprechend dieser Definition klassifiziert. Für die Implementierung dieses Algorithmus machen wir von Methoden der Metaprogrammierung Gebrauch. Danach schlagen wir noch eine Reihenfolge zur Beschreibung von Programmregeln vor, die eine möglichst verständliche Erläuterung zur Folge haben soll. Die naive Übersetzung einzelner Programmregeln in eine natürlichsprachliche Form kann zu unbefriedigenden Resultaten führen, weshalb wir es für sinnvoll halten, äquivalenzerhaltende Transformationen zu verwenden, um Programme in eine leichter übersetzbare Form zu transformieren. Wir führen deshalb eine Verallgemeinerung der sogenannten Partial-Evaluation-Transformation ein und beweisen, dass unsere Transformation die relativierte uniforme Äquivalenz präserviert. Dieses Ergebnis liefert dann das Korollar, dass unsere Transformation auch die schwächere Form der konventionellen Äquivalenz präserviert.

Arbeitsbereich Formal Methods in Systems Engineering

Diplomarbeitsposter Souczek Fabian

Fabian Souczek

Masterstudium Software Engineering & Internet Computing
Abstract:

Ein Großteil heutzutage eingesetzter Software läuft in Umgebungen, die nur einen eingeschränkten Verbrauch von physischen Ressourcen (z.B. Speicher, Energie, Netzwerkverkehr, Zeit) erlauben. Mobile Geräte haben eine beschränkte Kapazität an Energie; und eingebettete Systeme werden mit minimalen Speicher ausgestattet. Die Frage nach dem Ressourcenverbrauch eines Programms kann oft auf das Problem reduziert werden, wie oft eine Schleife, die eine gegebene Ressource verbraucht, durchlaufen wird. Jüngste Methoden berechnen Schleifenschranken in modularer Art. Zuerst werden Schranken mit Programmvariablen ausgedrückt, die am Schleifenkopf definiert sind. Anschließend werden diese Schranken in Ausdrücke über die Programmparameter zurückübersetzt. Diese Aufgabe kann wiederum auf die Berechnung von Invarianten zurückgeführt werden, welche die möglichen Werte von Variablen nach oben hin beschränken. Aktuell eingesetzte Methoden der Invariantengenerierung sind unzureichend für die Analyse von Schranken; sie skalieren nicht für nicht-lineare und disjunktive Invarianten, die notwendig sind im Falle von verschachtelten Schleifen und Schleifen mit komplexem Kontrollfluss. Wir empfehlen Schranken für Schleifen und Variablen gemeinsam zu berechnen. Die zugrundeliegende Beobachtung ist, dass Schleifenschranken mittels Variablenschranken ausgedrückt werden können und umgekehrt - sie bilden eine wechselseitige Rekursion. Zum Beispiel kann der Wertzuwachs einer Variablen in einer Schleife, die in jeder Wiederholung die Variable um den Wert zwei inkrementiert, abgeschätzt werden, indem man die Schleifenschranke mit zwei multipliziert. Wir demonstrieren die Leistungsfähigkeit unseres Ansatzes durch eine umfassende experimentelle Evaluierung. Wir zeigen, dass unsere Methode für Programme effektiv ist, die in der Praxis eingesetzt werden oder in verwandter Literatur zu finden sind. Wir zeigen zudem, dass unsere Analyse andere Techniken an Leistungsfähigkeit übertrifft.

Institut für ComputersprachenE185

Arbeitsbereich Programmiersprachen und Übersetzer

Diplomarbeitsposter Csuk Maximilian

Maximilian Csuk

Masterstudium Visual Computing
Abstract:

The Peer-Based Programming Model (short: Peer Model) is an approach for designing and implementing distributed systems, developed by the Space-Based Computing group at the Vienna University of Technology. Its structure is inspired by asynchronous message queues, tuple space communication, staged event-driven architectures and data-driven workflows. The Peer Model approach is relatively new and no tools that aid in the monitoring and debugging process exist yet. Developers need to resort to manual methods in order to gain insight into the workings of a running Peer Model system, which is cumbersome and time consuming. This Master’s thesis fills the gap by developing a visual monitoring software for the Peer Model approach, whose purpose is to help developers analyse and debug Peer Models. A requirements analysis is performed to explore the problems developers currently face when working with the Peer Model by conducting personal interviews with them. The analysis is linked to the identification of what data is required to enable proper monitoring and debugging, as well as the development of suitable, standardised data formats. Suitable visualisations can facilitate the understanding and increase the productivity of developers better than textual representations. Fortunately, the Peer Model is a good fit for representing it visually. Consequently, illustrations for the dynamic events occurring within a running Peer Model system are developed and implemented in the monitoring tool. The visual Peer Model notation resembles nested graph structures. Automatic layouting of these structures is a vital part of this Master’s thesis as it spares developers from having to manually arrange elements in order to obtain an informative representation. Thus, a methodology for layouting Peer Models is developed. Afterwards the implementation of the monitoring tool is discussed and finally, the developed tool is critically evaluated and potential areas for future works are presented.

Diplomarbeitsposter Kanev Daniel Dimchev

Daniel Dimchev Kanev

Masterstudium Software Engineering & Internet Computing
Abstract:

Peer-to-Peer-Systeme sind eine disruptive Technologie, die umwälzende Änderungen in Bezug auf die Internetbenutzung mitgebracht haben. Sie ermöglichen die Teilung verschiedener Res- sourcen wie rechnerische Ressourcen, Dateien, und Netzwerkbandbreite. Diese Arbeit geht die Notwendigkeit der Herstellung von P2P-Applikation an, die die Video- on-Demand-Strömung und Benutzermitwirkung kombiniert. Das Ergebnis von dieser Arbeit, P2PStreamer, ist eine Applikation, die den Benutzern ermöglicht, Videodateien zu teilen, zu suchen und zu strömen, wobei voll verteilte Algorithmen verwendet werden, und die Benutzer können unter jedes geströmte Video ein Kommentar geben und auf diese Weise mitzuwirken. Das zweite Ziel dieser Arbeit ist den Lebenszyklus von Schleimpilzen wie in der Natur anzuwen- den und einen voll verteilten Suchalgorithmus im Kontext des P2P-Netzwerks zu entwerfen. Die Umsetzung des Schleimpilz-Algorithmus wird geprüft und mit zwei anderen Algorithmen Gnu- tella und AntNet verglichen. Der Schleimpilz-Algorithmus lässt Gnutella hinter sich in puncto Skalierbarkeit und absolute Zeit. Aus der Auswertung geht hervor, dass praktische Anwendun- gen von Schleimpilz-Algorithmus in den Netzwerken kleine Nachbildungen erzeugen, womit er AntNet in puncto Erfolgsrate hinter sich lässt.

Diplomarbeitsposter Paulweber Philipp

Philipp Paulweber

Masterstudium Technische Informatik
Abstract:

The Abstract State Machine (ASM) is a well known formal method which is based on an algebraic concept. This thesis describes the Corinthian Abstract State Machine (CASM) language which is an implementation of an ASM-based general purpose programming language. Features of this language are its combination of sequential and parallel execution semantics and a statically strong type system. Furthermore, this thesis outlines an optimizing run-time and code generator which enables an optimized execution of CASM programs. The code generator is a CASM to C source-to-source translator and the run-time is implemented in C as well. Moreover the CASM optimizing compiler (run-time and code generator) includes a novel optimization framework with the specialized CASM Intermediate Representation (IR). The CASM IR enables powerful analysis and transformation passes which are presented in detail. The evaluation of this thesis shows that CASM is currently the best performing ASM implementation available. Benchmark results show that the CASM compiler is 2 to 3 orders of magnitude faster than other ASM implementations. Furthermore, the presented optimization passes eliminate run-time costs which increases the execution speed of CASM generated programs by a factor 2 to 3 even further.

Arbeitsbereich Theoretische Informatik und Logik

Diplomarbeitsposter Banke Maria-Stephanie

Maria-Stephanie Banke

Masterstudium Business Informatics
Abstract:

In wissensgestützten Unternehmen, ist es weit verbreitet, alleinige Wissensträger (Gehirnmonopole) zu einem bestimmten Themengebiet anzutreffen. Ziel dieser Arbeit ist es, die Entstehung eines Gehirnmonopols sowie Auswirkungen und Risiken für das Unternehmen und Betroffene zu untersuchen. Der erste Teil der Arbeit befasst sich mit der Aufstellung einer Hypothese zu den Entstehungsursachen und Maßnahmen zur Vermeidung von Gehirnmonopolen. Ebenso werden die Erwartungen des Unternehmens an ein Gehirnmonopol sowie deren Auswirkungen und Risiken in Form von Konflikten und Kosten beleuchtet. Der zweite Teil der Arbeit beschreibt elf Fallbeispiele von Gehirnmonopolen aus der Praxis, welche in Form von strukturierten Interviews aufgenommen wurden. Die Ergebnisse der Befragungen zeigen, dass die Entstehungsursachen hauptsächlich auf Fehlentscheidungen des Managements zurückzuführen sind, wie beispielsweise durch wachsende Aufgaben bei einer gleich bleibenden Teamgröße oder Mitarbeiterreduktionen durch Einsparungen. Dies hat erhebliche negative Auswirkungen auf das Wohlbefinden des Gehirnmonopols wie etwa ständige Erreichbarkeit während Freizeit und Urlaub. Das Arbeiten während des Krankenstandes sowie Konflikte im privaten und beruflichen Umfeld führen zu hohen Belastungen bei Gehirnmonopolen. Um Gehirnmonopole zu vermeiden, können im Wesentlichen zwei Maßnahmen angewendet werden. Eine Maßnahme wäre die Vereinfachung einer komplexen IT-Landschaft und das Outsourcen der IT-Systeme an spezialisierte IT-Dienstleister. Hierbei überträgt man die Personalverantwortung an ein anderes Unternehmen, welches über genügend Experten verfügt. Sollte dies nicht gewünscht sein, ist eine zweite Möglichkeit die Einführung von Personenbackups. Ähnlich der Idee eines Daten-Backups, wird das Wissen eines Gehirnmonopols auf zwei weitere Personen übertragen. Dadurch stehen drei Experten zur Verfügung, die sich die Aufgaben entsprechend einteilen können .

Diplomarbeitsposter Binder Dennis Matthias

Dennis Matthias Binder

Masterstudium Medizinische Informatik
Abstract:

Unzureichende körperliche Bewegung in Kombination mit unausgewogener Ernährung gelten heutzutage als wichtige Faktoren bei der Entstehung moderner Zivilisationskrankheiten wie Rücken- schmerzen, Dauermüdigkeit, Depressionen, geschwächtem Immunsystem bis hin zu chronischen Erkrankungen wie Diabetes Mellitus Typ 2 und nicht-alkoholischer Fettleber. Als Ziel der vorlie- genden Diplomarbeit soll ein Serious Game entwickelt werden, das zu erhöhter sportlicher Akti- vität motivieren und dadurch zur Prävention von Zivilisationskrankheiten beitragen soll. Smartphones werden heutzutage unabhängig vom eigentlichen Nutzungszweck vermehrt zum Spielen oder auch für die Protokollierung von sportlichen Aktivitäten eingesetzt. Die konkrete Aufgabenstellung der vorliegenden Arbeit ist es, ein Serious Game als Android-Applikation (App) in einem User Centered Design-Prozess zu entwickeln. Dabei werden zukünftige Benutzer inten- siv in den Design- und Evaluierungsprozess eingebunden. Die entwickelte Anwendung folgt dem Konzept des in-game Feedbacks. Bei diesem erhält eine Person für real erbrachten Sport in einem virtuellen Spiel eine Belohnung und dadurch einen Vorteil anderen Spielteilnehmern gegenüber, die keinen Sport betreiben. Das Serious Game kann dennoch unabhängig von der körperlichen Betätigung gespielt werden. Der entwickelte Prototyp bietet unterschiedliche Motivationsfaktoren an, um Personen durch in- game Feedback zum Sport zu motivieren. Das vorgestellte Serious Game kann als Basis für Lang- zeitstudien verwendet werden und dadurch mögliche Effekte auf die Häufigkeit von sportlichen Aktivitäten aufzeigen.

Diplomarbeitsposter Grabher Simon

Simon Grabher

Masterstudium Software Engineering & Internet Computing
Abstract:

Der durch die globale Vernetzung entstandene Innovationsdruck wird großteils von kleinen Unternehmen bewältigt. Startups haben allerdings ein großes Problem: Eine hohe Anzahl an Unsicherheiten und somit ein großes Risiko. Umso mehr dieser Unsicherheiten durch Erstellung, Messung und Verfeinerung von Hypothesen eliminiert werden können, desto höher ist die Wahrscheinlichkeit für langfristigen Erfolg. Der Bereich der Softwareentwicklung eignet sich besonders gut, um zu experimentieren und Daten zu erheben. Ziel dieser Arbeit ist die Erarbeitung einer strukturierten Vorgehensweise, um für IT-Startups die Erfolgsaussichten zu maximieren. Der 1. Teil handelt von den Grundlagen traditioneller Unternehmen, Lean Production sowie aktueller Softwareentwicklungsmethoden. Die gewonnenen Erkenntnisse dienen als Fundament für die Entwicklung eines Konzepts zur Optimierung der Vorgehensweise für IT-Startups. Der 2. Teil betrachtet die aktuelle Anwendung der Lean Startup-Methode, des Customer Developments, der Geschäftsmodellanalyse sowie der agilen Softwareentwicklung in der Praxis. Dafür werden 11 Interviews mit Anwendern dieser Methoden geführt und ausgewertet. Für den 3. Teil wurden aus diesen 11 Organisationen 3 als konkrete Fallbeispiele ausgewählt. Die Ergebnisse zeigen, dass das ständige Lernen in allen Bereichen des Unternehmens essenziell ist. Nur so können Unsicherheiten kontinuierlich eliminiert und bisherige Annahmen zu Wissen transformiert werden. In der Praxis erwies sich diese Anwendung des Lernzyklus als prädestiniert für die Prototypen-, Kunden- als auch die Geschäftsmodellentwicklung. Ein weiteres Resultat stellt die Empfehlung zur parallelen Ausführung von Produkt- und Kundenentwicklung dar. Kundenfeedback wird regelmäßig in die Entwicklungsplanung mit einbezogen. Der große Vorteil liegt bei der Risikominimierung beim Ressourcenmanagement. Eine Verknüpfung der beiden Entwicklungsprozesse erhöht die Synergieeffekte und hilft bei der Vereinfachung des Ablaufs.

Diplomarbeitsposter Hengl Andreas

Andreas Hengl

Masterstudium Medieninformatik
Abstract:

In einem großen, landesweiten Bezahlsystem können täglich mehrere tausend bis Millionen Datensätze anfallen, deren Visualisierungen zu immer wichtigeren Entscheidungsunterstützungen werden. Die Darstellung von Einzelwerten oder die Aufbereitung der Daten mit einfachen Programmen, beispielsweise mit Tabellenkalkulationsprogrammen, reichen heute nicht mehr aus, um die rasant wachsende Datenmenge verarbeiten und analysieren zu können. Visual Business Analytics ist ein aktueller Trend im Big Data­Bereich, der sich mit Visualisierung von großen Datenmengen für Berichte, Informationssysteme und Analysen beschäftigt. Ziel dieser Arbeit ist die pilotmäßige Umsetzung eines Cockpits für ein landesweites NFC­Bezahlsystem nach dem Ansatz des User Centered Design (UCD)­Prozesses, bei dem neueste Erkenntnisse aus den Bereichen des Reportings und des Informationsdesigns angewandt werden. Das Cockpit soll BenutzerInnen dabei helfen, domänenspezifische Fragestellungen in einem Webinterface mit dynamischen und interaktiven Visualisierungen zu beantworten. Die gewählte Methode des Usability Engineering Lifecycles nach Deborah Mayhew stellt nicht nur die zukünftigen BenutzerInnen in den Mittelpunkt des Design­Prozesses, sondern stellt durch das Prinzip der iterativen Produktentwicklung auch eine geeignete Methode für die praktische Umsetzung des Cockpits dar. Auf diese Weise kann mit fortschreitender Projektdauer festgelegt werden, welche Visualisierungsformen sich für die Umsetzung optimal eignen. Neben einer intuitiven, zielführenden und interaktiven Beantwortung der domänenspezifischen Fragestellungen hat sich des Weiteren gezeigt, dass die visuelle Analyse der Daten und Informationen im Cockpit das Auffinden verborgener Trends und das Erkennen von Zusammenhängen ermöglicht.

Diplomarbeitsposter Lechner Lukas

Lukas Lechner

Masterstudium Medizinische Informatik
Abstract:

Aufgrund der rapiden technischen Weiterentwicklung von Prothesensystemen ist der Umfang der in den elektronischen Prothesen integrierten embedded Software in den vergangenen Jahren enorm angestiegen. Aus diesem Grund, aber auch da es sich bei mikroprozessorgesteuerten Prothesen um sicherheitskritische Systeme handelt, bei denen im Fehlerfall die Gesundheit oder das Leben von Menschen gefährdet wird, muss man der Qualitätssicherung von embedded Software große Bedeutung beimessen. Eine Maßnahme für effektive Qualitätssicherung ist Continuous Integration (CI). Ziel dieser Arbeit ist es, die Qualität der immer umfangreicher werdenden embedded Software eines Unternehmens der Orthopädiebranche zu steigern. Um dies zu ermöglichen, soll ein CI-System entsprechend konzipiert und prototypisch implementiert werden. Hierfür wurde zunächst die aktuelle Literatur des Fachgebiets untersucht, um das notwendige Wissen über Softwarequalität und den State-of-the-Art von CI-Systemen zu erlangen. Auf Basis einer umfangreichen Analyse des firmentinternen Test- und Entwicklungsprozesses und den Ergebnissen der Literaturrecherche wurden im nächsten Schritt Anforderungen an das System, welches sich so homogen wie möglich in das Unternehmensumfeld einbetten lassen soll, definiert. Die anschließende Implementierung setzt die zuvor erhobenen Anforderungen in die Praxis um. Abschließend wurde evaluiert, inwiefern das entwickelte System eine Qualitätssteigerung für die embedded Software darstellt. Das Ergebnis ist ein umfangreiches CI-System, welches im allabendlichen Build-Prozess, dem sogenannten „Nightly Build“, eine Reihe von qualitätssichernden Maßnahmen durchführt. Nach Abschluss des Nightly Builds wird ein detaillierter Report mit den Resultaten des Build-Prozesses an definierte Stakeholder übermittelt. Durch die laufende Qualitätskontrolle im Rahmen des Nightly Builds wird zu einer Qualitätssteigerung der embedded Software beigetragen.

Diplomarbeitsposter Ratzinger Manuel

Manuel Ratzinger

Masterstudium Medizinische Informatik
Abstract:

Im Zuge der Bestrahlung von BrustkrebspatientInnen kommt es häufig zu strahleninduzierter Dermatitis. Je nach Schwere der Dermatits kann es zum Abbruch einer eigentlich erfolgreichen Behandlung kommen. Ein wissenschaftlicher Partner der TU Wien begleitet eine Phase II-b Studie zur Evaluierung eines neuen Produkts, welches die Bildung von Hauterkrankungen durch Bestrahlung verringern soll. Die TUWien hat zur objektiven Bewertung der Hautrötung ein experimentelles Bildanalyseverfahren entwickelt, welches in das Studiensystem Secure Platform for Integrating Clinical Services (SPICS) eingebettet ist. Im Zuge dieser Arbeit wird das Studiensystem sowie das Bildanalyseverfahren zur objektiven Bewertung von Hautrötungen evaluiert und optimiert. Diese Diplomarbeit befasst sich dabei mit allen Faktoren, die für ein aussagekräftiges Analyse-Ergebnis notwendig sind. Es gibt dabei drei Bereiche, die für das Analyse-Ergebnis von besonderer Relevanz sind. Die ausschlaggebendsten sind die Fotoqualität und das eigentliche Analyseverfahren. Der letzte wichtige Faktor liegt in der Integration in ein funktionales Studiensystem. Um die Faktoren für eine gute Fotoqualität zu prüfen, wurde eine theoretische Evaluierung der vorliegenden Standard Operating Procedure (SOP) für die Fotoaufnahme durchgeführt. Aus dieser Analyse geht hervor, dass es Verbesserungsbedarf bei den Kameraeinstellungen und bei der Beleuchtung der Räumlichkeiten für die Fotoaufnahme gibt. Im nächsten Teil der Arbeit wurde eine statische Code Analyse und die wissenschaftliche Aufarbeitung des implementierten Analyseverfahrens durchgeführt. Dabei hat sich gezeigt, dass es beim Farbtransformationsverfahren eine nicht erklärbare Abweichung von international etablierten Standards gibt. Weiters wurden Optimierungsmöglichkeiten offenkundig, die zu einer deutlichen Verbesserung der Laufzeit führen können.

Diplomarbeitsposter Wunderer Thomas

Thomas Wunderer

Masterstudium Medizinische Informatik
Abstract:

Recent scientific publications state that a high number of HIS implementations or its enhancements do not fulfill the predefined requirements and expectations. Therefore the hypothesis that theses scenarios are prone to fail will be toned down by outlining typical implementation problems and by providing recommendations to prevent or handle them. Important stakeholder groups will be delimited and analyzed by means of relevant examples and thus highlight specific problem areas in the medical field. To avoid or handle these problems, the present thesis will evaluate and classify present models by mapping them to suitable areas of application in real-world scenarios. Inclusion of the already listed risk factors will result in a practical guideline for future projects and thereby lead to higher success rates. After providing a guideline including the specifics of HIS implementation projects compared to other IS-fields, the findings will be evaluated and compared with the results of a questionnaire to provide a mapping between theory and practice. To extend the practical application of the introduced theories and models, a concrete use case will be outlined to apply the developed guideline.

Institut für Computergraphik und AlgorithmenE186

Arbeitsbereich Algorithms and Complexity

Diplomarbeitsposter Brandstätter Georg

Georg Brandstätter

Masterstudium Software Engineering & Internet Computing
Abstract:

Netzwerkentwurfsprobleme bilden eine Klasse von kombinatorischen Optimierungsproblemen, deren Anwendungsgebiete vom Entwurf von Telekommunikationsnetzwerken bis zur Planung von städtischer Infrastruktur reichen. Ein bekanntes Problem dieser Klasse ist das NP-schwere Steinerbaumproblem auf Graphen (STP), welches darin besteht, den kostengünstigsten Teilbaum des Eingangsgraphen zu finden, der alle Knoten aus der gegebenen Menge an Terminalknoten verbindet. Um die Modellierung komplexerer Probleme zu ermöglichen, definieren wir das Multikriterielle Steinerbaumproblem mit Ressourcen (MOSTPR), welches eine Generalisierung des einfachen STP auf mehrere Zielfunktionen ist, bei dem jeder Kante zusätzlich eine Menge an Ressourcen, die sie verbraucht, zugeteilt ist. Unsere zusätzlichen Ziele sind, den maximalen Gesamtverbrauch jeder einzelnen Ressource entlang der Pfade vom Wurzel- zu den Terminalknoten zu minimieren. Zur Lösung der Problemvariante mit zwei Zielfunktionen entwickeln wir auf der Epsilon-Constraint-Methode basierende Algorithmen, welche die Instanz in Teilinstanzen mit nur einer Zielfunktion zerlegen, diese gemäß zweier ILP-Formulierungen codieren und mittels Branch-and-Cut lösen. Zur Verbesserung der Laufzeit entfernen wir mittels Preprocessing unnötige Knoten und Kanten. Weiters verwenden wir Informationen aus vorhergehenden Iterationen, wie etwa deren optimale Lösung oder mittels Branch-and-Cut hinzugefügte Ungleichungen, zur Beschleunigung des Lösungsvorgangs. Wir testen die Implementierung der zuvor erwähnten Algorithmen auf einer Reihe von Beispielinstanzen. Diese Tests zeigen, dass neben der Größe auch die Struktur einer Instanz die benötigte Laufzeit stark beeinflussen kann, ebenso wie Preprocessing und die Wiederverwendung von Information. Abschließend beschreiben wir, wie die von uns entwickelten Algorithmen modifiziert werden können, um das allgemeine Problem mit beliebiger Anzahl an Ressourcen zu lösen.

Arbeitsbereich Computergraphik

Diplomarbeitsposter Bauer Johannes

Johannes Bauer

Masterstudium Medizinische Informatik
Abstract:

Today's neuro-biological research is often based on brains of the Drosophila Melanogaster, the commonly known fruit fly. To study the function of neuronal circuits scientists often have to compare the neuronal structures of a set of different brains. Their aim is to find out how complex behavior is generated. Therefore the scientists at the Institute of Molecular Pathology (IMP) in Vienna are using a confocal microscope to produce volumetric images of Drosophila brains. Today they have acquired more than 40.000 images and a large amount of additional data. In many cases 3D renderings of these volumetric images are not sufficient to solve certain scientific problems especially when multiple brains have to be considered. Therefore the researchers rely on additional data which is stored in databases. The problem here is that the scientists have two different data sources without a connection between them. On the one hand there are the volumetric images and on the other hand there is the additional data which has certain relations to the brains. This thesis proposes a software design concept to establish a connection between 3D renderings of volumetric images and additional data by using information visualizations. Highlighting techniques can be introduced to link volume visualizations of the brains to related data visualized by 2D information visualizations. Therefore the implementation of this design concept gets integrated into an existing scientific visualization environment. To evaluate this concept common neuro-biological use cases are introduced and it is described how the implementation of this design concept supports the work flow of the researchers.

Diplomarbeitsposter Beham Michael

Michael Beham

Masterstudium Visual Computing
Abstract:

Geometry generators are commonly used in video games and evaluation systems for computer vision to create geometric shapes such as terrains, vegetation or airplanes. The parameters of the generator are often sampled automatically which can lead to many similar or unwanted objects. In this thesis, we propose a novel visual exploration approach that combines the abstract parameter space of the generator with the resulting geometric shapes in a composite visualization. Similar 3D shapes are first grouped using hierarchical clustering and then displayed in an illustrative parallel coordinates or scatterplot matrix visualization. This helps the user to study the sensitivity of the generator with respect to its parameter space and to identify invalid regions. Starting from a compact overview representation, the user can iteratively drill-down into local shape differences by clicking on the respective clusters. Additionally, a linked radial tree gives an overview of the cluster hierarchy and enables the user to manually split or merge clusters. We evaluate our approach by exploring the parameter space of a cup generator and provide feedback from domain experts.

Diplomarbeitsposter Freude Christian

Christian Freude

Masterstudium Visual Computing
Abstract:

This thesis proposes extensions for the Separable Subsurface Scattering algorithm to support arbitrary materials. Four separable (rank-1) kernel models for the approximation of physically based diffuse reflectance profiles are presented. Each model offers different approximation qual- ity and controllability. The first two models are based on singular value decomposition and a custom analytic pre-integration scheme. They enable fast deterministic kernel computation and provide fixed-quality solutions. Two additional parametrized models are based on automatic and manual optimization and provide more control over the approximation quality but are more time-consuming to generate. Higher rank approximations can be computed using the approach based on singular value decomposition. All four kernel models are used to compute approximations for physically measured diffuse reflectance profiles of different materials and tested using several special-case irradiance signals and complex proof-of-concept scenes. The results are compared to the state of the art in real- time rendering of subsurface scattering, showing comparable approximation quality at lower computational cost. The proposed extensions enable rendering of physically based subsurface scattering for arbitrary materials and dynamic scenes in real time. Furthermore, this separable approach is already in use for SSS rendering in AAA games.

Diplomarbeitsposter Weber Thomas

Thomas Weber

Masterstudium Visual Computing
Abstract:

Recent advances in graphics hardware have made it feasible to consider implementing alternative rendering algorithms on the GPU. One such candidate would be Reyes, an algorithm that subdivides surfaces into sub-pixel sized polygons called micropolygons before rasterizing them. This allows rendering of curved and displaced surfaces without any visible geometric artifacts. While the overall Reyes pipeline seems to map well to the data-parallel programming mode of GPUs, implementing a Reyes renderer on the GPU has so far been hampered by several factors. One of those reasons is that current rendering hardware is not designed for sub-pixel sized polygons. Another problematic component of Reyes is its bound-and-split phase, where surface patches are recursively split until they are smaller than a given screen-space bound. While this operation has been successfully parallelized for execution on the GPU using a breadth-first traversal, the resulting implementations are limited by their unpredictable worst-case memory consumption and high global memory bandwidth utilization. This thesis presents a full Reyes renderer implemented in the GPU programming language and platform OpenCL. All surface tessellation, shading, and rasterization is performed as a kernel on the GPU. A software rasterizer specialized for drawing micropolygons is used for rasterization. Our major contribution is a data-parallel implementation of bound-and-split that allows limiting the amount of necessary memory by controlling the number of assigned worker threads. This allows us to render scenes that would require too much memory to be processed by the breadth-first method.

Institut für Gestaltungs- und WirkungsforschungE187

Arbeitsbereich Multidisciplinary Design

Diplomarbeitsposter Belohlavek Arnold

Arnold Belohlavek

Masterstudium Informatikmanagement
Abstract:

Softwareerstellung in Projekten erfordert heutzutage ein hohes Maß an Projektmanagement. Gleichzeitig ergibt sich aber aus der Erfahrung öffentlicher Studien, dass Software- Projekte oft nur mit Verzögerungen, oder im schlimmsten Fall gar nicht fertiggestellt werden. Die Schäden durch Verzögerungen sind teilweise enorm. Menschen die in Software-Projekten arbeiten stehen oftmals unter hohem Druck. Unternehmen bestehen oft aus komplexen Hierarchien. Neue Projekt-Management Methoden einzusetzen, fällt dadurch oft sehr schwer. Manchmal werden gute Ansätze nicht korrekt umgesetzt. Diese Arbeit beschäftigt sich mit der Frage, ob die bestehenden Methoden ausreichend sind und wie diese Methoden abgewandelt werden können, um leichter einsetzbar zu sein. Die Frage ist, ob es möglich ist mit einem einfachen Set an Tools ein Gerüst aufzubauen, das den modernen Entwicklungsmethoden gerecht wird. Dazu wurden die aktuellen Softwareprojekt-Management Methoden betrachtet und analysiert. Es wurde ein Online-Fragebogen erstellt. Es wurde mit einem repräsentativen Querschnitt von MitarbeiterInnen aus der Software-Branche eine Befragung durchgeführt. Als Ergebnis ist ein Bild entstehend wie die MitarbeiterInnen die momentane Lage einschätzen. Aus der Analyse der bestehenden Projektmanagement Methoden, sowie eigenen Erfahrungen und der Informationen aus der Literatur-Recherche, wurde versucht die besten Ansätze für ein funktionierendes Projekt-Management abzuleiten. Es ist daraus eine Beschreibung für einen Ansatz entstanden, der leicht umzusetzen ist. Um diesen Ansatz vollumfänglich zu beschreiben, war es notwendig, neue oder abgewandelte Rollen des Projektmanagements zu definieren. Es wurden auch die nötigen Hilfsmittel zur Visualisierung und zur Messung der Qualität oder Leistung beschrieben und die Gründe dafür genannt. Es wurde auch ein Einsatzplan entwickelt und die Erklärung dafür, um optimale Ergebnisse im Falle einer Umsetzung zu garantieren.

Diplomarbeitsposter Houszka Johann

Johann Houszka

Masterstudium Medieninformatik
Abstract:

Taktik ist ein elementarer Bestandteil des Sportwesens. Obwohl technische Unterstützung vorhanden ist, ist die Möglichkeit Taktikvarianten vorzuschlagen nicht gegeben. Das Ziel dieser Arbeit ist die Prüfung der Frage, ob der Einsatz von Empfehlungssystemen zur interaktiven Taktikerstellung im Sportwesen erstrebenswert ist. Dies wird anhand des Beispiels "Fußball" untersucht. Dazu wird dem/der Leser/Leserin Einblick in die Themen "Fußball" und "Empfehlungssysteme" gegeben, welcher durch das Darlegen von relevanten Anwendungen auf diesen Gebieten vertieft wird. Der Autor entwickelt einen Prototypen, welcher das Empfehlen von Taktikvarianten bereitstellt. Nach abgeschlossener Entwicklung findet eine eingehende Evaluation des Prototypen statt, welche auf die Beantwortung der in dieser Arbeit gestellten Forschungsfragen abzielt. Es zeigt sich, dass Trainer/Trainerinnen gewillt sind, Vorschläge des Systems anzunehmen und auch gegen die eigene Intuition zu handeln. Empfehlungen können auf mehreren Ebenen generiert werden. Vorschlägen zur Aufstellung der eigenen Mannschaft wird dabei weniger Bedeutung beigemessen. Im Gegensatz dazu werden Empfehlungen zu den Stärken und Schwächen der gegnerischen Mannschaften als sehr hilfreich eingestuft. Auch auf situative Taktikvorschläge wird sehr viel Wert gelegt. Der Einsatz von Empfehlungssystemen als Hilfstechnologie im Sportwesen ist demnach durchaus erstrebenswert. Die resultierenden Vorschläge unterstützen dabei die Probanden auf mehreren Ebenen. Sie werden genutzt, um deren subjektive Wahrnehmung zu bestätigen oder diese zu Hinterfragen. So spielen sie eine große Rolle in der Taktikwahl des Trainerteams. Obwohl statistische Daten schon heute zu den wichtigsten Informationsquellen für Trainer/Trainerinnen zählen, ist der Einsatz von Empfehlungssystemen zur Generierung von konkreten Vorschlägen Neuland. Es wird interessant sein zu sehen, ob in Zukunft eine Entwicklung in diese Richtung stattfindet.

Arbeitsbereich Human Computer Interaction

Diplomarbeitsposter Lehner Ulrich

Ulrich Lehner

Masterstudium Medieninformatik
Abstract:

Bürgerbeteiligung in öffentlichen Diskussionen über urbane Angelegenheiten ist ein essentieller demokratischer Prozess um Bürger zu informieren und sie in Entscheidungsprozesse einzubinden. Elektronische Beteiligungs-Tools, wie beispielsweise kollaborative Online-Plattformen oder Umfragen im Web, verbreiten sich vermehrt. Mobile Anwendungen erlauben den Bürgern sich vor Ort zu engagieren, allerdings sind aktuelle mobile Beteiligungslösungen oft auf eine Einwegkommunikation beschränkt. Es mangelt an mobilen Beteiligungs-Applikationen, welche eine strategische Entscheidungen bewirken und gleichzeitig einen interaktiven Dialog ermöglichen, um eine nachhaltige Beteiligung aufzubauen. Spielprinzipien auf mobile Beteiligung-Tools anzuwenden ist ein vielversprechender Ansatz, um beispielsweise jüngere Generationen zu motivieren sich zu beteiligen und kann ein langfristiges bürgerschaftliches Engagement fördern. In einem benutzerzentrierten Design Prozess erforscht diese Diplomarbeit einen neuartigen Ansatz, Spielelemente in einer mobilen Beteiligungs-Applikationen zu integrieren. Ein gamifiziertes und situationsbezogenes Beteiligungskonzept mit dem Namen "Community Circles" wird vorgestellt, welches eine dynamische Spielmechanik beinhaltet um Bürger konstant zu beteiligen. Aspekte dieses Konzepts wurden in einem funktionalen Spielprototypen implementiert, welches herangezogen wurde, um folgende Forschungsfragen zu untersuchen: (1) welche Effekte ein gamifiziertes Beteiligungs-Tool auf Bürger hat, (2) wie diese Spielelemente wahrgenommen werden und (3) welches Potential eine gamifiziertes Beteiligung um Bürger langfristig zu engagieren hat. Die Evaluation zeigt, dass ein solches Tool Interesse wecken kann und Bürger unterstützt eine Meinung auszudrücken und urbane Themen zu diskutieren. Wenngleich ein Spielansatz ein initialer Motivator sein kann, ist es ausschlaggebend, dass Stadtverwaltungen sich aktiv in den Beteiligungsprozess einbringen.

Diplomarbeitsposter Roider Florian

Florian Roider

Masterstudium Medieninformatik
Abstract:

Diese Arbeit behandelt die Entwicklung eines persönlichen, elektronischen Logbuches für Unfallchirurgen. Es wurden eine umfassende Literaturrecherche, sowie Interviews mit Chirurgen durchgeführt und daraus grundsätzliche Anforderungen an ein Logbuch zur persönlichen Dokumentation abgeleitet. Diese Anforderungen wurden in einem Applikationsprototyp für Android Smartphones umgesetzt. Ein anschließendes Prototyping ermöglichte es teilnehmenden Assistenzärzten die Applikation über einen Zeitraum von ca. acht Wochen zu testen. Während dieser Phase wurde Feedback von den Testpersonen gesammelt und entsprechende Änderungen an dem Prototyp durchgeführt. Das Ergebnis des Prototypings ist eine finale Version des Prototyps, der dem Großteil der identifizierten Anforderungen gerecht wird. Trotz unterschiedlicher persönlicher Vorlieben befürworteten alle beteiligten Assistenzärzte die Idee eines persönlichen elektronischen Logbuchs auf dem Smartphone.

Diplomarbeitsposter Wagner Matthias

Matthias Wagner

Masterstudium Medieninformatik
Abstract:

Diese Arbeit befasst sich mit der Thematik des mobilen Arbeitens, sowie Möglichkeiten zur Verbesserung und Erleichterung des Arbeitsablaufes für die involvierten Personen durch Mobiltechnologie. Im Forschungsfeld des mobilen Arbeitens wurde bereits viel Arbeit in die Herkunft und Ursachen davon investiert. Weiters gibt es viele Arbeiten, welche Herangehensweisen zur erfolgreichen Erstellung von Software beschreiben. Hier stellt sich heraus, dass alle späteren User unterschiedliche Bedürfnisse haben und ein genaues Verständnis darüber notwendig ist, um für die User funktionierende Software zu generieren. Diese Arbeit beschäftigt sich mit dem Spezialgebiet von CRM-Software und wie diese mobile Personen unterstützen sollte. Dazu wurde mit einer konkreten Usergruppe einer bestehenden Software gearbeitet, welche als Experten in Hinblick auf die Anforderungen des mobilen Arbeitens und der Verwendung der Software zu sehen sind. Dabei wurde auf einen Mix aus qualitativen und quantitativen Methoden gesetzt, um ein möglichst breites Verständnis für die Spezialdomäne zu erlangen. Somit ergaben sich Antworten auf die Forschungsfrage, welche Möglichkeiten sich für eine mobile CRM-Anwendung zur Unterstützung der mobil arbeitenden Personen ergeben. Die Kernergebnisse der Analyse wurden in zwei Teile gegliedert. Der erste Teil behandelt die Eigenschaften des mobilen Arbeitens und Einsatzmöglichkeiten von Software und beinhaltet (1) das unmittelbare Fertigstellen von Arbeitsschritten und (2) das Nutzen von Kontextinformationen. Der zweite Teil beschäftigt sich auch mit technologischen Fragestellungen und Aussagen zur tatsächlichen Umsetzung einer Applikation und beinhaltet (3) die Kombination von Desktop- und Mobilvarianten und (4) Möglichkeiten zum Datenaustausch mit anderen Anwendungen. Gemeinsam können diese Ergebnisse als Basis für eine spätere Konzept- und Designphase am Weg zu einer mobilen Applikation gesehen werden, welche mobil arbeitende Personen täglich unterstützt.

Institut für Softwaretechnik und Interaktive SystemeE188

Arbeitsbereich Information & Software Engineering

Diplomarbeitsposter Kitzler Martin

Martin Kitzler

Masterstudium Software Engineering & Internet Computing
Abstract:

Empirical studies and experiments provide the foundation for empirical research in academia and industry. Typically, planning and executing controlled experiments require a lot of effort on preparation and execution. This thesis introduces the concept of using public coding contests as a vehicle for scientific studies. Coding contests are typically large events where skilled developers are trying to solve problems as fast as possible. By setting up rules that participants have to decide and choose particular SW development techniques (of a small predefined selection) to solve a problem, allows empirical analysis afterwards. The benefits are: researchers obtain data from a large set of subjects for their studies, while saving effort by not having to host the experiment themselves. A contest organizer can profit from it, by getting free advertisement and by polishing the reputation of their contest with a scientific touch. To test our idea, four research issues are stated and discussed in the later sections. The first two discuss the vehicle concept in general, under a scientific point of view. For the last two issues we conduct a proof of concept by embedding an experiment into a real coding contest with hundreds of participants and analyze the results, namely, the effects of Pair-Programming (PP) and coding experience on time and defect variables. The methodological approach for this thesis was to start with a literature research about experimentation in SW engineering and Pair-Programming, followed by the conduction of an experiment. The results of the experiment are used to discuss the research issues. As result, the experiment was performed successfully and delivered enough data to discuss the research issues. Pairs needed the same time to finish their tasks than individual programmers which means that the effort (person hours) doubled. In regard to software quality (defects), pairs competed slightly better but not significantly.

Diplomarbeitsposter Macho Christian

Christian Macho

Masterstudium Software Engineering & Internet Computing
Abstract:

Software Qualität ist ein wichtiger Aspekt im modernen Software Engineering und in Software Engineering Prozessen. Um die Qualität von modernen Software Systemen zu sichern, gibt es viele Arten Ansätzen, wie zum Beispiel Akzeptanz Tests oder Performance Tests.Da die Methoden des Software Engineering auch auf andere Disziplinen übertragen werden, ist es auch interessant, Software Qualitätssicherungsmethoden auf andere Disziplinen zu übertragen. Eine Disziplin, auf die Software Engineering Methoden angewandt werden, sind Automations Systeme.. Es gibt Ansätze die auftretenden Herausforderungen zu lösen, wie zum Beispiel den Automation Service Bus (ASB). Aufgrund der steigenden Komplexität, entsteht auch das Bedürfnis die Qualität zu kontrollieren. An diesem Punkt können Software Testing Ansätze angewandt werden. Performance Testing ist Teil des Software Testing und sollte deshalb auch in Betracht gezogen werden Es ist eine Herausforderung eine repräsentative Liste an Kriterien zu ermitteln, die den Bedürfnissen der User an das Tool entspricht. Im Anschluss muss ein Tool gefunden werden, dass die Kriterien am besten erfüllt. Es werden Methoden des Software Testings in ein Framework zusammen gefasst. Weiters muss gezeigt werden, dass dieses Framework funktioniert. Ein Ergebnis der Studie ist ein Tool, welches die Anforderungen am besten erfüllt. Danach wird ein Performance Testing Framework entworfen und mit dem vielversprechendsten Tool umgesetzt. Dieses Framework wird dann auf ein Web Front-End einer Industrie Applikation angewandt, die in einem Automation Environment läuft. Weiters wird überprüft ob das Framework im Rahmen der Forschungsumgebung realisierbar und anwendbar ist. Die Ergebnisse dieser Arbeit präsentieren eine Liste an Kriterien, die auf die Forschungsumgebung zugeschnitten sind, um ein Tool zu finden, dass es eine Performance Analyse möglich macht, ein Framework für die Performance Analyse sowie deren Bestätigung der Funktionalität.

Diplomarbeitsposter Mauerer Johannes Michael

Johannes Michael Mauerer

Masterstudium Business Informatics
Abstract:

Graph databases, which have seen a surge in interest over the last years, allow to more efficiently store network structured data. But while plenty of research has gone into the development of this technology, querying for a subset of the data is lacking user friendly interfaces. Of the two main query methods, graph pattern matching and graph traversal, the first has received more attention and more methods providing visual support in querying are available. The latter, graph traversal, while being very powerful, has seen little advances in visual querying. This thesis aims at providing a novel user interface for graph traversal query formulation - a visual query language for graph databases - entitled Pygmalion Query. In the thesis, first a literature review is undertaken to discover any previous approaches taken at such a visual query language. With it, gaps in the currently available research are identified. Following the literature review, needs and requirements are identified from different sources, such as queries posted online and documentation for graph traversal query languages. After selection of minimum required features, the design for Pygmalion Query is created. A web-based implementation, built on available frameworks, is imple- mented. Following the creation of Pygmalion Query, a twofold evaluation is conducted. An expert review serves as the initial confirmation of the approach taken. Using feedback coming from the experts, an updated implementation is created. A small comparative user study is carried to test for usability. The results of the expert review and user study indicate a positive usability effect of Pygmalion Query in the formulation of graph traversal queries over the currently available solutions. The participants of the study, in greatest part novice users, are more likely to complete the tasks posed to them with the visual query language.

Diplomarbeitsposter Musil Angelika

Angelika Musil

Masterstudium Software Engineering & Internet Computing
Abstract:

Collective intelligence (CI) systems are a particular kind of socio-technical systems of which wikis, social networking services, and social media platforms are their most prominent repre- sentatives. CI systems facilitate effective, bottom-up collaboration and information sharing as well as communication capabilities that rely on user-generated content. Although CI systems are popular and widespread in use, there is a lack of practical software architectural design approaches to enhance information systems with CI capabilities. Without useable design principles and architectural guidance, software architects face the challenge to design and build CI systems by using appropriate established architecture models and method- ologies, whereby these approaches often do not fit well. Since the interest in designing CI systems increases, the need for a more general-purpose architectural approach for CI systems is becoming more important. Therefore, this thesis investigates general architectural principles and design guidelines to provide a deeper understanding of CI systems from a software architecture perspective and sup- port during the architecting process. An exploratory case study of operating CI systems in var- ious application contexts is conducted to investigate real-world circumstances and gain insights into CI system constituents and user needs. The application of the House of Quality approach allows a detailed analysis of the elicited user needs and identified basic system constituents in or- der to identify a set of required key system capabilities that need to be addressed by a CI system architecture design. These results facilitate the derivation of a set of nine important architectural principles providing architecture-relevant knowledge. Furthermore, a multi-phase process has been developed to make the identified principles applicable during the architecting process.

Diplomarbeitsposter Rajjo Molham

Molham Rajjo

Masterstudium Information & Knowledge Management
Abstract:

This work presents the results of an empirical evaluation of the Radial Sets technique to explore the usefulness the tasks it was designed. For the evaluation of this technique a quantitative study has been performed. The study was conducted by means of a controlled experiment where 32 participants had to solve tasks that are instances of seven pattern finding tasks. Three hypotheses have been created covering these pattern finding tasks. Each task was assigned to one of these hypotheses. Each user has to solve 60 questions which have been divided into two groups: training questions and evaluation questions. The aim was to evaluate how well Radial Sets are performing these tasks by measuring the compilation time and errors the users made when solving these questions. Therefore, the evaluation questions were the main part of the experiment. The results of the training tasks were excluded from the evaluation results. Additionally, the experiment included a qualitative feedback to elicit usability and understandability aspects based on users opinion. The evaluation results revealed that Radial Sets are effective at representing sets and how the elements belong to each set. The representation of overlaps as arcs was also intuitive but required detailed explanation about how the overlap sizes are computed, in particular, whether they depict the absolute number of elements or the proportion of shared elements.

Diplomarbeitsposter Rekabsaz Navid

Navid Rekabsaz

Masterstudium Software Engineering & Internet Computing
Abstract:

Information Retrieval (dt. Informationsrückgewinnung) muss sich von einer rein Oberfläche- basierten Sicht zu einer begrifflichen Sicht, die den Inhalt auf einer semantischen Ebene über- einstimmt, bewegen. Während wir die Möglichkeiten der statistischen Semantik erforschen, nehmen wir das textbasierte Information Retrieval Methoden in zwei sehr unterschiedliche Bereiche (soziale Medien sowie Patent Retrieval) wieder auf, um eine vergleichende Analyse der Effizi- enz und Effektivität der untersuchten Methoden zu liefern. Unser semantischbasiertes Vorgehen für Informationsrückgewinnung besteht aus zwei Elementen: auf einer Seite finden wir Metho- den die semantische Begfriffdarstellungen erstellen, und auf der anderen Seite die Methoden um die begriffbasierte Ähnlichkeit der Texte zu messen. Für Begriffschilderungen, verwenden wir Word2Vec, eine auf dem neuesten Stand der Technik, auf tiefes Lernen basierte Methode, und Zufalls Indexierung, eine einfache aber effektive Zählbasierte Methode. Nach der Überprüfung der Literatur, wählen wir auch zwei Methoden die Textähnlichkeiten messen: eine Methode die die Textähnlichkeint direkt auf Dokumentebene misst (SimAgg), und eine Methode die Ähnlich- keit zweier Dokumente als Linearkombination der Begriffverwandtschaft ihrer Begriffe misst (SimGreedy). Wir bewerten die Leistung und die Grenzen der oben genannten Verfahren durch einen Vergleich mit den modernsten Suchmaschinen. Für beide Domänen zeigt unsere semantische Suchverfahren eine statistisch signifikante Verbesserung im Vergleich zu einem bewährten, frequenzbasierten Suchverfahren, auf Kosten einer wesentlichen Erhöhung der Bearbeitungszeit. Um die Zeit-Komplexität der semantisch basierten Methoden anzugehen, konzentrieren wir uns auf Optimierungen die größere und erfahrungspraktischere Anwendungen ermöglichen.

Diplomarbeitsposter Unger Jürgen

Jürgen Unger

Masterstudium Medizinische Informatik
Abstract:

Empfehlungen für medizinische Behandlungen von Patienten durch medizinisches Fachpersonal können in Form von medizinischen Leitlinien zur Verfügung gestellt werden. In die Forschung an der Integration solcher medizinischer Leitlinien in die klinische Praxis wurde und wird viel Aufwand investiert, da diese eine computergestützte Analyse der Einhaltung der Leitlinien ermöglicht. Darüber hinaus kann eine solche Analyse Einblicke in die allgemeine Qualität der Leitlinie, aber auch über die Akzeptanz der Leitlinie durch medizinisches Fachpersonal geben. Klinische Studien werden in vielen Fällen als Kohortenstudie durchgeführt. Eine Kohorte ist eine Gruppe von Patienten die zumindest ein gemeinsames Merkmal aufweisen. Im Falle dieser Arbeit ist die Gemeinsamkeit, dass alle Patienten die gleiche medizinische Behandlung, welche durch eine medizinische Leitlinie empfohlen wurde, erfahren haben. Ziel dieser Arbeit ist es eine retrospektive visuelle Analyse der Behandlungsdaten ganzer Kohorten zu ermöglichen. Um dieses Problem zu lösen implementieren wir neue Ansätze für die Visualisierung von Messergebnissen klinischer Werte, die angewandten klinischen Aktionen und die Einhaltung der Leitlinie durch medizinisches Fachpersonal und erweitern bereits vorher entwickelte Techniken, welche für die Veranschaulichung von Daten einen einzelnen Patienten entwickelt wurden. Zusätzlich stellen wir dem Benutzer Techniken zur Interaktion zur Verfügung, die eine explorative Analyse der Daten ermöglichen. Das Resultat ist ein voll funktionaler Prototyp, welchen wir in Java entwickelt haben und auf dem Visualisierungsframework Prefuse basiert. Bei einer anschließenden Evaluierung, die wir gemeinsam mit einem Fachexperten durchgeführt haben, konnten wir feststellen, dass der Großteil der entwickelten Methoden und visuellen Darstellungen der Informationen intuitiv und schnell zu verstehen sind.

Diplomarbeitsposter Wohlkönig Maurice Johannes

Maurice Johannes Wohlkönig

Masterstudium Software Engineering & Internet Computing
Abstract:

Online Social Networks (OSNs) like Facebook, Google+ or Xing are among the most visited websites worldwide. In OSNs people interact with other people by uploading photos, publishing status-messages, updating their profile or generally speaking - sharing their life with the platform. This generates a lot of sensible data about the user. This data is a lucrative target for different groups of interest: Advertisement companies, the OSNs operators themselves, criminals use them for spam and online-fraud while forensic analytics use it for their investigations. The user himself, which the data originally belongs to is left outside. Often the data can not be exported easily and/or completely. For this paper, a tool which allows the easy, automated and prompt export of this data is created. This data can give a good overview of someone’s life, containing contact information, thoughts and attitudes making it interesting not only for the user, but also for the other groups that focus on social networks and/or personal information such as academia and law enforcement. This paper begins with an overview of the subject matter, introducing the techniques, technologies and artifacts used during the creation of this paper. In the following chapter the current state of tools and papers associated with social network exports and their creation is analyzed. The main part gives an overview of how and why the tools and technologies to create the new software were chosen. It also describes the design and implementation of the tool, describes how it was created, which tools where used to build it and how it can be used. It covers the whole development process from setup to implementation to execution, analyzing the steps and measuring performance and usability which is evaluated at the end. The last part sums up the findings of this thesis, giving an overview of the results, flaws and benefits while also pointing out possible extension opportunities.

Diplomarbeitsposter Zimmermann Peter

Peter Zimmermann

Masterstudium Business Informatics
Abstract:

Aufgrund der kontinuierlich steigenden Datensammlung unter anderem durch Google und Facebook entsteht ein stärker werdendes Bedürfnis nach Datenschutz. Eine Grundvoraussetzung, um Datenschutz implementieren zu können, ist einen Überblick über den Stand der Technik zu haben. Das ist in der schnelllebigen IT Industrie besonders wichtig, da sich hier technologische Entwicklungen, geänderte Verhaltensweisen und damit einhergehend auch das Gefährdungspotential rasch ändern können. Für alle, die sich mit der Implementierung von Systemen zum Datenschutz befassen, ist es daher besonders wichtig, aktuelle Entwicklungen und Möglichkeiten zu kennen. Ganz besonders gilt das für Personen, die neu in dieses Thema einsteigen wollen. Leider gibt es jedoch wenig Überblicksliteratur, die einen raschen und schnellen Start ermöglicht - speziell, wenn die Wichtigkeit von aktuellen Informationen berücksichtigt wird. In dieser Arbeit wird deshalb ein Überblick über aktuelle Entwicklungen im Bereich der Privacy Enhancing Technologies gegeben. Zur besseren Strukturierung ist eine Taxonomie wünschenswert - leider gibt es jedoch noch keine für diesen Zweck geeignete. Daher wird eine entsprechende Taxonomie für Privacy Enhancing Technologies erstellt. Anhand dieser Taxonomie werden die untersuchten Techniken evaluiert. Abschließend erfolgt eine Auswertung über Kombinationsmöglichkeiten der gebildeten Gruppen von Techniken sowie beispielhaft von mehreren konkreten Techniken.

Arbeitsbereich Interactive Media Systems

Diplomarbeitsposter Diem Lukas

Lukas Diem

Masterstudium Visual Computing
Abstract:

Due to the massive amount of video data available, manual annotation is not feasible and automated methods are needed. Existing video representations are usually based on features, which cannot be interpreted without further knowledge. In this thesis we propose a novel video representation based on the detection of recurring regions. The underlying assumption is that recurrence reflects importance in videos. For example, core elements of a video, such as the main character or a key object, usually appear in several shots for a longer period of time. Since recurring regions represent important elements of a video sequence, we show their application for video summarization. Additionally, we propose the concept of using recurring regions as video signature (e.g. for retrieval tasks). The system is evaluated on a set of YouTube videos with recurring elements that can be spotted easily by a human observer. We conduct quantitative experiments to evaluate the matching precision of the detected recurring regions. For the best parameter setting, we achieve an average precision of 71.5 %. Furthermore, a qualitative evaluation is carried out on selected videos. In this evaluation we analyze the quality of the recurring regions in terms of their representativity and the quality of the region ranking. An advantage of the presented representation is that detected regions can be interpreted by humans and, thus, they carry semantic information in contrast to representations based on low-level feature descriptors.

Diplomarbeitsposter Hartl Johannes

Johannes Hartl

Masterstudium Medieninformatik
Abstract:

Autism spectrum disorder (ASD) is a pervasive developmental disorder that often involves sensory and motor problems. A sense that has not yet been well studied is proprioception, the sense of joint motion and joint position, which is the basis for motor planning and purposeful action. This sense can be tested with a repositioning test where the subjects have to move their limbs until they believe a certain reference angle is reached. Existing systems using exoskeleton robotic arms are limited regarding the measureable parameters and their usability in everyday clinical practice. In this thesis I will present the design and implementation of a new method to measure proprioceptive functions of children with ASD. An RGB-D sensor is used to deliver the depth data that are transferred to a PC and analyzed with the application I developed. The system will be used for a reproducible and stable test for non-intrusively assessing the kinesthesia of children, where the children only have to stand in front of the sensor without any constraining instruments. Since the application works in 3D space, two rotation axes for each joint are used. The system was evaluated for reproducibility, stability and accuracy with ten participants. In addition, it was pilot tested with normally developed children for functionality and usability of the system, where the children had to assume different body positions without visual control. The system will be used in a larger study on children with ASD.

Diplomarbeitsposter Lasinger Katrin

Katrin Lasinger

Masterstudium Visual Computing
Abstract:

We present a dense stereo matching approach for urban outdoor environments. Starting from the recently published PatchMatch Stereo approach by Bleyer et al., we further extend their idea to multi-view stereo. PatchMatch Stereo is a local stereo matching approach that estimates a 3D plane at each pixel position, hence, extracting not only disparity values but also surface normals. One of our contributions of this work is the adaption of the PatchMatch Stereo algorithm to scene space. This allows for direct estimation of depth values and the use of non-rectified images. Mapping from one image to another is facilitated by plane induced homographies, utilizing the estimated planes (normal and depth) at each pixel position. Processing in scene space allows us to directly combine multiple images, leading to our multi-view stereo matching approach. The use of more than two images facilitates the handling of partially occluded image regions and therefore leads to more robust results. Our algorithm is tested on different urban outdoor image sets, including image pairs from cameras mounted on a car, panoramic images of urban areas as well as multi-view data from historic sites and aerial image data. Furthermore, our approach is quantitatively evaluated on existing benchmark data for two-view and multi-view outdoor image sequences. Results are compared with reported values of state-of-the-art stereo matching methods.

Diplomarbeitsposter Riederer Martin

Martin Riederer

Masterstudium Medieninformatik
Abstract:

Autismus ist eine weit verbreitete Entwicklungsstörung mit einer durchschnittlichen Prävalenz von weniger als 1%. Die Störungen zeigen sich vor allem durch Einschränkungen in den Bereichen Interaktion, Bewegung und Kommunikation. Aktuell forschen viele Länder und Institutionen an den Mechanismen von Autismus, um diese besser zu verstehen und dagegen Maßnahmen setzen zu können. Aktuell versuchen neue Studien einen Zusammenhang zwischen Autismus und Einschränkungen in der sensorischen und propriozeptiven Verarbeitung zu finden. In dieser Arbeit wird eine neue Methode zur Erfassung der propriozeptiven Fähigkeiten bei Kindern mit Autismus vorgestellt. Dazu wurden Messgeräte entwickelt, die Kraft- und Berührungssensoren zusammen mit günstigen Arduino-Boards und Shields kombinieren. Die so erfassten Messdaten werden drahtlos auf ein mobiles Endgerät, beispielsweise ein Smartphone oder Tablet übertragen, dort gespeichert und auch ausgewertet. Die Software-Applikation baut dabei auf einem Cross-Plattform Framework auf, um möglichst geräteunabhängig zu sein. In einem Pilottest wurden die Messgeräte mit normal entwickelten Kindern auf deren Funktionalität und Benutzbarkeit hin getestet. Zusätzlich wurden diese Geräte mit definierten Gewichten und Referenzwerten auf deren Genauigkeit und Zuverlässigkeit überprüft. In einem weiteren Schritt werden die Messgeräte von einer Psychologin für eine größere Studie bei Kindern mit Autismus angewendet.

Diplomarbeitsposter Schausberger Tanja

Tanja Schausberger

Masterstudium Medieninformatik
Abstract:

Die wachsende Verfügbarkeit von 3D-Bildschirmen im kommerziellen Bereich und damit verbundene Trends steigern die Nachfrage nach 3D-Inhalten. Daher ist die Entwicklung von Technologien zur Generierung von 3D-Inhalten von akademischem und kommerziellem Interesse. Im Zuge dieser Diplomarbeit wird ein semi-automatischer 2D-zu-3D Tiefenpropagierungsalgorithmus vorgestellt, welcher nur wenig Benutzeraufwand benötigt und Ergebnisse von guter Qualität liefert. Um die Propagierung durchzuführen, müssen BenutzerInnen lediglich grobe Tiefeninformationen auf dem ersten und letzten Bild des Videos angeben. Der vorgestellte Algorithmus baut auf einem Objektsegmentierungsalgorithmus für Videos auf, welcher mit Kostenfilterung arbeitet, und propagiert automatisch die von den BenutzerInnen angegebene Tiefe auf das gesamte Video. Diese Diplomarbeit fokussiert dabei besonders auf einige Qualitätsmerkmale wie zeitliche Kohärenz, unscharfe Tiefenkanten und zeitliche Tiefenänderungen. Der vorgestellte Algorithmus erzielt durch eine erweiterte zeitliche Filterung verbesserte Ergebnisse bezüglich der zeitlichen Kohärenz. Außerdem wird die zeitliche Tiefenänderung von Objekten, die sich im Laufe des Videos in der Tiefe bewegen, durch die Miteinbeziehung der Tiefenordnung der Objekte im Video ermöglicht. Evaluierungen zeigen, dass der vorgestellte Algorithmus mit minimalem Benutzeraufwand zeitlich-kohärente Tiefenkarten mit wahrnehmungskonsistenten Tiefenänderungen erzeugt. Zusätzlich wird der vorgestellte Algorithmus mit einem ähnlichen 2D-zu-3D Konvertierungsalgorithmus verglichen. Es wird gezeigt, dass hohe Qualität durch die Verwendung von robust geschätzten Optical Flow Vektoren und komfortable Tiefenannotierung durch BenutzerInnen erzielt werden kann.

Diplomarbeitsposter Schneider Daniel

Daniel Schneider

Masterstudium Medieninformatik
Abstract:

Plagiatserkennung ist der Prozess, einen wissenschaftlichen Text zu analysieren und mögliche plagiierte Abschnitte zu finden. In diesem Zusammenhang haben sich nicht-automatisierte Vorgehensweisen als zeitaufwändig und subjektiv erwiesen. Insbesondere in Anbetracht des steigenden Publikationsvolumens wissenschaftlicher Arbeiten stellen automatisierte Verfahren wertvolle Instrumente zur Verfügung, die das Erkennen von plagiiertem Text effektiv unterstützen. Konventionelle Plagiatserkennungssoftware vergleicht Textpassagen mit möglichen Originaldokumenten basierend auf übereinstimmende Zeichenketten. Im Gegensatz dazu versucht intrinsische Plagiatserkennung plagiierte Abschnitte anhand stilistischer Merkmale zu erkennen. Auf diese Weise ist es möglich, plötzliche Änderung des Schreibstils zu erkennen. Die Erkennung von stilistischen Inkonsistenzen ist mit dem Gebiet der Authorship Attribution, vor allem in der Verwendung der textuellen Features, eng verbunden. Die vorliegende Arbeit beschäftigt sich mit der Entwicklung und Implementierung eines Prototypen, der eine intrinsische Plagiatserkennung durchführt. Das entwickelte Verfahren extrahiert automatisch stilometrische Features aus einem Text und führt eine multivariate Clusteranalyse durch. Die jeweiligen Cluster repräsentieren Gruppen von Textpassagen, die ähnliche stilometrische Eigenschaften aufweisen und können daher mit der entsprechenden Anzahl von Autoren in Verbindung gesetzt werden. Die Eingabedaten (Text) werden durch Artikel aus der englischsprachigen Ausgabe des Onlinelexikons Wikipedia generiert.

Diplomarbeitsposter Ternek Marianne

Marianne Ternek

Masterstudium Medieninformatik
Abstract:

Patients being monitored in hospitals often do not behave as in their daily life. Especially for children such examinations can lead to stress associated with the clinical visit and the exposure to a different environment. These influencing parameters can result in false readings and furthermore in incorrect diagnosis. This circumstance could be overcome with an interface that offers a stress-reducing distraction by recording medical data in an unperceived way. For that purpose we designed a tangible user interface which acquires health values during a game. To determine the requirements for such a tangible user interface one of the first steps is to identify the possible medical sensors that could be used in a tabletop game. Furthermore these sensors needs to be adapted to fit the physical objects used as input and output devices. The combination of these developed tangibles in a game that also satisfies children brought us to our finally implemented interface called ``StoryCubes'': The tangibles - realized as wooden cubes - tell a story when held in a proper way, at the right time and for a certain duration. These restrictions are needed to enable the sensors to perform accurately and therefore one challenge during this master thesis lies in providing enough information to let the users know how to use them correctly. This so-called affordance is realized through feedback, appropriate constraints and the cube design itself. After completing the hardware and software, our game concept is evaluated with 20 participants. The participating children were asked about usability issues, for example if they are able to comprehend the game logic and if they enjoy playing. The test with a number of adults on the other hand was mainly used for representative medical measurements and proof of concept. The results of this study are promising and show a high acceptance for this kind of user interfaces, but also give us some improvement suggestions for the future.

Diplomarbeitsposter Unger Martin

Martin Unger

Masterstudium Business Informatics
Abstract:

Similarity measurement processes are a core part of most machine learning algorithms. Traditional approaches focus on either taxonomic or thematic thinking. Psychological research suggests that a combination of both is needed to model human-like similarity perception adequately. Such a combination is called a Similarity Dual Process Model (DPM). This thesis describes how to construct DPMs as a linear combination of existing measures of similarity and distance. We use generalization functions to convert distance into similarity. DPMs are similar to kernel functions. Thus, they can be integrated into any machine learning algorithm that uses kernel functions. To foster the use of DPMs, we provide kernel function implementations. Clearly, not all DPMs that can be formulated work equally well. Therefore, we test classification performance in a real-world task: the detection of pedestrians in images. We assume that DPMs are only viable if they are better classifiers than their constituting parts. In our experiments, we found DPM kernels that matched the performance of conventional kernels for our data set. Eventually, we provide a construction kit to build such kernels to encourage further experiments in other domains.

Diplomarbeitsposter Venditti Benjamin

Benjamin Venditti

Masterstudium Medieninformatik
Abstract:

The rapid improvement of handheld hardware devices enable real-time rendering of a large number of 3D models in handheld augmented reality (AR) environments. Although there are already many AR applications available for handheld devices, they often remain limited regarding their degree of interactivity compared to desktop AR applications. Important interactions in AR environments are the effortless creation of 3D models, precise selection and six-degree-of-freedom (6DOF) manipulation of virtual objects. Due to the imprecise input of the touch interface, the small screen size and complex touch gestures, all three interactions suffer in one-handed handheld AR setups of different limitations. In this thesis novel one-handed handheld interaction techniques for modeling, selection and manipulation of virtual content are introduced. A simple polygonal modeling technique is presented that uses real-time shape detection to collect handdrawn shapes that are used for Perspective Driven Modeling by extrusion or lathing in an AR environment. The novel selection technique DrillSample, designed particularly for the precise selection and disambiguation of virtual objects, is evaluated against state of the selection techniques. DrillSample is inspired of taking a core sample, e.g. of earth sediments, and designed with a focus on simple touch input and virtual context preservation. Two new and competing manipulation techniques, 3DTouch and HOMER-S, for the intuitive translation, rotation and scaling of virtual objects are introduced. 3DTouch focuses on simple touch input and degree of freedom separation, down to a single DOF, making the different DOF easily accessible from different view perspectives. HOMER-S on the other hand provides integral manipulation up to 6DOF and avoids touch input completely by mapping the handheld’s device pose to the manipulated object. Both techniques are evalulated in a thorough user study followed by a statistical evaluation.

Diplomarbeitsposter Wallner Matthias

Matthias Wallner

Masterstudium Medieninformatik
Abstract:

Die vorliegende Arbeit befasst sich mit Optical Music Recognition (OMR), einer Methode zur Überführung von Musiknoten in eine digitale Form, sowie deren akustischer Wiedergabe. Basierend auf einem Softwareprototyp, der für den Betrieb auf Mobiltelefonen entwickelt wurde, wird das Verfahren im Detail präsentiert und verwandten Systemen gegenüber gestellt. Im Mittelpunkt stehen im Wesentlichen die Bereiche Bildverarbeitung und Mustererkennung sowie Audiosynthese, wobei Erfahrungen und Forschungsergebnisse auf dem Gebiet der OMR selektiert für die Entwicklung des Prototypen herangezogen wurden. Im Besonderen stützt sich das Framework auf projektions-basierte Methoden, womit bereits in den 1980er Jahren beachtliche Ergebnisse erzielt wurden. Stellvertretend dafür ist die Arbeit von I. Fujinaga zu nennen, die einen wesentlichen Bezugspunkt für diese Diplomarbeit darstellt. Die relative Einfachheit der Umsetzung und der für die Anwendung auf mobilen Endgeräten ideale Tradeoff zwischen Erkennungsrate und rechnerischem Aufwand stellen einen großen Vorteil gegenüber anderen Methoden dar, die ihrerseits in dieser Arbeit anhand der ihnen zugrunde liegenden Techniken gegenüber gestellt werden werden. Die Erkennung der Musiksymbole wird mittels einfacher Algorithmen der Mustererkennung, konkret Template Matching, bewerkstelligt, wobei das Ergebnis mittels MIDI-Synthese in ein für Menschen hörbares Resultat umgewandelt wird. Während bereits leistungsfähige OMR-Systeme für die Nutzung mit Personal Computer existieren, steckt die Notenerkennung auf mobilen Geräten noch in ihren Kinderschuhen. Unter Zuhilfenahme bekannter und einschlägig erprobter Verfahren bietet die Diplomarbeit einen spielerischen Einstieg in das Gebiet der optischen Notenerkennung.

Arbeitsbereich Business Informatics

Diplomarbeitsposter Basic Becir

Becir Basic

Masterstudium Software Engineering & Internet Computing
Abstract:

EMF Profiles is an adaptation of the well-known Unified Modeling Language (UML) profile concept to Domain Specific Modeling Languages (DSML). Profiles have been a key enabler for the success of UML by providing a lightweight language-inherent extension mechanism which is expressive enough to cover an important subset of adaptation scenarios. Thus, we believe a similar concept for DSMLs provides an easier extension mechanism that has been so far neglected by current metamodeling tools. The Profile mechanism is based on a profile definition comprised of stereotype definitions. Stereotypes are used to annotate model elements in order to refine their meta-classes by defining supplemental information in form of additional meta attributes, also known as tag definitions. Instances of tag definitions are known as tagged values and they are used for the provision of new informations to existing models. With EMF Profiles, users can apply profiles within graphical modeling editors that are created using the Graphical Modeling Framework (GMF). Applied stereotypes are visualized using icons that are attached to shapes that represent the model elements to which stereotypes are applied. However, in many scenarios, visualization methods going beyond simple icons are helpful for locating and grasping the applied stereotypes and to allow for more domain-specific decorations according to the domain of the applied profile. For instance, highlighting a shape by a specific background color or enriching the shape with adornments and informations from a stereotype application reflects the meaning of the stereotype application more adequately than a simple icon. This thesis aims at providing decoration methods for applied stereotypes in EMF Profiles going beyond simple icons.

Diplomarbeitsposter Madner David

David Madner

Masterstudium Business Informatics
Abstract:

Cloud computing had and still has a major impact on how applications are made accessible for the users. Due to the advantages cloud computing has, there is a demand to migrate applications to the cloud. Unfortunately there does not exist general guidelines how to define the required application execution environments and deployment requirements so that they can be interpreted by any arbitrary cloud provider. In the last years, cloud providers came up with approaches to be able to describe cloud resources in form of an interpretable template. In November 2013, OASIS published the open standard TOSCA, which aims to unite existing proprietary approaches and standardise them. Approaches following a declarative way of describing cloud resources are quite recent and are extended frequently, as it is a promising possibility of illustrating complex dependencies and limitations of computing resources in a way that can be read by human beings as well. This thesis firstly discusses model driven engineering and cloud computing separately and afterwards, how they can be combined. The main aim is to create a model that contains enough information about dependencies, limitations and application specific requirements, which can support the migration of the application to the cloud. Furthermore, the master's thesis proposes a process, which is subdivided into two parts: Deployment and Provisioning. The first step is about creating UML models and refining them with cloud computing specific attributes. The second step converts the model into a template in order to be interpretable and executable by cloud providers. Existing solutions only address partial aspects of the whole problem, focusing on other objectives. One of the main goal of this thesis is the creation of a unified and model-based solution, whose processes and tools support the application modeler and make a (semi-)automatic execution of the deployment and provisioning of an application in the cloud possible.

Andere Institute der Technischen Universität Wien

Institut für Wirtschaftsmathematik

Diplomarbeitsposter Richter Daniel

Daniel Richter

Masterstudium Business Informatics
Abstract:

Ungarn war eine der vielversprechendsten Länder in Osteuropa nach dem Regimewechsel in 1989. Als ein postkommunistisches Land, das sich bereits dem Westen annäherte und seit 1968 eine normative Regulierung einführte, hatte es die besten Voraussetzungen in seiner Vergleichsgruppe für einen geschmeidigen Übergang zur Marktwirtschaft, ohne dabei den Abstand zu den westlichen Ökonomien zu groß werden zu lassen. Trotz der günstigen Ausgangslage fiel Ungarn Anfang der 90er Jahre in eine Rezession. Das Land kämpfte mit steigenden Schulden, hoher Inflation und mit einer wachsenden Arbeitslosigkeit, die bis heute besteht. Diese Diplomarbeit erörtert die theoretischen Grundlagen für ein generelles Verständnis von makroökonomischen Modellen und diskutiert die verschiedenen Aspekte einer kritischen Volkswirtschaftspolitik. Um die Schlüsselindikatoren der Ungarischen Volkswirtschaft zu evaluieren, wird ein makroökonomisches Modell angewendet, das die monetären Flüsse zwischen Agenten einer geschlossenen Ökonomie beschreibt. Das angepasste Modell wird analysiert und diskutiert. Anschließend wird eine dynamische Simulation ausgeführt, um die volkswirtschaftlichen Indikatoren für die nächsten fünf Jahre zu berechnen.

Diplomarbeitsposter Rohringer Markus

Markus Rohringer

Masterstudium Business Informatics
Abstract:

The rather unexpected emergence of the still ongoing economic crisis has shown that not only the economic system itself has its flaws, but also that the equilibria-based models to describe it are insufficient. Evolutionary economics is an alternative approach that allows (economic) evolution and revolution in the development of its models and is therefore believed to describe the real world much more appropriate. However, there are still a lot of open questions on how to model the emergence of novelty - new elements that lead to progress - in such frameworks. Innovation is an undeniable force regarding economic growth, but it is obviously impossible to predict which concrete innovations will be implemented in the future. What can be done though is to create a general mechanism within the model that is able to generate new abstract elements which then again influence the model itself. One possible way of doing this, as it is often the case in real world innovations, is using old elements and recombine them to create new ones. The agent-based model that will be implemented with this work will use this approach to demonstrate how it can be utilized to define how producers choose their new products, how they recombine production processes and how they can test their products on the market.

Institut für Managementwissenschaften

Diplomarbeitsposter Fiby Anja Carolin

Anja Carolin Fiby

Masterstudium Business Informatics
Abstract:

In den letzten Jahrzehnten fand ein Wandel hin zu höherer Flexibilität in den industrialisierten Wirtschaftregionen statt. Um wettbewerbsfähig zu bleiben, mussten Unternehmen ihre Strukturen, Prozesse und Arbeitsbedingungen anpassen. Deshalb wurden auch flexible Arbeitsverhältnisse, die durch neuartige Technologien ermöglicht und unterstützt werden, immer häufiger eingesetzt. Folglich waren etablierte Befehls- und Kontrollmechanismen nicht mehr ausreichend. Darum nahm die Bedeutung von Vertrauen im Unternehmen zu. Bis jetzt wurde Vertrauen im Zusammenhang mit der Flexibilisierung von Arbeit noch nicht ausreichend erforscht. Deshalb ist es das Ziel dieser Arbeit eine Antwort auf die folgende Forschungsfrage zu finden: Welche Auswirkungen hat Vertrauen in Unternehmen auf die Arbeitsleistung von Angestellten in flexiblen Arbeitsverhältnissen? Dafür wurde eine empirische Studie im deutschsprachigen Raum durchgeführt, welche den Zusammenhang von Flexibilität des Arbeitsverhältnisses, Nutzung von Technologien, individuell wahrgenommenes Vertrauen und individuelle Arbeitsleistung untersucht. Die Ergebnisse zeigen, dass das individuell wahrgenommene Vertrauen, genauer gesagt Vertrauen in den Vorgesetzten bzw. die Vorgesetzte, einen positiven Effekt auf die individuelle Arbeitsleistung hat. Im Gegensatz dazu ist der Einfluss der Flexibilität des Arbeitsverhältnisses auf die individuelle Arbeitsleistung weniger klar. Deshalb wurde die Flexibilität des Arbeitsverhältnisses als Moderator der Beziehung zwischen Vertrauen und Arbeitsleistung untersucht. Es zeigte sich, dass die Möglichkeit der räumlichen Flexibilität einen positiven Moderatoreffekt hat, wohingegen Anforderungen an räumliche und zeitliche Flexibilität einen negativen Moderatoreffekt aufweisen.

Diplomarbeitsposter Karami Mehrnoush

Mehrnoush Karami

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

In einem dezentral organisierten Unternehmen mit mehreren Geschäftsbereichen, hat sich der RORAC (Return On Risk-Adjusted Capital) als wirkungsvolles Werkzeug zur Rentabilitätsmessung erwiesen. Unter Anwendung des Buch-Dorfleitner-Wimmer Modells kann der unternehmensweite RORAC optimiert werden. Anschließend können mit Hilfe des optimierten RORAC die optimalen Investitionen in den jeweiligen Geschäftsbereichen ermittelt werden. Das Buch-Dorfleitner-Wimmer Modell stellt ein statisches Ein-Perioden-Modell zur Optimierung dar. Da das Risikokapital an die Höhe des Eigenkapitals gekoppelt ist, ist es im Betrachtungszeitraum konstant. Im Modell wird das Eigenkapital theoretisch als unlimitiert angesehen. Es gibt vor, dass das Risikokapital durch Eigenkapital des Unternehmens abgedeckt werden muss. In der vorliegenden Arbeit werden dezentral organisierte Unternehmen mit mehreren Geschäftsbereichen untersucht. Das Buch-Dorfleitner-Wimmer Modell wird anschließend von einer ein-periodischen in eine mehr-periodische Betrachtungsweise überführt. Zusätzlich wird eine Finanzierungsrestriktion des Investitionskapitals berücksichtigt. Mit dem optimierten RORAC wird unter der Bedingung, dass das Eigenkapital gleich dem Risikokapital (EK=RK) ist, die Passiv-Seite der Bilanz für weitere Finanzierungsentscheidungen der kommenden Periode angepasst. Die Aktiv-Seite wird der Passiv-Seite der Bilanz gegenüber gestellt. Hierzu wird eine Simulationsstudie erstellt, die versucht den jeweiligen Geschäftsbereich zu optimieren. Im Zuge dieser Simulation werden 10.000 Unternehmen modelliert, die auf den oben genannten mathematischen Grundsätzen und Nebenbedingungen beruhen. Als Ergebnis soll die Entwicklung des Eigenkapitals und die Ausfallswahrscheinlichkeit der Unternehmen in der dynamischen Betrachtung dargestellt und analysiert werden.

Diplomarbeitsposter Tugan Gülsüm

Gülsüm Tugan

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Call centers (CC) have grown in importance and seen their roles change during the last decade with the industry as a whole growing in developed markets. Beyond customer satisfaction, call center agents’ (CCA) satisfaction and performance have become more important. Information technology (IT) is one of the key factors that affect this relationship. Moreover, the determinants of the acceptance of IT also have a crucial importance for future IT usage in these organizations. The aim of this master thesis is to find out the factors that determine behavioral intention to use the IT in CCs. The usage of an IT tool, which is called the IPM Snapshot, has been tested in this study. The study examines the influences of task-technology fit, perceived usefulness, perceived ease of use, subjective norms, perceived behavioral control and attitude towards usage on behavioral intention to use the technology. In order to explain the influences of these factors and the relationships between them and to build a model, a comprehensive literature study has been reviewed. The model has been created by interpreting different technology acceptance theories, namely technology acceptance model (TAM), theory of planned behavior (TPB) and task-technology fit model (TTF). To test the integrated study model, a questionnaire to survey CCAs was prepared. With the assessment of the reliability and validity of the questions, 16 of 32 measurements were successfully obtained. Using factor analysis, 16 questions were grouped under 6 distinct factors of the study model. Based on the responses from 29 agents, the final model was evaluated in terms of overall fit, explanatory power with path analysis and the relationships between the factors. The final model was then analyzed with seven hypotheses. Based on the conclusions, the results the final model of the study and its limitations were discussed and possible directions for future studies were suggested

Institut für Automatisierungs- und Regelungstechnik

Diplomarbeitsposter Suchi Markus

Markus Suchi

Masterstudium Computational Intelligence
Abstract:

Die Fähigkeit in dynamischen Umgebungen zu navigieren ist eine wesentliche Funktion für mobile Roboter. Um eine sichere Fahrt zu garantieren, wird die Navigation in zwei Schritte aufgeteilt - globale und lokale Planung. Ein globaler Planer findet anhand einer Karte einen Weg zum gewünschten Ziel. Dieser Weg fungiert als Orientierungshilfe für eine lokale Planungskomponente. Der lokale Planer verwendet unter Berücksichtigung der aktuellsten Sensormessungen lokale Informationen und Strategien zur Kollisionsvermeidung um sicher der Orientierungshilfe so exakt wie möglich zu folgen. Effektive lokale Planer wie Dynamic Window Approach (DWA) basieren auf einem Sampling des Controlspace des Roboters. Für einen kurzen Zeitraum wird die Applikation von Steuerwerten simuliert und die resultierenden Trajektorien generiert. Mit einer Kostenfunktion werden die Trajektorien gewichtet und die Steuerwerte der besten Trajektorie and die Motorsteuerung weitergeleitet. Das Ziel dieser Arbeit ist eine Analyse und Verbesserung der Leistung von lokalen Planern durch Einsatz bekannter metaheuristischer Algorithmen bei der Selektion der Trajektorien. Zu diesem Zweck wird eine Einführung zu lokalen Planungsmethoden präsentiert, gefolgt von einer Diskussion zu Metaheuristiken. Die Ansätze basierend auf Iterated Local Search, Variable Neighborhood Search und Tabu Search werden implementiert und mit einem einfachen Planer getestet. Die Resultate zeigen eine signifikante Verbesserung der Leistung verglichen mit der Brute-Force-Methode, die üblicherweise bei dieser Art lokaler Planung verwendet wird. In weiterer Folge wird der VNS Ansatz gewählt um den Selektionsprozess in einer existierenden Implementierung von lokalen Planern zu ersetzen. Algorithmen basierend auf Trajectory roll-out (VNS-ROL) und DWA (VNS-DWA) werden entwickelt und mit einer Simulationsoftware evaluiert. Die Leistung der adaptierten Planer übertrifft dabei die ursprünglichen Implementierungen in allen Testszenarien.

In Zusammenarbeit mit anderen wissenschaftlichen Einrichtungen

Medizinische Universität Wien

Diplomarbeitsposter Egger-Sidlo Georg

Georg Egger-Sidlo

Masterstudium Medizinische Informatik
Abstract:

Schwere, andauernde, teils unheilbare Erkrankungen stellen für betroffene Menschen einen drastischen Einschnitt in ihrem Leben dar. Nach der initialen ärztlichen Diagnose verläuft die Abfolge von teuren Krankenhausaufenthalten und Aufenthalten zu Hause in immer enger werdenden Zyklen. Die oftmals nicht optimale ärztliche Obsorge zu Hause in Kombination mit fortschreitendem Krankheitsstadium bedingen dies. Zusätzlich gilt es für die Patientinnen und Patienten eine Vielzahl neuer Herausforderungen zu meistern. Diese Tatsachen bergen ein großes Potential der Überforderung und können eine weitere Reduktion der Lebensqualität bedingen. Eine Intensivierung der ärztlichen ambulanten Versorgung scheint die logische Konsequenz, wobei eine Dauerversorgung vor Ort durch medizinisches Personal in Hinblick auf Umsetzbarkeit unrealistisch ist. Die Verbesserung der Versorgungssituation kann durch den Einsatz von Telemedizin erreicht werden. Im Zuge eines User Centered Design Prozesses wurden in Zusammenarbeit mit Ärzten und Patienten die Anforderungen, das Konzept und eine initiale prototypische Umsetzung eines patientenzentrierten Telemonitoring Systems zur Verbesserung der Kommunikation und Dokumentation im Bereich der mobilen Versorgung von Schwerkranken entwickelt. Während unser Prototyp einen ersten Einblick in eine mögliche Umsetzung der Dokumentation und des Monitoring aus Sicht des Patienten gibt, liefern die gesammelten Anforderungen einen Gesamtüberblick für ein entsprechendes System. Die in dieser Arbeit gewonnenen Erkenntnisse bilden eine Basis für künftige Entwicklungen auf dem Gebiet der telemedizinischen mobilen Betreuung, wobei die Kommunikation mittels neuer Medien zwischen Arzt und Patient von besonderer Bedeutung ist.

Diplomarbeitsposter Matej Stefan

Stefan Matej

Masterstudium Medizinische Informatik
Abstract:

Schwere, andauernde, teils unheilbare Erkrankungen stellen für betroffene Menschen einen drastischen Einschnitt in ihrem Leben dar. Nach der initialen ärztlichen Diagnose verläuft die Abfolge von teuren Krankenhausaufenthalten und Aufenthalten zu Hause in immer enger werdenden Zyklen. Die oftmals nicht optimale ärztliche Obsorge zu Hause in Kombination mit fortschreitendem Krankheitsstadium bedingen dies. Zusätzlich gilt es für die Patientinnen und Patienten eine Vielzahl neuer Herausforderungen zu meistern. Diese Tatsachen bergen ein großes Potential der Überforderung und können eine weitere Reduktion der Lebensqualität bedingen. Eine Intensivierung der ärztlichen ambulanten Versorgung scheint die logische Konsequenz, wobei eine Dauerversorgung vor Ort durch medizinisches Personal in Hinblick auf Umsetzbarkeit unrealistisch ist. Die Verbesserung der Versorgungssituation kann durch den Einsatz von Telemedizin erreicht werden. Im Zuge eines User Centered Design Prozesses wurden in Zusammenarbeit mit Ärzten und Patienten die Anforderungen, das Konzept und eine initiale prototypische Umsetzung eines patientenzentrierten Telemonitoring Systems zur Verbesserung der Kommunikation und Dokumentation im Bereich der mobilen Versorgung von Schwerkranken entwickelt. Während unser Prototyp einen ersten Einblick in eine mögliche Umsetzung der Dokumentation und des Monitoring aus Sicht des Patienten gibt, liefern die gesammelten Anforderungen einen Gesamtüberblick für ein entsprechendes System. Die in dieser Arbeit gewonnenen Erkenntnisse bilden eine Basis für künftige Entwicklungen auf dem Gebiet der telemedizinischen mobilen Betreuung, wobei die Kommunikation mittels neuer Medien zwischen Arzt und Patient von besonderer Bedeutung ist.