EPILOG Sommersemester 2019

Auszeichnungen

Ausgestellte Arbeiten

Institut für Institute of Computer EngineeringE191

Arbeitsbereich Research Division of Cyber-Physical Systems

Diplomarbeitsposter Lung David

David Lung

Masterstudium Software Engineering & Internet Computing
Abstract:

With a completely mapped connectome and a sequenced genome, the nematode C. elegans is the world's best understood animal. Nevertheless, how the dynamics of single cells and interactions with coupled cells give rise to high-level behavior, like locomotion, is poorly understood. It is the high number of not yet known parameters of the nervous system leading to various hypotheses about how a certain behavior gets induced. In this work, we introduce a new, biologically grounded, neural circuit model, responsible for generating coordinated muscle activity leading to forward-crawling locomotion of C. elegans. The model incorporates a subset of neurons of the nervous system of C. elegans, known to be involved in forward locomotion, and body-wall muscles. Neurons and muscles are modeled as single-compartmental cells, with the soma as the only compartment. Their membrane potential dynamics are governed by a modified version of the Hodgkin-Huxley model, describing how the membrane potential changes over time based on ionic currents flowing across the membrane. We implement our new model within the OpenWorm platform, to simulate the nervous system and the body of the worm, and show that our model is able to create forward crawling movement of a simulated worm inside a bounded environment. To help scientists to design their own in silico experiments using OpenWorm, we create a Docker image containing a pipeline of tools to run the simulations. The generated worm behavior data can be used to validate the underlying model of the experiment, by statistically comparing the data with data extracted from videos of real worms.

Arbeitsbereich Research Division of Automation Systems

Diplomarbeitsposter Schäffer Markus

Markus Schäffer

Masterstudium Business Informatics
Abstract:

Recently, the blockchain paradigm has become an inspiration for additional applications next to cryptocurrencies. One type of such applications are smart contracts, i.e. programs which are executed on a blockchain network and move digital assets according to arbitrary pre-specified rules. Utilizing the combination of cryptographically secure mechanisms of a blockchain and the possibility to execute programs on a blockchain network results in promising use cases for the public and the private sector. In contrast to a public smart contract platform, a private version allows to configure some blockchain-specific parameters when setting up the system. Examples of these parameters are the time passing between two consecutive blocks, the size of blocks, the hardware of the nodes running the blockchain software or simply the size of the network. However, how these and other parameters of a private Ethereum smart contract platform affect the performance of the system is still poorly understood. Moreover, it is not clear to which extent these parameters scale and which parameters represent the bottleneck of such systems. In order to tackle this problem, this thesis introduces a novel concept for measuring the performance and scalability of private Ethereum smart contract platforms. This concept is practically implemented in a framework which allows to automatically deploy differently configured private Ethereum smart contract platforms on the cloud for the purpose of gathering performance-related data. Based on the gathered data, various charts were created which visualize the effects on performance when changing a specific parameter. The results of the data analysis conducted show that the effect of variations in one parameter is highly dependent on the configuration of other parameters as well, especially when running the system near its limits. Nevertheless, a structure which depicts the bottlenecks of current private Ethereum smart contract platforms has been identified.

Arbeitsbereich Research Division of Parallel Computing

Diplomarbeitsposter Kainer Michael

Michael Kainer

Masterstudium Software Engineering & Internet Computing
Abstract:

Das Single-Source Shortest Path Problem ist eines der am häufigsten untersuchten Probleme in der Informatik. Allerdings ist das Problem dafür bekannt enorm schwierig parallelisierbar zu sein. Dies liegt vor allem an dem sogenannten Transitive Closure Bottleneck. 1998 wurde ein Algorithmus namens Δ-Stepping vorgeschlagen um das Single-Source Shortest Path Problem zu parallelisieren. Dieser Algorithmus hat als Basis für eine Reihe von zusätzlicher Forschung im Bereich solcher Algorithmen gedient und zählt heute als der Standardalgorithmus zum Parallelisieren des Single-Source Shortest Path Problems. Eine weitere Idee das Single-Source Shortest Path Problem zu parallelisieren wurde von Crauser et al., ebenfalls 1998, publiziert. Diese Idee hat allerdings nie viel Aufmerksamkeit erlangt und ist aus heutiger Sicht nicht mehr sehr bekannt. Das Ziel dieser Arbeit ist es zu evaluieren ob diese Idee eine mögliche Alternative für Δ-Stepping darstellt. Des Weiteren werden verschiedene Möglichkeiten betrachtet diesen Lösungsansatz zu erweitern. Um diese Ziele zu erreichen werden zuerst die Algorithmen eingeführt, danach werden sie als korrekt bewiesen und letztendlich implementiert. Simulationen haben ergeben, dass die vorgeschlagenen Erweiterungen der original Formulierung des Algorithmus die Anzahl an Phasen um einiges reduziert und daher zu einer theoretischen Verbesserung des Algorithmus führt. Leider konnte keine effiziente Implementierung dieser Verbesserungen gefunden werden und daher konnte diese theoretische Verbesserung nicht in die Praxis umgesetzt werden. Nichtsdestotrotz hat sich herausgestellt, dass der original Algorithmus von Crauser et al. eine ausgezeichnete Performance im Vergleich zu Δ-Stepping aufweist und daher als Alternative dazu gesehen werden kann.

Institut für Institute of Logic and ComputationE192

Arbeitsbereich Research Division of Algorithms and Complexity

Diplomarbeitsposter Maleki Hanif

Hanif Maleki

Masterstudium Computational Intelligence
Abstract:

This thesis considers the Deletion Into Small Components problem, which given an undirected graph G and an integer c , asks for a set D of vertices of G having minimum size such that every component of G\D has size at most c. The problem has long been known to have applications for measuring the vulnerability of computer networks and has recently found applications in AI Planning and Integer Linear Programming. Since the problem is NP-complete it is a challenging problem to design algorithms that are efficient on real-world instances. In this thesis the development and implementation of efficient algorithms, such as exact and heuristic algorithms, for this problem are presented. Our main contributions are the development and implementation of three exact algorithms and four heuristic algorithms for the problem. In particular, w.r.t. exact algorithms, we implement and improve upon a known fixed-parameter algorithm and develop and implement a SAT-encoding and an ILP-encoding for the problem. Concerning heuristic algorithms, we introduce two novel heuristics for the computation of lower bounds and one greedy algorithm for the computation of upper bounds. Finally, we implement a novel heuristic algorithm that allows the computation of lower bounds and upper bounds and is based on splitting the instance, using so-called balanced separators, into smaller sub-instances that are admissible for an exact method. Our experiments show that our exact algorithms are able to solve graphs with medium size (up to 200 vertices), the proposed separator based algorithm can solve the graphs with large size(up to 2000 vertices) and other heuristics performs well on very large graphs (up to 10000 vertices). Finally, it can be clearly observed that the relative performance of the various algorithms depends strongly on the respective structural properties of instances, which means that for almost every algorithm there are instances on which the algorithm performs best.

Diplomarbeitsposter Windbichler Andreas

Andreas Windbichler

Masterstudium Computational Intelligence
Abstract:

Air traffic is continuously increasing, and so is the airway network and the restrictions controlling the flow. As a result computing the most efficient trajectory, which is a subproblem of flight planning, gets harder. This brings currently used algorithms to their limit. We present a detailed problem definition which comes, to our knowledge, closer to actual real-life scenario than any other in the literature. We extend a widespread approach based on Dijkstra’s algorithm, which we embedded in a process to cope with Air traffic control restrictions. For all restrictions whose application can be decided based on the instance, we are adapting the graph such that those restrictions are already respected. All other restrictions are evaluated lazily and subsequently avoided, resulting in an iterated process, returning the optimal result for our assumptions. However, because of the underlying algorithm, it is hard to extend, and the number of restrictions has a significant influence on the runtime. Therefore, we propose a heuristic method, with the goal to overcome those shortcomings. We make use of the fact that during the lifetime of a flight, the trajectory needs to be calculated several times. We use those trajectories and iteratively adapt them, to fit the changed situation best. If a solution violates a restriction, it will reflect negatively in its quality. An additional heuristic allows to preliminary determine that for a given path exists an altitude profile that does not violate any restrictions, which allows us to exclude this path from the search. In our tests, the heuristic approach reached within a few iterations the same result as the optimal method, but within significantly less computation time. We reached speedups up to 10x and expect the margin to grow further with a growing number of restrictions. Additionally, we already considered necessary extensions in the choice of our algorithm which are necessary during flight planning.

Institut für Institute of Visual Computing and Human-Centered TechnologyE193

Arbeitsbereich Research Division of Computer Vision

Diplomarbeitsposter Schraml Gerhard

Gerhard Schraml

Masterstudium Software Engineering & Internet Computing
Abstract:

The amount of sensitive data processed by enterprise applications is constantly increasing. Simultaneously, a growing number of users of these applications can be observed. Thus it is necessary to provide means for efficiently managing access control to sensitive data. Fine-Grained Data Access Control and Attribute Based Access Control are new concepts assisting with fulfilling this requirement. The complexity of access control reaches an even higher level, if database structure and authorization rules are not known at application design time. A proposed prototype system in the field of Sustainable Non-Bureaucratic Government aids as a decision criterion for which technologies can be used to implement Dynamic Fine-Grained Data Access Control. Virtual Private Database is a feature provided by Oracle Database that is successfully utilized in the prototype system to build a dynamic access control aware application. The application supports its own alteration during runtime by means of democratic collaborative decision making of the users. In a comparison with an existing prototype system it is shown that it is possible to replicate the feature set of Dynmic Fine-Grained Data Access Control using Virtual Private Database. In contrast, it is found that it is not possible to integrate standardized access policy definition with the prototype using the eXtensible Access Control Markup Language.

Diplomarbeitsposter Winkler Gernot

Gernot Winkler

Masterstudium Visual Computing
Abstract:

Bienen sind ein wichtiger Bestandteil von Wirtschaft und Umwelt. In den letzten Jahren wurden Bienenstöcke durch Parasiten und anderen Umweltfaktoren bedroht. Aus diesem Grund steigt das Interesse Bienenstöcke automatisch zu überwachen. Mit Hilfe von Videodaten kann so eine Überwachung durchgeführt werden. Diese Arbeit stellt eine Lösung vor, um alle Bienen am Eingang des Stocks gleichzeitig zu tracken und zu zählen, während sie durch eine künstliche Eingangsstruktur gehen. Unter der Verwendung der HSV- und HSL-Farbmodelle kann mit Hilfe von Mathematischer Morphologie eine genaue binäre Segmentierung erreicht werden. Durch Anwendung des K-Means Algorithmus können Cluster von Bienen getrennt werden und das Problem auf Tracking einzelner Bienen vereinfacht werden. Als Ergebnis der Zählung wird eine Fehlerrate von 6.86% auf Extremdaten mit einer Bildrate von rund 67 Bildern pro Sekunde auf einem Desktop-PC erreicht. Vier Datensätze, die mit drei verschiedenen Kameramodellen aufgenommen wurden, werden evaluiert. Ein Langzeittest, welcher Aufnahmen über einen Zeitraum von einer Woche (insgesamt 73 Stunden Videodaten) durchläuft, demonstriert die praktische Anwendbarkeit der Methode.

Diplomarbeitsposter Wittmann Andreas

Andreas Wittmann

Masterstudium Visual Computing
Abstract:

Um Fahrassistenzsysteme zu verbessern und um vollständiges autonomes Fahren zu ermöglichen, ist eine automatische, robuste semantische Interpretation von Straßenszenen notwendig. Jüngste Publikationen erzielten bemerkenswerte Ergebnisse im Bereich semantischer Segmentierung mittels Deep Learning. Die Berechnung von Neuronalen Netzen ist jedoch rechenintensiv. Klassische Machine Learning Ansätze können diesen Rechenaufwand verringern und zusätzlich die Komplexität der Algorithmen reduzieren. In dieser Diplomarbeit geben wir zunächst einen umfassenden Literaturüberblick über bestehende, klassische Machine Learning Ansätze zur semantischen Szenensegmentierung. Der Schwerpunkt liegt dabei auf Ansätzen, die sich mit der semantischen Segmentierung von Straßenszenen befassen. Des Weiteren vergleichen wir pixelweise annotierte, frei verfügbare Straßenszenendatensätze, die für das Trainieren und Evaluieren von semantischen Segmentierungsalgorithmen verwendet werden können. Im Hauptteil der Arbeit beschreiben wir die Entwicklung und Implementierung unseres Systems für semantische Szenensegmentierung. Wir implementieren zwei textur- und kontext-basierte Features, welche on-the-fly in einem Random Forest berechnet werden. Wir evaluieren ausführlich den Einfluss der einzelnen Featureparameter und Random Forestparameter auf die Segmentierungsergebnisse und vergleichen die Performance beider Features. Unsere Ergebnisse zeigen, dass texturbasierte Features, welche in semantisch unzusammenhängenden Kontextbereichen zur Klassifizierung von Pixeln betrachtet werden, nicht ausreichend Information beinhalten, um kleine Objekte in anspruchsvollen Straßenszenen robust zu erkennen. Wir kommen zu dem Schluss, dass durch das Extrahieren zusätzlicher Features und einer Vorsegmentierung des Bildes in zusammenhängende Kontextbereiche die Klassifizierungsergebnisse vermutlich verbessert werden könnten.

Arbeitsbereich Research Division of Computer Graphics

Diplomarbeitsposter Donabauer Johanna

Johanna Donabauer

Masterstudium Visual Computing
Abstract:

Treten Überflutungen auf, zählt für das zuständige Personal jede Sekunde um Menschenleben zu retten und Gebäudeschäden zu minimieren. In der Vergangenheit haben bereits viele verschiedene Trainingsbereiche Virtual Reality (VR) für sich entdeckt. Dadurch sollen Trainingsszenarien flexibler gestaltet und Kosten und Zeit gespart werden können. Zusätzlich können VR Applikationen zur Öffentlichkeitsarbeit eingesetzt werden, um das Bewusstsein zu stärken. Ziel dieser Arbeit ist die Entwicklung einer VR Applikation, um eine entfernte Überflutungssimulation zu steuern. Dadurch kann eine sichere und realistische Trainingsumgebung für das Personal geschaffen werden. Mit Hilfe verschiedener Szenarien können unterschiedliche Überflutungssituationen simuliert und trainiert werden. Um eine Überflutung zu verhindern/mildern, können Schutzmaßnahmen gesetzt werden. Diese werden im weiteren Simulationsverlauf berücksichtigt. Durch einen Operator-Trainee Aufbau können auch zwei Personen gemeinsam an einem Schutzplan arbeiten. Ein Experte arbeitet als Operator am PC, der/die Auszubildende erhält von diesem Instruktionen und erledigt die Aufgaben in der virtuellen Welt. Um ein immersives VR Erlebnis zu bieten und eine schnelle Überflutungssimulation durchzuführen, müssen sowohl Leistungs- als auch PC Hardwareanforderungen erfüllt werden. Aus diesem Grund wird bei der implementierten VR Applikation auf eine Client-Server Architektur zurückgegriffen. Der Server ist für die Simulation zuständig und der Client kümmert sich um die Visualisierung der Simulationsdaten in VR, sowie die schnelle und effiziente Verarbeitung der Daten. Zusätzlich wird auf eine leistungsstarke Rendering Engine zurückgegriffen und mit optimierten Grafikbefehlen kombiniert. Die Evaluierung dieser Arbeit basiert auf der Messung der erreichten Wiedergabegeschwindigkeit, da diese maßgeblich für ein immersives VR-Erlebnis ist. Dafür werden zwei unterschiedliche Implementierungsstrategien verglichen.

Diplomarbeitsposter Hernadi Laszlo Andras

Laszlo Andras Hernadi

Masterstudium Software Engineering & Internet Computing
Abstract:

Diese Arbeit beschäftigt sich mit den unterschiedlichen Frameworks um auf Grafikkarten (General Purpose Graphics Processing Units (GPGPUs)) Programmcode auszuführen. Auf der einen Seite können CPUs durch Anpassung der Reihenfolge von auszuführenden Befehlen kürzere Laufzeiten erreichen. Auf der anderen Seite bieten GPGPUs ein unerreichtes Maß an paralleler Ausführung von Code. Diese Arbeit gibt einen Überblick über high-level Frameworks wie OpenMP und mid-level Frameworks wie CUDA. Um die Wahl eines der zahlreichen Frameworks zu erleichtern, berücksichtigt diese Arbeit Aspekte der Lesbarkeit, Anzahl der Änderrungen von Codezeilen und nicht zuletzt auch die Leistung. Für Personen die schon eine Nvidia Grafikkarte besitzen wird CUDA empfohlen, nicht zuletzt auch wegen der Entwicklungsumgebung (IDE). Für kleinere C / C++ oder Fortran Projekte, bei denen Lesbarkeit wichtiger ist als Geschwindigkeit, wird OpenMP oder OpenACC empfohlen. Diese Frameworks bieten auch die Möglichkeit Code auf GPGPUs auszuführen. Für Java Projekte mit hoher Daten-Parallelität wird aparapi empfohlen, welches aus java Klassen OpenCL Code generieren und diesen auf der GPGPU ausführen kann. Weiters wird auf Vorteile und Nachteile der Frameworks eingegangen, und häufige Stolpersteine beschrieben, sowie Hinweise zur Auswahl eines Frameworks angeboten. Um den Code unterschiedlicher Frameworks zu veranschaulichen, werden Matrix Matrix Multiplikationen und sparse Matrix Vektor Multiplikationen gezeigt. Zusätzlich werden die Geschwindigkeiten auf unterschiedlicher Hardware verglichen.

Diplomarbeitsposter Prost Lukas

Lukas Prost

Masterstudium Visual Computing
Abstract:

Photometric area light sources are modeled after real-world luminaires and are used in lighting design to accurately simulate lighting. An accurate evaluation of their illumination can be computed with offline global-illumination algorithms. However, such algorithms take time to compute a solution. Therefore, real-time approximations are required to enable an interactive lighting-design workflow. However, currently used techniques are prone to errors when the light source is close to illuminated objects. In this thesis, we present a new technique to approximate photometric area lights in real time. This new technique is based on combining two sampling strategies that are currently used in game engines to approximate the illumination from diffuse area lights. Our technique samples the photometric area light with this combined sampling strategy and then computes the illumination with a cubature technique based the Delaunay triangulation. To do this in real time, we implemented our method on the GPU and developed a compact triangle data structure that enables an efficient generation of a Delaunay triangulation. The result of this thesis is a new technique for photometric area lights that creates visually plausible approximations in real time when the light source is close to illuminated objects.

Arbeitsbereich Research Division of Multidisciplinary Design

Diplomarbeitsposter Blattner Jakob Michael

Jakob Michael Blattner

Masterstudium Medieninformatik
Abstract:

The aim of this thesis is to design, implement and evaluate a haptic, non-collaborative user interface with tangible input. The resulting system is intended to assist the user in composing music while at the same time analogously generating the sounds produced by a mechanical component on which guitar strings are mounted. The system was developed primarily for people without prior musical knowledge. For this reason, a comprehensive literature research was carried out, through which the authors acquired knowledge in various topics. These include the area of user interfaces, user interface design, feedback, music combined with technology and mechanical music production. In order to deepen this knowledge and to include the opinions of specialists, interviews with experts from the affected areas were held. The acquired knowledge was implemented in an iterative design process. The mechanical component of the system was implemented without the assistance of users, since the fulfillment of technical benchmarks was sufficient here. The system component, which has direct contact with the users via the user interface, was implemented in a selected iterative and user-centered design process. Various research methods were used in this process, such as sketches, wireframes, mockups, personas and above all user tests. In these user tests, the current state of the system was checked to find out if the interface allows the user to produce well-sounding music and to sufficiently support it. The results of the study show that the chosen approach forms a promising basis that needs further development in additional iterative design cycles.

Diplomarbeitsposter Kamper Raphael

Raphael Kamper

Masterstudium Medieninformatik
Abstract:

The aim of this thesis is to design, implement and evaluate a haptic, non-collaborative user interface with tangible input. The resulting system is intended to assist the user in composing music while at the same time analogously generating the sounds produced by a mechanical component on which guitar strings are mounted. The system was developed primarily for people without prior musical knowledge. For this reason, a comprehensive literature research was carried out, through which the authors acquired knowledge in various topics. These include the area of user interfaces, user interface design, feedback, music combined with technology and mechanical music production. In order to deepen this knowledge and to include the opinions of specialists, interviews with experts from the affected areas were held. The acquired knowledge was implemented in an iterative design process. The mechanical component of the system was implemented without the assistance of users, since the fulfillment of technical benchmarks was sufficient here. The system component, which has direct contact with the users via the user interface, was implemented in a selected iterative and user-centered design process. Various research methods were used in this process, such as sketches, wireframes, mockups, personas and above all user tests. In these user tests, the current state of the system was checked to find out if the interface allows the user to produce well-sounding music and to sufficiently support it. The results of the study show that the chosen approach forms a promising basis that needs further development in additional iterative design cycles.

Arbeitsbereich Research Division of Human Computer Interaction

Diplomarbeitsposter Avdosieva Nataliia

Nataliia Avdosieva

Masterstudium Medieninformatik
Abstract:

Having come into force on May 25, 2018, the General Data Protection Regulation (GDPR) sets a new standard for processing, storing and protecting the personal data and privacy of EU citizens. The law requires businesses that operate online take actions to ensure that they process customer data in a fair way, that they clearly explain to customers how long their personal data will be used and stored, and that they receive valid consent from their customers to do so. As follows, in order to achieve GDPR compliance, companies need to rethink strategies for dealing with customer personal data and designing user privacy. While simple in theory, the GDPR turns out to be quite difficult to interpret and understand. In this thesis, we present the aid to guide designers through the process of creating GDPR compliant and privacy-friendly online systems. We began by examining existing approaches to achieving GDPR compliance. As the further step, we conducted the workshop with five privacy and design experts. The results of the workshop helped to define the set of aspects that should be highlighted while creating design patterns. The first paper prototype of the card deck ‘Designing for Privacy’ was evaluated by privacy experts. After having made changes according to the experts’ feedback, the design patterns were visualized and evaluated by four designers. To define if designed patterns are also understandable for the end users, we conducted a qualitative informal evaluation of the privacy-friendly web prototype with three participants. Received positive feedback from the experts and end users demonstrate expediency and effectiveness of the concept suggested in this thesis.

Diplomarbeitsposter Drescher Christian

Christian Drescher

Masterstudium Medieninformatik
Abstract:

Millions of people use social media networks and microblogging services on a daily basis to talk about their personal lives, interests, current news and events, and experiences with products and services. The combination of enormous growth of such platforms over the recent years and the availability of all this data, enriched with a variety of meta data, led to an increase in scientific interest resulting in many different fields related to processing this data. While many projects focus on distinctive events, this work explores possibilities to use long-term microblogging data related to a specific product. An analysis and visualization application is introduced which enables analysts to link Twitter data to the usage data of a product and utilize various visualizations to gain insights. Furthermore, a use case is presented which illustrates the explorative process of using the application and outlines the main findings of this work: influential user accounts can be identified based on both Twitter and product usage data, the overall sentiment of Twitter daily activities might not be a correct representation of what is really happening, and no general correlation between the amount of tweets posted and product usage data could be found within the scope of the use case. Therefore, additional research is required in order to see if this applies to other use cases as well.

Diplomarbeitsposter Jakob Romana

Romana Jakob

Masterstudium Business Informatics
Abstract:

Technologies providing feedback on individual or group behaviour with the goal of reducing environmental impact dates back to more than 40 years. An historic view on eco-feedback shows the extensive range of topics beginning with environmental psychology, over persuasive technology and usability guidelines to behaviour change and education issues. However, what seems to lack are systems that keep all these disciplines in mind and have a closer look on the characteristics and preferences of users and tailors feedback to these specialities. In order to limit the possibilities of tailoring interfaces this thesis uses user segments that gather users with the same state of knowledge in energy topics and usage patterns together in groups. This implies the necessity of a questionnaire that determines the type of user, which is a contribution of this thesis. The central research question is whether it is beneficial to provide visualizations tailored to user segments. A paper prototype was developed in the course of this thesis and evaluated in workshops with the user groups. The results of the prototype sessions were analysed in order to identify the influences of tailoring interfaces to user type preferences. These resulted in a set of design guidelines for adapting an interface to different type of energy users. The evaluation showed that all test users agreed on the idea of tailoring interfaces of a mobile application and that they preferred their proposed screen. The main result of this thesis is that in the field of ecological feedback in mobile application an adoption of visualizations, especially units of measurements is of great value for sensitization and raises the likelihood of applying a target behaviour.

Diplomarbeitsposter Schefberger Stefan

Stefan Schefberger

Masterstudium Software Engineering & Internet Computing
Abstract:

Der Begriff Crowdsourcing ist nicht nur im Bereich Software Entwicklung angesiedelt. In den letzten Jahren wurden vermehrt Plattformen entwickelt, die sich genau diesem Konzept bedienen. Bekannte Beispiele wie iStock (früher iStockphoto) oder TopCoder machen sich diese Vorgehensweise zunutze und sind damit sehr erfolgreich. Diese Diplomarbeit beschäftigt sich genau mit diesem Konzept und deren Auswirkung auf die Lehrveranstaltung Denkweisen der Informatik. Es soll untersucht werden, ob Crowdsourcing dafür verwendet werden kann, um die Beteiligung in der Grunlehre zu erhöhen. Studentinnen sowie Studenten soll eine Möglichkeit geschaffen werden, dass sie sich aktiv in die Gestaltung der Lehrveranstaltung einbringen können. Dazu wird ein Modul für die Plattform Aurora entwickelt, dass es den Studierenden ermöglicht, interessante Artikel zum Thema Best or Worst of Informatics zu publizieren. Der Fokus soll dabei auf besonders gute oder schlechte Errungenschaften in der Welt der Informatik gelegt werden. In einem weiteren Schritt werden die Veröffentlichungen einer Abstimmung unterzogen. Die höchstbewerteten Publikationen werden daraufhin in einer der nächsten Einheiten besprochen.

Arbeitsbereich Research Division of Interactive Media Systems

Diplomarbeitsposter Adelberger Patrick

Patrick Adelberger

Masterstudium Medizinische Informatik
Abstract:

An electroencephalogram (EEG) is a measurement to record the electrical potentials in the brain, also referred to as brain activity. For some time now, researchers use this EEG signal to create a brain-computer interfaces (BCI), which allows users to manipulate the computer just with their thoughts. This application ranks images of a picture set via their elicit responses in the EEG signal. The goal of this thesis is to check the functionality of the image ranking application with 2 different BCI devices and optimize the application run for image ranking. The first part includes criteria about signal processing, e.g. sample rate. Here, the timing in which the EEG signal is sampled and sent to the application is analysed. After, the reliability of the recorded EEG signal the interstimulus interval (ISI) can be optimized. The ISI consist of three parameters: the time an image is displayed on the screen, the time between two images and the number of times each image (flashes) has to be shown. This three parameters have to be tuned in a way that the accuracy is increased and the time for one application run is decreased. Additionally, a ranking with different subjects should be created to depict if certain images are always ranked in the first few positions and are independent of the subject. The results show that the interaction between application and the two BCI devices work as expected, short of some minor issues. Thus, the applicability of the application was given and the tuning of the ISI parameters could be started. For the ISI the best accuracy was achieved when the images were displayed on the screen for 100 ms and 75 ms was used between two images. Furthermore, each image was flashed 20 or 5 times for the classifier or ranking, respectively. For the group rankings, the results indicated, that images of faces rank in average higher than the rest. Finally, the median of all rankings for one image should be used as the ranking parameter.

Diplomarbeitsposter Kapeller Christian

Christian Kapeller

Masterstudium Computational Intelligence
Abstract:

Recent advances in the fields of media production and mixed/virtual reality have generated an increasing demand for high-quality 3D models obtained from real scenes. A variety of 3D reconstruction methods including stereo vision techniques can be employed to compute the scene depth. Generally, the accuracy of stereo matching algorithms can be evaluated using well-established benchmarks with publicly available test data and reference solutions. As opposed to standard imaging configurations, the quality assessment of data delivered by customized 3D reconstruction systems may require the development of novel or adapted evaluation strategies tailored to the specific set-up. This work is concerned with evaluating the quality and accuracy of 3D models acquired with a 3D reconstruction system consisting of three stereo cameras. To this end, three different evaluation strategies are proposed and implemented. First, the 3D model accuracy is determined by acquiring reconstructions of geometrically simple validation objects (sphere, cuboid) that were specifically created for this purpose. Corresponding ideal 3D objects are fitted into the reconstructed point clouds and are compared to their real measurements. Second, an image-based novel view evaluation determines the accuracy of multiple reconstruction approaches on intermediate point clouds and final 3D mesh models. Finally, a pair comparison-based user study determines the subjective quality of different depth reconstruction approaches on acquired textured 3D mesh models. We demonstrate the three evaluation approaches on a set of self-recorded data. In this context, we also observe that the performance of the examined approaches varies only slightly in the novel view evaluation, while the user study results show clear preferences, which confirms the necessity to combine both quantitative and qualitative evaluation.

Diplomarbeitsposter Machner Natascha Josephine

Natascha Josephine Machner

Masterstudium Medieninformatik
Abstract:

In den letzten Jahren konnte Virtual Reality (VR) gerade im Bereich der Videospiele immer mehr an Beliebtheit gewinnen. Durch das Verfügbarwerden von leistbarer Hardware wurde die Technologie einer Vielzahl von Menschen zugänglich, was die Entwicklung von Content und intuitiven Interaktionsmethoden speziell für VR begünstigte. Doch obwohl es bereits Möglichkeiten etwa zur Übertragung der realen Handbewegungen in die virtuelle Welt gibt, bleibt die Problematik bestehen, dass haptisches Feedback bei Berührungen meist fehlt und so ein vollständiges Eintauchen in die virtuelle Welt erschwert wird. Beim Projekt Vreeclimber der TU Wien werden daher reale und virtuelle Elemente kombiniert. Die Grundlage bildet eine real existierende mechanische Kletterwand, die durch Rotation ermöglicht, nahezu endlos weiter nach oben zu klettern. Durch die Verwendung einer VR-Brille kann diese Kletterwand mit virtuellem Content überlagert werden. In dieser Arbeit wird darauf aufbauend untersucht, wie sich unterschiedlich gestalteter VR-Content auf das Klettererlebnis auswirkt. Dies geschieht durch das Erstellen von drei Szenarien, die sich nicht nur inhaltlich, sondern auch anhand verschiedener Effekte zur Bereicherung des Klettererlebnisses unterscheiden. Die Szenarien wurden nach der Konzeption und Implementierung durch evolutionäres Prototyping auf einer Testwand anhand einer Gruppe von Testpersonen evaluiert. Dabei zeigte sich, dass eine akkurate Kalibrierung der realen und der virtuellen Wand für ein positives Klettererlebnis essentiell ist. Außerdem konnte evaluiert werden, dass detail- und effektreiche Szenarien besser von den Benutzer_innen aufgenommen wurden als solche, bei denen der Fokus auf einer ansprechenden Optik lag. Die dadurch gewonnen Erkenntnisse können als Hinweise dazu dienen, wie die Gestaltung von Content für Virtual-Reality-Applikationen in Verbindung mit realen Gegenständen das Erlebnis für die Benutzer_innen bereichern kann.

Diplomarbeitsposter Moraru Oana Aurora

Oana Aurora Moraru

Masterstudium Visual Computing
Abstract:

This master thesis aims to provide an introduction to the state of the art of some currently very promising technologies such as speech recognition, speech to text, augmented reality, face detection, face tracking, face recognition and sound localization. The thesis provides a brief overview of the aforementioned technologies in the chapter named Technical Basics. This also allows persons from other fields of expertise to read and understand the thesis. Furthermore, the thesis provides an insight to the current situation of deaf and hard of hearing persons in Austria and explains how the aforementioned technologies can be used in order to aid hearing impaired people in their daily lives. The master thesis furthermore comprised the development of a system prototype able to generate and present subtitles in real time in an augmented reality environment. Additionally, multiple visualization possibilities are provided for the generated subtitles. The implemented system’s concept is also explained in this thesis, offering an overview of all involved hardware and software components. Then the implementation process of the developed system is explained in detail, while possible encountered limitations are presented and discussed, as well as identified solutions. The design and implementation process of the visualizations are explained and described as well. However, this master thesis consists only in part of the implementation of a system prototype aiming to ease the participation in meetings of deaf and hard of hearing persons. The second part of the thesis comprises the design and execution of a user study, during which deaf and hard of hearing users could test the implemented system prototype. The user study was organized in order to evaluate the implemented system. At the end of the thesis the extracted results are being analyzed and presented, followed by the conclusion as well as some suggestions for future work.

Diplomarbeitsposter Prossenitsch Christian

Christian Prossenitsch

Masterstudium Visual Computing
Abstract:

Tracking systems are a widely used technology in physical computing. Virtual Reality / Augmented Reality headsets rely heavily on accurate and fast position data, in order to prevent unwanted side effects such as motion sickness. In this thesis, a new kind of tracking system is presented, based on the refraction of light and optical focus. The main part of the system forms a linear image sensor together with a 4-piece lens system. Light originates from Light Emitting Diodes (LEDs) placed in the tracking environment. The LED light cones need to be overlapping, in order to get at least two intensity measurements by different light sources. Light rays travel through the lens system, which focuses light on the sensor. When the sensor moves, the angle of the refracted light changes, thus reaching a different part of the sensor. A microcontroller can then compute the tracking system’s change of position. The project can be split into two parts: The first part consists of a tracking system simulation. The simulation makes use of Ray Transfer Matrix Analysis, a ray tracing technique utilized in the design of optical systems. Using the simulation, the size of the tracking area has been calculated and the right lenses with correct distances to each other have been chosen. The second part consists of the actual implementation. A functional prototype has been developed, to turn the insights of the simulation into a real-life solution. A microcontroller is used to read the linear image sensor and control the LEDs. The intensity values are sent to a Raspberry Pi, which calculates the position change of the tracker. Finally, the accuracy and latency of the tracking system prototype have been evaluated.

Diplomarbeitsposter Schörkhuber Dominik

Dominik Schörkhuber

Masterstudium Visual Computing
Abstract:

In this thesis, we explore methods to assist non-professional users with video creation on mobile devices. The developed algorithms are embedded into a video creation application featuring a storyboard-based workflow. We present three kinds of assistance systems which help the user avoiding mistakes commonly made by amateur users and follow cinematographic guidelines during recording. In order to improve the resulting video quality, we address the problems of (a) video stabilization, (b) shot-type classification, and (c) lens occlusion. In the context of video stabilization, the camera path is first reconstructed and then different optimization strategies are employed to improve the camera path. We use a Linear Programming approach to create a piece-wise linear path and compare it with a local smoothing method. Next, we present an approach to automatically infer the shot-type for a scene observed by a camera. Person keypoint detectors are used to extract joint information for all actors. We compute the skeletal representation of the main actor and classify it into a cinematographic description of the scene. Among the compared approaches for classification, support vector machines showed the best performance. For training and evaluation, we produce datasets based on image recordings at a set distance and manually annotated movie scenes. The result can be compared to a given storyboard in order to give feedback to the user accordingly. Finally, we address the problem of accidentally occluding the camera lens, which is a common mistake during recording with a smart phone. We formulate this task as a semantic segmentation problem and solve it with classical image processing as well as a deep learning method. The classical image processing approach is clearly outperformed by a combination of Mobilenets and Fully Convolutional Neural Networks.

Diplomarbeitsposter Schüller-Reichl David

David Schüller-Reichl

Masterstudium Business Informatics
Abstract:

Augmented Reality (AR) is about seamless integration of virtual computer-generated objects into the real-world view. Virtual objects should blend into the real world so that the user feels like the virtual objects are "here". The sense of something being ''here'' is also known as the concept of presence. Presence is especially important if an AR application is using virtual humans to interact with the user. This thesis examines if the visual realism is essential to achieve the highest possible presence in an AR application. Two hypotheses were posed to examine the effect of realism on the perception of presence and the convenience of users within AR applications. H1: ''Increasing the level of realism increases the sense of presence and convenience of users.''. H2: ''The Uncanny Valley effect can be observed within the experiment.''. The approach to examine these hypotheses was to conduct a user study in which the participants experienced a virtual human with a specific visual realism levels. Each visual realism level differs in geometry, texture and lights. The developed AR application included a rendering system which allows the levels of realism of the virtual human to be set. The results partially supported the first hypothesis (H1) and indicated that visual realism is an important factor to achieve a higher sense of presence within an AR application. The second hypothesis (H2) was not supported, most probably due to technical limitations which did not allow such a realistic virtual representation of a human so that the participant would believe it could be a real person. The main novelty of this thesis is its focus on the presence of virtual humans within AR. Recent studies showed that the influence of visual realism on the sense of presence if different in the field of AR than in VR. Future presence demanding AR application can take the results of this thesis of basis to achieve a higher sense of presence.

Diplomarbeitsposter Wagner Michael

Michael Wagner

Masterstudium Software Engineering & Internet Computing
Abstract:

Mehrbenutzer-VR-Anwendungen sind herausfordernd zu entwickeln und zu warten. Das Ziel dieser Arbeit ist es das Framework VRNet zu designen und implementieren, mit dem die notwendigen Werkzeuge, um Mehrbenutzer-VR-Anwendungen zu entwickeln bereitgestellt werden. Game Engines, wie Unreal Engine 4 (UE4), eignen sich um komplexe Multiplayer 3D Anwendungen zu entwickeln, jedoch ist das zugrundeliegende Networking-System nicht für lokale Mehrbenutzer-VR-Anwendungen ausgelegt. Unser Ansatz ist es, VRNet auf der Basis von UE4 zu entwickeln und um wichtige Funktionalitäten zu erweitern. VRNet ist als Code-Plugin konzipiert, welches Kernklassen von UE4 in C++ erweitert und einfach in UE4-Projekte integriert werden kann. Die bereitgestellten Funktionalitäten umfassen die effiziente Übertragung von User-Daten, wie Positionsdaten, sowie die Interaktion mit der virtuellen Umgebung. Als Kernelement in der Umsetzung wird Client-Authoritative Replikation eingesetzt um die Konsistenz zwischen Maschinen sicherzustellen, während Nutzer bestmöglich vor Netzwerkeinflüssen geschützt werden. Als zweiten praktischen Teil dieser Arbeit wird VRNet im Rahmen eines Forschungsprojektes in eine VR Anwendung integriert um sie vollständig mehrbenutzerfähig zu machen. CeMM Holodeck ist eine UE4 Anwendung zur Datenvisualisierung und Interaktion mit biologischen Datensätzen in Netzwerkform und wird vom CeMM Forschungszentrum für Molekulare Medizin entwickelt. Die Integration von VRNet erwies sich als erfolgreich und zeigte, dass VRNet eine robuste Grundlage zur Erstellung von Mehrbenutzer-VR-Anwendungen bietet. Weiters wurden Evaluierungstests durchgeführt. Die Ergebnisse zur Netzverkehrsanalyse zeigen, dass die benutzte Bandbreite trotz hoher Aktualisierungsrate ausreichend niedrig ist. Zusätzlich ist kein Overhead in der Ressourcenverwendung bei Integration von VRNet bemerkbar. VRNet bietet eine vereinfachte und effektive Entwicklung von performanten Mehrbenutzer-VR-Anwendungen.

Arbeitsbereich Research Division of Visual Analytics

Diplomarbeitsposter Cismasiu Anca

Anca Cismasiu

Masterstudium Software Engineering & Internet Computing
Abstract:

As companies gather more and more data, we need to find a way to allow interested decision makers to access this data in an efficient way. In the context of sports practice, users could benefit from suggestions about new sports they could try out and the company could increase its sales. This work aims to support the analysts, simultaneously domain experts and IT laymen, in their data exploration and suggestion retrieval tasks through a user friendly interface, abstracting away the complexity of formulating expressive queries into the visual domain. We present a characterization and task analysis for this domain, and a prototype that meets the requirements emerging from them, based on an interdisciplinary literature research. The resulting prototype combines a visual query language with a collaborative filtering approach to render suggestions for new activities, and show multiple types of relationships in a visually compelling way. It has been implemented as a web application that handles the transformation of user input from a graphical pattern into a database query language and the results of this query into an easy to digest information representation. We conclude with an expert interview to validate the design for analysis and exploration.

Diplomarbeitsposter Weißer Till

Till Weißer

Masterstudium Business Informatics
Abstract:

Currently, users who want to perform a complex analysis on graph data are dependent on knowledge about the data and complex command line interfaces. In order to simplify the complex analysis of graph data, appropriate tools have to be provided. Visual interaction increases the information content while at the same time it reduces the cognitive load on the user and supports him during query formulation. Numerous different approaches in literature make use of this fact. They reach from simple interactive visualization models to domain-specific visual query languages, but also reveal that there are some very similar developments to the proposed system. However, the combination of both aspects, i.e. the provision of an integrated system, allowing for graphically formulating complex queries and simultaneously supporting the user with visualizations could not be found in the literature. Hence the design of such a system makes a significant contribution to the research and development of graph databases. In this Thesis a design for such a system is developed with help of the query language for graph databases Gremlin and using a visual block metaphor. Based on this a prototype is implemented and evaluated.

Institut für Institute of Information Systems EngineeringE194

Arbeitsbereich Research Division of Information and Software Engineering

Diplomarbeitsposter Filler Julia

Julia Filler

Masterstudium Business Informatics
Abstract:

Crowd Work ist eine beliebte Form der digitalen Arbeit. Jeder kann auf Crowd Work Plattformen arbeiten. Diese neue Form der Arbeit hat sich im Laufe der letzten Jahre stark entwickelt, so dass die Crowd Worker sowie die Politik jetzt mit gravierenden Missständen konfrontiert sind. Daraus ergeben sich drei Probleme: 1. Es gibt keine Möglichkeit sich untereinander auf einer Crowd Work Plattform auszutauschen. 2. Es gibt zu viele verschiedene Foren und Chats in denen Crowd Worker untereinander kommunizieren können. Das führt zu einer Verteilung des Wissens. 3. Mitglieder von Interessensgemeinschaften haben keine Möglichkeit in direkten Kontakt mit den Crowd Workern zu treten. Außerdem fehlt die Möglichkeit regelmäßig Informationen über die Arbeitsbedingungen der Crowd Worker zu sammeln. Unser Ziel ist es eine zentrale Lösung zu entwickeln, die diese Probleme adressiert. Über unsere Forschungsfragen haben wir zuerst die Bedürfnisse von Crowd Worker, Plattform Betreibern, Arbeitgebern und anderen Interessensgruppen ermittelt. Danach haben wir sieben Designprinzipien und ein Architekturdesign ausgearbeitet. Diese sollen die wichtigsten Merkmale zur Erfüllung der Bedürfnisse von Crowd Workern und anderen Stakeholdern aufzeigen und identifizierte Geschäftsprozesse abbilden. Der vorgeschlagene Ansatz verfolgt ein Architekturdesign eines Collective Intelligence Systems. Diese Art von System ermöglicht eine indirekte Kommunikation unter den Usern über die zentrale Plattform. Zur Ermittlung der Richtigkeit und Nützlichkeit der Designprinzipien und des Archtiketurdesigns, wurde ein Prototyp implementiert. In einer Fallstudie wurden Stakeholder eingeladen um den Prototypen zu evaluieren. Die Ergebnisse zeigen eine sehr gute Übereinstimmung der Designprinzipien und des CIS Ansatzes für die Crowd Work Domain. Daher wird geschlussfolgert, dass das Ziel der Arbeit erreicht wurde. Die Crowd Worker und Interessensgruppen werden optimal durch eine zentrale Plattform unterstützt.

Diplomarbeitsposter Kathrein Lukas

Lukas Kathrein

Masterstudium Software Engineering & Internet Computing
Abstract:

Im Engineering von Produktionssystemen sind viele verschiedene Disziplinen involviert. Beispiele dafür sind Elektrotechnik, Mechanik und Informatik. Über den Engineering Prozess hinweg ergeben sich verschiedene Phasen und Domänenexperten sind hier oft voneinander abhängig. Diese Interaktionen zwischen Arbeitsgruppen wird als multidiszi-plinäres round-trip Engineering bezeichnet. Um die Vision der Industrie 4.0 zu verwirklichen ist ein wichtiger Punkt die Repräsentation von Produkt, Prozess und Ressourcen (PPR) Beziehungen. Viele Stakeholder sind allerdings nur auf ihre eigenen Domänen fokussiert und bilden "Informationssilos". Dadurch, dass PPR Wissen oft vernachlässigt wird, zielt diese Diplomarbeit darauf ab, diese Lücke zu verkleinern. Eine gute Lösung hierbei soll in der Lage sein, einen Engineering Prozess hinsichtlich PPR Wissen zu analysieren und dieses auch auszudrücken. Bereits bestehende Lösungen sind hierzu nicht in der Lage, da sie entweder zu breit oder zu domänenspezifisch nur auf eine Rolle fokussiert sind. Existierende Modellierungssprachen sind auch nicht in der Lage PPR Wissen auszudrücken, bieten allerdings Einblick in mögliche Adaptierungen. Methodisch baut die Arbeit auf bekannten Konzepten wie einer Literatursuche oder dem Design Science Cycle auf. Die Evaluierung wird mittels Interviews und Konzeptentwicklungen in einer echten Produktionsorganisation durchgeführt. Erstes Resultat dieser Arbeit ist eine Kombination von Ansätzen um einen Engineering Prozess zu analysieren. Resultat ist hier ein Ansatz für die Analyse von Engineering Prozessen und Indikation von PPR Wissen durch Erweiterung des BPMN 2.0 Standards. Weiters werden mögliche PPR Modellierungssprachen identifiziert, ausgewählt, verglichen sowie adaptiert. Die Adaptierung und Erweiterung des VDI 3682 Standards ist hierzu das Resultat. Um das gefundene PPR Wissen auch speichern zu können, untersucht die Arbeit mögliche Anforderungen an Speicherlösungen.

Diplomarbeitsposter Kirim Alper

Alper Kirim

Masterstudium Software Engineering & Internet Computing
Abstract:

Categories are an integral part of e-commerce applications. However in some user-driven secondhand marketplace applications, where users are not professional sellers, input of a category is kept optional to make listing process easier. These items must then be categorized by an in-house team so that they can be found when search results are filtered by categories. The goal of this thesis is to investigate the potential of a multimodal classifier as an alternative to the manual categorization done by an in-house team at a company in the secondhand marketplace business. Since some non-professional users tend to list items without descriptive text or with bad quality images, a multimodal approach was chosen to make the system more robust. Initially performance of the in-house team was evaluated. After analyzing and preprocessing the available data, a multimodal classifier was developed and evaluated which reached the performance of the in-house team. In addition to the development and evaluation of a classifier, possible deployment and monitoring strategies were discussed.

Diplomarbeitsposter Mirdamadi Tehrani Amin

Amin Mirdamadi Tehrani

Masterstudium Software Engineering & Internet Computing
Abstract:

In dieser Arbeit evaluieren wir die bekannten Tabellenextraktionswerkzeuge und bewer- ten ihre Anwendung im Bereich Information Retrieval (IR). Wir haben ein Framework entwickelt, das die Ergebnisse der verschiedenen Table-Extraction-Tools aufnimmt und mit Methoden im IR-Evaluationsbereich vergleicht. Aus diesem Grund haben wir die Tabellenextraktionswerkzeuge ausgewählt, getestet und mit einer manuell erstellten Grundwahrheit bewertet. Um ein Ranking-System zu erstellen, berechnen wir einen Score für jedes der ausgewählten Tools, außerdem haben wir die generierte Klassifizierung mithil- fe von IR-Experimenten ausgewertet. Daher haben wir ein Framework mit drei Schritten entwickelt und ein Testverfahren für die Analyse von bis zu 5870 PDF-Dateien vorbereitet. In dieser Arbeit beschränken wir die Verarbeitung von Tabellenextraktionswerkzeugen auf PDFGenie, PDF2Table und PDF2HTML.

Diplomarbeitsposter Prinzinger Philipp

Philipp Prinzinger

Unterrichtsfach Informatik/Informatikmanagement
Abstract:

Ausgehend von der Forschungsfrage inwieweit eine kompetenzorientierte Einführung in das Programmieren auf der Basis von Computational Thinking und visuellen Programmiersprachen möglich ist, wurde im Rahmen dieser Diplomarbeit ein Unterrichtsmodell für die neunte Schulstufe allgemeinbildender höherer Schulen nach diesem Ansatz entworfen. Als Grundlage dafür wurden die Charakteristika kompetenzorientierten Unterrichts sowie dessen Lehrmaterialien und Aufgabenstellungen hermeneutisch untersucht. Die Erörterung der Grundlagen des Programmierens erfolgte durch die Analyse verschiedener internationaler Lehrpläne, in denen sowohl Programmieren als auch Computational Thinking verankert sind. Aufbauend auf diesen Ergebnissen wurde mittels konstruktionsorientiertem Forschungsansatz ein Unterrichtsmodell entworfen, in dem die Grundkonzepte des Programmierens zunächst durch eigens entwickelte Unpluggedaktivitäten spielerisch kennengelernt werden, und anschlieÿend in projektorientiertem Unterricht durch die visuelle Programmiersprache Scratch praktisch umgesetzt werden. Dafür wurden drei aufeinander aufbauende Projekte mit konkreten Aufgabenstellungen und Musterlösungen erarbeitet. Die Evaluation der Praxistauglichkeit des Unterrichtsmodells erfolgte mittels qualitativer Forschung anhand der Befragung einer Expertin und zweier Experten, die über einschlägige Erfahrungen in der Vermittlung von Programmiergrundlagen verfügen. Die Auswertung ergab, dass das Modell, unter Berücksichtigung etwaiger Anpassungen an die konkret vorherrschenden schulischen Rahmenbedingungen, für den Einsatz im Informatikunterricht geeignet ist und als kompetenzorientiert eingestuft werden kann.

Diplomarbeitsposter Stütz Anton

Anton Stütz

Masterstudium Business Informatics
Abstract:

In todays world, smartphones are a constant and almost indispensable companion in day-to-day life. A study from Eurostat shows that 74\% of Austrian individuals aged 16 to 74 use Internet over mobile phones. Therefore, it is important to know why and how modern devices can effect the personal privacy through wireless emissions. Especially if the mobile phone is not connected to an Access Point and Wi-Fi is turned on. There can be wireless emissions because of a regular occurring network discovery to detect nearby Access Points. In this master thesis an extensive data collection of Wi-Fi frames is created and analyzed. The evaluation of the collected data led to the result that capturing of Probe Requests which are used for network discovery can be misused to provide a feasible and cheap tracking solution. Even if MAC randomization is used, devices could be tracked for multiple days. Also a combination of randomized MAC addresses which use directed Probe Requests was recorded. Directed Probe Requests can render MAC randomization completely useless.

Arbeitsbereich Research Division of Distributed Systems

Diplomarbeitsposter Frauenthaler Philipp

Philipp Frauenthaler

Masterstudium Software Engineering & Internet Computing
Abstract:

In den letzten Jahren erlangten kryptographische Währungen, auch Kryptowährungen genannt, enorm an Popularität. Die erste und zugleich prominenteste Kryptowährung ist Bitcoin. Bitcoin wurde im Jahr 2008 von Satoshi Nakamoto vorgestellt. In den darauffolgenden Jahren wurden zahlreiche weitere Kryptowährungen gegründet. Im ersten Quartal 2018 existierten bereits über 1.000 Kryptowährungen. Viele dieser unterschiedlichen Währungen funktionieren ohne eine zentrale Instanz. Stattdessen wird häufig eine Blockchain eingesetzt. Eine Blockchain ist ein verteiltes Bestandsbuch, das von anonymen Benutzern verwaltet wird. Neben dem Aufzeichnen von Transaktionen in zahlreichen Kryptowährungen ist die Blockchain auch in einer Vielzahl weiterer Anwendungsfälle einsetzbar. Populäre Anwendungsfälle der letzten Jahre sind z. B. die digitale Stimmabgabe oder Notariatsdienste. Die Eignung einer bestimmten Blockchain für einen gegebenen Anwendungsfall hängt von verschiedenen Kriterien ab, wie z. B. dem Transaktionsdurchsatz. Diese Kriterien können sich im Laufe der Zeit ändern. Daher kann es passieren, dass eine bestimmte Blockchain in Zukunft für einen Anwendungsfall nicht mehr geeignet ist. Um die Auswirkungen dieser Einschränkung in der praktischen Anwendung zu begrenzen, entwickeln wir in dieser Diplomarbeit ein Framework, das es ermöglicht, zwischen Blockchains zu wechseln. Das Framework überwacht mehrere Blockchains, berechnet den jeweiligen Nutzen und ermittelt auf Basis dieser Berechnungen die nutzbringendste Blockchain. Weiters kann das Framework auf verschiedene Ereignisse wie bspw. einen signifikanten Kostenanstieg reagieren. Mittels dieser Funktionalitäten bietet das Framework Benutzern die Möglichkeit, zu einer für sie günstigeren Blockchain zu wechseln, um von niedrigeren Kosten, besserer Performanz oder erhöhter Sicherheit zu profitieren. Die Referenzimplementierung des Frameworks unterstützt Bitcoin, Ethereum, Ethereum Classic und Expanse.

Diplomarbeitsposter Geier Manuel

Manuel Geier

Masterstudium Software Engineering & Internet Computing
Abstract:

Publish/subscribe is a commonly used pattern for machine-to-machine communication in the Internet of Things (IoT) and the MQTT protocol has emerged as the de-facto standard due to its lightweight design. However, centralized messages brokers are limited in their ability to satisfy the stringent quality of service requirements of modern IoT scenarios which require decentralized and reliable communication at the edge of the network. In many of these scenarios, end devices are not static at one place anymore, but rather move around in an environment which creates additional challenges and opportunities for reliable communications. In this work we present an approach for a scalable, distributed MQTT network and a migration process to enable reliable and transactional client mobility. We extend MQTT~v3 and introduce a transactional migration protocol which makes use of and ensures MQTTs message delivery guarantees for individual subscriptions (at most once; at least once; exactly once) to migrate a client between (distributed) broker systems. With software testing, empirical experiments and a theoretical analysis we evaluate the correctness, the responsiveness and the system strains of our solution approach. The evaluation shows that our migration approach enables clients to migrate from one broker to another while ensuring message delivery guarantees, but incurs additional overhead. In typical scenarios, where brokers are synchronized, the migration time is roughly eight times the link latency between brokers. In interregional cloud scenarios where the link latency between brokers is roughly 80-100 ms, the migration takes around 600-800 ms. When brokers are in close proximity, the number of discarded, duplicated and stored messages are close to zero. With our migration process, the network traffic decreases with 'at most once', it increases with 'at least once' and it stays the same with 'exactly once' subscriptions, but comes with an overhead in storing message.

Diplomarbeitsposter Hammerer Michael

Michael Hammerer

Masterstudium Software Engineering & Internet Computing
Abstract:

As more and more Things join the Internet, the interoperability of Things becomes a major concern. Several challenges arise when Things should be able to interoperate with other software components. Since Things enable an enormous area of application, they are highly heterogeneous actors. Things are designed to fit the application context and as a result the data that Things offer varies greatly. Additionally, Things use diverse technologies since their requirements diverge. Software systems that utilise the IoT will have to integrate cloud services, network functions and Things. Such IoT cloud systems will be major enablers of IoT applications. But in order for an IoT cloud system to function, the components of the system have to interoperate with each other. However, the Thing diversity presents a challenge when the interoperability of IoT cloud systems is pursued. Appropriate interoperability solutions are needed to manage the technology and data diversity, such that Things can interoperate with IoT cloud systems. Nevertheless, the technology and data diversity itself is not the only interoperability challenge that needs to be resolved. Things are often mobile and depend strongly on their context and environment. As Things move through the world or change contexts, they will have to dynamically enter and leave IoT cloud systems. It is therefore not sufficient, to manage the interoperability problems with static means. Interoperability solutions need to be provided on-demand.

Diplomarbeitsposter Videnov Svetoslav

Svetoslav Videnov

Masterstudium Software Engineering & Internet Computing
Abstract:

Data provenance allows to reproduce what has happened to data during its lifecycle, i.e., it allows to build trust in data and decisions. To achieve this, provenance data has to be reliable itself and to fulfill certain security requirements. This proves to be a difficult problem since data provenance often has many domain-specific properties. Addressing these domain specificities has led to a fragmentation of the field of data provenance. This fragmentation is a problem since it makes it hard to implement common solutions for security requirements. Instead, the field of secure provenance often focuses on providing domain-specific solutions. Furthermore, this fragmentation makes collaboration between domains difficult, hindering the overall goal of making the history of data products reproducible. In this thesis, we present a {\blockchain}-based approach for creating a domain-independent search space for data provenance. At the same time, we are able to utilize this search space to map strong {\blockchain}-based security properties, in a domain-independent way, to the field of data provenance. With our solution, we can enable collaboration between domains without enforcing common provenance properties to the domains. This would allow us to track data products across domain borders and create more complete provenance views while providing a platform for common security properties.

Arbeitsbereich Research Division of Business Informatics

Diplomarbeitsposter Draskovits Stefan

Stefan Draskovits

Masterstudium Business Informatics
Abstract:

Qt ist ein Framework zum Entwickeln von plattformübergreifenden Applikationen. QML ist dabei die Sprache mit der die Oberfläche eines Qt-Programms definiert werden kann. Beim Entwickeln einer QML Applikation verändert der Entwickler laufend das Programm. Um die Änderungen anwenden zu können muss bei traditionellen Ansätzen die Applikation neu gestartet werden, was zur Folge hat, dass der Zustand der Applikation verloren geht. Beim Hot Code Reload werden die Änderungen angewandt ohne die Applikation neu zu starten, daher bleibt bei einem Hot Code Reload der Zustand der Applikation erhalten. Diese Arbeit befasst sich damit einen Hot Code Reload Ansatz für QML zu erarbeiten. Im Zuge dessen ist der Ansatz als Prototyp entwickelt worden und dann empirisch mit dem traditionellen Ansatz verglichen.

Diplomarbeitsposter Moser Georg

Georg Moser

Masterstudium Software Engineering & Internet Computing
Abstract:

Zum Themenbereich Softwarequalitätssicherung in akademischen Softwareprojekten wurden bis- her nur wenige wissenschaftliche Arbeiten publiziert. Auch wenn agile Entwicklungsmethoden im Kontext von akademischen Studenten-Softwareprojekten in Publikationen beschrieben wurden, lag der Fokus selten auf Qualitätssicherung. Ansätze von Gamification im Bereich der Qualitäts- sicherung werden in der bestehenden Literatur ebensowenig beschrieben. In der vorliegenden Arbeit wurden für ein typisches Studentenprojekt geeignete Methoden der Qualitätssicherung, ausgearbeitet, wenn möglich mit Konzepten der Gamification angereichert und anschließend evaluiert. Als Fallbeispiel wurde das sogenannte Mineralbay-Projekt ausgewählt. Im Rahmen der Arbeit wurde das komplexe Gebiet der Qualitätssicherung in 3 Kategorien zu unterteilen: Entwicklungsprozess, Entwicklungstätigkeit und Dokumentation. Zunächst wurde eine genaue Analyse des QA-Prozesses, dessen Eigenheiten und insbesondere Schwächen durchgeführt. Mittels Umfragen und Interviews wurden die Ansichten der einzelnen Projektbeteiligten in Bezug auf Qualitätssicherung erhoben, um potentielle Ver- besserungen auszuarbeiten und in Forschungsfragen zu formulieren. Weiters wurde versucht, die oftmals wenig belohnend erscheinenden Aufgaben im Bereich der Qualitätssicherung durch Ele- mente der Gamification attraktiver zu machen. Um den Ergebnissen der Arbeit allgemeine Gültigkeit und Übertragbarkeit zu geben, wurde Mi- neralbay mittels einer Expertenbefragung von Leitern akademischer Studenten-Softwareprojekte als stellvertretendes, typisches Studentenprojekt ratifiziert. Die erarbeiteten Anpassungen am Entwicklungsprozess wurden im Rahmen eines Experiments evaluiert, um in weiterer Folge die Forschungsfragen beantworten zu können. Die Resultate der mittels Interviews und Fragebögen gewonnenen Einsichten wurden in Form eines Leitfadens für Qualitätssicherung in zukünftigen Studentenprojekten zur Verfügung gestellt.

Diplomarbeitsposter Mundorf Manuel

Manuel Mundorf

Masterstudium Software Engineering & Internet Computing
Abstract:

Air travel has become increasingly popular. In Austria, there were 4.3 million flights in 2014. At airports, typical problems for travelers include orientation and information retrieval regarding flights, available shops or offered services. Most often, this information is provided only by signposts and flight overview panels. This thesis presents ideas and approaches for a mobile application to optimize the time for travelers at airports. Smartphones and tablets would be ideal platforms to implement an information and orientation system for the everyday traveler. The objectives of this thesis are to determine important functions for airport applications, reveal weaknesses of existing solutions and develop a prototype that solves the presented problems. To this end, a criteria catalog was developed that covers important features of airport applications. Using this catalog, seven selected airport applications were evaluated. As a result, 10 main features implemented by nearly every tested application were determined. Additionally, use case scenarios were developed based on the main features. The objective of this second analysis was to assess the usability through defined heuristics. Results were used to develop a prototype that avoids the detected weaknesses. The evaluation of existing airport applications revealed serious design weaknesses. Even the first draft of the developed prototype achieved better results than most tested applications. As part of this thesis, a process model is introduced, which presents concrete techniques to create new airport applications. The applicability of the presented process modell in different areas of mobile application development is discussed. Finally, relevant airport application design guidelines were presented as a guidance for future airport application development teams.

Diplomarbeitsposter Oziom Monika Carolina Maria

Monika Carolina Maria Oziom

Masterstudium Business Informatics
Abstract:

Das Einkaufen von Lebensmitteln ist eine Notwendigkeit, die mit viel Aufwand verbunden ist. Je größer der Supermarkt, desto mehr Herausforderungen muss sich der Einkäufer stellen. So steigt die Wahrscheinlichkeit, dass der Einkauf als unzufriedenstellend empfunden wird. Die Evaluierung alternativer Möglichkeiten des Lebensmitteleinkaufs hat ergeben, dass Einkäufer noch nicht gewohnt sind online Lebensmittel einzukaufen und erkennen keinen zusätzlichen Vorteil im Vergleich zum regulären Einkaufen. Vor allem das haptische Erlebnis um die Qualität der Lebensmittel zu prüfen fehlt. Dadurch nehmen Einkäufer die Herausforderungen des üblichen Lebensmitteleinkaufens im Supermarkt auf sich als sich jenen des Online-Supermarktes zu stellen. Die Herausforderungen im Online- und Offline-Kontext werden untersucht und deren Auflösung evaluiert. Der Fokus liegt im Auflösen zweier Herausforderungen, nämlich Produkte zu finden und der Umgang mit den Gegebenheiten des Geschäfts. Zwei Lösungsansätze (Supportmodi) werden in einer prototypischen Smartphone-App vorgestellt . Sie sollen beide Herausforderungen beim Lebensmitteleinkauf abschwächen. Der erste Supportmodus ist eine anders gestaltete Einkaufsliste. Die Produkte werden als kleine Icons auf dem Geschäftsplan an der Stelle eingezeichnet, an der sich die Produkte im Geschäft befinden. Der zweite Supportmodus informiert den Einkäufer via haptischem und visuellem Feedback über die Nähe zu einem gesuchten Produkt. Beide Optimierungen sind so implementiert, dass das Interface minimal die Aufmerksamkeit des Users beansprucht. Dadurch sollen die Wahrnehmung und kognitive Leistung des Einkäufers geschont werden. Tests einer Feldstudie zeigen, dass die Effizienz beim Lebensmitteleinkauf gesteigert werden kann. Die Analyse bestehender Optimierungsversuche zeigt, dass der Trend für Einkäufer die Kombination der besten Features aus dem Offline- und Online-Kontext ist und das Einkaufen im physischen Supermarkt optimiert werden kann.

Diplomarbeitsposter Schörghuber Alexander

Alexander Schörghuber

Masterstudium Business Informatics
Abstract:

In the tender process, the customer publishes a request for tender (RFT) document containing a large list of contractly binding requirements. Suppliers need to process all of them and come up with solutions for each requirement. This thesis is written in cooperation with an industry partner on the supplier side. Since not a single person can answer all requirements, these are further assigned to responsible experts. This split is performed based on roles within the project, such as project management or technical experts for some of the company’s products. Within this thesis, such a role is abstractly called subsystem. This assignment is done manually by a single person, making this task tedious and time-consuming. To support the partner, a machine learning approach is developed to automatically assign requirements to subsystems. In a literature review, suitable machine learning methods are identified, which are then compared in a benchmark to find the best configuration for each of four selected subsystems. These configurations are then checked upon generalization by evaluating them on five additional subsystems. The reasons for false classification are then identified in an interview with the person, who is currently in charge with the assignment.

Arbeitsbereich Research Division of E-Commerce

Diplomarbeitsposter Honeder Roland

Roland Honeder

Masterstudium Medieninformatik
Abstract:

Diese Arbeit untersucht Merkmale von mehr als 15 Millionen Boolescher Suchanfragen, die im Laufe der Patentsuche generiert und an das Examiner Assisted Search Tool (EAST) übermittelt wurden. Transkriptionen der Anfragen stehen in SRNT Dokumenten zum Download zur Verfügung. Der Sucherfolg spiegelt sich in der Verfügbarkeit eines 892 Dokumentes wieder. Ist für ein SRNT Dokument ein adäquates 892 Dokument vorhanden, bedeutet dies, dass im Rahmen der Suche relevante Patentliteratur entdeckt wurde. Darauf basierend ließ sich das Datenmaterial hinsichtlich ihres Sucherfolges in zwei Erfolgsgruppen (SRN T 892 , SRN T no892 ) teilen. Query Expansion (QE) ist eine Maßnahme zur Verbesserung des Suchresultates durch das Hinzufügen relevanter Begriffe. Die verschiedenen Strategien werden im Rahmen dieser Arbeit erläutert. In der Patentsuche wird QE manuell und auf zwei Arten angewandt. Einerseits durch das Einfügen alternative Suchbegriffe in eine Suchanfrage; andererseits durch die Verwendung des Truncation Operators, der Rücksichtnahme auf Wortvariationen (z.B. Endungen) erlaubt. QE wird in Suchen beider Erfolgsgruppen häufig angewandt. Die Erwartung, sie sei verstärkt in der Gruppe erfolgreicher Suchen vorzufinden, wurde indes nur zum Teil erfüllt. Listen alternativer Suchbegriffe treten in beiden Gruppen mit ähnlicher Häufigkeit, der Truncation Operator vermehrt in der Gruppe erfolgreicher Suchen auf. Weitere Untersuchungen - etwa über die Verwendung Boolescher Operatoren, der durch- schnittlichen Querylänge, der Verschachtelungstiefe Boolescher Anfragen - zeigten ähnliche Resultate für beide Erfolgsgruppen. Ausgeprägtere Unterschiede ließen sich in der durch- schnittlichen Dokumentlänge (= Anzahl Suchanfragen pro Suche), in der Verwendung der Suchfelder (die eine Suche z.B. nach Autorennamen ermöglicht) sowie der Verwendung von Referenzierung (= die Adressierung vorangegangener Suchanfragen) feststellen.

Diplomarbeitsposter Luef Johannes

Johannes Luef

Masterstudium Business Informatics
Abstract:

The main objective of this thesis consists of the design of a recommender system, representing a novel method concerning the computational recommendation of early-stage enterprises to investors. In order to quantify decision rules the recommender system is based on, investors’ requirements and behaviours need to be analysed utilizing qualitative- and quantitative research. This research is done in a previous study of co-author Christian Ohrfandl. Furthermore, demonstrating the behaviour of the proposed recommendation algorithms is a major task of this thesis. For this reason, a prototype of the recommender system is being crafted in software. The chapter Recommender Systems for Early-Stage Enterprise Investment addresses the conceptualization of a recommendation system in the domain of early-stage enterprise investment based on the findings of the specialization topic Investment Decision-making & Venture Valuation by the co-author Christian Ohrfandl. The resulting recommender system includes various types of recommenders in a parallelized approach, that is, Collaborative Filtering, content-based-, knowledge-based-, social- and hybrid recommendation algorithms. Additionally, the conceptual model of this recommender system has been implemented as a highly scalable, plugin-based software prototype that may be easily extended by different recommendation algorithms in future work. The most important opportunity for future research is stated as qualitative- or quantitative evaluations of recommendation quality in terms of user satisfaction. These evaluations may answer the question, whether the implemented design decisions improve a user’s utility when using the system. In fact, it is precisely this very evaluation that is being researched in the course of the specialization topic chapter Evaluation.

Diplomarbeitsposter Schaumüller Oliver

Oliver Schaumüller

Masterstudium Software Engineering & Internet Computing
Abstract:

Horizontal elasticity management is one of the core concepts which distinguishes clouds from common data centers. This concept allows to react on changes of the requirements easily on demand. Therefore, the impression of infinite resources arises. The data volume of VoIP networks increases year by year driven by mobile devices such as smartphones. This devices enable applications like Skype, Whatsapp, Viber, Facetime and others to be carried in the user’s pocket. Service providers face fluctuation in demand of their services and design their applications for those purposes. Especially events like new year’s eve, catastrophes or world wide sport events let the demand skyrocket in a short time window. To handle the gap in demand cloud providers need to scale their applications autonomously. As a result, this work is dedicated to control theory methods to control such processes. As a control variable qualitative metrics of VoIP technology will be used. This works purpose is to answer the question if classical control theory can be used to accomplish the task of horizontal elasticity in clouds. A model simulated in R will show how such control loops react to disturbances.

Diplomarbeitsposter Zuljevic Jure

Jure Zuljevic

Masterstudium Business Informatics
Abstract:

Regardless of the information about its own revenue figures and growth or decline trends in the past, management of a company is lacking a broader view of the current competitors' activity and presence on the market. To understand how other competitors are performing and what are the reasons for the growth or decline, managers need information for the whole market. With this information in hand, position and underlying reasons for the growth or decline can be deduced. The annual reports of companies provide relevant and faithful representation of the financial information. In addition to the figures, the annual report contains the management report part. For the particular example of the revenue forecasting, the textual sources of information have remained untapped so far. Since the point of view in competitor analysis is outside of the monitored company, one doesn't have internal information like sales figures or pricing strategy. The other useful information would be plans, strategy and management's attitude towards the future economic and political status of the country. The assumption is that relevant soft facts are taken into consideration when management reports are written. By mining the sentiment we should be able to partly grasp those soft facts. In the reports, the particularly interesting section is the Outlook section in which the view of the near future is expressed. Using the techniques of sentiment mining, we analyse correlation of the different opinion measures in the Outlook sections and compare it to the corresponding historical revenue figures. Correlation coefficients between revenues and sentiment scores are calculated. Results are interpreted by the domain experts and conclusions are made. This thesis is done in cooperation with Siemens AG Austria and the use case of their presence on the Austrian market of Industrial Automation will serve as an example. All the data and annual reports that are used in this work are publicly available.

Arbeitsbereich Research Division of Compilers and Languages

Diplomarbeitsposter Cejka Stephan

Stephan Cejka

Masterstudium Software Engineering & Internet Computing
Abstract:

Despite enormous technical developments on computer hardware and the resulting abilities in the last decades, many applications are still not and will never be computable by one machine alone. For collaboration, various machines are thus assembled to distributed systems; however, as these machines may be heterogeneous in hardware and operating systems, this integration shows to be a challenging task. The contribution of this diploma thesis is an enterprise Java implementation of the Peer Model, a data-driven model for collaboration of heterogeneous systems based on the concepts of Timed and Colored Petri Nets, introduced and specified by the Space Based Computing Group of the Institute for Computer Languages, TU Wien. One of the primary requirements of collaboration between machines is to enable communication between them. To that end, the thesis evaluates several serialization and communication formats and defines a platform-independent mechanism of instance discovery and data exchange between Peer Model instances. Thus, it allows to build up scalable and distributed solutions while not requiring the Peer Model instances executed on the collaborating machines being implemented in the same programming language. Furthermore, the implementation allows to add and remove entities during the runtime of the Peer Model instance and thus enables dynamic adaptions while being executed. The implementation is integrated into a developing toolchain composed of various tools and systems in the Peer Model context. Furthermore, a few diploma theses and one PhD thesis are already using or extending this implementation for their use cases.

Diplomarbeitsposter Fleischhacker Lukas

Lukas Fleischhacker

Masterstudium Software Engineering & Internet Computing
Abstract:

P2P networks have been in the focus of research for the last decades. Especially the utilization of search algorithms to retrieve the distributed resources in unstructured P2P networks is of major importance, since no global view of the network exists. This thesis addresses the need to evaluate and compare search algorithms for unstructured P2P networks. It provides two frameworks for systematic benchmarking and comparison of search algorithms in unstructured P2P networks. The first framework is implemented based on the Actor Model and the second one based on the Peer Model. The second goal of this thesis is to create a fully distributed search algorithm for unstructured P2P networks based on the collective feeding of bark beetles. Additionally, an already existing algorithm from a different domain based on the Physarum Polycephalum slime mold is adapted to fully distributed search for unstructured P2P networks. To achieve these goals the following methodological approach is applied. After an extensive literature research, the frameworks are first designed and afterwards implemented. As the next step, the two new search algorithms are developed and implemented into the frameworks. As the final step, both algorithms are benchmarked, evaluated and compared to Gnutella Flooding, k-Walker, AntNet for P2P and SMP2P. Overall, Bark Beetle and the adapted Physarum Polycephalum algorithm show very good scalability regarding growing network size and load. In terms of absolute time, both algorithms show very promising results with only k-Walker having slightly better results for networks with high replication. In terms of success rate, Bark Beetle shows an almost equal good success rate as Gnutella Flooding, without having the same major drawbacks. Although the success rate for the Physarum Polycephalum adaption is very low for networks with small replication, it is significantly better for networks with high replication.