EPILOG Sommersemester 2018

Auszeichnungen

Weitere Nominierungen für Distinguished Young Alumnus/a Award SoSe 2018

Ausgestellte Arbeiten

Institut für Institute of Computer EngineeringE191

Arbeitsbereich Research Division of Embedded Computing Systems

Diplomarbeitsposter Fimml Patrik

Patrik Fimml

Masterstudium Technische Informatik
Abstract:

In this thesis, we use temporal-epistemic logic to analyze asynchronous message-passing systems with up to f Byzantine node failures. We introduce the class of contexts Gamma_bamp, a model for Byzantine asynchronous message-passing systems that allows us to apply temporal-epistemic logic. We propose an intuitive interpretation of knowledge for Byzantine-faulty agents. We use temporal-epistemic logic to prove that with up to f Byzantine-faulty agents, an agent can initially only gain knowledge by receiving messages from at least f+1 agents. We seek to apply temporal-epistemic logic to the analysis of fault-tolerant distributed clock synchronization. For this purpose we introduce Firing Rebels without Relay, a weaker problem related to clock synchronization. We apply our model to prove necessary and sufficient knowledge for the actions of agents in Firing Rebels without Relay. Based on necessary knowledge, we derive a lower bound on communication between agents.

Diplomarbeitsposter Fritz Bernhard

Bernhard Fritz

Masterstudium Technische Informatik
Abstract:

Das Institut für Technische Informatik der Technischen Universität Wien hat zur Untersuchung von strahlungsinduzierten Fehlern in hochintegrierten Schaltungen einen experimentellen Chip, den FRad-Chip, entwickelt. Im Laufe des Entwicklungsprozesses wurde das Design auf unterschiedliche Arten simuliert, um die Funktionalität sicherzustellen. Selbst die detailtreuesten Simulationen sind jedoch kein vollständiger Ersatz für Tests mit dem tatsächlichen Chip, da auch später im Entwicklungszyklus noch Fehler auftreten können. Die spezielle Schnittstelle des Chips und die hohen Ansprüche an die Datenintegrität erfordern einen auf die Aufgabe zugeschnittenen Controller. Das Ziel der Arbeit ist es ein zuverlässiges Kontrollsystem zu entwickeln, um die Funktionalität des Chips nützen zu können und durch eine Reihe unterschiedlicher Tests die Funktionalität des FRad-Chips zu verifizieren. Dieser Schritt ermöglicht es dem Institut mit dem Chip zuverlässige Strahlungsexperimente durchzuführen, um letztendlich Modelle über strahlungsinduzierte Ladungen in Halbleitern zu kalibrieren. Das entwickelte System besteht aus zwei Komponenten. Das “Field Programmable Gate Array” (FPGA) steuert den FRad-Chip an und liest die Messdaten aus. Ein Computerprogramm bildet die Schnittstelle zu dem Benutzer, der einerseits die Messparameter anpassen kann und andererseits unmittelbar Rückmeldung über die Messergebnisse bekommt. Ausgiebiges Testen hat eine Schwachstelle in dem Chip aufgedeckt, die eine Anpassung des Chipdesigns notwendig machte. Mit den funktionierenden Teilen des Chips konnte ein erstes Experiment in einem Forschungsreaktor durchgeführt werden. Aufgrund der geringen Strahlendosis und Messdauer, konnten jedoch keine Effekte in dem Chip beobachtet werden. Experimente in einer “micro-beam” Einrichtung könnten alle relevanten Bereiche des Chips individuell für kurze Zeit Strahlung aussetzen und somit effizienter und zielgerichteter Daten liefern, um den Chip zu analysieren.

Diplomarbeitsposter Pfleger Daniel

Daniel Pfleger

Masterstudium Technische Informatik
Abstract:

This thesis is concerned with the connection between knowledge and communication complexity in distributed systems. To find a lower bound on communication complexity for a problem P, we pursue a two-step approach: First we determine the necessary knowledge the processes must locally acquire to solve P. From this required knowledge and the processes’ a priori knowledge, we can infer what the processes have to learn throughout the execution. From this learning process, we can determine a lower bound on communication complexity. More specifically, we bridge the gap between Action Models, used in Dynamic Epistemic Logic to update the epistemic state of the system, and communication complexity and propose a way to determine a lower bound on the number of bits that need to be sent applying an action model in the general setting. As this thesis shall also support the chase for a strongest message adversary for the problem of solving consensus in directed dynamic networks, we apply our method in the case of two processes to find a lower bound on the communication complexity for this problem. It turns out, however, that there is no such bound. Nevertheless, as a by-product of our analysis, we provide necessary and sufficient con- ditions for a message adversary that allows to solve consensus in a directed dynamic network of two processes.

Arbeitsbereich Research Division of Automation Systems

Diplomarbeitsposter Beck Florian

Florian Beck

Masterstudium Technische Informatik
Abstract:

Um die Position einer Person stabil schätzen zu können, ist es erforderlich, sie nicht nur mit Sensoren wie Kameras oder Laserscannern zu erfassen, sondern auch Messungen verschiedener Sensoren über die Zeit zu kombinieren. Diese Diplomarbeit beschäftigt sich mit solchen Schätzungen für mehrere Personen. Um die Position einer Person unter der Einbeziehung von Detektionen verschiedener Sensoren zu schätzen wird ein Partikel-Filter verwendet. Das Filter benötigt ein menschliches Bewegungsmodell, um die Bewegung einer Person zu schätzen. In dieser Arbeit stellen wir einen neuen Ansatz basierend auf statischen Karten und historischen Daten vor, um die Qualität der Vorhersage im Gegensatz zu typischen, bisher verwendeten State-of-the-Art Ansätzen wie Constant-Velocity und Coordinated-Turn zu verbessern. Um den Ansatz auf mehrere Personen zu erweitern, wird die Nearest-Neighbor-Data-Association Strategie verwendet, welche Detektionen zu existierenden Tracks zuordnet. Für das Initialisieren neuen Tracks auf Basis neu detektierter Personen beziehungsweise für das Löschen von veralteten Tracks werden gängige Lösungen aus der Literatur verwendet. Um den Ansatz auszuwerten, wurde zunächst die Vorhersage-Qualität des vorgestellten Bewegungsmodells mit dem Constant-Velocity und dem Coordinated-Turn Bewegungsmodell in bestimmten Szenarien verglichen. Die Ergebnisse legen nahe, dass das vorgestellte Bewegungsmodell wesentlich bessere Vorhersagen liefert. Darüber hinaus wurden zwei reale People-Tracking-Szenarien getestet, um die allgemeine Tracking-Qualität zu beurteilen. Zu diesem Zweck wurden wieder die drei oben genannten Bewegungsmodelle verglichen. Die Ergebnisse zeigen, dass bei ausreichend hoher Frequenz and Detektionen das Bewegungsmodell einen relativ geringen Einfluss auf die Tracking Qualität hat, jedoch kann das vorgestellte Bewegungsmodell durch die genauere Vorhersage fehlende Detektionen besser ausgleichen.

Diplomarbeitsposter Binder Benjamin

Benjamin Binder

Masterstudium Technische Informatik
Abstract:

Using robot fleets have gained popularity in recent years in industrial logistics applications because of their flexible field of application. Therefore, the issue arises how to coordinate these robots. A commonly used approach to this problem is Prioritized Planning, where a coordinator plans all robot's routes sequentially avoiding already planned ones. This thesis presents a new approach for prioritized multi robot path planning. The proposed planner works centralized and generates synchronized and deadlock-free routes for robots. Applying search algorithms on pixel-maps is expensive, therefore, pixel-maps are reduced to search graphs using voronoi distillation. A single robot path planner for use inside a prioritized multi robot path planner is designed. This single robot path planner constrains the creation of new routes by adding already planned ones to the used search graph. To find solutions in this graph the single robot path planner is able to take temporal and spacial constraints into account. Furthermore, potential collisions and deadlocks between robots are avoided by extending the search graph with additional segments if a collision is detected. The global multi robot path planner includes a priority and speed rescheduler as well, to solve specific scenarios which are hard to solve using prioritized path planning. Because the routes are generated time-dependently, they are post-processed to add synchronization markers in form of preconditions for every robot. These preconditions have to be met before a robot is allowed to enter a segment. Selected scenarios with multiple robots are used to compare the proposed planner with state of the art approaches in a simulated environment. Also scenarios are shown to be solvable with the proposed planner, which are not solvable with currently used approaches.

Diplomarbeitsposter Buchegger Klaus

Klaus Buchegger

Masterstudium Technische Informatik
Abstract:

In order to enable driverless vehicles to navigate autonomously in an environment shared with humans, the human movements and social guidelines (e.g. passing side preferences) have to be considered, to ensure both safe and efficient navigation. This work presents a predictive, human-aware motion controller which optimizes the vehicle trajectory at the control level with a high update rate. Predicting future positions of persons allows the system to optimize a trajectory around those predictions, yielding a sequence of motor controls for a smooth executed motion. The prediction is based on human movement data, learned from observing an environment. A model predictive controller is enhanced with constraint functions that ensure a safe distance to humans and their predicted future positions, and with cost functions that favor trajectories that satisfy social guidelines. The improvements were statistically evaluated using simulation runs in terms of travel duration, path length, and minimum distance to persons along the path. Additionally, we also analyzed how steady the planned trajectories were, in terms of velocity and orientation, as sudden brakes, accelerations or jerks to some direction could irritate humans in close proximity. This way, we are able to show that the developed motion controller performs significantly better than a controller without human-awareness.

Diplomarbeitsposter Gschweicher Reinhold

Reinhold Gschweicher

Masterstudium Technische Informatik
Abstract:

Smart Buildings collect and store data from lots of sensors to save energy and improve the comfort level of the occupants among other things. The usefulness of the collected samples can be enhanced by fusing them with external data sources. These improved data points could be analysed to help save energy and therefore money. However before working with the data, it must first be retrieved from web servers. These provide their information in various formats like CSV, JSON and XML. Each format must be treated and parsed differently. Ontologies are a great tool for combining data points and representing knowledge. In this thesis, a response description ontology to describe web service responses in CSV, JSON or XML format is created. To verify the applicability of the ontology it is used by a parser to extract the specified data points in web service responses. The extracted data is then used to calculate one day heat energy consumption forecasts in a smart office building situated in Vienna.

Diplomarbeitsposter Kudera Christian

Christian Kudera

Individuelles Masterstudium Hardware and Software Security
Abstract:

Fault Angriffe sind eine wohl bekannte Angriffsform im Bereich der Hardware Security. Eine verbreitete Art der Fault Injection ist das kurzfristige Variieren der Versorgungsspannung, wodurch ein dafür anfälliger Prozessor Instruktionen falsch interpretiert oder überspringt. Glücklicherweise erkennen immer mehr Hersteller von Mikrocontrollern die Wichtigkeit von gehärteter Hardware und implementieren Gegenmaßnahmen gegen Fault Angriffe. In dieser Arbeit wird eine neue Methode der Fault Injection Angriffe vorgestellt. Während die Spannungsversorgung bei herkömmlichen Angriffen lediglich in Richtung GND gezogen wird, wird bei der neuen Methode auch der negative Spannungsbereich ausgenutzt. Die Hypothese dieser Arbeit ist, dass dadurch kürzere Glitches und eine schnellere kapazitive Entladung erreicht werden. Durch die Nutzung von negativen Spannungen wird eine höhere Flankensteilheit erwartet, da Schaltungsimplementierungen innerhalb und außerhalb von Mikrocontrollern schneller entladen werden können. Im Rahmen der Arbeit wurde ein Prototyp für die neue Methode implementiert und evaluiert, um diese Hypothese zu überprüfen. Die Ergebisse zeigen, dass insbesondere in Gegenwart von höheren kapazitiven Lasten Fault Angriffe nicht nur vereinfacht, sondern überhaupt erst ermöglicht werden. Gegenüber klassischen Angriffen konnten zudem kürzere Glitches erreicht werden, sodass auch Controller mit höheren Taktraten angegriffen werden können.

Diplomarbeitsposter Pannosch Jürgen

Jürgen Pannosch

Masterstudium Technische Informatik
Abstract:

Over the years, more and more buildings got equipped with a building automation system (BAS) which provides the ability to automate building services, like heating, cooling, ventilation, air conditioning, shading, lighting, alarming, safety and security systems. Furthermore, an additional aim of a BAS is to optimize such services automatically. Such optimizations can have different purposes, e.g., to make the building more energy efficient, raise the comfort of the users, or just to make them more maintainable. For most optimization tasks, it is essential to know the future behavior of a building. Forecasts of different sensors in the building can generate this knowledge. Therefore, this thesis evaluated different algorithms to forecast such sensor data. The algorithms under investigation are ARIMA, ANN and SVM. The evaluation was divided into five categories related to different types of sensors in a building. These types of sensors were electricity, district heating, humidity, temperature, and photovoltaic production. Furthermore, the algorithms were evaluated at different seasons to ensure the accuracy of the algorithms throughout the year. This approach ended in a comprehensive performance evaluation where the ANN algorithm was superior to the others. Finally, the ANN algorithm with its elaborated network structure was implemented in a JAVA library for further development and reuse.

Diplomarbeitsposter Pühringer Clemens

Clemens Pühringer

Masterstudium Software Engineering & Internet Computing
Abstract:

Computer simulations are becoming increasingly complex. Different simulation techniques are needed to correctly simulate systems that consist of both continuous and discrete components. Current simulation tools offer support for either one or the other, but only limited or no support for both at the same time. By using co-simulation, a model can be split into multiple parts, which can then be simulated by different tools and methods and exchange data at runtime. Current co-simulation approaches are either hard to use in a custom co-simulation setup or are only designed for a very specific use-case. More flexible tools are needed to simplify the separation of a model into multiple parts. This thesis presents a comparison of different coupling methods and protocols for data exchange in a co-simulation setup. For this purpose, a new co-simulation framework was developed which supports Matlab/Simulink and OpenModelica simulations and exchanges data via the Simple Object Access Protocol (SOAP) and OPC Unified Architecture (OPC UA) binary protocol. These high-level protocols were chosen due to their flexibility. Both allow to transport structured information and can be extended easily. Also, the framework is designed to handle weak and dynamic coupling methods. The different coupling methods are compared to each other in terms of speed and accuracy. As a proof-of-concept, an existing model for simulating industrial energy efficiency was split into two parts and simulated with the framework. The results of the co-simulation are validated with existing results of a reference imple- mentation and show a satisfactory outcome. While not exact, they demonstrate that the results of the co-simulation converge towards the original results when reducing the macro-step size. They also show that dynamic coupling methods are far more accurate than the widely used weak coupling methods and may even provide better results in less time.

Arbeitsbereich Research Division of Parallel Computing

Diplomarbeitsposter Pöter Manuel Johannes

Manuel Johannes Pöter

Masterstudium Software Engineering & Internet Computing
Abstract:

Diese Arbeit befasst sich mit der Problematik der Wiederverwendung von alloziertem Speicher im Kontext von nebenläufigen Datenstrukturen. Speicherverwaltung ist ein wesentlicher Aspekt in fast allen shared-memory concurrent Datenstrukturen und Algorithmen, bestehend aus Allokation und Freigabe bzw. Wiederverwendung von Resourcen. Speziell die Freigabe bzw. Wiederverwendung nicht mehr benötigter Objekte stellt eine große Herausforderung dar und ist daher nach wie vor ein aktives Forschungsgebiet. Diese Arbeit bietet einen ausführlichen Überblick über den aktuellen Forschungsstand und beschreibt einen Großteil der aktuellen Reclamation Schemata. Desweiteren wird ein neues Schema namens Stamp-it vorgestellt. Einige der beschriebenen Reclamation Schemata wurden in C++ implementiert. Die Implementierung basiert auf einem generalisierten, abstrakten Interface, welches für den C++ Standard vorgeschlagen wurde. Es wurden die folgenden Schemata implementiert: Lock-free Reference Counting, Hazard Pointers, Quiescent State-based Reclamation, Epoch-based Reclamation, New Epoch-based Reclamation und Stamp-it. Ausführliche Erklärungen der Implementierungen werden ebenso präsentiert wie Argumente zu ihrer Korrektheit, basierend auf dem C++11 Speichermodell. Die implementierten Schemata wurden in einer umfangreichen, experimentellen Analyse untersucht. Es wurden sowohl neue, als auch häufig genutzte Benchmarks auf vier verschiedenen shared-memory Systemen eingesetzt. Die Ergebnisse zeigen, dass Stamp-it in den meisten Fällen vergleichbare, in einigen Fällen auch bessere Performance bietet als andere Schemata.

Institut für Institute of Logic and ComputationE192

Arbeitsbereich Research Division of Algorithms and Complexity

Diplomarbeitsposter Dittmer Verena

Verena Dittmer

Masterstudium Computational Intelligence
Abstract:

Obwohl die ganzzahlige lineare Programmierung (ILP) und die gemischte ganzzahlige Programmierung (MILP) NP-vollständige Probleme sind, schaffen es moderne Solver diese Probleme mit Millionen von Variablen oder Ungleichungen zu lösen. Trotzdem bleiben bestimmte ILP-Instanzen mit einer relativ geringen Größe immer noch ungelöst. Neueste Fortschritte haben gezeigt, dass manchmal die Struktur von graphischen Modellen der ILP- und MILP-Instanzen (gemessen durch etablierte strukturelle Parameter wie die Treewidth oder Tree-depth) ausgenutzt werden kann um diese effizient zu lösen. In dieser Arbeit analysieren wir die Struktur von graphischen Repräsentationen von ILP- und MILP-Instanzen aus der Praxis, indem wir die Werte von verschiedenen strukturellen Parametern berechnen. Unser Framework MILP-Struct stellt die Beziehungen zwischen den Variablen und Ungleichungen mittels dem Primal-, Incidence- und Dual-Graphen der ILP- oder MILP-Instanz dar. Auf diesen graphischen Modellen werden dann Unter- und Obergrenzen von den strukturellen Parametern Treewidth, Tree-depth und Torso-width berechnet, für welche in letzter Zeit Fest-Parameter-Algorithmen zum Lösen von ILP oder MILP etabliert worden sind. Die Ergebnisse von MILP-Struct angewendet auf die MIPLIB Bibliothek von praktischen ILP- und MILP-Instanzen zeigen, dass manche der berechneten Parameter tatsächlich viel kleiner als die Anzahl der Variablen sind.

Arbeitsbereich Research Division of Database and AI

Diplomarbeitsposter Blöschl Martin

Martin Blöschl

Masterstudium Computational Intelligence
Abstract:

Viele wichtige Probleme aus der Praxis, etwa das "rotating workforce scheduling problem" können mit Constraint Programming modelliert werden. Gute Lösungen für diese Probleme können nicht nur große Kostenersparnisse für Firmen ermöglichen, sondern auch die Mitarbeiterzufriedenheit erhöhen. Aus diesem Grund sind in den vergangenen Jahren viele (textbasierte) Constraint Programming Sprachen entstanden. Mit Hilfe dieser Sprachen kann man komplexe Probleme präzise formulieren. Dazu ist es aber nötig, die Syntax der jeweiligen Sprache zu beherrschen. Für viele andere Programmierparadigmen, etwa für objektorientierte Programmierung, wurden graphische Sprachen entwickelt. Für Constraint Programming ist dies unseres Wissens nicht der Fall. Eine graphische Umgebung für Constraint Programming würde es erlauben, wichtige Probleme der Praxis zu modellieren, ohne die Syntax einer textbasierten Sprache zu kennen. In dieser Arbeit stellen wir eine neue und intuitive graphische Umgebung zur Erstellung von Constraint Programming Modellen vor. Wir zeigen einen neuen gitterbasierten Ansatz, mit dem es möglich ist, Variablen und Constraints zu erstellen und im zweidimensionalen Raum anzuordnen. Wir zeigen, wie man häufig vorkommende Subprobleme wie Routen auf eine einfache grapische Art modellieren kann. Wir werden auch demonstrieren, wie solche graphische Modelle in die bekannte MiniZinc Sprache umgewandelt werden können, damit sie mit bestehenden Solvern gelöst werden können. In der Evaluierung haben wir festgestellt, dass es mit der vorgestellten Umgebung möglich ist, viele bekannte Probleme wie das "rotating workforce scheduling problem", das "social golfer problem" und das "traveling salesperson problem with time windows" zu modellieren. In manchen Instanzen haben wir beim Lösen Laufzeiten erreicht, die vergleichbar zu bestehenden Ansätzen sind.

Diplomarbeitsposter Eckerstorfer Florian

Florian Eckerstorfer

Masterstudium Software Engineering & Internet Computing
Abstract:

In this thesis, we introduce an approach to web ranking extraction, which is based on the analysis of visual features. Web rankings are ordered lists of web objects that are commonly used on websites. Our system uses visual features to identify these objects based on the fact that web rankings share a strong visual language. Therefore we can efficiently train a classifier with a small set of examples and extract data from websites with a different source code. We also present an extension for Google Chrome to annotate examples of web rankings. The Wres Annotation Extension is available publicly under a permissive Open Source license and relies on W3C standards. Using our annotation tool we build a training set containing examples using commonly used web ranking layouts, namely table, list, simple list, grid and tiling layouts. We also present a model to formally describe web rankings. Semi-supervised machine learning techniques are used to build classifiers for web ranking identification. We use Weka to train and run our classifiers throughout the thesis. Our thesis includes description of supervised and semi-supervised techniques. We evaluate our classifiers and compare the results of different machine learning techniques. In our evaluation we found that our system works best for labels that repeat multiple times and have a distinctive visual representation. With the Random Forest algorithm we could achieve a precision of 0.9427 for repeating labels and a precision of 0.7573 for non-repeating labels. Addtionally we compare our system to two commercial available, proprietary web extraction systems: Diffbot and Import.io. We found that our system outperforms Diffbot and Import.io with 71% correctly extracted web rankings by specialising solely on web rankings.

Diplomarbeitsposter Kletzander Lucas

Lucas Kletzander

Masterstudium Computational Intelligence
Abstract:

In vielen Berufen ist es erforderlich, in verschiedenen Schichten zu arbeiten, etwa im Gesundheitswesen, in Sicherheitsdiensten oder in Callcentern. Dabei können Anforderungen auf unterschiedliche Arten festgelegt werden, diverse Gesetze müssen eingehalten werden und die Zufriedenheit der Angestellten muss berücksichtigt werden. Hier sind automatisierte Lösungen notwendig, um im Wettbewerb zu bestehen. Allerdings ist es dennoch schwer, in annehmbarer Zeit gute Lösungen zu erreichen, da viele dieser Probleme NP-schwer sind. Es ist eine große Herausforderung, eine allgemeine Formulierung und dazu passende Lösungsmethoden zu entwickeln. Zunächst wird ein Beitrag zur Formulierung des General Employee Scheduling (GES) Problems geleistet, um zahlreiche verschiedene Personalplanungsprobleme darstellen zu können. Der Hauptbeitrag der Arbeit ist die Entwicklung eines neuen Frameworks für das GES-Problem, mit dem verschiedene heuristische Lösungsmethoden implementiert und angewandt werden können. Dazu wird ein einheitlicher Umgang mit Bedingungen und die Möglichkeit für die Implementierung verschiedener wiederverwendbarer Nachbarschaften geschaffen. Eine neue Suchmethode wird in dem Framework implementiert. Ein Generator für neue Instanzen kann Anforderungen und Bedingungen in neuen Arten kombinieren. Um die Anwendbarkeit für eine Vielzahl von Problemen zu zeigen, nehmen wir unterschiedliche Probleme aus der Literatur, übersetzen diese in unsere Formulierung und wenden unsere Lösungsmethode auf diese Instanzen und unsere eigenen Instanzen an. Die Ergebnisse zeigen, dass unterschiedliche Probleme in der Personalzeitplanung in unserer Formulierung dargestellt werden können und das Framework erfolgreich angewandt werden kann. Der Vergleich mit den Ergebnissen aus der Literatur zeigt, dass der implementierte Algorithmus gute Ergebnisse für die meisten Instanzen liefert und eine gute Basis für die Entwicklung von spezialisierten Algorithmen bildet.

Arbeitsbereich Research Division of Theory and Logic

Diplomarbeitsposter Okulmus Cem

Cem Okulmus

Masterstudium Computational Intelligence
Abstract:

Diese Arbeit dient einer einheitlichen Präsentation der neuesten Modelle von Quantoren-Fuzzifikationsmechanismen (QFMs). Diese sind ein Kernstück eines methodischen Rahmens von Ingo Glöckner, um Fuzzy-Quantoren von Semi-Fuzzy-Quantoren abzuleiten. Es erfolgt eine Analyse dieser Modelle im Bezug auf die axiomatischen Eigenschaften, die Glöckner definiert hat, um die ``linguistische Adäquatheit'', sowie anderer wichtiger Eigenschaften von QFMs zu charakterisieren. Zusätzlich wurde als Teil dieser Arbeit ein plattformunabhängiges Programm entwickelt, das es erlaubt Queries mit Fuzzy-Quantoren zu evaluieren und Plots der Wahrheitsfunkionen von Semi-Fuzzy-Quantoren und von QFM abgeleiteten aussagenlogischen Operationen darzustellen.

Diplomarbeitsposter Swoboda Sylvia

Sylvia Swoboda

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Especially in security-critical applications, the correctness of software is a major factor. In addition to static and dynamic test approaches to find errors in a software or system, formal verification methods target on proving the correctness of software. It constitutes an important component of determining whether a specification is coherent and sound and is satisfied by an implementation. One of the most widely used specification languages is the Z notation. With its object-oriented extension Object-Z, it offers a possibility to formalize even complex systems in a modular manner. However, the tool support for the verification of specifications or even the generation of program code remains limited to type checking. Perfect Developer with its specification language Perfect was created with the idea of automatically verifying formal specifications, validating implementations against them and generating code. The idea of this work is to link these two technologies and to automatically convert a given Object-Z specification automatically into a Perfect specification making thus the functionalities of Perfect Developer available to the specifier. This work demonstrates that an automated translation of Object-Z language constructs into semantically equivalent constructs in Perfect is possible. After a detailed analysis of the relevant parts of the syntax and semantics of the two languages, we develop rules with the help of which the individual language constructs of the source language can be translated into the target language. It is necessary to analyze the internal representation of the original specification in several passes to obtain all the semantic information relevant to the transformation in a structured manner. With the help of a case study, we evaluate the implementation of the rules. The developed tool is available on Github.

Diplomarbeitsposter Özdemir Mevlüt

Mevlüt Özdemir

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Das International Office der Technischen Universität Wien ist für die Verwaltung von Austauschprogrammen verantwortlich und brauchte ein webbasiertes Workflow Manage-ment-System, um die Prozesse der Bildungsmobilität zu verwalten. Nach einer Make-or-Buy-Analyse entschied das International Office zu einer Eigenentwicklung eines moder-nen Systems. In der vorliegenden Arbeit wird das eigenentwickelte Workflow Manage-ment-System „Mobility Services“ vorgestellt, das die Prozesse der Bildungsmobilität abbil-det. Im ersten Teil der Arbeit werden die Grundlagen von Bildungsmobilität, Workflow Ma-nagement-Systemen und Web-Applikationen diskutiert. Aufbauend auf den Grundlagen werden die Prozesse der Bildungsmobilität am Beispiel von Erasmus beschrieben. Der Ausgangszustand zu Beginn des Projekts, die Stakeholder und die Anforderungen des Workflow Management-Systems werden detailliert erklärt. Im technischen Teil der Arbeit wird die Architektur veranschaulicht und die Details über die Umsetzung vorgestellt.

Institut für Institute of Visual Computing and Human-Centered TechnologyE193

Arbeitsbereich Research Division of Computer Vision

Diplomarbeitsposter Atanasov Michael

Michael Atanasov

Masterstudium Medizinische Informatik
Abstract:

With increased age, challenges like cognitive and physical decline are more likely to occur and involve the age-related frailty syndrome, which is characterized by lower resistance against stress, diseases, and other exogenous influences. Frail older adults have an enhanced need of health care utilization, are more likely to fall and be hospitalized due to reduced cognitive and physical capabilities. Due to correlation between frailty and physical fitness, there are physical performance tests, to assess a person's mobility, and the associated risk to become frail. In this thesis, the fitness level is automatically assessed based on measurement of gait parameters and sit-to-stand performance. The first measurement method analyses human gait for walking velocity, distance, and duration. Further, a literature-based scale-space filtering approach is compared to a machine learning approach to determine gait events, which are further used to estimate gait cycle components. The comparison shows better results for the machine-learning approach, and gait cycle component estimation comparable to state-of-the-art measurements using wearable accelerometers. The second measurement method is split into two problems: the detection of sit-to-stand movements and the measurement of sit-to-stand transition durations using curve-sketching. Stand-up detection achieves best results using a random-forest algorithm, the duration measurement achieves results comparable to state-of-the-art methods. For both measurements, person tracking data from depth sensors are utilized, which allows non-intrusive, privacy protecting capturing of motion at habitual speed in the homes of older persons. For evaluation of the proposed measurement approaches, two datasets have been recorded and manually annotated. A holistic system combining the measurement algorithms was tested in an 8-week field trial with 4 older adults.

Diplomarbeitsposter Fermitsch Andreas

Andreas Fermitsch

Masterstudium Medieninformatik
Abstract:

Zunehmende Gesundheitsprobleme wie Diabetes oder Herz-Kreislauferkrankungen können unter anderem auf unsere Ernährung zurückgeführt werden. Diverse Applikationen benötigen eine Monitierung ernährungsbezogener Metadaten, wie etwa die Nahrungszusammensetzung der täglichen Kalorienaufnahme. Existierende Methoden für Ernährungsauswertungen, wie 24-Stunden Erinnerungsprotokolle oder Verzehrsprotokolle, sind oft ungenau, zeitaufwändig, teuer und schwerfällig. Auswertungen die auf Photographien von Malzeiten basieren, bieten eine Alternative zu den traditionellen Methoden. Sie eröffnen die Möglichkeit, diese zu unterstützen und zu verbessern. Um State-of-the-art Methoden zur Erkennung von Essen zu identifizieren, wird eine Recherche gängiger Computer Vision-Methoden durchgeführt. Die Bag-of-Features-Codierung wird als Bemessungsgrundlage, und die Fisher Vector-Codierung als Erweiterung implementiert. Diverse Farb- und Textur-Bildbeschreibungen werden verglichen und analysiert. Um die Codierung weiter zu verbessern werden zwei räumliche Sampling-Methoden für die Bildbeschreibungen verwendet. Um mehrere Bildbeschreibungen zu kombinieren, werden zwei unterschiedliche Strategien miteinander verglichen. Eine dritte Implementierung verwendet Convolutional Neural Networks für die Extraktion von Bild-Merkmalen und die Kategorien-Klassifizierung. Zwei Netzwerk-Architekturen, AlexNet und GoogLeNet werden verwendet. Alle drei Techniken werden auf drei unterschiedlich großen Bild-Datensätzen von Malzeiten angewandt. Die Fisher Vector-Codierung übertrifft die Bag-of-Features-Codierung, und die Convolutional Neural Networks die Fisher Vector-Codierung. Die besten Klassifizierungsresultate liegen bei etwa 80% bei 100, und bei etwa 71% bei 256 Essens-Kategorien. Bei allen drei Datensätzen, liegt die Top-5 Erkennungsrate in einem Bereich von 90-96%.

Arbeitsbereich Research Division of Computer Graphics

Diplomarbeitsposter Bauer Dominik

Dominik Bauer

Masterstudium Visual Computing
Abstract:

To facilitate the safe evacuation of buildings, escape-route safety signs need to be placed along the whole escape route such that they are legible for building occupants. While standards and legal requirements provide suggestions on how to select and place safety signs to achieve this, they do not provide sufficient considerations concerning people suffering from vision impairments. A main cause of vision impairment are age-related eye diseases, with the most common symptom being the loss of visual acuity. We investigate the influence of visual acuity on the ability to recognize safety signs using a novel methodology, evaluating existing standards concerning vision impairments: We calibrate the visual acuity of the test subjects to the same level via a standardized medical test in VR. This is achieved by using test subjects with normal or corrected vision and simulating the impairment in VR. Furthermore, we present a tool for lighting designers which enables them to check their designs considering maximum recognition distances to investigate problematic areas along an escape route. Using our novel user-study methodology, we determined the recognition distances for safety signs, observed under two different levels of visual acuity and varying observation angles. In addition, we determined the impact of the HTC Vive's HMD on the visual acuity achievable in VR. We conclude that the existing standards fail to correctly estimate the maximum recognition distances of safety signs for observers suffering from reduced visual acuity.

Diplomarbeitsposter Pezenka Lukas

Lukas Pezenka

Masterstudium Visual Computing
Abstract:

In this thesis, we present BrainXplore, an interactive visual analysis tool for aiding neurosurgeons in planning brain biopsies. BrainXplore is an extendable Biopsy Planning framework that incorporates those rules while at the same time leaving full flexibility for their customization and adding of new structures at risk. Automatically computed candidate trajectories can be incrementally refined in an interactive manner until an optimal trajectory is found. We employ a spatial index server as part of our system that allows us to access distance information on an unlimited number of risk structures at arbitrary resolution. Furthermore, we implemented InfoVis techniques such as Parallel Coordinates and risk signature charts to drive the decision process. As a case study, BrainXPlore offers a variety of information visualization modalities to present multivariate data in different ways. We evaluated BrainXPlore on a real dataset and accomplished acceptable results. The participating neurosurgeon gave us the feedback that BrainXPlore can decrease the time needed for biopsy planning and aid novice users in their decision making process.

Diplomarbeitsposter Rainer Bernhard

Bernhard Rainer

Masterstudium Visual Computing
Abstract:

This thesis presents a semi-automated method for shape detection in out-of-core point clouds. Rather than performing shape detection on the entire point cloud at once, a user-controlled interaction determines the region that is to be segmented next. By keeping the size of the region and the number of points small, the algorithm produces meaningful results within a fraction of a second. Thus, the user is presented immediately with feedback on the local geometry. As modern point clouds can contain billions of points and the memory capacity of consumer PCs is usually insufficient to hold all points in memory at the same time, a level-of-detail data structure is used to store the point cloud on the hard disc, and data is loaded into memory only on use. This data structure partitions the point cloud into small regions, each containing around 5000 points, that are used for rendering and shape detection. Interacting with point clouds is a particularly demanding task. A precise selection of a region of interest, using the two-dimensional lasso interaction, often needs multiple view changes and subsequent improvements. This thesis proposes improvements to the lasso interaction, by performing selection only on the set of points that are approximated by a detected shape. Thus, the selection of undesired points in the fore- and background is reduced. Point picking is improved as well by the use of a detected shape, such that only points that are approximated by this shape are pick-able. The result of this thesis is an application that allows the user to view point clouds with millions of points. It also provides a novel interaction technique for quick local shape detection as well as shape-assisted interactions that utilize this local semantic information to improve the user’s workflow.

Diplomarbeitsposter Reiter Oliver

Oliver Reiter

Masterstudium Medizinische Informatik
Abstract:

Automatische Segmentierung der Beckenorgane spielt eine große Rolle bei der Behandlung von Prostatakrebs und hat hohe Ansprüche an die Genauigkeit der Ergebnisse. Segmentierungsexperten arbeiten ständig daran, ihre Algorithmen zu verbessern, jedoch ist die anatomische Variabilität der Organe und Strukturen oft ein Grund, warum diese Algorithmen schlechte Ergebnisse produzieren. Deswegen ist ein Verständnis dafür, warum dies in einem bestimmten Fall passiert, für die Verbesserung sehr wichtig. Segmentierungsexperten vermuten, dass die Form und Größe von Organen eine große Auswirkung auf das Ergebnis der Algorithmen haben, jedoch fehlen ihnen derzeit noch Möglichkeiten, dies zu untersuchen und zu analysieren, da derzeitige Lösungen noch zu wenig Einblick bieten. Diese Arbeit beschäftigt sich mit dem Design und der Implementierung einer webbasierten Anwendung, die eine einfache Untersuchung und Analyse der Variabilität von Formen der Organe ermöglicht, um Hypothesen über das Verhältnis von Formen zu den entsprechenden Segmentierungsergebnissen aufzustellen. Außerdem wird eine neue Art der komparativen Visualisierung von mehreren Organen mehrerer Patienten vorgestellt, die einen genauen Vergleich von Formen ermöglicht. Die Anwendung wurde mit einem Datensatz von Segmentierungen einer Kohorte von 17 Patienten getestet, wobei jedes Segmentierungsnetz aus vier Organen und zwei Kontaktflächen besteht, deren Dreiecke jeweils übereinstimmen. Die entwickelten Tools ermöglichen, fehlerhafte Segmentierungen schnell zu erkennen und Hypothesen über die Beziehung der Variabilität von Organen zu anatomischen Gegebenheiten und auch der Qualität der Segmentierung zu erstellen. Obwohl der Ansatz der Arbeit nur auf Segmentierungen der Beckenorgane angewandt wurde, kann er auch für andere Anwendungen erweitert werden, wie zum Beispiel den Vergleich von Segmentierungsalgorithmen oder die Analyse von anatomischer Variabilität.

Diplomarbeitsposter Szabo Attila

Attila Szabo

Masterstudium Visual Computing
Abstract:

Photogrammetry is the act of recovering information from photographs. Thanks to digital photography and cheap consumer cameras, the recent years have seen a rising interest in photogrammetry as a more flexible alternative to traditional surveying tech- nologies, for example laser scanners. Specifically, the flexibility of photo cameras makes photogrammetry suitable for outdoor scenes unfavourable for heavy equipment, such as construction sites or drone flights. However, commercial photogrammetry software often makes experimentation with novel techniques difficult, since the subject is mathematically complex and code is often difficult to modify or closed source. In this diploma thesis, we present a composable, reusable photogrammetry library which aims to facilitate confident experimentation in a scientific context. We derive important components needed for photogrammetry, including the representation of data (Feature Extraction and Feature Matching), obtaining three dimensional scene structure from two dimensional images (Pose Recovery) and computing a globally consistent model from arbitrarily many images (Structure From Motion and Bundle Adjustment). Adhering to Functional Programming paradigms, we compose these basic components to form more complex modules, and show how to build an extensible and flexible library API on multiple levels of abstraction. Accompanying code listings and examples are included, showcasing example reconstructions with our library.

Arbeitsbereich Research Division of Pattern Recognition and Image Processing

Diplomarbeitsposter Huber Hanna

Hanna Huber

Masterstudium Visual Computing
Abstract:

In this thesis, a new method for checkerboard indexing is presented. A graph-based approach is used to capture the topology of the checkerboard pattern. The regions and crosspoints of the pattern are identified using image segmentation and represented by a graph. At this point, no explicit mathematical model is assumed which describes the distortion in the checkerboard image. A special calibration pattern design allows the identification of a unique reference point in the pattern. This way, the crosspoints can be interpreted as the grid points of a target coordinate system. Possible applications in the fields of camera calibration and multi-view processing are discussed.

Arbeitsbereich Research Division of Multidisciplinary Design

Diplomarbeitsposter Gligoroski Renato

Renato Gligoroski

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Großtechnische Systeme oder Large Technical Systems (LTS) sind soziotechnische Gebilde mit großer räumlicher Ausdehnung und tiefgreifenden gesellschaftlichen Verflechtungen. Sie sind in vielen Bereichen zu finden, im privaten und beruflichen, im physischen sowie abstrakten Bereich und ihr Rückgrat bildet in der Regel die für den Menschen zur Selbstverständlichkeit gewordene Verwendung von technischen Apparaten. Diese „Vernetzwerkung der Realität“ scheint aufgrund der ebenso stetig zunehmenden Möglichkeiten der digitalen Informations- und Computertechnologie kontinuierlich zuzunehmen, immer mehr Dinge werden miteinander verknüpft um ihre Wirkungssphäre noch weiter auszudehnen oder zusätzlichen Mehrwert zu generieren, wodurch Große Technische Systeme stets allgegenwärtiger werden und immer mehr an kritischer Bedeutung für unsere Gesellschaft gewinnen. Die vorliegende Arbeit versucht den methodischen Ansatz des Technologiehistorikers Thomas P. Hughes, den „LTS-Approach“, auf die historischen Geschehnisse im Zuge der Entstehung des Wasserversorgungssystems der Stadt Wien zu übertragen und dabei Einblicke in die Genese eines LTS zu bekommen. Das Ziel dieser Diplomarbeit ist es, einerseits, ein LTS zu studieren und dabei Erkenntnisse zu gewinnen, wie es zu seiner Implementierung gekommen ist, ob und welche (wenn überhaupt) von Hughes vorgegebene Regelmäßigkeiten und welche Phasenabläufe dabei präsent waren, oder welche Institutionen und Personengruppen eine entscheidende Rolle in der Genese spielten. Und andererseits, aus diesem Kontext allgemeines Wissen für die Dynamik von modernen Großen Technischen Systemen, wie zum Beispiel jenen der Computer- und Informationstechnologie, zu erlangen.

Diplomarbeitsposter Wenter Tanja Maria

Tanja Maria Wenter

Masterstudium Information & Knowledge Management
Abstract:

Nowadays, people are using the Internet not only to interact and connect with each other, but also to handle routine tasks offered by businesses. Since the user base is rapidly growing, wide varieties of business service providers are increasing their offered online services. To keep pace with ever-changing requirements by diverse user groups, it is indispensable to design these services in a way that includes everybody. Thus, Usability and Accessibility should be key requirements when designing Web interfaces or Web applications. Unfortunately, these Usability and Accessibility requirements are often ignored or poorly implemented. During the development of a Website, they are commonly disregarded and suspended to a later phase. This not only causes higher costs, but also results in dissatisfaction and frustration for users as well as the developers. The goal should be a homogeneous process that includes Usability and Accessibility requirements from the beginning. Such a homogeneous process is the focal point of the hereby presented work. It describes the definition of a process for Web development projects based on agile development methods. Each phase in this process has its emphasis on Usability and Accessibility. Expert interviews have been conducted to get acquainted with various approaches to Usability and Accessibility. The proposed process is built upon standards like the Web Content Accessibility Guidelines (WCAG). Each step of the process provides information for the following step and addresses Accessibility. This guarantees a continuous information flow and a steady development of accessible Websites. This proof-of-concept process also helps to minimize the costs during development and reduce maintenance costs related to Accessibility requirements. By accomplishing accessible Websites through the defined process, the consumer acceptance is also raised and the use of online services is made available for a broader user group.

Arbeitsbereich Research Division of Human Computer Interaction

Diplomarbeitsposter Appel Regina

Regina Appel

Masterstudium Medieninformatik
Abstract:

Das Thema von barrierefreien Webseiten gewinnt dank gesetzlicher Richtlinien in den letzten Jahren, vor allem seit dem Ende der Übergangsfrist des Gesetzes über Gleichstellung von Menschen mit Behinderung in Österreich zu Beginn des Jahres 2016, an Bedeutung. Durch die zunehmende Verbreitung des Internets und den vermehrten Zugriff von mobilen Endgeräten, hat sich auch die Entwicklung von Webseiten stark verändert. Das Thema ist also nicht mehr eine Frage der anzusprechenden Zielgruppen, sondern ein zentrales Thema der Informationsbereitstellung im Internet. Barrierefreiheit beschreibt den uneingeschränkten Zugang zu Informationen für alle Menschen, obgleich sie aus welchen Gründen auch immer, in ihrer Benutzung, durch physische und psychische Behinderungen eingeschränkt sind. Durch das Aufkommen von internetfähigen mobilen Endgeräten wie Smartphones und Tablets ist in den letzten Jahren der Begriff des responsiven Designs entstanden. Responsive Webdesign beschreibt die optimale Darstellung von Webinhalten auf unterschiedlichen Ausgabegeräten. Diese Diplomarbeit beschäftigt sich mit der Frage, eine bestehende, responsive Webseite barrierefrei zugänglich zu machen. Es gilt die Frage zu beantworten, welche Änderungen vorgenommen werden müssen, welche Probleme dabei auftreten, insbesondere im Zusammenhang mit responsive Design, und wie bei Neuentwicklungen von Webseiten kritische Punkte im Vorhinein vermieden werden können. Als Praxisbeispiel wird die Webseite der Österreichischen Galerien Belvedere barrierefrei optimiert. Das übergeordnete Ziel ist, die Webseite für alle BenutzerInnen uneingeschränkt nutzbar zu machen. Der Inhalt dieser Arbeit umfasst die theoretische Beschreibung der Anforderungen an barrierefreie und responsive Webseiten. Im praktischen Teil wird die Webseite des Belvederes auf HTML-Standardkonformität und Barrierefreiheit mit Hilfe von Testtools überprüft und Lösungsmöglichkeiten erarbeitet und angeführt.

Diplomarbeitsposter Dallinger Isabel

Isabel Dallinger

Unterrichtsfach Informatik/Informatikmanagement
Abstract:

Das algorithmische Denken spielt im 21. Jahrhundert eine wichtige Rolle und sollte in der Entwicklung der Kinder bzw. Jugendlichen berücksichtigt werden. Mithilfe der Programmiersprache Scratch und der Webapplikation Dr. Scratch wurde eine empirische Studie durchgeführt um das algorithmische Denken und die kognitiven Strategien der Teilnehmerinnen und Teilnehmer zu analysieren. Insgesamt nahmen elf Kinder bzw. Jugendliche im Alter von elf bis vierzehn Jahren an dieser Studie teil. Es wurden drei Aufgabenstellungen, die mathematisch geprägt waren gegeben. Diesbezüglich wurden bewusst Schülerinnen und Schüler ausgewählt, die eher Schwierigkeiten in Mathematik haben. Diese drei Aufgaben beinhalteten drei wichtige algorithmische Konzepte: Schleife, Variable und Falls-Abfrage. Ziel der Studie war festzustellen, wie die Teilnehmerinnen und Teilnehmer mit diesen drei abstrakten Konzepten umgehen konnten. Die Erhebung der Daten wurde durch eine Videoanalyse und ein kurzes Interview durchgeführt. Bei der Videoanalyse handelte es sich um die Aufzeichnung der am Computer durchgeführten Handlungen der Teilnehmerinnen und Teilnehmer. Die Ergebnisse wurden qualitativ ausgewertet, wobei durch Dr. Scratch auch vordefinierte Kategorien zur Verfügung standen, die ebenfalls in die Analyse miteinbezogen wurden. Das Konzept der Falls-Abfrage ist laut den Resultaten den Teilnehmerinnen und Teilnehmern am leichtesten gefallen. Laut des persönlichen Feedbacks der Kinder bzw. Jugendlichen fanden sie die Schleife am einfachsten. Die Variable hat in allen Aspekten die meisten Schwierigkeiten mit sich gebracht. Oft wurden die Aufgaben überhaupt ohne algorithmische Konzepte gelöst. Überraschenderweise wendeten wenige Teilnehmerinnen und Teilnehmer eine sinnvolle kognitive Strategie zum Lösen der Aufgaben an.

Diplomarbeitsposter Dudo Daniel

Daniel Dudo

Masterstudium Medieninformatik
Abstract:

The Internet of Things (IoT) aims at making our lives more livable, easier, and more enjoyable. However, the IoT is also facing challenges of how to configure and program applications or of how to participate in the IoT. The aim of this thesis was to explore how people experience alternative approaches to programming home automation technology (commonly called smart home) and related IoT applications by using tangible computing devices. Following a Research through Design approach, this thesis employed an iterative and user-centered design process that focused on creating a series of prototypes based on the feedback of 43 participants. Finally three prototypes were built where the first prototype was utilized to introduce the primary interaction concept to the participants; the other two prototypes were based on subsequent feedback from the participants and considering their suggestions. For the final prototype, several sensor and actuator modules were developed, which could be linked with the help of a tangible controller device. In addition, functions such as time duration, delay or inverting could also be set in the prototype system. In a final evaluation, this prototype was examined with technically experienced prospective students of informatics and technically unexperienced older participants. The results showed that an interesting approach to programming IoT devices was developed, which was also understood and appreciated by older participants. Hence, the design exploration showed potential in empowering end-users in solving everyday challenges with smart technology.

Diplomarbeitsposter Durco Martin

Martin Durco

Masterstudium Medieninformatik
Abstract:

Diese Diplomarbeit untersucht die Verwendung von Gamifizierungsprinzipien im Bereich der gesunden Ernährung. Das Hauptziel ist, die Benutzer zu motivieren und ihre Gewohnheiten an alkoholfreie Getränke mit niedrigem Zuckergehalt zu ändern. Die Zielgruppe sind Schüler und Studenten im Alter von 15 bis 20 Jahren. Der theoretische Teil dieser Arbeit analysiert den möglichen Ansatz aus vielen Perspektiven. Am Anfang definiert man den Begriff "Spiel", Spielprinzipien während die Motivation im Allgemeinen berücksichtigt wird. Diesen Definitionen folgen die Beschreibung der Ernährung, die Hydratation und die empfehlenswerten Getränke nach. Der Hauptteil der Forschung widmet sich der Analyse der Gamifizierung und mehreren populären Anwendungen, die die Mechanik der Gamifizierung in der Praxis demonstrieren. Der praktische Teil beschreibt den Entwicklungsprozess einer, im theoretischen Bereich vorgeschlagenen, Smartphone-Anwendung. Die Entwicklungsanalyse berücksichtigt mögliche Entwicklungsansätze wie Plattformen, Frameworks oder Programmiersprachen. Anschließend werden der Funktionsvorschlag und der Designvorschlag zusammen mit der Umsetzung selbst detailliert beschrieben. Der letzte Teil untersucht die Bewertung der Applikation und bietet Verbesserungsvorschläge und Ideen für die zukünftige Entwicklung an.

Diplomarbeitsposter Gümüser Nuray

Nuray Gümüser

Masterstudium Medieninformatik
Abstract:

Mit der fortschreitenden Technologie entstehen neuartige IT-Systeme, deren Einsatz sich im alltäglichen Leben als vorteilhaft erweist. Allerdings können diese auch eine Gefahr in sich bergen, weshalb die Steigerung des Bewusstseins der Menschen über die Vor- und Nachteile solcher IT-Systeme eine Notwendigkeit darstellt. In dieser Diplomarbeit wird für die Entgegenwirkung dieses Problems der spielerische Ansatz zur Vermittlung von Themen aus dem Wissenschaftsgebiet „Informatik und Gesellschaft“ (IuG) herangezogen, indem Game Design Patterns für eine bewusste Vermittlung dieser Themen entwickelt werden. Sie sollen eine Grundlage für Game DesignerInnen bieten, um diese Themen mit dem Umfeld zu konfrontieren. Da viele Mainstreamspiele bereits Themen aus dem Gebiet „IuG“, wie etwa Hacken oder Militärtechnologie, in ihren Spielen behandeln, werden für die Entwicklung der Game Design Patterns bestehende Spiele als Basis herangezogen. Hierfür geht diese Diplomarbeit von einem Lernzyklusmodell aus, das aufzeigt, welche Prozesse im Lernvorgang durch die Interaktion mit Spielmedien entstehen, die das Grundgerüst des „Digital Game-Based Learning“ bilden. Auf dieser Basis werden Spielanalysen von acht unterschiedlichen digitalen Mainstreamspielen durchgeführt, wofür ausschließlich Game (Design) Elemente mit IuG-Relevanz aus den Spielen extrahiert und untersucht werden. Die Analyseergebnisse bieten schließlich die Grundlage zur Definition der Game Design Patterns zur bewussten Vermitt-lung der Themen aus dem Wissenschaftsgebiet „IuG“.

Diplomarbeitsposter Haas Sebastian

Sebastian Haas

Masterstudium Medizinische Informatik
Abstract:

Scheduling appointments is a vital task in the flow of work in small and medium-sized medical facilities. People involved in making appointments are often facing the difficulty to find a middle ground between efficient usage of resources and patient happiness. This work aims to spotlight the challenges of small facilities with usually no more than one physician, a common model in the present health care structure Austria. A contextual inquiry was carried out to gain insight into the demands and processes on site. An exemplary design striving to meet requirements was developed and evaluated with key stakeholders in a concluding iteration. This work has shown that the necessities of facilities in the present domain are differing from bigger facilities or hospitals. While the prototype was accepted well, further investigation and development is required to provide small and medium-sized facilities with an optimal solution for scheduling appointments.

Diplomarbeitsposter Smolikova Katarina

Katarina Smolikova

Masterstudium Software Engineering & Internet Computing
Abstract:

Conversion rate optimization is one of the top priorities for numerous online businesses. Companies want to optimize the number of purchases, email sign ups, registrations or other website performances. Nevertheless, when trying to increase the conversion rate they often neglect the usability aspect of the website. In this thesis, we examine whether improvements in the usability of a website also lead to an increased conversion rate. In order to analyze this issue, we decided to run a series of A/B tests on the job searching portal Profesia.sk. After locating a usability issue, we proposed and developed a solution. Furthermore, we split the traffic in two halves and displayed the improved version of the website only to one half of the users. After reaching a significant sample size, we stopped the experiment and compared the conversion rates of both versions. By using the A/B testing method, we were certain that the differences in conversion rates were caused by modifications that we made and not due to seasonal trends or coincidence. In the majority of our experiments, we considered a conversion to be sending an application to a job offer. The results of the experiments proved that there is a correlation between usability and conversion rate. Although in some experiments there was only a negligible shift in the conversion rate, especially in experiments which handled a serious usability flaw, the improved versions performed significantly better. In this thesis, we showed that enhancing usability leads to a higher conversion rate.

Diplomarbeitsposter Steinböck Matthias

Matthias Steinböck

Masterstudium Software Engineering & Internet Computing
Abstract:

Digitale Kartenspiele sind als Untergruppe der Spiele Gegenstand des Forschungsbereiches Gamedesign. Ludologen verwenden verschiedene Ansätze zum Beschreiben, Differenzieren und Klassifizieren von Spielen. Einer der Ansätze sind Design Patterns, also Gemeinsamkeiten welche sich bei der Analyse vieler verschiedener Spiele wiederfinden. Die vorliegende Arbeit verfolgt zwei zentrale Themen. Zum einen wurde ein Katalog von Designmustern, mit welchen existierende Spiele analysiert und neue Spiele entwickelt werden können erstellt. Dies bietet sich insbesondere für Gamedesigner als systematisches Werkzeug für die kreative Spielentwicklung an. Zum anderen beinhaltet diese Arbeit ein generelles abstraktes Modell der Kartenspiele, welches als Datenstruktur neuer Spiele dienen kann. Dieses Modell eignet sich wiederum als Basis für die Arbeit von Softwareentwicklern. Eine prototypische Implementierung zeigt die Verwendung des Modells und die Auswirkung der Verwendung verschiedener Gamedesignmuster. Des weiteres enthält die Arbeit: 1) eine Einführung in die Welt der (digitalen) Kartenspiele (siehe Kapitel 2) 2) Klassifikationsdimensionen, welche es ermöglichen sollen, Kartenspiele besser differenzieren zu können (siehe Kapitel 2.4) 3) Interaktionsmuster mit Karten und deren Interaktionsästhetik (siehe Kapitel 3) 4) ein allgemeines abstraktes Modell für digitale Kartenspiele (siehe Kapitel 4) 5) einen Katalog von Gamedesignmustern für digitale Kartenspiele (siehe Kapitel 5) 6) eine Beschreibung des entwickelten Prototyps (siehe Kapitel 6)

Arbeitsbereich Research Division of Interactive Media Systems

Diplomarbeitsposter Gatterer Clemens

Clemens Gatterer

Masterstudium Software Engineering & Internet Computing
Abstract:

Virtuelle Umgebungen werden dank stetig besser werdender Hardware immer realistischer. Die Immersion wird aber oft durch fehlendes oder unzureichendes haptisches Feedback bei der Interaktion mit virtuellen Objekten gestört. Bestehende Ansätze für haptisches Feedback, können dieses Problem nur eingeschränkt beheben. Einen Lösungsweg beschreiben spezielle haptische Feedbacksysteme, die mit unterschiedlichen Methoden, unter anderem auch Requisiten (physical props), verschiedene virtuelle Objekte in der Realität darstellen. Die existierenden Systeme haben allerdings einen großen Platzbedarf oder schränken aufgrund technischer Limitierungen die Bewegungsfreiheit innerhalb der virtuellen Welt ein. Diese Diplomarbeit beschreibt die Konzipierung und Implementierung eines immersiven VR-Systems, das durch einen Roboterarm Requisiten in Reichweite des Benutzers platziert und so haptisches Feedback bereitstellen kann. Dazu wurde im Zuge der Umsetzung ein Framework erstellt, das gebrauchsfertige VR-Produkte mit einem eigens angefertigten Roboter kombiniert. Eine eingesetzte Bewegungsplattform erlaubt die Simulation von uneingeschränkten Welten auf geringem Platz. Die einzelnen Softwarekomponenten werden gemeinsam mit einer Robotiklösung zu einem leicht zu verwendenden Unity3D-Framework verbunden, das als Basis für neue Anwendungen mit robotergestütztem haptischem Feedback dienen kann. Das System ist so konzipiert, dass es möglich ist, den verwendeten Roboterarm zu einem späteren Zeitpunkt leicht auszutauschen. Ebenso ist es möglich, nur ein Subset der unterstützten Hardwarekomponenten zu verwenden. Die durchgeführte Benutzerstudie und die technische Evaluierung belegen die Funktionsfähigkeit des erstellten Prototypen und zeigen Tendenzen zu positiven Auswirkungen von haptischem Feedback auf die VR-Erfahrung auf. Für eine gefahrlose Verwendung des Systems, werden Sicherheitsvorkehrungen beschrieben, deren Angemessenheit ebenfalls in der Benutzerstudie bestätigt werden konnte.

Diplomarbeitsposter Ince Sami Alper

Sami Alper Ince

Masterstudium Visual Computing
Abstract:

This thesis investigates the weakly-supervised visual object detection from a given set of images. The main goal is set as obtaining an optimal object model for any selected visual object by learning from positive- and negative-labeled images. To this end, an analysis process is proposed that gathers segments of the target visual object from positive training images. A more common object model is built by determining the most discriminative detected object segments. This ultimate form of the object model is employed by a binary classifier in order to detect segments of a target visual object from test images. The proposed approach for the recovery of an optimal object model comprises of four major processing steps: segmentation, feature extraction, similarity measurement, and learning. For each of these steps, the suitability of different techniques is evaluated. Firstly, an evaluation with respect to segmentation is made with mean shift segmentation and a simpler and faster sliding window approach. Secondly, different types of features (color histograms, dense SIFT descriptors, PHOW descriptors, VLAD descriptors, CEDD and MPEG-7 color descriptors) are evaluated for the description of the segments obtained in the first step. Thirdly, in similarity measurement an evaluation involves different distance and similarity functions. Lastly, in the learning step a non-parametric discriminative learning scheme based on information gain is employed. The result of learning is a ranking that expresses the distinctiveness of each candidate segment. In addition, MPEG video encoding is investigated as an alternative technique for both feature extraction and similarity measurement. The experimental results demonstrate lower computational complexity for all combinations of investigated feature descriptors and distance functions compared to the MPEG video encoding-based approach. Moreover, an evaluation of target object detectors is performed by selecting the recovered object models.

Diplomarbeitsposter Maestri Luca

Luca Maestri

Masterstudium Medieninformatik
Abstract:

"Geographical information" refers to any kind of data associated with a geographic location on the earth’s surface. However this information is often not easy to use, because it requires knowledge from different disciplines in order to access, interpret and elaborate it. The sole data acquisition process can already apply knowledge from the fields photogrammetry, computer vision and geodesy. In order to use geographical information to create three-dimensional models of existing buildings, this thesis focus lies onto describing a framework capable of easing the process by automating most tasks. Additionally the framework is made accessible as a web platform using WebGL.

Diplomarbeitsposter Platzer Karl

Karl Platzer

Masterstudium Visual Computing
Abstract:

Legt man einen virtuellen Pfad auf die reale Umgebung innerhalb eines Gebäudes, kann sich eine Person darin besser zurechtfinden und somit schneller an den gewünschten Ort gelangen. Mit der Veröffentlichung von Augmented Reality (AR) Bibliotheken für Android- und Apple-Smartphones und der Verfügbarkeit von Head Mounted Display (HMD), erlangt AR immer mehr Aufmerksamkeit am Massenmarkt. Der größte Nachteil von modernen AR-Visualisierungsgeräten ist jedoch das kleine Sichtfeld. Den berechneten Pfad innerhalb des Sichtfeldes des AR-fähigen Geräts zu halten, ist der besondere Ansatz dieser Masterarbeit. Der Pfad sollte sich an der Blickrichtung des mobilen Gerätes ausrichten, sodass dem Benutzer durchgehend ein Weg angezeigt wird. Die vorliegende Arbeit präsentiert das Design und die Implementierung des Field of View (FOV) assisted path planning Algorithmus. Ein 3D-Modell des Inneren eines Gebäudes und Lokalisierungsdaten der Benutzer werden hierzu verwendet, um den FOV assisted path zu berechnen. Der berechnete Pfad besteht aus einem Pfad außerhalb und innerhalb des Sichtfelds des mobilen Geräts. Das Hauptaugenmerk der vorliegenden Masterarbeit liegt darauf, den Pfad innerhalb des Sichtfeldbereichs zu berechnen und ihn mit dem Pfad außerhalb des Sichtfelds zu verknüpfen. Im Zuge der Forschung wurden dazu verschiedene Strategien zum Berechnen und Verknüpfen der Teilpfade erarbeitet. Zur Evaluierung der Performance sowie der Benutzerfreundlichkeit des implementierten Algorithmus wurde eine Performance-Analyse und eine Benutzerstudie durchgeführt. Die Ergebnisse geben einen Hinweis darauf, dass der implementierte Pfad die Orientierung der Benutzer innerhalb eines Gebäudes vereinfacht, wenn die Richtung zum Ziel nicht bekannt ist. Darüber hinaus wurde die Benutzerfreundlichkeit des implementierten Algorithmus und die Eignung von AR-Visualisierungsgeräten für Navigation innerhalb von Gebäuden evaluiert.

Diplomarbeitsposter Straka Karin

Karin Straka

Masterstudium Visual Computing
Abstract:

Große unstrukturierte Videodatensammlungen automatisiert und damit effizient durchsuchbar zu machen, ist eine Aufgabe, deren Lösung für viele Bereiche z.B. Filmarchive, Online-Mediatheken, Videoüberwachung, Video-Lernplattformen große Bedeutung hat. Ein gängiger Ansatz hierfür sind manuell generierte Inhaltsindizes, die durch Speicherung von Videoframes, versehen mit Schlagwörtern oder textuellen Beschreibungen, produziert werden. Diese sind allerdings extrem zeitaufwändig in der Erstellung, außerdem ungenau und unvollständig. In dieser Diplomarbeit werden deshalb die Möglichkeiten des aktuelleren Konzeptes der „inhaltsbasierten“ Datensuche am Beispiel des Einsatzes für die Klassifizierung von Videomitschnitten österreichischer Nationalratssitzungen erforscht. Ziel ist es, ohne manuelle Indexierung automatisiert und auf multimodaler Basis Audio und Bildmerkmale zu extrahieren und damit entsprechende Klassifikatoren zu trainieren, sodass diese für die Klassifizierung von Audioereignissen und Personen eingesetzt werden können. Der Fokus der Klassifizierung liegt dabei auf der Erfassung von Szenen, bei denen die Stimmung im Sitzungssaal von der klassischen Grundstimmung einer Rede abweicht, und damit einen Hinweis auf relevante Ereignisse in den Sitzungen liefert. Die Erkennung der handelnden Personen inklusive ihrer Gesichtsemotion ist der zweite große Schwerpunkt dieser Arbeit. Die Klassifizierungsergebnisse zeigen, dass der „inhaltsbasierte“ Ansatz geeignet für eine Detektion von relevanten Ereignissen und Personen in Parlamentsvideos ist. Die Audiomerkmale sind im vorliegenden Fall aussagekräftiger als die Bildmerkmale. Die Fokussierung auf die Erkennung von Audioereignissen zur Detektion von relevanten Szenen hat sich aus diesem Grund als richtig erwiesen. Speziell die Klassifizierung der Gesichtsemotion hat sich als problematisch herausgestellt, da die Gesichtsmimik der Abgeordneten in vielen Fällen für eine korrekte Auswertung nicht ausgeprägt genug ist.

Arbeitsbereich Research Division of Visual Analytics

Diplomarbeitsposter Filip Fabian

Fabian Filip

Masterstudium Medizinische Informatik
Abstract:

Immer mehr Krankenhäuser steigen von papierbasierten auf elektronische Patientenakten um, wodurch sich neue Herausforderungen ergeben. Die gewaltige Menge an Daten, die Patientenakten enthalten können, kann ÄrztInnen in dem stressigen Arbeitsumfeld eines Krankenhauses schnell überfordern. Dies kann dazu führen, dass Informationen übersehen oder falsch interpretiert werden. Medikationsdaten bergen hierbei besondere Gefahren, da Medikationsfehler der Gesundheit der PatientInnen direkt schaden können. Informationsvisualisierung besitzt das Potential, diese Probleme zu lösen. Die Ziele dieser Diplomarbeit sind, eine Visualisierung von patientenbezogenen Medikationsgeschichten für typische Behandlungsszenarien zu entwerfen und einen interaktiven Prototyp zu implementieren. Zu diesem Zweck wurden sowohl Projekte in der Literatur, die sich mit der Visualisierung von Medikationsdaten beschäftigen, als auch der derzeitige Stand der Medikationsdokumentation in österreichischen Krankenhäusern untersucht. Weiters wurden die Anforderungen an die Medikationsdokumentation von Seiten österreichischer ÄrztInnen erfasst. Dabei konnten wir Potential für Verbesserungen sowohl für die in der Literatur gefundenen Projekte als auch für den derzeitigen Stand in Krankenhäusern aufzeigen. Basierend auf den gesammelten Informationen wurde eine Liste an Medikationsbezogenen Eigenschaften sowie eine Sammlung von Szenarien und Fragestellungen, die sich im Krankenhausalltag mit Medikationen befassen, erstellt. Weiters, haben wir eine Baumdatenstruktur für Verschreibungs-Listen entworfen, welche eine verdichtende Darstellung von großen Mengen an Medikationsdaten ermöglicht, während die detaillierten Daten verfügbar bleiben. Diese Struktur wurde in unserem Visualisierungs-Prototypen umgesetzt, dessen Nützlichkeit in unserer Evaluierung bestätigt wurde. Abschließend werden in dieser Diplomarbeit Punkte für zukünftige Erweiterungen bzw. Verbesserungen vorgestellt.

Diplomarbeitsposter Landauer Bernd

Bernd Landauer

Masterstudium Software Engineering & Internet Computing
Abstract:

Since the creation of digital cultural heritage collections like Europeana, Trove, and Digital Public Library of America (DPLA) many art objects become available via the internet to its users. This gives the users the ability to view items which are not displayed in the museum, either because they are stored in a safe, under reconstruction or simply not in any physical exhibition. The questions if the collection is accessible enough for all users is still unanswered. Many of those collections are difficult to explore and targeted towards experts looking for specific items. Europeana, for example, has more than 50 million objects in its digital collection, which also makes it a big data challenge. This work aims to provide a detailed overview of current visualization techniques in the domain of cultural heritage. By including different set-based visualizations in this research, fitting techniques will be evaluated to help visualize culture heritage collections. Based on the research, an interface will be designed that helps users navigate and explore those collections, with the inclusion of the temporal aspect from the collection data. For the inclusion of the temporal aspect, this work takes influences from the Space-Time Cube concept and set-based visualization. The visualization will be based on the Polycube project, which can already visualize location data into the Space-Time Cube. The results of this work include a prototype and its evaluation, capable of multiple visualizations, designed based on the data gathered by Europeana and other collections. Evaluation of the designs and prototype will be provided by user reviews. The feedback of users exploring the prototype and on the different visualizations will be an indicator which visual encoding was most successful in supporting the users.

Diplomarbeitsposter Rind Alexander

Alexander Rind

Masterstudium Information & Knowledge Management
Abstract:

Visual Analytics ist eine effektive Herangehensweise um große beziehungsweise komplexe Datenbestände zu verstehen. Dazu werden interaktive Visualisierungen von Daten und automatische Datenanalysemethoden planvoll verbunden. Zeitbezogene Daten sind höchst relevant in vielen Anwendungsgebieten von Visual Analytics, aber Zeit und zeitbezogene Daten haben auch eine komplexe semantische Struktur, die Designaspekte wie Granularitäten, verschiedene Zeitprimitive und Unbestimmtheiten einschließt. Doch die meisten bestehenden Software Framework für Visualisierung und Visual Analytics unterstützen nur Teile dieser Designaspekte, um konkreten Bedarf aus einzelnen Anwendungsgebieten zu decken. Um den Prototyping Bedarf in der Visual Analytics Grundlagenforschung aufzugreifen, untersucht diese Arbeit, wie ein Software Framework Visual Analytics mit zeitbezogenen Daten auf ausdrucksvolle und effiziente Weise unterstützen kann. Die Ergebnisse dieser Untersuchung stellen grundlegende Teile der konzeptuellen Softwarearchitektur und der prototypischen Implementierung von TimeBench dar. Vor allen stehen bei dieser Arbeit die Datenstrukturen und Import/Export Funktionen von TimeBench im Mittelpunkt. Die Softwarearchitektur und die Implementierung basieren auf etablierten Software Entwurfsmustern für Visualisierung wie dem Proxy Tuple Muster. Die resultierende Datenstruktur besteht konzeptuell aus zwei verknüpften gerichteten zyklenfreien Graphen und wurde mit Hilfe von relationalen Datentabellen aus dem prefuse Framework umgesetzt. Zur Evaluierung hinsichtlich der Desiderata erläutert die Arbeit wie zwei komplexe Visualisierungstechniken mit TimeBench umgesetzt werden können. Außerdem werden zwei Fallstudien über die Anwendung in Entwicklungsprojekten beschrieben. Diese Ergebnisse legen dar, dass TimeBench für das Visual Analytics Prototyping mit einem Fokus auf zeitbezogene Daten nützlich ist.

Institut für Institute of Information Systems EngineeringE194

Arbeitsbereich Research Division of Information and Software Engineering

Diplomarbeitsposter Brendler Samuel

Samuel Brendler

Masterstudium Business Informatics
Abstract:

The number of adblock users has been on the rise throughout the last years, with the consequence that publishers have started using anti-adblocking software to deny adblock users access to their websites. This has lead to an ongoing arms race between the advertising industry and adblock users from which no winner has emerged. In this thesis the technical possibilities, which both sides have at their disposal, are analyzed. In a case study the implementations of anti-adblocking scripts and the adblocking community’s reactions and countermeasures are compared. Furthermore a webcrawler for automatically detecting websites, which use anti-adblocking scripts was implemented. The detection is based on visual features of screenshots and uses them with machine learning algorithms to generate models. With those models, a random sample of 300 websites from the Alexa top 1 million websites is analyzed.

Diplomarbeitsposter Fichtinger Lisa Maria

Lisa Maria Fichtinger

Masterstudium Software Engineering & Internet Computing
Abstract:

Mobile devices such as smartphones or tablets are an essential part in our daily lives. To date multiple platforms pose a major challenge for mobile developers. Cross-platform frameworks, based on the so-called “Write Once, Run Anywhere” approach were estab- lished to overcome these issues. Some of these frameworks are Apache Cordova from the Apache Software Foundation, Xamarin from Xamarin Inc. a subsidiary company from Microsoft and React Native from Facebook Inc. Our daily use of digital technologies produces an enormous amount of data including sensitive information about their users’ personality, preferences or behaviors. Protecting these data to avoid unauthorized access is required to ensure and respect everyone’s privacy. Software developers that are implementing and establishing these technologies and applications thereby play an important role. Thus, we investigate challenges for secure mobile app development from the developers’ perspective built with cross-platform frameworks. We evaluate the frameworks’ official documentations and collect and analyze posts from Stack Overflow as they are major information sources. We found that authorization with the OAuth 2.0 protocol is a big challenge for developers with respect to all three frameworks. Despite of a specification, the implementation in reality is complex. Thus, we investigate different implementation approaches across the cross-platform frameworks, which may be different depending on the OAuth provider and furthermore discuss their impact on app security.

Diplomarbeitsposter Fraihs Nikolai

Nikolai Fraihs

Masterstudium Software Engineering & Internet Computing
Abstract:

Smartphones erobern die Welt und der Großteil der Bewohner dieser Erde wird innaher Zukunft einen dieser Wegbegleiter besitzen. Von dem ursprünglichpuren Kommunikationsmittel, entwickelte sich das Handy bis heute zu einem wichtigenHelfer bei der täglichen Informationsbeschaffung von Internetnutzern. Malware-Entwicklererkennen diesen Wandel und kreieren demzufolge ausgeklügelte Mechanismen, um mobileBetriebssystem wie Android oder iOS mit schädlichem Code zu infizieren. Anlässlich derUnabhängigkeit angesichts der nötigen Benutzerinteraktion, bilden Drive-by-Downloadsfür mobile Endgeräte eine attraktive Alternative zu herkömmlichen Angriffsvektoren wieSocial Engineering Kampagnen. Trotz der Tatsache, dass bisher keine Drive-By-Downloads für Android in-the-wild beobachtetwurden, steht die Lokalisierung dieses Angrifftyps im Fokus dieser Arbeit. ZuBeginn wird ein Überblick über aktuelle und vergangene Angriffstechniken gegeben,um ein Grundwissen über Malware und deren Angriffsvektoren zu vermitteln. Anschließendillustriert die detaillierte Darstellung und Erklärung einzelner Sicherheitslücken,deren Verwendung in Drive-by-Downloads auf böswilligen Webseiten im Kontext desAndroidbetriebssystems. Anlässlich der davon ausgehenden Gefahr für Internetnutzer mitAndroidgeräten, wird ein neuartiger Webcrawler präsentiert, welcher Drive-by-Downloadsin Malvertising-Kampagnen aufspürt. Damit der Crawler bei Fingerprinting-Prozessen von böswilligen Skripten nicht alssolcher erkannt wird, werden ausgewählte Android- und Browseremulatoren sowie zweiEchtgeräte anhand webbasierten Erkennungsmerkmalen verglichen. Die Parameter zurDifferenzierung der überprüften Systeme beinhalten unter anderem verfügbare JavascriptObjekte,Sensordaten, Bildschirmauflösung und unterstützte Schriftarten. Angesichts dergewonnen Informationen wird eine Konfiguration für den Webcrawlerpräsentiert, welche ihn als perfekte Imitation eines Androidsmartphones erscheinen lässt.

Diplomarbeitsposter Friedl Armin

Armin Friedl

Masterstudium Software Engineering & Internet Computing
Abstract:

Exploration of the environment around us is an important part of human activity. Starting in our early infancy, it is closely associated with learning, cognitive development, social behavior and adaptability. Although exploration is such a vital trait, it did not receive proportional attention in today's lookup-based search paradigms, which are typically focused on the one-off retrieval of a set of items matching a set of keywords. Research in exploratory search (ES) set out to change that by including interactive search activities like learning and investigation of the result space. Being able to build a system that assists users in ES would have a tremendous impact. Businesses around the world are struggling with the transfer of intellectual capital between their employees. Helping them to explore and learn this expert knowledge is not only financially beneficial, but also prevents knowledge from getting lost. Recent advances using semantic web technologies show promising results. Still, little is known about which algorithms could be used at the core of an ES system. This diploma thesis investigates two groups of graph algorithms and their eligibility for ES: centrality (CM) and similarity metrics (SM). Three CM were redesigned in the recently published Gather-Apply-Scatter model for use in triple stores. Additionally, a novel variation of information content based SMs is suggested. The mix is completed by a SM specifically designed for the semantic web. The algorithms were applied to expert knowledge graphs (EKGs) featuring enterprise-scale, domain-specific but complex knowledge. The results from two EKGs were evaluated statistically and qualitatively. While the evaluated CM turned out effective in suggesting high-profile nodes, they fell short on less important nodes. The tested SM were found to make high demands on the structure of the encoded knowledge. If met, the newly suggested SM yielded the most promising results.

Diplomarbeitsposter Gschiel Stefan

Stefan Gschiel

Masterstudium Software Engineering & Internet Computing
Abstract:

Architecture refactoring of applications deployed into cloud-edge environments is a decision intensive task since multiple constraints must be considered. Similar technical and non-technical constraints must also be respected when migrating a legacy application into the cloud. Furthermore, cloud as well as edge environments differ in the quality attributes (QAs) they support. For example, an edge platform will not provide that scalability a cloud platform provides. So architecture decision support will help to improve decisions. The purpose of this work is to identify architectural decisions relevant in cloud-edge environments from the point of view of a software architect and develop a taxonomy of decisions. Based on the taxonomy of decisions a decision support workflow will be created as main contribution of this work to reduce complexity and improved decisions. The workflow is supported by an algorithm for cloud offering ranking based on their QAs. This assists the architect in selecting the best cloud offering for a given component depending on its QA requirements. Finally, the architecture for a decision support system utilizing the workflow and the algorithm for offering ranking is presented. This is the basis for the prototypical implementation which is used for the experimental evaluation with professional software architects in industry.

Diplomarbeitsposter Kavicky Lukas

Lukas Kavicky

Masterstudium Information & Knowledge Management
Abstract:

The rapid growth of the Web of Data, a global network of interlinked data sets based on Linked Data (LD) principles and technologies, along with the developing sophistication of the applications based on Linked Data increases the potential to solve complex real-world tasks using Linked Data-based applications. The ever-changing and fast-paced nature of today’s work but also personal life calls for tools adapted to the specific user’s needs. The semantic nature of Linked Data enabling the applications to “understand” the content of the data can assist in such adaptation. The existing adaptation approaches in the context of LD-based applications introduce different types of adaptability, such as enabling rapid development of adapted tools, promoting in-application adaptivity, or enabling the users to create their own applications – the mashups – visually. However, the existing approaches have their limitations, mainly in the areas of reusability of existing functionality and flexibility of interaction sequences, and cannot be easily combined. In this thesis, we introduce the interoperability of stand-alone LD-based applications – a complementary adaptation approach – enabling execution of workflows spanning over multiple tools and creation of application compositions. We employ a literature study of existing adaptation approaches, a conceptual analysis resulting in a conceptual framework mapping the required and optional functionality of the interoperability solution – the ILDA (Interoperability of LD-based Applications) framework, and a meta-survey of the LD-based applications concentrated on the applications’ features affecting their integrability into the ILDA framework. Based on our findings we design the ILDA framework – a blueprint of a solution for interoperability of LD-based applications. The feasibility of the ILDA framework is shown by positive results of feasibility assessment of created ILDA framework-based prototype in specific use cases.

Diplomarbeitsposter Mai Alexandra

Alexandra Mai

Masterstudium Visual Computing
Abstract:

„Zeit für PlanB“ -- Aufgrund der steigenden Unzufriedenheit mit zentralgesteuerten Währungen und der enormen Wertsteigerung ihres Kurses gewinnt die Kryptowährung Bitcoin immer mehr an Bedeutung. Bitcoin basiert auf einem Peer-to-Peer System welches die durchgeführten Transaktionen in einer dezentralen Datenbank, der sogenannten „Blockchain“, für jeden online zugänglich speichert. Das Ziel dieser Arbeit ist es, einen neuartigen Weg zu finden, die Transaktionen des Bitcoinsystems visuell und interaktiv darzustellen. Mit Hilfe der Visualisierung wird es Analytikern und Forensikern ermöglicht, einen Einblick in aktuelle und vergangene Transaktionen zu bekommen. Hierbei liegt ein besonderes Augenmerk auf der Zeitkomponente, um zeitliche Zusammenhänge schneller erfassen zu können. Der in dieser Arbeit vorgestellte Prototyp (PlanBTC) kombiniert Visualisierungs und Clusteringtechniken sowie statistische Wahrscheinlichkeiten, um dem Benutzer ein breites Spektrum an Informationen bieten zu können. PlanBTC ist eine webbasierte Applikation, um sicherheitsbezogene Fragen durch visuelles Feedback genauer beantworten zu können (z.B.: Pseudoanonymität, Diebstahl etc). Um eine reibungslose Interaktion mit den Daten zu ermöglichen wird eine GPGPU Methode eingesetzt welche die Informationen kontinuierlich lädt, diese wurde von Matthias Gusenbauer implementiert. Des Weiteren wird in dieser Arbeit auch eine Evaluierung der Applikation vorgenommen und auf die Stärken und Schwächen dieser eingegangen. Abschließend werden die weiteren Pläne für die Nutzung und Weiterentwicklung des Prototypen erläutert.

Diplomarbeitsposter Meixner Kristof

Kristof Meixner

Masterstudium Business Informatics
Abstract:

Planungsprojekte im Anlagenbau finden in einer multidisziplinären Umgebung statt, in der Ingenieure aus mehreren Disziplinen zusammenarbeiten. Arbeitsprozesse in solchen Umgebungen werden aufgrund limitierter Möglichkeiten der Softwarewerkzeuge durch diese bestimmt. Plattformen für Werkzeugintegration, wie der Engineering Service Bus, integrieren Werkzeuge und Arbeitsprozesse nahtlos. Solche Plattformen müssen an die jeweiligen Werkzeuge und Arbeitsprozesse der Kunden angepasst werden. Heutzutage wird diese Anpassung durch Anwendungsintegratoren in mühsamer und fehleranfälliger Arbeit manuell durchgeführt. Besonders die Anpassung der Arbeitsprozesse, deren Konfiguration und die Verbindung mit Softwareservices ist aufwendig und beschwerlich. Diese Arbeit beabsichtigt die Frage zu beantworten, inwiefern die Anpassung durch einen weiterentwickelten Ansatz mit Hilfe von Konzepten der Variabilitätsmodellierung und einem automatisch unterstütztem Abbildungskonzept verbessert werden kann. Im Forschungsteil wird erst Variabilität in den Arbeitsprozessen von Industriepartnern und den Services des Engineering Service Bus erforscht. Basierend darauf, wird ein Ansatz vorgeschlagen, um Varianten von Arbeitsprozessen auf Softwareservices abzubilden. Schließlich, eine Evaluierung anhand eines Beispiels eines Industriepartners. Die Resultate der Arbeit sind, ein Ansatz um Variabilität anhand der Business Process Model & Notation Sprache und Feature Modeling darzustellen, sowie der Vorschlag einer Methode um Varianten aufeinander abbilden zu können. Die Evaluierung zeigt, dass der Ansatz machbar ist und den Traditionellen in Komplexität und Aufwand signifikant reduziert. Zusätzlich, werden die Möglichkeiten für qualitätsgesicherte Maßnahmen erhöht. Der Ansatz wurde an einem einfachen Beispiel getestet und zeigte die Überlegenheit gegenüber dem traditionellen Ansatz. Der Autor geht davon aus, dass die Methode noch vorteilhafter für größere Beispiele ist.

Diplomarbeitsposter Mulser Simon

Simon Mulser

Masterstudium Software Engineering & Internet Computing
Abstract:

The Cryptocurrency Bitcoin was started in 2008 with the creation of Genesis Block. Since then, the computing power of the network, which secures the blockchain of the digital currency, has multiplied considerably. Today, around twenty professional miner share over 95% of the hash rate, and are constantly extending the blockchain, always building on the latest block known to them. The miners are incentivised to do so, as they create with each found block new Bitcoins for themselves. In 2014, Eyal and Gün Sirer showed for the first time that apart from this desired behaviour, there are deviating mining methods that increase the relative gain of a miner compared to the rest of the network. This so-called selfish mining attack and all its modifications are examined in this thesis in a defined scenario and are compared with previous research results. In contrast to previous investigations, a novel, near-deterministic simulation framework based on Docker was developed for this purpose. This simulation framework makes it possible to naturally include the network latency and to directly reuse the reference implementation of Bitcoin. The latter has the advantage that no time-consuming and error-prone adaptation or abstraction of the reference implementation is necessary and all properties of the implemented Bitcoin protocol are automatically included. To simulate the various selfish mining strategies, additionally, a proxy was implemented that eclipsed a node in the network and misuses the node to perform the various selfish mining attacks. The simulations of the various selfish mining strategies show that a dishonest miner can increase its relative gain over the rest of the network, thus reinforcing the current state of research and the relevance of the selfish mining attack. As the most efficient selfish mining strategies under the simulation scenario, selfish mining and equal-fork-stubbornness were identified.

Diplomarbeitsposter Neuner Sebastian

Sebastian Neuner

Individuelles Masterstudium Security Engineering for Enterprise Environments
Abstract:

The universal serial bus (USB) is the most widely-used connector for modern computer systems and serves to connect printers, cameras, storage media and many other different devices. Nowadays, almost no computer system is produced that does not have such a port. However, this port is not just used to connect benign peripheral devices, but also to infect the systems a USB device is attached to. This was impressively demonstrated by Stuxnet, a malware designed to sabotage uranium enrichment centrifuges in Iran’s nuclear facilities via malware that initially infected the control systems through their USB ports. Motivated by the ubiquitous usage of USB all over the world and the resulting severity of vulnerabilities triggered by USB, this thesis targets the specific problem of USB-related reflashing attacks. Those attacks make use of the convenience of modern operating systems offering plug and play functionality for USB devices in order to inject malicious keystrokes without the knowledge of the victim. A previously demonstrated instance of this attack species is BadUSB, which is able to reflash commodity USB devices, such as USB flash drives to perform keystroke injection attacks. Other BadUSB-like attacks, such as the Rubber Ducky also inject keystrokes to a victims operating system, but need dedicated hardware. To gather insights into BadUSB and BadUSB-like attacks, in this thesis we present a large scale data collection and evaluation of USB data. We collect millions of benign USB packets over several months within a company-wide environment and from several volunteers included in a typing dynamics experiment. Based on an evaluation of this data against data we gather from BadUSB and BadUSB-like attacks, we propose several detection and prevention mechanisms on system- but also on a company-wide networking level.

Diplomarbeitsposter Roth Richard Oliver

Richard Oliver Roth

Masterstudium Computational Intelligence
Abstract:

Die Fähigkeit, Ergebnisse zu reproduzieren, welche aus Computerrecherche resultieren, ist unerlässlich für den Erfolg und die Glaubwürdigkeit des Faches. Diese wird jedoch durch zunehmend größer werdende Datensätze und verschiedenster Kombinationen von Hardware und Software Umgebungen deutlich erschwert. Bereits existierende Lösungen fokussieren darauf Workflows erneut auszuführen, durch welche die ursprünglichen Ergebnisse erzielt wurden. Allerdings sind diese Lösungen begrenzt, da sie sich nur mit limitierten Prozessausführungen beschäftigen. Diese Arbeit befasst sich damit dieses Problem durch die kontinuierliche und autonome Erfassung der systemweiten Provenance zu beheben und dies in einer ontologischen Form darzustellen. Auf diese Weise, implementieren wir eine vollständige Systemlösung mit welcher Benutzer ihre Recherchen ausführen können, ohne den zusätzlichen Mehraufwand der manuellen Verfolgung und Manipulation dieser Informationen in Kauf nehmen zu müssen. In dieser wissenschaftlichen Arbeit, beschreiben wir unseren Lösungsvorschlag dies zu erzielen und die Technologien die ihn umfassen. Zusätzlich veranschaulichen wir zwei Methoden mittels welcher Benutzer die resultierende Ontologie visualisieren und mit ihr interagieren können. Schlussendlich, wird untersucht inwieweit unsere vorgeschlagene Lösung die erforderlichen Informationen bereitstellt um die Reproduzierbarkeit von Ergebnissen der Computerrecherche sowie ihrer zugehörigen Anwendungen zu ermöglichen.

Diplomarbeitsposter Schnitzhofer David

David Schnitzhofer

Masterstudium Medieninformatik
Abstract:

With 79%, smartphones were the most used devices for accessing the internet in the EU in 2016 (Eurostat, 2016). High-speed mobile data connectivity reaches even remote locations. Increasing computational power and display size provides users a comfortable user experience. However, mobile visualizations which profit from those circumstances are hardly widespread these days. Problems of visualizations on mobile devices are the limited screen size and inexact touch input. Benefits of mobile devices are the high availability and the broad palette of built-in sensors and input options. This might make mobile devices, for example, smartphones, great devices in the museum context. Keeping the needs of casual museum visitors in mind when finding appropriate visualization techniques is a critical task. The present work gives a broad overview of the state of the art of mobile visualizations and the design, implementation, and evaluation of a visualization of an art museum’s collection. Therefore, the collection of the museum of modern art mumok located in Vienna is accessed through the Open Data Portal Österreich. This data is visualized with the libraries D3.js, Google Maps and ngx-charts. For the frontend of the application, the mobile framework Ionic is used. At the end, the application was evaluated in mumok with 21 participants.

Diplomarbeitsposter Säuerl Patrick

Patrick Säuerl

Masterstudium Software Engineering & Internet Computing
Abstract:

Viele Bereiche in der Forschung und Wirtschaft benötigen Daten als Grundlage für Experimente und Analysen. Die Reproduzierbarkeit dieser Experimente ist ein wichtiger Teil in der Wissenschaft und kann auch in der Wirtschaft eine große Rolle spielen aufgrund rechtlicher Natur oder Rechenschaftspflicht bei Entscheidungen. Generell muss man davon ausgehen, dass die zugrunde liegenden Daten für diese Experimente, ebenfalls auch das den Daten zugrunde liegende Schema, Änderungen unterliegen. Dies macht die korrekte Reproduktion von Daten eine nicht triviale Aufgabe. Wege, Daten die bereits abgefragt wurden korrekt zu reproduzieren, sind bereits entwickelt worden und sind bekannt als Datenzitierbarkeit. Der Prozess der Schema Änderung und das Migrieren der Abfragen zwischen verschiedenen Schema Versionen ist bekannt als Schema Evolution. Systeme für diese beiden Bereiche wurden bereits entwickelt, jedoch kein System, welches beides unterstützt. Diese Diplomarbeit kombiniert Systeme aus den beiden Bereichen und beantwortet, welche Design-Entscheidungen man bei der Kombination treffen muss und wie diese die Abfragezeit und Speicherplatzanforderungen beeinflussen. Zusätzlich werden noch unterschiedliche Ansätze für die Daten Historisierung implementiert, welche hinsichtlich ihrer Speicherplatzanforderungen sowie der Zeit für Abfragen evaluiert werden. Darauf aufbauend erstellen wir Richtlinien, welche Ansätze in welchen Situationen verwendet werden sollen und beschreiben verschiedene Bereiche für Optimierungen. Die wichtigsten Beiträge dieser Diplomarbeit sind die entwickelten Locking Strategien, die sich aus der Kombination den Anforderungen für Datenzitierungssysteme und Schema Evolution ergeben, sowie das Umschreiben von Abfragen für die implementierten Datenhistorisiserungsansätze, ein skizziertes System für Datenbanken mit Millionen von Einträgen und Verwendungsrichtlinien für diese Systeme.

Diplomarbeitsposter Westphal Krista

Krista Westphal

Masterstudium Computational Intelligence
Abstract:

The Bechdel test asks three questions: does a movie contain two named female characters, do two female characters converse at some point during the movie and is there at least one conversation between female characters that is not about a man? If all questions can be answered positively, then the film passes the Bechdel test. This thesis defines and implements methods for automating the Bechdel test for screenplays and novels. Being able to automate this task would allow for large-scale analyses, permitting researchers to analyse trends over long time periods, that would otherwise only be possible with time consuming manual methods. Previous research exists for automating the Bechdel test for screenplays. Although the Bechdel test was originally formulated for movies, the questions are just as applicable to novels. However, as far as we could find, no previous research exists for automating the Bechdel test for novels. For screenplays we first parsed the text using a new rule-based approach that relies on the specialized text formatting required for screenplays. Then we identified all the characters who appeared in speaking roles and assigned each a gender by using a newly developed algorithm. We also used a machine learning approach to predict if there is at least one conversation about something other than a man between the identified female characters. The results achieved for screenplays are comparable to the previous published work. Novels required a different approach than screenplays, due to the differences in structure between the two texts. For novels we used a Named-Entity Recognizer and a rule-based algorithm that connects the different names used for each character throughout the text, to identify all the characters in a novel. Using quote attribution, we then determined which character says which lines of dialogue, and so establish who converses with whom. The method developed for novels achieved perfect accuracy on a dataset of five novels.

Arbeitsbereich Research Division of Distributed Systems

Diplomarbeitsposter Amort Jan

Jan Amort

Masterstudium Software Engineering & Internet Computing
Abstract:

The ever increasing number of IoT devices makes it clear that a lack of security in these systems has a big impact on the lives of people. The availability of hypervisors for low-power CPUs used on IoT devices bring advantages regarding security and deployment strategies but bear the question how the use of fully fledged operations systems would impact the performance of these low-power CPUs. In recent years the concept of a Unikernel has reemerged, challenging the idea of a general purpose operating system. A Unikernel combines an application with a minimal set of operating system functionalities needed to run the application on a hypervisor. This makes Unikernels an interesting option for deploying applications on a hypervisor-based IoT device. This work evaluates whether Unikernels are a good fit for deployments of software on IoT devices and can contribute to the security of IoT devices by facilitating the timely rollout of new versions of an application. In the first part this work conducts a series of comprehensive performance tests for a range of characteristics relevant in the field of IoT devices and compares the results of Unikernels with virtual machines. Next this work evaluates the problems by IoT devices regarding security, takes a look at current incidents involving IoT devices and the claims of Unikernels with respect to security. The chapter takes the inherent properties of Unikernels in consideration and evaluates weather these properties can contribute to the security of the overall system. The security of the system depends upon the ability of rolling out new versions of an application in a timely manner whenever bugs are discovered. Therefore the third part lays out how Unikernels could be integrated into a modern software development process based on continuous integration and -delivery principles to enable the frictionless deployment, testing and distribution of new versions of an application.

Diplomarbeitsposter Halper Manfred Günther

Manfred Günther Halper

Masterstudium Software Engineering & Internet Computing
Abstract:

Cloud computing delivers the resources for highly distributed and immense resource hungry Big data applications that convert the massive amount of data produced by smart objects into useful and valuable information. In this process various stakeholders add their knowledge and expertise from a specific field of technology. The problem is that every single one of them has proper methodologies and routines for incident management but there are non existent that view the process as a whole. Single elements in this data refinement chain can lead to a domino effect where one services impacts the whole process. This thesis aims to deliver groundwork regarding an incident management process specifically set to cover the end-to-end process considering the different needs of the unequal technologies. The thesis delivers stakeholders and there roles and it describes the necessary generic use cases that need to be implemented. An incident survey delivers an overview of the characteristics of incidents of this environments and furthers the understanding by delivering a classification of cloud hosted Big data incidents from the survey. Metrics are added to describe the important elements of the different processes. The thesis then delivers a generic reference architecture of an incident management system that can be adapted to the specific needs of different applications. A classical standardization architecture is delivered that can be used as a foundation for concrete implementations. By delivering common building blocks like stakeholders, use cases, classifications, knowledge bodies and components the essentials of existing architectures are captured and put into the perspective of the managed application. A prototype delivers the evaluation of the architecture and illustrates in collaboration with a test scenario the viability of the generic reference architecture.

Diplomarbeitsposter Karan Matthias

Matthias Karan

Masterstudium Software Engineering & Internet Computing
Abstract:

Während Autohersteller heutzutage in ihren neuesten Modellen immer mehr Fahrassistenzsysteme und gar vollautonome Software einbauen, sitzt aktuell die Mehrheit aller Autofahrer noch immer in Autos, die ohne diese Hilfstechnologien auskommen müssen. Bis der Zeitpunkt gekommen ist, an dem vollautonomes Fahren die Straßen vollständig erobert hat, werden vermutlich noch einige tausend Verkehrsunfälle durch menschliche Fehler passieren. Statistiken bestätigen: ein Großteil der Autounfälle passiert während dem Kurvenfahren. Um für mehr Sicherheit im Auto auch bei älteren Modellen beizutragen, stellt diese Arbeit ein neues System vor, welches Fahrern in Echtzeit vor und während dem Kurvenfahren assistiert. Das System ist konzipiert um sowohl in Cloud- als auch in der neuartigen, sogenannten Edge-Infrastruktur, ausführbar zu sein. Ziel von Edge-Computing ist es, Recheneinheiten näher zum Anwender beziehungsweise zum Datenerzeuger zu bringen. In der Arbeit präsentieren wir Lösungen zur GPS-Datenverarbeitung, zum Kombinieren der GPS-Daten mit externen Datenquellen sowie zur Berechnung von Kurven und deren Eigenschaften. Als Ergebnis wird ein Prototyp-System entworfen und implementiert welches in simulierten Verkehrssituationen getestet wird. Der Prototyp wird anhand Leistung und Datengenauigkeit evaluiert. Basierend auf dem Prototyp, werden schließlich Kosten geschätzt, um solch ein System für alle Fahrer in Österreich bereitzustellen.

Diplomarbeitsposter Klein Peter

Peter Klein

Masterstudium Software Engineering & Internet Computing
Abstract:

Im Internet der Dinge wird eine große Zahl unterschiedlicher Geräte wie tragbare Sportgeräte, Heizungs- und Klimaanlagensteuerungen, Produktionsmaschinen oder Fahrzeugkomponenten miteinander und mit der Cloud verbunden, so dass komplexe Dienste für die Nutzer zur Verfügung gestellt werden können. IoT Einheiten stellen eine Abstraktion der Sensoren, Aktoren und Dienste von IoT Geräten dar. Dabei sollen Vertragsbedingungen zwischen den unterschiedlichen Partnern, wie Anbietern von IoT Einheiten und IoT Diensten sowie IoT Dienstnutzern, erfasst und in exakter, maschinenlesbarer und automatisch verfolgbarer Art und Weise umgesetzt werden können. Eine Herausforderung dabei ist eine dynamische Laufzeitumgebung in der IoT Geräte für unterschiedliche Dienste auf einer gemeinsam genutzten Plattform laufen und Dienste auf Geräte unterschiedlicher Art zugreifen müssen um ihre Funktion erfüllen zu können. In der Diplomarbeit wird ein erweiterbares Framework beschrieben das den Bereich des Vertragsentwurfs über ein flexibles Modell auf Basis von JSON (JavaScript Object Notation) abbildet. Die Überwachung der mit den Vertragsbestandteilen verbundenen Einschränkungen erfolgt über Aspekt-orientierte Programmierung. Die Vertragserfüllung wird durch eine Komponente zur Speicherung und Abfrage von Vertragsverletzungen sowie deren Verlinkung mit Smart Contracts in der Ethereum Blockchain unterstützt. Es wird ein Prototyp implementiert und in Hinblick auf die Realisierbarkeit echter Szenarien und der damit verbundenen Rechnerbelastung evaluiert. Die Ergebnisse der Evaluierung zeigen dass das neu entwickelte Framework für IoT Contract Definition und Governance in der Lage ist die Szenarien abzubilden und die notwendige Performanz und Skalierbarkeit gewährleistet werden kann.

Diplomarbeitsposter Knasmüller Bernhard

Bernhard Knasmüller

Masterstudium Software Engineering & Internet Computing
Abstract:

Datenstromverarbeitung ist eine Methode zur Verarbeitung und Aggregation von Datenströmen, um neue Informationen zu erschließen. Darauf aufbauende Applikationen (SPAs) sind in der Regel als verteilte Systeme konzipiert. Treten in solchen Systemen Fehler auf, werden Ausfallsicherheitsmechanismen eingesetzt, um einen unterbrechungsfreien Betrieb zu gewährleisten. Aufgrund der Nahezu-Echtzeit-Anforderungen von SPAs müssen solche im Fehlerfall eine Balance zwischen Konsistenz und Verfügbarkeit finden, da beides zusammen nicht gleichzeitig erreicht werden kann. Redunanz ist das zentrale Element von Ausfallsicherheit. Bestehende Ansätze aus der Literatur ermöglichen Redunanz, indem sie Operatoren replizieren. Dies greift zu kurz, weshalb wir ein neues Ausfallsicherheitsmodell präsentieren, das auf funktionaler Redundanz auf der Ebene von Pfaden (Abfolgen von Operatoren) beruht. Basierend auf einem konkreten Szenario aus der Praxis identifizieren wir Anforderungen an Pathfinder, einem neuen Ausfallsicherheitsframework, und evaluieren es anhand eines Beispiels aus der Praxis. Pathfinder verbessert die Schwächen bisheriger Ansätze, indem SPA-Entwicklern ermöglicht wird, funktionale Redundanz zu spezifizieren. Zur Laufzeit reagiert Pathfinder auf Defekte, indem auf einen fehlerfreien Alternativpfad gewechselt wird, der eine ähnliche Funktionalität bietet. Ein Schutzschalter-ähnlicher Mechanismus dient schließlich dazu, auf geordnete Weise wieder auf den Hauptpfad zurückzukehren, sobald der Defekt behoben wurde. Im direkten Vergleich mit einer vollständig redundanten Replizierung ist es mit unserer Lösung möglich, etwa 30% der Betriebskosten zu sparen, während eine vergleichbare Verfügbarkeit erzielt werden kann. Abschließend wird durch einige Experimente verdeutlicht, dass die Mechanismen zur Fehlerdetektion und Ausfallsicherheit wie erwartet funktionieren und nur einen geringen Mehraufwand hinsichtlich der Performance verursachen.

Diplomarbeitsposter Schubert Christian

Christian Schubert

Masterstudium Software Engineering & Internet Computing
Abstract:

Service-Level-Agreements sind vertragliche Vereinbarungen zwischen Anbietern und Kunden einer Dienstleistung, welche die zu erfüllende Qualität und Rahmenbedingungen der Dienstleistung festlegen. Im Bereich der IT-Services, beispielsweise bei Cloud-Services, werden diese eingesetzt, um Anforderungen in Bezug auf den Verbrauch und die Bereitstellung von Rechenressourcen zu definieren. Damit die Vertragseinhaltung überprüft werden kann, ist eine Echtzeitüberwachung der vereinbarten Qualitätsparameter erforderlich. Ein grundlegendes Problem bei der Überwachung von Service-Level-Agreements stellt die Vertrauenswürdigkeit dar. Die Durchführung von Messungen oder Entscheidungen bei einer der beiden Vertragsparteien, d.h. Dienstanbieter oder Kunde, führt zu Vertrauensproblemen der anderen Partei, da unterschiedliche wirtschaftliche Interessen verfolgt werden. Im Zuge dieser Arbeit wird ein Monitoring-System entwickelt, welches eine vertrauenswürdige Überwachung von Service-Level-Agreements bei Cloud-Services ermöglicht. Eine vertrauenswürdige dritte Partei fungiert dabei als Entscheidungsinstanz, welche Messungen von Anbieter- sowie Kundenseite analysiert und gegebenenfalls auftretende Vertragsverletzungen erkennt. Technologien wie aspektorientierte Programmierung oder Softwareagenten erlauben die Extraktion von Qualitätsparametern, ohne dass ein Eingriff in bestehende Software notwendig ist. Es erfolgt eine Implementierung des vorgestellten Ansatzes, sowie eine Evaluierung in einer Public-Cloud-Testumgebung. Ergebnisse zeigen, dass die Überwachung des Systems präzise und vertrauenswürdig ist, während die Anforderungen an die Transparenz, sprich geringer Ressourcenverbrauch und wenig Intrusion, eingehalten werden.

Arbeitsbereich Research Division of Business Informatics

Diplomarbeitsposter Heinzl Manuel

Manuel Heinzl

Masterstudium Medizinische Informatik
Abstract:

In der vorliegenden Arbeit wurde der Prototyp eines Serious Games entwickelt, der vor allem Menschen, die sich nicht ausreichend bewegen, zu mehr körperlicher Aktivität motivieren soll. Zunächst werden in einer umfassenden Literaturrecherche die gesundheitlichen Aspekte von Bewegung sowie Theorien zur Verhaltensänderung und zu Motivation beleuchtet. Eine Online-Umfrage dient der quantitativen Analyse des Bewegungsverhaltens sowie der Erwartungen und Vorbehalte gegenüber Fitness-Apps. Auf dieser Basis wurden in einem User Centered Design Prozess Anforderungen identifiziert und durch die iterative Entwicklung eines Prototyps validiert. Da für das Erfassen der gesamten körperlichen Aktivität permanentes Tracking hilfreich ist, wurden auch dessen Auswirkungen auf das Spieldesign näher untersucht. Das am Ende entstandene Survival-Rollenspiel Walk the Isle nutzt permanentes und allumfassendes Tracking, wodurch sich vielfältige Möglichkeiten ergeben, die Motivation für Bewegung zu steigern. Im Vordergrund steht eine Geschichte, bestehend aus täglichen Quests, die durch die Erfüllung eines individuellen, adaptiven Schrittziels abgeschlossen werden. Der Fund von Gegenständen während einer solchen Quest sowie Benachrichtigungen bei Inaktivität sollen Bewusstsein für Bewegung schaffen. Zusätzlich enthält Walk the Isle klassische motivierende Spiel-Elemente wie Achievements, Sammelgegenstände und ein Levelsystem. Bei der abschließenden Evaluierung wurde der Prototyp vor allem aufgrund der niedrigen Einstiegshürden sehr positiv beurteilt. Neben dem Smartphone, auf dem das Spiel läuft, werden keine zusätzlichen Geräte benötigt. Da das Spiel im Vordergrund steht, wurde die benötigte körperliche Aktivität als nebensächlich empfunden. Durch das unmittelbare Feedback konnten das Bewusstsein für Bewegung gesteigert und die Testpersonen zu mehr Bewegung motiviert werden.

Diplomarbeitsposter Pauer Sebastian

Sebastian Pauer

Masterstudium Medizinische Informatik
Abstract:

In Krankenhäusern sind sowohl Ärzte als auch das Pflegepersonal täglich mit einer Vielzahl von Informationen konfrontiert. Besonders während Visiten, in denen Patienten am Krankenbett aufgesucht und Diagnostik und Therapie festgelegt werden, sind Informationen zu den jeweiligen Patienten nötig. Krankenhausinformationssysteme (KIS) bieten Möglichkeiten, beispielsweise Befunde und Krankheitsverläufe eines Patienten auf stationären Rechnern einzusehen. In vielen Krankenhäusern und Abteilungen wird während der Visite jedoch die klassische papierbasierte Patientenakte verwendet. Ein Ansatz, die Patienteninformationen ohne Aktenwägen in die Krankenzimmer zu bringen, ist die Nutzung von Mobile-Health. Smartphones und Tablets können auf die Informationen des KIS zugreifen und die jeweilige Patientenakte mobil bereitstellen. Im Zuge dieser Arbeit wird eine prototypische Applikation einer mobilen Version eines Teilsystems eine KIS für Smartphones entwickelt. Zunächst erfolgte eine Recherche über bereits existierende mobile Applikationen unterschiedlicher KIS. Die Ergebnisse wurden anschließend verglichen und gemeinsame Funktionalitäten eruiert. In weiterer Folge wurde eine Anforderungsanalyse mittels qualitativer Interviews erarbeitet sowie Low-Fidelity und High-Fidelity Prototypen erstellt. Die gesamte Entwicklung wurde im User-Centered-Design durchgeführt. Das Ergebnis dieser Arbeit ist eine prototypische Applikation eines Teilsystems eines KIS und ermöglichte eine rasche Einsicht von Patienteninformationen auf einem Smartphone. In der letzten Evaluation wurde die Applikation sehr gut von den Endanwendern angenommen und die einfach verständliche Benutzeroberfläche hervorgehoben. Durch die Erkenntnisse dieser Arbeit kann auf eine Bereitschaft von Mitarbeitern in Krankenhäusern zur mobilen Interaktion mit den jeweiligen KIS geschlossen werden.

Diplomarbeitsposter Schindelka Herbert

Herbert Schindelka

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Mit 25.05.2018 tritt die EU-Datenschutzgrundverordnung (im folgenden DSGVO) in Kraft. Werden die einzelnen Punkte der DSGVO betrachtet, so ergeben sich massive Auswirkungen auf eine konkrete Umsetzung in IT-Systemen. Offensichtlich ist die Androhung von hohen Bußgeldern von bis zu 20 Millionen Euro der Treiber, der die DSGVO bei fast allen Unternehmen präsent macht. Einige Themen wie die „Betroffenenrechte“ wurden geschärft (z.B. Auskunftsrecht). Themen wie das „Recht auf Löschen“ sind detaillierter ausgeführt. „Datenportabilität“, die „Durchführung einer Datenschutz-Folgenabschätzung“ und „Datenschutz durch Technikgestaltung“ stellen explizit neue Anforderungen dar. Untersucht man die Anforderungen der DSGVO hinsichtlich technischer Verfahren, so erkennt man, dass diese Stand der Technik sind. Die Abbildung der DSGVO in der IT ist daher weniger ein Thema von technischen Verfahren, sondern eher der IT-Governance. Die Anforderungen des Datenschutzes müssen impliziter Teil des Anforderungsprozesses sein und als funktionale Anforderungen definiert werden. Dies bedarf eines interdisziplinären Zusammenspiels zwischen dem Fachbereich mit dem Domänenwissen, der IT, die die technische Implementierung sicherstellen muss und dem Rechtsbereich, der den rechtlichen Rahmen vorgibt. In dieser Arbeit wird dargestellt, wie aus den rechtlichen Ausführungen der DSGVO mit deren eigenen Begrifflichkeiten Anforderungen an die Begrifflichkeiten der IT abgeleitet werden können. Dazu werden Frameworks (COBIT, ITIL, …) herangezogen und ein Mapping auf die Anforderungen durchgeführt. Zur Abgrenzung des Datenschutzes zur Datensicherheit wird die ISO/IEC 27001 diskutiert. Abschließend wird auf Basis des Anforderungsprozesses die strukturierte Einbettung der Datenschutzanforderungen dargestellt. Ergänzt wird diese Darstellung durch den Aspekt der Implementierung in einem Enterprise-Umfeld und einem Abschnitt über Mechanismen zur sicheren Softwareentwicklung.

Diplomarbeitsposter Willinger Rainer

Rainer Willinger

Masterstudium Medizinische Informatik
Abstract:

Innerhalb der chronischen Krankheiten zählt Diabetes mellitus laut der Weltgesundheitsorganisation zu den häufigsten nicht übertragbaren Erkrankungen. Charakteristisches Symptom ist dabei eine unzureichende Wirkung des Hormons Insulin, wodurch es zu einem erhöhten Blutzuckerspiegel kommt, der zu Folgeerkrankungen führen kann. Um diese Komplikationen zu vermeiden, müssen Diabetiker lebenslang ihren Blutzucker messen und für den behandelnden Arzt protokollieren. Im Regelfall erfolgt die Dokumentation schriftlich in papierbasierten Diabetes-Tagebüchern. Von vielen Patienten werden diese notwendigen Aufzeichnungen jedoch nicht zeitnah, sondern nachträglich oder mitunter gar nicht festgehalten. Eine lückenhafte oder verfälschte Dokumentation erschwert die Therapieplanung enorm und verhindert gleichzeitig die Selbstkontrolle des Patienten. In der vorliegenden Diplomarbeit wurde eine Analyse und Anforderungserhebung an ein digitales Diabetes-Tagebuch in Form eines Self-Tracking Portals durchgeführt. Es wurde untersucht, ob Mechanismen aus Serious Games und Gamification für eine erfolgsversprechende Umsetzung in diesem Anwendungsbereich sinnvoll sind. Aufbauend auf einer breiten Literaturrecherche über den medizinischen Kontext von Diabetes mellitus und die Grundlagen von Serious Games und Gamification wurden existierende Lösungen analysiert und einer Klassifizierung unterzogen. Im nächsten Schritt wurde eine Patientengruppe zusammengestellt, mit der anschließend ein User Centered Design Prozess gestartet wurde. Als Resultat entstand das digitale Diabetes-Tagebuch DiaBeatThis. Der Patient erfährt auf spielerische Art und Weise Motivation, Wertschätzung und Unterstützung im Alltag. Fleißiges Dokumentieren wird in Form von virtuellen Spielvorteilen greifbar. Eine abschließende Evaluierung konnte die Akzeptanz der Umsetzung bestätigen und wichtige Aufschlüsse für die Beantwortung der wissenschaftlichen Fragestellung liefern.

Arbeitsbereich Research Division of E-Commerce

Diplomarbeitsposter Brom Jiri

Jiri Brom

Masterstudium Business Informatics
Abstract:

Der Schwerpunkt dieser Arbeit liegt auf der Vorhersage zukünftiger Bewegungen von Aktienkursen unter der Verwendung von Sentimentanalysen aus öffentlich zugänglichen Daten. Das Ziel ist es, verschiedene Datenquellen und Verarbeitungstechniken zu vergleichen, deren Vorteile und Nachteile zu identifizieren und daraus die beste Kombination zu finden, welche die höchste Vorhersagegenauigkeit bietet. Aus verschiedenen populären sozialen Netzwerken und Zeitschriften, welche als Repräsentant der öffentlichen Meinung herangezogen werden können, wurden die folgenden drei für die Analyse ausgewählt: Twitter, Stocktwits und die Suche nach Nachrichtenartikeln von Bing. Als Quelle für die Prognose der Aktienkursbewegungen wurden die folgenden neun Aktiengesellschaften und Indizes ausgewählt: Coca-Cola, McDonald’s, Microsoft, Netflix, Nike, Tesla, DJIA, NASDAQ, S&P 500. Verarbeitungstechniken, die auf die zugrundeliegenden Daten angewendet wurden, umfassen typische Textmanipulationsmethoden, wie z. B. Stemming, Stopwortentfernung, POS-Tagging oder Bigramm-Kollokationen. Der Sentimentanalyseprozess basiert auf einem allgemeinen Repräsentationsmodell, dem sogenannten „Bag of Words“ (Vektorraummodell). Für die Klassifizierungsaufgaben wurde eine Kombination gängiger Maschinenlernalgorithmen verwendet: Naive Bayes, Logistische Regression und Support Vector Machines. Die Ergebnisse wurden mittels Granger-Kausalität und binärer Klassifikation analysiert. Der Granger-Kausalitäts-Test untersucht die Korrelation zwischen täglichen Stimmungs- und Kursschwankungen der Daten-Serien. Der binäre Klassifikations-Test versucht, die zukünftige Auf- oder Abwärtspreisbewegung basierend auf der Sentimentanalyse der letzten drei Tage vorherzusagen. Als Hauptergebnis der Analyse wurde festgestellt, dass das soziale Netzwerk Stocktwits das größte Vorhersagepotenzial aufweist und dass eine starke Korrelation zwischen dem KGV eines Unternehmens und der Vorhersagbarkeit dessen Aktienkurses besteht.

Diplomarbeitsposter Dressler Philipp

Philipp Dressler

Masterstudium Business Informatics
Abstract:

Free-floating car sharing stellt eine komfortable Alternative zum öffentlichen Verkehr in Städten dar. Die Flexibilität dieses Ansatzes bedingt die regelmäßige Optimierung der car sharing Systeme in Hinblick auf Position und Verfügbarkeit der Fahrzeuge, sodass diese dort zur Verfügung stehen, wo Kunden sie benötigen. Die Systeme tendieren von Natur aus zu einem unausgeglichenen Status, wodurch der Bedarf an Relokation entsteht. Die Arbeit behandelt dieses Problem, indem eine Methode gezeigt wird, welche tiefere Einblicke in das Nutzerverhalten von free-floating car sharing Systemen gibt. Es soll zur Verbesserung der Relokationsstrategien der Anbieter beigetragen werden, indem beantwortet wird, wie Fahrzeuge in solchen Systemen geographisch repositioniert werden sollen, um den Kundenbedarf bestmöglich, in Abhängigkeit von zeitlichen, meteorologischen und geographischen Einflussfaktoren, zu decken. Die vorgestellte Methode ist eine generische Vorgehensweise zur Wissensermittlung über das Nutzerverhalten in free-floating car sharing Systemen, welche auf empirischen Fahrtdaten basiert. Sie besteht aus dem Sammeln und Normalisieren von Fahrtdaten sowie der anschließenden Analyse dieser mit Hilfe von dichtebasierten Clustering-Verfahren, um den Zusammenhang zwischen Orten von Interesse und Standorten mit hoher car sharing Nachfrage zu ermitteln. Die Kombination von Clustering-Ergebnissen und geographischen Interessenspunkten in einem geographischen Informationssystem erlaubt die Evaluierung von vielfältigen Annahmen über die Systeme, welche zur Verbesserung der Relokationsstrategien beitragen können. Der vorgestellte Ansatz ist leicht von Stakeholdern anwendbar. Die Arbeit zeigt auch eine konkrete Implementierung der Methode basierend auf Open Source Software. Es wurden einige beispielhafte Hypothesen durch diese Lösung evaluiert, um die Anwendbarkeit der Methode zu zeigen. Dieses Vorgehen resultierte in drei Vorschlägen zur Verbesserung von Relokationsstrategien.

Arbeitsbereich Research Division of Compilers and Languages

Diplomarbeitsposter Denner Bernhard

Bernhard Denner

Masterstudium Software Engineering & Internet Computing
Abstract:

With the ever growing number of computer systems, configuration management tools are getting more popular. Configuration management tools usually manage configuration settings on the level of configuration files and not on the level of individual configuration settings. One of the problems of this approach is that already preconfigured default configuration settings will be overwritten. Further, system administrators have to ensure a correct configuration file syntax themselves. In this thesis we have shown, that these weaknesses of configuration management tools can be improved by utilizing the methods of a general purpose configuration framework such as Libelektra. We implemented an extension for the configuration management tool Puppet, which allows us to treat configuration settings as first class citizens. In order to show that our approach has measurable advantages over existing Puppet concepts, we first compared our solution with other Puppet configuration file manipulation methods in terms of robustness of syntax validation and runtime performance. Second, we have conducted a case study to demonstrate that our solution is ready for real-world usage by managing a continuous integration system consisting of 5 computers and configuration files in 8 different formats. In a third evaluation step we have carried out a user study to show that our solution is able to improve the Puppet code development productivity. We asked a group of 14 participants to solve four different Puppet programming tasks in up to three different variants and compared the times required to solve the tasks. The case study demonstrated that our solution is ready for real-world scenarios and the results of the user study showed that our solution increases the development productivity significantly compared to other general purpose configuration manipulation strategies.

Diplomarbeitsposter Ghete Mihai Calin

Mihai Calin Ghete

Masterstudium Software Engineering & Internet Computing
Abstract:

Knuth's attribute grammars are a formalism for specifying the semantics of context-free languages. They imply an attribute evaluation step that requires finding a topological sorting of a directed acyclic graph. Historically, various approaches have been used to shift the resulting workload to the compile-time of evaluators or to reduce it by lowering the expressiveness of the formalism. This thesis describes the conceptual background and implementation of a fully expressive dynamic (run-time) attribute evaluator within an LALR(1) and GLR parser, and analyzes the trade-offs involved in both dynamic and various compile-time evaluation approaches. The resulting evaluator uses algorithms that are linear in time and space with regard to the size of the parse tree. Benchmarking suggests it is performant enough for practical purposes. The evaluator supports GLR attribute grammars that result in a single valid parse tree. In addition, the core of the evaluator is made available as a separate run-time library.

Diplomarbeitsposter Lettmayer Matthias

Matthias Lettmayer

Masterstudium Software Engineering & Internet Computing
Abstract:

The Peer Model, developed by the Space-Based Computing group at TU Wien, introduces a modelling language that allows designing and implementing distributed systems by using predefined and application-specific components. Typically, different stakeholders need to exchange data in such distributed environments. As an organisation can not trust its communication partners in an insecure network, e.g. the Internet, the Peer Model was recently extended by a security model that enables a fine-grained rule-based authorisation mechanism and attribute-based representation of identities with support of chained delegation. Furthermore, a secure runtime architecture called Secure Peer Space was introduced. As this security extension is relatively new, no showcases exist yet. This thesis provides such an example by describing the design and implementation of an enhanced public resource application that allows sharing computational resources over a peer-to-peer network. Users can create own projects or participate in them to share CPU power with each other. Project owners are able to exclude users by using generic attribute access rules. The authorisation is handled by the Secure Peer Space. Workload is encapsulated into tasks and distributed as subtasks to the participants of a project. As the Secure Peer Space lacks an authentication method that can be used in real world scenarios, it is also part of this thesis to design and implement a certificate-based authentication component for the Secure Peer Space. Therefore, users are authenticated by X.509 certificates, that are signed by an autonomous certificate authority, whereas the communication is encrypted using TLS. The Peer Model is used to model and implement the coordination logic of the application.

Diplomarbeitsposter Rohner Andreas

Andreas Rohner

Masterstudium Software Engineering & Internet Computing
Abstract:

NILFS2 is a log-structured file system for Linux. Log-structured file systems write data and meta-data into a sequential log, to take advantage of the better sequential write performance of most storage devices. This approach necessitates some form of garbage collection, to recover the free space from the log. Currently NILFS2 uses a very simple garbage collection algorithm called Timestamp. This thesis describes the implementation of two additional state-of-the-art algorithms (Greedy and Cost-Benefit), and compares their performance. Additionally it discusses and compares two algorithms to gather and store the necessary meta-data used by the above mentioned garbage collection algorithms. The very promising results show a performance improvement over the Timestamp algorithm by a factor of 1.53 for most scenarios.

Diplomarbeitsposter Steiner Konrad

Konrad Steiner

Masterstudium Software Engineering & Internet Computing
Abstract:

Um überleben zu können, benötigt jeder Mensch Lebensmittel und daher ist eine angemessene Versorgung der gesamten Menschheit mit Essen wichtig. Offensichtlich ist das nicht der Fall - Nahrungsmittelabfälle und Mangelernährung sind die Folgen. In letzter Zeit versuchen immer mehr food sharing Initiativen das Problem zu lösen, indem sie überschüssige Lebensmittel weiterverteilen, sind dabei aber nur mäßig erfolgreich. Deshalb ist das Ziel dieser Arbeit einen smarten food sharing Prozess zu beschreiben. Sie beschäftigt sich mit vielen Aspekten von food sharing und bietet Vorschläge für Verbesserungen. Ganz besonders wird das Koordinationsproblem das food sharing innewohnt beleuchtet und mit dem Peer Model gelöst. Zu Beginn gibt die Arbeit Einblicke in die globale Lebensmittelversorgung und schätzt das mögliche Potential von food sharing ab. Danach analysiert sie bestehende food sharing Lösungen und Forschung über food sharing und gibt Verbesserungsvorschläge. Anschließend werden mehrere Informations- und Kommunikationstechnologien beschrieben, die in einem verbesserten food sharing Prozess verwendet werden können. Dabei vergleicht sie gängige Koordinationsframeworks und kommt zu dem Ergebnis, dass für food sharing das Peer Model am besten geeignet ist. Deshalb wird das Koordinationsproblem von food sharing mit dem Peer Model modelliert, für seine Java Laufzeitumgebung implementiert und eine Simulation zeigt, dass das Model funktioniert. Abschließend beschreibt die Arbeit einen smarten food sharing Prozess und Storyboards veranschaulichen wie Benutzer damit interagieren. Die Weltbevölkerung mit Essen zu versorgen wird auch zukünftig herausfordernd, vor allem wenn sie wie erwartet steigt. Mit food sharing können heute bereits einige Probleme in der Lebensmittelversorgung verbessert werden, aber aktuelle Lösungen sind nicht effizient genug. Ein smarter food sharing Prozess, wie in dieser Arbeit beschrieben, sollte daher so bald als möglich eingesetzt werden.

Andere Institute der Technischen Universität Wien

(vor 2018) Institut für Diskrete Mathematik und Geometrie

Diplomarbeitsposter Vierling Jannik Tim

Jannik Tim Vierling

Masterstudium Computational Intelligence
Abstract:

In 2013 Kersani and Peltier introduced the n-clause calculus, a superposition calculus enriched with a cycle detection rule realizing a form of reasoning by mathematical induction. Until now it is not known which form of induction is captured by the n-clause calculus. An upper bound in terms of the quantifier complexity of the induction invariant can be obtained by a two step translation: in a first step we encode cyclic refutations in a cyclic sequent calculus introduced by Brotherston and Simpson in 2010; in a second step we translate cyclic proofs into inductive LK proofs.

(vor 2018) Institut für Statistik und Wahrscheinlichkeitstheorie

Diplomarbeitsposter Heiler Georg

Georg Heiler

Masterstudium Business Informatics
Abstract:

Telecommunication providers not only offer services but increasingly finance consumer devices. Credit scoring and the detection of fraud for new account applications gained importance as standard credit approval processes showed to fall short for new customers as there is only scarce information available in internal systems. Modern machine learning algorithms, however, can still infer intricate patterns from the data and thus can efficiently classify customers. Cost-sensitive methodologies can even enhance the savings. In this thesis, we develop a cost matrix which allows evaluating the individual risk of accepting a new customer and therefore helps to prevent new account subscription fraud optimally.

Diplomarbeitsposter Landauer Max

Max Landauer

Masterstudium Business Informatics
Abstract:

Cyber Security setzt Intrusion Detection Systems zur Echtzeit-Überwachung von kontinuierlich generierten Logzeilen ein. Existierende Ansätze verwenden Clustering-Methoden um ähnliche Logzeilen zu gruppieren. Dabei werden ungewöhnliche Logzeilen unabhängig von der zugrundeliegenden Syntax oder Semantik der Logdatei als Ausreißer erkannt. Diese Ansätze erzeugen jedoch nur eine statische Sicht auf die Daten und berücksichtigen die dynamische Natur von Logzeilen nicht ausreichend. Änderungen in der Systemumgebung oder der technologischen Infrastruktur erfordern daher häufige Neuformungen der bestehenden Gruppen. Darüber hinaus sind solche Ansätze nicht für die Erkennung von Anomalien bezüglich der Frequenz, Änderungen des periodischen Verhaltens oder Abhängigkeiten von Logzeilen geeignet. Um diesen Problemen entgegenzuwirken wird in dieser Arbeit eine Methode zur Erkennung von dynamischen Anomalien in Logdateien vorgestellt. Das Verfahren gruppiert ähnliche Logzeilen innerhalb vordefinierter Zeitfenster unter Verwendung eines inkrementellen Clustering-Algorithmus. Dabei werden Verbindungen zwischen den ansonsten isolierten Ansammlungen von benachbarten Gruppen hergestellt. Diese Verbindungen werden mithilfe von Cluster-Evolutionstechniken analysiert um komplexe Übergänge zu bestimmen. Ein selbstlernender Algorithmus erkennt anschließend Anomalien in den zeitlichen Verläufen abgeleiteter Metriken. Ein Prototyp für die oben genannte Methodik wurde im Rahmen dieser Arbeit entwickelt und in einem illustrativen Szenario evaluiert. Die Ergebnisse wurden bezüglich der Anomalieerkennungsfähigkeit sowie der Laufzeit untersucht. Die Evaluierung des Szenarios zeigte, dass die Methodik 61.8% der dynamischen Änderungen der Logzeilen-Cluster korrekt identifizieren konnte, wobei die Fehlalarmrate nur 0.7% betrug. Ein effizientes Erkennen solcher Anomalien und die Fähigkeit der Selbstanpassung bei technologischen Änderungen begründen die Anwendbarkeit des vorgestellten Ansatzes.

Diplomarbeitsposter Tvrdic Tomislav

Tomislav Tvrdic

Masterstudium Business Informatics
Abstract:

Inflation is one of the most prominent key economic indicators. It is present in daily lives of every citizen in the form of change of prices of items or services which they purchase. This work argues that the problem is that citizens often misinterpret the relationship between inflation and their consumption because they usually have a distorted image on price dynamics of items consumed, as well as their share in the personal consumption basket. These arguments lead to an overall distrust of inflation as a measure, and subsequently, in the national statistics offices that produce it. Statistics offices tackled the problem by creating personal inflation calculators that require citizens to input their exact consumption pattern. This thesis defines and builds on the uninformed user hypothesis, which argues that most citizens do not have a real image of how they are spending their disposable income. The central focus of this work is to define a model that takes this hypothesis and creates a set of constraints and requirements to bypass the problem of people not knowing their consumption patterns. This model is then used to build a survey which aims at decreasing question complexity, thus reducing user input error, outputting a consumption pattern scheme which is then used to calculate a personal inflation rate. This will be achieved by building a model using Multivariate decision tree regression. In the end, this could be a way to recoup lost mistrust in official price statistics. Furthermore, this thesis uses the power of data visualization to provide an interpretive framework to both citizens and researchers. The results of this work show how a robust baseline model is established, which, however, lacks a comparative benchmark to determine the validity of assumptions on which it is built. Nonetheless, it serves as a motivation to both improve the model and use it for educative and research purposes.

(vor 2018) Department für Raumplanung

Diplomarbeitsposter Blasl Paul

Paul Blasl

Masterstudium Business Informatics
Abstract:

Durch die technischen Entwicklungen und Fortschritte im Bereich der Informationstechnologien sind die heutigen Möglichkeiten als auch die Notwendigkeit von Transparenz im Bereich der öffentlichen Finanzen größer denn je. Das Ziel, Regierungsbudgets in einer nachvollziehbaren, verständlichen, transparenten und offenen Weise zu veröffentlichen, verursacht nicht nur Anforderungen an die öffentlichen Haushaltsdaten an und für sich, sondern auch an die dazugehörigen Budgetprozesse und systeme sowieso die zugrundeliegenden technischen und rechtlichen Konzepte. Im Zuge dieser Diplomarbeit wird der diesbezügliche aktuelle Stand der Technik, der Forschung und der international bereits bewährten Methoden auf Open und Linked Data ausgeweitet, um diese gemeinsam auf Gemeindefinanzen in Österreich anzuwenden. Damit soll ein neues Niveau in Bezug auf Transparenz und fachlicher Praxis – verglichen mit dem derzeitigen Stand hierzulande – erreicht werden.

Diplomarbeitsposter Hasil Cornelia

Cornelia Hasil

Masterstudium Medieninformatik
Abstract:

Mit dem Aufstieg von Sozialen Netzwerken und dem Internethandel Mitte der 2000er Jahre hat sich auch die Anzahl an Online-Profilen, die eine Person in ihrem Leben anlegt, vervielfacht. Besaß man bis 20041 häufig nur ein Benutzerkonto bei einem E- Mail-Provider wie Yahoo! oder GMX, so hat man im Jahr 2017 oft schon den Überblick über die genaue Anzahl an Profilen verloren, sofern man nicht akribisch Buch über die An- und Abmeldungen führt. Selten stellen wir uns jedoch die Frage, was mit diesen Daten passiert, wenn wir sterben. Alle Daten, die eine Person mit ihrem Ableben zurücklässt, werden als digitaler Nachlass bezeichnet. Verwunderlich ist jedoch, dass, obwohl dieses Thema beinahe jeden betrifft, es nach wie vor keine konkrete und vollständige sowie allgemein gültige Definition davon gibt, was alles unter den Begriff des digitalen Nachlasses fällt und welche Rolle den Erben dabei zufällt. Dies hat zur Folge, dass entsprechende Vorbereitungen und Regelungen durchaus komplex und schwierig anmuten können. Ebenso ist vielen Menschen heutzutage nach wie vor nicht bewusst, dass sie sich bereits zu Lebzeiten aktiv um ihren digitalen Nachlass kümmern und entsprechende Vorkehrungen treffen müssen, da sonst ihren Hinterbliebenen in Zeiten der Trauer noch eine weitere Bürde auferlegt wird, die oftmals nur sehr mühsam zu handhaben ist. Aufgrund der Vielschichtigkeit dieses Themas, das noch dazu verkompliziert wird, wenn der Nachlass mehrere Staaten betrifft, hat es sich diese Arbeit zum Ziel gemacht, die Materie, sowie alle damit verbundenen Themenbereiche auf österreichischer als auch internationaler Ebene zu untersuchen und damit einhergehend einen Leitfaden zur Vorbereitung der digitalen Hinterlassenschaft zur Verfügung zu stellen.

Diplomarbeitsposter Lueger Matthias

Matthias Lueger

Masterstudium Medieninformatik
Abstract:

Sexting, der Austausch sexueller Inhalte mittels digitaler Medien, erlangt aufgrund des medialen und gesellschaftlichen Interesses auch in Wissenschaft und Forschung zunehmende Aufmerksamkeit. Insbesondere wegen seiner Verbreitung unter Jugendlichen und der damit einhergehenden Risiken existieren divergierende Perspektiven zu diesem Phänomen. Während moderne Kommunikationsmedien den Austausch zunehmend vereinfachen und differenzierte, neue Optionen bieten, steigt die Besorgnis aufgrund dieses Trends in der Öffentlichkeit. Im Zuge dieser Diplomarbeit soll eine wissenschaftliche Grundlage geboten werden, um einen umfassenden Einblick in Sexting in der Lebenswelt Jugendlicher zu bieten. Eine interdisziplinäre Herangehensweise soll die Wechselwirkungen zwischen unterschiedlichen Bereichen und Einflussfaktoren veranschaulichen. Basierend auf divergierenden Resultaten von Untersuchungen des Phänomens soll die tatsächliche Prävalenz von Sexting, bedeutender Einflussfaktoren und ausschlaggebender Beweggründe dargelegt werden. Die unterschiedliche Ausgestaltung rechtlicher Konsequenzen in verschiedenen Ländern führt zu Rechtsunsicherheiten und justiziellen Spielräumen. Insbesondere die strafrechtliche Ahndung im Zusammenhang mit Kinderpornografie weist erhebliche Gefahren für jugendliche Sexting-Teilnehmer auf. Aufgrund mangelnder Aktualität des Strafrechtssystems und fehlender Anpassung an wesentliche technologische und gesellschaftliche Weiterentwicklungen kommt es zu einem Ungleichgewicht zwischen Recht, Technik und Gesellschaft. Die vorliegende Arbeit soll Ansätze liefern, wie vorhandene Spannungsfelder entschärft werden können, um einen adäquaten öffentlichen und rechtlichen Umgang mit Sexting unter Jugendlichen zu ermöglichen.

Diplomarbeitsposter Schwarz Christopher

Christopher Schwarz

Masterstudium Business Informatics
Abstract:

Bitcoin is the most famous cryptocurrency of our time. Since its foundation in 2008, it has been subject to a constant user growth and is also a frequently discussed topic in politics and legislation. Besides many advantages of this new currency, the public opinion on it is often overshadowed by a number of disadvantages. The missing authority, the high risk and the pronounced criminal use of this cryptocurrency are just a few points of criticism. Furthermore, criminal prosecution in the usual sense is not possible, since cryptocurrencies are more or less anonymous. Also, legal authorities have no power of control over accounts or transactions, which makes it much more difficult to track illegal money. The focus of this diploma thesis is to classify Bitcoin in terms of law and especially investigate the use of it in organized crime. For this purpose, the cryptocurrency Bitcoin is investigated, compared with fiat currencies and risks are also described. A classification in a legal sense based on the current legal situation of Austria and other countries is, besides a functional classification, an important part of this work. To take a closer look at the use of Bitcoin and other cryptocurrencies, a definition and consideration of organized crime in a general way is necessary. In doing so, different areas of organized crime are discussed, including the area of cybercrime, and the connection to Bitcoin is shown. As one of the most important factors of organized crime or criminal actions in general, money laundering is one of the main subjects of this thesis. Money laundering is observed in general as well as in detail, with a particular focus on the specific areas and methods. Money laundering in the virtual world and the use of Bitcoin as new option in money laundering is of great importance in this thesis.

Diplomarbeitsposter Wenisch Jürgen

Jürgen Wenisch

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Neben der Cryptowährung Bitcoin werden Smart Contracts als Hauptanwendung der Blockchain-Technologie gesehen. Die Blockchain wird allgemein als dezentrales, verschlüsseltes Kontenbuch beschrieben, das es erlaubt, ohne zentrale Vermittlungsstelle beliebige Arten von Transaktionen zwischen Teilnehmern durchzuführen. Mithilfe eines geeigneten Algorithmus wird eine digitale Zusage an einen Vertragspartner gegeben, die beim Eintreten einer vorbestimmten Voraussetzung automatisch eingelöst wird und damit die Vertragsleistung automatisch erbringt. Die potentiellen Anwendungsgebiete sind mannigfach. Sie reichen über die Möglichkeit, ein elektronisches Grundbuch zu führen, den Handel mit Strom oder Rechenleistung zwischen Verbrauchern, Zugangskontrolle zu Räumen oder Mietfahrzeugen über elektronische Schlösser, Sicherung der Authentizität von Geschäftspartnern bis zu Bereichen des eGovernents wie elektronisch unterstützten Wahlen. Allerdings sind nach Ansicht zahlreicher Juristen die rechtlichen Rahmenbedingungen für derartige smarte Verträge derzeit noch weitgehend ungeklärt. Das österreichische Zivilrecht räumt den Rechtssubjekten einerseits viele Freiheiten zur Gestaltung ihrer Rechtsverhältnisse ein, andererseits sind auch die dadurch nötigen Schutzmechanismen zahlreich. Diese Arbeit beschäftigt sich mit der Frage, ob Smart Contracts grundsätzlich als Verträge im Sinne des österreichischen Zivilrechtes gesehen werden müssen, mit Beschreibung der Anwendungen und Umsetzungsmöglichkeiten von Smart Contracts und mit notwendigen Erweiterungen durch die Vorgaben des österreichischen Privatrechts.

(vor 2018) Institut für Managementwissenschaften

Diplomarbeitsposter Sommer Patrick

Patrick Sommer

Masterstudium Business Informatics
Abstract:

OntoUML is an ontology-based, conceptual modelling language. A conceptual model should make systems more understandable for humans. It is easier for humans to understand a conceptual model as a code. That is why it is important to find a way to transform conceptual models into executable code. The manner of transformation in this thesis is to transform an OntoUML accounting process to a BPMN model and to transform the BPMN model into a BPEL model, which represents an executable code.

(vor 2018) Institut für Automatisierungs- und Regelungstechnik

Diplomarbeitsposter Mortezapoor Soroosh

Soroosh Mortezapoor

Masterstudium Computational Intelligence
Abstract:

Even though grasping has been an interesting and crucial topic in robotics for a long time, robots still have great difficulty in picking up arbitrary objects when they face open, unknown environments or under uncontrolled conditions. As a result, a new research and development conducted with a new vision to this problem introducing a novel approach for training a robot how to grasp, using topographic features of the objects, especially developed for grasping without requiring a prior knowledge of the objects which abstracts topographic information from perceived surfaces of objects hence enables to learn how to grasp, called Height Accumulated Features (HAF) and Symmetry Height Accumulated Features (SHAF). An important and inseparable part of the core of such an approach is the decision part, where the perceived scenes are interpreted into abstract models and need to be classified, to help the rest of the core to make a conclusion and find the best suitable points to grasp an object. This thesis proposes improvements and optimizations on this part of the core, in three different stages, extending machine learning training instances, introducing new feature set definitions, to be used as either substitutions or complements to HAF and SHAF, and selecting the best classification algorithm, to be employed for the grasping using topographic features.

Diplomarbeitsposter Streicher Dominik

Dominik Streicher

Masterstudium Technische Informatik
Abstract:

This thesis presents a full methodological approach to model objects, which are held in human hands. A major advantage of our method is, that it works in real time and does not need a complex manuel calibration. Another advantage is, that the object can be modeled inside of the users hand, which is a big advantage in HRI. That means objects can be learned without puting them in some designated place. To acheive this, we present a solution for efficient segmention of the user’s hand and the background, using an RGB-D camera. For this we will extract the skin color of the user’s face to detect the user’s hand and remove it in the image. Afterwards the object will be segmented. To combine the different views, we use V4R-Librabry to map the single images to a 3D-model. To show the efficiency of our method, we present at the end some models, which we created with our method and discuss the limits.

Institut für Angewandte Physik

Diplomarbeitsposter Fakher Mona

Mona Fakher

Masterstudium Medizinische Informatik
Abstract:

One of the most causes of blindness in the world, particularly in the elderly, is glaucoma. Glaucoma is a disease that affects the optic nerve. Early detection is one of the essential factors for preventing optic nerve damage and blindness caused by glaucoma. Periodic check-ups, including imaging systems like OCT (Optic Coherence Tomography) and image analysis by experts, check for rapid changes in the pattern of blood vessels and the development of different changes in the retina. The aim of this work is to implement a segmentation algorithm for OCT angiography, which allows a proper extraction of different microvascular beds from the OCT tomogram. Furthermore, a review of quantification and analysis of the de-noising algorithms for the OCT-angiography images will be performed.