EPILOG Wintersemester 2018

Auszeichnungen

Weitere Nominierungen für Distinguished Young Alumnus/a Award WiSe 2018/2019

Ausgestellte Arbeiten

Institut für Institute of Computer EngineeringE191

Arbeitsbereich Research Division of Cyber-Physical Systems

Diplomarbeitsposter Fuchs Magdalena

Magdalena Fuchs

Biomedical Engineering
Abstract:

In dieser Arbeit wurde ein Setup zur Optimierung von realistischen Single-Compartment Neuronenmodellen implementiert. Diese Modelle können dafür genutzt werden, Lernmechanismen im Fadenwurm C. elegans zu beschreiben. Das gewählte Modell ist ein modifiziertes Hodgkin-Huxley Modell, bei dem auch das intrazelluläre Kalzium modelliert wird. Ein Modell der Synapse inkludiert die Dynamik der verschiedenen Schritte der Signalübertragung an der Synapse. Das Modell der Zelle ist modular veränderbar und wurde in MATLAB Simulink implementiert. Verschiedene Nervenzellen des Fadenwurms C. elegans zeigen unterschiedliches charakteristisches Verhalten. Dass das Modell dies reproduzieren kann, wurden die Parameter des Modells angepasst, um experimentelle Daten von Kalzium Imaging Messungen zu reproduzieren. Die Suche nach geeigneten Parametern erfolgte durch händisches Ausprobieren und mit einem genetischen Algorithmus. Hierfür wird dem Neuronenmodell ein vordefinierter Input gegeben, der den Input des gesamten Netzwerkes approximiert. Die vom Modell produzierten Kalzium-Kurven sollen sich nun den am echten Wurm gemessenen Kurven so genau wie möglich annähern, während das Resultat gleichzeitig andere Anforderungen an die biologische Plausibilität erfüllen muss. Diese Optimierung führte zu Parameter-Sets, die die Kurven aus Experimenten gut reproduzieren konnten. Außerdem wurde im Neuronenmodell ein Mechanismus für Habituation, einen simplen nicht-assoziatives Lernprozess als Antwort auf sich wiederholende Stimuli, implementiert. Habituation wurde anhand von zwei verschiedenen Prozessen in der Zelle und an der Synapse modelliert. In einem weiteren Versuch wurden Neuronale Netze mit Long Short Term Memory Units (LSTM) darauf trainiert, Kalziumkurven von C. elegans Neuronen zu reproduzieren. Sowohl aktive Antworten auf Pulse, als auch Oszillationen als Antwort auf einen konstanten Input konnten reproduziert werden.

Diplomarbeitsposter Javin Marc

Marc Javin

Masterstudium Computational Intelligence
Abstract:

Modeling neural circuits with detailed biophysical properties requires novel optimization toolkits to enable scalability. In this study, we develop a hybrid method based on random-initialization of stochastic gradient descent algorithm to tune the parameters of neural circuit models, for a given objective in a supervised learning setting. We present ODYNN, an optimization suite for dynamic neural networks. ODYNN is designed for simulating and optimizing biological neural circuits to model behaviors exhibited by the neural dynamics, and to test neuroscience hypotheses. It is enhanced with features such as performing experiments with different biophysically realistic neuronal models as well as artificial recurrent neural networks, to design arbitrarily structured neural circuits and optimizing them to govern specific behaviors. For a given neural circuit structure, neuronal and synaptic model, ODYNN adopts a random search optimization step followed by an adaptive-momentum gradient-based learning algorithm to learn the calcium imaging data of desired input/output dynamics. We perform single neuron optimizations for biophysically realistic complex neuron models which are realized by partial differential equations, and explore in their parameter space to reason about neuronal dynamics at cell level resolution. We then perform synaptic and neural parameter optimization in small circuits, by the hybrid optimization approach and assess the performance by learning models to express arbitrarily chosen dynamics. Furthermore, we show that ODYNN is able to scale up to the tuning of larger neural circuits' parameter spaces, efficiently, in a reasonable optimization duration. We optimize neural circuits such as the tap-withdrawal, a neural system from the nervous system of the soil worm, C. elegans, that induces reflexive response as a result of mechanical stimulations; and also its forward locomotion circuit which is responsible for generating the worm's forward crawling.

Diplomarbeitsposter Treml Lilly Maria

Lilly Maria Treml

Masterstudium Medizinische Informatik
Abstract:

Nowadays, computer-based simulation is an important tool to study various phenomena in cardiac biology ranging from investigating the properties of single ion channels to predict the onset of cardiac arrhythmia. Due to the complexity of calculations, these simulations are generally computationally expensive and resource intensive. In the last decade, there has been a great effort to accelerate computer-based cardiac simulation by implementing efficient parallel algorithms that leverage multi-cores CPU and many-cores GPUs currently available also in common personal computers. These algorithms are generally developed using imperative languages dictating the control flow of the program. In this work I am investigating the use of hardware-based accelerators provided by Maxeler Dataflow Technology to improve the simulation time of the electrical activity of a homogenous 1D cell cable and an isolated single cell. This technology relies on dataflow paradigm, in which the data processing elements, called pipelines, operate concurrently and are connected in a way that the output of one element is the input for the following/next one. In my work I am additionally comparing the advantages and disadvantages of the proposed approach with the current state-of-the-art based on CPU and GPU regarding performance and resource utilization.

Arbeitsbereich Research Division of Automation Systems

Diplomarbeitsposter Ras Martin

Martin Ras

Masterstudium Software Engineering & Internet Computing
Abstract:

Kanban in der Softwareentwicklung greift auf Konzepte und Ideen des Lean Manufacturing zurück. Dabei soll Arbeit möglichst lean durch den Prozess fließen und Waste gar nicht erst entstehen. Seit Mitte der 2000er zeigt sich ein klarer Trend in der Softwareentwicklung: verteilte Teams. Wurde Kanban von seinem Pionier ursprünglich in einem verteilten Team entwickelt, so ist die wissenschaftliche Forschung dazu noch sehr jung. Die vorliegende Arbeit geht daher auf den Bedarf an Forschung ein und untersucht die Anwendung drei ausgewählter Aspekte von Kanban im verteilten Team: Pull- Prinzip, Work-In-Progress-Limitierung (WIP-Limitierung) und Kaizen-Kultur (kontinuierliche Verbesserung). Dabei sollen entstehende Herausforderungen ergründet und mögliche Lösungen aufgezeigt werden. Dieses weitläufige und facettenreiche Gebiet wurde sowohl durch die Auswahl dreier Aspekte, als auch in Bezug auf Verteilung, Größe und Lebenszeit des verteilten Teams, eingeschränkt. Im Zuge der durchgeführten Fallstudie wurden semistrukturierte Interviews mit Personen durchgeführt, welche Kanban in ihrem verteilten Team anwenden. Die qualitative Inhaltsanalyse zeigt, dass es bei der Anwendung von Kanban im verteilten Team zu Herausforderungen kommt, denen begegnet werden muss. Eine zentrale Herausforderung für das Pull-Prinzip ist das Vorhandensein bzw. der Fluss von arbeitsrelevanten Informationen. Für die WIP-Limitierung gilt es zu erkennen, welche Prozessschritte sinnvoll limitiert werden können und welche Auswirkungen Teamzusammensetzung und angewandete Arbeitspraktiken auf die Limitierung haben. Bei der kontinuierlichen Verbesserung ist es insbesondere herausfordernd, dass eine gute und offene Kommunikation und ein gewisses Maß an Vertrauen gegeben sind. Alle genannten Herausforderungen haben jeweils individuelle Lösungsansätze. Aufbauend auf die Ergebnisse der Forschungsarbeit konnten abschließend acht Empfehlungen für die Anwendung von Kanban im verteilten Team abgeleitet werden.

Diplomarbeitsposter Spiegel Michael Herbert

Michael Herbert Spiegel

Masterstudium Technische Informatik
Abstract:

Die Herstellung vieler hochqualitativer Güter, eine kontinuierliche Energieversorgung oder moderne Gebäudetechnik beispielsweise basieren auf hochgradig automatisierten Prozessen. Mittels numerischer Simulation können diese Systeme mit reduziertem Prototypenaufwand entwickelt werden. Allerdings sind direkte Interaktionsmöglichkeiten mit Automationssystemen während deren Laufzeit bislang limitiert. Um die effiziente Entwicklung komplexer, zuverlässiger Cyber-physical Systems voranzutreiben, werden im Zuge dieser Arbeit Kopplungsmöglichkeiten zwischen ereignisbasierten Automationssystemen und numerischen Simulationen systematisch identifiziert. Einsatzbereiche dieser Kopplungspunkte reichen von hybriden Simulationen kontinuierlicher Anlagenmodelle mit diskreten Regelungen bis hin zur Emulation realer Anlagenteile, welche in einem Laborumfeld schwer realisierbar sind. Die hier präsentierte Forschung wird auf Basis offener Standards, speziell der IEC 61499 für Automationssysteme und den Functional Mock-up Interface Standards für numerische Simulationen, durchgeführt. Durch die systematische Diskussion können zahlreiche Kopplungspunkte und -strategien in einer umfassenden qualitativen Studie identifiziert und klassifiziert werden. Eine prototypische Implementierung eines Simulationsprogramms zur Erzeugung virtueller Komponenten ergänzt die eingangs durchgeführte Studie. Um die implementierte Methodik zu evaluieren, werden zwei Testfälle aus dem Bereich der intelligenten elektrischen Energienetze umgesetzt und ausgewertet. Die Testfälle demonstrieren, dass die Instanziierung von standardbasierten virtuellen Komponenten in ereignisbasierter Automationsinfrastruktur prinzipiell umsetzbar ist und dass der Einsatz einer neuartigen vorhersagebasierten Ereignissynchronisation die Einbindung von Modellen ermöglicht, die bei klassischer periodischer Synchronisation nicht akkurat gekoppelt werden können.

Arbeitsbereich Research Division of Parallel Computing

Diplomarbeitsposter Kainrad Thomas

Thomas Kainrad

Masterstudium Software Engineering & Internet Computing
Abstract:

High-Performance-Rechencluster sind essentiell für eine Vielzahl von wissenschaftlichen Forschungsbereichen. Allerdings ist die Arbeit mit ihnen oft mühsam, besonders für Wissenschafter ohne formale Informatikausbildung. Derzeitige Ambitionen, den Zugang zu solchen Systemen zu erleichtern, legen den Fokus vor allem auf die Bereitstellung von Web-basierten grafischen Benutzeroberflächen, die es erlauben Rechenjobs an das Distributed Resource Management System (DRMS) des jeweiligen Clusters zu schicken. Diese Technik beseitigt jedoch nicht die Notwendigkeit des manuellen Umgangs mit Eingangs- und Ausgangsdaten. Unser Ansatz ist es, Zugriff auf Remote-Cluster direkt in grafische Desktopanwendungen, die von Wissenschaftern alltäglich verwendet werden, zu integrieren. Die Handhabung von Datenkonvertierung und Netzwerkkommunikation passiert im Hintergrund und ist transparent für den Benutzer. Zu diesem Zweck wurde eine Serverapplikation entwickelt, die auf physischen Clustern sowie in der Amazon Elastic Compute Cloud (EC2) installiert werden kann und Web-Services zum Starten und Kontrollieren von Rechenjobs zur Verfügung stellt. Zugang zu den entwickelten Web-Services wurde direkt in die LigandScout-Software für molekulare Modellierung integriert. Diese Integration ermöglicht es, direkt aus der grafischen Benutzeroberfläche von LigandScout, große Moleküldatenbanken mittels Virtual Screening auf ihre biologische Aktivität zu untersuchen. Um dieses Virtual Screening effizient und ohne weiteres Zutun des Benutzers auf Distributed-Memory-Clustern durchführen zu können, entwickelten wir einen Algorithmus zum Aufspalten von Screening-Experimenten in mehrere unabhängige Teilaufgaben. Unsere Evaluierung zeigt, dass die Laufzeit der so gestarteten Screening-Experimente beinahe linear mit der Anzahl an Cluster-Knoten skaliert. Unsere Lösung verbindet also die Benutzerfreundlichkeit von graphischen Desktopanwendungen mit der Rechenleistung von High-Performance-Clustern.

Institut für Institute of Logic and ComputationE192

Arbeitsbereich Research Division of Algorithms and Complexity

Diplomarbeitsposter Fröschl Theresa

Theresa Fröschl

Masterstudium Software Engineering & Internet Computing
Abstract:

Storyline Visualizations sind einfache 2-dimensionale Illustrationen über die Handlungen von z.b. Filmen die nur aus den horizontal verlaufenden Lebenslinien der Charaktere bestehen. Die Interaktionen zwischen diesen Charakteren stehen im Fokus einer Storyline Visualization. Aktuelle wissenschaftliche Arbeiten haben ihren Fokus auf der Optimierung von Storyline Visualizations durch die Minimierung von Kreuzungen zwischen den Charakterlinien. Diese Diplomarbeit behandelt vertikale Sprünge entlang der Charakterlinien, welche als Wiggles bezeichnet werden. Ziel ist es die Qualität und Lesbarkeit von Storyline Visualizations zu verbessert indem Wiggles minimiert werden. Um diese Wiggles zu reduzieren werden Optimierungs-Metriken definiert, um die Qualität einer Storyline Visualization in Zahlen ausdrücken zu können und um Zielfunktionen für Wiggle-Minimierungen zu definieren. Insgesamt haben wir vier solcher Metriken: die Gesamthöhe aller Wiggles, die Anzahl aller Wiggles, die Höhe des höchsten Wiggles und die Anzahl aller paarweisen Kreuzungen. Mit einer kombinatorischen Sichtweise beschreibt diese Arbeit zwei Lösungsmodelle (ILP, Max-SAT) um die vertikale Anordnung der Charakterlinien für jeden Zeitpunkt zu variieren um die beste Lösung mit den kleinsten möglichen Werten für unsere Metriken zu produzieren. Basierend auf unseren beiden Lösungsmodellen wurden Experimente durchgeführt um unterschiedliche Variationen von Zielfunktionen auszutesten. Die Evaluierung dieser Experimente zeigt deutlich, dass die Minimierung der Gesamthöhe aller Wiggles die besten Resultate bezüglich unserer Metriken erzielt. Die Minimierung von Wiggles reduziert auch die Anzahl der Kreuzungen innerhalb einer Storyline Visualization. Durch eine kombinierte Optimierung von Wiggles und Kreuzungen kann die Anzahl der Kreuzungen weiter reduziert werden, allerdings meist auf Kosten der anderen Wiggle-Metriken.

Diplomarbeitsposter Gajic Gajo

Gajo Gajic

Masterstudium Software Engineering & Internet Computing
Abstract:

The Firefighter Problem (FFP) is a deterministic discrete-time model which simulates the spread of a fire or other problem over an undirected graph. It offers a possibility of developing fire containment strategies by deploying a given number of firefighters on strategic points at each time step with the goal of saving as many nodes from fire as possible. In several studies it has been shown that the FFP is NP-hard for specific types of graphs and the number of firefighters involved. With the goal of finding strategies for a more efficient solution to the FFP, a parallel hybrid metaheuristic is implemented on a GPU using CUDA. The hybrid metaheuristic comprises a parallel Ant Colony Optimization algorithm (ACO), which applies a dynamic candidate list and heuristic that take into account the topology of the graph at each time step, thereby reducing the search space. Furthermore, a parallel version of Variable Neighborhood Search (VNS) is introduced and combined with the ACO implementation. In addition, sequential versions of the ACO, the VNS and the hybrid metaheuristic are developed in order to test the efficiency of the parallel implementations. Finally, the developed algorithms are compared with previous works. For the performance evaluation tests we used the same experimental setup as previous works, which contains a benchmark instance set of 120 graphs with different density and size. Test results show that the proposed sequential ACO achieved an average improvement of 10.47 % compared to the original ACO implementation. Another finding is that the combination of ACO and VNS provides an improvement in the solution quality compared to each algorithm on their own on both platforms. The test results of the parallelized algorithms revealed that each parallel implementation outperforms its sequential counterpart while improving the solution quality. The achieved speed-ups are up to 141x (ACO), 106x (VNS) and 114x (hybrid algorithm).

Diplomarbeitsposter Hackl Thomas

Thomas Hackl

Masterstudium Software Engineering & Internet Computing
Abstract:

The Particle Therapy Patient Scheduling Problem (PTPSP) arises in modern cancer treatment facilities that provide particle therapy and consists of scheduling a set of therapies within a planning horizon of several months. A particularity of PTPSP compared to classical radiotherapy scheduling is that therapies need not only be assigned to days but also scheduled within each day because all therapies share the same particle beam. In an earlier work Maschler et al. introduced this novel problem setting and provided first algorithms including an Iterated Greedy (IG) metaheuristic. In this work we build upon this IG and exchange two main components: the construction phase and the local search algorithm. The resulting metaheuristic enhances the existing approach and yields better results for all of the considered benchmark instances. Moreover, we present a 2-Phase Approach that uses a Variable Neighbourhood Descent (VND) to first optimize the day assignments and then the time assignments. Finally, we improve our IG metaheuristic by replacing the local search algorithm with a VND. This method provides even better results on all benchmark instances. In order to reduce the computational effort, we define various filters that limit the neighbourhoods to the most promising solutions, thus, preventing expensive evaluations of solutions which are most likely worse. The actual evaluation is done incrementally by re-computing only those terms of the objective function whose values have changed. A difficulty with this approach is that all daily treatments of a therapy have to start approximately at the same time. To that end, the objective function depends on variables representing the so-called nominal starting time of each therapy and week. The computation of these variables, however, is quite costly. Therefore, the VNDs first perform a local search with fixed nominal starting times, and compute the nominal starting times afterwards using linear programming.

Diplomarbeitsposter Hinteregger Abraham

Abraham Hinteregger

Masterstudium Computational Intelligence
Abstract:

Bitcoin wurde anfänglich als sichere Methode für anonyme Transfers wahrgenommen. Im Laufe der Zeit wurden jedoch Methoden entwickelt, die durch Analyse der öffentlichen Transaktionshistorie eine wesentliche Einschränkung der Privatsphäre der Marktteilnehmer ermöglichten. Als Reaktion darauf kam es zur Entwicklung von alternativen Kryptowährungen mit einem Fokus auf Privatsphäre und Sicherheit, von denen Monero der Vertreter mit der höchsten Marktkapitalisierung ist. Anfang 2017 haben mehrere Forscher in zwei unabhängigen Publikationen die Unverfolgbarkeit von Monero Transaktionen empirisch analysiert und Methoden und Heuristiken vorgestellt, mit denen für einen Großteil der Geldflüsse bis zu diesem Zeitpunkt die Quelle eindeutig bestimmt werden konnte. Infolgedessen wurden mehrere Änderungen vorgenommen um die Unverfolgbarkeit von Transaktionen weiterhin zu gewährleisten. Der Beitrag dieser Arbeit besteht aus zwei Punkten: Wir entwickeln eine neue Methode für die Bestimmung der Quelle von Geldflüssen, die Informationen von der Transaktionshistorie von Forks der ursprünglichen Währung verwendet. Wir verwenden diese Methode um den Einfluss auf die Unverfolgbarkeit von zwei Forks im Frühling 2018 (MoneroV & Monero Original) zu quantifizieren. Weiters untersuchen wir, ob die Maßnahmen gegen bisher veröffentlichten Heuristiken ihr Ziel erreichen. Die Verwendung unserer Methode ermöglicht es uns, für 73 321 Transaktionsinputs (statt für 25 256) im Zeitraum von April bis August 2018 die Quelle zu identifizieren. Wir vergleichen die Ergebnisse dieser Analyse mit den Resultaten der Heuristiken um deren Genauigkeit abzuschätzen. Wir finden, dass die Gegenmaßnahmen ihr Ziel erreicht haben und die Treffsicherheit der Heuristiken maßgeblich beeinträchtigt wurde. Da Unverfolgbarkeit für fast alle Transaktionen zum derzeitigen Standpunkt gegeben ist, bleiben Verfahren mit denen andere Kryptowährungen erfolgreich analysiert werden konnten für Monero nach wie vor nicht anwendbar.

Diplomarbeitsposter Löffler Raphael

Raphael Löffler

Masterstudium Software Engineering & Internet Computing
Abstract:

This thesis describes an interactive user-centered and web-based optimization framework for the point feature label placement problem. It tries to fill the gap between the time consuming and expensive manual map creation and the less qualitative but much faster and cheaper automatic label placement to eradicate the disadvantages of both approaches. Given a set of point features we want to place for each feature a label on the map such that the labels do not overlap. Since a high-quality map has to furthermore satisfy cartographic guidelines and preferences, our developed framework allows an expert user to add his or her domain knowledge in an interactive way by improving and updating an initial labeling step by step. We therefore collected and formally defined user constraints through interviews with a cartographic expert. In this work we consider axis-aligned rectangular labels with predetermined fixed label candidate positions in a fixed four position model on static geographical maps. We describe the point feature label placement problem with a conflict graph and use it as the basis for our algorithms. We present and implement in this thesis both existing and new algorithms for the automatic point feature label placement. This includes simple algorithms, exact algorithms and several heuristics for the label number maximization problem as well as the minimum number of conflicts problem. Finally, we investigate and evaluate our framework and its algorithms regarding the performance and the quality of the created labeling solutions on real world data. We hereby also concentrate on identifying well performing algorithm combinations for various kind of data sets as they are used in typical use cases of our framework.

Arbeitsbereich Research Division of Database and AI

Diplomarbeitsposter Bellositz Patrick

Patrick Bellositz

Masterstudium Computational Intelligence
Abstract:

Formale Argumentationstheorie ist ein Forschungsfeld innerhalb der Künstlichen Intelligenz. Argumentation Frameworks (AFs) wurden erstmals 1995 von Dung beschrieben. Sie stellen einen Ansatz zur Betrachtung inkonsistenten Wissens dar, welches in Form von Argumenten und Angriffen zwischen ihnen beschrieben wird. Argumente können anhand von Semantiken zu sogenannten Extensionen, zusammengefasst werden, solange diese nicht widersprüchlich sind. AFs wurden seitdem um zahlreiche weitere Semantiken erweitert. Beim Einsatz von AFs können diese sich verändern. Abstrakte Argumentation ist daher ein dynamischer Vorgang. Solche Veränderungen können mithilfe von Äquivalenzrelationen untersucht werden. Es kann also festgestellt werden ob eine Änderung Extensionen beeinflusst. C-relativised equivalence ist eine Äquivalenzrelation, die für die ursprünglich von Dung vorgestellten Semantiken definiert ist. Diese C-restricted semantics sind hierbei verändert, sodass nur eine beschränkte Menge an Argumenten untersucht wird, die als core Argumente bezeichnet werden. wodurch ein lokal beschränktes Ersetzen von Teil-AFs möglich ist. In dieser Arbeit wird C-relativised equivalence zur lokalen Ersetzung von Teil-AFs durch einfachere, äquivalente Alternativen verwendet. Diese Ersetzung soll zur Reduktion von Rechenaufwand beim Berechnen von Extensionen führen. Dafür werden C-relativised equivalency patterns eingeführt, welche die Äquivalenz eines AFs vor und nach einer Teilersetzung garantieren. Zur Findung solcher patterns, wird in dieser Arbeit ein System zur Beschreibung von C-restricted semantics und C-relativised equivalence präsentiert. Dieses System stellt für eine beliebige Anzahl von AFs fest, ob diese äquivalent sind. Weiters wird eine große Anzahl von Äquivalenzberechnungen analysiert um patterns zu finden. Diese werden dann formal bewiesen. Darauf folgt eine Diskussion der Auswirkungen einer Anwendung von patterns auf generierte AFs, welche in Experimenten untersucht werden.

Diplomarbeitsposter Heinzl Michael

Michael Heinzl

Masterstudium Business Informatics
Abstract:

Traditional database management systems (DBMSs) face new challenges concerning flexibility and scalability. Today's cloud-computing environments offer incredible resources and traditional DBMSs struggle utilizing these resources. NoSQL and NewSQL systems offer refreshing new approaches to current challenges in this domain. The enormous number of currently available systems present a major challenge to developers choosing a fitting data store. NoSQL and NewSQL data stores provide powerful new features and approaches. This thesis analyzes the methods and algorithms used by NoSQL and NewSQL systems. Selected data stores are compared in multiple dimensions to show differences in their approaches and technologies. The resulting comparison provides guidance for application developers searching for a fitting data store.

Diplomarbeitsposter Scharinger Alexander

Alexander Scharinger

Masterstudium Computational Intelligence
Abstract:

In dieser Arbeit wenden wir parametrisierte algorithmische Methoden auf das Maximum-Weight-Matching-Problem an. Ein Maximum-Weight-Matching auf einem gewichteten Graphen ist eine Menge von Kanten von maximalem Gewicht, sodass keine zwei Kanten einen gemeinsamen Knoten als Ende haben. Das Berechnungsproblem ein Maximum-Weight-Matching in einem gegebenen gewichteten Graphen zu finden ist ein weit verbreitetes Problem und es existiert ein wohlbekannter Algorithmus, welcher eine Laufzeit in O(n (m + n log n)) aufweist, wobei n die Anzahl der Knoten und m die Anzahl der Kanten im Graphen bezeichnen. In dieser These stellen wir neue parametrisierte Algorithmen für das Maximum-Weight-Matching-Problem vor, welche exakte Lösungen erzeugen und in Bezug auf die ausgewählten Parameter schneller sind als jeder bekannte exakte nicht-parametrisierte Algorithmus. Wir präsentieren einen parametrisierten Algorithmus für das Maximum-Weight-Matching-Problem, welcher eine Laufzeit in O(k (m + n log n)) besitzt, wobei die Zahl k die minimale Größe eines Feedback Vertex Set im gegebenen Graphen ist. Falls k in O(n^(1 - c)), für eine Konstante c > 0, enthalten ist, dann läuft dieser Algorithmus asymptotisch schneller als jeder bekannte exakte nicht-parametrisierte Algorithmus. Wenn der Graph diese Eigenschaft nicht besitzt, dann läuft der parametrisierte Algorithmus in der gleichen asymptotischen Zeit wie der schnellste bekannte nicht-parametrisierte Algorithmus. Weiters präsentieren wir einen Kernelization-Algorithmus, welcher einen Problem-Kernel der Größe O(k^2) erzeugt und eine Laufzeit von O(k m) aufweist, wobei die Zahl k nun die minimale Größe eines Vertex Cover im gegebenen Graphen bezeichnet. Dieser Kernelization-Algorithmus kann mit dem oben erwähnten parametrisierten Algorithmus kombiniert werden, um einen Algorithmus zu erhalten, welcher eine Laufzeit von O(k m + k^3 log k) aufweist, wobei hier die Zahl k die minimale Größe eines Vertex Cover im gegebenen Graphen ist.

Diplomarbeitsposter Schidler André

André Schidler

Masterstudium Software Engineering & Internet Computing
Abstract:

Das graphentheoretische Steinerbaumproblem ist ein sehr bekanntes NP-hartes Problem. Instanzen des Problems bestehen aus einem Graphen G = (V, E), den Kosten für Kanten c und einer Menge aus Terminalen R. Die Lösung zu einer Instanz ist ein zusammenhängender Teilgraph minimalen Gewichts der alle Terminale enthält. Es ist lange bekannt, dass Instanzen effizient gelöst werden können, wenn die Anzahl der Terminale gering ist. PACE ist ein alljährlicher Wettbewerb. Jedes Jahr wird ein anderes NP-hartes Problem verwendet, von dem bekannt ist, dass es effizient lösbar ist, wenn wir einen Parameter beschränken können. Die TeilnehmerInnen geben für diesen Wettbewerb Programme ab, die Instanzen des Problems lösen können (Lösungsprogramme). Diese werden danach gereiht, wie viele Instanzen sie innherhalb einer gewissen Zeit- und Arbeitsspeichergrenze lösen können. Dieses Jahr war das ausgeschriebene Problem das graphentheoretische Steinerbaumproblem. Wir haben ein Lösungsprogramm implementiert und damit den vierten Platz erzielt. In dieser Arbeit präsentieren wir den formaltheoretischen Hintergrund sowie Implementierungsdetails unseres Programms. Der Großteil der Implementierung folgt direkt aus der Theorie. Daher beschränken wir uns auf spezifische Implementierungsdetails dieses Programms. Der Quellcode aller teilnehmenden Programme muss nach der Abgabefrist veröffentlicht werden. Dies hat uns erlaubt die drei besten Programme näher zu analysieren. Wir präsentieren hier die wesentlichen Unterschiede zwischen diesen Programmen und unserem. Wir haben außerdem versucht, das durch die Analysen gesammelte Wissen, in unser Programm einzubauen. Wie diese Adaptierungen unser Programm beeinflusst haben, ist ein weiteres Thema dieser Arbeit. Wir haben unser Programm außerdem mit öffentlichen und bekannten Instanzen getestet. Wir präsentieren die Ergebnisse und vergleichen diese mit den von anderen aktuellen Lösungsprogrammen erzielten Resultaten.

Diplomarbeitsposter Zhukova Olga

Olga Zhukova

Masterstudium Computational Intelligence
Abstract:

Examination timetabling has been studied for years, and NP-completeness of some formulations was proven. Therefore, exact methods can not always solve large instances in a reasonable time. Although a lot of different heuristics have been developed, there is no known algorithm that dominates on all problem instances. Moreover, according to the No Free Lunch Theorem, this situation is, in fact, impossible. Therefore, in order to achieve better performance, we can choose the best performing heuristic for a particular instance using a set of predefined instance characteristics. This task is commonly known as the Algorithm Selection Problem (AS). Additionally, it might be practically useful to be able to predict the quality of the solution obtained by a certain solver on a given instance. This problem has been named the Algorithm Performance Prediction Problem (APP). In this thesis, we present the solution for the Algorithm Selection and the Algorithm Performance Prediction Problems for the ITC2007 formulation of the ETP using Machine Learning techniques. For that, we introduce a set of characteristics which consists of 196 features. Also, we collect 3 State-Of-The-Art heuristics for the ETP and run them on the dataset of 2243 real-world and artificially generated instances. We find none of the algorithms outperforms the others for all instances. Subsequently, we use 6 classification algorithms and 9 regression techniques for solving the AS and the APP problems respectively. Additionally, we investigate the influence of the parameter settings and preprocessing techniques on estimator performance. Moreover, we inspect the importance of the particular feature groups for the AS and APP problems. As a result, we succeed in the building of rather accurate performance prediction models for the APP and construction of the AS solver that outperforms all of their underlying heuristics individually.

Diplomarbeitsposter Zisser Markus

Markus Zisser

Masterstudium Software Engineering & Internet Computing
Abstract:

There are many computational hard problems in computer science and a variety of these problems can be expressed via Boolean formulas. For some of these problems, the number of satisfying assignments can be directly linked to the solution. The task to compute the number of solutions of a Boolean formula is called the \cSAT problem. Algorithms in artificial intelligence and machine learning tasks have profited from the massive parallelism provided by Graphic Processing Units (GPUs). However many current \cSAT solvers rely on techniques from Satisfiability solving or approximate solving based on sampling of the search space. A central method for solving the Satisfiability problem is Conflict Driven Clause Learning (CDCL), but CDCL contains parts which are hard to or not parallelizable at all. Dynamic Programming (DP) on tree decompositions on the other hand parallelizes well as we can execute many similar operations which are independent from another. For DP we need tree decompositions with a sufficiently small width. In the course of this thesis we developed \gpusat, a \cSAT solver which is based on dynamic programming on tree decompositions with OpenCL, an open standard that can be used to parallelize tasks on the GPU. We use tree decompositions of the primal, incidence and dual graph as base for our dynamic programming algorithms. \gpusat is also able to solve Weighted Model Counting (\WMC). To compare \gpusat with other solvers we collected \cSAT and \WMC instances from different sources, and generated tree decompositions of the primal, incidence and dual graph for each of these instances. Then we compared the runtime of \gpusat with other state of the art \cSAT and \WMC solvers on our instances. Our experiments have shown that \gpusat is competitive with other solvers for a \tw of up to 30. We were also able to solve some instances with a \tw of up to 45. About half of the instances had a width of 30 or below.

Arbeitsbereich Research Division of Knowledge Based Systems

Diplomarbeitsposter Böhm Katinka

Katinka Böhm

Masterstudium Computational Intelligence
Abstract:

With the advancements in artifical intelligence and semantic web technologies, structures to organize and model data, such as semantic networks, knowledge graphs, and ontologies, have become widespread. A well-knwon example is the Google Knowledge Graph, but there are many other projects, such as ConceptNet, Freebase, YAGO, OpenCyc and DBPedia, that are openly available, and, as the result of knowledge extraction and data mining techniques, contain vast amounts of organized common-sense and general world knowledge on different topics. However, the quality of the knowledge they contain varies, and irrelevant and possibly flawed contents coexist with meaningful knowledge, making them harder to grasp. They also lack a formal logic-based semantics, as enjoyed by ontologies, and therefore they cannot be readily exploited for tasks that require correct and non-trivial reasoning. We claim that the vast work invested into knowledge graphs can be leveraged to build, small- to middle-sized, topic-specific ontologies of every-day domains. We describe a simple, yet effective method that extracts thematically relevant knowledge from a knowledge-graph and, in a stepwise procedure, provides suggestions that help to interactively build a Description Logic (DL) topic ontology with moderate efforts. We present an implementation of our method in the semi-automatic CN2TopicOnto tool that systematically queries ConceptNet and suggests suitable concept names to the user, who can use them to create axioms in a simple command-line interface. The supported axioms range from plain inclusions between classes, to complex ontological axioms in expressive DLs. With our proof-of-concept prototype it is possible to build ontologies on different everyday topics in reasonable time. To demonstrate its usefulness we describe some illustrative ontologies on the topics animals, fruits, vehicles and natural disasters that were created with CN2TopicOnto.

Arbeitsbereich Research Division of Formal Methods in Systems Engineering

Diplomarbeitsposter Geiger Sebastian

Sebastian Geiger

Masterstudium Software Engineering & Internet Computing
Abstract:

In dieser Arbeit analysieren wir wie Studenten mit Hilfe von Micro-Tests und dynamischen Modellen direktes Feedback über ihren Lernfortschritt erhalten können. Zu Beginn geben wir eine Übersicht über unterschiedliche Terminologien und definieren häufig genutzte Begriffe, die für eine Diskussion heutiger E-Learning Systeme notwendig sind. Wir vergleichen eine Reihe von bekannten E-Learning Systemen wie Khan Academy, Coursera, edX, Udacity und Moodle und untersuchen welche Methoden diese Systeme implementieren um direktes Feedback an Studenten zu liefern. Wir kommen zu dem Schluß, dass ein eigenes E-Learning System die beste Wahl zur Evaluierung von direkten Feedback mittels Micro-Tests und dynamischen Modellen darstellt. Im Hauptteil der Arbeit beschreiben wir die Anforderungen eines solchen E-Learning Systems und stellen unsere eigene Implementierung vor. Unser Interactive Lecture Notes genanntes System implementiert ein interaktives Vorlesungsskriptum mit dynamischen Modellen und Micro-Tests und ermöglicht es Studenten direktes Feedback während des Lernprozesses zu erhalten. Wir haben unsere Implementierung in der Praxis im Kontext einer Lehrveranstaltung in drei Semestern mit Umfragen und Benutzerstatistiken evaluiert. Die Ergebnisse liefern eine erste Bestätigung für unsere Konzepte und zeigen, dass Micro-Tests und dynamische Modelle effektive Mechanismen für direktes Feedback sind.

Arbeitsbereich Research Division of Theory and Logic

Diplomarbeitsposter Dobler Lucas

Lucas Dobler

Masterstudium Medizinische Informatik
Abstract:

Laut WHO sind "regelmäßige Bewegung" und "gesunde Ernährung" zwei der wichtigsten Faktoren zur Prävention zahlreicher Erkrankungen. Serious Games können bei der Förderung eines gesunden Lebensstils helfen, indem sie diese präventiven Maßnahmen unterstützen. Dazu wurde im Rahmen dieser Arbeit ein Prototyp eines Serious Games entwickelt und implementiert. Dieser soll das Bewusstsein des Spielers zu gesunder Ernährung stärken und gleichzeitig die Motivation zu körperlicher Aktivität steigern. Basierend auf den Ergebnissen einer quantitativen Befragung wurden Anforderungen für das Serious Game erhoben und im Anschluss selektiert und definiert. Die Befragung hat ergeben, dass die wichtigsten Key Elements Spiel-Spaß und ein forderndes Spiel sind. Das Spiel soll zudem Wissen zu Ernährung vermitteln, dieses aber nicht explizit überprüfen. Die Implementierung des plattformunabhängigen Prototyps erfolgte nach den Prinzipien des user-centered designs. Nach mehreren Iterationen der Entwicklung entstand ein Serious Game, bei dem der Spieler Nahrungsmittel einsammeln kann und dabei auf seinen Tagesbedarf an bestimmten Nährstoffen achten muss. Durch körperliche Aktivitäten bekommt der Spieler bei dieser Aufgabe unterschiedliche Boni. Die anschließende Evaluierung des implementierten Prototyps lässt auf eine Verbesserung der Testpersonen in beiden Themenbereichen schließen. Die Personengruppe, bei der der Prototyp die besten Resultate erzielte, bestand vorwiegend aus eher unsportlichen Personen, die ihre Fitness verbessern und auf ihre Ernährung achten wollten. Bei dieser Personengruppe konnte der Prototyp sowohl die Motivation zu sportlichen Aktivitäten steigern als auch das Wissen zu Ernährung erweitern.

Diplomarbeitsposter Gepp Daniel

Daniel Gepp

Masterstudium Software Engineering & Internet Computing
Abstract:

Diese Arbeit zielt darauf ab einen Prototypen eines generisches Framework für Entscheidungsunterstützende Systeme im medizinischen Bereich zu implementieren. Das Framework erstellt ein Backend und ein einfaches Frontend, welches die Eingabe von Informationen von Patienten, bzw. Krankheiten ermöglicht. Da das Framework von Personen ohne professionellem Hintergrund in Informatik verwendet werden soll, wird eine abstrakte Methode spezifiziert um Merkmale und Krankheiten abzubilden. Für das Ranking von Krankheiten werden zwei Ansätze präsentiert und implementiert: ein probabilistischer Ansatz und ein Ansatz, welcher lose auf der Idee von TFIDF-Ähnlichkeit basiert. Ein System, welches mit dem vorgestellten Framework erstellt wird, wird mit dem bestehenden, Entscheidungsunterstützende System Dermtrainer verglichen. Das resultierende Framework basiert auf einem yeoman Codegenerator. Dieser Generator erstellt ein Spring Boot backend und ein Vue.js frontend. Für die Repräsentation der Merkmale entschieden wir uns gegen eine benutzerdefinierte domain specific language (DSL) zugunsten einer einfachen JSON-Struktur mit dazugehörigen JSON Schemas für die Validierung von Nutzereingaben. Krankheiten werden mit Hilfe von Spreadsheets abgebildet und dem System übermittelt. Um die Korrektheit des Frameworks zu zeigen, konstruieren wir ein System, welches auf der Domäne von Dermtrainer basiert. Wir vergleichen die gestellten Diagnosen beider Systeme mit Patienten- und Krankheitsdaten, welche im originalen Dermtrainer-Projekt erstellt wurden. Die Ergebnisse zeigen, dass ein System, welches mit dem vorgestellten Frameworks erstellt wurde, vergleichbare Gesamtqualität der Diagnosen, wie Dermtrainer erreicht. Obwohl das vorgestellte Framework von einem Laien im Bereich der Informatik alleine nicht realistisch bedienbar ist, können wir einen Anwendungsfall präsentieren, in welchem die Verwendung des Frameworks durch einen Laien realistisch ist.

Diplomarbeitsposter Ivanov Stoiko

Stoiko Ivanov

Masterstudium Computational Intelligence
Abstract:

Logische Auswertungsspiele stellen eine alternative Beschreibung von Wahrheit zu Tarskisemantik dar und führen zu einigen interessanten Erweiterungen klassischer Logik, wie beispielsweise Independence-Friendly Logic von Hintikka. Auswertungsspiele nach Hintikka sind zu einem Standardwerkzeug zur Analyse neuer Logiken geworden. Mathematische Fuzzy Logik ist ein System, um vage Aussagen zu modellieren. Ihr Ursprung liegt in den Werken von Lukasiewicz und Gödel. 1965 wurde der Begriff Fuzzy Logic von Zadeh geprägt. Diese zwei Ansätze wurden durch Hajek zusammengeführt und sind seither ein lebendiges Forschungsgebiet. Es werden Beschreibungen von Auswertungsspielen, sowohl für klassische als auch für prominente Fuzzy Logiken, mit Definition aus formaler Spieltheorie verglichen. Es zeigen sich Diskrepanzen zwischen den Auswertungsspielen und den formalen Definitionen von Spielen in extensiver Form vollständiger Information. Durch die Darstellung der Regel für Negation als regulären Zug einEr SpielerIn werden die Definitionen unifiziert und die Äquivalenz zur Standardsemantik bewiesen. Die Analyse spieltheoretischer Konzepte mit Hilfe formaler Logik, insbesondere Modallogik, stellt ein verhältnismäßig neues Gebiet dar. Sie hat sehr ausdrucksstarke Formalismen, wie beispielsweise Game Logic hervorgebracht, mit welcher die Effektivität von SpielerInnen untersucht werden kann. Die hier vorgenommene Untersuchung der Unschärfen führt zu einer Weiterführung der Formalisierung der Spiele: Eine Axiomatisierung der Spielbäume mit Modallogik wird erstellt und ausführliche Äquivalenzbeweise werden erarbeitet. Eine gründliche Analyse von Prädikatenmodallogik und modaler Korrespondenztheorie wird hierfür vorgenommen. Die vorliegende Axiomatisierung stellt eine mögliche Grundlage dar, um die Klasse der logischen Auswertungsspiele in ausdrucksstärkeren Formalismen zu untersuchen.

Diplomarbeitsposter Oliveira da Costa Ana Alexandra

Ana Alexandra Oliveira da Costa

Masterstudium DDP Computational Logic (Erasmus-Mundus)
Abstract:

Epistemic modal logic is a formal approach to study reasoning about knowledge It is common practice to describe epistemic scenarios to introduce and explore epistemic notions. Among those, the most interesting are puzzles and paradoxes because they challenge our intuitions and they can be used to compare formalisms. In this thesis we use some well-known puzzles and paradoxes to review the foundations of epistemic modal logic. In particular, motivated by the analysis of scenarios in which ignorance is repeatably announced, we review recent developments on a modal logic approach to capture the notion of ignorance. Overall, this thesis provides an unified and self-contained introduction to propositional epistemic logic with a focus on modalities of knowing that, group knowledge and ignorance. We complement the standard technical considerations with plenty of examples and insights from related work in epistemology. In addition, we use the logic of ignorance to prove that the cardinality of the epistemic state space is the same as the cardinality of the continuum. This result implies, for instance, that it is not possible for an agent to name all epistemic states. This limitation is usually not included in the epistemic logic literature. In addition, the result implies that some epistemic states cannot be adequately represented by finite Kripke models.

Diplomarbeitsposter Pavlovic Sanja

Sanja Pavlovic

Masterstudium Computational Intelligence
Abstract:

Modal logics extend classical logic with modal operators that enable us to finely qualify the truth of a proposition. Due to their expressiveness and flexibility, they are used in many areas of computer science. Logical calculi are useful tools for investigating computational and meta-logical properties of logics; moreover, when analytic, they are the base to develop automated reasoning tools. In recent years, a plethora of new formalisms has been introduced, yielding proof systems for many logics. The formalisms may vary in their expressive powers, could be more suitable for certain applications, or may reveal different properties of the logic at hand. With a large number of formalisms comes the need to investigate the relationships between them. In particular, it is important to relate their expressive powers, which can be done through embeddings – procedures that given a calculus in one formalism produce a calculus for the same logic in another formalism. Embeddings also allow the transfer some proof-theoretic results thus avoiding duplicate work. We focus on modal logics characterized by frames with simple properties, i.e., properties that can be described by first-order formulae of a restricted form. The starting point of our investigation are analytic hypersequent calculi for these logics, a generalization of sequent calculi operating on finite multisets of sequents. Extending the methods of Ciabattoni and Genco, we provide an embedding between these calculi and sequent calculi extended by systems of rules – sets of sequent rules sharing schematic variables that can only be applied in a predetermined order. We restrict the vertical non-locality of systems of rules to at most two unlabelled sequent rules (2-systems). The embedding yields new analytic calculi for the considered logics which can be used to formulate new natural deduction systems. Also 2-system derivations are made local.

Diplomarbeitsposter Rietdijk Marielle

Marielle Rietdijk

Masterstudium DDP Computational Logic (Erasmus-Mundus)
Abstract:

Das Thema dieser Dissertation basiert auf der starken Verbindung zwischen mathematischen Beweisen und Programmen, in dem Sinne, dass Beweise einen Rechengehalt haben, zusätzlich zur bloßen Vermittlung der Wahrheit ihrer Schlussfolgerung. Insbesondere beschreiben wir eine Methode zum Extrahieren von Programmen aus gegebenen klassischen arithmetischen Beweisen erster Ordnung von $\Pi_2$-Sätzen. Dies geschieht mit Hilfe einer Beweisübersetzung, die klassische Beweise in intuitionistische Beweise umwandelt, und einer Realisierbarkeitsinterpretation, die es erlaubt, intuitionistische Zeugen für Sätze aus ihren Beweisen in Form von Programmen zu extrahieren. Wir werden Kolmogorovs negative Übersetzung und Friedman's A-Übersetzung verwenden, um die Beweise zu transformieren und Realisatoren nach Kreisels modifizierter Realisierbarkeit zu extrahieren. Wir interessieren uns speziell für diese intuitionistischen Zeugen für Theoreme, weil sie Programme in Bezug auf eine Spezifikation sind, die in der Schlussfolgerung des Beweises ausgedrückt wird. Eine logische Formel $A$ mit den freien Variablen $x_1,\dots,x_r$ und $y$ kann als Spezifikation verstanden werden, wobei ein Programm, das diese Spezifikation erfüllt, eine Funktion $f$ berechnet, so dass für alle möglichen Eingabewerte $n_1,\dots,n_r$, der Satz $A[n_1 / x_1] \dots [n_r / x_r] [f (n_1, \dots, n_r) / y]$ wahr ist. Die in dieser Arbeit beschriebene Methode extrahiert Programme, die solchen Spezifikationen $A$ entsprechen, aus Beweisen, die die Existenz einer Funktion für $A$ implizieren, also aus Beweisen von Sätzen $\forall x_1 \dots \forall x_r \exists y A$. Insbesondere bietet uns die Realisierbarkeitsinterpretation eine Möglichkeit, Programme aus konstruktiven Beweisen zu extrahieren, und die Beweistransformation ermöglicht uns, diese Extraktion auch auf klassische Beweise auszuweiten.

Diplomarbeitsposter Romar Alexander

Alexander Romar

Masterstudium Software Engineering & Internet Computing
Abstract:

Current healthcare information technology is undergoing a evolutionary change in its methods to store, process, access or exchange health information. Previously the absence of extensive standards adoption has been recognized as a substantial barrier to overcome the lack of interoperable healthcare information systems. These standards lay a common foundation for understanding and interpreting information that is subject to transmission. However it is only advisable to share information between systems if the data are properly protected at every step along the way. For sensitive knowledge i.e. individual-related data secured exchange of information is a necessity. Fast Healthcare Interoperability Resources (FHIR) is the current standard for exchanging medical information with the aim to boost interoperability. The main objective of this thesis is the application of FHIR in the course of building an electronic health record in the veterinary domain and the evaluation of the former regarding security mechanisms and prerequisites that are necessary to achieve security and privacy. Based on comprehensive literature research, review of legal regulations and examination of different use cases for involved stakeholders, a set of requirements is defined that is proposed as baseline for a secure animal health record. In the course of this thesis a prototype of an animal health record based on FHIR is implemented and, together with the current state-of-the-art standard, evaluated against the derived requirements. The realized prototype consists of the following entities: the resource server for storing medical and security-related information, an authorization server that is trusted by the former and a modern web application to govern access to sensitive information on a fine-grained level. The FHIR data model already outlines attribute in its clinical data templates to enable fine-grained access control and exclusion as well as sharing of particular information.

Diplomarbeitsposter Schlossarek Stefan

Stefan Schlossarek

Masterstudium Medizinische Informatik
Abstract:

Die Digitalisierung der Gesellschaft und die vollständige Vernetzung aller Lebensbereiche durch intelligente Systeme tragen dazu bei, dass es vielen Menschen schwerer fällt, mit diesen Entwicklungen Schritt zu halten und den Überblick über die Anforderungen des eigenen Gesundheitsmanagements zu bewahren. Durch einfache, zielgerichtet eingesetzte Hilfsmittel kann für Betroffene in allen Altersklassen eine maßgebliche Erleichterung im gesundheitsbezogenen Tagesablauf erzielt werden. Für Smartphones gibt es bereits Gesundheits-Apps in den Anwendungsbereichen Medikamenteneinnahme, Flüssigkeitshaushalt, Blutdruck, Blutzuckermessung, Motivation zu mehr Bewegung und vielen mehr. Diese Applikationen zielen jedoch oft nur auf eine junge, Technik-affine Zielgruppe ab oder platzieren sich bewusst als Lifestyle-Produkte. Im gleichen Umfeld hat sich auch eine Reihe von Herstellern von Fitness-Armbändern etabliert. Ziel dieser Arbeit ist die Erstellung und Evaluierung einer mobilen Android-Applikation zur Unterstützung des Tagesablaufes im Kontext der Gesundheitsförderung. Die App soll an ein Fitness-Armband mit Erinnerungsfunktion gekoppelt werden, sodass ein unauffälliger Vibrationsalarm erfolgen kann. Des Weiteren wird untersucht, ob durch den gezielten Einsatz von Gamification-Elementen in der App positive Effekte beim Trinkverhalten der AnwenderInnen erzielt werden können. In mehreren Iterationen wird auf Basis einer ausführlichen Literaturrecherche, einer Analyse bestehender Lösungen und Interviews mit AnwenderInnen eine voll funktionsfähige Applikation entwickelt. In enger Abstimmung mit betroffenen Personen entsteht zuerst ein Papier-Prototyp, welcher in mehreren Entwicklungszyklen Schritt für Schritt verfeinert und digital umgesetzt wird. Den Abschluss bildet eine einwöchige Testphase des finalen Prototypen, in der die Überlegungen im realen Umfeld auf ihre Praxistauglichkeit überprüft werden.

Arbeitsbereich Research Division of Security and Privacy

Diplomarbeitsposter Schneider Jakob Felix

Jakob Felix Schneider

Masterstudium Software Engineering & Internet Computing
Abstract:

In the last years, blockchain technology has enabled many traditional fields to use it for new, unique use cases. However, during this period of rapid progress the spotlight remained on fast product development, which has led to many security issues throughout the last years resulting in hundreds of millions of USD stolen or lost. Nearly all current public blockchains offer no semantics or formal method of verifying smart contract code. This paper presents a novel semantics for smart contract interactions and a state-of-the-art implementation of a smart-contract-based investment fund for the Ethereum blockchain. The semantics has a strong focus on connecting a formal semantics for smart contracts to the actual business use case of an investment fund. Specifically, the semantics introduced provides a novel approach by targeting smart contract interactions rather than single smart contract executions. The blockchain is represented by a global state on which complex transaction can be modelled using a big-step semantics which is based on a high-level abstraction of the Ethereum blockchain. The fully-fledged investment fund ERCFund implemented in the course of this thesis makes it possible to invest in an actively managed portfolio of ERC20-Tokens and Ether by introducing an on-demand minted and burned token as the medium for shares in the fund. Moreover, the software supports many advanced features, such as cold-wallet support and multi-signature protection with off-chain signing. We show that the novel semantics introduced is applicable in a real business setting by adapting and proving an integral security feature of our investment fund.

Institut für Institute of Visual Computing and Human-Centered TechnologyE193

Arbeitsbereich Research Division of Computer Vision

Diplomarbeitsposter Angerer Paul

Paul Angerer

Masterstudium Medizinische Informatik
Abstract:

Stress ist Teil des alltäglichen Lebens und beeinflusst die persönliche Gesundheit und das Wohlergehen in ungünstigen emotionalen Zuständen wie innere Unruhe, Furcht oder Zorn. Chronischer und unbehandelter Stress kann zu unheilbaren Krankheiten, Beziehungsverschlechterungen sowie hohen ökonomische Kosten führen. Unter dem Begriff Stress versteht man nach Hans Selye „Die unspezifische Antwort des Körpers auf jede Anforderung nach Veränderung.“. Diese unspezifische Antwort erschwert die Quantifizierung von Stress. Stressforschung entwickelte verschiedene computerunterstützte Techniken zur Erkennung von Stress für Vorteile in vielen Bereichen. Hauptsächlich physiologische Parameter werden verwendet um Stress zu diagnostizieren. Die Sammlung dieser Gesundheitsdaten mit Hilfe von Kontaktsensoren kann unpraktisch, besonders für kontinuierliche Stresserkennung, sein. Kürzliche Studien versuchten dieses Problem basierend auf nicht-invasiven Visual Computing-Techniken zu lösen. Die Erkennung von Stress basierend auf Modellen von Gesichtsausdrücken zeigt vielversprechende Resultate. Diese Diplomarbeit stellt eine Lösung zur Erkennung von Stress basierend auf Gesichtsausdrücken vor. Das entwickelte System ermittelt Stress basierend auf extrahierten Gesichtsmerkmalen von Videos. Stress assozierte Gesichtsmerkmale von Kopf, Augen und Mund sowie die Herzrate von Gesichtsphotoplethysmographie werden verwendet um Stress mittels Machine Learning Algorithmen zu erkennen. Eine Performance Evaluierung der entwickelten Lösung mit Vergleich von existierenden Herangehensweisen in der Literature sowie an annotierten Daten wird durchgeführt. Des Weiteren werden Anforderungen an Gesichtsbilddaten sowie die Einschränkungen der umgesetzten Lösung diskutiert.

Diplomarbeitsposter Lang Thomas

Thomas Lang

Masterstudium Visual Computing
Abstract:

Obwohl moderne Zeitungen digital erstellt werden, sind explizite Informationen über ihr Layout oft nicht vorhanden, wenn sie nicht getrennt abgespeichert und mit veröffentlicht werden. Die vorliegende Arbeit stellt eine einfache Methode vor, um rechteckige Regionsgrenzen vom Typ Text oder Bild, die aus Zeitungen und anderen Dokumenten im PDF-Format extrahiert werden können, zu benutzen, um korrekte und nach Typ (Text, Bild, Diagramm oder Tabelle) klassifizierte Regionsbeschreibungen zu erhalten. Dabei werden die extrahierten Regionsgrenzen, welche sich überlappen oder zu groß sein können, in Kombination mit dem Dokumentenbild benutzt, um sie an die tatsächlichen inhaltlichen Komponenten des Dokuments anzupassen. Für die Klassifizierung der Regionen wird ein auf HOG Features basierender Random Forest Klassifikator an einem manuell annotierten Datensatz trainiert. Bei der Unterscheidung zwischen Text- und Tabellenregionen wird dabei eine error rate von 0.05, zwischen Bild- und Diagrammregionen eine von 0.1 erzielt. Die Segmentierung, welche nur die extrahierten Bild-Regionen betrifft, wird nach flächenmäßiger Überlappung und nach Anzahl der korrekten Ergebnisregionen evaluiert. Mit der ersten Methode wird ein Recall von 0.77 und eine Precision von 0.94 erzielt. Mit der zweiten Methode ergeben sich je nach gewählter Toleranz F1-Werte zwischen 0.37 und 0.45, wobei die Ergebnisse sich verbessern, wenn die Diagrammregionen ausgelassen werden. Die Evaluierung des Gesamtsystems wird nach der selben Methodik durchgeführt. Auch dabei schneiden bei der flächenbasierten Evaluierung Diagrammregionen mit einem F1-Wert von 0.21 deutlich schlechter ab als die Regionen der anderen Klassen. Schließlich wird die Methode noch mit Tesseract hinsichtlich der Segmentierung und Klassifizierung von Text-, Bild- und Tabellenregionen verglichen. Dabei erzielt die vorgestellte Methode hinsichtlich aller Klassen einen höheren F1-Score.

Diplomarbeitsposter Perkonigg Matthias

Matthias Perkonigg

Masterstudium Medizinische Informatik
Abstract:

Multiples Myelom ist eine Krebsart des blutbildenden Plasmas. Eines der Symptome das zur Diagnose und Einstufung von Patienten herangezogen wird sind Knochenläsionen. Diese Läsionen können mit Methoden der medizinischen Bildgebung sichtbar gemacht werden. Eine automatische Detektion der Knochenläsionen führt zu frühzeitiger Erkennung und Behandlung. In dieser Arbeit wird eine Methode beschrieben, die durch multiples Myelom ausgelöste Läsionen in Computed Tomography und Magnetresonanz Bildern erkennt. Die Methode basiert auf Convolutional Neural Networks und das Konzept von Transfer Learning wird verwendet um Wissen, welches von natürlichen Bildern extrahiert wird, dazu zu verwenden um die Erkennung von Läsionen zu vereinfachen. Eine Methode um Ausschnitte mit drei Bildkanälen zu extrahieren wird vorgestellt. Diese Methode legt den Fokus jedes Kanals auf eine andere Information des medinzinischen Bilds. Ein Ansatz um Läsionen in Ganzkörperaufnahmen zu detektieren wird in dieser Arbeit vorgestellt. Die Methoden werden auf 25 Computed Tomography und 25 Magnetresonanz-Volumen, in denen Läsionen annotiert sind, trainiert und evaluiert. Die Arbeit beinhaltet außerdem eine qualitative Analyse der Detektionsmethode. Die Resultate zeigen, dass die Erkennung von Läsionen in neuen Ganzkörperbildern möglich ist. Allerdings zeigt sich, dass die Anzahl an Fehldetektionen hoch ist. Die Gründe dafür werden im Zuge der Arbeit diskutiert. Transfer Learning und auch der Ansatz der Extrahierung von Bildausschnitten in drei Kanäle verbessern die Ergebnisse der Methode.

Diplomarbeitsposter Scheidl Harald

Harald Scheidl

Masterstudium Visual Computing
Abstract:

After digitalization historical documents are available in the form of scanned images. However, having documents in the form of digital text simplifies the work of historians, as it e.g. makes it possible to search for text. Handwritten Text Recognition (HTR) is an automatic way to transcribe documents by a computer. There are two main approaches for HTR, namely Hidden Markov Models (HMMs) and Artificial Neural Networks (ANNs). The proposed HTR system is based on ANNs. Preprocessing methods enhance the input images and therefore simplify the problem for the classifier. The classifier has Convolutional Neural Network (CNN) layers to extract features from the input image and Recurrent Neural Network (RNN) layers to propagate information through the image. The RNN outputs a matrix which contains a probability distribution over the characters at each image position. Decoding this matrix yields the final text and is done by the connectionist temporal classification operation. A final text postprocessing accounts for spelling mistakes in the decoded text. Five publicly accessible datasets are used for evaluation and experiments. The accuracy of the proposed system is compared to the results of other authors who published their results. Preprocessing methods are optionally disabled to analyze their influence. Different decoding algorithms and language models are evaluated. Finally, the text postprocessing method is analyzed. The four main contributions of this thesis are: (1) analysis of different parameters and different architectures of the proposed system, (2) a word segmentation approach using a decoding method for the RNN output, (3) a CNN based replacement of the RNN layers and (4) a decoding algorithm which integrates a dictionary and language model while still allowing arbitrary non-word characters between words.

Diplomarbeitsposter Schurischuster Stefan

Stefan Schurischuster

Masterstudium Medizinische Informatik
Abstract:

Rapid growth of parasites like Varroa destructor is one of the main reasons for elevated mortality of bee colonies. Beekeepers have to perform time consuming manual sampling to enable treatment and avoid colony losses. Most existing sampling plans only produce rough estimates and can be invasive and costly. This can be a significant stress factor, when considering an average sample size of 300 bees per apiary, to get a significant test result. This yields the question, if it would be possible to automatically monitor the infestation status of a beehive, using a non-invasive method. This works provides a first step towards answering this question. Therefore a camera system capable of creating continuous recordings of the entrance of an apiary is designed with whom more than 7TB of video data is recorded. From the conducted video material, a ground truth dataset is created with more than 13,000 manually labeled images of infected and healthy bees. The dataset is used to train and evaluate two detection approaches: A “traditional” machine learning pipeline and a deep learning pipeline using convolutional neural networks. The final evaluation shows that distinguishing between healthy and infected bees is possible using the convolutional neural network approach, providing the proof of concept. A per-class classification accuracy of 94.4% for healthy bees and 85.5% for infected bees is recorded with an overall f-score of 0.82, calculated on the labeled test dataset. This work therefore provides a novelty approach for automatic parasite classification and represents as a first step towards automated parasite monitoring.

Arbeitsbereich Research Division of Computer Graphics

Diplomarbeitsposter Eckelt Klaus Walter

Klaus Walter Eckelt

Masterstudium Medizinische Informatik
Abstract:

Das Finden von Beziehungen in großen Datensammlungen ist eine immer wiederkehrende Aufgabe, welche jedoch durch ständig wachsende Datenmengen und deren Heterogenität komplexer wird. Zur Visualisierung multivariater Daten gibt es mehrere Ansätze: Projektionstechniken, Überblickstechnicken, und tabellarische Visualisierungen. Doch während die Analyse einzelner Datensätze in Tabellen einfach ist, wird das Finden von Ähnlichkeiten in der restlichen Datensammlung mühevoll. Auch bei Überblickstechnicken stößt man beim Vergleich großer Datenmengen schnell an Grenzen. Projektionstechniken gruppieren ähnliche Datensätze durch die Dimensionsreduktion automatisch, allerdings geht im Projektionsraum der Bezug zu den Attributen verloren. In der vorliegenden Arbeit wird ein Prozess zur Führung von Nutzerinnen und Nutzern präsentiert, um sie bei der Datenexploration zu unterstützen. Ausgehend von einer selektierten Teilmenge an Daten, werden Attribute vorgeschlagen, welche Ähnlichkeiten zu jenen aufweisen. Attribute oder Datensätze können ausgewählt und anhand mehrerer Ähnlichkeitsmaße mit der gesamten Datensammlung verglichen werden. Ein selektiertes Attribut wird mit allen weiteren Attributen verglichen. Datensätze werden allerdings mit sämtlichen Gruppierungen aller Attribute verglichen. Numerische Attribute werden so diskretisiert, dass eine der resultierenden Gruppen möglichst hohe Ähnlichkeit aufweist. In hierarchischen Attributen wird nach dem ähnlichsten Teilbaum gesucht. Die vorgestellte Benutzerführung ist nicht nur unabhängig vom Datentyp, sondern auch von der Domäne und der Visualisierung der Daten. Demonstriert wird dies durch die Verwendung verschiedener Datensammlungen und der Integration des Prozesses in zwei Visual Analytics (VA) Systeme. Medizinerinnen und Mediziner des Kepler Universitätsklinikums Linz verwenden diese VA Systeme zur Analyse vergangener Krebstherapien.

Diplomarbeitsposter Gamper Thomas

Thomas Gamper

Masterstudium Visual Computing
Abstract:

Die realistische Darstellung von Wasseroberflächen ist seit jeher ein beliebtes Forschungsthema in der Computergraphik. Vor allem das Rendern des weiten Ozeans in Echtzeit stellt eine besondere Herausforderung dar. Die Gründe hierfür sind vielseitig. Unter anderem ist der Ozean ein riesiges Gewässer, welches wir auf sehr unterschiedliche Art und Weise abbilden möchten, von der detaillierten Nahaufnahme bis zum weitläufigen Panorama. Zusätzlich stellt der Ozean ein sehr komplexes, dynamisches System dar, das aus einer riesigen Anzahl Wellen unterschiedlicher Größe besteht, vom riesigen Tsunami bis zur millimeterkleinen Kapillarwelle. Wir präsentieren in dieser Arbeit Algorithmen um den weiten Ozean nicht nur in Echtzeit zu rendern, sondern auch alle dafür benötigten Daten in Echtzeit zu generieren. Unser Fokus liegt darauf, glaubhafte Ozeanoberflächen mittels Wellenspektren zu erzeugen, wobei letztere dem Forschungsbereich der Ozeanographie entspringen. Wir untersuchen unterschiedliche Wellenspektren sowohl auf ihre Eigenheiten, als auch auf ihre Eignung für die Darstellung mittels Echtzeitgraphik-Algorithmen. Zusätzlich erläutern wir die notwendigen Hintergründe um unterschiedlich Wellenspektren sinnvoll in eine gemeinsames Grundstruktur zu integrieren. Selbige ermöglicht es uns schlussendlich, unabhängig vom gewählten Wellenspektrum, nicht nur glaubhafte, sondern auch stimmige Ozeanoberflächen zu erzeugen.

Diplomarbeitsposter Gusenbauer Matthias

Matthias Gusenbauer

Masterstudium Visual Computing
Abstract:

Analyzing large amounts of data is becoming an ever increasing problem. Bitcoin as an example has produced more data than is possible to analyze. In order to compensate for these difficulties, creative ideas that employ data aggregation or minimization have been proposed. However, visualization of graphs through node-link diagrams remains a difficult challenge. Analysis of the Bitcoin transaction graph to follow bitcoin transaction poses a difficult problem due to the amount of data. This thesis combines two data processing strategies to visualize big network data on commodity hardware. The idea is to use visualization as a technique to analyze a data-set containing Bitcoin transaction information. Criminals use Bitcoin as a means of payment because of pseudonymity. However through visualization we aim to identify patterns that will allow us deanonymize transactions. To do so we use a proxy server that does data preprocessing before it is visualized on a web client. The proxy leverages parallel computing to be able to do top-down and bottom-up data processing fast enough for interactive visualization. This is done through incremental loading (bottom-up) which enables to visualize data immediately without a (pre-)processing delay. The database containing the public Bitcoin ledger is over 163 gigabytes in size. The resulting graph has more than 800 million nodes. As this information is too much to be visualized we also employ a top-down approach of data aggregation and graph minimization of the transactional graph. Through this methodology we intend to solve performance problems of long processing delays and the problem of fractured data where it is shown only partially in the visualization. We collaborate with security experts who share insights of their expertise through a continuously ongoing dialog. We evaluate the result through the performance and feedback of security experts as well as benchmark the performance against current best practice approaches.

Diplomarbeitsposter Karall Nikolaus

Nikolaus Karall

Masterstudium Medizinische Informatik
Abstract:

Die am meisten verbreitete Krebsart in der weiblichen Bevölkerung in Industrieländern ist Brustkrebs. Um die Sterblichkeit signifikant reduzieren zu können, ist eine frühe Diagnose wesentlich und Behandlungsstrategien müssen sorgsam ausgewählt werden. Klinische ForscherInnen, die eine geeignete Chemotherapie auswählen möchten, müssen den Verlauf der Krankheit während und nach der Behandlung analysieren und verstehen, wie unterschiedliche Gruppen von Patientinnen auf die jeweils gewählte Behandlungsmethode reagieren. Dies ist aktuell aufgrund der Vielzahl an involvierten (bildgebenden und nicht bildgebenden) Daten eine schwierige Aufgabe, daher sind adäquate Visualisierungen erforderlich. Das Ziel dieser Arbeit ist es, klinische ForscherInnen beim Verstehen und Erforschen der vorhandenen Daten zu unterstützen. Diese Arbeit präsentiert ein web-basiertes System, das drei Aufgaben zum Erforschen und Analysieren von Daten von Brustkrebspatienten in einer Kohorte, anbietet. Eine Funktionalität zum Analysieren einer einzelnen Patientin, eine zum Vergleichen von zwei Patientinnen und eine zum Vergleichen von Patientengruppen werden zum einfachen Erforschen und Analysieren der vorhandenen multivariaten Daten bereitgestellt. Zu Beginn wurden die vorhandenen Daten einigen Vorverarbeitungsschritten, wie beispielsweise Registrierung, unterzogen. Anschließend wurden sorgfältig Ansichten entworfen, in denen in interaktiven Darstellungen verschiedene Aspekte der Daten präsentiert werden, mit deren Hilfe die Daten verstanden und analysiert werden können. Zum Demonstrieren der Ergebnisse wurden Anwendungsfälle präsentiert, die die Funktionalität veranschaulichen und die Bedeutung der visuellen Analyse zeigen. Durch die Verwendung dieses Systems können klinische ForscherInnen optisch die Vielzahl von Daten einer Patientin erforschen und analysieren, und diese mit anderen Patientinnen in der Kohorte vergleichen, was zuvor mit vorhandenen exploratorischen Anwendungen nicht möglich war.

Diplomarbeitsposter Laager Florian

Florian Laager

Masterstudium Visual Computing
Abstract:

Bei der Registrierung von Oberflächen handelt es sich um den Prozess, Punktkorrespondenzen zwischen multiplen Oberflächen zu finden und eine ausrichtende Transformation zu schätzen. Diese Transformation soll dann die beiden Oberflächen so aufeinander ausrichten, dass sie sich so gut wie möglich überlappen. Es existieren einige Ansätze, die hervorstechende Punkte identifizieren und einen lokalen Deskriptor bauen, der die lokale Nachbarschaft der identifizierten Punkte beschreibt. Korrespondenzen werden gefunden, indem die Deskriptoren der jeweiligen Punkte miteinander verglichen werden. Die globale Registierung, mit der sich die vorliegende Arbeit beschäftigt, zielt allerdings darauf ab Oberflächen auszurichten und dabei Wissen über den gesamten Überlappungsbereich einzusetzen. Im Rahmen dieser Arbeit wird ein Algorithmus zur Registrierung von Tiefenscans vorgeschlagen der, anders als die von uns in der Literatur gefundenen Ansätze, eine ausrichtende Transformation nur dann extrahiert, wenn diese innerhalb eines Toleranzbereichs existiert. Ähnlich zu vielen Ansätzen identifizieren wir dazu zuerst hervorstechende Feature-Punkte auf der Oberfläche und erstellen einen globalen Deskriptor, der das räumliche Verhältnis der Punkte zueinander abbildet. Wir bauen ein Toleranzmodell für die Akzeptanz von ausrichtenden Transformationen, das auf dem Fehlermodell des verwendeten Scanners aufbaut. Wir haben unseren Algorithmus an Tiefenscans unterschiedlicher Objekte angewendet und seine Fähigkeit zur Registrierung evaluiert. Weiters haben wir Tiefenscans, die mit der Microsoft Kinect v2 aufgenommen wurden, mittels unseres Algorithmus registriert und dessen Anwendbarkeit untersucht. Des Weiteren haben wir unseren Ansatz mit einem state-of-the-art Algorithmus verglichen um zu sehen, ob er entscheiden kann ob eine ausrichtende Transformation existiert oder nicht.

Diplomarbeitsposter Ludwig Wolfgang

Wolfgang Ludwig

Masterstudium Visual Computing
Abstract:

Wind energy production is a fast growing sector in the field of renewable energy production. In the process of energy production, more and more data is produced and recorded every year. This data is usually worthless without further exploration, analysis, and presentation. This thesis presents a design study of the visual analysis of wind energy production data. The goal is to provide data analysts with tools to carry out common tasks in the field of wind energy production more efficiently. As the data commonly contains directional information of winds and gusts, analysis techniques need to take the circular nature of such data into account. This work proposes a set of techniques for the visualization and interaction with circular data in radial diagrams. The diagrams operate in the polar coordinate system and thus are well suited to solve the problems of maintaining the natural coherence and circular closure of circular data. The thesis discusses important design decisions and gives practical guidance how to implement novel features into an existing software system. Implementation details on how to ensure large data scalability are presented. The work evaluates the results in a case study with real data carried out by an expert in the field of wind energy production. The results indicate an improved work flow of common tasks and a successful system integration. The reported deployment at a national power grid operator further demonstrates the system’s user acceptance and importance. The thesis also reflects on the iterative design process and the within collected expert feedback.

Diplomarbeitsposter Oancea Stefan Ovidiu

Stefan Ovidiu Oancea

Masterstudium Medizinische Informatik
Abstract:

Diese Masterarbeit zielt ab, einen gründlichen Vergleich zwischen vier Texturalgorithmen zu liefern. Die Kapazität dieser Algorithmen zwischen Patienten mit und ohne Osteoarthrose zu unterscheiden, frühe Anzeichen der Erkrankung zu entdecken und die Entwicklung zu verfolgen anhand von nur 2D Radiographien des trabekulären Gewebes des Knies, wird untersucht. Wegen der fraktalen Eigenschaften des trabekulären Gewebes, zwei fraktale Algorithmen (Bone Variance Value (BVV) and Bone Score Value (BSV)) werden eingeführt. Diese versuchen die intrinsische 3D Komplexität des Knochens zu charakterisieren. Der dritte Algorithmus (Bone Entropy Value (BEV), basiert auf Shannon’s Entropie) stammt aus der Informationstheorie und zielt ab, die Knochenstruktur in Hinsicht auf Informationskomplexität zu beschreiben. Der letzte Algorithmus (Bone Coocurrence Value (BCV)) basiert sich auf der Grauwertematrix eines Bildes und beschreibt die Bildtextur in Hinsicht auf spezifische Haralick Eigenschaften.

Diplomarbeitsposter Steinböck Daniel

Daniel Steinböck

Masterstudium Visual Computing
Abstract:

In this thesis, we introduce BiCFlows, a novel interactive visualization approach to explore large bipartite graphs. We were motivated by the Media Transparency Database, a public database established by the Austrian government to provide information about governmental advertising and subsidies expenses, which holds the characteristics of a large, weighted bipartite graph. Current approaches that deal with the visualization of the Media Transparency Database are limited by the fact that they do not offer a sufficient overview of the whole dataset. Other existing approaches that are not particularly designed for the Media Transparency Database, but deal with the visualization of bipartite graphs are in addition limited by their lack of scalability for large datasets. Aggregation is an often used concept in reducing the amount of data by grouping together similar data objects. This only works if the appropriate object properties are present in the data to use them for the aggregation. If this additional information is missing, like in the Media Transparency Database, other aggregation techniques have to be used. Since we are dealing with bipartite graphs in our approach, we use the concept of biclustering to establish a hierarchical structure within the data that can be interactively explored by the user. We showed that BiCFlows cannot only be used for the Media Transparency Database, but also for other datasets that share the characteristics of a weighted bipartite graph. Furthermore, we conducted an insight-based user study to compare BiCFlows with existing concepts and discussed advantages and drawbacks. We showed that BiCFlows supported users in their exploration process and let them gain more insight than with existing approaches.

Diplomarbeitsposter Trautner Thomas

Thomas Trautner

Masterstudium Visual Computing
Abstract:

Ziel dieser Masterarbeit ist die Entwicklung einer neuen Echtzeit-Visualisierung, für die Erforschung von Molekulardynamik (MD)-Simulationen. Nachdem sich Computer-Hardware ständig verbessert und die Rechenleistung laufend zunimmt, werden MD-Simulationen immer detaillierter, sind leichter verfügbar und bestehen aus Hunderten, Tausenden oder sogar Millionen von einzelnen Simulationsschritten. Die Berechnung von solchen Simulationen ist nicht länger durch Algorithmen oder Hardware beschränkt, trotzdem ist es immer noch nicht möglich diese riesige Datenmenge, als animierte 3D Visualisierung, mit gängigen Visualisierungs-Werkzeugen zu erforschen. Zusätzlich dazu beansprucht die Nutzung von aktuellen Software-Werkzeugen, für die Erforschung solch langer Simulationen, zu viel Zeit. Molekulare Szenen sind äußerst dicht und detailreich, wodurch Visualisierungen unter einem visuellen Durcheinander leiden. Es ist daher leicht möglich, dass Benutzer wichtige Ereignisse verpassen. Daher haben wir eine Fokus & Kontext Visualisierung entwickelt, die die Benutzer zu den relevantesten zeitlichen- und räumlichen Ereignissen geleitet und es ist nicht mehr notwendig die Simulation linear zu explorieren. Unser Beitrag kann in folgende vier Themengebiete unterteilt werden: 1. Räumliche-Wichtigkeit durch Levels of Detail. 2. Relevanzorientierte Verwaltung der Sichtbarkeit mit Hilfe von Ghosting. 3. Zeitliche-Wichtigkeit mit Hilfe von Adaptive Fast-Forward. 4. Visuelle Verbesserung der abgespielten Simulation mit Hilfe von Motion Blur. Diese Arbeit wurde von Beginn an in enger Zusammenarbeit mit Biochemikern des Loschmidt-Labors in Brünn, Tschechien entwickelt. Gemeinsam haben wir verschiedene Anwendungsfälle analysiert und die Flexibilität unserer neuartiger Fokus & Kontext Visualisierung demonstriert.

Diplomarbeitsposter Vasiljevs Michael

Michael Vasiljevs

Masterstudium Visual Computing
Abstract:

Die prozedurale Modellierung in der Computergrafik automatisiert die Generierung von Inhalten. Dabei werden oft manuelle Methoden verwendet, wie bei Anwendungen wie Maya. Grammatikbasierte Methoden ermöglichen die Beschreibung von Objekten auf einer höheren Ebene, die Kodierung von Designentscheidungen in Rule-Dateien und die Erzeugung von unendlichen Variationen durch Ändern der Parameter. Methoden zur Synthese von Landschaften, Straßennetzwerken, Gebäuden und Vegetation wurden beschrieben. Im Kontext der Stadtgeneration kombiniert CityEngine einige dieser Techniken zu einer kommerziellen Lösung, mit der eine gesamte Stadt auf einmal generiert werden kann. Im Kontext der Park-Synthese ist der Prozess in Layout-Generierung und Platzierung von Objekten unterteilt. Ein Parklayout wird manuell erstellt und in den reservierten Bereich eingefügt oder es wird eine Shape-Grammatik für die Gebäudesynthese verwendet. Im ersten Fall könnte eine Änderung des Designs oder der Bereiche zu erheblichen Modifikationen führen, die für den Benutzer erforderlich sind. Zurzeit ist die Schaffung von Parks und Grünflächen in einer Stadt eher begrenzt und konzentriert sich hauptsächlich auf die Vegetation. Ziel der Arbeit war die Entwicklung einer Methode für die Parklayout- Synthese. Sie kann, kombiniert mit grundlegenden Platzierungsmethoden, verwendet werden, um Parkmodelle zu erstellen. Basierend auf der Analyse von realen Parks und 3D-Modellen haben wir Muster abgeleitet, die in die Regeln unserer neuartigen Grammatik übersetzt wurden. Insbesondere führten wir eine Regel für die Erzeugung gekrümmter Bereiche ein, die unseres Wissens auf der Ebene in grammatikalischen Methoden noch nicht behandelt wurde. Wir führen auch eine neuartige Möglichkeit ein, eine beliebige Teilmenge der Grenze zu indizieren und auf dieser Grundlage eine zusätzliche Insettierungsoperation bereitzustellen. In unserer Arbeit haben wir den Kontext von CityEngine als möglichen Anwendungsfall betrachtet.

Arbeitsbereich Research Division of Pattern Recognition and Image Processing

Diplomarbeitsposter Melan Robin

Robin Melan

Masterstudium Visual Computing
Abstract:

Object segmentation is one of the basic issues in image processing and computer vision. However, especially human-head and shoulder segmentation is a topic which was introduced only recently, gaining in importance for a wide area of computer vision applications, such as testing compliance for ID document issuing, improving images for facial recognition or even used in the upcoming e-governmental self services and commercial sector. In this thesis we address the problem of automatic human-head and shoulder segmentation of frontal-view face images from non-uniform complex backgrounds and propose an approach composed of different subtask. These subtasks can be viewed individually and consist of a novel face skin silhouette detection approach based on supervised classification learners, a study of two state-of-the-art superpixel algorithms in relation to the specified problem statement and a novel hair and shoulder segmentation approach. We discuss and evaluate our methods and present competitive results for each subtask.

Arbeitsbereich Research Division of Multidisciplinary Design

Diplomarbeitsposter Ta Stephanie

Stephanie Ta

Masterstudium Medieninformatik
Abstract:

Die vorliegende Diplomarbeit widmet sich der Erforschung sozialer Interaktion auf bildbasierten Sozialen Netzwerken wie Instagram. Da Online-Kommunikationsplattformen zunehmend visueller werden, stellt sich die Frage, wie Menschen Bilder als Kommunikationsmittel wahrnehmen, vor allem wenn Texte nicht immer verfügbar sind oder eine untergeordnete Rolle spielen. Das Ziel der im Rahmen dieser Arbeit durchgeführten qualitativen Interviews war es herauszufinden, wie Menschen Bilder verwenden, um sich auszudrücken und welche Art von visuellen Inhalten sie auf der Plattform sehen und näher betrachten. Zudem wurde untersucht inwieweit sich der Konsum von Bildinhalten auf das eigene Nutzungsverhalten und die Produktion von bzw. die Einstellung zu eigenen Bildern auswirkt. Die Erkenntnisse der durchgeführten Studie geben Informationen darüber, welche Motivationen und persönliche Intentionen Menschen dazu bewegen Bilder als Kommunikationsmittel einzusetzen. Ebenso kristallisieren sich Kommunikationsnormen heraus, die die Probanden während ihrer Nutzung in Instagram erlernt und für sich adaptiert haben. Weiters zeigt sich, inwiefern die persönliche Wahrnehmung von Bildern mit dem eigenen Wohlbefinden zusammenhängt. Insbesondere wird dabei die Problematik reflektiert, wie individuelle Ziele (bspw. die Aufrechterhaltung einer authentischen Selbstdarstellung) innerhalb eines sozialen Netzwerks mit den persönlichen Wertvorstellungen der Nutzer und Nutzerinnen vereinbart werden können und welche Lösungsstrategien sie dafür entwickeln. Schließlich werden die Unterschiede zwischen der Verwendung von Text und Bild als Dreh-und Angelpunkt der Kommunikation genauer differenziert und verdeutlicht.

Arbeitsbereich Research Division of Human Computer Interaction

Diplomarbeitsposter Bauer Immanuel

Immanuel Bauer

Masterstudium Medieninformatik
Abstract:

In dieser Arbeit wird exploriert, wie sich, im Internet etablierte Reputationsmechanismen, sowie Gamificationkonzepte, in einen Universitätskontext der TU Wien einbetten lassen, um so etwa die Lehre zu verbessern, eine granulärere Beurteilung der Leistungen von Studierenden zu ermöglichen oder etwa einen zusätzlichen Anreiz zu außerordentlichen Leistungen für Studierende zu bieten. Ein Gamificationkonzept, das primär betrachtet wird, sind sogenannte Badges. Diese sind digitale Abzeichen, die für die Erfüllung gewisser Aufgaben oder Erreichen bestimmter Ziele vergeben werden. Es wird auch diskutiert inwieweit bereits vorhandene Reputation von externen Quellen eingebracht werden können und wo Reputationmechanismen in bestehenden Systemen wie z.B. TUWEL oder TISS eingesetzt werden können.

Diplomarbeitsposter Gastecker Bettina

Bettina Gastecker

Masterstudium Medieninformatik
Abstract:

Die visuelle Aufbereitung von Informationen ist im Bereich der Informatik eine von vielen wichtigen Thematiken. Betrachtet man die vorhandene Literatur so kann man erkennen, dass es hierzu unzählige Arbeiten gibt. Diese Diplomarbeit spezialisiert sich in dieser Hinsicht auf zwei Visualisierungsarten: die erweiterte Adjazenzmatrix und das Node-Link-Diagramm. Im Rahmen der Arbeit wird auf die Vor- und Nachteile der jeweiligen Visualisierungen bei gewissen Aufgabenstellungen näher eingegangen. Zusätzlich wurde versucht diverse sense-making Strategien der AnwenderInnen zu identifizieren. Als Grundlage hierfür diente eine Studie der Technischen Universität Wien und der Middlesex University in England, die die Interaktion mit dem System sowie die Sense-Making-Strategien, die die BenutzerInnen anwendeten, untersuchte. Im Rahmen der Arbeit wird diese Studie beschrieben und diesbezüglich auch auf die Verwendung beider verwendeter visueller Repräsentationen näher eingegangen. Die Auswertung erfolgte durch die Verwendung der qualitativen Inhaltsanalyse, wobei die Analyseschritte mittels Kategoriensystem erfolgten. Bei den Ergebnissen wurden erst die Teilnehmer charakterisiert und in weiterer Folge die einzelnen Kategorien ausgewertet. Hierbei konnte herausgefunden werden, dass beide Darstellungen ihre Vor- und Nachteile haben und deren jeweilige Anwendung von der Art der Problemstellung abhängt. Außerdem wurden 10 Sense-Making-Strategien identifiziert.

Diplomarbeitsposter Igler Clemens

Clemens Igler

Masterstudium Medizinische Informatik
Abstract:

Durch die großen Fortschritte im Bereich der Spracherkennung befindet sich diese Techno-logie als Eingabemethode auf dem Vormarsch und findet in einer zunehmenden Anzahl an Geräten und Bereichen Einsatz. Speziell im Bereich Smart Home und Active and Assisted Living (AAL; ehemals Ambient Assisted Living) bietet sich eine Steuerung mittels Sprachein-gabe an und öffnet unter anderem die Möglichkeit einer barrierefreien Bedienung. Solch ein AAL-System ist an der Technischen Universität Wien bereits in Arbeit und besitzt als zentrale Steuereinheit ein Local User Interface (LUI), das bislang primär über Touchscreen bedient wird. In dieser Arbeit wird die Möglichkeit einer Implementierung der Bedienung des LUI mittels eines Treibers zur Spracherkennung untersucht und mit einem Prototyp verwirklicht. Der Prototyp besteht aus einer Kernkomponente und einer Komponente zur Spracherkennung. Die Kernkomponente wurde mittels des Node.js-Frameworks umgesetzt und übernimmt die Kommunikation mit dem LUI und der Komponente zur Spracherkennung, sowie die Verarbei-tung und Verteilung der Daten. Diese Komponente bietet außerdem ein klar definiertes und dokumentiertes Interface, welches es ermöglicht, die unterschiedlichsten Anwendungen zur Spracherkennung anzubinden und für die Steuerung des LUI zu nutzen. Für die endgültige Umsetzung des Treibers wurde die Microsoft Speech Platform eingesetzt, für die Evaluierung der Spracherkennung wurde aber auch die neuere Microsoft Technologie – Windows Speech API – herangezogen. Die Steuerung des LUI mittels Spracherkennung erwies sich als zufriedenstellend, wobei sich die Windows Speech API als alltagstauglicher herausstellte. Im Weiteren wurden durch die Evaluierung wichtige Ansatzpunkte für die Weiterentwicklung der Steuerung des LUI mittels Spracherkennung sowohl seitens der Spracherkennungstechnologie, als auch des LUI identifiziert.

Diplomarbeitsposter Wojtak Markus

Markus Wojtak

Masterstudium Medieninformatik
Abstract:

With increasing life expectancy, the number of people with cognitive disabilities like dementia is increasing. While technological aids exist to aid them at home or at nursing homes, research has shown that physical activity can slow the progress of memory decline. When leaving their home, people with dementia are at risk to forget where they live and therefore become lost. As most people use or at least carry smartphones that utilize GPS for location services, it seems logical to leverage the technology. While navigation apps such as Google Maps are helpful for a majority of individuals, people with cognitive limitations may find them too hard to use as the user interface contains a large amount of elements and possible options. This thesis explores a new way of guiding individuals home by designing, implementing and evaluating two prototypes. The prototypes were inspired by an analog compass, or more specifically, the analogy of a needle pointing towards a predefined destination (i.e. north). However, unlike a traditional compass, the prototypes developed point towards the homes of users. The thesis first provides a brief summary on dementia before moving on to an overview of the technology behind global navigation satellite systems. The ideation process for both prototypes is covered in detail while providing an overview of the design process that led to the final versions of the prototypes. As the focus group includes people with cognitive limitations, requirements for the prototypes taking the needs of this specific group into account had to be determined first by forms of a literature study before starting with the design process. The first prototype developed is an iOS app while the second prototype is a physical device that is meant to be used in conjunction with the app. The informal evaluation suggests that the concept developed over the course of this thesis has the potential of successfully guiding individuals home as it has been positively received.

Arbeitsbereich Research Division of Interactive Media Systems

Diplomarbeitsposter Hofer Hansjörg

Hansjörg Hofer

Masterstudium Visual Computing
Abstract:

Current developments in sensor and computer vision technologies are pushing the boundaries of extended reality (XR) applications. Digital customizable avatars, mimicking human emotions and gestures, are soon to be replaced by true 3D capturings of humans in mixed reality environments. Recording action filled scenes to recreate and place them in virtual or remote environments promises more lifelike and immerse experiences, extending the possibilities of virtual reality (VR), augmented reality (AR) and mixed reality (MR) applications. Photogrammetry and depth ranging sensors are already capable of bringing rigid real-world objects to the virtual world, with astoundingly realistic results. In addition, with modern depth sensors entering the smartphone industry, the next steps for mobile 3D capturing and online reconstruction have already been taken. However, dynamic content with rapid changes in structure and topology is challenging to reconstruct, particularly for usage in real-time. This thesis presents a novel visualization pipeline, which facilitates the real-time reconstruction of dynamic point clouds in a widely used, flexible and powerful framework. We contribute a novel modular processing and rendering pipeline for the Unity3D game engine, a popular multi-platform engine for XR applications and mobile games. The implementation is capable of reconstructing photo-realistic 3D objects from dynamic depth sensor streams. Furthermore, the modular architecture allows for scalability and easy expandability. The quality of this novel visualization pipeline is determined through optical comparisons with classical visualization techniques, which show that those techniques are not easily distinguishable from the results of our work. Moreover, the exact execution time of the algorithms is measured for different point clouds to proof their real-time ability.

Diplomarbeitsposter Pichler Thomas Alois

Thomas Alois Pichler

Masterstudium Medieninformatik
Abstract:

Raytracing ist eine Technik, mit der hochgradig realistische Bilder erzeugt werden können. Dieser Realismus wird durch das Simulieren der physikalisch korrekten Ausbreitung von Lichtstrahlen erzielt. “Rays” stellen in diesem Kontext Blickrichtungen und Lichtstrahlen dar, deren Verlauf in einer Szene verfolgt wird. Rays interagieren mit Objekten in dieser Szene (sie durchdringen sie, werden reflektiert, etc.) und tragen im Endeffekt zu den jeweiligen Pixelwerten des generierten Bildes bei. Eine der wichtigsten Operationen in einem Raytracer ist die Berechnung von Schnittpunkten der Rays mit geometrischen Primitiven. Eines der meistgenutzten Primitiven ist das Dreieck. Schnittpunktberechnungen zwischen Rays und Dreiecken sind verhältnismäßig einfach, und komplexe Objekte werden oft durch Dreiecksnetze approximiert. Aus diesem Grund werden Schnittpunktberechnungen zwischen Rays und Dreiecken relativ häufig ausgeführt. Raytracing wird generell als eine eher langsame Methode der Bildgenerierung angesehen, weswegen in den letzten Jahren mehrere Algorithmen zur schnellen Ray-Dreieck-Schnittpunktberechnung vorgestellt wurden. Im Rahmen dieser Diplomarbeit wird ein neuer, schneller Algorithmus zur Ray-Dreieck-Schnittpunktberechnung in das CPU-basierte Raytracing-Framework PBRT implementiert. Er basiert auf Early-Termination-Strategien und transformiert Ray-Ebene-Schnittpunkte in ein 2D-Koordinatensystem. Für diese Transformation werden zwei verschiedene Ansätze beschrieben. Verschiedene Optimierungsmaßnahmen für den Algorithmus werden erforscht. Der Algorithmus wird hinsichtlich seiner Effizienz mit dem in PBRT implementierten Default-Algorithmus sowie mit einem anderen State-of-the-art-Algorithmus verglichen. Für die Tests werden realistische Szenen mit unterschiedlicher Komplexität und verschieden hohen Ray-Dreieck-Trefferraten verwendet. Die Ergebnisse zeigen, dass der neue Algorithmus hinsichtlich seiner Effizient den Default-Algorithmus bei jeder Szene übertrifft.

Diplomarbeitsposter Rotheneder Stephan

Stephan Rotheneder

Masterstudium Visual Computing
Abstract:

Stereo matching is one of the first steps in the process of calculating 3D information from two 2D images. To triangulate a 3D point from two corresponding 2D features, the displacement in pixels, or the so-called disparity, must be estimated. From the estimated per-pixel disparity, using a projective camera model, 3D data for large portions of an image may be calculated. The 3D scene information can be used in applications ranging from obstacle detection and collision avoidance systems in the automotive industry to pick-and-place or human safety systems in the robotics industry. As time is an important factor in most of these applications, the subject of real-time stereo matching has gained importance while quality and accuracy aspects retain their importance. Benchmarks such as the Middlebury Benchmark aim at providing stereo test data as well as ground truth to evaluate different matching algorithms against each other with regard to accuracy, coverage and runtime. However, they fall short in measuring the computational efficiency as the reported runtime as well as the real-time capability of the listed stereo matching algorithms are highly hardware dependent. In this thesis we explore the possibilities of real-time stereo matching and the constraints imposed by the used hardware. We discuss the limitations of runtime measurements with respect to varying computational power. Further, we suggest a method to compare the efficiency of various algorithms based on the reported runtime and hardware data, which is provided by the Middlebury Benchmark. This enables us to estimate the real-time capability of a given algorithm with a known problem space size on an arbitrary device with a manufacturer specified or measured performance figure. Finally, we observe that the problem space size, the device performance figure and the algorithm’s runtime complexity directly correlate with the matching rate given in Frames per Second (FPS).

Diplomarbeitsposter Schenk Alexander

Alexander Schenk

Masterstudium Business Informatics
Abstract:

Modern IT systems are often implemented as loosely coupled systems, consisting of independently developed and deployed components. These systems require a high degree of communication within and can be optimized by the replication of data. Actual research on replication mainly focuses on the data layer, which leads to tight coupling and is therefore not suitable for loosely coupled systems. This thesis identified replication strategies which may be used for loosely coupled systems by a bottom-up approach (based on general characteristics of replication mechanisms) and evaluates their use in respect to qualitative and quantitative indicators. The considered replication strategies mainly build on Event-Driven Architectures with Messaging and Atom-based Web Feeds. Data was gathered by an analytical evaluation and a simulation. Qualitative indicators were solely examined analytically, in accordance with the quality indicators of ISO 25010. Quantitative indicators are the latency of a client-side read operation, the latency of a server-side update operation, the time until all replicas are in a consistent state and the consumed bandwidth. These indicators were examined analytically and measured during a simulation in a custom-built simulation environment with implementation of the replication strategies in Java EE and Ruby on Rails. To emulate the behavior of a real IT system, the simulation uses several synthetic workloads which are based on real-world observations and assumptions made in related research. The evaluation concludes that there is no single best replication strategy for all cases of applications. Replication strategies which use Atom-based Web Feeds are generally not recommended because of the insufficient availability of tools in this area. The evaluation indicates that replication by push-based notifications of the full state of a data item with a publish-subscribe message queue can be used for most cases of applications.

Diplomarbeitsposter Schindler Christoph

Christoph Schindler

Masterstudium Medieninformatik
Abstract:

In our modern and computer-driven environment the topic of Human Computer Interaction becomes more important, in order to design efficient and flexible interfaces. A field of increasing importance is Augmented Reality, where current interaction techniques and principles are not yet satisfying or sufficient for the great potential of these technologies. Especially haptic feedback during user interaction is an important and complex topic. With the ACTO system, Vonach et al. developed a Tangible User Interface (TUI) for prototyping haptic interfaces. In this thesis we use this system to provide haptic interaction for Augmented Reality (AR). Therefore we first developed an alternative tracking system for the ACTO robots, called TrACTOr. With this new tracking solution we want to overcome some shortcomings of the existing tracking solution, as well as fit the needs of an AR application better. Based on the new tracking system we implemented an AR based learning application with haptic user interaction, called StARboard. With StARboard we wanted to investigate the benefits of haptic interaction for learning systems for the users. We present the concepts of the tracking solution and the learning application. The development of additional hardware for the ACTO robots, as well as the system setup is explained. Also the implementation of TrACTOr and StARboard is discussed in detail. The technical evaluation of the system showed that the TrACTOr tracking system has a high enough performance and accuracy to provide real time tracking data for an AR based application. The user evaluation we performed with the implemented system showed that for learning systems, haptic interaction in combination with AR can match the performance of conventional desktop applications or gesture based AR applications. The users rated this new interaction technique as very intuitive, fast and easy to use.

Diplomarbeitsposter Steindl Ludwig

Ludwig Steindl

Masterstudium Medieninformatik
Abstract:

Virtual Reality (VR) Anwendungen entkoppeln die Benutzer von der realen Welt, indem sie vollständig in eine künstliche Umgebung eingehüllt werden. Mithilfe einer VR-Brille und schallisolierter Kopfhörer wird die visuelle und auditive Wahrnehmung auf den virtuellen Inhalt der Simulation beschränkt. Die meisten Applikationen unterlassen die Darstellung der Gliedmaßen innerhalb des virtuellen Erlebnisses. Sobald die Anwendung jedoch die Interaktion mit realen Objekten erfordert, muss die Simulation um dieses Merkmal erweitert werden. Ermöglicht wird dies durch ein Motion Capture System, welches die Position und Pose der Hände und Füße in Echtzeit bestimmt und an die Applikation übergibt. Diese Diplomarbeit beschreibt die Entwicklung des VreeTrackers, eines hybriden Tracking-Systems, das optische Positionserkennung mit sensorbasierter Lagebestimmung kombiniert. Weiters ermittelt der entwickelte Prototyp die Handpose mithilfe eines markerlosen Ansatzes. Der VreeTracker ist Teil einer virtuellen Kletteranwendung namens VreeClimber. Der VreeClimber ist eine VR-Kletterwand, welche die Sicherheit einer Simulation und die haptische Interaktion mit realen Objekten verknüpft. Als Grundvoraussetzung wird bestimmt, dass alle Hardwarekomponenten günstige und leicht verfügbare Geräte sind. Erforderliche Modifikationen an gekauften Produkten und die eigenständige Neuentwicklung individueller Hardwarekomponenten sind neben der Implementierung der Tracking-Software zwei grundlegende Aufgabenbereiche des Projekts.

Diplomarbeitsposter Timofeev Mikhail

Mikhail Timofeev

Masterstudium Medieninformatik
Abstract:

Architekturbüros, Bauunternehmen und Kauf- oder Mietinteressierte haben ein gemeinsames Interesse daran, dass am Ende eines Bauvorhabens ein Wohnobjekt entsteht, das den Bedürfnissen von Menschen, die darin wohnen werden, am besten entspricht. Um dies sicherzustellen, müssen die potenziellen Bewohner frühzeitig in die Projektplanung eingebunden sein. Oft ensteht dabei das Problem, dass die im Bereich Architektur und Bau verwendeten Gebäude-Modelle sich für die Präsentationszwecke nicht eignen. Die ansprechenden 3D-Gebäudemodelle sind aufwendig und teuer in der Erstellung. Die vorliegende Arbeit adressiert diese Herausforderung und präsentiert ein Framework zur automatischen Generierung von 3D-Modellen von Immobilienobjekten. Die generierten Modelle sind in der entwickelten Virtual Reality-Anwendung begehbar. Außerdem ermöglicht diese Anwendung Interaktionen mit der Umgebung, wie das Hinzufügen von Möbeln oder den Austausch der Oberflächentexturen von Wänden und Böden. Die durchgeführte Benutzerstudie hat gezeigt, dass die entwickelte Anwendung es den Menschen ermöglicht, die generierten Modelle der Wohnungen so zu erleben, als würden sie sich physisch in der Wohnung befinden. Dies führt zur substantiellen Erleichterung der Kundeneinbindung in den Planungs- und Implementierungsprozess eines Bauprojektes. Außerdem wird dadurch die Suche nach einem passenden Wohnobjekt erleichtert, da solche virtuellen Begehungen in vielen Szenarien die einzige Möglichkeit darstellen, die potenzielle Unterkunft realitätsnah zu erleben.

Arbeitsbereich Research Division of Visual Analytics

Diplomarbeitsposter Schwarzinger Fabian

Fabian Schwarzinger

Masterstudium Visual Computing
Abstract:

Datensätze, die aus der „echten Welt“ stammen, enthalten meist verschiedene Arten inhärenter Unsicherheiten. In den letzten Jahren gab es Bemühungen, diesen Aspekt der Daten in Visualisierungen zu berücksichtigen und sichtbar zu machen. Dasselbe gilt für die Darstellung von zeitlichen Daten. Wie dies am besten auf eine möglichst intuitive Art bewerkstelligt werden kann, ist in Bezug auf die Visualisierung von zeitlichen Unsicherheiten noch eine von vielen offenen Fragestellungen. In dieser Arbeit werden zwei aufeinander aufbauende Nutzerstudien präsentiert, welche darauf abzielen, Erkenntnisse in diesem Bereich offenzulegen. In der ersten Studie wurden 32 Teilnehmer darum gebeten, basierend auf gegebenen Szenarien und Aufgabenstellungen, eigene Visualisierungsdesigns zu entwickeln und zu zeichnen. Die Auswertung der Zeichnungen durch einen sogenannten Open Coding-Ansatz führte zu einer Liste von Hypothesen in Bezug auf die intuitive Darstellung von zeitlichen Unsicherheiten. Eine Auswahl aus diesen Hypothesen bildet die Basis für die zweite Nutzerstudie. In dieser Onlineumfrage wurden 60 Teilnehmer gebeten, jeweils zwei Visualisierungstechniken in gegebenen Szenarien zu vergleichen und zu bewerten. Diese Bewertung der Intuitivität der Techniken führte zu Erkenntnissen, welche für die Entwicklung von zukünftigen Visualisierungen wichtig sein könnten. So weisen die Resultate unter anderem darauf hin, dass symbolische Darstellungen unerwarteterweise nicht intuitiv wahrgenommen werden. Ein Grund dafür könnte sein, dass solche Darstellungen speziell auf bestimmte Einsatzgebiete zugeschnitten werden müssen, um intuitiv zu sein. Außerdem deuten die Studienergebnisse darauf hin, dass die Visualisierung von Unsicherheiten von den meisten Menschen bevorzugt wird, auch wenn die Unsicherheiten selbst nicht von Bedeutung für die vorliegende Aufgabe sind. Diese Erkenntnis könnte wichtige Implikationen auf die Entwicklung von zukünftigen Visualisierungen haben.

Institut für Institute of Information Systems EngineeringE194

Arbeitsbereich Research Division of Information and Software Engineering

Diplomarbeitsposter Cavic Bojan

Bojan Cavic

Masterstudium Business Informatics
Abstract:

Deep Learning floriert in den letzten Jahren und wird dank der derzeit verfügbaren Rechenleistung von Computersystemen immer mehr eingesetzt. Große IT-Unternehmen wie Google oder Facebook nutzen Deep Learning Algorithmen in ihrem Tagesgeschäft. Daher ist die Reproduzierbarkeit von Forschungsarbeiten, die Deep Learning Algorithmen beinhalten, ein entscheidender Faktor. Diese Masterarbeit konzentriert sich auf die Analyse des Einflusses verschiedener Betriebssysteme sowie verschiedener Deep Learning Frameworks. Zu diesem Zweck wird das gleiche Deep Learning Modell in drei sehr populären Frameworks (TensorFlow, Theano und Deeplearning4J) erstellt und ausgeführt. Darüber hinaus werden verschiedene Versionen dieser Frameworks berücksichtigt, da einige von ihnen möglicherweise wichtige Methoden auf andere Weise implementieren. Danach wird das Modell auf sieben Betriebssystemversionen ausgeführt. Zusätzlich werden verschiedene Versionen der verwendeten Ausführungsplattform (Python und Java) berücksichtigt. Die erhaltenen Modellergebnisse werden analysieren und testen, ob die Ergebnisse durch den Ausführungskontext beeinflusst werden.

Diplomarbeitsposter Fassl Matthias

Matthias Fassl

Masterstudium Technische Informatik
Abstract:

WhatsApp, Signal as well as most other modern secure messaging clients have a secret and – for most users – thoroughly hidden way to protect conversations, especially from the dreaded Monster-in-the-Middle (MitM) attack. This so-called authentication ceremony often requires conversation partners to meet in person to manually or automatically compare their encryption keys. Numerous studies showed that values and mental models differ between users and security engineers. Consequently, users usually do not understand the purpose and necessity of authentication ceremonies without prior explanation. Therefore, a novel, explicitly user-oriented design process is called for to connect the ceremony design with the users’ mental models. I applied the concepts of participatory design in order to (1) understand how users expect resp. want an authentication ceremony to work, and (2) evaluate how ceremonies thus adjusted could be securely implemented. The participatory design workshops resulted in (1) experience reports, that describe what users are looking for in secure messengers, and which aspects are obstacles to adoption, (2) conceptual designs for authentication ceremonies with corresponding security evaluations, and (3) implications for design of future authentication ceremonies. To illustrate the user-centered design approach, I provided three example ceremonies based on the users’ suggestions and their security evaluation.

Diplomarbeitsposter Fazekas Botond

Botond Fazekas

Masterstudium Computational Intelligence
Abstract:

Um Ökosysteme begreifen zu können, ist es wichtig, Wildtiere zu verstehen; deren Beobachtung kann jedoch kompliziert und zeitintensiv sein. Eine automatisierte Aufnahme von Tönen und Lauten der Umwelt selbst ist ein einfaches Unterfangen, für eine nachträgliche Identifizierung der Wildtiere ist allerdings ein komplexeres System vonnöten. Eine manuelle Identifizierung wäre zu umständlich, wodurch eine automatisierte Methode im Forschungsbereich eine vielversprechende Alternative wäre. Vögel eigenen sich dabei besonders gut für diese Aufgabe, da ihre Kommunikation zum Großteil durch das Singen passiert und sie darüber hinaus aufgrund ihrer schnellen Reaktion auf Änderungen in ihrer Umgebung gute ökologische Indikatoren darstellen. Die aktuell verfügbaren Datensets beinhalten sehr viele Vogelgesänge verschiedenster Arten in diversen Umgebungen und so ist neben der Klassifizierungs-Genauigkeit auch die Skalierbarkeit ein wichtiger Faktor. Das Ziel dieser Studie ist das Verbessern von den akustischen state-of-the-art Vögelidentifzierungs-Methoden, die in dem BirdCLEF2016 Wettbewerb evaluiert wurden, sowohl im Sinne der Genauigkeit als auch der benötigten Trainingszeit, und damit im Sinne der Skalierbarkeit. Diese Arbeit evaluiert die Leistung von den vorgeschlagenen Convolutional Neural Network (CNN) Modellen mit Rectified Linear Units und Exponential Linear Units (ELU) mit dem BirdCLEF2017 Datenset, sowie den Effekt von Mel-Skalierung und Constant-Q Transformation der Töne. Außerdem wird in dieser Arbeit eine neue, multi-modale Architektur präsentiert, die die verschiedenen vorhandenen Metadaten für die Feld-Aufnahmen für die Klassifizierung verwendet. Die Ergebnisse zeigen, dass einfachere CNN Modelle mit ELUs im Bezug auf Trainingszeit und Klassifizierungs-Leistung besser abschneiden als jene state-of-the-art Lösungen, wohingegen die Verwendung von Metadaten einen deutlich positiveren Effekt auf die Identifizierungs-Genauigkeit hat.

Diplomarbeitsposter Fink Tobias

Tobias Fink

Masterstudium Software Engineering & Internet Computing
Abstract:

Cross Site Scripting (XSS) Angriffe sind bereits seit langem bekannt und obwohl eine breite Palette an Gegenmaßnahmen vorgestellt wurde, ging das Auftreten von neuen XSS Schwachstellen nur marginal zurück. Auf der anderen Seite erhöht sich die Zahl an Angriffen sowie deren Raffinesse, da immer mehr Anwendungen Code vom Server auf den Client auslagern. Existierende Programme zur Schwachstellenanalyse in diesem Sektor weisen oft nur eine ungenügende Genauigkeit beim Aufspüren solcher Fehler auf. Deshalb beschäftigt sich diese Arbeit mit der Lösung der folgenden Probleme: (i) Unzureichende Testumgebungen zur Auswertung bestehender Tools, (ii) Fehlende Vergleiche bereits existierender Black-Box Analysetools, (iii) Entwicklung und Implementierung von Methoden zur effektiven Erkennung von XSS Schwachstellen. Die automatisierte Auswertung von Analyseprogrammen bedarf einer Testumgebung, welche eine möglichst hohe Abdeckung an diversen XSS Schwachstellen bietet. Deshalb wurde eine eigene Anwendung entwickelt um möglichst viele Kombinationen unterschiedlicher Dateneingangs und -ausgangspunkte, sowie Filtermechanismen in Webanwendungen abzubilden, welche zuvor in keinem Testset enthalten waren. Basierend auf dieser Testumgebung wurde eine großangelegte Studie zu frei verfügbaren XSS Scannern durchgeführt. Die Auswertung zeigt, dass existierende Tools nur unzureichende Ergebnisse liefern. Speziell bei den Varianten der DOM-basierten und persistenten Schwachstellen konnten die meisten überhaupt keine Testfälle erkennen. Um den Stand von offenen und frei verfügbaren Werkzeugen zu verbessern stellen wir daher eine eigene Black-Box Methodik zum effizienten Erkennen von XSS Schwachstellen in Webanwendungen vor. Die Evaluierung des entwickelten Prototypen zeigt auf, dass die neu entwickelte Methodik im Vergleich zu existierenden frei verfügbaren Tools in der Lage ist in annähernd der selben Zeit eine signifikant höhere Anzahl an ausnutzbaren Schwachstellen zu identifizieren.

Diplomarbeitsposter Fink Tobias

Tobias Fink

Masterstudium Business Informatics
Abstract:

Im Bereich der Patentsuche spielen technische Begriffe eine wichtige Rolle, wenn es darum geht herauszufinden, welche Patentdokumente einem bestimmten Patentdokument am ähnlichsten sind. Im Englischen bestehen technische Begriffe zumeist aus mehreren Wörtern und formen weiters Substanivgruppen (noun phrases). Letzteres wird von Methoden, die solche Mehrwortbegriffe (multi word terms) erkennen sollen, genutzt. Da aber Patenttexte sich oftmals durch eine Schreibstil kennzeichnen, der von anderen englischen Texten abweicht und Sätze sehr lang werden können, sind übliche Methoden zur Erkennung von linguistischen Informationen weniger effektiv. Weiters werden manche Mehrwortbegriffe eher selten in Patenten verwendet, was Methoden, die die Erkennung von Substantivgruppen sowie Information über die Vorkommenshäufigkeit der Begriffe benötigen, nicht unproblematisch macht. In dieser Arbeit präsentieren wir eine Methode zur Erkennung von Mehrwortbegriffen jeglicher Vorkommenshäufigkeit, die nicht die vorherige Erkennung von Substantivgruppen benötigt. Mithilfe von überwachtem maschinellem Lernen und einem künstlichen neuronalen Netz, das durch Methoden der Eigennamenerkennung (named entity recognition) und Schlüsselphrasenerkennung inspiriert wurde, trainieren wir Modelle auf Sätzen von 22 Patent, deren Mehrwortbegriffe beschriftet wurden, bestehend aus Wort-Tokens und Buchstaben-Tokens. Durch Verwendung von 'word embeddings', die mit dem CLEF-IP Patentdatensatz erstellt wurden, erreicht unser bestes Modell eine höhere Leistung als unser bestes, auf linguistischen Informationen basierendes Richtlinienmodell, im Bezug auf Genauigkeit (von 0.70 auf 0.85), Trefferquote (von 0.74 auf 0.84) und F-Maß (von 0.72 auf 0.84).

Diplomarbeitsposter Holzmann Helga

Helga Holzmann

Unterrichtsfach Informatik/Informatikmanagement
Abstract:

Der QR Code ist in den letzten Jahren zu unserem täglichen Begleiter geworden. Beinahe kein Tag vergeht, an dem man nicht irgendwo über einen QR Code stolpert. Die Orte an denen man QR Codes begegnet sind so unterschiedlich wie seine Einsatzgebiete. Diese vielfältigen Anwendungsmöglichkeiten von QR Codes zeigen sein großes Potential, wodurch sich die Frage nach einer Einsetzbarkeit in Bildungseinrichtungen aufdrängt. Aufgrund der Aktualität als auch der Wandelbarkeit des QR Codes ergab sich folgende Fragestellung für die vorliegende Diplomarbeit: „Welche methodischen Möglichkeiten gibt es für den Einsatz von QR Codes in der Schule?“ Eine umfassende Literaturrecherche und Untersuchungen zum Einsatz des QR Codes in Schulen diente als Fundament für die Entwicklung eines Ideenpools. Der Pool zeigt die verschiedensten Anwendungen des QR Codes im Unterricht beziehungsweise in der Schule auf. Viele der Ideen sind mit einem expliziten Beispiel zur Umsetzungsmöglichkeit ausgestattet. Bei der Entwicklung der Beispiele wurde auf eine Vielfalt hinsichtlich des Fächerkanons geachtet. Abschließend wurde der entwickelte Ideenpool von einer Expertenrunde hinsichtlich methodisch-didaktischen Kriterien bewertet. Der Einsatz von QR Codes im Unterricht dient der Förderung der Interaktivität und einer lebendigen Gestaltung des Unterrichts, als auch der Ausbildung und Vertiefung der digitalen Kompetenzen der Schülerinnen und Schüler.

Diplomarbeitsposter Kleine Kristoffer

Kristoffer Kleine

Masterstudium Software Engineering & Internet Computing
Abstract:

Combinatorial Testing (CT) is an effective testing strategy which has seen increased adoption in the field of software testing. As a black-box testing technique it concerns itself with generating input test cases able to provide mathematical input-space coverage guarantees while keeping the number of test cases low. Generating optimal combinatorial test sets is believed to be a hard optimization problem which has spurred the development of several greedy algorithms which trade-off optimality for speed. One of the most popular representatives is the In-Parameter-Order family of algorithms. This class of algorithms has seen a wide adoption in including software, hardware and security testing as they are able to construct test sets for most instances occurring in practice. In this thesis, an efficient design of the In-Parameter-Order algorithms is presented which drastically reduces the time and required memory to compute combinatorial test sets. The improved theoretical design is implemented in a prototype and benchmarked against the state of the art implementation. Furthermore, the algorithms are made available in a general purpose test generation tool developed for this thesis which is open and free to use by anyone. The thesis also studies the impact of tie-breaking, parameter ordering and tuple enumeration order on the resulting test sets. An extensive experimental study shows that different tie-breakers have no significant impact on average and that ordering parameters in order of descending domain size can lead to drastically smaller test sets.

Diplomarbeitsposter Miheller Martina Karin

Martina Karin Miheller

Masterstudium Software Engineering & Internet Computing
Abstract:

Several organizations are engaged in developing software product lines for specific mobile application domains. Initial test cases are often created at the product line level followed by specialized test cases for each product. The biggest problem is that testing a software product line is often tedious since both common features as well as feature variations must be tested for each product of the line. Furthermore, if organizations seek to embrace new but similar business domains, they must design the test framework for the new software product line from scratch. These issues can delay the testing process and can lead to time delays, irrelevant test results, and/or higher costs. This thesis proposes a proof-of-concept implementation of a re-usable test framework for Android application software product lines. A reverse generalization strategy for the creation of test cases is introduced, which intends to create single test cases at such a generic and re-usable level that one test case can handle all product variants. Consequently, a single test case is enough to cover one use case scenario for all the products of a software product line. The framework provides a set of reusable test cases based on the analysis of common and varying features in a software product line chosen as a representative case study. By supporting the reusability of individual test steps and test cases the time-to-market and cost for new member products and features of the software product line can be reduced and the test process can be accelerated for all products. Finally, the test framework is evaluated using the scenario-based evaluation strategy. The evaluation of the test framework shows that newly added products to the software product line can be easily included in the test framework without any need for major modifications. Thereby, economic efficiency, reduced test effort and fast test coverage of new products is achieved.

Diplomarbeitsposter Naghibzadehjalali Seyedehanahid

Seyedehanahid Naghibzadehjalali

Masterstudium Computational Intelligence
Abstract:

Acoustic Sound Event Detection (SED) has been extensively studies over the past years and is considered an emerging topic in Computational Auditory Scene Analysis (CASA) research which relates to the cocktail party effect. SED systems try to implement the phenomenon ability of the human brain, which enables human to detect any events occurring in the environmental sound in its surrounding. Therefore, these systems are trained in such a way that they classify sound events in the input audio signals. A Sound event is a label used by humans to describe and identify an event in an audio sequence. The proposed methodology used for this thesis is the Artificial Neural Networks (ANNs) which have already shown robust performance on complicated tasks such as Speech Recognition, Natural Language Processing and Image Classification. Different audio input representations such as Constant Q-transform, Mel Frequency Cepstral Coefficient (MFCC) and Mel Spectrogram are also tested from which Mel-Spectrogram proved to be the better representation among the ones mentioned. The ANN architectures studied in this work are the Recurrent Neural Network (RNN) and its extension, Long Short Term Memory (LSTM) and the Convolutional Neural Network (CNN). RNN architecture was chosen because of its ability to capture the temporal behaviour of its inputs and CNN architecturebecauseofitsabilitytolearnthehighlevelfeaturesthroughitsconvolutional layers. To generalize the constructed models, data augmentation was performed and also, the dropout technique was applied to avoid over learning. To evaluate the performance of these models, two datasets provided by the DCASE community for their DCASE 2017 challenge were used. The experimental results of this thesis show the robustness of deep neural networks in comparison with the conventional Multilayer Perceptron, ans Support vector machines which are considered as the baseline systems.

Diplomarbeitsposter Penzenstadler Peter

Peter Penzenstadler

Masterstudium Software Engineering & Internet Computing
Abstract:

Taxonomien und Wissensgraphen in Wissensmodellierung und Extended Entity Relationship (EER) Diagramme in der Software Entwicklung, sind Formen von Konzeptionellen Modellen und dienen als Basis zu Entwicklung von Informations-Systemen. Die Verifizierung dieser Konzeptionellen Modelle gegenüber ihrem Referenzsystem (Spezifikation) ist wesentlich um zu verhindern, dass defekte Model Elemente in den Software Entwicklungszyklus gelangen. Sabou, Winkler et. al, schlagen einen generischen Ansatz zur Verifizierung von Konzeptionellen Modellen (VeriCoM) vor, bei dem die traditionellen Software Inspizierungen mit Hilfe von Human Computation und Crowdsourcing erweitert werden. Die Performance von VeriCoM wurde mit Crowdsourced Software Inspection (CSI) Experimenten getestet, bei dem die Korrektheit eines EER Diagramms in Bezug auf seine textuelle Spezifikation überprüft wurde. Diese Experimente folgten einem hauptsächlich manuell ausgeführten Experiment Prozess, welcher sehr Zeit aufwändig, Fehler anfällig, nicht skalierbar und insgesamt nicht für größere Gruppen von Experiment-TeilnehmerInnen geeignet war. Daher entstand die Notwendigkeit für die Automation dieses Experiment Prozesses durch ein Software Programm. Der Kern dieser Arbeit liegt in der Analyse des CSI-Experiment Prozesses und der detaillierten formalen Definition der benötigten Daten Modelle und Algorithmen zur Automatisierung von VeriCoM. Diese Daten Modelle und Algorithmen werden zur Entwicklung eines Prototypen einer CSI-Plattform herangezogen. Diese CSI-Plattform unterstützt die CSI-Experimente zur Validierung von VeriCoM. Während eines Tests des Prototypen unter Live-Bedingungen im Rahmen eines CSI-Experiments, wurde gezeigt, dass die entwickelte CSI-Plattform die Arbeitslast des Experiment Administrations-Teams stark reduzierte und die anschließende Umfrage zeigte zufriedene Experimentbeteiligte.

Diplomarbeitsposter Plieschnegger Stefanie

Stefanie Plieschnegger

Masterstudium Software Engineering & Internet Computing
Abstract:

This thesis evaluates vulnerabilities that hotspot users face when using real-world public Wi-Fi hotspots. In a field study we assessed such Wi-Fi networks in the wild. We designed an Android app that automatically connects to public Wi-Fi hotspots, interacts with captive portals, and sends bait credentials using SMTP, FTP, IMAP, and HTTP over the network. We controlled the server offering those services and ensured that for every simulated session, unique credentials were used. Thus, in case someone sniffed the data, and tried to use this login credentials, we would have been able to identify this attack. Moreover, we evaluated some general configurations of the hotspots like content filtering. Within over four month, we tested various public Wi-Fi hotspots in seven countries, sending thousands of bait credentials. The services on the bait server kept running for a few more months, but were not able to reveal any network sniffing attacks. However, we revealed that a minority of public Wi-Fi hotspots intercepted SMTP traffic. We also found that every fourth captive-portal-protected Wi-Fi network tampered with HTTPS connections before a successful authentication and thereby triggered certificate errors. Moreover, we experienced various content filtering techniques and found that streaming services with potentially pirated content, and pornographic websites were blocked most frequently. During our field study we could not detect any network sniffing attack, however, we only provided a snapshot of public Wi-Fi hotspots in the wild. We identified some alarming interception techniques. Moreover, we gained some insights about current network configuration decisions, especially regarding trends of blocking certain website content.

Diplomarbeitsposter Schrack Maximilian

Maximilian Schrack

Masterstudium Software Engineering & Internet Computing
Abstract:

Der Prozess des Software Testings ist in den letzten Jahren komplexer geworden. Die Applikationen müssen in unterschiedlichen Soft- und Hardware Umgebungen kompatibel gehalten werden, die sich zudem laufend ändern. Dies kann zum einen die Kombination aus Hardware, Software und Datenbank sein. Zum anderen muss Software heutzutage oft mit Applikationen interagieren, um beispielsweise Informationen auszutauschen oder weitere Verarbeitungsschritte in einem Prozess anzustoßen. Vor allem Schnittstellen zu anderen Systemen stellen beim Überprüfen der Kompatibilität eine große Herausforderung dar, da auf diese meist kein unmittelbarer Einfluss genommen werden kann und auch Informationen über einen neuen Release von Herstellern oft nicht aktiv kommuniziert werden. Dies kann vor allem dann eine Herausforderung darstellen, wenn eine Anpassung an einer Schnittstelle vorgenommen wurde und somit die Kompatibilität mit anderen Systemen nicht mehr gewährleistet ist. Aus der beschriebenen Problemstellung wurde die Fragestellung dieser Arbeit abgeleitet: Inwieweit kann die Überwachung von Technologien im Hinblick auf neue Releases automatisiert werden?

Diplomarbeitsposter Suchan Alexander

Alexander Suchan

Masterstudium Software Engineering & Internet Computing
Abstract:

In this master thesis, we propose a security improvement for traditional unlock patterns as found in modern off-the-shelf smartphones. With our StopUnlock Patterns we propose to add a stop component which lets users define nodes where they deliberately stop for a limited amount of time before swiping to the next node of their unlock pattern. We argue that this stop component lets users select higher entropy patterns with only a minimal impact on usability metrics (such as authentication time and error rate) in comparison to simply increasing the length of the pattern. To evaluate StopUnlock Patterns, we conducted a lab study (n=40), a field study (n=14) and a security evaluation. Our findings suggest that StopUnlock Patterns (i) are easy to use, (ii) are memorable, and (iii) improve security.

Diplomarbeitsposter Walla Klaus

Klaus Walla

Masterstudium Software Engineering & Internet Computing
Abstract:

In den letzten Jahren rückte Hassrede speziell durch deren einfache und anonyme Verbreitung über soziale Netzwerke immer mehr in das Blickfeld der Gesellschaft und stellt mittlerweile ein nicht zu verachtendes Problem dar. Speziell in einem sozialen Medium, wie Twitter, können die großen Mengen an Tweets nur unzureichend auf herabwürdigende Inhalte untersucht werden, um entsprechend darauf zu reagieren. Deshalb soll in dieser Arbeit ein Ansatz beruhend auf Supervised Machine Learning vorgestellt werden, der Hasspostings automatisch als solche identifiziert. Damit dies bewerkstelligt werden kann, wurden Features eingesetzt, die sich bereits in vorangegangen Arbeiten für die Erkennung von offensiven Äußerungen bewährten und Eigenheiten der verwendeten Sprache und des Tweet-Inhalts berücksichtigen. Zusätzlich wurde spezielles Augenmerk auf Features gelegt, die durch die Analyse der Netzwerkstruktur und durch den Einsatz eines für die Hassidentifikation angepasstes Wörterbuch gewonnen werden können. Letztendlich wird mit den resultierenden Features ein Modell eines Klassifikators trainiert, welcher den Tweet als neutral oder hasserfüllt einstuft. Zum Einsatz kamen dabei ein Support Vector Machine-, ein Naive Bayes- und ein Random Decision Forest- Klassifikator. Zur Evaluierung der Performance des Machine Learning Algorithmus wurden verschiedene Experimente durchgeführt, die Aufschluss darüber geben sollen wie sich Features und dessen Kombinationen auf die Exaktheit der Klassifikationen auswirkt, wie gut die Ergebnisse der jeweiligen Klassifikatoren ausfallen und wie die Parameter dieser angepasst werden müssen, um die Resultate weiter zu optimieren. Auf Grundlage der kalkulierten Messwerte soll als Endergebnis dieser Arbeit jene Kombination aus Feature-Set und Klassifikator mit dessen Parametereinstellungen präsentiert werden, von der man sich die beste Identifikation von Hasspostings verspricht.

Diplomarbeitsposter Wiesinger Manuel

Manuel Wiesinger

Masterstudium Software Engineering & Internet Computing
Abstract:

The Rowhammer vulnerability allows the modification of arbitrary data without authorization. This is poses a dramatic security risk for modern computing systems, as it allows malicious attackers to manipulate data or even gain the control over entire systems. This thesis analyzes publicly available attacks based on Rowhammer as well as known defenses against them. Finally, it suggests a novel solution to the problem based on software diversity. As existing attacks are typically based on the predictability of algorithms used in modern operating systems, we aim to prevent these predictability using software diversity. In concreto we present page sacrifice, an easy-to-implement, efficient modification of existing operating system mechanisms which prevents Rowhammer attacks by making the locations of memory blocks unpredictable. This is done by randomly leaving neighboring blocks free when memory is allocated. Leaving memory blocks free does not mean that they remain occupied: As soon as the operating system frees a memory block, it also frees the blocks which were left empty during the memory allocation. To evaluate our defense, we implemented a prototype for Linux which we evaluated using widely known benchmarks.

Diplomarbeitsposter Zawrel Michael

Michael Zawrel

Masterstudium Business Informatics
Abstract:

Die moderne Messtechnik erfordert kontrollierte Umgebungsbedigungen und hochpräzise Maschinen. Für zahlreiche Bildungs- und Forschungseinrichtungen ist die teure Ausstattung ohne Partner nicht mehr leistbar. In dieser Diplomarbeit wird eine Software-Systemarchitektur zur ortsunabhängigen Ansteuerung von Koordinatenmessmaschinen (CMMs) per Internet vorgestellt. Ziel ist, die Bildung von Kooperationen zur Anschaffung von Messtechnikmaschinen zwischen Institutionen voranzutreiben, die bisher, aufgrund ihrer geographischen Distanz, von einem geteilten Investment nicht profitieren konnten. Die präsentierte Referenz-Architektur kann als Vorlage für die Schaffung einer neuen Gruppe an flexiblen Systemen zur Distanzsteuerung von CMMs dienen. Sie nützt eine Web-Applikation als Benutzerschnittstelle und unterstützt sowohl physische als auch simulierte Experimente. Die zentralen Komponenten zur Kommunikation mit der CMM und zur Entgegennahme von Benutzerkommandos ermöglichen parallele Bedienung mehrerer Maschinen und die Durchführung komplexer Operationen. Die Sichtkontrolle von entfernten physischen Maschinen erfolgt per Webcam, simulierte Maschinen werden per Remote-Desktop überwacht. Um ungewollte Kollisionen von Abtastkopf und Messobjekt, ausgelöst durch die Latenz in der Übertragung via Internet, zu vermeiden, wurden einige Änderungen an den Steuerungsmechanismen im Vergleich zu konventioneller, lokaler CMM-Steuerung vorgenommen. Mithilfe einer prototypischen Implementierung der Architektur konnte gezeigt werden, dass die adaptierte Steuerung bei Distanzsteuerung via Internet dieselbe Messgenauigkeit ermöglicht wie aus dem lokalen Netzwerk der CMM. Eine weitere Erkenntnis dieser Arbeit ist, dass sich die Latenz der Internetsteuerung maßgeblich auf den Messvorgang, und in der Folge negativ auf dessen durchschnittliche Dauer auswirkt. Die vorliegende Arbeit soll einen Beitrag zur Etablierung der Feinmesstechnik via Internet leisten und zukünftige Forschung vereinfachen.

Arbeitsbereich Research Division of Distributed Systems

Diplomarbeitsposter Gao Lingfan

Lingfan Gao

Masterstudium Software Engineering & Internet Computing
Abstract:

Mit dem rasanten Wachstum des Internets der Dinge (engl. IoT) ist ein effizientes Management der Ressourcen, aus denen ein IoT-basiertes System besteht, notwendig. Da IoT-Systeme oft zusammen mit der Cloud verwendet werden, bezeichnen wir diese Systeme als IoT-Cloud-Systeme. Es gibt eine Reihe von IOT-Cloud-Systemen, die derzeit in der Literatur untersucht werden, vom Flottenmanagement bis zur Datenzentren-Wartung. Diese IoT-Cloud-Systeme bestehen aus Ressourcen die materiell oder virtuell sein können, wie Sensoren, Netzwerkfunktionen, Software-Artefakte oder Cloud-Dienste. IoT-Cloud-System Szenarien erfordern eine schnelle Fertigstellung und Konfiguration von Ressourcen in Echtzeit, um sich an veränderte Nutzeranforderungen anzupassen. Jeder Ressourcenanbieter verwendet verschiedene Methoden und APIs zur Verwaltung ihrer Ressourcen. Dies funktioniert jedoch heutzutage zu Lasten der Nutzer, die komplette Ressourcen-Pakete sich beschaffen und schließlich benutzen müssen. Der Mehraufwand, der erzeugt wird, um sich separat mit verschiedenen Ressourcenanbietern zu verbinden, ist signifikant. Unser Ziel ist es, diesen Mehraufwand und das für den Nutzer erforderliche Wissen zu reduzieren, um Pakete von IoT, Netzwerkfunktionen und Cloud-Dienste zur Erstellung funktionaler Systeme schnell fertigzustellen und zu konfigurieren. Unser Framework harmonisiert die Repräsentation von Ressourcen und Ressourcen Anbietern durch die Abstraktion höherer Informationsmodelle. Mit den Abstraktionen, die diese Informationsmodelle bieten, sind wir in der Lage, eine einheitliche API zur Verwaltung von Ressourcen zur Verfügung zu stellen, ohne uns mit den dazugehörigen Informationen auf niedrigerem Level für verschiedene Arten von Ressourcen und Infrastrukturen zu befassen. Schließlich bieten wir eine Bewertung unseres Frameworks auf einer funktionalen sowie Leistungsebene.

Diplomarbeitsposter Konlechner Rafael

Rafael Konlechner

Masterstudium Software Engineering & Internet Computing
Abstract:

Die effiziente Abwicklung von Teilladungstransporten stellt wegen kurzfristiger Änderungen im Transportbedarf für die strategische Fahrplanberechnung eine Herausforderung dar, die zu schlecht ausgelasteten Transportfahrzeugen und zu vielen ökonomisch und ökologisch problematischen Leerkilometern führt. In dieser Arbeit stellen wir eine technische Lösung zur Erfassung von Echtzeitdaten in Logistiknetzwerken vor, mit deren Hilfe gewisse Entscheidungen der Transportplanung und Fahrplanerstellung vom strategischen in den operationalen Horizont rücken, um die Effizienz von Teilladungstransporten zu erhöhen. Im Detail präsentieren wir eine Systemarchitektur, die es erlaubt, Daten aus heterogenen Datenquellen — wie etwa Internet of Things (IoT) Sensoren und Datenservices — zu einem detailreichen, aktuellen Abbild der physischen Realität zusammenzuführen, um auf Basis dieses Abbildes mit Methoden aus dem Operations Research dynamische Fahrpläne abzuleiten, die besser auf Bedarfsfluktuationen reagieren können. Mit Dynamic Transshipment with Time Constraints in a Finite Planning Horizon und Vehicle Assignment definieren wir formal zwei mathematische Optimierungsmodelle, deren sequentielle Ausführung der dynamischen Berechnung von Fahrplänen dient und die Beschränkungen auf Lieferzeiten, Transportkapazitäten und Umschlagsvolumina berücksichtigen. In einer Auswertung mit operativen Daten eines österreichischen Logistikunternehmens zeigen wir die deutlichen Effizienzsteigerungen eines dynamisch errechneten Fahrplans, im Vergleich zu statischen Fahrplänen. Unsere Ergebnisse zeigen eine Verringerung der Gesamtzahl an gefahrenen Kilometern um durchschnittlich 15.2% und eine Erhöhung der Fahrzeugauslastung um 2.8 Prozentpunkte. Durch die Einführung eines Systems zur Behandlung von zu Verspätung führenden Ausnahmezuständen — etwa Fahrzeuggebrechen oder Verkehrsverzögerungen — zeigen wir zudem die Robustheit des Systems gegenüber ebensolchen Zwischenfällen.

Diplomarbeitsposter Krejci Simon

Simon Krejci

Masterstudium Software Engineering & Internet Computing
Abstract:

Die Blockchain und das Internet der Dinge (IoD) sind aufkommende Technologien. Die Blockchain kann als öffentliches, verteiltes Kontobuch beschrieben werden, welches auf einem Peer-to-Peer-Netzwerk aufgebaut ist. Das IoD ist eine Verknüpfung von Sensoren und Aktoren, in der Informationen über Plattformen hinweg ausgetauscht werden können. Die Blockchain hat das Potential, Probleme im IoD zu lösen. Aus diesem Grund, beschäftigt sich diese Diplomarbeit mit der Frage, wie die Blockchain aus softwaretechnischer Sicht im IoD verwendet werden kann. Im Laufe dieser Arbeit entwickeln und implementieren wir die Blockchain-IoD-Anwendung, welche Ethereum verwendet. Die Anwendung kann Daten von Sensoren erfassen und über zwei Kommunikationskanäle verteilen. Darüber hinaus ist der IoD Klient implementiert, der in der Lage ist, die Verzögerungen beider Kommunikationskanäle zu überwachen und die relevanten Informationen der Blockchain für die abschließende Auswertung zu verfolgen. Die entwickelte Anwendung wird schließlich auf drei verschiedenen Geräten evaluiert, nämlich auf einem Intel Galileo Gen2, einem Odroid-XU4 und einem Raspberry Pi 3. Ein Ergebnis dieser Arbeit ist die Blockchain-IoD Anwendung und der IoD Klient. Das gesamte Framework ist in der Lage, Daten von Sensoren zu sammeln und über einen Echtzeitkanal und einen Kanal mit garantierter Integrität zu verteilen. Zusätzlich ist der IoD Klient in der Lage, die Verzögerungen beider Kanäle und die Bestätigungszeiten von Transaktionen in Ethereum zu überwachen. Unsere Ergebnisse zeigen, dass Ethereum auf dem Intel Galileo Gen2 nicht anwendbar ist. Die Einrichtung der entwickelten Anwendung auf den anderen Geräten funktioniert. Unterschiedliche Arbeitsauslastungen zeigen jedoch, dass die Portabilität der Anwendung eingeschränkt ist. Die beste Leistung in Bezug auf Verluste von Nachrichten in der Kommunikation erzielt der Raspberry Pi 3.

Diplomarbeitsposter Meixner Sebastian

Sebastian Meixner

Masterstudium Software Engineering & Internet Computing
Abstract:

With the growing popularity of the Internet of Things, we see a trend towards combining traditional cloud computing with resources available at the edge of the network. This way it becomes possible to exploit the complementary characteristics of both types of platforms. However, unifying the two types of platforms poses new challenges to developers and operational staff alike, as it becomes increasingly harder to determine where services should run based on their non-functional- and runtime-requirements, while simultaneously utilizing the resources at hand in an optimal way. Manually deciding where each individual service should run, and rolling them out becomes unfeasible, especially with a large number of individual services, which tends to be the case in a microservice architecture. Furthermore, once the services are deployed into production, it becomes necessary to monitor their runtime behavior to detect a deterioration of the individual services' quality of service parameters as well as those of the system as a whole. Thereby, it becomes possible to take actions to prevent quality of service and service level agreement violations. Additionally, the collected information can be used to optimize future the deployment plans for the services. In this work we propose a holistic approach towards supporting developers and operational staff in creating and running applications that employ a microservice architectural pattern. To realize this approach we prototypically implement a Data-Driven Automatic Deployment framework which allows the transparent deployment of services onto cloud and edge hosts alike. Furthermore, it provides a uniform monitoring mechanism for the services, which enables an event-based mechanism for runtime adaptation.

Diplomarbeitsposter Wedenik Benedikt Peter

Benedikt Peter Wedenik

Masterstudium Software Engineering & Internet Computing
Abstract:

In the last years the demand for information availability and shorter response times has been increasing. Today’s business requirements are changing: Waiting hours or even days for the result of a query is not acceptable anymore in many sectors. The response needs to be immediate, or the query is discarded - This is where "Fast Data" begins. With the SMACK Stack, consisting of Spark, Mesos, Akka, Cassandra and Kafka, a robust and versatile platform and toolset to successfully run Fast Data applications is provided. In this thesis a framework to correctly scale services and distribute resources within the stack is introduced. The main contributions of this thesis are: 1) Development and evaluation of the mentioned framework, including monitoring metrics extraction and aggregation, as well as the scaling service itself. 2) Implementation of two real-world reference applications. 3) Providing infrastructure management tools to easily deploy the stack in the cloud. 4) Deployment blueprints in form of recommendations on how to initially set up and configure available resources are provided. To evaluate the framework, the real world applications are used for benchmarking. One application is based on IoT data and is mainly I/O demanding, while the other one is computationally bound and provides predictions based on IoT data. The results indicate, that the framework performs well in terms of identifying which component is under heavy stress and scaling it automatically. This leads to an increase of throughput in the IoT application of up to 73%, while the prediction application is able to handle up to 169% more messages when using the supervising framework. While the results look promising, there is still potential for future work, like using machine learning to better handle thresholds or an extended REST API.

Arbeitsbereich Research Division of Business Informatics

Diplomarbeitsposter Carneiro Thiago

Thiago Carneiro

Masterstudium Software Engineering & Internet Computing
Abstract:

Over the past few years, the use of Voice over Internet Protocol (VoIP) systems in our daily lives has increased and, therefore, they are becoming a target for attackers trying to obtain benefits from such systems. To obtain insights of VoIP attackers and increase VoIP security, researchers use security measures, e.g., honeypots or honeynets to capture and analyze VoIP attacks over the Internet. The collected data, recorded over a long period of time, by a honeynet VoIP system already implemented, were used to analyze VoIP security threats by studying the several millions of real-world attacks collected. Based on this real-world collected data from the honeynet, a concept was pro- posed to identify VoIP attackers using behavior analysis and identification methods. The concept proposes a hybrid data-mining technique for attacker identification based on a combination of Density-Based Spatial Clustering of Applications with Noise (DBSCAN) or k-means for clustering algorithm and Naïve Bayes for classification algorithm. The goal of this thesis is to provide a deeper insight into the collected data in order to identify VoIP attackers. The effectiveness of the concept is demonstrated with a Proof-of-Concept (PoC) implementation that was developed as part of this work. The PoC delivered some interesting and promising results which support the potential of the concept to identify attackers based on their behavior.

Diplomarbeitsposter Decker Roman

Roman Decker

Masterstudium Software Engineering & Internet Computing
Abstract:

In der heutigen Welt der Software-Entwicklung kommt eine Vielzahl an diversen Tools zum Einsatz: Versionskontrollsystem, Issue-Tracker sowie Continuous-Integration-Software bilden zumeist das Rückgrat eines professionellen Software-Projekts. Diese Werkzeuge generieren über den Projektverlauf große Mengen an Daten, welche dem Entscheidungsprozess des Projektpersonals potenziell nützlich sein könnten. Zwar existieren bereits Visualisierungs-Tools, diese nützen allerdings meist nur eine einzelne dieser Datenquellen. Durch Kombination und Querreferenzieren der Daten aus verschiedenen Quellen können interessante Verbindungen aufgedeckt werden. Diese Arbeit stellt ein Werkzeug vor, welches interaktive, zeitbasierte Visualisierungen aus Versionskontrolle, Issue Tracker und Continuous Integration(CI)-Daten erzeugt: ZIVSED (Zoomable Interactive Visualizations of Software Engineering Data). Die Arbeit befasst sich konkret mit der Konzeptionierung, Implementierung, sowie Evaluierung des Tools. Anhand einer Anforderungsanalyse werden zunächst auf Basis einer Literaturrecherche potenziell nützliche Fragestellungen ermittelt, welche mit Visualisierungen beantwortbar sind. In der anschließenden Ist-Analyse werden bestehende Lösungen untersucht und verglichen. Nachdem so der Zielrahmen für die zu implementierenden Visualisierungen gesetzt ist, beschäftigt sich die Arbeit mit der Implementierung dreier neuer Visualisierungen zur Beantwortung ausgewählter Fragestellungen. Schließlich werden die entwickelten Visualisierungen anhand einer Expertenevaluierung evaluiert.

Diplomarbeitsposter Detamble Christian

Christian Detamble

Masterstudium Software Engineering & Internet Computing
Abstract:

Since its publication in 2008, Query/View/Transformation-Relations (QVTr) claims to be the standard model transformation language (MTL) for the declarative specification of model transformations, and has been used as an enabling formalism. In consideration of productivity being a central goal in MDE, it is vital for tools and editors to maximize the usability of their implementing MTL. However, taking into account the current state of the art in tools for QVTr, several shortcomings are revealed. First, the availability of matured tools is sparse, and furthermore, they have been developed with the goal to enable the underlying technology. Their design is not user-centered and, in particular, they lack from a poor level of automation and interactivity. In addition, we identify a lack of support for short feedback cycles, which significantly influences the usability of both the editor and implementing MTL. Finally, we consider the neglection of QVTr's concrete, graphical syntax in state of the art editors as unused potential for an increase in readability and traceability. In the context of this thesis, we shed light on the impact of an increase in interactivity, automation, readability, traceability, the usage of QVTr's graphical syntax, and of short feedback cycles on the usability of QVTr. For this purpose, we propose a theoretical concept comprising techniques to push the modeling process towards a user-centered approach. The underlying key principles of our concept comprise the so called outward modeling style, a suggestion-driven process, interactive graphical model visualizations and the enforcement of conventions. To show the feasibility of our approach, we conduct user experiments in an industrial context at the LieberLieber Software GmbH company in Vienna, using a prototypical implementation.

Diplomarbeitsposter Dopplinger Marc

Marc Dopplinger

Masterstudium Business Informatics
Abstract:

Model Engineering wird immer wichtiger, da die Nutzung von Modellen in der Software Entwicklung zu nimmt. Gleichsam bedeutend ist es das die Modelle leicht zu adaptieren und zu erweitern sind. Allerdings ist dies nicht immer Möglich. Dies kann zum Beispiel sein wenn das Modell nicht von einem selbst entwickelt wurde und es notwendig ist die Kompatibilität zu wahren. Deshalb wurden mehrere leichtgewichtige Erweiterungsmechanismen entwickelt. Zum Beispiel UML Profile für UML Diagramme oder EMF Profile für Standard Diagramme des Eclipse Modeling Frameworks (EMF). Diese erlauben es ein bestehendes Diagramm zu erweitern ohne das original Modell zu ändern. Aber leider haben diese leichtgewichtigen Erweiterungen einen Nachteil. Nur wenige Modell Transformationssprachen besitzen eine Unterstützung für diese. Die Atlas Transformation Language (ATL), zum Beispiel, kann nur über die unterliegende Java API darauf zugreifen und RubyTL bietet überhaupt keine Unterstützung an. Im Rahmen dieser Arbeit soll eine Erweiterung entwickelt werden die es RubyTL erlaubt sowohl UML als auch EMF Profile zu verarbeiten. Dabei soll die Erweiterung nicht in den bestehenden Programmcode von RubyTL eingreifen. Um diese Anforderung zu erfüllen werden Modellprozessoren verwendet. Diese integrieren das Profil in das bestehende Diagramm wodurch das Profil dann zu einem kompletten Bestandteil des ursprünglichen Diagramms wird. Dadurch ist es der Transformationssprache möglich auf die Informationen des Profils zuzugreifen. Weiters soll es möglich sein die Modellprozessoren auch mit anderen Transformationssprachen, wie ATL, verwenden zu können. Als Abschluss der Arbeit wird gezeigt wie man mit den Modellprozessoren bestehende Diagramme verarbeiten kann. Dabei wird gezeigt wie man die Prozessoren benutzt und wie die Transformationsregeln aussehen. Da ATL bereits UML Profile unterstützt, wird an Hand von ATL gezeigt wie die Modellprozessoren die Transformationsregeln vereinfachen können.

Diplomarbeitsposter Kletzander Christian

Christian Kletzander

Masterstudium Business Informatics
Abstract:

The interoperability for exchanging behavioural models between different tools in automation is only achieved by a small amount, which are supporting standardized import and export formats. There is no transformation framework existing for exchanging different behavioural models through a standardized kernel language. The literature describes several techniques to transform a modelling language into another pre-defined modelling language, but all of these are fixed to specific types of modelling languages and do not support the general exchange between any behavioural modelling language. In this thesis, I introduce a new technique that allows exchanging a small amount of behavioural modelling languages through a standardized kernel language based exchange framework. I am using the Intermediate Modelling Layer (IML) from the AutomationML consortium as a kernel language for exchanging activity-on-node networks (AONN) into GANTT charts and back. By doing a case study based evaluation the generated input and output models of the different behaviour modelling types are analysed for possible information loss after exchanging them. The round trip transformation from GANTT to AONN and back has no information loss, whereas AONN to GANTT and back loses information attributes like delay, latest start time point, earliest start time point and latest end time point.

Diplomarbeitsposter Minkowitsch Stephan

Stephan Minkowitsch

Masterstudium Business Informatics
Abstract:

As part of Facility Management (FM), properties, buildings, floors, spaces, equipment, devices and people are administered, and their cost-relevant processes are optimized. To implement FM efficiently, Information Technology (IT) is necessary, specifically Computer-Aided Facility Management (CAFM) systems. At many universities a high potential for optimization exists around FM, whereby the demand for CAFM software products has increased considerably. This need was the impetus and motivation for this thesis. The two main goals of this thesis were, on the one hand, to take stock of the use of CAFM systems at German and Austrian universities with a focus on room and floor-space management. And, on the other hand, to create a catalog of criteria for the selection of CAFM software products for this sector. As a result of an in-depth literature review, it was possible to find fundamentally important CAFM basic criteria as well as university domain-specific criteria. Based on this, both freely available open-source and commercial CAFM solutions were analyzed and evaluated. It turned out that established CAFM software met the criteria sufficiently, while open-source solutions were inappropriate for professional use at a German or Austrian university. An extensive empirical investigation was conducted among Facility Managers in the university environment. The data obtained were first aggregated by means of qualitative topic analysis and then quantitatively evaluated using descriptive and inferential statistics. The findings were used, among other things, to take stock of CAFM. As a result of the literature research, the product analysis and the empirical survey, a CAFM criteria catalog was finally developed. Using methodology presented for categorization and prioritization of requirements, Facility Managers of German and Austrian universities can use the hereby developed criteria catalog to identify the most suitable CAFM software solution for the respective university.

Diplomarbeitsposter Plettenberg Rudolf

Rudolf Plettenberg

Masterstudium Business Informatics
Abstract:

Predictive Maintenance ist ein neuer Ansatz für das Fällen von Wartungsentscheidungen und ermöglicht eine Senkung von Wartungskosten, eine Steigerung der Produktion, sowie eine Erhöhung der Sicherheit und des Umweltbewusstseins. Bei Predictive Maintenance werden permanent daten über den Zustand einer Maschine gesammelt und verwendet, um Vorhersagen über künftige Ausfälle zu treffen. Auf Grund des Volumens, der Geschwindigkeit, und der Vielfalt der gesammelten Daten werden für deren Analyse spezielle Software Frameworks aus dem Bereich der Big Data Analyse benötigt. Benchmarks erlauben es die Leistung von Frameworks zu messen und dienen daher gleichzeitig als Basis dafür, diese zu vergleichen. Durch den branchenweiten Einsatz von Big Data Analyse, und die daraus resultierenden unterschiedlichen Einsatzgebiete, ist es wichtig die Frameworks innerhalb eines bestimmten Aufgabengebietes zu vergleichen. Zurzeit existieren solche Big Data Benchmarks für die Bereiche des Handels, der Sozialen Netzwerke, der Web Suche, sowie der Bioinformatik. Es gibt allerdings derzeit keinen Benchmark, der den Tätigkeitsumfeld von Predictive Maintenance abdeckt. Die vorliegende Diplomarbeit stellt daher den Predictive Maintenance Benchmark (PMB) vor. Der PMB setzt sich zum Ziel, die Leistung von Big Data Analyse Frameworks an Hand von Aufgaben aus dem Bereich Predictive Maintenance zu testen. Das Datenmodell und das Arbeitsvolumen von PMB repräsentieren hierbei typische Aufgaben eines Predictive Maintenance Systems. Nach der Entwicklung des PMBs, wird er auf den zwei populären Big Data Frameworks Hadoop und Spark implementiert. Die Resultate der jeweiligen Implementationen dienen als Basis für den Leistungsvergleich zwischen Hadoop und Spark. Schlussendlich wird der PMB durch Erkenntnisse, die während der Planung, Implementierung und Analyse der Resultate gewonnen wurden evaluiert. Zusätzlich werden die Resultate des PMBs noch an Hand ähnlicher Studien validiert.

Diplomarbeitsposter Proyer Clemens

Clemens Proyer

Masterstudium Business Informatics
Abstract:

The measurement of the knowledge change of employees as well as the transfer is discussed in this thesis. Although these two terms are often used synonymously, there is a difference between them. Learning is adapting to a situation whereas transfer is applying the knowledge to similar situations. There are many approaches to measuring learning success or transfer, most of which originate in educational science. In this thesis we consider the special case of innovation courses, where there are further requirements that must be met. Unfortunately, the existing frameworks are not designed for these requirements and are therefore not sufficient. An innovation course is a long-term course in which employees of companies are taught in a certain topic. Such an innovation course consists of several modules for which both the measurement of learning success and knowledge transfer for the participants must take place. To achieve this and to make the measurements repeatable and objective, we have developed a framework. We use the Design Science Approach to develop the framework. However, the goal is not to create a static artefact that can only be applied to the course of our case study, but to design a framework that is also easily adaptable and applicable in other innovation courses or in a similar environment. To test and improve the framework, we use it in four modules of the DigiTrans 4.0 innovation course. For three of the four modules of our case study, the difference between the knowledge before the module and at the end is statistically significant. We also create linear models to explain or predict the transfer. The models are created with and without heteroscedasticity adjustment. The results of the models are slightly different, but show a common trend, which originates from the same background formula. Since these characteristics are known in the literature of knowledge transfer, the framework created is well suited for measuring the transfer.

Diplomarbeitsposter Schindler Stefan

Stefan Schindler

Masterstudium Software Engineering & Internet Computing
Abstract:

Die Modellversionierung wird durch die wachsende Popularität und Verbreitung von domänenspezifischen Modellierungssprachen ein immer wichtigerer Bestandteil in der Softwareentwicklung, wenn dafür modellbasierte Methoden verwendet werden. Im selben Kontext kann die modellbasierte Systementwicklung (MBSE) genannt werden. Modelle und die verteilte, kollaborative Arbeit damit, gewinnen immer mehr an Stellenwert. SysML ist eine domänenspezifische Modellierungssprache zur Systementwicklung. Die quelloffene Entwicklungsplattform Eclipse bietet mit dem Eclipse Modeling Framework eine hervorragende Plattform für die Softwareentwicklung mit modelgetriebenen Methoden. Die Initiative „Collaborative Modeling with Eclipse“ bietet auf Basis der genannten Technologien und dem Modellierungswerkzeug Papyrus eine Modellierungsplattform an, die es ermöglichen soll, in Teams komfortabel an und mit Modellen zu arbeiten. Diese Arbeit versucht die Ergebnisse, die bei Vergleichen von SysML Diagrammen in der genannten Modellierungsplattform erzielt wurden, zu verbessern. Dazu wurde eine Reihe von Modellvergleichen durchgeführt und analysiert, die einige Schwachpunkte in der Differenzerkennung und Visualisierung aufgedeckt haben. Durch die Entwicklung geeigneter Erweiterungen für das EMF Compare Plugin ist es gelungen diese Schwachpunkte zu beheben.

Diplomarbeitsposter Schwarz Andreas

Andreas Schwarz

Masterstudium Software Engineering & Internet Computing
Abstract:

Im Rahmen dieser Arbeit wird eine Lösung zur roboterunterstützten Testautomation mobiler Ap- plikationen erarbeitet. Die Entwicklung eines Testroboters ermöglicht den automatisierten Test einer NFC-Zahlungsapplikation. Die Relevanz und Praxistauglichkeit wird anhand eines Projekts, welches kontaktlose Zahlungsvorgänge mittels der Technologie NFC realisiert, evaluiert. Zusätz- lich zur Testautomation der Zahlungsvorgänge wird die Lösung mit einem Testmanagementsystem verknüpft. Dadurch erfolgt eine kontinuierliche Speicherung der Testergebnisse und es wird eine nachverfolgbare Testdokumentation sichergestellt. Jeder Benutzer des Testmanagementsystems kann ohne besondere Hardwarekenntnisse diese Testdurchführungen starten. Die Arbeit beginnt mit einer Einführung in relevante Grundlagen des Testens von Software. An- schließend wird ein Überblick über das Testen mobiler Applikationen und der roboterunterstützten Testautomation gegeben. Bevor die Implementierung der entwickelten Lösung vorgestellt wird, folgt die Analyse des gewählten exemplarischen Softwareprojekts, in dessen Rahmen diese Arbeit Anwendung findet. Die Analyse erläutert die Architektur des Softwareprojekts und zeigt, wie sich die roboterunterstützte Testautomation in diese Umgebung einfügt. Die Umsetzung beschreibt die Implementierung des Testframeworks und der, für das exempla- rische Softwareprojekt notwendigen, spezifischen Komponenten. Das Testframework dient als Schnittstelle zwischen Testmanagement- und Testautomationswerkzeugen. Nachfolgend wird die Entwicklung des Testroboters erläutert. Nach der Integration des Frameworks und des Testroboters wird der Lösungsansatz evaluiert. Die Arbeit schließt mit dem Ausblick, bei dem Erweiterungen und zusätzliche Anwendungsszenarien diskutiert werden.

Diplomarbeitsposter Zoubek Florian

Florian Zoubek

Masterstudium Visual Computing
Abstract:

Code Reviews werden in vielen aktuellen Softwareprojekten zur Prüfung von Änderungen eingesetzt. Ziel dieser Code Reviews ist es Fehler, die durch Änderungen an dem Code entstanden sind, frühzeitig zu erkennen und zu verhindern, bevor diese in das Projekt integriert werden. Zur Unterstützung dieses Überprüfungsprozesses existieren bereits verschiedene Review Tools. Diese erlauben es einzelne, problematische Teile des Quelltextes zu markieren, kommentieren und mit anderen Personen zu diskutieren, sowie den Verlauf des Reviews nachzuvollziehen. Zusätzlich erlauben sie es auch die Änderungen zurückzuweisen oder anzunehmen. Diese Tools sind primär auf Text-Daten ausgerichtet. Die Artefakte die im Zuge eines Reviews betrachtet werden müssen, sind jedoch nicht nur auf Quelltext beschränkt, sondern betreffen neben anderen Artefakten oft auch Modelle und Diagramme. Das inkludiert auch Diagramme und Modelle die durch eine grafische Syntax beschrieben werden, jedoch nicht notwendigerweise eine für den Benutzer lesbare textuelle Repräsentation besitzen. Ein Beispiel dafür sind Papyrus UML Diagramme. Daher werden die Visualisierungsmethoden existierender Review Tools für diese Art von Modellen als nicht zufriedenstellend eingestuft. Stattdessen werden diese Review Tools mit anderen Tools kombiniert, die diese Art von Modellen vergleichen können, aber den Überprüfungsprozess nicht unterstützen. Dies erhöht jedoch auch die Komplexität und bedeutet einen höheren Aufwand, der sich negativ auf den Überprüfungsprozess auswirken kann. In dieser Diplomarbeit werden Visualisierungen und Interaktionstechniken vorgestellt die Entwickler bei dem Überprüfungsprozess von Diagrammen und Modellen, die durch eine grafische Syntax beschrieben werden, unterstützen. Zur Untermauerung dieser Visualisierungen und Interaktionstechniken wird eine Fallstudie präsentiert, die mit einem Prototyp durchgeführt wurde der auf dem Eclipse Modeling Framework aufbaut.

Arbeitsbereich Research Division of E-Commerce

Diplomarbeitsposter Hofstätter Sebastian

Sebastian Hofstätter

Masterstudium Software Engineering & Internet Computing
Abstract:

A search engine ranks documents based on their relevance to the query – using only exact word matches might miss results. Expanding a document retrieval query with similar words gained from a word embedding offers great potential for better and richer query results. The expansion of the search space allows to retrieve relevant documents, even if they do not contain the actual query. An additional word improves the query results only if it is relevant to the topic of the search. Studies have shown that some of the added words, gained from an out-of-the-box word embedding, have a negative impact on the retrieval performance. We adapt an existing word embedding, so that it will improve the effectiveness of document retrieval. The changes we conduct in the local neighborhoods tailor the word embedding to Information Retrieval requirements. We focus on highly related, local neighborhoods inside the word embedding, because we use the information gained from them in the expansion of a retrieval query. For the adaption we incorporate external resources into the word embedding with Retrofitting. We experiment with different external resources: Latent Semantic Indexing, semantic lexicons (f.e. WordNet), and different combinations of both. We analyze changes in the local neighborhoods of query terms and global differences between the original and retrofitted vector spaces. We evaluate the effect of the changed word embeddings on domain-specific retrieval test collections, where we report improved results on some test collections. In conclusion, we show that different retrieval domains are best served with different models.

Diplomarbeitsposter Ohrfandl Christian

Christian Ohrfandl

Masterstudium Business Informatics
Abstract:

The main objective of this thesis consists of the design of a recommender system, representing a novel method concerning the computational recommendation of early-stage enterprises to investors. Based on the results of the Investment Decision-making & Venture Valuation specialization topic, it can be concluded that the most important characteristics investors base their investment decisions on, are stated as the quality, size and composition of the management team, product- & public interest and the industry / market sector of an early-stage enterprise. Furthermore, the venture valuation methods most utilized by investors, most meaningful in terms of valuation quality in the context of early-stage enterprises and most beneficial when utilized in a recommendation system, are stated as the scorecard- and berkus methods. Finally, investors' requirements among the functionality of a recommender system in the domain of early-stage enterprise investment may be concluded as the construction of an investor profile. The shared part Recommender Systems addresses the conceptualization of a recommendation system in the domain of early-stage enterprise investment. The resulting recommender system unites various types of recommenders, that is, Collaborative filtering, content-based-, knowledge-based-, social- and hybrid recommendation algorithms. Additionally, the conceptual model of this very recommender system has been implemented as a highly scalable, plugin-based software prototype that may be easily extended by different recommendation algorithms in future work. The most important opportunity for future research is stated as qualitative- or quantitative evaluations of recommendation quality in terms of user satisfaction. These evaluations may answer the question, whether the implemented design decisions improve a user's utility when using the system.

Diplomarbeitsposter Rohrer Florian

Florian Rohrer

Masterstudium Software Engineering & Internet Computing
Abstract:

Applications such as vehicle routing systems, smart city applications and augmented reality games are new and demanding applications that have very low latency requirements.Fog Computing is a new computing paradigm that will pave the way for these applications.To that end, service providers will deploy their hardware (gateways, routers, servers)outside of data centers in order to move their infrastructure as close as possible to theirusers. In order to get benefit from the infrastructure, users have to be assigned to the rightservers, depending on their physical location. Simultaneously, the users’ applications,have to be assigned to the same servers, ideally such that they are in close proximity to their users. The different objectives of both service providers and users, as well asphysical limitations and constraints, however, make this assignment task a challenging problem. We capture user and service provider goals by six different objective func-tions (user distance, power consumption, resource waste, failure probability, reachability, userevenness). We use Biogeography-based optimization (BBO), a kind of genetic algorithm inspired by nature, to find solutions that simultaneously minimize all these functions ina multiobjective Pareto approach. As exact solutions are hard to obtain, we compare BBOagainst a greedy algorithm and the Genetic Algorithm (GA). Our extensive simulations suggest that BBO is indeed applicable to find reasonably good solutions, however results vary upon the used objective function. BBO generally outperforms the greedy algorithm in almost all of the instances and often delivers slightly better results than GA as well,especially for smaller instance sizes. The work shows that BBO is an admissible approach for solving this assignment problem encountered in Fog Computing which can lead to lower latency for user applications and cost savings and higher availability guarantees for service providers.

Diplomarbeitsposter Sertkan Mete

Mete Sertkan

Masterstudium Business Informatics
Abstract:

Nowadays, researching online before booking a vacation can be seen as a common habit of customers. In this context, Recommender Systems (RSs) are aiming to support the customers to find the right products, but they face domain specific challenges since tourism products are typically very complex and related to emotional experiences. To counteract these challenges, comprehensive user models for capturing the preferences and personality of travelers have been introduced. One of these models is the so-called Seven-Factor Model. This work introduces an automated way for determining the Seven- Factor representation of tourism destinations and hotels to enable a matchmaking for RSs. In particular, exploratory data analyses, cluster analyses, and regression analyses are conducted not only to find a mapping of tourism destinations and hotels onto the Seven- Factors, but also to foster a better understanding of the relationship between destination attributes and the Seven-Factors, and between hotel attributes and the Seven-Factors. The main results show that conceptually meaningful groups of destinations and hotels as well can be identified and associated with the Seven-Factors, but they can only be used for direct allocations rather than for determining each factor of the Seven-Factor Model. Furthermore, the regression analyses provide clear evidence that a tourism destination’s Seven-Factor representation and a hotel’s Seven-Factor representation can be determined by taking the respective attributes into account. In general, the quality of the developed models varies for different factors of the Seven-Factor Model and also for different tourism products (i.e., destination and hotels). Finally, the introduced approach can easily be followed for new data sources and product types.

Diplomarbeitsposter Winkelhofer Matthias

Matthias Winkelhofer

Masterstudium Business Informatics
Abstract:

Diese Diplomarbeit zählt zum Bereich Service Design. Bedingt durch die Relevanz und Bedeutung solcher immaterieller Leistungen für die aktuelle Geschäftswelt und unser tägliches Leben, erfordert deren Entwicklung, Analyse, Dokumentation und Kommunikation eine strukturierte Herangehensweise. Service Blueprinting ist in diesem Zusammenhang ein grafisches Konzept welches den Standpunkt des Kunden in den Fokus stellt. Der eher abstrakte Charakter der Methodik und die generellen Anforderungen des modernen Prozessmanagements können jedoch erfordern, dass weitere detailliertere Modellierungssprachen angewendet werden. Als Antwort auf diese Gegebenheit befasst sich die Diplomarbeit mit der Idee, eine Repräsentation eines Services in Form eines Blueprints systematisch einzulesen und automatisch ein entsprechendes BPMN-Modell zu generieren. Nach der Behandlung der theoretischen Grundlagen (Elemente und Konzepte) wurde die Case Study „emergency admission of a patient at a surgical ward within an Austrian hospital“ entworfen. Die Entwicklung des theoretischen Konzepts bildet den nächsten Schritt. Als Vorbedingung ist es jedoch erforderlich, ein einheitliches Set an Funktionalitäten für Service Blueprints zu definieren, welches auf Vorschlägen aus der Fachliteratur sowie auf gewonnenen Erkenntnissen beruht. Um zu belegen, dass die entworfene Transformation geeignet ist um Prozessmodelle aus Blueprints zu gewinnen, ist der finale Teil der Arbeit der Entwicklung eines Prototyps gewidmet. Zur IT gestützten Erstellung eines Service Blueprints wurde eine individualisierte Library für die Modellierungssoftware Draw.io entwickelt. Die Durchführung zahlreicher Tests mit der neuen Implementierung hat gezeigt, dass die geplante Kombination der beiden Modellierungssprachen tatsächlich möglich ist. Durch die unterschiedlichen Abstraktionsebenen beider Seiten sollte das resultierende BPMN-Modell noch zusätzlich erweitert bzw. verfeinert werden um auch alle Erfordernisse abzudecken.

Arbeitsbereich Research Division of Compilers and Languages

Diplomarbeitsposter Fraller Benjamin

Benjamin Fraller

Masterstudium Software Engineering & Internet Computing
Abstract:

Funktionale Konzepte sind wegen paralleler Programmierung und günstiger Mehrkernprozessoren sehr beliebt. Immer mehr objektorientierte Sprachen verwenden daher funktionale Konzepte. So wurden in Java 8 unter anderem Lambda-Ausdrücke und Streams hinzugefügt. Verhalten kann dabei in Form von Daten als Funktionen höherer Ordnung übergeben werden. Streams ermöglichen deklarativ eine sequenzielle und parallele Verarbeitung von Daten. In dieser Arbeit sollen Vor- und Nachteile der Konzepte und die Umsetzung, über Dekompilierung in JVM-Bytecode analysiert und mit anderen Sprachen verglichen werden. Die Laufzeit-Performance alter und neuer Konzepte wird über Benchmarks verglichen. Es wird geklärt, wann parallele Streams verwendet werden sollen, ob die IBM J9 schneller als die HotSpot JVM ist und ob Java oder Scala parallel schneller ist. Über Haskell sollen fehlende funktionale Konzepte von Java aufgedeckt und Alternativen bereitgestellt werden.Lambda-Ausdrücke und Streams benötigen weniger Code und sind lesbarer und wartbarer. Dafür ist Exception-Handling und Debugging umständlicher. Lambdas werden in der JVM zur Laufzeit über invokedynamic umgesetzt. So werden keine class Dateien erzeugt und die Übersetzungsstrategie kann zukünftig trotz Rückwärtskompatibilität optimiert werden. Die durchgeführten Benchmarks zeigen, dass sequenzielle Streams etwas langsamer als Schleifen sind. Parallele Streams bieten meist einen Performance-Vorteil, sollten jedoch nur bei passenden Quellen, vielen Elementen und komplexen Operationen verwendet werden. Java ist durch Streams für primitive Datentypen wegen Boxing/Unboxing schneller als Scala Collections. Bei funktionalen Konzepten hat Java Nachholbedarf. Es gibt zwar Monaden und eine verzögerte Auswertung bei Streams. Jedoch treten bei Rekursion wegen fehlender Optimierungen Stackoverflows auf. Algebraische Datentypen und Pattern-Matching werden unzureichend unterstützt, können jedoch über Lambdas selbst umgesetzt werden.

Diplomarbeitsposter Grill Andreas

Andreas Grill

Masterstudium Software Engineering & Internet Computing
Abstract:

With the increasing number of smart and internet connected devices, decentralized communication between devices is getting more important. Space-based computing with XVSM provides intuitive coordination mechanisms based on a blackboard architectural model to ease development for distributed systems. Extensibility and custom coordination logic are major features of XVSM. Maturing XVSM implementations gained several extensions to widen their applicability. However, a survey of existing XVSM implemen- tations on various platforms reveals hardwired integrations and custom coordinators with frequent code duplications and deep implementation dependencies. Even though XVSM specifies extensibility mechanisms and a modular architecture, some extensions require more fine-grained mechanisms. In order to solve this problem, we propose a highly modular plugin-based XVSM architecture along with a reference implementation for the .NET platform that supports an extension mechanism simply by adding or replacing plugins. We compared various XVSM and other space-based middlewares regarding their extensibility mechanisms, as well as their implemented features and shortcomings in regard to extensibility, but our main focus was on the XVSM reference implemen- tation MozartSpaces and especially its custom coordinator support. Consequently we developed a modular architecture based on the Managed Extensibility Framework (MEF) for the .NET platform to add additional extensibility mechanisms. Further, we added aspect-oriented integration on a fine-grained level, as well as an evolutionary im- provement of XVSM’s transaction system to widen the applicability of XVSM’s specified extensibility mechanism. The new architecture not only lays the foundation for new, even experimental, extension development for XVSM on the .NET platform, but also provides a reference for other XVSM implementations that could benefit from incorporating its extensible and flexible features.

Diplomarbeitsposter Irro Maximilian

Maximilian Irro

Masterstudium Software Engineering & Internet Computing
Abstract:

Applikationen benötigen häufig eine simultane Bearbeitung mehrerer Aufgaben. Nebenläufige Programmierung ist hierfür ein verbreitetes Konzept. Diese Arbeit beschäftigt sich mit zwei Modellen zur Definition nebenläufiger Programmeinheiten innerhalb von Softwarearchitekturen. Das Actor Model definiert theoretisch wohlfundierte Konstrukte, welche transparent eine nebenläufige, parallele und verteilte Ausführung ermöglichen. Das andere Modell ist ein relativ neuer Architekturstil basierend auf Microservices, welche sich kürzlich im akademischen und industriellen Umfeld großer Beliebtheit erfreuen. Microservices bauen auf viele Prinzipien der alten Unix-Philosophie, indem sie komplexe Funktionalität durch den Zusammenschluss kleiner, unabhängiger, kohäsiver und lose gekoppelter Programme konzipieren. Diese Programme interagieren über leichtgewichtige, auf Nachrichtenaustausch basierende Kommunikationskanäle. Microservices unterliegen einer implizit nebenläufigen Ausführungsmodalität durch den Prozess-Scheduler des Betriebssystems. Diese Arbeit vergleicht die Programmierung von nebenläufiger Ausführung mittels Actors und Microservices relativ zu einem nichttrivialen Fallbeispiel eines nebenläufigen Systems. Wir argumentieren, dass beide Ansätze viele Gemeinsamkeiten und wenige aber wichtige konzeptionelle Unterschiede besitzen. Beide Modelle haben gleichwertige Möglichkeiten um typische Anliegen der nebenläufigen Programmierung wie Kommunikation und Skalierbarkeit auszudrücken. Jedoch unterliegen die Modelle unterschiedlichen Trade-offs. Wir stellen Implementierungen des Fallbeispiels bereit, welche jeweils auf Actors bzw. Microservices basieren. Die Resultate eines Benchmarkings dieser Implementierungen legen nahe, dass Actors eine bessere Systemeffizienz verbunden mit einer kleineren Codebasis ermöglichen. Microservice-Architekturen hingegen konsumieren erheblich mehr Systemresourcen und leiden vor allem unter den Auswirkungen rein synchroner Kommunikationsmechanismen.

Diplomarbeitsposter Wurzinger Armin

Armin Wurzinger

Masterstudium Software Engineering & Internet Computing
Abstract:

Elektra ist eine Initiative zur Entwicklung, Wartung und Bereitstellung einer universellen Programmbibliothek für Konfiguration. Die Programmbibliothek abstrahiert über verschiedene Konfigurationsbestandteile um einheitlich darauf über Schlüssel-Werte-Paare zugreifen zu können. Es können auch Metainformationen zu diesen Schlüssel-Werte-Paaren gespeichert werden. Diese Metainformationen können verwendet werden um Konfigurationsspezifikationen zu definieren, welche die Semantik von Konfigurationen beschreibt. onfigurationsspezifikationen können fehlerhaft sein, was zu unerwartetem oder falschem Verhalten zur Laufzeit führen kann. In dieser Diplomarbeit wird das Problem von fehlerhaften Konfigurationsspezifkationen gelöst indem ein Typsystem für Elektra entwickelt wird. Dieses Typsystem erkennt manche Fehler in einer Konfigurationsspezifikation statisch, um daraus resultierende Fehler zur Laufzeit zu reduzieren. Das HM(X)-Gerüst wird als die formale Basis des zu entwickelnden Typsystems HM(RGX) verwendet. HM(X) ist ein generisches formales Gerüst um domänenspezifische Hindley-Milner-artige Typsysteme zu spezifizieren. Die nötigen Beweisauflagen, die vom HM(X) Gerüst vorgegeben werden, werden erfüllt, um zu zeigen, dass das Typsystem in sich konsistent ist. Ein Prototyp dieses Typsystems wird in Form einer eingebetteten domänenspezifischen Sprache (EDSL) in der Programmiersprache Haskell entwickelt. Dafür wird ein Plugin für den Glasgow Haskell Compiler (GHC) geschrieben, mit dem die Semantik von HM(RGX) bei der Typüberprüfung umgesetzt wird. Es wird ebenso ein Plugin für Elektra entwickelt das Konfigurationsspezifikationen, die mit dieser EDSL beschrieben werden, auf Typfehler überprüft. Eine Fallstudie wird durchgeführt um zu analysieren welche von Elektra aktuell unterstützten Metainformationen mit HM(RGX) beschrieben werden können.

In Zusammenarbeit mit anderen wissenschaftlichen Einrichtungen

Universität Wien

Diplomarbeitsposter Mücke Rainer

Rainer Mücke

Masterstudium Business Informatics
Abstract:

#Problem definition Objective of this master thesis is the creation of a framework to support a complete database migration. Secondary, but major topic shows the possibilities of virtualisation in the field of database server and the need for performance analysis. The Migration Framework supports the database migration system and product independently in the phases requirements modelling, design migration, and implementation. To develop therefore model, method and tool support. By industry partner predetermined standard UML is used as a modeling language. #Research question In this master thesis it will be shown what is needed for a complete database migration in an ITIL world. The developed, evaluated, tested and improved framework will support every database migration independent of the infrastructure system and database system and application. Virtualisation & Performance Analysis. #Methodology Application requirements which in turn are subject to business processes put restrictions for system environments and databases. A detailed technical evaluation, in conjunction with in-depth knowledge about system and databases is necessary. To a relational database system in the field to optimize performance and semantics requires cooperation with application programmers. Communication plays a major role in the creation of the concept for data migration to be sure to have treated each request. The implementation of the database migration takes place first in the test system. Upon completion and documentation of all tests, the database migration is performed under time and content compliance of the project plan. Self-developed database tools are the main tool support. By integrating the new database in the escalation chain of the monitoring system, the database became the productive status. It covers all necessary and important items to guarantee the success of a database migration. #State-of-the-art Relational databases, Migration methods.

Medizinische Universität Wien

Diplomarbeitsposter Burger Bianca

Bianca Burger

Biomedical Engineering
Abstract:

Generative Adversarial Network (GANs) fanden schon in verschiedenen Bereichen Anwendung wie Feature Extraktion, Bildbearbeitung und das Detektieren von krankhaften Gewebe der Retina. In dieser Arbeit wird ein GAN verwendet, um einen Anomalie-Score zu erstellen und damit Läsionen in Hochrisikopatientinnen für Brustkrebs zu erkennen. Der Anomalie-Score quantifiziert dabei die Abweichung von der Verteilung gesunden Gewebes, wobei Bilder, die in einem Zeitraum von 2 bis 13 Jahren durch Perfusions-Magnetresonanztomographie erstellt wurden, für das Training des GAN herangezogen werden.\\ Die Methodik besteht im Wesentlichen aus 3 Stufen, nämlich der Intra-Subjekt Registrierung, der Segmentierung des Brustgewebes und schließlich aus der eigentlichen Anomaliedetektion. Die Registrierung ist notwendig um innerhalb einer Patientin örtliche Korrespondenz der Bilder zu erhalten und die Segmentierung wird benötigt um die Positionen der Voxel, die Brustgewebe entsprechen, in Erfahrung zu bringen. Der Anomalie-Score wird dann basierend auf Differenzenbildern zwischen zwei Aufnahmezeitpunkten einer Patientin und dessen Vergleich mit dem GAN-Model von gesundem Gewebe berechnet.\\ Die Evaluierung der in dieser Arbeit vorgestellten Herangehensweise an Bildausschnitten von 5 gesunden und 8 kranken Patientinnen zeigt eine Sensitivität von 99.5\% und eine Spezifität von 84\%. Das Vorhandensein von Läsionen wurde zuvor von Radiologen und Radiologinnen diagnostiziert. Außerdem zeigen die Resultate auch, dass es mit Hilfe des Anomalie-Scores möglich ist Läsionen einen Aufnahmezeitpunkt früher zu erkennen als der Radiologe oder die Radiologin. In diesem Fall liegt die Sensitivität bei 92.7\% und die Spezifität bei 78.6\%.