EPILOG Wintersemester 2019

Auszeichnungen

Weitere Nominierungen für Distinguished Young Alumn WS19

Ausgestellte Arbeiten

Institut für Institute of Computer EngineeringE191

Arbeitsbereich Research Division of Cyber-Physical Systems

Diplomarbeitsposter Brandstätter Andreas

Andreas Brandstätter

Masterstudium Technische Informatik
Abstract:

In recent times there has been a huge development in the field of Unmanned Aerial Vehicles (UAVs). Quadcopters and other types of UAVs have become smaller, more powerful and cheaper. Given the availability of UAVs in a wide range of quality classes from consumer market to professional, industrial, and research applications they are not only operated outdoors but also used for an increasing number of indoor applications. UAVs can either be operated completely manually or employ assistive technologies like flight path recording or autopilot systems. For these types of indoor navigation it is essential to have accurate, timely and reliable location data which can be determined by a Local Positioning System (LPS). It is necessary to achieve a sufficient accuracy and reliability for such a LPS to safely move UAVs without crashing and hitting any obstacles. In this thesis we are dealing with the following problem: Given a bounded 3-dimensional space (indoor location), the position of an UAV should be determined within a certain precision in this space. In this work we implement a LPS based on ultrasonic signals. On the UAV a sender is placed which transmits ultrasonic signals. At the indoor location, where the UAV is operated, there are fixed receivers placed which receive the ultrasonic signals. Depending on the propagation speed of the signal and the position of the UAV the signal is received at different time instants by each receiver. Based on the differences of these time instants and the known propagation speed for the signal the position of the UAV is calculated. The tests which we carried out, show that the implemented LPS is capable of determining the position of an UAV at an indoor location. Our tests demonstrate the fitness of the implemented LPS to be used in an autopilot setup for a quadcopter. The quadcopter is able to follow a path consisting of pre-defined waypoints.

Diplomarbeitsposter Dukkon Ádám

Ádám Dukkon

Masterstudium Business Informatics
Abstract:

This thesis addresses the problem of monitoring the Quality of Service in CPS/IoT systems. In such heterogeneous systems, where each component is from different vendors and use diverse programming languages, the configuration, deployment, and maintenance is challenging. In order to overcome this problem, performed a QoS analysis with the result of a quality model. This quality model is used to compare different IoT use-cases based on their QoS requirements. As an IoT architecture, we suggest a scalable, fault-tolerant solution, based on Arrowhead and Docker swarm, with a deployment workflow and monitoring system. To ensure a certain QoS level within the system, we implemented a QoS monitoring and reconfiguration service. This service ensures that the system works optimal, it detects and reacts to the possible QoS violations. As an evaluation, we provide a series of experiments, and an industrial use-case, which validates our solution in a real-world scenario.

Diplomarbeitsposter Exenberger Fabian

Fabian Exenberger

Masterstudium Software Engineering & Internet Computing
Abstract:

Identifying the causes of system failures is an important part of the development and maintenance of reactive systems. Due to the complexity of such systems, this can be a very challenging task. Log data can help analyze failures, but the unstructured nature of this data, as well as its sheer volume, often makes manual analysis infeasible. Automated methods for analyzing log data to find the causes of system failure are therefore necessary. I develop four different such methods, which respectively employ hidden Markov models, supervised learning, automata learning, and a visualization I call a "weighted sequence tree". I evaluate the performance of these methods on three different datasets, of which two are synthetic datasets with different properties, and one is real-life data from an industry partner.

Diplomarbeitsposter Heller Clemens

Clemens Heller

Masterstudium Software Engineering & Internet Computing
Abstract:

Model-Based Systems Engineering (MBSE) ist ein Systems Engineering Ansatz, der ein zentrales Systemmodell in das Zentrum des Informationsaustausches stellt, um die Konsistenz der Informationen zu verbessern und die Komplexität und Ineffizienz des Austausches zu verringern. MBSE hat die Aufmerksamkeit der Automobilindustrie geweckt, da diese sich immer komplexeren Systemen entgegengestellt sieht, während die Entwicklungszeiten verringert werden. Um aber tatsächlich von MBSE zu profitieren, ist ein Kulturwechsel notwendig, bei dem der Fokus von der Erstellung von Artefakten auf das Modellieren des Systems gerichtet wird. Aus diesem Grund präsentiert diese Diplomarbeit eine ISO 26262 konforme Methodik, um eine qualitative Fehlerbaumanalyse durch das Hinzufügen von Safety Information zu einem Modell auszuführen. Nach der Identifizierung von zentralen MBSE-Prinzipien, wurde eine model-based Methodik für eine qualitative Fehlerbaumanalyse entwickelt, bei der der Fokus auf der Modellierung des Systems liegt. Das wurde dadurch erreicht, dass Safety-Eigenschaften des Systems mit System-Verhalten verknüpft werden. Die Methodik wurde in einer Case Study anhand eines realen Systems, einer time-triggered automotive Software-Plattform von TTTech, angewendet. Diese Case Study wurde Safety Experten von TTTech präsentiert, um die ISO 26262-Konformität zu evaluieren. Diese Arbeit zeigt, dass model-based Safety Analysen den Fokus auf den Inhalt richten, anstatt auf Hilfsschritte wie Artefakterstellung oder Tracing zwischen Artefakten. Außerdem ermöglicht ein zentrales Modell automatisierte Konsistenzchecks, welche implementiert wurden, um zu verifizieren, dass der erstelle Fehlerbaum konsistent mit dem System Design ist. Des Weiteren ermöglicht die Methodik eine vom System Design unabhängige Analyse, was für ISO 26262-Konformität notwendig ist.

Diplomarbeitsposter Müllner Bernhard

Bernhard Müllner

Masterstudium Technische Informatik
Abstract:

Diese Diplomarbeit beschäftigt sich mit dem Problem, dass es keine Datensätze zum Trainieren von neuronalen Netzen gibt, welche mit einer Time-of-Flight Kamera aufgenommen wurden. Solche Datensätze sind aber unerlässlich, um bessere End-zu-End Objekterkennungssysteme, die auf Time-of-Flight Daten basieren, zu entwickeln. Daher wird in dieser Arbeit ein neuer, klar strukturierter Datensatz mit einer Time-of-Flight Kamera aufgenommen, welcher elektrische Handwerkzeuge zeigt. 32 Werkzeuge werden auf drei unterschiedlichen Hintergründen in zwei oder drei verschiedenen Positionen von verschiedenen Winkeln aus aufgenommen. Neben der Klassifizierung der Werkzeuge wird für die circa 100 000 Bilder auch ein Begrenzungsrechteck zur Verfügung gestellt. Zum Testen des aufgenommenen Datensatzes werden zwei Faltungsnetze (englisch: Convolutional Neural Networks) mit diesem trainiert. Des Weiteren wird die Kombination aus Time-of-Flight Daten mit Farbbildern analysiert und implementiert.

Diplomarbeitsposter Tulala Peter

Peter Tulala

Masterstudium Computational Intelligence
Abstract:

The increasingly complex semiconductor manufacturing processes driven by hundreds of production steps are susceptible to random production errors. In order to detect and prevent these errors, electromechanical measurements are regularly taken from each wafer being produced after some production steps. It is assumed that steps that are causing manufacturing disturbances can be identified in an early stage of production chain by recognizing characteristic patterns in the wafermap measurements data. Based on the recognized patterns, an automatic corrective action can be taken in order to minimize manufacturing cost and prevent bottlenecks. The aim of this work is to develop an algorithm to automatically recognize and cluster patterns in wafermap measurements data in an unsupervised manner. The unsupervised nature of such algorithm eliminates the need for a domain expert that would otherwise had to manually define all possible patterns occurring in the data. The first part of this work describes preprocessing steps to cleanse and normalize the measurements dataset. The cleansed dataset is then used to train a generative model that learns the most characteristic features and reduces the dimensionality of the data. A particular focus is given to two algorithms -- Variational Autoencoder (VAE) and Generative Adversarial Network (GAN). The last part of the work discusses two simple clustering methods that group the extracted features into distinct clusters according to a similarity metric. It is concluded, that generative models could be useful for feature extraction in semiconductor manufacturing domain and in some cases even outperform more traditional discriminative models.

Arbeitsbereich Research Division of Embedded Computing Systems

Diplomarbeitsposter Ramsl Wolfgang

Wolfgang Ramsl

Masterstudium Technische Informatik
Abstract:

The topic of this diploma thesis is the investigation of fault masking effects in synchronous and asynchronous logic. A fault is said to be masked if it affects a circuit but never creates an erroneous state and hence stays ineffective.

Arbeitsbereich Research Division of Automation Systems

Diplomarbeitsposter Haubenstock Marc

Marc Haubenstock

Masterstudium Visual Computing
Abstract:

Die Automation Systems Group der TU Wien hat verschiedene ferngesteuerte Autos im Maßstab 1:10 für Lehrzwecke gebaut. Diese Autos haben Steuerungsencoder für Odometry-Schätzungen, Farbkameras und Tiefenkameras für räumliche Wahrnehmung. Das Problem mit steuerungsbasierter Odometry ist, dass diese anfälling für Fehler durch Rutschen der Räder und schlechte Umgebungsbedingungen ist. Um diese Nachteile zu überwinden, verwenden wir Visual Odometry (VO) mit "motion Priors", um eine robustere Laufbahn zu ermitteln. Motiviert durch jüngste Forschung in Lie-Gruppen basierter Odometry und kommerzielles Interesse an selbst fahrenden Autos~\cite{self_driving_intel}, haben wir in dieser Arbeit zwei Aufgabenstellungen. Erstens, ein Lie-Gruppen basiertes VO System, basierend auf der Arbeit von Kerl et al. ohne Imagepyramiden, zu entwicklen. Zweitens, das VO System auf dem ferngesteuerte Auto der TU Wien anzuwenden. Wir werden das Ackermann-Bewegungsmodell benutzen, um die VO-Schätzung zu verbessern. Dieses Bewegungsmodell ist von den Steuerungskommandos des Autos abgeleitet und eignet sich besser für Fahrzeuge mit Dreirad-basierter Steuerung. Wir haben unsere Implementierung auf Datensätzen der Technischen Universität München (TUM)und eigens erstellten Daten, der TU Wien, getestet. Unsere Resultate für die TUM Datensätze zeigen, dass wir eine grobe Laufbahn schätzen können. Aber durch die fehlende Imagepyramide ist unsere Laufbahn 5x schlechter als in den Arbeit von Kerl et al. Wegen schlechter Aufnahmebedigunen, hat die Tiefenkamera für den TUW Datensatz nur spärlich besetzte Aufnahmen erstellt. Dadurch hat die VO-Schätzung einen Drift von ca. 0.17 m/s. Mit dem Ackermann-Bewegungsmodell ist es uns aber gelungen, die VO-Schätzung zu verbessern und den Drift auf ca. 0.12 m/s zu reduzieren.

Diplomarbeitsposter Preindl Thomas

Thomas Preindl

Masterstudium Technische Informatik
Abstract:

In recent years, the advances in computing performance and energy efficiency have led to the introduction of Cyber Physical Systems (CPSs) in every aspect of life and business. In concurrence with this trend, the dependency on such CPSs increased accordingly. For this reason, it is necessary that CPSs are designed with a high safety threshold which among other things leads to high dependability. To achieve these properties, different measures have to be taken. The availability and correctness of the sensors of a CPS, its eyes to the world, is increased to the necessary levels using redundancy as one of those measures. This redundancy can be achieved by adding additional sensors for the same measurement domain. Another approach is to use redundancies in the measurements that occur naturally because of the physical interconnection between different measurements. In the underlying thesis, an approach is presented, that allows to derive these redundancies from ontological information of CPSs and to monitor sensors for faults in an efficient way. For this purpose, a simple modelling language is presented that enables the description of sensors and their physical connection. It is shown that the search for a group of redundancies, called a Grouping Solution (GS), for the purpose of monitoring is an NP-complete problem. Finally, an algorithm is presented that finds valid GSs and their quality is discussed as well as the complexity of the algorithm.

Diplomarbeitsposter Ramsauer Daniel

Daniel Ramsauer

Masterstudium Business Informatics
Abstract:

Over the years, the field of Internet of Things (IoT) was growing rapidly. New challenges raised and improvements to various sectors, such as the factory automation domain were accomplished. Furthermore, due to the increasing amount of Things, a new term got established: the IoT. Within this field, an interconnection of Things, smart objects and smart factories enables the optimization of production value. However, this field is in active change and new technologies emerge that aim to connect the different layers of the IoT. As these layers evolve differently, middleware technologies are necessary to connect them. Two prominent technologies, namely OPC UA and DDS, provide different features for connecting various aspects of the IoT and are yet to be connected. The aim of the work is to develop an architectural design for enabling data exchange between OPC UA and DDS, and further to derive scenarios which allow data exchange between OPC UA environments by using the global data space of DDS. Furthermore, the limitations of this OPC UA/DDS gateway and of the proposed scenarios will be discussed. The steps involve the creation of different scenarios that will cover the data exchange. Based on these scenarios, a prototype implementation will be realized and simple test runs indicate if the scenarios fulfilled their purpose. The findings of this thesis reveal that the developed scenarios enable the data exchange between OPC UA and DDS. However, certain limitations have to be considered. Foremost, involved applications have to be aware of the IDs of servers they want to interact with. Additionally, in large scale environments, not all scenarios are usable, as the amount of messages generated could potentially overload the OPC UA/DDS gateway. Furthermore, the scenario which enables data exchange between OPC UA environments via DDS global data space allows for increased scalability for OPC UA. However, all scenarios are only usable in a controlled environment.

Diplomarbeitsposter Wimmer Leonhard

Leonhard Wimmer

Masterstudium Software Engineering & Internet Computing
Abstract:

Das Internet ist zu einem wichtigen Teil unseres täglichen Lebens geworden und wir sind mehr denn je auf Kommunikationsnetze angewiesen. Darüber hinaus hat die enorme Verbreitung mobiler Geräte wie Smartphones in Verbindung mit der Verfügbarkeit leistungsfähiger Mobilfunknetze der vierten Generation (4G) die Art und Weise, wie die meisten Menschen auf das Internet zugreifen und es nutzen, grundlegend verändert. In dieser Arbeit konzentrieren wir uns auf Messungen und Analysen der Netzwerkleistung. Wir beschreiben unsere Motivation, unsere Leistungsmessungen auf mobile Breitbandnetze zu konzentrieren, geben einen Überblick über den Stand der Forschung bei Netzmessungen und präsentieren verwandte Arbeiten über Messplattformen für mobile Breitbandnetze. Wir entwickeln einen Messclient für Netzwerke, der schlank genug ist, um auf schwacher Hardware zu laufen, während wir detaillierte Messergebnisse und zugehörige Metadaten sammeln. Unsere Lösung basiert auf der Open-Source-Messplattform RTR-Netztest, die von der Österreichischen Rundfunk und Telekom Regulierungs-GmbH (RTR-GmbH) veröffentlicht und von mehreren nationalen Regulierungsbehörden in Europa, wie z.B. in Österreich, Kroatien, Tschechien, Luxemburg, Norwegen, Serbien, der Slowakei und Slowenien, eingesetzt wird. Diese Software wurde ursprünglich mit wesentlichen Beiträgen des Autors dieser Arbeit entwickelt. Wir führen kontrollierte Messungen durch, um die Genauigkeit und Durchführbarkeit unserer Lösung zu überprüfen und die beobachteten Protokoll-Overheads im Detail zu betrachten. Anschließend führen wir im Rahmen des EU-finanzierten Forschungsprojektes Measuring Mobile Broadband Networks in Europe (MONROE) groß angelegte Messkampagnen über Mobilfunknetze in Norwegen und Schweden durch. Wir präsentieren und analysieren die Ergebnisse der Messkampagnen und gehen detailliert auf ausgewählte, interessante Ergebnisse ein.

Diplomarbeitsposter Wührer Martin

Martin Wührer

Masterstudium Technische Informatik
Abstract:

Cyber-physische Systeme (CPS) bestehen aus unterschiedlichsten Komponenten, un- ter anderem aus Sensoren, Aktoren, Steuerungsgeräten oder HMIs (Mensch-Maschine- Schnittstellen). Üblicherweise sind die einzelnen Komponenten der CPS eng miteinander verbunden. Für übergeordnete Verbindungen (z.B. Verbindungen zwischen Steuerungsge- räten) spielt IP-basierte Kommunikation eine immer wichtiger werdende Rolle. Weiters kann das Betriebssystem Linux in vielen CPS eingesetzt werden, solange die dahinter liegenden Komponenten die Anforderungen erfüllen. Sind diese CPS-Komponenten Teil einer sicherheitskritischen Infrastruktur (SCCPS), sind weitere Security-Anforderungen gefordert. Daher werden in dieser Arbeit drei Si- cherheitsmaßnahmen für Linux basierte Komponenten einer SCCPS vorgestellt. Zuerst wird ein sicherer Startprozess für Linux basierte SCCPS Komponenten präsentiert, der sicherstellt, dass auf den individuellen Komponenten eines SCCPS nur signierte Software ausgeführt werden kann. Des Weiteren wird ein sicherer, IP-basierender Kommunikati- onsansatz für die eng miteinander verbundenen Komponenten eines SCCPS diskutiert. Abschließend wird ein sicherer Updatemechanismus für die Komponenten eines SCCPS erläutert, der sicherstellt, dass nur signierte Software-Updates installiert werden können und der für ein abgebrochenes Update eine Fallback-Lösung bereitstellt. Um diese Sicherheitsmaßnahmen analysieren zu können, wird ein Threatmodell erstellt. Dieses umfasst die genannten drei Sicherheitsmaßnahmen und kann daher als Startpunkt für die Sicherheitsanalyse verwendet werden. Weiters wird in einem Proof-of-Concept gezeigt, dass diese Maßnahmen durchführbar sind. Da die vorgestellten Sicherheitsmaß- nahmen Linux und IP-basierte Kommunikation voraussetzen, muss Linux auf den ent- sprechenden SCCPS Komponenten lauffähig sein und IP-basierte Kommunikation zum Einsatz kommen.

Institut für Institute of Logic and ComputationE192

Arbeitsbereich Research Division of Algorithms and Complexity

Diplomarbeitsposter Buchta Markus

Markus Buchta

Masterstudium Software Engineering & Internet Computing
Abstract:

A confluent drawing is a drawing of a graph where vertices are presented as points in the plane and edges as smooth paths through a planar system of junctions and arcs. An outerconfluent drawing is a confluent drawing in which all vertices of the graph lie on the boundary of the outer face of the drawing. Furthermore, a strict outerconfluent drawing is an outerconfluent drawing with the additional constraint that there is no self-loop between two vertices and that there exists at most one path between two vertices. Eppstein et al.(2016) abstractly defined an algorithm for checking a given graph together with a vertex order for a strict outerconfluent drawing. However, this algorithm has never been implemented. As part of this thesis the algorithm was implemented and a detailed description of each individual step is presented. With the correct implementation we tried to find different classes of graphs which do or do not obtain strict outerconfluent drawings. One of our results is that bipartite permutation graphs do not obtain strict outerconfluent drawings although this was suspected in a recent paper by Förster et al.(2019).

Diplomarbeitsposter Nickel Soeren

Soeren Nickel

Masterstudium Computational Intelligence
Abstract:

In dieser Arbeit behandeln wir das Thema der automatischen Generierung von stabilen Demers Kartogrammen und Iso-Hexagon Kartogrammen. Ein Demers Kartogram/Iso-Hexagon Kartogram ist eine Repräsentation von Daten auf einer Karte, in welcher alle Länder als Quadrate/reguläre Sechsecke dargestellt werden und die assoziierten Daten eines Landes die Größe diese Quadrats/regulären Sechsecks bestimmen. Diese Art von Kartogrammen ist beliebt um Unterschiede zwischen der Größe eines Landes und anderen georeferenzierten Daten aufzuzeigen, sowie um die Veränderung in diesen Daten über einen gewissen Zeitraum hinweg zu visualisieren. In diesen Serien von Kartogrammen, aber auch in einem Kartogram generell, ist es von größter Wichtigkeit das mentale Modell des Betrachters so wenig wie möglich zu stören. Um dies zu erreichen, versuchen wir \emph{stabile} Demers Kartogramme und Iso-Hexagon Kartogramme zu erstellen, die gewissen Quaitätskriterien---wie zum Beispiel benachbarte Regionen, wenn möglich, benachbart zu halten---entsprechen. Wir präsentieren darüber hinaus NP-Hardness Beweise für einige generalisierte Versionen der auftretenden Probleme sowie eine Methode, eine verlorene Adjazenz zwischen benachbarten Regionen in einem Iso-Hexagon Kartogram zu visualisieren. Und schließlich präsentieren wir eine experimentelle Auswertung unseres Models.

Diplomarbeitsposter de Col Philipp

Philipp de Col

Masterstudium Software Engineering & Internet Computing
Abstract:

Ein gemischtes lineares Layout eines Graphen ist eine totale Ordnung seiner Knoten, so dass die Kanten als Elemente betrachtet werden können, die in dieser Reihenfolge mit den beiden Datenstrukturen eines Stapelspeichers und einer Warteschlange verarbeitet werden können. Layouts, die nur Stapelspeicher verwenden, werden als Bucheinbettungen bezeichnet, was ein weit erforschtes Thema ist und auch reine Warteschlangenlayouts finden viel Beachtung. Die Kombination dieser beiden Konzepte zur gleichen Zeit wird jedoch seltener verwendet. Die Literatur beschreibt viele Algorithmen, Eigenschaften und Ergebnisse für Layouts, die entweder aus Stapelspeichern oder Warteschlangen bestehen, aber oft fehlen die passenden Gegenstücke für gemischte Layouts. In dieser Diplomarbeit stellen wir neue Ergebnisse in den Bereichen Komplexität, Heuristiken und Zeichnungen für gemischte Layouts vor, die es vorher noch nicht gegeben hat oder die bestehende übertreffen. Um dies zu erreichen, haben wir zum einen bereits bestehende Methoden für reine Layouts wiederverwendet und zum anderen neue Ideen zur Lösung der Probleme eingeführt. Wir erwarten, dass diese Ergebnisse dazu beitragen werden gemischte lineare Layouts besser zu verstehen und es ermöglichen, diese für praktische Zwecke zu nutzen.

Arbeitsbereich Research Division of Database and AI

Diplomarbeitsposter Faustmann Georg

Georg Faustmann

Masterstudium Computational Intelligence
Abstract:

For human experts, it is often too hard or too time-consuming to manually detect patterns in big data sets. Machine learning is applied in many areas to detect such patterns. Its applications are by no means limited to research, as machine learning also plays a big role in the industrial sector. This thesis applies machine learning to the following two topics. The first part of the thesis deals with product quality classification for automotive paint shops. The second part investigates automated parameter configuration for dispatching rules that are used in machine scheduling. We use a binary classification to predict the product quality of an automotive paint shop based on its scheduling data. We propose a set of features to characterize the production process. These features are used to classify whether or not the quality of the product is satisfactory. We can show that the best model we found performs better than a baseline model on an unseen data set. In the automated parameter configuration part of the thesis, we investigate machine learning methods based on multi-target regression to automatically configure dispatching rules for real-life planning scenarios where multiple objectives are considered. We propose a novel set of features to characterize instances of the parallel machine scheduling problem, and describe how supervised learning can be used to obtain optimized parameter configurations for given machine scheduling instances. Experimental results show that our approach can obtain high-quality solutions for real-life scheduling scenarios in short run times.

Diplomarbeitsposter Greßler Alexander

Alexander Greßler

Masterstudium Computational Intelligence
Abstract:

Abstract argumentation frameworks, as proposed by Dung in 1995, constitute one of the most widely used formalisms to model argumentation processes in the field of artificial intelligence. An abstract argumentation framework models an argumentation processes as a directed graph, representing arguments as vertices and attacks between those arguments as directed arcs between the respective vertices. Furthermore, the coherent sets of arguments that are jointly acceptable under a given semantics, satisfying certain properties, are commonly called extensions. We consider two generalizations of such abstract argumentation frameworks. The first generalization that we consider, abstract argumentation frameworks with collective attacks, allows for attacks to be between sets of arguments and arguments, enabling a natural way of modeling that a set of arguments might defeat another argument if considered together which, in general, is not the case if viewed individually. Furthermore, the second considered generalization, claim augmented abstract argumentation frameworks, introduces the augmentation of arguments using claims. Such augmented frameworks allow for an intuitive way of expressing the extension in terms of claims, that might be shared across multiple arguments, relaxing the abstraction to some extent. We provide complexity results for these two generalizations. To this end, we consider five common decision problems as well as various semantics for both types of argumentation frameworks and locate their position on the polynomial hierarchy. Furthermore, we make use of the well-established formalism of answer-set programming and give encodings for the various semantics, considering multiple approaches where applicable, to efficiently compute the extension of such argumentation frameworks. Finally, we conduct experiments to compare the performance of our encodings. We present the results and the acquired data and discuss our findings and the drawn conclusions.

Diplomarbeitsposter Moser Maximilian

Maximilian Moser

Masterstudium Software Engineering & Internet Computing
Abstract:

Parallel Machine Scheduling problems have been subject of intensive research and have many applications in the manufacturing industry. In this thesis, we study a real-life scheduling problem that can be formulated as an Unrelated Parallel Machine Scheduling Problem with Sequence-Dependent Setup Times, Due Dates, and Machine Eligibility Constraints. The aim is to minimise total tardiness and makespan. As existing formulations from the literature cannot be directly applied to our problem, we extend and adapt different mathematical models for related problems to approach the problem. Furthermore, we propose several variants of Simulated Annealing to solve very large-scale problem instances as they appear in practice. In these algorithms, we utilise several different search neighbourhoods and additionally investigate the use of innovative heuristic neighbourhood move selection strategies. Further, we provide a set of real-life problem instances as well as a random instance generator that we use to generate a large number of instances. Using the novel datasets together with existing instances from the literature, we perform a thorough evaluation of the mathematical models and meta-heuristic algorithms that are studied in this thesis. Experimental results show that our methods are able to improve the results produced with state-of-the-art approaches for a large number of instances.

Arbeitsbereich Research Division of Knowledge Based Systems

Diplomarbeitsposter Marinkovic Vedran

Vedran Marinkovic

Masterstudium Computational Intelligence
Abstract:

In dieser Arbeit werden mehrere Reduktionen im Zusammenhang mit multimodalen Erweiterungen der wohlbekannten Modallogik K betrachtet, wobei unter einer Reduktion eine Transformation im üblichen komplexitätstheoretischen Sinn verstanden wird. Insbesondere werden Reduktionen zwischen Erfüllbarkeitsproblemen einiger bekannter Logiken besprochen. Ein wesentliches Resultat dieser Arbeit ist eine Transformation von multimodalem K ins herkömmliche K, welche eine Verallgemeinerung einer bestehenden Transformation von bimodalem K ins gewöhnliche K darstellt. Durch die Verknüpfung dieser neuen Reduktion mit einer weiteren bestehenden von K in quantifizierte Aussagenlogik wird eine weitere Übersetzung von multimodalem K in quantifizierte Aussagenlogik erhalten. Umgekehrt wird auf Basis eines klassischen Resultats auch eine Reduktion von quantifizierter Aussagenlogik nach K untersucht. Darüber hinaus wird eine Übersetzung von der prototypischen Beschreibungslogik ALC, die mit multimodalem K nahe verwandt ist, ins herkömmliche K betrachtet. Die vorliegende Arbeit bringt diese unterschiedlichen Ergebnisse in einen einheitlichen Rahmen und eine einheitliche Notation, stellt Details und Beweise bereit, von denen in den ursprünglichen Resultaten viele übersprungen werden, und stellt damit im Wesentlichen eine in sich geschlossene Erörterung dar. Unterstützende Ergebnisse, die für die wesentlichen Resultate relevant sind, aber vor dem Hintergrund der Modallogik gewiss auch für sich genommen von Interesse sind, umfassen eine korrekte und vollständige Axiomatisierung von multimodalem K sowie die endliche Baummodelleigenschaft von K.

Arbeitsbereich Research Division of Formal Methods in Systems Engineering

Diplomarbeitsposter Matak Martin

Martin Matak

Masterstudium Computational Intelligence
Abstract:

Anwendungen künstlicher Intelligenz (KI) in unserem Alltag gewinnen immer mehr an Bedeutung. Umso wichtiger ist es, dass KI für Menschen sicher ist, z.B. im Bereich der automatisierten Altersschätzung. Allerdings können nur wenige veränderte Pixel dazu führen, dass neuronale Netze ein Bild falsch klassifizieren. Der Schwerpunkt dieser Arbeit liegt daher auf der Analyse von White-Box- und Black-Box-Angriffen gegen neuronale Netze im Bereich der Altersbestimmung. Bestehende Techniken werden evaluiert und ein neuer, semi-orientierter Ansatz entwickelt. Mit Hilfe dieses Ansatzes können Samples generiert werden, die zu einer widersprüchlichen Klassifizierung durch das neuronale Netz führen. Der Ansatz kann immer dann angewendet werden, wenn die Label der Klassifizierung geordnet sind oder zum Teil gebündelt werden können. Obwohl sich diese Arbeit auf den Bereich der Altersschätzung konzentriert, impliziert die Fähigkeit, widersprüchliche Samples zu generieren, dass neuronale Netzwerke nicht das letzte Wort in sicherheitskritischen Anwendungen haben sollten.

Diplomarbeitsposter Rath Jakob

Jakob Rath

Masterstudium Computational Intelligence
Abstract:

Die Sicherstellung der Korrektheit von Software ist eine wachsende Herausforderung in der modernen Gesellschaft. Die formale Software-Verifikation versucht, basierend auf logischem Schließen, verschiedene Anforderungen an die Korrektheit von Software mathematisch zu beweisen. Da jedoch das manuelle Beweisen solcher Aussagen mühsam und fehleranfällig ist, ist es erforderlich diese Aufgabe zu automatisieren, beispielsweise durch die Verwendung von automatischen Beweisern. Moderne automatische Beweiser für Logik erster Stufe mit Gleichheit sind bereits leistungsstarke Werkzeuge des automatischen Schließens. Allerdings stoßen die verfügbaren Systeme bei Problemen, die aus der Software-Verifikation kommen, noch häufig an ihre Grenzen. Insbesondere kann eine große Anzahl von bedingten Gleichungen Schwierigkeiten bereiten. Zur Verbesserung dieser Situation präsentieren wir in der vorliegenden Diplomarbeit eine neue Inferenzregel namens Subsumption Demodulation für Logik erster Stufe. Die grundlegende Idee von Subsumption Demodulation besteht darin, bedingte Gleichungen heranzuziehen um Terme in Klauseln, die die Bedingungen der Gleichung erfüllen, zu vereinfachen. Wir implementieren und evaluieren Forward Subsumption Demodulation mit Hilfe des auf dem Superpositionskalkül basierenden automatischen Beweisers Vampire. Erste Ergebnisse zeigen, dass Beweiser für Logik erster Stufe mit \emph{Forward Subsumption Demodulation} neue Probleme lösen können, die bisher nicht von existierenden automatischen Beweisern gelöst werden konnten.

Institut für Institute of Visual Computing and Human-Centered TechnologyE193

Arbeitsbereich Research Division of Computer Vision

Diplomarbeitsposter Heitzinger Thomas

Thomas Heitzinger

Masterstudium Computational Intelligence
Abstract:

A vast majority of buyers choose to consult online platforms before the purchase of a motor vehicle. The presentation of information on such platforms can have a huge impact on a consumers decision and the availability of visually appealing images is becoming increasingly important. For most sellers it is financially infeasible to take professional photographs and it has become common practice to digitally edit images instead. The automated generation of highly accurate segmentation masks for images and videos is a central computer vision problem with wide spread applications. This thesis studies the separation of vehicles (including mirrors, bulges, roof rails, antennae, ...) from their background using deep learning techniques developed in recent years. A specially tailored fully convolutional network based on the U-Net architecture is used and trained on a diverse dataset consisting of over 7000 images. An analysis of suitable loss functions is given and various improvements using strategically placed weights in challenging areas are introduce. Additionally we introduce a novel Gradient loss that outperforms standard approaches. The generated masks are further refined to better match the inherent curvature bias typically found in the outline of motor vehicles. In direct comparison to previous implementations our method reduces the segmentation error measured by the Jaccard index by over 65%.

Diplomarbeitsposter Lumetzberger Jennifer

Jennifer Lumetzberger

Biomedical Engineering
Abstract:

Durch die immer älter werdende Population steigt auch die Anzahl an pflegebedürftigen Menschen. Geräte zur Erkennung und Prävention von Stürzen sollen das Risiko für Verletzungen und Todesfälle durch Stürze verringern, das gerade bei älteren Menschen höher ist. In der vorliegenden Arbeit werden Systeme zur Sturzprävention und-erkennung evaluiert. Für den Vergleich von Geräten zur Sturzprävention werden der bildbasierte Sensor fearless, der Bewegungssensor Optex und das druckbasierte System Bucinator herangezogen. Im Zuge eines vierwöchigen Feldexperimentes werden 239 Aufsteh-Ereignisse ausgewertet. Für die Sturzdetektion werden 11 Sturzszenarien und 11 Aktivitäten des täglichen Lebens mit 10 Probanden simuliert. Die iWatch4 wird mit fearless, b-cared und dem sturzmelder verglichen. Für die Bewertung der Geräte werden die Sensitivität und der positive Vorhersagewert berechnet. Während fearless mit 92.93% die größte Anzahl an Aufsteh-Events erkennt, sind es 76.67% für den Bucinator Paulus. Die Fehlalarmrate liegt bei Bucinator Paulus niedriger als bei fearless. Eine Umfrage wird verwendet, um die Nutzerakzeptanz für AAL Geräte zu erheben. 189 Antwortbögen werden untersucht, wobei sich die Teilnehmer auf folgende Gruppen aufteilen: Pflegepersonal, Management im Gesundheitswesen, Personen im Alter 65+ und Angehörige. 70.81% aller Teilnehmer denken, dass AAL Technologien ihre Leistung im Job oder den Alltag erleichtern können. Der Unterschied zwischen der Beeinflussung der Privatsphäre durch bildbasierte und nicht-bildbasierte Methoden wird eruiert. Auch wenn bereits ein erster Schritt zur Erstellung einer Messmethodik für den Eingriff von Technologie in die Privatsphäre gesetzt ist, konnte kein quantitativer Ansatz zum Vergleich von verschiedenen Produkten gefunden werden. Das Senden von GPS Daten, Videos oder Bildern, als auch die Aufnahme von Audio- Daten kann als Privatsphären-Verletzung gesehen werden und hängt von der Wahrnehmung des Nutzers ab.

Diplomarbeitsposter Stanzl Verena

Verena Stanzl

Biomedical Engineering
Abstract:

Multiples Myelom (MM) ist eine Krebserkrankung des blutbildenden Systems. Zu den Symptomen gehören ein erhöhter Kalziumwert, Niereninsuffizienz, Anämie und Knochenläsionen, wobei die Beobachtung von Knochenläsionen mit einem großen Risiko einer Progression assoziiert ist. Eine Befundung von Läsionen mittels Magnetresonanztomographie (MRT) erlaubt die Beobachtung dieser bevor der mineralisierte Knochen geschädigt wird. In dieser Arbeit wird eine semi-automatische Methode entwickelt und evaluiert, um Knochenläsionen in MM-Patienten über die Zeit zu verfolgen. Dazu werden longitudinale, annotierte MRT-Daten in ein gemeinsames Koordinatensystem transferiert. Diese werden mittels affiner Transformation entlang des patienteneigenen Ganzkörper-MRT in Position gebracht und lokale Deformationen werden mit Hilfe von symmetrischen Diffeomorphismen ausgeglichen. Die affine Registrierung wird mit Mutual Information mit 10 Histogrammklassen durchgeführt. Bilddaten, die nach affiner Registrierung nicht korrekt am Ganzkörperbild ausgerichtet sind, werden mittels landmarkenbasierter Registrierung initialisiert. Bei dieser kombinierten Methode liegt der Medianfehler bei 5.6mm auf dem gesamten Datensatz von 17 Patienten. Die nachfolgende lokale Registrierung mittels Mean Squared Difference mit einem Voxelradius von 1 verbessert diesen Median von 5.6mm auf 3.95mm. Das Läsionen-Tracking wird auf den transformierten Segmentierungen durchgeführt, indem jeder Schwerpunkt einer Annotation über alle Zeitpunkte beobachtet wird. Mit der vorgeschlagenen affinen Transformation können 86.5% der Läsionen getrackt werden. Im Vergleich dazu, werden mit Verwendung eines Suchfenster, unter Berücksichtigung der benachbarten Schichten, 95.7% der Läsionen korrekt verfolgt. Die affine Transformation ist dabei ausreichend, mit der vorgeschlagenen lokalen Registrierung kann keine Verbesserung der Genauigkeit erzielt werden.

Arbeitsbereich Research Division of Computer Graphics

Diplomarbeitsposter Grossmann Nicolas

Nicolas Grossmann

Masterstudium Visual Computing
Abstract:

Pelvic organs such as the bladder, rectum or prostate have highly variable shapes that change over time, due to their soft and flexible tissue and varying filling. Recent clinical work suggests that these variations might affect the effectiveness of radiation therapy treatment in patients with prostate cancer. Although in clinical practice small correction steps are performed to re-align the treated region if the organs are shifted, a more in-depth understanding and modeling might prove beneficial for the adaptation of the employed treatment planning strategy. To evaluate the viability and to account for the variability in the population of certain treatment strategies, cohort studies are performed analyzing the shape and position variability of pelvic organs. In this thesis, we propose a web-based tool that is able to analyze a cohort of pelvic organs from 24 patients across 13 treatment instances. Hereby we have two goals: On the one hand, we want to support medical researchers analyzing large groups of patients for their shape variability and the possible correlations to side effects. On the other hand, we want to provide support for medical experts performing individual patient treatment planning. Our tool offers both the option to analyze a large cohort of different organ shapes, by first modeling them in a shape space and then analyzing the shape variations on a per-patient basis. While this first part aims at providing users with an overview of the data, we also give them the option to perform a detailed shape analysis, where we highlight the statistically aggregated shape of a patient or a specified group using a contour variability plot. Finally, we demonstrate several possible usage scenarios for our tool and perform an informal evaluation with two medical experts. Our tool is the first significant step in supporting medical experts in demonstrating the need for adaptation in radiation therapy treatments to account for shape variability.

Diplomarbeitsposter Mazurek Michael

Michael Mazurek

Masterstudium Visual Computing
Abstract:

Keeping up with continuous text streams, like daily news, costs a considerable amount of time. We developed an interactive classification interface for text streams that learns user-specific topics from the user's labels and partitions incoming data into these topics.Current approaches that categorize unstructured text documents use pre-trained learning models for text classification. In the case of a continuous text stream, the usefulness is limited, as these models cannot adapt their categories or learn new terminology. To adapt to changing terminology and to learn user-specific topics, we utilize a variant of active learning in an iterative process of model training.We present visual active learning for text streams by visualizing the topic affiliations in a Star Coordinates visualization. This visualization provides novel direct interaction tools for iterative model training. We developed a simulation to compare the accuracy of visual active learning and classic active learning.In a preliminary user study, we compared our visualization to a list-based interface for news retrieval and active learning. Through our evaluation, we could show that our visualization is a very effective user interface for active learning of streaming data.

Diplomarbeitsposter Mörth Eric

Eric Mörth

Biomedical Engineering
Abstract:

Three dimensional (3D) ultrasound is commonly used in prenatal screening, because it provides insight into the shape as well as the organs of the fetus. Currently, gynecologists take standardized measurements of the fetus and check for abnormalities by analyzing the data in a 2D slice view. The fetal pose may complicate taking precise measurements in such a view. Analyzing the data in a 3D view would enable the viewer to better distinguish between artefacts and representative information. Standardization in medical imaging techniques aims to make the data comparable between different investigations and patients. It is already used in different medical applications for example in magnetic resonance imaging (MRI). With this work, we introduce a novel approach to provide a standardization method for 3D ultrasound screenings of fetuses. The approach consists of six steps and is called “The Vitruvian Baby”. The input is the data of the 3D ultrasound screening of a fetus and the output shows the fetus in a standardized T-pose in which measurements can be made. The precision of standardized measurements compared to the gold standard is for the finger to finger span 91,08% and for the head to toe measurement 94,05%.

Diplomarbeitsposter Pfahler David

David Pfahler

Masterstudium Visual Computing
Abstract:

The number of installed sensors to acquire data, for example electricity meters in smart grids, is increasing rapidly. The huge amount of collected data needs to be analyzed and monitored by transmission-system operators. This task is supported by Visual analytics techniques, but traditional multi-dimensional data visualization techniques do not scale very well for high-dimensional data. The main contribution of this thesis is a framework to efficiently examine and compare such high-dimensional data. The key idea is to divide the data by the semantics of the underlying dimensions into groups. Domain experts are familiar with the meta-information of the data and are able to structure these groups into a hierarchy. Various statistical properties are calculated from the subdivided data. These are then visualized by the proposed system using appropriate means. The hierarchy and the visualizations of the calculated statistical values are displayed in a tabular layout. The rows contain the subdivided data and the columns visualize their statistics. Flexible interaction possibilities with the visual representation help the experts to fulfill their analysis tasks. The tasks include searching for structures, sorting by statistical properties, identifying correlations of the subdivided data, and interactively subdivide or combine the data. A usage scenario evaluates the design of the framework with a data set of the target domain in the energy sector.

Diplomarbeitsposter Plank Pascal

Pascal Plank

Masterstudium Visual Computing
Abstract:

Advanced rendering algorithms such as suggestive contours are able to depict objects in the style of line drawings with various levels of detail. How to select an appropriate level of detail is based on visual aesthetics rather than on substantial characteristics like the accuracy of 3D shape perception. The aim of this thesis is to develop a novel approach for effectively generating line drawings in the style of suggestive contours that are optimized for human perception. The novel meta-heuristic for optimizing line drawings uses empirical thresholds based on probing human shape perception. The heuristic can also be used to optimize other line drawing methods in terms of different visual characteristics, e.g., cognitive load. For this, a perceptual user study using the gauge figure task to collect more than 17, 000 user estimates of surface normals from suggestive contours renderings was conducted. By analyzing these data points, more in-depth understanding of the accuracy of 3D shape perception and shape ambiguity in regards to changing the level of detail and type of object presented is gained. In addition, the collected data points are used to calculate two pixel-based perceptual characteristics: the optimal size of a local neighborhood area to estimate 3D shape from and the optimal local ink percentage in this area. These thresholds are used to optimize suggestive contours renderings in a post-processing stage using a greedy nearest neighbor optimization scheme. The proposed meta-heuristic procedure yields visually convincing results and can be used in practical applications such as furniture manuals or architectural renderings. Both the empirical results regarding shape understanding as well as the practical applications of the thesis’s results form the basis to optimize other line drawing methods and to understand better how humans perceive shape from lines.

Arbeitsbereich Research Division of Pattern Recognition and Image Processing

Diplomarbeitsposter Gostler Anna

Anna Gostler

Masterstudium Visual Computing
Abstract:

Die Goldbandpipra (Manacus vitellinus) ist eine tropische Vogelart, bei der die Männchen akrobatische Balztänze aufführen. Um verschiedene Balztänze zu vergleichen, filmte ein Team von Biologen die Vögel in freier Wildbahn mit Hochgeschwindigkeitskameras. Um den Balztanz zu analysieren müssen die Vögel zuerst getrackt werden, um anschließend das Verhalten zu klassifizieren und zu visualisieren. Das manuelle Labeln jedes Einzelbilds in studenlangem Videomaterial ist ein sehr zeitintensiver Vorgang. Automatisches Tracking und Verhaltenserkennung ermöglichen eine schnellere Analyse von Videos. In dieserArbeit präsentieren wir einen umfassenden State-of-the-Art Report, analysieren die Herausforderungen der Manakin-Videos und präsentieren einen Tracker (ManakinTracker), der die spezifischen Herausforderungen der Manakin-Videos bewältigen kann. Basierend auf der Trajektorie erkennen und visualisieren wir das Verhalten des Vogels während des Balztanzes. Die Manakin-Videos stellen verschiedene Herausforderungen an visuelles Tracking und automatische Verhaltenserkennung. Die schnelle und abrupte Bewegung des Vogels führt zu starken Bewegungsunschärfen und ist schwer vorherzusagen. Das Aussehen des Vogels ändert sich stark. Zusätzlich ähnelt der Hintergrund optisch dem Vogel und verdeckt ihn ganz oder teilweise. Der ManakinTracker findet potenzielle Boundingboxen mittels Hintergrundsubtraktion, modelliert das Erscheinungsbild des Vogels mit einem neuronalen Netzwerk und lernt ein Bewegungsmodell. Der ManakinTracker kann erkennen, wenn der Vogel das Bild verlässt und wieder erscheint. Basierend auf der Trajektorie identifizieren wir typische Verhaltensweisen des Vogels: Hocken, Springen, “Beard-up”-Pose und Flügelschlag. Das Verhalten wird auf zwei Arten visualisiert. Wir vergleichen unseren Tracker mit 11 state-of-the-art Trackern in Bezug auf Robustheit und Genauigkeit und analysieren Fälle in denen das Tracking fehlschlägt.

Diplomarbeitsposter Langer Maximilian

Maximilian Langer

Masterstudium Visual Computing
Abstract:

This thesis presents a new shape representation called Unraveled Skeleton. It is designed to be robust to a large number of transformations, especially articulated movement. Based on this new representation, its general properties are studied and its application domain established. The representation is based on the skeleton or medial axis of a shape. It uses the very robust Voronoi skeletonization and "walks" around the resulting skeleton tree. At every point the minimum distance to the boundary is saved to a vector, resulting in a list of distance measures, a shape signature. This Unraveled Skeleton vector can then be used for further processing like normalization. This thesis explores two possible directions to use the Unraveled Skeletons: Shape analysis and pose independent coordinate systems. In shape analysis the Unraveled Skeleton vector can be used for articulation independent recognition. For this purpose a number of different normalization and optimization techniques are introduced. It is also possible to use parts of the vector to match parts of objects. The pose independent coordinate system assigns every point inside the shape and on its boundary a unique coordinate independent of pose or articulated movement. Using the closest points on the skeleton and its distance as provided by the Unraveled Skeletons one can address convex patches. Given a third number to chose a point from this patch a three-tuple coordinate is introduced. This paper states three applications to use the Unraveled Skeleton coordinates: Shape Blending, Super-resolution and Segmentation refinement. It also explores possibilities of non-centered skeletons in regard to Unraveled Skeleton coordinates. All results are evaluated on multiple datasets.

Arbeitsbereich Research Division of Multidisciplinary Design

Diplomarbeitsposter Chmelar Birgit

Birgit Chmelar

Masterstudium Medieninformatik
Abstract:

“Ein Bild sagt mehr als tausend Worte” ist ein Sprichwort, das die Ausdruckskraft von Bildern hervorheben soll. Bilder können Erinnerungen wachrufen oder Geschichten erzählen, die reale Ereignisse widerspiegeln oder frei erfunden sind. Fotos werden gerne verschickt oder hergezeigt, um diese Geschichte weiterzugeben und um visuelle Eindrücke zu vermitteln. Oft befinden sich Fotos schon am Smartphone. Es ist naheliegend, Diashows aus ausgesuchten Fotos von Highlights zu präsentieren, die nicht zwangsläufig in chronologischer Reihenfolge sein müssen. Möglichkeiten, um Bilder nach Metadaten zu sortieren existieren im Überfluss in Galerien, jedoch mangelt es an Möglichkeiten, Bilder manuell anzuordnen. Sortieralgorithmen, die mit Metadaten arbeiten, können nicht antizipieren, wie Bilder für eine Geschichte angeordnet werden müssen. Da es an Werkzeugen zum manuellen Anordnen fehlt, ist auch nicht viel darüber bekannt, welche Anforderungen für diese Aufgabenstellung vorhanden sind. Die vorliegende Arbeit widmet sich dieser Problematik. Initial gesammelte Designansätze werden aufbereitet und analysiert, Ergebnisse der Analyse werden als Basis für eine Fokusgruppe verwendet. Sowohl die gesammelten Designansätze als auch die Fokusgruppe dienen zur Ideenfindung für ein vorläufiges Konzept. Interviews mit Leuten aus dem Bereich der Videobearbeitung werden geführt, um deren Expertenwissen in den Designprozess einfließen zu lassen. Deren berufliche Tätigkeit umfasst, ähnlich dazu, wie es in dieser Arbeit der Fall ist, das Arrangieren von Mediendateien, um eine Geschichte oder Botschaft zu vermitteln. Ein Prototyp wird auf der Basis der angewandten Methoden entwickelt und während des Implementierungsprozesses iterativ getestet. Das Resultat der Usability Tests ist überwiegend positiv, der Prototyp wird von Teilnehmern als erlernbar und schnell bedienbar bezeichnet.

Diplomarbeitsposter Kutsch Anna Lea

Anna Lea Kutsch

Biomedical Engineering
Abstract:

The European Commission established the aim to improve the accessibility of public transportation for people with limits regarding mobility. Limitations using public transportation can be caused by mental disorders and anxiety. One approach to support patients in their mental disorders are mental health applications. In the last years wearables have become popular, but no research is available on how they can have an impact on anxiety. Thus, the aim of this master thesis was to investigate how smartwatch interventions can have an effect on stress, as anxiety being a form of stress, whereby the main focus was laid on biofeedback applications.

Arbeitsbereich Research Division of Human Computer Interaction

Weitere ausgestellte AbsolventInnen dieses Arbeitsbereichs:
Marcel Hansemann
Diplomarbeitsposter Dostal Johannes

Johannes Dostal

Masterstudium Medieninformatik
Abstract:

This Thesis is about various design aspects of Student Information Systems (SIS) and how to improve them. In an in-depth literature review, design criteria for SISs were elaborated based on web-design guidelines and literature about information systems. Furthermore, aspects of information architecture, interaction aesthetics and corporate design are tackled. A significant part of this work is the evaluation and comparison of seven existing SISs. First, they are independently evaluated, and the results are discussed. During the second step, we organized a workshop with experts in the field of User Experience. The experts were introduced to the systems so they could identify strengths and weaknesses. Based on their insights, we designed the concept for a dashboard, which provides the most important information for students on the landing page of the SIS. In the final step, the concept was evaluated with different students to find out if and how they would benefit from it.

Arbeitsbereich Research Division of Interactive Media Systems

Diplomarbeitsposter Berlanda Juri

Juri Berlanda

Masterstudium Medieninformatik
Abstract:

This thesis presents an approach for integrating multi-sensory feedback with a computer graphics environment designed for use with Virtual Reality, namely the Virtual Jump Simulator, or Jumpcube for short. Since none of the existing solutions would meet our requirements, we decided to build an open, modular, and scalable platform for creating multi-sensory feedback devices to be used in Virtual Reality. To keep development costs and time low we used mainly off-the-shelf hardware components. For the same reason we also opted for a communication backbone based on Ethernet, modern Web technologies, namely JSON and the SocketIO protocol, and Python as the programming language for the logic running on the multi-sensory feedback devices. We demonstrated, that such a communication backbone is flexible and both easy to implement and to maintain. Further, we showed that the additional latency introduced by the use of high-level programming languages and non-real time capable communication is negligible in the scope of a computer graphics environment. To determine the impact the system has on the user we conducted both a quantitative and a qualitative experiment. Both showed that multi-sensory feedback in a Virtual Reality environment is noticed by the vast majority of the users and has a positive influence on the overall user experience, in particular on the degree of presence reached by the test subject.

Diplomarbeitsposter Höller Benjamin

Benjamin Höller

Masterstudium Medieninformatik
Abstract:

Diese Arbeit untersucht die Nutzung verschiedener neuronaler Netze für Objekterkennung in 3D gescannten Szenen. Dazu wird ein bestehendes verteiltes 3D Rekonstruktionssystem adaptiert und um eine universelle Schnittstelle erweitert. Die automatische Objekterkennung und Segmentierung ermöglicht die Interaktion mit Szenenobjekten und unterstützt Nutzer bei Suchaufgaben. Serverseitig wird eine Umgebung mit einer RGB-D-Kamera gescannt, um eine volumetrisches 3D Model zu erzeugen. Clientseitig werden diese Information trianguliert, um diese mit der Unreal Engine in virtueller Realität zu erforschen. Die RGB-Bilder der Kamera werden zusätzlich von einem neuronalen Netz interpretiert. Die Objekte, die dieses Netz erkennt, werden in der 3D-Oberflächenrekonstruktion entsprechend markiert. Durch Grundlegende strukturelle Änderungen, umfangreiche Datenfilterung und einem speziellen Abstimmungsalgorithmus, wird die kumulative Echtzeit Segmentierung der Szenenobjekte optimiert. Nummerische Filter beeinflussen die Gesamterkennungsrate, visuelle Filter bestimmen die räumliche Abgrenzung von Szenenobjekten. Schlussendlich werden in der 3D Rekonstruktion erkannte Szenenobjekte von einem dreidimensionalen Rahmen umschlossen. Um eine effiziente Interaktion mit diesen Objekten zu ermöglichen, wird ihre grobe Geometrie mit automatisch erzeugten Collider Boxen repliziert. Die Fähigkeiten des entwickelten Systems werden mit zwei verschiedenen neuronalen Netzen getestet. Dem SSD_Mobile_Net, welches erkannte Objekte mit einer 2D-Bounding Box umrahmt und dem Mask-RCNN welches zusätzlich eine pixel-basierte Segmentierungsmaske bereitstellt. Jeder Parameter der Filterpipeline wurde analysiert, um die Gesamterkennungsrate sowie die räumliche Segmentierung der Objekte zu optimieren. Für die Integration neuer neuronaler Netze wurden entsprechende Richtlinien definiert.

Arbeitsbereich Research Division of Visual Analytics

Diplomarbeitsposter Serdar Boris

Boris Serdar

Masterstudium Medieninformatik
Abstract:

There are many approaches, which were developed in the last few years, dealing with the visualization of time-oriented data. Most of the methods, used in those approaches, are very specific and made for a small number of particular analysis problems. The main reason for that is the high complexity of applications, when multiple aspects of time-oriented data are considered. However, before any visualization can be done, the data has to be imported into the software. This might be challenging, especially when the metadata for the data to import is not given. In scope of this work a prototype of an interactive visual interface is presented, which is specifying the metadata, based on the overview of the data, providing support to the user importing data from tables. The prototype is based on the software library TimeBench. This software library provides data structures and algorithms, which deal with multiple aspects of time-oriented data. This work is giving an answer to the question: How can a visual interface, which includes the design aspects named by Aigner, Miksch, Müller, Schumann & Tominski [Aigner et al., 2011], assist the users to import time-oriented data tables? To answer this question a methodical approach has been applied. First of all, a literature search was performed out to see, if such a problem had already been treated in the past. User scenarios were generated to determine the scope of the work. To show how the visual interface will look like, or how the user interacts with it, mockups were created. The mockups are showing the required interaction steps of the user when creating the import configuration. After the design of the software was determined, the interface was implemented in programming language Java. To evaluate the result, usability inspections were performed in several iterations.

Institut für Institute of Information Systems EngineeringE194

Arbeitsbereich Research Division of Information and Software Engineering

Diplomarbeitsposter Aumayr Lukas

Lukas Aumayr

Masterstudium Software Engineering & Internet Computing
Abstract:

Seit der Etablierung von Bitcoin sind Kryptowährungen als alternative digitale Zahlungsmethode und hochspekulative Investition sehr gefragt. Mit dem Anstieg der Rechenleistung und dem Wachstum der verfügbaren Daten, hatten tiefe neuronale Netze in den letzten Jahren auch eine steigende Popularität zu verzeichnen. Mit der Einführung der Long Short-Term Memory (LSTM) Architektur wurden neuronale Netze effizienter darin, langfristige Abhängigkeiten in Daten wie Zeitreihen zu erkennen. In dieser Arbeit kombinieren wir diese beiden Themen, indem wir neuronale Netze verwenden, um eine Prognose der Kryptowährungspreise zu generieren. Insbesondere testen wir, ob LSTM-basierte neuronale Netze profitable Handelssignale für die Kryptowährung Ethereum vorhersagen können. Wir experimentieren mit verschiedenen Vorverarbeitungstechniken und unterschiedlichen Targets, sowohl für die Regression des Preises als auch für die Klassifikation von Handelssignalen. Wir evaluieren zwei LSTM-basierte Netzwerke und einen Convolutional Neural Network (CNN) LSTM Hybrid. Die für das Lernen verwendeten Daten sind historische Ethereum Preisdaten im Minutentakt von August 2017 bis Dezember 2018. Wir messen die Leistung der Modelle durch Backtesting, wobei wir den Handel auf Basis der Vorhersagen der Modelle mit historischen Daten simulieren, die nicht für das Lernen verwendet wurden. Wir analysieren diese Performance und vergleichen sie mit der Buy-and-Hold Strategie. Diese Simulation wird über einen Bullenmarkt, einen Bärenmarkt und einen stagnierenden Zeitraum durchgeführt. In der Auswertung finden wir das leistungsstärkste Target und identifizieren zwei Vorverarbeitungskombinationen, die für diese Aufgabe am besten geeignet sind. Wir kommen zu dem Schluss, dass der CNN LSTM Hybrid in der Lage ist, Handelssignale für Ethereum profitabel zu prognostizieren und die Buy-and-Hold-Strategie um etwa 30\% übertrifft, während die Performance der beiden anderen Modelle eher entäuschend war.

Diplomarbeitsposter Brincoveanu Constantin

Constantin Brincoveanu

Masterstudium Business Informatics
Abstract:

Specialty coffee is a growing industry and there has been an explosion in innovation of coffee roasting software. In this work, machine learning techniques were employed on a large dataset of coffee roast processes. This work focuses on six questions, with the goal of evaluating different methods which shall facilate consistent roasting for the users. 1. First, a classification was trained on sensorial descriptors. The division into nine unbalanced classes was done according to the Flavour Wheel. The classification had a high accuracy especially for the four most frequently occurring classes (micro-average F1-score: 0.53). 2. Another task was predicting roast temperature curves, which were transformed into vectors representing durations in certain temperature intervals. The models were evaluated over batches with a duration of approximately two minutes. Here, Ridge yielded a lower MSE than the reference curves consistently over all batches. Also in evaluation over full roasts, Ridge (MSE: 1.562) outperformed the reference curves (MSE: 4.934). 3. One of the topics looked into was prediction of coffee quality. This was first modeled as a regression. None of the tested regressors could outperform the baseline. 4. User interaction was another topic. The user can influence the course of the temperature curve during the process by changing the gas input. The prediction of this interaction using an LGBMRegressor yielded a fivefold reduction of Mean Squared Error compared to the baseline. 5. Another approach was a visualization tool, a Self Organizing Map, which was trained on the roast state space. 6. Finally, more depth was put into detection whether a machine was pre-heated. As a baseline, it was assumed that the first three roasts of a given day were performed on a cold machine, whereas afterwards the machine heated up. This baseline was used to find relations between the state of the machine and further attributes.

Diplomarbeitsposter Engl Jonas

Jonas Engl

Masterstudium Medieninformatik
Abstract:

Das Ziel der vorliegenden Diplomarbeit war zu untersuchen, welche Auswirkungen die Ein- führung eines One-Stop-Shops für die Aufnahme von Studierenden und Mitarbeiter/innen an der TU Wien, auf die betroffenen Stakeholder hat. Dabei wurde ein besonderes Augenmerk auf die von der TU Wien ausgestellte Smartcard gelegt, die sogenannte TUcard. Dafür wurde ein neues Modul für die Ausstellung und Verwaltung der TUcard im Informations-System der TU Wien implementiert und anschließend über Interviews und eine technische Auswertung analysiert. Zu Beginn wird auf den ursprünglichen Prozess der Aufnahme von Studierenden und Mitarbeiter/innen, der Ausgabe der TUcard und die dabei aufgetretenen Probleme eingegangen. Anschließend folgt eine Einführung in die verwendeten Technologien, in Smartcards und in das Konzept des One-Stop-Shops. Mit den dadurch erworbenen Wissen und den Anforderungen der Stakeholder wird das Design des neuen Prozesses beschrieben und dessen Implementierung erläutert. Abschließend folgt die Auswertung der gefundenen Ergebnisse. Die Notwendigkeit der Umstellung wird mit Hilfe der aufgetretenen Probleme verdeut- licht, welche im Rahmen der Ausgangslage beschrieben werden. Um anschließend eine wissenschaftliche Auswertung zu ermöglichen, wird anfangs eine Forschungsfrage definiert, welche nach der Auswertung der Daten beantwortet werden soll. Basierend auf der Aus- gangslage und deren Probleme, werden Anforderungen aufgestellt, welche eine möglichst positive Beantwortung dieser Frage ermöglichen sollen. Die Anforderungen geben das Design vor, welches anschließend erzeugt und implementiert wird. Die Implementierung wird mit Hilfe von Experteninterviews und einer technischen Auswertung analysiert. Die Auswertung ergab, dass viele Stakeholder, vor allem Studierende und Mitarbei- ter/innen, von der Umstellung profitieren und deren Aufnahme maßgeblich erleichtert wird.

Diplomarbeitsposter Gamerith Stefan

Stefan Gamerith

Masterstudium Software Engineering & Internet Computing
Abstract:

Ein wichtiger Teil des Semantik Web Lebenszyklus ist die Ontologie Validierung, insbesondere bei erlernten Ontologien, die von Natur aus Fehler enthalten. Obwohl mittlerweile viele dieser Fehler von Algorithmen erkannt werden, ist dies mitunter bei komplexen Problemstellungen schwierig. Crowdsourcing stellt eine kosteneffiziente Alternative dar, die diese Aufgaben an eine Gruppe freiwilliger User (Crowd) auslagert. Dennoch gibt es bei der Ontologie Validierung mittels Crowdsourcing Verbesserungsbedarf. Ein Lösungsansatz wäre die Zugabe kontextbezogener Informationen zu Crowdsourcing Aufgaben. Dies hätte mitunter einen positiven Einfluss auf das Validierungsergebnis. Obwohl Fortschritte in diesem Bereich erzielt wurden, gibt es noch wenig Literatur zu diesem Thema. In dieser Diplomarbeit stellen wir 3 Methoden vor, die Kontext generieren um die Relevanz von Konzepten innerhalb einer Domäne zu überprüfen. Während der Ontology-based-Approach hierarchische Relationen verarbeitet, basiert der Metadata-based-Approach auf Annotationen. Als Basis für die letzte Methode (Dictionary-based-Approach) dienen Beispielsätze des Online Wörterbuchs WordNik. Alle 3 Methoden wurden als Erweiterung des uComp Protege Plugin konzipiert, ein Plugin für den Ontologie Editor Protege, das die Validierung von Ontologien mittels Crowdsourcing ermöglicht. Im Rahmen von 3 Experimenten mit Datensätzen aus den Bereichen Klimawandel, Tennis und Finanzen wurden alle 3 Methoden getestet. Die Metriken Precision, Recall und F-Measure wurden für jeden Datensatz berechnet um Rückschlüsse über die Performance der getesteten Methoden ziehen zu können. Der Metadata-based-Approach lieferte die besten Validierungsergebnisse. Anhand der guten bis sehr guten Ergebnisse aller 3 Methoden (F-Measure größer 80%) wurde gezeigt, dass die Qualität der Validierung durch das Hinzufügen kontextbezogener Information gesteigert werden konnte.

Diplomarbeitsposter Gößwein Bernhard

Bernhard Gößwein

Masterstudium Software Engineering & Internet Computing
Abstract:

Earth observation researchers use specialised computing services for satellite image processing offered by various data backends. The source of data is similar, for example Sentinel satellites operated by Copernicus and the European Space Agency. The way it is pre-processed, updated, corrected and later analysed may differ among the backends. Backends often lack mechanisms for data versioning, for example, data corrections are not tracked. Furthermore, an evolving software stack used for data processing remains a black box to researchers. Researchers have no means to identify why executions of the same code deliver different results. This hinders reproducibility of earth observation experiments. In this thesis, we present how existing earth observation backends can be modified to support reproducibility. The proposed extensions are based on recommendations of the Research Data Alliance regarding data identification and the VFramework for automated process provenance documentation. Additionally, we provide suggestions on how backends make the captured information accessible to scientists. We implemented these extensions at the Earth Observation Data Centre, a partner in the openEO consortium. We evaluated the solution on a variety of usage scenarios, providing also performance and storage measures to evaluate the impact of the modifications. The results indicate reproducibility can be supported with minimal performance and storage overhead.

Diplomarbeitsposter Haberberger Nicole

Nicole Haberberger

Masterstudium Business Informatics
Abstract:

Unternehmen aller Branchen setzen heutzutage mehr denn je Big Data-Lösungen ein. Auch in der Automobilindustrie werden durch Sensoren in Fahrzeugen große Datenmengen erhoben, um diese anschließend gewinnbringend zu verwerten. Die Auswahl von geeigneten Datensätzen innerhalb dieser Datenmenge, erweist sich oft als schwierig, wenn relevante Informationen nicht enthalten sind. Inwieweit die Integration externer Datenquellen in den unternehmensinternen Datenpool nun dazu beitragen kann, diesen Auswahlprozess in den Dimensionen Zeit, Kosten, Qualität und Flexibilität zu verbessern, wurde in dieser Arbeit untersucht. Als erster Schritt wurde eine Recherche über verfügbare externe Datenquellen durchgeführt und deren Ergebnisse präsentiert. Mit Hilfe einer Nutzwertanalyse wurde die Auswahl der Datenquellen von Wetter- und Kartendaten begründet, welche im Hinblick auf die definierten Anforderungen für die Datenintegration den größten Nutzen bieten. Anschließend wurde ein Ansatz für eine skalierbare und verteilte Implementierung dieser Datenquellen konzipiert und unter Verwendung des Apache Hadoop Frameworks integriert. Die Auswertung des daraus resultierenden verknüpften Datensatzes zeigt die Vorteile und Grenzen, sowie das weitere Verbesserungspotential des Ansatzes. Es kann unter anderem gezeigt werden, dass durch das Treffen von Annahmen bezüglich der Korrektheit der Verknüpfungen, Prozessschritte eliminiert und eine Verkürzung der Durchlaufzeit des Prozesses erzielt werden kann. Auf gleiche Weise können die variablen Kosten für die Ausführung des Prozesses gesenkt werden, während jedoch weitere Kosten für die Entwicklung und Instandhaltung der implementierten Software anfallen. Aspekte der Erhöhung der Analysequalität durch zusätzlich verfügbare Informationen, sowie eine höhere Flexibilität bezüglich der Skalierbarkeit bei höherer Arbeitslast werden argumentiert.

Diplomarbeitsposter Lepadat Mihai Alexandru

Mihai Alexandru Lepadat

Masterstudium Software Engineering & Internet Computing
Abstract:

Feature engineering is of high importance for the success of many machine learning algorithms and requires domain-specific knowledge. Generally, this knowledge is only familiar to domain experts or incorporated into programs. We developed a knowledge- drive approach to support users during feature engineering and implemented a software application to evaluate this approach. The knowledge is represented in Web Ontology Language (OWL) and its main purpose is to offer the user a flexible way to tackle domain-specific datasets by building a reusable and comprehensible knowledge base. A semantic reasoner makes use of this knowledge to infer properties and provide users with recommendations. All data-related operations are performed in a scalable cluster computing engine backed up by Apache Spark. The evaluation is done on 6 freely available datasets from the domain of demographics. We were able to identify only a small fraction of recommendations that proved to be wrong.

Diplomarbeitsposter Pilz Elisabeth

Elisabeth Pilz

Masterstudium Software Engineering & Internet Computing
Abstract:

Nowadays, the interest in networked and collectively created knowledge bases grows rapidly. Collective intelligence systems (CIS) are web-based social platforms that use the knowledge of connected groups of people. A CIS thrives from its users, who contribute content to a globally shared information space. Each human actor benefits from the available shared information and can expand her knowledge. CIS may be useful with different kinds of knowledge base content, grouped and organized around a specific topic. Therefore operators of these platforms want to reuse the system capabilities for knowledge with similar structures. Today, this need leads to instance clones, where simply a copy of the CIS is filled with new knowledge and evolves more or less independently from the original system. This approach has several challenges and limitations, such as complex system technology evolution, impossible data analysis across knowledge bases, high administration effort, various accounts for one person and no cross-instance linking of knowledge. To resolve these limitations, we designed a new architectural approach, the CIS farm architecture. Within a CIS farm architecture, several CIS instances are embedded into one system environment. Therefore this approach provides functions to simply create, deploy and administrate individual and independent farm entities. In the context of a CIS farm we call a CIS instance a farm entity. The focus of the research questions is on the characteristics, the evolution and the evaluation of the CIS farm approach. The main contributions of this thesis are the definition of the architectural principles, the description of the CIS farm architecture design and the development of an evolution process from a CIS to a CIS farm architecture.

Diplomarbeitsposter Sarcevic Tanja

Tanja Sarcevic

Masterstudium Computational Intelligence
Abstract:

Fingerprinting digital data is a method of embedding a traceable mark into the data to verify the owner and identify the specific recipient a certain copy of data set has been released to. This is crucial for releasing data sets to third parties, especially if the release involves a fee, or if the data contains sensitive information due to which further sharing and potential subsequent leaks should be discouraged and deterred from. Fingerprints generally involve distorting the data set to a certain degree, in a trade-off to preserve the utility of the data versus the robustness and traceability of the fingerprint. Different types of data require different approaches. Most of the state-of-art techniques are designed specifically for the numerical type of data. In this thesis, we will propose an approach for fingerprinting data sets containing categorical data. We further compare several approaches for fingerprinting according to their robustness against various types of attacks, such as subset or bit-flipping attacks. We evaluate the effects the fingerprinting has on the utility of the datasets, specifically for Machine Learning tasks.

Diplomarbeitsposter Stojanoski Stefan

Stefan Stojanoski

Masterstudium Computational Intelligence
Abstract:

In this work we designed a client server system for automatic billboard recognition in videos. The client side is represented by an Android application which serves the purpose of collecting videos for the server side. For the server side a deep neural network, StefanNet, was designed. StefanNet is a fully convolutional neural network which is able to classify and localize billboards within a video frame. StefanNet has a feature extractor which contains 23 convolutional layers and uses a single shot detector (SSD) as an object detector. StefanNet has been trained on the self-designed BillboardDataset which contains 4042 images taken from the billboards in the metro stations in Vienna. Additionally, data augmentation techniques have been implemented to artificially augment the dataset with a 25% increase rate. Furthermore, the compression-based quantization technique has been applied to the StefanNet model to reduce the bit-width for storing the weights of the network from float32 to float16. We evaluated the performance of StefanNet by comparing against the state-of-the-art networks ResNet, MobileNet, Inception and VGG16. The validation dataset contains both side and frontal views of the billboards. StefanNet achieved 91% mean average precision (mAp) on the test dataset, 98% mAp on the frontal view validation dataset and 82% mAp on the side view validation dataset. The inference rate was 40 FPS on a Nvidia 1080 graphics card. The quantized version of the StefanNet model achieved 91% mAp on the test dataset, 96% mAp on the frontal view validation dataset and 85% mAp on the side view validation at an inference rate of 45 FPS. In comparison to the other evaluated networks both the StefanNet model and the quantized version of the model produce superior results and outperform the benchmark models on all datasets. This confirms that the architecture of StefanNet is currently the most suitable for the specific problem of automatic billboard detection in video streams.

Diplomarbeitsposter Szivos Gabor Zoltan

Gabor Zoltan Szivos

Masterstudium Medizinische Informatik
Abstract:

Analyzing the security of the firmware of embedded devices is critical to provide the highest degree of safety and privacy for the user. This is true especially if the device is used to collect medical rated data, or is implanted into someone to regulate the heart rate of the patient, or to administrate drugs automatically. But most of such devices have a closed-source firmware, which can only be extracted from the device itself, which has its own difficulties. Nowadays a widely used method to provide updates for consumer grade embedded devices is to connect them to a smartphone and operate them through an application on the phone. This thesis describes a system which is capable to analyze such smartphone applications, and extract relevant data from them to set up a generic Bluetooth Low Energy server which can pretend to be a real device. This makes it possible to analyze both the protocol used for the communication between device and phone as well as to dump any data which is sent from the phone to de device, like a firmware update. This eliminates both the need to have the device in question as well as the cumbersome firmware extraction. This thesis also provides a thorough literature review in the fields of firmware analysis techniques and frameworks, the security and privacy of embedded devices and techniques and tools used to analyze Android applications.

Diplomarbeitsposter Voglhuber Roman

Roman Voglhuber

Masterstudium Software Engineering & Internet Computing
Abstract:

Virtual Reality (VR) Anwendungen ermöglichen es den Usern, in eine virtuelle Welt einzutauchen. Bei aktuellen VR-Systemen tragen die Benutzer eine VR-Brille und können anhand von Controllern mit der virtuellen Welt interagieren. Die Controller eignen sich für eine Vielzahl von Anwendungen, allerdings können sie etwa nicht verwendet werden, wenn die Benutzer mit realen Objekten interagieren sollen. Ein Beispiel für eine Anwendung dieser Art ist das VreeClimber-Projekt. Es kombiniert eine bewegliche Kletterwand mit VR Klettern. Nachdem die Hände der User während des Kletterns auch in der virtuellen Welt sichtbar sein sollten, wird ein optisches Tracking-System zum Erfassen der aktuellen Positionen der Hände verwendet. Im Rahmen dieser Diplomarbeit wurden zwei Software-Komponenten für das VreeClimber Projekt erstellt. Zuerst wurde die Software von einem bereits entwickelten Tracking-System namens VreeTracker mit Hilfe der Computer-Vision-Bibliothek OpenCV neu umgesetzt. Während dem Erstellen dieser Software wurde mit dem Vive Tracker eine erschwingliche Hardwarelösung vorgestellt, welche ebenfalls zum Tracken der Gliedmaßen eingesetzt werden kann. In der Evaluierung wurden die Genauigkeit der beiden Tracking-Systeme durch verschiedene Tests miteinander verglichen. Da die User während des Kletterns ihre eigenen Hände nicht sehen können, wurde im zweiten Teil dieser Arbeit ein Algorithmus entwickelt, welcher mit Hilfe der erfassten Positionen die Handbewegungen der Kletterer in der virtuellen Welt nachstellt. Die entwickelte Handsimulation zeigt vielversprechende Ergebnisse bei typischen Griffbewegungen während des Kletterns, speziell aber bei schnellen Bewegungen oder bei kleinen Klettergriffen kann es zu Abweichungen gegenüber der echten Hand kommen.

Diplomarbeitsposter Wagner Thomas

Thomas Wagner

Masterstudium Software Engineering & Internet Computing
Abstract:

Eine wichtige Aufgabe in der Abwehr von digitalen Bedrohungen ist das Analysieren und anschließende Rückentwickeln von Programmen. Es ist essenziell Schadsoftware zu verstehen, um ausgenutzte Schwachstellen in Systemen zu finden, um sich vor möglichen Angriffen zu schützen. Die Dekompilierung ist ein wichtiger Schritt in diesem Prozess, da sie den Code in einer strukturierten und für den Menschen lesbaren Form darstellt. Unsere Arbeit befasst sich mit der Entwicklung eines Decompiler-Prototyps, welcher Genauigkeit und Korrektheit in den Vordergrund stellt. Die Korrektheit in dem Prozess ist von großer Bedeutung, da sonst entscheidende Teile der Gesamtlogik des Programms, die zum Verständnis seines Verhaltens notwendig sind, beim Dekompilieren verloren gehen könnten. Unser Decompiler basiert auf einem ähnlichen Prinzip, welches in einer älteren Version von GCC verwendet wurde. Diese ursprüngliche Kompilierungstechnik wurde von uns für den Dekompilierungsprozess adaptiert. Sie basiert auf den folgenden Schritten. Zuerst transformieren wir die Binärdatei in eine Zwischendarstellung in "static single assignment"-Form(SSA-Form). Diese initiale Darstellung ist so detailliert wie möglich. Im nächsten Schritt wenden wir "peephole-optimization" und "dead code elimination" an, um die Codegröße zu reduzieren. Darüber hinaus werden speziell entwickelte Regeln verwendet, um bestimmte Muster zu finden. Diese werden durch logisch äquivalente Ausdrücke ersetzt, welche leichter zu verstehen sind als ihre nicht optimierten Gegenstücke. Dadurch erhöhen wir die Lesbarkeit des generierten Codes. Zusätzlich haben wir uns mit der Rekonstruktion von Funktions-Signaturen befasst. Die Verwendung einer "usage analysis" und das anschließende Propagieren der Informationen über die Aufrufhierarchie hat zu guten Erfolgen bei kleineren Programmen geführt, allerdings nahm die Nützlichkeit rapide ab je größer die Programme werden.

Diplomarbeitsposter Zhang Fenghong

Fenghong Zhang

Masterstudium Software Engineering & Internet Computing
Abstract:

In the perspective of modern science, a proper methodology for managing, monitoring and controlling scientific workflows for all kinds of collecting data from all fields and branches plays an increasingly important role. Especially for data analytical science. The computational tasks involve reading data from the external resource and computing processed data or finding evidence during the processing of the task as the final result. The tasks of the complete workflow sometimes need to run several times. Saving and controlling of the intermediation between each workflow’s run is valuable and important. Currently, if the naming conventions are not applied, the file will be overwritten and get lost. The aim of the work is to provide a stable and functionality enabled tool for scientific workflow provenance documentation. The tool visualizes the scientific workflows with the hierarchical view of the historical intermediate files. Moreover, it provides access to the historical generated provenance data. The provenance process of the tool should be realized and derived based on the version control theory.

Arbeitsbereich Research Division of Distributed Systems

Diplomarbeitsposter Nissl Markus

Markus Nissl

Masterstudium Software Engineering & Internet Computing
Abstract:

Seit 2017 haben Kryptowährungen große Beachtung gefunden. Pro Monat werden ungefähr 50 neue Kryptowährungen auf Vergleichsseiten gelistet, die dabei mittels Transaktionen in verteilten Bestandsbüchern, sogenannten Blockchains, verwaltet werden. Die Blockchains werden allerdings nicht nur für „digitales Geld“ verwendet, sondern bieten unter anderem durch codebasierte Verträge, sogenannte Smart Contracts, die Möglichkeit nahezu beliebige Dienste dezentral auszuführen. Da sich die Blockchains in der Funktionalität voneinander unterscheiden, z. B. durch die Unterstützung von Smart Contracts, eignen sich bestimme Blockchains für manche Anwendungsgebiete besser. Eine Kommunikation zwischen den Smart Contracts unterschiedlicher Blockchains ist jedoch nicht oder nur über Umwege möglich, da Smart Contracts den Anwendungsbereich der jeweiligen Blockchain nicht verlassen können ohne die manipulationssichere Eigenschaft von Blockchains zu verlieren. Daher wird im Zuge dieser Diplomarbeit ein Framework entwickelt, das die Interoperabilität zwischen den Blockchains erhöht. Es werden sogenannte Cross-Blockchain-Calls eingeführt, die einen Aufruf eines Smart Contracts auf einer anderen Blockchain ermöglichen. Das Framework berücksichtigt dabei unter anderem die Nebenläufigkeit der Blockchains und die „eventual consistency“ von Transaktionen. Weiters werden die Fortführung einer Transaktion nach Erhalt des Ergebnisses und der rekursive Aufruf über mehrere Blockchains ermöglicht. Der implementierte Prototyp unterstützt dabei alle Blockchains, die auf der Ethereum Virtual Machine basieren und den Solidity Compiler verwenden. Die Evaluierung hat gezeigt, dass der Prototyp die Transaktionskosten um das 40-fache erhöht und je nach Konfiguration 5-7-mal länger benötigt als das manuelle Importieren eines Transaktionsresultates. Allerdings wird durch die Verwendung des Frameworks der manuelle Aufwand des Aufrufers verringert und der Import von unabhängigen Stellen überprüft.

Diplomarbeitsposter Rydzi Filip

Filip Rydzi

Masterstudium Software Engineering & Internet Computing
Abstract:

Blockchain in Mobile Edge Computing (MEC) has gained attention of researchers recently. Developers face new challenges when implementing blockchain-based applications in MEC. They have to choose a suitable deployment of blockchain features to MEC components. By running the blockchain features, MEC components have to carry out complex blockchain operations, which cause a lot of computational overhead for IoT devices. To help the developers to address the challenges, we propose a blockchain benchmarking framework. The framework is able to evaluate different patterns of blockchain interactions among MEC components. Various deployments of blockchain features to MEC components, involved in the interactions, and diverse configurations of the underlying infrastructure are also benchmarked. To be able to deploy and execute the blockchain features in the MEC components, we map the features into executable blockchain artefacts. Our framework measures performance and reliability of a benchmark via following quality metrics: transaction acceptance rate and time, scalability and hardware utilization of infrastructure’s resources. Furthermore, we propose an experiment knowledge service, which manages data related to benchmarks. The purpose of the service is to provide knowledge gathered by the benchmarks to developers. The developers can reuse the knowledge when designing their own blockchain-based applications in MEC. We have implemented prototypes of the framework and the experiment knowledge service. A set of Vehicle-to-Everything (V2X) communication scenarios have been utilized to identify various interaction patterns among MEC components. To demonstrate the flexibility of our framework we have generated and benchmarked 324 experiments based on the identified interactions. We have explained what find outs do the benchmarks provide to the developers. Furthermore, we have shown examples of how the developers can benefit from the experiments knowledge service.

Diplomarbeitsposter Schneiderbauer David

David Schneiderbauer

Masterstudium Software Engineering & Internet Computing
Abstract:

Smart Home technologies are increasingly integrated into our daily living environments. Smart Homes leverage the IoT and combine smart devices to improve living comfort with predictive data analytics. Today’s IoT is realized with cloud computing because of its virtually unlimited computing and storage capabilities. However, the cloud also introduces limitations: high latency and bandwidth usage, limited data transfer rate and requires a continuous Internet connection. Edge computing brings cloud resources closer to the user utilizing heterogeneous, resource-constrained edge devices and thus mitigates these limitations. To overcome the edge devices' heterogeneity the serverless programming model has been proposed as a light-weight computation model. Since then production-grade edge computing frameworks have been developed. These frameworks provide a serverless function orchestrator for edge application deployment. However, there have only been few real-world use case evaluations that systematically examine the serverless edge computing paradigm. The goal of this thesis is to evaluate the serverless programming model for production-grade edge computing frameworks in the context of IoT and Smart Home data analytics applications. First we define a representative real-world IoT use case. Then we examine available frameworks based on the use case requirements, specifically AWS Greengrass and Microsoft Azure IoT Edge. Based on our serverless architecture for predictive Smart Home analytics applications we implement a prototype and a cloud-based baseline for the evaluation. Eventually we evaluate serverless edge computing claims and present use case results. Our evaluation indicates that the serverless programming model is a promising edge computation model. However, production-grade frameworks lack essential features to fully realize the edge computing vision. Code mobility is only limitedly supported and there is no multi-tenant application deployment support.

Arbeitsbereich Research Division of Business Informatics

Diplomarbeitsposter Eigner Alexander

Alexander Eigner

Masterstudium Business Informatics
Abstract:

The utilization of models and approaches, such as MDE, in engineering fields grows in popularity, because models provide useful means for the data-exchange, testing, validation and code generation. In the process of the ongoing digitalization models constantly grow in size. The need for querying models, which are usually created with DSMLs, grows as well. Domain experts prefer to use DSMLs over GPMLs, because DSMLs are tailored towards particular domains and can thus be easily understood and applied. Although many well-established model querying approaches already exist, they are usually meant to be used by IT-experts and ignore the need of users from utterly different engineering fields for easy-to-use query languages, who lack the necessary IT know-how. In order to meet these need, an EMF-based prototype has been developed in the course of this thesis based on Wieringa's Engineering Cycle, that generates the model querying language MQL automatically from the Ecore metamodel of a chosen DSML and provides means for the specification and execution of MQL queries. This approach should provide query languages that resemble the original DSMLs as much as possible. This prototype also generates an XText grammar specification that will be used for writing MQL queries. A model-to-text generator translates MQL queries into equivalent Viatra VQL queries, which are then executed by the MQL's Viatra-based query engine. Hence, MQL firstly tries to be easily usable by domain experts and secondly helps users, who lack knowledge about the DSML's metamodel, by ``guiding'' them through the DSML's syntactical features. The evaluation of the execution times shows, that MQL's Viatra VQL code generator needs to be optimized, in order to allow MQL to benefit from the rapidness of its underlying Viatra VQL query engine. Furthermore, MQL achieved higher scores in the usability evaluation than Viatra VQL regarding the effectiveness, efficiency and satisfiability.

Diplomarbeitsposter Kowatsch Benjamin

Benjamin Kowatsch

Masterstudium Medieninformatik
Abstract:

This master’s thesis proposes a software visualization that aims at analyzing software quality metric trends and identifying possible causes of change. The idea is based on the specific information needs of software developers that are hard to satisfy. These information needs were found with an analysis of the state-of-the-art literature. A review of existing software visualization tools revealed that it is beneficial to combine finegrained quality metric trends with code difference views based on data from version control repositories. This combination allows for easier access to relevant code changes compared to existing software visualization solutions and satisfies some of the previously mentioned information needs. A scenario-based expert evaluation revealed that the proposed software visualization prototype makes the comprehension of code- and code-quality changes easier and has added value compared to current solutions. Experts were also asked to rate selected use cases of the prototype to emphasize its practical usefulness. On the System Usability Scale, the prototype is rated “Good”.

Diplomarbeitsposter Kränkl Lukas

Lukas Kränkl

Masterstudium Software Engineering & Internet Computing
Abstract:

In Österreich werden Massive Open Online Courses (MOOC), also kostenlose offene online Kurse mit hoher TeilnehmerInnenanzahl, bereits von einigen Universitäten angeboten. Die Technische Universität Wien hat noch keinen solchen öffentlichen Online Kurs abgehalten, jedoch sind zwei MOOCs, beide von der Fakultät für Informatik, in Planung. Die Wahl des richtigen Plattformanbieters stellt dabei eine der zentralen Herausforderungen dar, da die richtige Plattform fundamental zum Erfolg des Kurses beiträgt und eine weitreichende Entscheidung darstellt. Ziel der Masterarbeit ist es, die am besten geeigneten MOOC Plattformen für die geplanten Kurse an der Technischen Universität Wien anhand eines Anforderungskataloges zu identifizieren. Gleichzeitig sollen bei der Wahl auch der Status Quo der Universität berücksichtigt und eine eigene gehostete Umsetzung überlegt werden. Weiters wird auch auf nicht kursspezifische Anforderungen Rücksicht genommen. Die Arbeit bietet einen Überblick über die Entstehung von MOOC sowie deren unterschiedlichen Typen und Arten und verwandten Arbeiten. Neben einer Anforderungs- und Plattformanalyse umfasst die Arbeit auch eine prototypische Umsetzung auf einer selbstgehosteten Plattform.

Diplomarbeitsposter Peherstorfer David

David Peherstorfer

Masterstudium Medieninformatik
Abstract:

There is a big potential for process optimizations, due to the digitalization gap in the construction business. New digital technologies, as the Building Information Modelling (BIM),areincreasinglybeingadaptedbythestakeholdersinthisarea. Ontheotherhand, blockchain is a very new and innovative technology domain which has grown immensely in the last several years, and where people are now trying to find the right use-cases. Especially, the even newer field of smart contract development has opened the door for a large amount of possible applications, where it is neither clear if these can actually be implemented as envisioned, nor if there is even a need for a decentralized solution at all. In a construction project, changes on BIM models are only to be approved by the appropriate stakeholder. Therefore, we have combined the BIM models, which are stored using a Git repository, with a release management workflow, which is realised as a smart contract on the Ethereum blockchain.This enables the workflow to be transparent, traceable and its results to be immutable. The goal of this work is to create a prototype and compare it to other (off-chain) solutions and to evaluate if an application of a combination of BIM and blockchain yields an advantage in terms of costs and security.

Diplomarbeitsposter Pritz Florian

Florian Pritz

Masterstudium Software Engineering & Internet Computing
Abstract:

Ein Aktivitätsaudit ist ein Untersuchungsverfahren, bei dem Aktivitäten auf einem System aufgezeichnet und später hinsichtlich Missbrauch des Systems oder unautorisierte Aktivitäten untersucht werden. Solche Audits werden teilweise von Zertifizierungen und gesetzlichen Verordnungen verlangt, wobei durch diese oft eingeschränkt wird, wie Systeme einer Organisation bzw. deren Daten genutzt werden dürfen. Ein Auditor kann Audit-Logs nutzen, um zu verifizieren, dass die Systeme einer Organisation bzw. deren Daten den Anforderungen der jeweiligen Zertifizierungen oder Verordnungen genügen. Durch solch eine Überprüfung können Aktivitätsaudits nicht nur helfen, Missbrauch zu erkennen, sondern zusätzlich kann dadurch belegt werden, dass eine Organisation verantwortungsvoll agiert und sich an strikte Richtlinien hält. Ein Beispiel, in dem Systemnutzung mit Hilfe von Aktivitätsaudits überwacht werden kann, findet sich in Übungsumgebungen von Universitäten. Unterschiedliche IT-Sicherheitslehrveranstaltungen bieten Studierenden Übungsumgebungen an, in denen diese sicherheitsrelevante Aufgaben auf (virtuellen) Maschinen lösen müssen und dabei mit Sicherheitswerkzeugen in einer kontrollierten Umgebung experimentieren können. Studierende erreichen diese Übungsumgebung über das Internet mit Hilfe von Secure Shell (SSH). Die Übungsumgebung enthält für Lehrzwecke absichtlich angreifbare Dienste und Programme, allerdings dürfen Studierende die Umgebung nicht missbrauchen, indem sie zum Beispiel die Umgebung selbst oder das Internet darüber angreifen. Das Ziel dieser Diplomarbeit ist die Erstellung eines Aktivitätsauditkonzeptes, mit dessen Hilfe die Lehrveranstaltungsleitung Missbrauch erkennen und zu einem Angreifer zurückverfolgen kann.

Arbeitsbereich Research Division of E-Commerce

Diplomarbeitsposter Akhtar Mubashara

Mubashara Akhtar

Masterstudium Business Informatics
Abstract:

The telecommunication domain is marked by a vast number of products and services on the one side and on the other side, telecommunication providers have access to substantial data. The main goal of this thesis is to address the challenge of understanding users of the telecommunication domain with their information needs and preferences. Based on this knowledge, personalized offers of services and products can be given to users. To achieve this goal, we propose four different approaches. First, text mining is applied on chat conversations between users and a telecommunication chatbot to determine users’ topics of interests. Secondly, further text mining techniques are applied on users’ feedback scores and comments to decide if users’ are satisfied with the received answers or not. Thirdly, event sequence analysis is applied on sequences of events, which are extracted out of chat conversations. Finally a prediction model is generated and trained based on users’ clicks on the homepage of a telecommunication company. Summarizing the results of this work, it is possible to address the challenge of understanding users’ information needs, preferences and satisfaction. Analyzing the chatbot data, billing, homenet and un-/locked simcards are determined as users’ most popular topics of interests in chat conversations. Moreover, it is determined that the majority of feedback is negative and considerable differences in feedback for different topics is observed. Finally, the chatbot’s recommendation quality is calculated by analyzing users’ chat behavior after receiving an answer. The majority of users continue chatting afterwards and therefore most of the answers have a small recommendation quality. Based on the clickstream data, a prediction model for users’ future clicks is generated. Using the test dataset as input to the model, approximately half of the clicks are predicted correctly.

Diplomarbeitsposter Balaceanu Oana-Gabriela

Oana-Gabriela Balaceanu

Masterstudium Business Informatics
Abstract:

The focus of this research is analyzing the patterns of migration depending on the profession, gender, and country of origin while using the sources offered by Linked Open Data. The aim is to compare 15 different countries from both within and outside Europe in order to understand their distribution according to the distance transcended during migration (short, medium, medium-long, and long-distance), the gender ratios, the level of same-country migration, the spreading and degree internationalization. Time-wise, the interval between 500 BC and present has been analyzed together with the range between 1945 and present, in order to understand if recent technological advancements in traveling and communication have in any way impacted the migration flows. Due to its position as a source to Wikipedia and due to its growing community and documentation support, Wikidata was the Linked Open Data repository of choice as a data source. The processing techniques applied to the analyzed data include typical statistical methods in which specific data is fetched, distributions are calculated, and trends are analyzed through visualization methods in order to find similarities. The application developed as a result of this thesis also generates additional visualization means in order to emphasize the impact that maps, graphs, charts, and diagrams have in understanding and extracting valuable insight from raw data. The result of the research has confirmed that there are many similarities in trend between various countries and professions when migrating (e.g., Germany with France), that gender plays an active role when choosing long-distance over short-distance, that the last decades have, against intuition, made notable people more settled, that there is a strong country bias when fetching linked data, and that in all the cases, the number of places of birth is smaller than the number of places of death.

Diplomarbeitsposter Elashkr Taghrid

Taghrid Elashkr

Masterstudium Business Informatics
Abstract:

Nowadays travelers do not only consume information, but also produce a lot of content themselves, which is shared in various channels including social media, travel review sites, blogs, etc. This generated content is categorized as unstructured data, which is available in forms of posts, messages, and comments. Businesses can use this content to enrich their understanding of their customers' needs. Analyzing such an amount of information can take a lot of effort and time. Therefore, text mining techniques using machine learning, and predictive analytics are used to investigate the information. This work focuses on the content created in TripAdvisor United Kingdom, particularly in the Austria forum. The data is used to gain new insights that can support travel professionals responsible for the destinations marketing of Austria. Additionally, the data is also used to understand the relationship to the historical arrivals data in order to determine how these data can contribute to the prediction of future arrivals (number of visitors) to Austria. Likewise, the Google search volume index is used as an additional data source in the prediction analyses. The results show that travelers use the TripAdvisor forum not only to get answers for questions related to their trip planning but also to get inspiration and support in choosing their next holiday destination. Additionally, travelers begin researching for their trip three months in advance, except for summer trips, for which planning starts earlier. Moreover, the forums' content reflects the travelers' interests depending on their country of origin. The outcome of the time series analysis for the prediction of arrivals showed that extending the models with the user generated content, including Google search data and TripAdvisor data, improved the forecasting of the tourist arrivals for some of the time series but not all. Nevertheless, this user generated content can be used to detect future trends and demand patterns.

Diplomarbeitsposter Hämmerle Christoph

Christoph Hämmerle

Masterstudium Business Informatics
Abstract:

The analysis of textual data and their predictive quality has gained the interest of many researchers, especially in the financial domain. This thesis investigates whether newspaper articles contain information to describe the changes of the Austrian Traded Index (ATX). We apply state of the art methods to extract newspaper articles from the online platform of an Austrian newspaper, to perform sentiment analysis of the articles and to build machine learning models in order to predict price and volatility developments of the ATX. As the newspaper articles are written in German, we create a new sentiment lexicon, called German Financial Sentiment Lexicon (GFSL), by extracting sentiments from the SentiWS, a general German sentiment lexicon, and adding financial sentiment words to the lexicon. Our findings show the newspaper articles contain information which allow predictions of price and volatility movements. The GFSL does not clearly outperform the SentiWS lexicon, although in some scenarios it clearly has an advantage over the general lexicon. The results confirm the findings of previous studies such that negative sentiments highly influence the outcome of the model while positive sentiments are hardly relatable to positive development of the index.

Diplomarbeitsposter Lett Nicolas

Nicolas Lett

Masterstudium Business Informatics
Abstract:

The purpose of this study is to understand the effects of social media on the motivation of users to quit smoking. We used data from 3,596 users of an existing smoking cessation mobile application to perform a cluster randomized controlled trial over a period of two months. Our treatment was a social-enabled solution integrated in the existing application. Users could interact with each other by publishing posts and comments through an online community. We collected usage behavior of application like number of sessions, average session duration, daily active users and calculated the 30-day retention rate to assess the motivation of people to quit smoking and their level of success at the end of the controlled experiment. We compared these metrics and processed them through statistical test (T-test, survival analysis via Kaplan-Meier estimate) to understand the impact of the social features. Our main results showed that users participating actively to the social platform have a better retention, than users exposed but inactive and unexposed users. A higher frequency of social exchanges also improved the retention. At the same time, there was no clear positive effect for users exposed to the social-enabled solution, who did not participate. The number of sessions and average session duration were less relevant than regularity of usage over time to increase the chances of success. We have seen the positive influence of social media on people's motivation to quit smoking and on the abstinence rate after a few weeks, which is opening opportunity for further research on the topic.

Diplomarbeitsposter Sonnleitner Thomas

Thomas Sonnleitner

Masterstudium Business Informatics
Abstract:

Diese Arbeit zeigt, dass die Verwendung eines temporalen Datenbankmanagementsystems (DBMS) im Geschäftsprozessmanagement (GPM) von Vorteil sein kann. Im Vergleich zur Verwendung eines herkömmlichen DBMS ist die Unterstützung von temporalen Datenabfragen ein großer Vorteil. Diese sind deutlich kürzer und in der Struktur einfacher als herkömmliche Abfragen nach Periodendaten. Zusätzlich wurden Planungs- und Ausführungszeiten der Datenbankabfragen ausgewertet. Teils konnte auch eine bessere Leistung in der Verarbeitung von Abfragen in der temporalen Datenbank beobachtet werden. In dieser Hinsicht konnte jedoch kein allgemeingültiger Leistungsvorsprung festgestellt werden. Um beide Datenbanken zu vergleichen, wurden dreizehn GPM-relevante Datenbankabfragen in Standard- und temporalem SQL implementiert, die dann in einer Standard- und einer temporären PostgreSQL-Installation ausgeführt wurden. Zweitere ist eine PostgreSQL-Erweiterung, die als Forschungsprototyp von Dignös, Böhlen, Gamper und Jensen entwickelt wurde und in deren Arbeit Extending the Kernel of a Relational DBMS with Comprehensive Support for Sequenced Temporal Queries näher beschrieben ist. Um einen umfassenden Vergleich zu ermöglichen, wurden innerhalb einer Simulationsanwendung unter Verwendung der Activiti Workflow Engine drei unterschiedlich große Datensätze von Prozessausführungsdaten erzeugt und im Activiti Datenmodell gespeichert. Bis zu 4.000 Prozessiterationen eines beispielhaften Kreditgenehmigungsprozesses wurden simuliert. Die generierten Daten wurden wiederholt unter Verwendung von Standard- und temporalen SQL Statements in dem jeweiligen DBMS abgefragt.

Diplomarbeitsposter Toskova Diana

Diana Toskova

Masterstudium Software Engineering & Internet Computing
Abstract:

Ein effektives Projektmanagement kann der Organisation Vorteile bringen, die über die reine Erstellung eines Produkts oder einer Dienstleistung hinausgehen, aber auch zur Erfüllung ihrer langfristigen Ziele beitragen. Solche langfristigen Ziele werden zum Beispiel bei Business Process Management-Projekten erreicht, bei denen wichtige Geschäftsprozesse optimiert werden, um die Arbeitsweise innerhalb der Organisation insgesamt zu verbessern. Das Projektmanagement verwendet verschiedene Techniken, Werkzeuge, Methoden und Best Practices, um sicherzustellen, dass die Projekte ihre Ziele erreicht haben und in der vorgegebenen Zeit und im vorgegebenen Budget durchgeführt werden. Da Organisationen viele Projekte durchführen, von denen einige ähnlich sind, ist es für sie von großer Bedeutung, aus den Erfahrungen aus den vergangenen Projekten zu lernen und das Wissen bei der Durchführung neuer Projekte zu nutzen. Dies stellt sicher, dass die Organisation ihre Arbeit ständig verbessert und auf dem Markt wettbewerbsfähig bleibt. Das Case-based Reasoning ist eine Methode, die alte Erfahrungen nutzt, um bessere Lösungen für ähnliche Probleme zu finden. Es kann zur Unterstützung des Projektmanagements verwendet werden, um bessere Entscheidungen bei der Planung und Ausführung von Projekten zu treffen. Durch zusätzliches Fachwissen kann dieser Prozess weiter optimiert werden, und eine Ontologie zum Projektmanagement kann ein hervorragendes Mittel in diese Richtung sein. Ontologien enthalten Wissen (normalerweise über eine bestimmte Domäne), einschließlich verschiedener Konzepte, deren Hierarchie und Zusammenhänge sowie viele zusätzliche Metadaten. Es kann weiter ausgebaut werden, um bestimmte Arten von Projekten abzudecken, beispielsweise Softwareprojekte oder BPM-Projekte. Das Erstellen einer solchen Ontologie kann den Case-based Reasoning-Prozess in allen Phasen unterstützen und den Projektmanager dabei unterstützen, bessere Entscheidungen zu treffen.

Arbeitsbereich Research Division of Compilers and Languages

Diplomarbeitsposter Inführ Dominik

Dominik Inführ

Masterstudium Software Engineering & Internet Computing
Abstract:

Tracing Garbage Collection (GC) is a technique for automatic memory management used by many programming languages. The application only allocates new memory, while the GC automatically frees unreachable memory again. When the GC runs out of memory, the collector stops the application to release memory. It computes the transitive closure of all objects reachable from the application. Afterwards the memory can be reclaimed for unreachable objects. Immediately after discarding the memory, execution of the application can continue. This work presents the generational GC Swiper for the Dora runtime. The collector is based on the weak generational hypothesis, that states that most objects die young. Based on this empirical observation the heap is split into young and old generation. Objects are allocated in the young generation and promoted into the old one as soon as they become old enough. The GCs duty is to reclaim unused memory. A collection is more effective when applied on memory regions that are more likely to continue garbage. Therefore Swiper performs two different kinds of collection: minor and full collection. Frequent minor collections discover garbage solely in the young generation, whereas the less common full collection handles the full heap. Swiper uses different collection schemes for the different collections: copy collection during minor collections and mark-compact for full collections. Swiper’s performance is competitive to pure Copy collection, while using half the memory. However, it is less efficient than pure Copy collection and mark-compact in non-generational workloads. Pause times are reduced by distributing work to multiple worker threads. Serial collection is faster than parallel collection with one worker thread due to synchronization overhead. Using multiple worker threads reduces pause times compared to serial minor and full collection.

Diplomarbeitsposter Prenner Stefan

Stefan Prenner

Masterstudium Software Engineering & Internet Computing
Abstract:

Large-scale grid systems, such as the CERN Worldwide LHC Computing Grid (WLCG), often have to deal with problems arising from a variety of heterogeneous storage units. Potential issues include complicated access due to different protocols, inefficient use of storage resources and many more. In the course of this thesis, the problem of dealing with different access protocols when handling browser downloads is solved for Rucio, the ATLAS distributed data management system, and a proof of concept for machine learning based prefetching is being developed using Rucio data. Simulation results show that, compared to static prefetching techniques, cache hit rate increases of up to 20% can be achieved with a Random Forest classifier.

Diplomarbeitsposter Sengstschmid Martina

Martina Sengstschmid

Masterstudium Software Engineering & Internet Computing
Abstract:

Ausgelöst durch den Kryptowährungs-Boom der letzten Jahre erfreut sich die darunterliegende Blockchain-Technologie größter Beliebtheit. Dies liegt nicht zuletzt an den inhärenten Eigenschaften der Technologie, wie beispielsweise Dezentralisierung, Transparenz, Unveränderlichkeit der Daten, öffentliche Überprüfbarkeit, Nicht-Abstreitbarkeit, Integrität, Datenschutz und gleiches Recht für alle. Die Blockchain ermöglicht verteilte Datenhaltung zwischen nicht vertrauenswürdigen Parteien in einem verteilten Netzwerk, ohne die Notwendigkeit einer zentralen Instanz. Angetrieben von den vielversprechenden Möglichkeiten investieren viele Firmen unsummen in neue Blockchain Projekte. Dadurch stieg die Anzahl an neuen Blockchain Systemen, allen voran Permissioned Blockchains. Diese haben die Eigenschaft, den Netzwerkzugriff zu beschränken, wodurch sie vor allem für den Einsatz im Firmenbereich gut geeignet sind. Mit der steigenden Anzahl verschiedener Systeme wird es zunehmend schwerer für alle Anforderungen eine geeignete Blockchain-Technologie zu finden. Diese Arbeit illustriert eine pattern-basierte Methodik zur Evaluierung eines bestimmten Blockchain-Ansatzes für eine Anwendung. Ausgehend von kollaborativen Community Anwendungen und der dazugehörigen Use Cases werden sechs Community Blockchain Interaction Patterns abgeleitet. Die Arbeit zeigt weiters, wie sich bestehende Permissioned Blockchain Systeme anhand der Patterns analysieren lassen. Das Ergebnis dieser Analyse zeigt deutliche Unterschiede bei der Unterstützung der Patterns. Abschließend wird gezeigt, dass die entwickelten Patterns in Anwendungen aus verschiedensten Industriezweigen anwendbar sind.