EPILOG Wintersemester 2016

Auszeichnungen

Weitere Nominierungen für Distinguished Alumnus/a of the Faculty of Informatics

Ausgestellte Arbeiten

Institut für Technische InformatikE182

Arbeitsbereich Cyber-Physical Systems

Diplomarbeitsposter Vaczula Csaba

Csaba Vaczula

Masterstudium Software Engineering & Internet Computing
Abstract:

Das Erfüllbarkeitsproblem der Aussagenlogik (SAT, von englisch satisfiability‚ ‘Erfüllbarkeit’) ist einer der wichtigsten NP-vollständiges Problem. Trotz der Komplexität des Problems, sind moderne SAT Solver sehr ausgefeilte Werkzeuge, die Hunderttausende von Variablen und Millionen von Klauseln leicht verarbeiten kann. Eines der wirksamsten Verfahren SAT Probleme zu lösen, ist der Davis-Putnam-Logemann-Loveland (DPLL) -Algorithmus. DPLL ist eine Backtracking Suche auf Basis sequentieller Algorithmus und es ist weit verbreitet in den State-of-the-art-SAT-Solver. Mit dem Aufkommen der hochparallele Architekturen, das Interesse der Gemeinschaft SAT Solver hat in Richtung der Parallelisierung von sequentiellen Algorithmen wie DPLL bewegt, um die Vorteile der leistungsfähigen Verarbeitungsmöglichkeiten in den modernen Multicore-Hardware-Architekturen in Anspruch zu nehmen. In dieser Arbeit nähern wir uns der Herausforderung, aus einem anderen Blickwinkel effektiv parallel SAT Solver zu entwickeln. Anstatt einen Suchalgorithmus wie die meisten Löser zu verwenden, wir verarbeiten die Klauseln nacheinander. Der Algorithmus beschreibt die möglichen Modelle zu den bereits verarbeitet Klauseln. Wenn eine neue Klausel verarbeitet worden ist, werden die beschriebenen Modelle so modifiziert werden, so dass die neu verarbeitet Klausel zufrieden sein werden. Im Falle des Verfahrens, eine der wichtigsten Bedingungen war die Ausnutzung der GPU. Wir führen eine neue logische Darstellung ein und wir konzentrieren uns auf Single Instruction Multiple Data (SIMD). Verschiedene Art von Aufgaben wurden durchgeführt, die die GPU passen. Der Algorithmus wurde mit C ++ und CUDA implementiert. Die Tests wurden an einer NVIDIA Geforce GTX 860M Grafikkarte durchgeführt. Während der Entwicklung wurde der Algorithmus auf der Grundlage der Testergebnisse verbessert. Die Arbeit beschreibt die Grundidee und die wichtigsten Schritte dieser Verbesserungen mit den Testergebnissen.

Diplomarbeitsposter Wallner Wolfgang

Wolfgang Wallner

Masterstudium Technische Informatik
Abstract:

Eine globale Zeitbasis ist die Grundlage für verteilte Echtzeitsyteme. Da einzelne Uhren durch verschiedene Rauscheffekte voneinander abweichen, benötigt man eine Art der Synchronisierung um eine globale Zeitbasis aufzubauen. Verschiedene Technologien wurden entwickelt um diese Aufgabe zu lösen. Mit dem Precision Time Protocol (PTP), welches in [IEE08] standardisiert wurde, steht ein weiterer Kandidat zur Verfügung der in verschiedenen Industrien eingesetzt wird. Da mittlerweile auch normale Verbrauchergeräte anfangen Hardwareunterstützung für PTP zu enthalten, wird das Protokoll mehr und mehr zu einem interessanten Kompromiss zwischen Kosten und Präzision. Die Verfügbarkeit von kostengünstiger, präziser Hardware macht PTP zu einer interessanten Option für Systemdesigner and ermöglicht neue Applikationen verteilter Echtzeitsysteme. Wenn man PTP in einer Applikation einsetzen möchte, ist es von Interesse die zu erwartende Präzision der Synchronisierung im Vorhinein abschätzen zu können. Im Speziellen da PTP zahlreiche Optionen zur Verfügungen stellt wie es implementiert und konfiguriert werden kann. Das Ziel dieser Arbeit ist es ein Simulations-Framework für PTP zu entwickeln, welches einen Systemdesigner bei diesen Designentscheidungen unterstützt. Um dieses Ziel zu erreichen, wurden für diese Arbeit zwei Softwareprojekte entwickelt: - LibPLN: eine portable, effiziente Softwarebibliothek zum erstellen von realistischem Oszillatorrauschen - LibPTP: ein Simulations-Framework für PTP-Geräte Beide Komponenten wurden als generische, portable C++ Bibliotheken implementiert. Das ermöglicht es Anwendern sie für ihre Zwecke anzupassen und in eigenen Entwicklungswerkzeuge zu integrerieren, um damit die jeweils untersuchten Systeme simulieren zu können.

Institut für Rechnergestützte AutomationE183

Arbeitsbereich Automatisierungssysteme

Diplomarbeitsposter Hotz-Behofsits Christian

Christian Hotz-Behofsits

Masterstudium Software Engineering & Internet Computing
Abstract:

Software testing is an important software-engineering discipline and a major quality assurance task, which requires sufficient resources. Nowadays mobile native applications are mostly developed in separate teams, because of the heterogeneity of the dominant platforms, which leads to redundancies in several test related activities. Platform independent testing tools and single-sourcing of test cases can be used to reduce unnecessary or duplicated workloads. These superfluities of functional tests can be reduced by the usage of platform independent testing frameworks. In general the exploitation of higher test levels, like acceptance tests, and a strong focus on the graphical user interface make these savings possible.

Diplomarbeitsposter Kirchengast Uwe

Uwe Kirchengast

Masterstudium Medizinische Informatik
Abstract:

Many private and governmental e-health projects are currently developed to increase efficiency and quality of health care. As a result sensitive health related data is processed and stored for large amounts of patients. This poses a risk for misuse of data. This work analyses security architectures of current e-health infrastructures and deduces a reference core architecture. Communication channels of this reference infrastructure are examined for potential side channel attacks. A side channel is defined as unintentional exposure of internal system information. Exemplified side channel attacks targeting the given reference infrastructure are developed and characterized based on previously published scientific works. As a result, three possible attack scenarios are described. Each of the scenarios violate the IT security goal of confidentiality. This work points out the fact that the OCSP, a protocol for retrieving up-to-date revocation information for electronic certificates, leaks information about actual processes being performed within the infrastructure as well as involved patient identities.

Diplomarbeitsposter Lopez Narvaez Ramon

Ramon Lopez Narvaez

Masterstudium Software Engineering & Internet Computing
Abstract:

Automatisierte Softwaretests sind aus der heutigen Softwareentwicklung nicht mehr wegzudenken. Die steigenden Umfänge und Komplexitätsniveaus moderner Software verlangen nach immer effizienteren Mitteln, um Qualität sicherzustellen. Ein vielversprechender Ansatz ist das modellbasierte Testen (Model Based Testing). Model Based Testing (MBT) wird seit mehr als 15 Jahren aktiv erforscht und betrieben. Außer in wenigen Branchen, wie der Automobil- und Robotikindustrie, fand MBT nie breite Anwendung. Diese Arbeit erforscht und vergleicht in einem ersten Schritt mehrere Konzepte und Werkzeuge des modellbasierten Tests. Dann wird, im Hinblick auf Verbesserungspotenzial in der Qualitätssicherung, ein ausgewähltes Fallbeispiel im Bereich der Finanzsoftware analysiert. Schlussendlich wird eine neuartige Teststrategie anhand dieses Fallbeispiels präsentiert, welche die Stärken von MBT und Behavior Driven Testing (BDT) vereint. Das Open-Source Werkzeug Graphwalker kann aufgrund seiner hohen Flexibilität sehr gut im Fallbeispiel eingesetzt werden. Graphwalker ermöglicht den gezielten Einsatz als Schicht zwischen logischem und technischem Teil der Testfälle. Die Testabläufe können so von den zugrundeliegenden technischen Details entkoppelt werden. Damit kann eine der Hauptanforderungen realisiert werden: Die Minderung der Kosten für die üblicherweise teure Wartung automatisierter Tests. Das Resultatskapitel stellt einen Ansatz vor, bei dem parallel BDT eingesetzt wird. Diese Kombination ermöglicht eine optimale Abdeckung mit vollautomatischen Traversierungen durch Graphwalker und manuell definierten Akzeptanztests. Überdies wird, ausgehend von den strukturellen Ähnlichkeiten beider Ansätze, eine allgemeine Vorgehensweise für den kombinierten Einsatz von MBT und BDT präsentiert, sodass Synergien optimal genützt werden können.

Diplomarbeitsposter Nawratil Alexander

Alexander Nawratil

Masterstudium Software Engineering & Internet Computing
Abstract:

Die Nahfeldkommunikationstechnologie (NFC) in modernen Smartphones ermöglicht neue Anwendungsgebiete wie beispielsweise E-Wallets, elektronische Fahrkarten oder berührungslose Zutrittssysteme. Konkrete Anwendungen in den genannten Fällen können die Notwendigkeit erfordern, sensible Daten wie kryptografisches Material, Autorisationsdaten oder etwa Kontostände bei Bezahlsystemen zu speichern und zu verarbeiten, wobei diese vor unberechtigter Offenlegung oder Veränderung zu schützen sind. Sichere Elemente bieten eine isolierte, sichere Umgebung, um diese Art von sensiblen Informationen in einem nicht vertrauenswürdigen Gerät speichern zu können. Diese Arbeit liefert einen Überblick über Hardware- und Software-basierende Technologien, die in modernen Smartphones zum Einsatz kommen und die sichere Speicherung sowie Verarbeitung von sensiblen Informationen in sicheren Elementen unterstützen. Ein Fokus liegt auf sicherheitsrelevanten Designfehlern im Secure Element Evaluation Kit (SEEK) Framework, das Applikationen beschränkten Zugriff zu sicheren Elementen in Android-basierten Smartphones ermöglicht. Die gefundenen Schwachstellen können einem Angreifer uneingeschränkten Zugriff zu jedem durch SEEK verwalteten sicheren Element gewähren. Ein Exploit für eine dieser Schwachstellen für ein unverändertes Android-basiertes Smartphone wird vorgestellt, der einem Angreifer volle Kontrolle über SEEK selbst und somit auch dessen Zugriffssteuerung ermöglicht. Das Mobilgerät wird schließlich dazu verwendet, eine Bezahltransaktion in einem Relay-Angriffsszenario über Bluetooth oder mobiles Internet durchzuführen, um die Risiken im Gebrauch dieser neuen Technologien zu demonstrieren.

Diplomarbeitsposter Spiesberger - Höckner Alois Paul

Alois Paul Spiesberger - Höckner

Masterstudium Medieninformatik
Abstract:

Diese Diplomarbeit beschäftigt sich mit der schnellen und dynamischen Entwicklung neuer Technologien in Entwicklungsländern wie Mosambik und reiht sich in das Forschungsfeld der Informations - und Kommunikationstechnologien für Entwicklungszusammenarbeit (ICT4D) ein. Sie ist Teil des Projektes ICT4D in Mosambik, welches aus dem Konsortium der Universidade Eduardo Mondlane in Maputo (UEM), der Technischen Universität Wien (TU Wien) und dem Österreichischen Netzwerk für Informations- und Kommunikationstechnologien für Entwicklungszusammenarbeit (ICT4D.at) besteht. Diese Arbeit beschäftigt sich mit mobilen Technologien im Kontext von Entwicklungsländern und wie diese genutzt werden können, um Benutzern Information bereitzustellen. Es wurde eine prototypische Applikation für das Smartphone-Betriebssystem Android von mosambikanischen Studenten entwickelt, welche die Navigation am Campus ermöglicht. Eine Umfrage bestätigte, dass die Applikation aufgrund unzureichender Hardware-Verbreitung der Zielplattform, aber auch mangelnder Infrastruktur für mobile Datenübertragung nicht ausreichend zugänglich ist. Um dennoch allen Studenten Zugriff auf die Information der Android Applikation zu ermöglichen, wurde ein neues SMS-basiertes System entwickelt, die den Anforderungen von Universal Design und Human Computer Interaction for Development (HCI4D) gerecht wird. Das neue Interface benutzt existierende und günstige Infrastruktur, fokussiert sich auf lokal verbreitete Low-End Hardware, funktioniert im Einklang mit zukunftssicheren Alternativen und schließt, im Gegensatz zur Android Applikation, keine potentiellen Benutzer aus.

Diplomarbeitsposter Stadler Manuel

Manuel Stadler

Masterstudium Software Engineering & Internet Computing
Abstract:

In der Softwareentwicklung werden verstärkt agile Vorgehensweisen zur Strukturierung und Koordination der täglichen Arbeit eingesetzt. Methoden wie Scrum oder Extreme Programming empfehlen, alle Teammitglieder am selben Ort bzw. sogar im selben Raum zu positionieren. Gleichzeitig gibt es aber auch einen klaren Trend in Richtung verteilten Arbeitens sowie verteilter Teams. Trotz dieser beiden Gegensätzlichkeiten werden beide Aspekte immer öfter kombiniert und agile Methoden vermehrt in verteilten Teams eingesetzt. Diese Diplomarbeit untersucht, wie agile Prozessmodelle in verteilten Teams angewendet werden, welche Vor- und Nachteile diese mit sich bringen und die Herausforderungen, die dabei entstehen. Als Einschränkung dieses komplexen und weitläufigen Themengebietes wurde der Fokus explizit auf Teams, welche innerhalb eines Landes oder in Nachbarländern verteilt sind, gelegt. Im Zuge einer Fallstudie wurden verteilte Teams mit Standorten in Österreich und Deutschland untersucht. Die empirische Datenerhebung erfolgte mittels qualitativer, semi-strukturierter Experteninterviews. Die Analyse der gesammelten Daten zeigt klar, dass agile Methoden erfolgreich in verteilten Teams mit geringer Distanz angewendet werden können und diese sogar Vorteile mit sich bringen. Moderne Kommunikationstechnologien ermöglichen es Teams, ohne bedeutende Hindernisse über Entfernungen zu kommunizieren und erleichtern außerdem eine enge Zusammenarbeit über Standortgrenzen hinaus. Typische agile Praktiken und Kennzeichen wie kurze Iterationen, Pair Programming, tägliche Standup-Meetings, Code-Reviews oder Retrospektiven werden von verteilten Teams erfolgreich eingesetzt. Als Ergebnis der Forschungsarbeit werden sechs grundsätzliche Herausforderungen sowie fünf Vorteile von agilen Methoden in verteilten Teams herausgearbeitet. Abschließend werden elf Empfehlungen für Teams in ähnlichen Situationen aus den gesammelten Daten abgeleitet.

Arbeitsbereich Computer Vision

Diplomarbeitsposter Léger Gladys

Gladys Léger

Biomedical Engineering
Abstract:

The way the brain connects its different areas to provide its unequaled level of efficiency is an aspect of the brain working that is currently not fully understood. A way to characterize it is to map the networks constituting functional connectivity owing to rest-functional Magnetic Resonance Imaging (rest-fMRI), a non-invasive imaging technique. Owing to connectivity metrics such as correlation calculated between rest-fMRI signals from different regions of the brain surface, Resting State Networks are constructed. Although functional networks share topological similarities with anatomical networks, they are not static as it has been assumed. The complexity of the problem is thus increased and methods are developed to extract dynamic properties from functional networks with a high enough time resolution. The aim of this master thesis is to develop a new approach to represent dynamic functional connectivity as workable networks respecting both spatial and temporal variability. The functional networks are considered as dynamic communities that interact across time. These interactions are characterized at different levels by events and their analysis provide insights in the functional organization of the brain. A robust representation of the dynamic functional connectivity and their interactions across individuals is thus established and applied to a population of 200 subjects.

Diplomarbeitsposter Weingant Michaela

Michaela Weingant

Biomedical Engineering
Abstract:

Breast cancer is a common disease and the diagnosis as well as treatment decisions are largely based on examinations by pathologists. They are traditionally conducted on tissue samples sliced into thin slides. In the last decade the field of Digital Pathology has emerged, which after scanning of the tissue slides allows digital viewing and analysis of tissue slides formerly manually examined under the microscope. One of the exams in breast cancer includes the quantification of the proliferative activity of nuclei, which is an indicator of tumor growth. The proliferative activity is expressed as the Labeling Index (LI, rate of dividing vs. non-dividing nuclei) and is made visible on a tissue-slide with a stain called Ki-67. The aim of the work presented is to develop and evaluate an algorithm for the automatic quantification of the LI on a digitized slide. The algorithm is based on color deconvolution, dividing the image into two channels, showing the dividing (Ki-67 positive) and one showing the non-dividing (Ki-67 negative) nuclei, respectively. Three deconvolution approaches are tested. Each channel is post-processed using well-established image processing steps and the result is a segmentation of all nuclei in each channel. The amount of nuclei in each channel yields the LI for each image. No supervised training on labeled data is required prior to the image analysis. For evaluating the performance of the algorithm, a fully labeled dataset of Ki-67 stained images of the breast is required. Because no such benchmark dataset is available, a synthetic dataset is built, using nuclei manually extracted from digital Ki-67 slides and a novel synthesis method, allowing varying nuclear arrangementa, LIs and stain appearances. The images in the datasets generated provide detailed ground truth information. An in-depth evaluation based on the synthetic images points out that the presented algorithm is able to estimate the LI in an image with an absolute error of 1.5%.

Diplomarbeitsposter Wetzinger Elisabeth Reingard

Elisabeth Reingard Wetzinger

Masterstudium Medieninformatik
Abstract:

The „digital natives“ generation is characterized by a skillful use of new media but also by their lack awareness concerning risks and responsibilities induced by the handling of personal data online. Open questions are: “How can personal images published online be acquired and processed using currently available technological means?“ and “Is there awareness among children and teenagers for possibilities, risks or consequences and hence for a responsible handling of their personal pictures online?“ Once published, digital images can spread quickly over the Internet and are difficult to be removed and questionable trends (sexting, cyberbullying) exist. Consequences can be disastrous for the involved persons, yet pupils still lack a critical evaluation of their own behavior. This work is focused on the possibilities, risks and impacts of applying computer vision and image processing technologies within the context of online available pictures as well as the acquisition and processing of large amounts of unconstrained image datasets. It aims at developing and implementing an interdisciplinary media education project concept with the following characteristics: It combines state of the art research of sociology and computer science to develop a profiling software tool and to collaboratively implement the project. The overall objective is to improve media literacy and the awareness among young people for a responsible handling of their own data online. The thesis also contributes a user interface design concept to support an age-appropriate and intuitive handling of the software and the high-level technical specification of the Profiler tool. It includes the design of a profile report containing synthesized image analysis results and their statistical evaluation. Finally, this work includes an evaluation of the holistic education oncept, its methods and implementation as well as of the Profiler software tool focusing on usability and user-related aspects.

Institut für InformationssystemeE184

Arbeitsbereich Distributed Systems

Diplomarbeitsposter Demel Harald

Harald Demel

Masterstudium Software Engineering & Internet Computing
Abstract:

In Batch-Queuing-Systemen werden häufig Berechnungen durchgeführt, die aus einer großen Anzahl von ähnlichen, voneinander unabhängigen Teilaufgaben bestehen. Durch parallele Abarbeitung kann die Berechnungszeit reduziert werden, allerdings nur im Rahmen der zur Verfügung stehenden Hardware. Die Reduktion der Berechnungszeit ist besonders relevant, wenn auf Terminvorgaben hingearbeitet wird. Eine permanente Erhöhung der Rechenkapazität für Lastspitzen ist jedoch nicht effizient. Im Zuge dieser Arbeit wird ein Batch-Queuing-System um die Fähigkeit zur autonomen Skalierung erweitert indem jeweils eine Anbindung an ein Grid-Computing-System und eine IaaS-Cloud entwickelt wird. Der entstehende Performance-Overhead wird analysiert und mit anderen Arbeiten verglichen. Durch das stundenweise Abrechnungsmodell von IaaS-Clouds und die Hochlaufzeit der Rechenknoten ist es nicht kosteneffizient alle Teilaufgaben einer Berechnung parallel zu berechnen, wenn deren Laufzeit deutlich unter einer Stunde liegt. Eine Heuristik welche die Berechnungszeit minimiert und dabei die Kosten minimal hält wird entwickelt. Die Fähigkeit zur autonomen Skalierung kann außerdem in einem Hybridsystem eingesetzt werden. Dabei wird das Grid-Computing-System um die Fähigkeit erweitert bei unzureichenden Ressourcen in die IaaS-Cloud zu skalieren. Anhand von Berechnungen aus dem Einsatzgebiet Nano-TCAD werden Berechnungsdauer und Kosten bei Verwendung von manuell gestarteten Rechenknoten, Grid-Computing-System, IaaS-Cloud und Hybridsystem gegenübergestellt. Dabei zeigt sich, dass die Berechnungszeit durch die Berechnung in der IaaS-Cloud, trotz Verwendung der Heuristik zur Kostenminimierung, reduziert werden kann. Ein Hybridsystem kann schneller Ergebnisse liefern als die Nutzung von Grid-Computing-System oder Cloud-Computing alleine und verursacht dabei geringere Kosten als die ausschließliche Nutzung von Cloud-Ressourcen.

Diplomarbeitsposter Laaber Christoph

Christoph Laaber

Masterstudium Software Engineering & Internet Computing
Abstract:

Seit Jahrzehnten ist Software Architektur im Fokus der Wissenschaft. Eine neuere Entwicklung in diesem Bereich ist die Einbeziehung von Menschen. Eine Architektursprache mit Menschen als Komponenten is hADL. hADL ist eine struktur-orientierten Sprache, die flexible Beschreibungen von Kollaborationen erlaubt. Die Instanziierung ist jedoch komplex und brüchig. Im Vergleich bringen prozess-orientierte Sprachen bessere Unterstützung für Workflow-Modellierung und Ausführung. Der Nachteil ist die fehlende Flexibilität im Entwurf von Kollaborationen. Eine Kombination beider Paradigmen wird als überlegener Ansatz angesehen. Diese Diplomarbeit untersucht eine Methode, um gültige hADL Programme zu spezifizieren, die den Aufwand von Entwicklern reduziert. Eine weiteres Ziel ist, die beiden Paradigmen näher zusammen zu bringen. Eine domänen-spezifische Sprache (DSL) wird mit Xtext (Framework für DSL Entwicklung), entwickelt, die es erlaubt Kollaborationsinstanzen in einer kurzen Form zu spezifizieren. Der Umfang der DSL beinhaltet Verknüpfungs- und Beobachtungsfunktionalitäten von hADL, Kontrollflussanweisungen, Variablen und einen Abstraktionsmechanismus. Mit Hilfe von Überprüfungen wird die Gültigkeit von DSL-Programmen zur Übersetzungszeit sichergestellt. Nur gültige Programme werden in Java Code übersetzt. Weiters wird der Entwicklungskomfort durch IDE Vorschläge erhöht. Die DSL wird mit einem einfachen Scrum Prozesses evaluiert. Die Evaluierung zeigt auf, wie sehr sich der Aufwand eines Entwicklers reduziert, der die DSL statt Java verwendet. Die Ergebnisse zeigen, dass ein signifikant geringerer geistiger und physischer Aufwand nötig ist, um Kollaborationsinstanzen mit der DSL zu definieren. Im Evaluierungsszenario führt die DSL 70 automatische Gültigkeitsüberprüfungen durch und das DSL-Skript ist um einen Faktor 7,3 kürzer als der generierte hADL-Client Programmcode.

Diplomarbeitsposter Zhang Xiaolin

Xiaolin Zhang

Masterstudium Software Engineering & Internet Computing
Abstract:

With increasing level of interconnections between software users due to the ubiquity of the web, software systems are forced to include and support emergent interaction patterns to enable effective and efficient collaboration between participants, that are humans and software agents. Numerous tools exist today to simplify collaborative undertakings and integrating them into software systems imposes a challenge to software architects and developers. Further more, collaborative tools are subject to fast changes thus human-intensive software systems have to be highly adaptable. To this end, the human architecture implementation framework is proposed. It offers structural architectural documentation via hADL and can be combined with behavioural meta-models such as process description languages to provide composite means to prescribe and describe software architectures. The framework includes a runtime which offers process engine integration based on a resource model and manages architectural elements prescribed via hADL using surrogates (proxies). Additionally an architecture-driven software development approach is inherently enforced. The evaluation of the framework includes a prototype implementation of an interest-based bargaining process. A prosaic assessment of the framework is conducted and experiences during development are shared.

Arbeitsbereich Database and Artificial Intelligence

Diplomarbeitsposter Svozil Alexander

Alexander Svozil

Masterstudium Computational Intelligence
Abstract:

The SPARQL Protocol and RDF Query Language (SPARQL) presents a standardized way to query the growing amount of Resource Description Framework (RDF) data on the internet. A feature of SPARQL 1.0 is the GRAPH operator which is able to query multiple local RDF graphs in only a single query. To access the growing amounts of SPARQL endpoints available on the internet, the SERVICE operator was introduced in the SPARQL 1.1 Federated Query extension. The SERVICE operator is used to query several SPARQL endpoints in only a single query, similar to the GRAPH operator. Both the SERVICE and the GRAPH operator pose new problems in the complexity analysis of SPARQL, as the two operators have not yet been analyzed. Because the evaluation of general SPARQL patterns is PSPACE-complete we restrict our considerations to well-designed SPARQL, where the evaluation problem is coNP-complete. Extending the well-designed fragment of SPARQL with the SERVICE and GRAPH operators yields a new SPARQL fragment which is a good basis for a complexity analysis, as general SPARQL would cloud the complexity of the SERVICE and GRAPH operators. It is shown that the evaluation problem in this fragment is coNP-complete. Using the SERVICE operator in practice elicits difficulties which were resolved by introducing various notions. The subtle difference between those notions has not yet been fully explored. After defining the notions the differences between them will be discussed. Building upon well-designed SPARQL we will also cover weakly well-designed SPARQL which renders a powerful fragment by relaxing constraints of well-designed SPARQL.

Diplomarbeitsposter Tran Thanh Hai

Thanh Hai Tran

Masterstudium DDP Computational Logic (Erasmus-Mundus)
Abstract:

TLA+ is a general-purposed language introduced by Leslie Lamport to formally specify and analyze systems. To make the verification process automatic, the model checker TLC was developed. While many advanced techniques such as predicate abstraction and IC3 have been introduced to scope with the state-space explosion problem, TLC is still a explicit-state model checker. The goal of this thesis is to develop a technique for applying predicate abstraction and IC3 to verify safety properties of systems.

Diplomarbeitsposter Winter Felix

Felix Winter

Masterstudium Software Engineering & Internet Computing
Abstract:

Employee scheduling is a well known problem that appears in a wide range of different areas including health care, airlines, transportation services, and basically any other organization that has to deal with workforces. Although different approaches based on heuristics as well as exact solution techniques have been proposed in the past, there is still a great demand for innovative strategies which are able to find good solutions for the many existing variants of employee scheduling problems. This thesis proposes two novel solution approaches for well known instances of the employee scheduling problem and evaluates their performance. The first approach provides for the first time a weighted partial boolean maximum satisfiability model for employee scheduling. An analysis of different encoding variants is performed and results achieved by leading maximum satisfiability solvers are evaluated. The second solution approach which is proposed in this thesis introduces a novel hybrid algorithm that combines metaheuristic techniques with exact solution strategies that are based on constraint programming. Using an implementation of the proposed algorithm, a large number of experiments is then conducted on a number of well known problem instances from the literature. The obtained results are compared with the best known solutions acquired by state of the art methods. An empirical evaluation of the proposed methods shows their competitiveness with state of the art solutions. The maximum satisfiability model is used successfully to approve optimal bounds and to produce feasible solutions for most of the considered problem instances. Using the hybrid algorithm that is proposed in the thesis, results produced by state of the art techniques are improved for the majority of the considered problem instances. Additionally, five new unknown upper bounds are provided for the instances.

Diplomarbeitsposter Züger Maria-Elisabeth

Maria-Elisabeth Züger

Masterstudium Information & Knowledge Management
Abstract:

In gewissen Arbeitsbereichen, wie etwa in der Flugverkehrskontrolle oder bei Fließbandarbeit, ist ein hohes Maß an Konzentration erforderlich. In solchen Bereichen sind regelmäßige Pausen verpflichtend um fatale Fehler zu vermeiden. Pausen sind streng geregelt durch etwa Sicherheitsregeln oder rechtlichen Forderungen. Das Break Scheduling Problem (BSP) befasst sich mit diesen Regelungen. Das BSP hat zum Ziel Pausen in einem gegebenen Schichtplan einzuplanen, sodass alle Pausenregeln erfüllt sind während Abweichungen vom Personalbedarf minimiert werden. In dieser Arbeit stellen wir eine Mixed Integer Programming Formulierung für das generelle BSP vor. Um das BSP zu lösen schlagen wir einen Large Neighborhood Suchalgorithmus (LNS) vor. Er besteht aus einer Initialisierungsphase und zwei Unteralgorithmen: ein Local Search und ein Mixed Integer Programming (MIP) Algorithmus. Um die MIP-Formulierung zu lösen kommt der Constraintlöser CPLEX zum Einsatz. Der Local Search Algorithmus verwendet zwei Nachbarschaftsoperationen: Swap und Assignment. Zusätzlich wird eine Random-Walk Methode genutzt um lokalen Optima zu entkommen. Local Search fokussiert sich auf einzelne Pausen. Der MIP Algorithmus entfernt alle Pausen einer gesamten Schicht um sie dann optimal wieder einzuplanen. Die Unteralgorithmen werden abwechselnd eingesetzt und bei jeder Iteration durch einen Selector gewählt. Wir testeten drei Auswahlverfahren: Random-Selector, Timebound-Selector und Probability-Selector. Der Probability-Selector, welcher die Wahrscheinlichkeit mittels einer Funktion regelt, erwies sich als überlegen. Zudem wurden Parameter, welche einen Einfluss auf die Leistung des Algorithmus haben, evaluiert. Wir berechneten Endergebnisse zu 30 Fallbeispielen, 20 von einem realen Szenario und 10 zufällig generierte. Der LNS Algorithmus übertrifft in den meisten Fällen unsere Implementierung von Local Search. Jedoch konnte er noch nicht an die besten bislang bekannten Resultate herankommen.

Arbeitsbereich Knowledge Based Systems

Diplomarbeitsposter Hohenecker Patrick

Patrick Hohenecker

Masterstudium Computational Intelligence
Abstract:

The Semantic Web marks the next cornerstone in the development of the World Wide Web, and constitutes the ultimate goal of enabling machines to access and interpret data published on the Web automatically. This, in turn, allows applications to grasp the meaning inherent in the data without human assistance, and empowers them to reason about it autonomously. In practice, however, the task of reasoning about Semantic Web data comes with a number of issues attached. Among these are typical problems related to databases, like incomplete information or conflicting data, but also new challenges came up, like reasoning at the scale of the World Wide Web or the effective construction of expressive knowledge bases. It turns out, though, that many of the obstacles encountered are actually related to the methods employed for reasoning with classical logic rather than to the nature of the Semantic Web itself, and so people started to investigate machine learning as an alternative approach to reason about Semantic Web data. This thesis follows that very path and investigates the use of deep learning in order to tackle the problem of instance checking, a particular kind of reasoning task commonly encountered in real-world applications of the Semantic Web. In doing so, I develop a new kind of deep model, and compare its performance on this task with state-of-the-art approaches based on machine learning. Thereby, I show that the newly introduced model is indeed competitive and in parts even superior to existing state-of-the-art techniques. However, the main contribution of this thesis is a generalization of recursive neural tensor networks to arbitrary relational datasets, with the single restriction that these data involve binary relations only. In contrast to similar approaches, a distinctive property of this model is that it can be applied to relational datasets out-of-the-box, i.e. we do not have to account for the particular structure of a dataset beforehand.

Diplomarbeitsposter Salcher Fabian

Fabian Salcher

Masterstudium Computational Intelligence
Abstract:

Multi-Context Systems (MCS ) are systems of distributed knowledge bases which interact via so called bridge rules. The MCSs we are interested in are nonmonotonic and therefore bridge rules can cause inconsistencies in the MCS while the knowledge bases for themselves are consistent. We will develop an algorithm which identifies those inconsistencies and proposes bridge rule modifications to the user which will make the system consistent. This algorithm will be effective with respect to requesting only as much information from the distributed knowledge bases as necessary. Therefore, for a user only interested in a part of the system, it is not necessary to know the whole system. We will show that this algorithm is sound and complete and present data demonstrating the performance of a reference implementation. To increase the performance of the algorithm we also propose further optimizations like edge and subset pruning and show the effectiveness of those modifications on the reference implementation.

Diplomarbeitsposter Tapolczai Janos

Janos Tapolczai

Masterstudium Computational Intelligence
Abstract:

We design and implement a hybrid AI that combines emotional reactions to stimuli with reasoning about the consequences of actions as a means of developing effective behaviour in a toy world. The fundamental task of our agents is to survive by periodically finding and eating food and by dealing with hostile predators, either through flight or through flight. Agents are free to cooperate, antagonize, or ignore each other and agents with different emotional profiles will pursue different strategies. The thesis begins with theoretical investigations of different models of computations and their relation to the biological brain. Our proposition is that the brain’s function is, to a degree, analogous to a collection of white boxes, observable to each other. Accordingly, our agents are modelled as a collection of loosely coupled components which communicate with each other through messages. Any component is free to read any message and components have no knowledge which others will read messages they insert into the agent’s message space. The affective evaluation of its environment forms the basis of each agent’s decision-making, though it is complemented by a belief generator which makes inferences about future world-states resulting from certain choices. Though evaluation of these future states as well, agents can optimize their behaviour, as they can foresee likely positive or negative consequences of their actions. The thesis ends will a qualitative and a quantitative evaluation: we evaluate our agents qualitatively by placing agents in a number of simple scenarios and observing whether they perform tasks like collecting food or avoiding predators. After that, we evaluate them quantitatively by placing various populations into larger scenarios and recording the survival of different personality types over time.

Arbeitsbereich Formal Methods in Systems Engineering

Diplomarbeitsposter Gleiss Bernhard

Bernhard Gleiss

Masterstudium Computational Intelligence
Abstract:

Propositional interpolation has become the corner stone of many contemporary model checking algorithms. Consequently, the construction of interpolants has received ample of attention, resulting in a range of interpolation algorithms which derive interpolants from proofs. One such approch is to generate interpolants from proofs of a special form, i.e. from local proofs. As first contribution of this thesis, we give a new interpolation algorithm for local proofs in an arbitrary sound proof system in first-order logic, which improves the state of the art by generating smaller and simpler interpolants using an arguably more intuitive approach than existing algorithms. Afterwards we look at propositional interpolation: As second contribution, we state a proof transformation, which transforms an arbitrary propositional resolution into a special local proof, from which we can trivially extract an interpolant. Finally we derive an interpolation system as abstraction of the transformation, which enables us to efficiently compute the interpolant by avoiding to explicitly perform the proof transformation.

Arbeitsbereich Parallel Computing

Diplomarbeitsposter Mayerhofer Nick

Nick Mayerhofer

Masterstudium Technische Informatik
Abstract:

So wie wir Menschen, verbringen auch Computer eine beträchtliche Zeit mit Datenverarbeitung: Sie schlagen unter anderem „Kontostände, Flugreservierungen, Rechnungen und Zahlungen“ [DMS14, S.183] nach. Um diese Vorgänge für Computer zu beschleunigen, können mehrere Prozessoren parallel dieselben Datensätze bearbeiten, was in den Bereich des parallelen Rechnens fällt. Die effiziente Datenmanipulation von mehreren Prozessoren gleichzeitig bedarf neuer Datenstrukturen, die für diesen Einsatz ausgelegt sind. Lock-freie Datenstrukturen tragen dieses Potential, da sie nicht auf blockierende Synchronisationstechniken zurückgreifen. In dieser Arbeit wird der Lock-freie Algorithmus von Chatterjee et al. [CNT14] zur parallelen Manipulation einer Baum-Datenstruktur untersucht. Diese Diplomarbeit beschäftigt sich mit der Frage, ob der Algorithmus von Chatterjee et al. so ausführlich beschrieben wurde, dass er sich im Rahmen dieser Arbeit in ein ausführbares Programm implementieren lässt. Weiters sollte die Güte der Implementierung des parallelen Algorithmus anhand der geleisteten Performance untersucht werden [RR10, S.167]. Durch die Anwendung eines Test-Driven-Development Prozesses, in Kombination mit dem fein granularen Debugging Verfahren namens Tracing und einer eigens entwickelten Fehler-Injektion konnten die Kernelemente des Algorithmus implementiert werden. Letztendlich konnte der Algorithmus von Chatterjee et al. bis auf einen parallelen Spezialfall vollständig und mit allen Funktionalitäten implementiert werden. Das Ergebnis deutet darauf hin, dass Pseudocode-Teile zur Verarbeitung eines speziellen Zustandes, die der Baum einnehmen kann, von Chatterjee et al. nicht ausgeführt wurden. Abschließend sei erwähnt, dass die Anwendung des Trace-Debuggings Verfahrens als Erfolg zu verbuchen war.

Diplomarbeitsposter Redl Bernhard

Bernhard Redl

Masterstudium Software Engineering & Internet Computing
Abstract:

In dieser Arbeit wurde eine Implementierung des parallelen Pipeline Patterns für das Task-parallele Pheet framework erstellt. Das Pipeline Pattern teilt Eingabedaten in unabhängige Teile (chunks), die durch eine Serie von Verarbeitungsschritten (stages) gehen. Manche dieser Schritte können parallel ausgeführt werden, während in anderen Schritten manche Teile auf vorhergehende Teile warten müssen. In dieser Arbeit werden existierende verbreitete Implementierungen analysiert um die Anforderung für eine eigene Implementierung zu gewinnen. Unsere Implementierung ist nicht-blockierend (lock-free) and verwendet keine zentralisierten Datenstrukturen um die Skalierbarkeit in mehr-CPU Systemen zu gewährleisten. Wir verwenden C++ atomics für die Synchronisierung in unserer Implementierung. Um unsere Implementierung zu testen wurden Benchmarks auf mehreren Systemen ausgeführt. Alle Benchmarks sind bekannte Probleme die sich gut auf eine Pipeline Schnittstelle adaptieren lassen. Ein von uns erstellter synthetischer Benchmark misst den Mehraufwand für die Synchronisierung unserer Implementierung. Das Result ist, dass unsere Implementierung bei dem synthetischen Benchmark gut skaliert. Für die anderen Benchmarks ist das Ergebnis durchwachsen und hängt von den unterschiedlichen Systemen ab.

Institut für ComputersprachenE185

Arbeitsbereich Programmiersprachen und Übersetzer

Diplomarbeitsposter Altschach Marion Sandra

Marion Sandra Altschach

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Space based computing Systems haben seit ihren Anfängen, Mitte der achtziger Jahre, stark an Popularität zugenommen. Daher ist es auch nicht verwunderlich, dass seit Linda, welches gemeinhin als die Mutter dieses Konzeptes gilt, mehr als hundert, veränderte, erweiterte oder sogar zu völlig neue Shared data space Implementierungen bis 2016 entstanden sind. Leider wurde bis dato wenig Aufwand in Klassifizierung und Organisation dieser Space based computing Systeme gesteckt, mit dem Ergebnis, dass man nicht wirklich weiß, welche Möglichkeiten es auf dem Markt gibt und wie diese effizient für gewisse Zwecke einzusetzen sind. Diese Diplomarbeit stellt die wichtigsten Ansätze auf diesem Gebiet vor, mit dem Ziel die unterschiedlichen Shared data space Implementierungen zu analysieren, zu klassifizieren und zu vergleichen, in der Hoffnung den jetzigen Stand der Technik sichtbarer zu machen. Um die unterschiedlichen Space based Computing Systeme in geeigneter Form vorzustellen, wurde ein Top-down Ansatz gewählt, welcher mit einem high-level Überblick beginnt und sich dann nach und nach detaillierteren Klassifikation nach Space Familien und Eigenschaften widmet. Die Resultate dieser Arbeit zeigen, dass es im Moment nicht ein alleiniges Space based computing System gibt, welches sämtliche Thematiken wie Verfügbarkeit, Transaktionen, Asynchronität, zeitnahe Event-Benachrichtigung, Skalierbarkeit, oder Sicherheit in ihrer Gesamtheit optimal abbildet. Man kann jedoch argumentieren, dass das Wissen über die unterschiedlichen Stärken und Möglichkeiten der einzelnen Systeme, dabei helfen kann besser auf die Entwicklung und den Fortschritt zu fokussieren, um langfristig auf das bestmögliche Space based computing “Referenz” System hinzuarbeiten.

Diplomarbeitsposter Mertl Manuel

Manuel Mertl

Masterstudium Software Engineering & Internet Computing
Abstract:

In this thesis we will have a detailed look at web application projects, and determine important web project properties for a good project outcome. Therefore we will have a look at related work that points out which factors are affecting such a software development project outcome. Then we will further investigate the given web project properties and see which pre-processing language features are related to those properties and how they influence them. Given that list of pre-processing language features, we will then describe and measure them in detail. We will again have a look at related work, to see how languages features can be properly measured and compared across languages. Given that comparison results we will be able to decide which of the four inspected JavaScript preprocessors (CoffeeScript, TypeScript, LiveScript, Dart) fits which kind of projects best, using a cost-benefit analysis. Our comparison will show that in most of the cases Dart and TypeScript will be the best fitting pre-processing languages, followed by CoffeeScript. LiveScript is only a good choice for a very limited set of web projects.

Arbeitsbereich Theoretische Informatik und Logik

Diplomarbeitsposter Dissauer Gerald

Gerald Dissauer

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Classical cryptosystems as vulnerabilities. Conventional cryptographic techniques are based on unproven assumptions concerning the computational hardness of certain mathematical principles. The growth of performance regarding the equipment of malicious attackers as well as mathematical efforts demand new requirements regarding the security of subsequent communications. The implementation of quantum algorithms enable quantum computers to breaking conventional cryptosystems in polynomial time. Thus, classical applications may be compromised in the future. QKD (i.e. Quantum key distribution) networks to bridge large distances. QKD relies on the particular fundamentals of quantum mechanics. It enables two adjacent communication partners to negotiate on an information theoretically secure quantum key that is provable secure over short distances, currently. However, QKD is limited to physical constraints. Therefore, we need QKD networks to overcome the limitations concerning the transmission capacity, the key generation rate, and the distance between two QKD nodes. QKD networks are a promising solution but its implementation seems to be complex and requirements engineering in this field has not been sufficiently investigated, yet. Formalized QSRE (i.e. Quantum security requirements engineering). The development of large-scale QKD networks is challenging due to its complex characteristics. QKD networks are asynchronous, heterogeneous, non-deterministic, and provide parallel executions on a distributed architecture of QKD systems components. Formal methods are promising approaches to model QKD networks. We propose formalized quantum security ontologies, Petri nets and maintain a repository of formalized quantum security requirements. Moreover, we execute automated simulations on our QKD models. Thus, we show that formal methods are adequate solutions regarding the evaluation, and the prevention of vulnerabilities in large-scale QKD networks.

Diplomarbeitsposter Jungwirth Florian

Florian Jungwirth

Masterstudium Medieninformatik
Abstract:

Mobile Applikationen zur sicheren Nachrichtenübermittlung müssen so entwickelt werden, dass sie sowohl sicher als auch benutzerfreundlich aufgebaut sind. Das Fehlen eines dieser Aspekte führt dazu, dass die Anwender das Vertrauen in die Applikation verlieren können und diese nicht mehr verwenden. Die Hersteller von mobilen Applikationen müssen daher ihre Anwendungen entsprechend umsetzen. Um die Hersteller zu unterstützen, ist das Ziel dieser Arbeit, Design-Empfehlungen aufzustellen, welche die Aspekte Sicherheit und Benutzerfreundlichkeit miteinander vereinen. Um dieses Ziel zu erreichen, wurden bestehende Applikationen zur Nachrichtenübermittlung von zukünftigen Anwendern bewertet. Vor der Durchführung dieser Bewertung erfolgte im Rahmen dieser Arbeit eine Analyse der unterschiedlichen Möglichkeiten, wie sich die Benutzeroberfläche dieser Applikationen gestalten lässt. Diese unterschiedlichen Gestaltungsmöglichkeiten wurden den zukünftigen Anwendern vorgelegt, um sie von diesen hinsichtlich ihrer Vertrauenswürdigkeit bewerten zu lassen. Als Methoden wurden die Design-Space-Analyse und die Conjoint-Analyse eingesetzt. Das Ergebnis dieser Arbeit sind sieben empirisch fundierte, konkrete Design-Empfehlungen, welche die Entwickler zukünftiger mobiler Applikationen zur sicheren Nachrichtenübermittlung unterstützen. Konkret können die Design-Empfehlungen während der Design-Phase dieser Applikationen bei der Gestaltung der Benutzeroberfläche, direkt angewendet werden, um Aufschluss darüber zu geben, welche Farben und Inhalte eine positiveWirkung auf das Vertrauen der Anwender haben.

Diplomarbeitsposter Scherer Markus

Markus Scherer

Masterstudium Computational Intelligence
Abstract:

Functional and relational clones, that is sets of functions or relations closed under some form of composition, are an important tool for investigating properties of algebras. Understanding clones and the relation between them can for example help us to prove complexity-theoretic results for Constraint Satisfaction Problems. A special form of clones are so-called primitive positive clones, of which there are only finitely many over each domain. These clones are computable in principle, but in reality the search space too huge in most cases. The aim of this thesis is to investigate to what extent parallelization can push the boundaries of what is thought to be practically computable. We will therefore develop different parallel approaches to calculate primitive positive clones – using instruction level parallelism, classical multithreading and GPU programming – and evaluate them against each other. Result of this thesis will be, in addition to the evaluation of the different approaches, a program which can be used for experiments in the context of clone theory.

Diplomarbeitsposter Wöss Christoph

Christoph Wöss

Masterstudium Medieninformatik
Abstract:

Das Angebot an mobilen Messaging-Applikationen (Apps) ist stetig wachsend. Von weit verbreiteten und extrem erfolgreichen Apps, wie z.B. WhatsApp, bis hin zu Apps, die besonderen Wert auf Sicherheit legen, werden verschiedenste Zielgruppen bedient. Durch dieses umfangreiche Angebot ist es speziell für Entwickler und Betreiber dieser Apps wichtig, ihre Zielgruppen und deren Wünsche und Bedürfnisse genau zu kennen. Diese Arbeit vereint verschiedene Forschungsgebiete: Faktoren wie Sicherheit, Usability, Vertrauen und Funktionsumfang können für Nutzer entscheidende Rollen bei der Wahl einer Messaging-App spielen. Es wurde der Raum von Nutzerpräferenzen und Entscheidungskriterien bei der Auswahl einer Messaging-App untersucht und schließlich eine Reihe an Empfehlungen zur Konzeption, Entwicklung und Vermarktung dieser Apps vorgestellt. Durch eine qualitative Studie konnten tiefgehende Einblicke in das Verhalten und die Beweggründe der Anwender gewonnen werden. Mittels Fokusgruppen wurde der Prozess der App-Auswahl bei Nutzern untersucht und Einflüsse, Vorlieben und Wünsche der Anwender analysiert. Die Teilnehmer der Studie bekamen die Aufgabe, sich in der Gruppe auf eine gemeinsame Messaging-App zu einigen, mit der sie in Zukunft kommunizieren würden. Durch die Auswertung dieser Nutzerstudie konnten neue Einblicke gewonnen werden und mithilfe der empirischen Ergebnisse eine Reihe an Empfehlungen für das Produkt-Design von mobilen Messaging-Apps erarbeitet werden. Das Ergebnis dieser Arbeit sind empirisch fundierte Empfehlungen für das Produkt-Design von Messaging-Apps für Entwickler und Betreiber. Diese praktischen, kompakten und vor allem durchführbaren Empfehlungen bieten erstmals detaillierte Orientierungshilfen für die Konzeption, Entwicklung und Vermarktung von Messaging-Apps.

Institut für Computergraphik und AlgorithmenE186

Arbeitsbereich Algorithms and Complexity

Diplomarbeitsposter Pourmanouchehri Sara

Sara Pourmanouchehri

Masterstudium Software Engineering & Internet Computing
Abstract:

This work considers a stochastic extension to the classical vehicle routing problem by assuming that the customers’ demand are random variables. The focus lies on the development of a hybrid evolutionary algorithm for solving the so-called vehicle routing problem with stochastic demands and preventive restocking (VRPSD). In the VRPSD vehicles leave from a depot with full load, and have to serve a set of customers whose exact demand is only known upon arrival. The VRPSD is an NP-hard combinatorial optimization problem which means that under the assumption that P != NP there exists no polynomial time solution algorithm. Therefore, a genetic algorithm (GA) using the permutation of nodes as solution representation is developed. The evaluation of such a permutation, which determines the restocking points depending on the current load of the vehicle, is performed by a dynamic programming algorithm. In the next step, to intensify the search, a 2-opt local search based is implemented. Additionally, a multi-level evaluation scheme (ML-ES) is applied to the GA to speed up the solution evaluations. Using this scheme, the objective value of a solution candidate will be repeatedly approximated with increasing accuracy until it can be discarded or it is evaluated exactly. On top of that, a complete trie-based solution archive is implemented in order to prevent revisiting known solutions and converting them into guaranteed new solutions. The idea behind is to save all candidate solutions in a trie data structure. Each time a new solution generated, first it is looked up in the solution archive to check whether this solution is already generated or not. In case of revisiting an old solution, a guaranteed new solution candidate will be produced. Computational results on a set of benchmark instances show that the ML-ES is able to drastically reduce the time spent in solution evaluations and that applying the solution archive leads to an improvement only in some instances.

Diplomarbeitsposter Prischink Michael

Michael Prischink

Masterstudium Computational Intelligence
Abstract:

Regelmäßige tägliche Sicherheitskontrollen sind ein essentieller und wichtiger Mechanismus um Diebstahl und Vandalismus in Firmengebäuden vorzubeugen. Typischerweise patrouillieren Mitarbeiter eines Sicherheitsdienstes durch eine Menge von Gebäuden, wobei jedes dieser Gebäude eine bestimmte Anzahl von Besuchen an allen oder nur ausgewählten Tagen eines gegebenen Planungshorizonts benötigt. Ein wichtiges Ziel der Sicherheitsfirma ist daher, alle Gebäude in eine minimale Anzahl disjunkter Distrikte, d.h. Cluster, zu unterteilen, sodass für jeden Cluster und jeden Tag des Plannungszeitraums eine zulässige Route, durch die alle notwendigen Objektbesuche abgedeckt werden, existiert. Jede Route ist begrenzt durch die tägliche Maximalarbeitszeit eines Mitarbeiters und muss die Zeitfenster aller Besuche einhalten. Je zwei Besuche des selben Gebäudes müssen einen vorgegebenen zeitlichen Mindestabstand einhalten. Wir nennen dieses Problem das Districting and Routing Problem for Security Control. In unserem heuristischen Ansatz teilen wir das Problem in einen Districting Teil in dem die Gebäude einem Distrikt zugeteilt werden müssen und einen Routing Teil in dem zulässige Routen für jede Kombination von Distrikt und Planungsperiode gefunden werden müssen. Das Problem kann zwar in zwei Subprobleme zerlegt werden, diese können jedoch nicht unabhängig voneinander gelöst werden. Wir schlagen ein gemischt-ganzzahliges lineares Programm und eine Routing Construction Heuristic mit Variable Neighborhood Descent für den Routing Teil und eine Districting Construction Heuristic und einen Iterative Destroy & Recreate Algorithmus für den Districting Teil vor. Die Konstruktionsheuristiken erzeugen Lösungen für das Routing-Problem, die nahe an den unteren Schranken des exakten Algorithmus liegen und der Iterative Destroy & Recreate Algorithmus kann die Anzahl der Distrikte der Startlösungen, die von der Districting Construction Heuristic erzeugt wurden, signifikant reduzieren.

Arbeitsbereich Computergraphik

Diplomarbeitsposter Adorjan Matthias

Matthias Adorjan

Masterstudium Visual Computing
Abstract:

Besides using high-cost laser scanning equipment to capture large point clouds for topographical or architectural purposes, nowadays other, more affordable approaches exist. Structure-from-motion (SfM) in combination with multi-view stereo (MVS) is such a low-cost photogrammetric method used to generate large point datasets. It refers to the process of estimating three-dimensional structures out of two-dimensional image sequences. These sequences can even be captured with conventional consumer-grade digital cameras. In our work we aim to a establish a free and fully accessible structure-from-motion system, based on the idea of collaborative projects like OpenStreetMap. Our client-server system, called OpenSfM, consists of a web front-end which lets the user explore, upload and edit SfM-datasets and a back-end that answers client requests and processes the uploaded data and stores it in a database. The front-end is a virtual tourism client which allows the exploration of georeferenced point clouds together with their corresponding SfM-data like camera parameters and photos. The information is rendered in the context of an interactive virtual globe. An upload functionality makes it possible to integrate new SfM-datasets into the system and improve or extend existing datasets by adding images that fill missing areas of the affected point cloud. Furthermore, an edit mode allows the correction of georeferencing or reconstruction errors. On the other side the back-end evaluates the uploaded information and generates georeferenced point datasets using a state-of-the-art SfM engine and the GPS data stored in the uploaded images. The generated point clouds are preprocessed, such that they can be used by the front-end’s point cloud renderer. After that, they are stored together with the uploaded images and SfM parameters in the underlying database.

Diplomarbeitsposter Imre Martin

Martin Imre

Masterstudium Software Engineering & Internet Computing
Abstract:

Rendering and rasterization are central points in computer graphics and visualization. In order to display realistic images a need for reflections, shadows and further realistic light diffusions is needed. To obtain these, ray tracing, view frustum culling as well as transparency sorting among others are commonly used techniques for rendering. Since said procedures - given the right acceleration structure - can be reduced to tree traversals, it is often parallelized on the graphics hardware. In this thesis we focus on Bounding Volume Hierarchy (BVH) and Binary Space Partitioning (BSP) which are used as such acceleration structures. The problem with these structures is that their build time often is very high and hardly parallelizable. The rising computational power and the highly parallel computation model of Graphics Processing Units (GPU) motivates to improve upon the parallelization of BVH and BSP algorithms. In this thesis we show a way to implement a hybrid approach for parallel transparency sorting on the GPU.

Diplomarbeitsposter Krösl Katharina

Katharina Krösl

Masterstudium Visual Computing
Abstract:

Modern workflows in architectural planning and lighting design require physically reliable lighting simulations for detailed and complex 3D models. Current workflows for luminaire design and lighting design are not tailored to each other. During luminaire design, CAD programs are used to create 3D models of luminaires, and offline rendering tools are used to visualize the light distribution. In lighting design, light concepts are explored by placing light sources, previously created during luminaire design, in a 3D scene using an interactive light-planning software, but it is not possible to modify the light sources themselves. This thesis presents an interactive global-illumination algorithm to simulate the light distribution of a luminaire. The algorithm produces visually pleasing intermediate results at interactive framerates, before converging to a physically plausible solution that can be imported as a representation of a light source into a light-planning software. We combine an interactive, progressive photon-tracing algorithm with a multi-resolution image-filtering approach. Our algorithm iteratively emits photons into a 3D scene containing the model of a luminaire and progressively refines results. We use mipmaps to create a multi-resolution approach and incorporate image-filtering techniques to obtain visually pleasing intermediate results. Evaluations based on objective quality metrics show that the presented image-filtering approach increases image quality when compared to non-filtered results. The proposed algorithm provides fast previews and allows interactive modifications of the geometry and material properties of the luminaire in real time. This reduces time between modification iterations and therefore turns luminaire design into an interactive process that reduces overall production time. Furthermore, the presented approach integrates luminaire design into lighting design and therefore provides a new way to combine two former decoupled workflows.

Diplomarbeitsposter Spechtenhauser Florian

Florian Spechtenhauser

Masterstudium Visual Computing
Abstract:

In der heutigen Zeit, in der die Menge an gesammelten und generierten Daten stetig ansteigt, ist das Sicherstellen einer ausreichenden Datenqualität ein entscheidendes Thema. Abhängig von der gegebenen Aufgabenstellung können sogar aufwändige Analysemethoden fehlschlagen oder irreführende Ergebnisse liefern, wenn der gegebene Datensatz eine unzureichende Qualität aufweist. Um Datenprobleme, wie zum Beispiel fehlende Werte oder Anomalien zu entdecken, werden häufig automatische Plausibilitätschecks verwendet, die auf definierten Regeln basieren. Die Definition und Verwendung solcher Regeln und deren Ergebnisse stellt jedoch eine große Herausforderung dar. Visualisierung ist dabei ein mächtiges Tool, um unerwartete Datenqualitätsprobleme aufzudecken und die Ergebnisse der angewandten Regeln zu validieren. Visual Analytics schließt dabei die Lücke zwischen automatischer Datenanalyse und Visualisierung und hilft bei der Definition und Optimierung der Plausi bilitätschecks, damit sie für eine wiederkehrende Analyse und Validierung der entdeckten Datenqualitätsprobleme verwendet werden können. Diese Diplomarbeit besteht aus einer Design Study des Data Quality Overview, einem Visual Analytics Ansatz, der eine detaillierte und trotzdem skalierbare Übersicht über die Ergebnisse der definierten Plausibilitätschecks liefert, die über mehrere Detailstufen validiert und untersucht werden können. Der Ansatz basiert auf einer detaillierten Aufgabenanalyse, und wurde mithilfe einer Fallstudie basierend auf Sensordaten aus dem Energiebereich validiert. Zusätzlich wurden die Ergebnisse durch Expertenrückmeldungen bestätigt.

Diplomarbeitsposter Spitaler Franz Richard

Franz Richard Spitaler

Masterstudium Visual Computing
Abstract:

In this master thesis I describe a procedural system which makes it possible to generate 3-dimensional buildings including their interior. I investigate previous work in the field of the procedural generation of content as well as the more specialized area of procedural generation of buildings and façades. From the work that was already published, I identify useful concepts and unify them in this work by merging the geometry generation techniques with the possibilities of a visual rule editor, where no “code” has to be written to generate a complex procedural system. With the help of some so-called production rules, which I describe in the thesis, it is possible to create a wide variety of different buildings. By introducing two specialized production rules, the creation of the complex geometry of building related elements like roofs or stairs is more comfortable and easier. While the main focus of this thesis is the development of the procedural system itself, there are quite a few different other scientific domains that have an influence on this work. The thesis combines procedural systems with real-time computer graphics, floor planning, architecture and user interface design.

Arbeitsbereich Bildverarbeitung und Mustererkennung

Diplomarbeitsposter Omenitsch Philipp

Philipp Omenitsch

Masterstudium Visual Computing
Abstract:

Face recognition is a long-standing topic in machine learning. Recent advances promise successful applications in large-scale video surveillance. Recognizing millions of people in thousands of streaming cameras, however, implies significant costs in terms of computations and communication bandwidth. This work aims to reduce the complexity of face recognition in video and pursues two complementary strategies. We first investigate face recognition in the whitened descriptor space and improve the complexity of the state-of-the-art Matched Background Similarity (MBGS) approach. Second, we study frame selection and demonstrate robust recognition performance from a small fraction of video frames. For a better understanding of the advancing Deep Convolution Neural Networks field, we give a thorough introduction to the topic and briefly summarize the recent development with a focus on the ImageNet classification challenge. We evaluate our methods and present competitive results for the YTF and TSFT benchmarks while significantly reducing the complexity of previous methods.

Institut für Gestaltungs- und WirkungsforschungE187

Arbeitsbereich Multidisciplinary Design

Diplomarbeitsposter Cech Florian

Florian Cech

Masterstudium Medieninformatik
Abstract:

Photographie und die damit verbundenen Technologien haben seit ihrer Entwicklung im frühen 19. Jahrhundert signifikanten Einfluss auf die Gesellschaft. Die Einwirkung von Photographie erstreckt sich von kommerziellen Anwendungen bis zum Privatleben und verändert wie wir kommunizieren, uns selbst repräsentieren sowie die Art und Weise, in der wir uns mit Hilfe von Photographie in unserem sozialen Kontext künstlerisch ausdrücken. Wie frühere Studien gezeigt haben, erfüllt Privatphotographie vier unterschiedliche Funktionen: Aufbau und Erhalt sozialer Beziehungen, Bewahrung von Erinnerungen (von Einzelpersonen oder Gruppen), Selbstdarstellung und Selbstausdruck. Wiewohl den ersten drei Funktionen in diversen Studien bereits einige Aufmerksamkeit gewidmet wurde, sind Selbstausdruck und künstlerische Privatphotographie, sowie im Speziellen deren Praxis und Einfluss auf die Gesellschaft großteils unerforscht geblieben. Diese Diplomarbeit erforscht daher die Praxis von Privatphotographie im Zeitalter ubiquitärer Digitalphotographie anhand einer Reihe von qualitativen Interviews mit BenutzerInnen der Online-Community deviantART. Basierend auf den theoretischen Grundlagen der qualitativen Forschung wie sie Kvale und Brinkman beschreiben, unter Zuhilfenahme der qualitativen Inhaltsanalyse nach Mayring und der Narrativanalyse nach Labov und Waletzky, führen die Interviews zu einer dichten Beschreibung der digitalen Praxis der ProbandInnen im Hinblick auf Privatphotographie zum Zweck des künstlerischen Selbstausdruckes. Die Arbeit behandelt eine breite Vielfalt photographischer Praktiken und setzt diese in den Kontext zweier Theorien der Photographie basierend auf den Werken von Roland Barthes und Vilém Flusser. Darüber hinaus beleuchtet sie die Zusammenhänge zwischen den Themenkomplexen Identität, sozialen Beziehungen und Interaktion, Privatsphäre und öffentlicher Anerkennung im Kontext von künstlerischem Handeln und Privatphotographie.

Diplomarbeitsposter Padalewski Olivia

Olivia Padalewski

Masterstudium Business Informatics
Abstract:

Electronic waste has become a challenging global problem facing severe environmental as well as moral implications. It is the result of our today’s unsustainable consumption patterns. Cooper introduced the concept of ‘relative obsolescence’ addressing the phenomenon, that individuals tend to use their electronic goods for ever shorter periods of time and replace them long before they actually reach their end of usability. In addition, his study revealed that nearly 60% of discarded computers were still functional (Cooper 2004). Thus, one step towards sustainable consumption is the prolonging of a device’s use-time. Studies so far have investigated the use-time of appliances on the level of private households. However, the corporate sector, which faces additional constraints, has been largely neglected. Thus, this thesis focuses on analysing and improving the use-time of PCs as well as laptops, and its related practices in a small organisation. To achieve valuable insights that go beyond conventional approaches, action research was conducted to iteratively develop improvement possibilities on site and simultaneously increase the scientific knowledge base. Data was gathered and analysed by applying qualitative methods. The process was documented in form of an action process log and reflection tool. Knowledge claims were grounded on various sources not only to establish validity, but also to provide accurate evidence. The main outcome was an evidence-based guideline towards an improved use-time, based on the elaborated, discussed, reflected and evaluated actions performed. Moreover, the reflection upon the process itself revealed relevant findings for future work and the appropriateness of action research to promote pro-environmental changes in (small) organisations. On a third level, the researcher herself evaluated the entire process with regard to communication, effort, emerged resistances and her role as a researcher in the conducted participatory approach.

Arbeitsbereich Human Computer Interaction

Diplomarbeitsposter Bartmann Christoph

Christoph Bartmann

Masterstudium Business Informatics
Abstract:

Smartphones dringen noch immer in verschiedenste Bereiche des Lebens vor. Es gibt jedoch Anwendungsgebiete in denen Smartphones entweder garnicht oder missbräuch- lich verwendet werden. Eines dieser Anwendungsgebiete sind Konzerte. Dort werden Smartphones heutzutage vom Publikum entweder garnicht verwendet oder aber sie wer- den in einer Weise verwendet, die vom eigentlichen Konzert ablenkt. Dennoch haben Smartphones neue Arten der Publikumsinteraktion ermöglicht. Weitere Interaktions- möglichkeiten müssen noch erforscht werden. Dabei sollte man beachten, dass schon vorhandene Interaktionsmöglichkeiten möglicherweise auf Smartphones umgelegt werden können. In dieser Arbeit interviewen wir Konzertbesucher und Musiker, um neue Möglichkeiten der Publikumsinteraktion mittels Smartphones herauszufinden. Des Weiteren untersuchen wir eine bestimmte Publikumsinteraktion, welche hochfrequente Töne verwendet. Umgesetzt wird die Interaktion mithilfe einer Cross-Plattform Smartphone Applikation, welche im großen Rahmen getestet und anhand von Fragebögen und eines qualitativen Interviews mit einer Performerin evaluiert wird.

Diplomarbeitsposter Gansterer Doris

Doris Gansterer

Masterstudium Medieninformatik
Abstract:

Sobald eine Person im Internet surft, werden personenbezogene Daten gesammelt, analysiert und weiterverarbeitet. In dieser Diplomarbeit wird eine Einführung in das Thema des Online-Trackings geboten. Anhand praktischer Beispiele wird aufgeführt, welche Daten von welchen Unternehmen und zu welchem Zweck erhoben werden. Dazu werden die Begriffe First-Party-Tracking und Third-Party-Tracking erklärt. Es werden derzeit gängige Trackingtechnologien wie HTTP-Cookies, Etags, Web Bugs, History Sniffing, Fingerprinting sowie Tracking mittels Social-Media-Plug-ins oder des Internetproviders dargestellt. Anhand von gesetzlichen, organisatorischen und technischen Maßnahmen werden Möglichkeiten zum Datenschutz und der Wahrung der Privatsphäre aufgezeigt. Im Rahmen dieser Arbeit werden zehn beliebte österreichische Websites auf ihre Tracking- und Profilingtechniken hin analysiert. Abschließend wird ein Best-Practice-Beispiel präsentiert.

Diplomarbeitsposter Mikusch Gerfried

Gerfried Mikusch

Masterstudium Medieninformatik
Abstract:

The term ‘awareness’ in work environments describes knowledge people gain about their colleagues state primarily through passively observing other peoples activities. Awareness is obtained almost effortless in environments were people are collaborating in spatial proximity, but for distributed workers or work such connectedness is much harder to maintain. Therefore in such environments awareness can be provided through the support of technology. For supporting awareness across three distributed work groups of the IGW institute at TU Wien a system was designed and developed. It comprises three awareness cube devices, which are tailored to the expectations of the users and the particular use context. The three devices focus on the support of informal and social awareness. The development process of the technology probes is based on the principles of participatory design. An initial design workshop was conducted to understand user expectations and the particular use context of the system. Ethnographic interviews and surveys were conducted to achieve user participation throughout the process. Three awareness cube technology probes were deployed to the common rooms of the work groups, which sense the amount of activity in their surroundings through a built-in microphone, transmit the data to their counterparts where the awareness information is presented visually through LEDs. Through the visual presentation the awareness cubes were perceived as embedded ambient displays. Additionally the devices support active interaction possibilities through a tangible button interface. A four-week test phase revealed alternative, playful ways of button use created by users. The system led to conversations about it within and across the work groups. Thus the awareness cube system managed to facilitate awareness through its implementation as an ambient display and the possibility for direct interaction through the buttons was a key characteristic for maintaining the connectedness.

Diplomarbeitsposter Pointner Eva-Maria

Eva-Maria Pointner

Masterstudium Medizinische Informatik
Abstract:

Mit meiner Diplomarbeit möchte ich einen Überblick über fünf Teilbereiche geben und mit Hilfe von Experteninterviews herausfinden, warum der Schritt zu automatischen Diagnosesystemen – sogenannte CAD Systeme (Computer Assisted Diagnosis) - derzeit noch nicht gelungen ist. Weitere Fragestellungen waren, was Mediziner von diesen Systemen halten und welchen Einfluss Bildanalysesysteme bisher bereits hatten. Die Experteninterviews zu CAD Systemen wurden im Bereich der automatischen EKG-Interpretation, der Lungenrundherdsuche auf Thorax Röntgen sowie der automatisierten Mammographie-Diagnostik geführt. In den Bereich der Bildanalyse gehören die Interviews zur Vermessung des Schultergelenks, in Computertomographien und die Vermessung von Knorpel und Menisci des Kniegelenks in Magnetresonanz-Tomographien. Zur besseren Auswertbarkeit wurden in jedem Interview neben themenspezifischen Fragen auch allgemeine Fragen zu CAD Systemen gestellt und die Antworten der Interviewpartner systematisch verglichen. Zusammenfassend konnte ich feststellen, dass CAD Systeme vor allem im Setting von Screeninguntersuchungen (hohe Anzahl an Bildern in kurzer Zeit) als sinnvoll erachtet werden. Die Nutzung der automatischen EKG-Interpretation von ungeübten Ärzten wird als ungünstige Entwicklung gesehen. Fehlendes Vertrauen in CAD Systeme wurde durch die hohe Rate an „Falsch- Positiven-Prompts“ von CAD Systemen begründet. Die ungeklärte rechtliche Lage und verlängerte Befundungszeiten tragen auch dazu bei, dass der Mensch derzeit lieber weitgehend alleine arbeitet.

Diplomarbeitsposter Prinz Christoph

Christoph Prinz

Masterstudium Medieninformatik
Abstract:

Das Internet hat unsere Welt, wie wir sie tagtäglich sehen, verändert. Wir leben online und teilen unsere Gedanken mit allen. Diese neue Art von Kommunikation hat auch einen beachtlichen Einfluss auf unsere Wissenschaft. Social Media und unser gesamtes Online-Verhalten verändern ständig unsere Wahrnehmung von Wissenschaft. Open Innovation sowie Citizen Science sind zwei Ansätze, die sich in den letzten Jahren einer immer größeren Beliebtheit erfreuen. Die folgende Arbeit greift diese neuen Herausforderungen auf und stellt sich diesen mit unterschiedlichen Ansätzen. Mit Hilfe eines explorativen Design-Prozesses werden vier Proto- typen vorgestellt, die das Ziel verfolgen, unterschiedliche Lösungsansätze aus verschiedenen Perspektiven aufzuzeigen. Ein erster Prototyp versucht die Lücke zwischen WissenschafterInnen und der breiten Öffentlichkeit zu schließen, indem er eine Plattform - inspiriert von Crowdsourcing - vorstellt. Im nächsten Schritt gewährt Prototyp 2 Einblicke in den wissenschaftlichen Alltag eines Forschers und erhöht so die Zugänglichkeit zur Forschung. Dabei ist es wichtig, den Usern entsprechende Anreize zu bieten. Im Rahmen eines Hackathons wurde dieser Prototyp evaluiert und getestet. Die Ergebnisse spiegeln sich in den nächsten Design-Iterationen wider. Prototyp 3 fokussiert sich auf die positive Belohnung von pro-aktiver Teilnahme im Prozess der Wissenschaftskommunikation. All diese Konzepte bauen auf einem sehr breitgedehnten Rahmen auf. Aus diesem Grund fokussiert sich der letzte Prototyp auf ein spezifischeres Umfeld indem er eine Plattform zur Steigerung der Wissenschaftskommunikation im Österreichischen Schulsystem vorstellt. Diese Konkretisierung führt schließlich zu einem realisierbaren ersten Schritt, der die Wertschätzung von Wissenschaft erhöhen kann. Die Arbeit setzt ihren Schwerpunkt auf den Design-Prozess als iterative Entwicklung. Technische Realisierungen werden nicht näher erläutert und diskutiert.

Diplomarbeitsposter Prinz Roland

Roland Prinz

Masterstudium Software Engineering & Internet Computing
Abstract:

Das Ziel dieser Diplomarbeit ist es, durch die Verknüpfung von Technik und Information, blinde Personen bei der Erkundung ihrer Umgebung zu unterstützen. Der entwickelte Prototyp bietet die Möglichkeit, Stadtkarten mittels audiounterstützter Software zu erforschen. Durch die Kombination von taktilen Karten mit einem Multi-Touch Sensor, können hinterlegte kartografische Informationen durch den Einsatz von Gesten abgerufen und verarbeitet werden. Vorhandenes Umgebungswissen der AnwenderInnen wird dabei um neues, kartografisches Wissen aus dem Prototypen ergänzt. So wird das Erlernen von räumlichem Denken aktiv unterstützt. Die Diplomarbeit besteht aus einer Analyse und Kombination von bestehenden Forschungsergebnissen und Projekte sowie der Evaluierung von Multi-Touch Technologien für den Einsatz des Prototyps. Dabei werden die Technologien Leap Motion Sensor und das Apple iPad Pro in unterschiedlichen Situationen und Anwendungsfällen für den möglichen Einsatz getestet. Im Zuge der Entwicklung wird ein Konzept erarbeitet und ein Prototyp erstellt, der die genannten Anforderungen vollumfänglich erfüllt. Bei der Entwicklung werden die Software, als auch die Erstellung der taktilen Karten und einem Gehäuse für den Prototyp, berücksichtigt. Abschließend wird im Rahmen eines Workshops das Konzept und der Prototyp durch blinde ExpertenInnen für den Einsatz in Schulklassen evaluiert. Das Resultat sind zwei haptische Stadtkarten mit hinterlegten Informationen in den abgebildeten Bereichen und ein vollständiger Prototyp basierend auf dem Apple iPad Pro. Das Konzept erläutert alle Funktionen der Software und die Beschreibung der einzelnen Gesten zur Interaktion mit der Software. Mit diesem Konzept ist der Grundstein für ein selbstständig verwendbares Werkzeug für Personen mit einer Sehbeeinträchtigung zum Lesen von Landkarten gelegt.

Diplomarbeitsposter Simerle Christopher

Christopher Simerle

Masterstudium Software Engineering & Internet Computing
Abstract:

Mit dem Aufkommen einer neuen Generation von mobilen Geräten, wurden Millionen an unabhängigen Nutzern mit einer neuen Welt bekanntgemacht die sie so bis dato noch nicht kannten - der Welt der Location Based Services (LBS), der standortbezogenen Dienste. Heutzutage ist es schwer sich vorzustellen ohne Navigationsdienste, die rund um die Uhr erreichbar sind, auszukommen - sei es eine simple Suche nach einem neuen, unbekannten Hotspot via Google Maps oder das Navigieren bei einer Reise durch fremde Länder. Um dies alles zu ermöglichen braucht es jedoch Daten, standortbezogene Daten um genau zu sein. Das Ziel dieser Arbeit ist es eine schlüssig Übersicht zu präsentieren, wie diese Daten in der heutigen Zeit mit der Hilfe von mobilen Geräten wie Smartphones zustande kommen. Es wird aufgezeigt wie aktuelle Lösungsansätze und Technologien aussehen und funktionieren als auch dargelegt welche Vor- und Nachteile existieren bzw. welche Faktoren in welchem Ausmaß Einfluss auf die Genauigkeit der gesammelten Daten haben.

Diplomarbeitsposter Treml Michael

Michael Treml

Masterstudium Medieninformatik
Abstract:

Brailledisplays ermöglichen es blinden Personen, digitale Texte zu lesen. Dazu werden einzelne Schriftzeichen durch Muster von üblicherweise sechs Punkten mit weniger als zwei Millimetern Durchmesser dargestellt. Herkömmliche Displays dieser Art stellen nur eine Zeile von 20 bis 80 Zeichen dar, in der jeder Punkt einzeln angesteuert wird. Aufgrund der vielen kleinen Teile sind diese Displays sehr teuer. In dieser Arbeit wurde ein neues Konzept entwickelt, das eine Vereinfachung mit sich bringt. Ausgehend von einer Literatur- und Videorecherche wurde eine priorisierte Anforderungsliste für Brailledisplays erstellt, auf deren Basis anschließend verschiedene Lösungsansätze für einige Teilprobleme gegenübergestellt wurden. Die Teilkonzepte mit der besten Bewertung wurden dann näher untersucht und zu einem neuen Gesamtkonzept zusammengefasst. Dieses Konzept beruht darauf, dass nicht mehr alle Punkte einzeln angesteuert, sondern zu vorgefertigten Mustern zusammengefasst werden. Außerdem werden die Braillezeichen auf einer zylindrischen Grundgestalt untergebracht, durch deren Rotation man den Eindruck einer beliebig langen Zeile vermitteln kann. Das Konzept wurde in Low-Fidelity-Prototypen veranschaulicht und einem blinden Braille-Experten vorgeführt. Dieser bezeichnete die Idee als vielversprechend und hob vor allem die Möglichkeit zur Darstellung langer Zeilen positiv hervor. Dass das Endprodukt aufgrund konzeptioneller Schwächen vorwiegend zum Lesen von Fließtext geeignet und nicht lautlos sein wird, betrachtete er nicht als großes Problem. Zum Abschluss wurde für einen vollständigen High-Fidelity-Prototypen, der von einem Kollegen aus dem Maschinenbau konstruiert wird, ein Steuerungsprogramm für Arduino sowie eine Analysesoftware in Processing entwickelt.

Institut für Softwaretechnik und Interaktive SystemeE188

Arbeitsbereich Information & Software Engineering

Diplomarbeitsposter Braunsberger Thomas

Thomas Braunsberger

Masterstudium Business Informatics
Abstract:

Time-oriented data are of great importance as they are found in almost any database. May it be in terms of a record of working hours or a detailed list of sales statistics in an online shop. However, as it is the case with any other data these records tend to contain errors and correcting them manually would require a lot of effort and time, and thus, high costs. Some estimations go so far as to say that up to 40% of data contains errors. There are many methods and tools that focus on cleansing 'dirty' data, however, they rarely focus on time-oriented data. Some tools may help with a few time-oriented data problems, but time is hardly considered to be the main target. Those, who set a goal to deal with 'dirty' time-oriented data are mostly focused on a visual representation to make the task of error detection easier for the user. This led us to implement a research prototype that provides (semi-)automatic operations in order to take care of many possible time-oriented quality problems. Most of them do not require any further knowledge of the methods applied and hence, are ready to use by a large audience. We have evaluated the prototype in a usability study and derived suggestions for possible improvement.

Diplomarbeitsposter Culafic Vanja

Vanja Culafic

Masterstudium Software Engineering & Internet Computing
Abstract:

There are numerous ways in which websites track online users’ behavior for various purposes like targeted advertising and price discrimination. Browser fingerprinting is a process of iden- tifying a user by means of collecting and comparing the distinguishing features of the browser. This form of stateless tracking can aid third-party websites to track users across different do- mains without their knowledge. Fingerprinting methods exploit modern browser side technolo- gies that provide interactive web experience (e.g. JavaScript and Flash) in order to measure different browser and operating system attributes. In this thesis, we conduct an extensive survey of related work-field of browser tracking and fingerprinting. Furthermore, we implement an extensible fingerprinting framework that encompasses all fingerprinting methods from previous research and publish it online in order to collect browser fingerprints. We analyze 1,800 fingerprints collected in a time span between April 7, 2016 and August 21, 2016 and compare the findings to other research.

Diplomarbeitsposter Deutsch Dominik

Dominik Deutsch

Masterstudium Software Engineering & Internet Computing
Abstract:

The perception of climatic change and the rising awareness of sustainability lead to the signing of several international climate packages. For example, the European Union’s 2020 climate and energy package obliges Austria to increase the share of renewable energy sources to 34%, reduce the greenhouse gas emissions at least by 16% and increase the energy efficiency by 20% until 2020. Since the funding of respective measures constitutes a major challenge, the demand on IT-based strategies that support a cost-effective climate and environmental policy increased. This lead to the development of ECOCITIES, a web application that evaluates a city’s building stock and generates a set of optimization solutions. In the context of ECOCITIES, this diploma thesis describes a methodology for the multi-objective optimization of energy networks. Therefore, a clustering algorithm identifies possible extension targets by analyzing the building’s spatial locations. Afterwards, a multi-objective optimization algorithm generates optimal selections of extension targets that minimize the investment costs of the extension and maximize the reduction of CO2 emissions, share of renewable energies and the potential profit of the energy network provider. While the calculation of most objective functions could be realized using adaptations of ECOCITIES’ calculation engine, the calculation of the investment costs required a special solution. Therefore, a complete graph is created where the nodes represent the energy network and selected target areas. Next, the weights of the graph’s edges are determined using a routing engine that is based on pgRouting and OpenStreetMaps data. Afterwards, the application of a minimal spanning tree algorithm generates the layout of the energy network extension that connects all extension targets to the network and has minimal length. In a final step, the investment costs are calculated based on the weight of the generated minimal spanning tree.

Diplomarbeitsposter Dinhobl Erhard

Erhard Dinhobl

Masterstudium Software Engineering & Internet Computing
Abstract:

Courts are more and more confronted with cyber crime. The internet is being discovered by criminals and used as a weapon. Due to the fact that the computer has become an essential part of our life, the law also focuses on the data stored on it. But data is not only stored on a pc, it is also stored on the web, and soon there will be more data on the net than on our very own computer. This is also furthered by cloud technologies and the bias of using distributed information systems. This means that we should begin research on how to preserve digital evidence to use this as valid and proved evidence in a lawsuit. Digital evidence was defined in 1999 by the Scientific Working Group on Digital Evidence (www.swgde.org) as “information of probative value stored or transmitted in binary form”. Currently, forensic tools focus on data on a computer hard disk, newer ones on databases. Data on the net is not being considered. But nowadays, we cannot freeze a state of Facebook or Amazon to analyze it with a forensic tool. Therefore, live forensic and continuity in data capturing has to be at the center of attention. This analysis focuses on that problem to get verified possibilities of collecting evidence from web applications like Amazon, Myspace, Studivz, Facebook, and so on. Challenging with this type of collecting information are anonymization of participating users, virtual environments, constantly changing states, a practical way of crawling data from the web, and adopting inconsistent interfaces.

Diplomarbeitsposter Gerger Ulrike

Ulrike Gerger

Masterstudium Informatikdidaktik
Abstract:

Durch die neuesten Entwicklungen im Bereich der Touchphones wird es möglich auch Lerninhalte auf mobile Geräte zu bringen. Für den Biber der Informatik, einen Wettbewerb zum Thema Informatik, gibt es zwar schon eine App in Form eines Lernspiels, das aber nur für Android-Betriebssysteme konzipiert ist. Die Idee hinter dieser Arbeit ist es einen Prototypen einer App für den Biber Wettbewerb zu entwickeln, der für IOS- aber auch für Android-Betriebssysteme einsetzbar ist. Der inhaltliche Unterschied zwischen den Apps zeigt sich dadurch, dass die BiberApp (umgesetzter Prototyp) nicht nur ein Lernspiel ist, sondern auch ein Tool, das im Unterricht eingesetzt werden kann. Dazu wurde speziell eine Suchfunktion für Fragen der App implementiert. Daher haben sich für diese Arbeit folgende Forschungsfragen ergeben: Wie und wie gut können vorhandene Fragen des Biber Wettbewerbs in einer Lern-App abgebildet werden? Wie gut einsetzbar ist eine Volltextsuche in den Aufgaben des Biber der Informatik um bestimmte Themen für den Unterricht zu suchen? Für die Umsetzung der Fragestellungen kommen die drei wissenschaftlichen Methoden Literaturrecherche, deren Ergebnis ein Richtlinienkatalog für die Gestaltung von Touchphone-Apps ist, die Entwicklung eines Prototypen und eine Evaluation des implementierten Prototypen zum Einsatz. Die Evaluation der Umsetzung der Biber-Aufgaben in einer App hat ergeben, dass sie zwar in der App verwendet werden können, aber ihre Struktur an die ganz eigenen Bedürfnisse von Touchphones (sehr kleine Bildschirme) angepasst werden müssen. Die für die Suche von Fragen zu einem Themengebiet oder Schlagwort entwickelte Suchfunktion funktioniert sehr gut. Aufgaben zu einem bestimmten Thema werden gefunden, weil sie einerseits als Volltextsuche umgesetzt wurde und andererseits der Aufbau der Biber-Aufgaben mit ihren Abschnitten - Das ist Informatik und Keywords - eine Verbindung zu Fachbegriffen und Konzepten der Informatik herstellen.

Diplomarbeitsposter Hager Gerhard

Gerhard Hager

Masterstudium Business Informatics
Abstract:

Using Workflow Systems for Machine Learning provides a scalable and efficient way to process data to create models which can be used for data-driven decisions and predictions. This thesis examines concepts for improving the verification and repeatability of such workflows. The covered topics include Data Provenance and Dynamic Data Citation. It investigates how provenance information can be collected during workflow execution and properly represented with a model. Furthermore it is analyzed how the citation of dynamic data can be realized in form of a workflow. To show the feasibility of the elaborated concepts some practical implementations are created in a high-performance, cloud-based machine learning environment. The final implementation is generically designed so the construction approach can be used for other workflow management systems. In addition recommendations for machine learning applications for supporting the discussed topics are proposed. The created concepts and recommendations can be used for improving the verifiability and repeatability of workflows.

Diplomarbeitsposter Jandl Florian

Florian Jandl

Unterrichtsfach Informatik/Informatikmanagement
Abstract:

Die Auswahl von Programmiersprachen und -umgebungen für den erfolgreichen Einstieg in die Programmierung ist sehr wichtig. Anhand welcher Kriterien die Beurteilung von Sprachen und Umgebungen in dem pädagogischen Kontext einer Allgemeinbildenden Höheren Schule (AHS) erfolgen kann, ist ein Thema dieser Arbeit. Dazu werden für das erste Ergebnis dieser Arbeit in der Literatur bereits vorhandene Kriterienkataloge analysiert und genannte Punkte in einen gemeinsamen Katalog, jeweils mit einem Richtwert der Wichtigkeit (Anzahl der Studien, die das Kriterium nennen), integriert. Zu jedem einzelnen Kriterium dieses zusammengefassten Katalogs wird eine Operationalisierung zur leichteren Auswertung erarbeitet. Allerdings ist die didaktische Herangehensweise und die Umsetzung des Unterrichts ebenso wichtig. Deshalb wird für das zweite Ergebnis eine auf "`Modelling first"' fußende Unterrichtssequenz inklusive Stundenplanungen und didaktischer Anmerkungen erstellt, die durch aktuellste Technologie (TypeScript und universelle Windows Apps) Schülerinnen und Schüler motivieren soll. Diese Unterrichtssequenz ist neben der durchgeführten technischen Analyse der ausgewählten Sprache und Umgebung die Basis für die Auswertung der Eignung von TypeScript in Windows Apps für die AHS und somit die erste Anwendung des erarbeiteten Kriterienkatalogs. Das Ergebnis: Die wichtigsten Positivpunkte sind die einfache Benutzbarkeit, der einfache Transfer und das sofortige (Fehler-)Feedback. Viele weitere Punkte im Kriterienkatalog werden vollständig erfüllt. Einige bedeutende Nachteile müssen aber berücksichtigt werden, speziell Schwierigkeiten bei der semantischen Nachvollziehbarkeit, Fehlen eines strukturierten Designs, und der Hybridcharakter der Sprache sind Negativpunkte. Teilweise ist die Syntax für Anfänger nicht optimal. Gesamt gesehen kann TypeScript in Windows Apps mit einigen Nachteilen im Anfängerunterricht gut eingesetzt werden.

Diplomarbeitsposter Prasch Patric

Patric Prasch

Masterstudium Business Informatics
Abstract:

Audience Response Systeme (ARS) helfen dabei, die Interaktivität zwischen Vortragenden und Studenten in großen Lehrumgebungen zu erhöhen. In dieser Arbeit wird die Klasse der integrierten Audience Response Systeme (iARS) untersucht. Integrierte Audience Response Systeme kombinieren das Vortragen von Präsentationsfolien mit dem Einsatz von interaktiven Aufgaben, wie aus klassischen ARS bekannt. Die Ziele dieser Arbeit sind die Analyse der Anforderungen, die an integrierte Audience Response Systeme gestellt werden, die Entwicklung von System Designs, welche die analysierten Anforderungen erfüllen, die Untersuchung von Methoden, die zur Evaluierung von iARS dienen und die Erhebung der Nachfrage nach iARS im universitären Kontext. Zur Evaluierung der ermittelten Anforderungen und des entwickelten System Designs wurden zwei Prototypen mittels eines iterativen Software-Entwicklungsprozesses implementiert. Um die Nachfrage nach integrierten Audience Response Systemen zu erheben, wurde eine Befragung der Vortragenden durchgeführt; alle Lehrenden der Technischen Universität Wien wurden eingeladen, an einer Online-Umfrage teilzunehmen. Zur Evaluierung der Anforderungen und des System Designs wurde eine Fallstudie des zweiten Prototyps durchgeführt. Dabei wurde der Prototyp in 5 verschiedenen realen Lehrveranstaltungen eingesetzt und konnte dabei in insgesamt 14 Vorlesungseinheiten die Interaktivität zwischen Vortragenden und Studenten erweitern. An der im Zuge der Fallstudie durchgeführten Befragung der Studenten nahmen 247 Personen teil. Die Evaluierung zeigte, dass 87% der Studenten den Einsatz des iARS Prototyps während der Vorlesung sinnvoll fanden und 91% der Studenten ihn auch in anderen Lehrveranstaltungen wieder verwenden würden. Die Ergebnisse der durchgeführten Befragung der Vortragenden, an welcher sich 102 Personen beteiligten, zeigte, dass 82% der Lehrenden sich vorstellen können, ein solches System in ihren zukünftigen Vorlesungen einzusetzen.

Diplomarbeitsposter Pröll Stefan

Stefan Pröll

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Modern research is data driven and the results published in scientific journals and presented at conferences are based upon data. Researchers use data as input and output for their scientific workflows and process and transform during the course of their experimens. Reproducibility is a core requirement for trustworthy science and it ensures that the results can be verified by peers. In order to allow peers to reproduce the research results, scientists require access to the data sets and the methods used in a scientific experiment. As research is an iterative process, scientific workflows and data are continuously improved. Whenever algorithms advance, tools become adapted or instruments become more precise, the produced datasets change. Also researchers improve their datasets by correcting and purging errors and by including new records into existing datasets. For these reasons research data is not static, but constantly evolving. In order to enable reproducibility, access to data sets and derived subsets must be guaranteed. The field of data citation deals with the question how data sets can be made citable and accessible for the long term. As it is impractical or even impossible to store each and every subset from evolving data sources, a new method is required which allows to access previously created data sets and subsets. The Research Data Alliance (RDA) Working Group on Data Citation developed a set of guidelines how evolving research data and subsets thereof can be made citable. In this work we present the first research prototype implementation for CSV data, which allows scientists to create citable, precise subsets of evolving CSV data.

Diplomarbeitsposter Wortschack Martin

Martin Wortschack

Masterstudium Business Informatics
Abstract:

In information visualization set-typed data refers to datasets that represent element-set memberships, such as which countries (sets) produce a certain product (element), or which genres (sets) a movie (element) belongs to. Set-typed data appears in various forms and can serve as a data models in various data analysis scenarios. One of the main challenges in the context of set-typed data visualization is scalability. Traditionally, Euler and Venn diagrams count as two of the most popular set visualiza- tions that depict the concepts from set theory. However, despite the widespread usage of these diagrams across several scientific fields they lack the ability of visualizing more than three sets without becoming too complex. This limits their applicability to data analysis scenarios that involve hundreds of sets such as the world countries. Besides Euler and Venn diagrams a variety of visualization techniques for set-typed data has been developed over the past. Typically, existing techniques scale well with either an increasing number of elements or an increasing number of sets. The goal of this thesis is to develop a set visualization technique which offers high scala- bility in both the number of sets and elements. The proposed technique, called Scets2, employs different aggregations of set-type data, and uses a matrix layout to visualize the aggregated information. Furthermore, it allows users to explore the aggregated infor- mation interactively. The implemented prototype uses modern web technologies which make the visualization both able to handle a large amount of data using server-side backend, and accessible to a wide range of users using web-based frontend. Two differ- ent use cases demonstrate how the proposed visualization technique helps to investigate real-world data and enables users in an intuitive way to reveal several patterns which could not be easily detected by other visualization techniques.

Diplomarbeitsposter Ziegelbecker Thomas

Thomas Ziegelbecker

Masterstudium Business Informatics
Abstract:

Today we capture data at almost each and every step, while in many cases this data is imperfect due to various defects. Analysts and decision makers unknowingly base their decisions on such imperfect data, which leads to poor decisions and high costs. One way to address this problem is to visualize data quality problems to make decision makers more aware of them. Despite existing literature proving that data quality visualization improves decision-making, only little research has been conducted in the field of univariate and multivariate data quality visualization. Therefore, the focus of this work will be on incorporating data quality visualization into the data exploration process, while providing a novel approach for visualizing data quality problems of multivariate time-oriented data in both, overview and detail. For this, a particular domain problem from the drilling industry will be used. The data itself is provided from multiple sensors that transmit time-stamped raw drilling-data, which contains data quality problems such as missing values, invalid values and outliers. In this work I examine existing data quality visualizations for multivariate time-oriented data. Based on this literature research I develop and discuss several design options in overview and detail for visualizing the data quality problems identified in combination with the domain problem. I then implement selected design approaches in a prototype and evaluate them in expert interview sessions. The results of these session are then reported and discussed, providing rationales for the design choices made. In addition, the results also provide arguments for specific interaction techniques (i.e., combined interactive views) as well as they offer insights into algorithms and technologies used. Overall, the results give conclusions for selecting data quality visualization approaches and make suggestions for further research areas such as the aggregation algorithms for data quality problems.

Arbeitsbereich Interactive Media Systems

Diplomarbeitsposter Bernhardt Daniel

Daniel Bernhardt

Masterstudium Medizinische Informatik
Abstract:

TUIs können mit Aspekten mobiler Roboter ergänzt werden, um Feedback in Form einer selbständigen Positionsänderung zu ermöglichen. Mit diesen gesteuerten (engl. actuated) TUIs beschäftigt sich das ACTO-Projekt (kurz für Actuated Tangible User Interface Objects [3]). Das Resultat sind kleine, würfelförmige Roboter - genannt ACTOs. Um die Bewegungen der ACTOs zentral zu steuern und zu koordinieren, muss deren Position in Echtzeit bestimmt werden. Bisher fand die Positionsbestimmung ausschließlich durch das optische Tracking eines Markers auf der Unterseite jedes ACTOs statt. Diese Form des Trackings liefert zwar recht präzise und absolute Positionswerte, zeigt allerdings Schwächen bei schlechter Beleuchtung und zu schnellen Bewegungen des ACTOs. Um diese Nachteile zu kompensieren, stellt diese Arbeit eine Erweiterung vor, die das Tracking durch zwei, an jedem ACTO befestigte, optische Maussensoren ergänzt. Dabei wird die Verschiebung entlang der X- und Y-Achse beider Sensoren ausgelesen. Aus diesen Werten wird mittels eines Algorithmus, die Translation und Rotation des ACTOs und damit dessen neue Position bestimmt. Die Arbeit beschreibt die Design-Überlegungen und die Konstruktion dieses relativen Tracking-Systems. Dabei wird auf die Entwicklung der Hard- und Software eingegangen. Die mathematischen Hintergründe werden ebenfalls beleuchtet. Schlussendlich wird gezeigt, dass die Ergänzung des absoluten Trackings durch optische Maussensoren, im Bezug auf Präzision und Robustheit, sowie bei schnellen Bewegungen bestechende Vorteile bietet. Damit erscheint der Einsatz des Systems in den verschiedensten Forschungsgebieten sinnvoll. Da sich während der Arbeit an den einzelnen Prototypen und dem Schreiben der Software außerdem ein großes Potential für weitere Modifikationen zeigte, mit denen das System an die verschiedensten Umgebungen und Herausforderung angepasst werden kann, wird abschließend auch auf diese Verbesserungen eingegangen.

Diplomarbeitsposter Buturovic Adis

Adis Buturovic

Masterstudium Visual Computing
Abstract:

Weltweit werden Überwachungssysteme (z.B. mit Kameras und Mikrofonen) eingesetzt, um bestimmte Ereignisse und Umgebungen zu beobachten. Diese werden üblicherweise an ein Kommunikationsnetz und Stromnetz angeschlossen und beinhalten keine eigene Verarbeitungslogik ("Intelligenz"). Wie verfährt man jedoch, wenn weder Strom noch ein Breitband-Kommunikationsnetz zur Verfügung stehen? Das Ziel dieser Diplomarbeit ist es, ein autonomes Überwachungssystem basierend auf handelsüblichen Komponenten zu entwickeln, das möglichst autonom und unabhängig agieren kann und wenige Abhängigkeiten nach außen hat. In der Arbeit wird zunächst der Auswahlprozess von Hard- und Software anhand verschiedener Kriterien beschrieben. Der Hauptteil der Arbeit umfasst die Entwicklung eines Hardware-Prototypen sowie die Implementierung eines leistungsfähigen und modularen Software-Frameworks, das unterschiedliche Einsatzzwecke ermöglichen soll. Das fertige System soll regelbasierte Aufnahme-Modi unterstützen, beispielsweise gesteuert durch Eingangsdaten von Bewegungs- und Lichtsensoren und basierend darauf autonom Entscheidungen über den Umgang mit den vorhandenen Ressourcen treffen. Das entwickelte Software-Framework soll die Integration von Bildverarbeitungsalgorithmen unterstützen, um eine Vorverarbeitung der Kameradaten im Überwachungssystem selbst zu ermöglichen und Bandbreite zu sparen. Sowohl die Audio- als auch Videoaufnahme wurde im gewünschten Umfang realisiert. Die Konfiguration des Systems kann bequem mittels einer XML-Konfigurationsdatei durchgeführt werden. Der Stromverbrauch liegt bei dem entwickelten System je nach Aufgabenstellung und den verwendeten Sensoren zwischen 0,68 und 1,75 Watt und liegt somit im Bereich von vergleichbaren kommerziellen Lösungen, wie beispielsweise "LeanXcam".

Diplomarbeitsposter Davletaliyev Maxim

Maxim Davletaliyev

Masterstudium Software Engineering & Internet Computing
Abstract:

Producing photo-realistic images, hardly distinguishable from the real photos, is one of the most important problems in computer graphics. Physically based rendering and particularly Monte Carlo path tracing is able to produce images of such quality by performing excessive sampling during Monte Carlo integration. The problem of Monte Carlo Integration is a high variance at low sampling rate. This variance appears as a noise in final image. In order to address such problem high-dimensional filtering is used. In this thesis we inspect the applicability of the Genetic Programming for the search of new high-dimensional filtering expressions and present three novel expressions generated by our method. Our method consists of iterative random changes of initial expressions until the finishing criterion is met and the comparison of the filtered pixel values, obtained with newly generated expressions, with the ground truth of the training scenes. The resulting expressions perform better than cross-bilateral filter with constant parameters. Additionally, our GPU implementation of identified expressions allows fast filtering of Monte Carlo noise with computational time of less than a second.

Diplomarbeitsposter Kropshofer Daniel

Daniel Kropshofer

Masterstudium Medieninformatik
Abstract:

Die Erkennung u. vielmehr die Unterscheidung u. Klassifizierung von Audio-Events ist keine triviale Aufgabe. Unterschiedlichste Herangehensweisen erlauben die Bearbeitung dieser Thematik. Ein hierfür entwickeltes System hängt dabei in hohem Maße von den Charakteristiken u. der Qualität der zugru.eliegenden Daten ab. Um praxistauglich zu sein muss es gewisse Kriterien im Bezug auf Leistung u. Stabilität erfüllen. Diese Arbeit wurde unter Berücksichtigung dieser Kriterien erstellt. Die Aufgabenstellung war es, einen Algorithmus zur Erkennung von Afrikanischen Elefanten anhand ihrer Laute zu entwickeln. Um dies zu erreichen, fanden in der Vergangenheit verschiedene Methoden Anwendung, die auf Kurzzeit-Merkmalen wie Cepstral-Koeffizienten in Kombination mit stochastischen Modellen o. maschinellem Lernen basieren. Diese Merkmale wurden bereits erfolgreich für die Erkennung menschlicher Sprache verwendet, leiden jedoch unter bestimmten Defiziten wie zum Beispiel einer Sensibilität gegenüber Rauschen. Die Idee hinter dieser Arbeit war es, die Elefantenlaute auf visuelle Art zu beschreiben. Durch die Überführung in den Frequenzraum werden Spektrogramme der Audiodaten erstellt, wodurch die Berechnung von SIFT -Bildmerkmalen u. deren Clustering möglich wird. Die Cluster-Zentren können dabei als visuelle Wörter interpretiert werden u. repräsentieren charakteristische wiederkehrende Muster aus den Spektrogrammen. Basierend auf diesen Wörtern werden Histogramme von Samples aus einem Training-Set erstellt, die daraufhin als Eingangsgröße für einen Klassifikator dienen. Daraus resultierend erhalten wir eine Methode, mit deren Hilfe die Erkennung von Elefantenlauten in Audioaufnahmen möglich wird. Diese Arbeit präsentiert zunächst den vorgeschlagenen Algorithmus u. evaluiert u. vergleicht dann die erreichten Erkennungsraten mit bestehenden Methoden, um herauszufinden, ...

Diplomarbeitsposter Kröter Manuel

Manuel Kröter

Masterstudium Visual Computing
Abstract:

Low cost commodity depth cameras like the Microsoft Kinect allow to sense the structure of the environment. With the aid of dense surface reconstruction methods, a detailed 3D model can be computed in real-time from the acquired camera data. Autonomous robots can apply this techniques in order to build a map of the scene while they are exploring it. This allows the robot to locate itself and to navigate in unknown environments. Besides that, the reconstructed model can be interesting for different parties, who want to explore these environments as well. Especially, distant or dangerous areas can be scanned by robots while remote observers are able to safely get an overview of the scene. In order to support remote exploration while the scene is still scanned, the reconstructed information has to be streamed incrementally over wireless network. Since currently, there exists no solution with this feature, the reconstruction framework InfiniTAM is extended to support the transmission of a large scale, dynamically changing model. For visualization and exploration, a triangular mesh representation is favored, while dense reconstruction methods mostly operate on a volumetric representation. In current approaches, the mesh is extracted in a post-processing step, which is not applicable when the scene should be explored while being scanned and updated. The used framework is therefore adapted to maintain an up-to-date mesh in real-time. The reconstructed mesh is explored in a virtual reality setup using a head-mounted display and an omnidirectional treadmill. The usage of virtual reality hardware enhances the ease of use and makes it possible to navigate in a natural way. The developed system is evaluated in terms of memory requirements and data rates as well as within a user study, that analyzes the effect of the incremental streaming and the virtual reality exploration on spatial knowledge acquisition.

Diplomarbeitsposter Lehner Michaela

Michaela Lehner

Biomedical Engineering
Abstract:

To assist physicians with the treatment planning process so-called clinical practice guidelines are created. They contain general information about a specific clinical condition as well as rules and procedures to treat patients with this condition. As these guidelines are represented in free text form they are difficult to handle for physicians in their daily working process. Therefore the information in the guideline document is formalized to create computerized guidelines. The creation of these computer-interpretable guidelines is either done manually which is a great effort or automatically using methods of Information Extraction. The aim of this thesis is to verify whether the automatically generated model of a guideline corresponds to the manually generated model of the same guideline. Doing this manually would again be a great effort and therefore I want to investigate methods to automatically evaluate parts of these models. To be able to compare two different models I investigated them. At first I developed methods to compare two models. To make a statement about the similarity of two models we started with comparing their activities using similarity metrics in order to identify corresponding plans of two models. In a second step we furthermore looked into their process structure using workflow patterns and tried to find similarities as well. Then I implemented these methods prototypically and tested them using a ‘real-world’ example, a guideline for gestational diabetes mellitus. The example was based on the output of the GESHER tool for manually creating computerized treatment plan models and the tool LASSIE for automatically creating computerized treatment plan models. Using this example we evaluated how much of the original guideline text is present in the automatically generated model. Finally, it was evaluated if the automatically generated model finds the same information as present in the manually generated model.

Diplomarbeitsposter Schuster Florian

Florian Schuster

Masterstudium Medieninformatik
Abstract:

In immersiven virtuellen Umgebungen werden Benützer in Virtual Reality (VR) Simulationen versetzt. In solchen Umgebungen werden Menüs gebraucht, um den Systemzustand zu ändern, verschiedene Tools (Werkzeuge) auszuwählen oder bestimmte Kommandos zu geben. Allerdings kann es bei der Interaktion mit solchen Menüs zu Schwierigkeiten kommen, da die Benützer Head Mounted Displays tragen und somit nicht in der Lage sind, physische Eingabegeräte zu sehen. Deswegen muss die Interaktion mit denselben intuitiv und einfach zu erlernen sein. In dieser Diplomarbeit wird eine Möglichkeit vorgestellt, ein VR Menü mit der Hilfe einer Smartwatch über ein Wireless Local Area Network zu steuern. Dafür wird ein Plugin für die Unreal Engine 4 Spiele-Engine implementiert. Dieses Plugin enthält Komponenten, die mit einer Smartwatch gesteuert werden können. Weiters wird eine Android Wear Applikation erstellt, die es ermöglicht, mit Hilfe von Touch-Interaktion die Komponenten zu steuern. Die Applikation und das Plugin werden letztendlich mit der Hilfe von einem der vier erstellten Test-Menüs einem Leistungstest unterzogen, um etwaige Auswirkungen auf die Hardware zu entdecken. Die Ergebnisse zeigen, dass die Leistung durch die Implementationen nicht eingeschränkt wird.

Diplomarbeitsposter Sedelmaier Achim

Achim Sedelmaier

Masterstudium Medieninformatik
Abstract:

Langzeitvideoaufnahmen, wie bei Tierbeobachtungen oder der Sicherheitsüberwachung, können über mehrere hundert Stunden lang sein und somit viel Zeit in der Nachbearbeitung in Anspruch nehmen. Oft ist es notwendig das gesamte Videomaterial zu sichten, um alle Vorkommnisse des Interesses zu erfassen. Des weiteren liegt das Interesse oft auf bestimmten sich wiederholenden Ereignissen. Eine vollständige Durchsicht ist in diesem Fall ineffizient. Dieses Problem kann verringert werden, indem relevante Ereignisse zusammengefasst dargestellt werden. Diese Arbeit beschäftigt sich mit der automatischen Extraktion sich wiederholender Ereignisse von Langzeitvideoaufnahmen. Hierbei kommen Algorithmen aus der Bildverarbeitung und Statistik zum Einsatz. Bewegung und Aussehen von Objekten werden erfasst und als elementare Merkmalsmuster beschrieben. Wiederholt sich ein Muster zu einem späteren Zeitpunkt, wird ein sich wiederholendes Ereignis erkannt. Der Prozess läuft wie folgt ab: Zunächst wird das Material mittels zeitlicher und örtlicher Bildsegmentierung nach bewegten Objekten durchsucht. Zu jedem Videoframe wird versucht diese Objekte im vorherigen Frame wiederzufinden, um Objekte zeitlich zu verfolgen. Anschließend werden Bewegungs- und Farbmerkmale für jedes Objekt errechnet. Dadurch wird jedes Bewegungsmuster als eine Folge von Merkmalen beschrieben. Die zuvor extrahierten Merkmale werden einem Clustering unterzogen, wodurch ein Alphabet zur Beschreibung von komplexen Ereignissen als Symbolketten entsteht. Durch ein erneutes Clustering, welches die Symbolketten miteinander vergleicht, werden ähnliche Ereignisse erkannt. Wir evaluierten unsere Methode anhand von Langzeitbeobachtungen von Tiergehegen. Unsere Experimente haben gezeigt, dass sich wiederholende Ereignisse mit der vorgeschlagenen Methode erkennen lassen. Diese Arbeit beschreibt unseren Algorithmus, sowie die Ausführung der Experimente. Zum Schluss werden Ergebnisse gezeigt und offene Themen diskutiert.

Arbeitsbereich Business Informatics

Diplomarbeitsposter Naderer-Puiu Philipp

Philipp Naderer-Puiu

Masterstudium Software Engineering & Internet Computing
Abstract:

Durch die stetige Verbreitung von Cloud Computing in der IT-Industrie müssen auch Strategien zum Testen von Software hinterfragt und adaptiert werden. Zwar lassen sich viele Methoden zur funktionalen Prüfung gut in Cloud-Umgebungen übertragen, jedoch sind gerade nicht-funktionale Anforderungen durch die dynamische Bereitstellung von IT-Ressourcen schwieriger zu überprüfen. Anhand von Google App Engine, welches eine Platform as a Service-Umgebung unter anderem für Java-Applikationen bereitstellt, werden Skalierbarkeit und Elastizität von Anwendungen untersucht. Dabei sind drei wesentliche Fragen zu beantworten: Eignet sich JMeter als Lasttestgenerator für verteilte Cloud-Anwendungen? Wie reagiert App Engine auf eine hohe Anzahl an Zugriffen? Wie wirken sich spezifische Eigenschaften des Google Cloud Datastore, wie beispielsweise das Entity Group Write Limit, in der Praxis aus? Die Beantwortung dieser Fragen führt zur übergeordneten Fragestellung: Eignet sich Google App Engine als Zielplattform für Migrationen von bestehenden Java-Applikationen in die Cloud? Dabei fokussiert sich diese Arbeit nicht nur auf die Überprüfung von funktionalen Anforderungen, sondern legt besonderen Wert auf nichtfunktionale Anforderungen und die daraus entstehenden Konsequenzen für Migrationsprozesse.

Arbeitsbereich E-Commerce

Diplomarbeitsposter Egger Andreas

Andreas Egger

Masterstudium Software Engineering & Internet Computing
Abstract:

Cloud Dienste haben in den letzten Jahren zunehmend an Popularität gewonnen wodurch die Energiekosten von Datenzentren signifikant stiegen. Da die Energiekosten einen bedeutenden Anteil an den Gesamtkosten eines Datenzentrums betragen ist es für Cloud Betreiber von großer Bedeutung diese auf ein Minimum zu reduzieren um wettbewerbsfähig zu bleiben und leistbare Cloud Dienste anbieten zu können. Diese Arbeit präsentiert ein Cloud Framework zur Evaluierung von Energiekosteneinsparungen mit Anbindung an unterschiedliche Elektrizitätsmärkte. Es wird gezeigt dass signifikante Kosteneinsparungen mit Hilfe von intelligenten Verteilungsmechanismen unter Berücksichtigung von Energiepreisvorhersagen möglich sind. Die Arbeit besteht aus zwei Teilen. Im ersten Teil werden unterschiedliche Vorhersagemodelle untersucht um die Qualität der Modelle bezüglich Energiepreisdaten unterschiedlicher Energiemärkte zu bestimmen. Ein Simulationsframework für Vorhersagemodelle wurde erstellt das die dynamische Evaluierung von Energiepreisdaten ermöglicht und in der Lage ist Vorhersagemodelle basierend auf diesen Daten zu erstellen. Im zweiten Teil werden Simulationen über größere Zeiträume hinweg durchgeführt mit unterschiedlichen Verteilungsalgorithmen und Szenarien. Ein bestehendes Simulationsframework wurde erweitert um Simulationen über größere Datenmengen von Energiepreisen durchzuführen wobei verschiedene Verteilungsmechanismen vorgestellt werden. Resultate zeigen dass erhebliche Kosteneinsparungen möglich sind unter Verwendung von Verteilungsmechanismen die unterschiedliche Kriterien und Energiepreisvorhersagen berücksichtigen. Basierend auf der simulierten Cloud Umgebung kann die Anwendbarkeit der vorgestellten Methode auf reale Umgebungen bestehend aus geographisch verteilten Datenzentren mit Anbindung an Energiemärkte gezeigt werden.

Diplomarbeitsposter Solich Thomas Claus

Thomas Claus Solich

Masterstudium Business Informatics
Abstract:

Wikipedia, eine der größten frei zugänglichen Enzyklopädien ist für viele Menschen ein wesentlicher Bestandteil bei der Internet-Recherche geworden. Da grundsätzlich jede Person Wikipedia-Artikel erstellen und editieren kann, sind diese so verschieden wie die Autoren selbst. Abhängig von den jeweiligen Sprachversionen werden Artikel zu verschiedenen Themen bzw. Artikel zum gleichen Thema mit eventuell anderem Inhalt erstellt. Somit stellt sich die Frage, wie vollständig und verlässlich die auf Wikipedia verfügbaren Artikel und Informationen sind. Im Rahmen dieser Arbeit wurde analysiert, wie groß die Unterschiede zwischen den Sprachversionen der einzelnen Wikipedia-Artikel sind bzw. wie vollständig Artikel im Bezug auf Beziehungsinformationen dargestellt sind. Aufgrund der enormen Anzahl von Artikeln wurde nicht die gesamte Enzyklopädie überprüft, sondern nur Artikel aus dem Bereich Kunst in den drei Sprachversionen Deutsch, Englisch und Italienisch. Bei den relevanten Artikeln wurden die Unterschiede zwischen den Sprachversionen im Bereich sozialer Netzwerke von Künstlern quantifiziert und verglichen. Es wurde ebenfalls überprüft, ob nationale Künstler in den jeweiligen Wikipedia-Sprachversionen bevorzugt behandelt werden. Um die Vollständigkeit der Artikel zu verifizieren, wurden Beziehungen die in Form von Links in Artikeln enthalten sind, mit Informationen aus zwei anderen Quellen abgeglichen. Diese Quellen sind die Union List of Artist Names (ULAN) sowie Wikidata. In dieser Arbeit wurde eine vergleichende, quantitative, empirische Studie durchgeführt. Mit einem eigens entwickelten Programm wurden Daten aus Wikipedia, Wikidata und ULAN gesammelt und für weitere Analysen aufbereitet. Zur Auswertung wurden spezielle KPIs entwickelt, die anschließend zur Beantwortung der Fragestellungen herangezogen wurden. Außerdem wurde als weitere Analysemethode die Graphentheorie eingesetzt. Die Ergebnisse sind mit Praxisbeispielen und Visualisierungen untermauert.

Andere Institute der Technischen Universität Wien

Institut für Diskrete Mathematik und Geometrie

Diplomarbeitsposter Humenberger Andreas

Andreas Humenberger

Masterstudium Computational Intelligence
Abstract:

Abstraktionen von formalen Beweisen, sogenannte abstrakte Beweisstrukturen, dienen als anerkanntes Werkzeug um Struktur und Eigenschaften von formalen Beweisen zu untersuchen. Für einen Beweis in einem Sequentialkalkül existieren verschiedenste Abstraktionen, wie Beweisskelett, Beweisnetz und Logischer Flussgraph (im speziellen Atomarer Flussgraph). Diese abstrakten Beweisstrukturen haben ihren Ursprung in verschiedenen Gebieten der Beweistheorie und eine gründliche Untersuchung der Zusammenhänge dieser existiert noch nicht. Durch die Definition einer Tupel-Darstellung von LK-Beweisen wird die Grundlage eines einheitlichen Rahmens zur Untersuchung von Beweisstrukturen im Sequentialkalkül LK gelegt. Diese Tupel-Darstellung erlaubt es, die oben genannten abstrakten Beweisstrukturen geeignet darzustellen und zu untersuchen. Wir zeigen, dass es bei geeigneter Behandlung der Abschwächung für jedes Paar der oben genannten Abstraktionen eine Struktur gibt, sodass beide zu dieser reduziert werden können. Neben den Einblicken in die Zusammenhänge der Beweisstrukturen entsteht ein Rahmen zur Verallgemeinerung von Resultaten und Algorithmen. So definierten etwa Krajíček und Pudlák einen Algorithmus zur Herleitung von Schranken bezüglich der minimalen Größe von Beweisen. Durch Verallgemeinerung dieses Algorithmus ergeben sich dieselben Schranken für Beweisnetze. Außerdem untersuchen wir die Kardinalitäten der Äquivalenzklassen, welche von den Abstraktionen generiert werden. Wir zeigen, dass es endlich viele Beweise gibt, welche dasselbe Beweisnetz (denselben Atomaren Flussgraphen) besitzen. Für Beweisskelette gibt es im Allgemeinen unendlich viele dazugehörige Beweise.

Department für Raumplanung

Diplomarbeitsposter Linzner Manfred

Manfred Linzner

Masterstudium Medieninformatik
Abstract:

Historisch bedingt lassen sich Währungen stets auf eine herausgebende, regulierende Stelle staatlicher Provenienz zurückführen. Diese zentrale Stelle übernimmt die Aufsichtsfunktion und bürgt für den Wert der Währung. Kryptowährungen setzen einen gezielten Schritt in Richtung Dezentralisierung. Bitcoin und Alternativen verfügen über keine derartige zentrale Stelle. Währungskurse werden durch den freien Markt geregelt, die Verifikation von Transaktionen geschieht durch ein Kollektiv von Nutzern und jede Transaktion ist öffentlich einsehbar. Diese Diplomarbeit legt zunächst die Entwicklung von Währungssystemen, ausgehend vom Goldstandard im 19. Jahrhundert über das Bretton-Woods-System bis hin zu Fiat-Geld und Kryptowährungen, dar. Der Fokus der Arbeit liegt auf der Kryptowährung Bitcoin. Deren Entwicklung sowie die technisch komplexen Abläufe rund um die Anwendung von Bitcoin werden allgemeinverständlich dargelegt. Des Weiteren wird die bestehende Rechtslage in Österreich, den USA und Russland näher betrachtet und der Versuch unternommen, Problematiken und offene Fragen rund um Bitcoin in Relation zu bestehendem Recht zu setzen. Der zweite Abschnitt der Arbeit beleuchtet mögliche Einsatzgebiete für Kryptowährungen. Dazu wird die Einführung von Bitcoins als Zahlungsmittel in einem Online-Shopsystem beschrieben und in weiterer Folge deren Akzeptanz analysiert. Abschließend erfolgt der Versuch, die zukünftige Entwicklung der Technologie Bitcoin zum einen und von Bitcoins – der Währung – zum anderen einzuschätzen.

Diplomarbeitsposter Schildberger Lukas

Lukas Schildberger

Masterstudium Business Informatics
Abstract:

Lobbying als Tätigkeit, um politische Entscheidungen zu beeinflussen, hat in den letzten drei Jahrzehnten massiv an Bedeutung gewonnen. Jedoch wird dabei vor allem im deutschsprachigen Raum fast ausschließlich von einer negativen Tätigkeit ausgegangen, mit welcher Politik nach Belieben geschaffen oder geändert werden kann. Im Zuge dieser Masterarbeit versuche ich nun, dieser Sache etwas genauer auf den Grund zu gehen, indem ich mich im Detail mit den Themen Lobbying, Demokratie und Transparenz auseinandersetze. Die Europäische Union und ihre Rechtsetzungsorgane dienen dabei als Ausgangspunkt meiner Nachforschungen und werden im Zusammenhang mit den genannten Themen genauestens untersucht. In einer allgemeinen und in erster Linie theoretischen Ausarbeitung, werden der Begriff Lobbying als auch die Ziele, Akteure und Methoden der Tätigkeit behandelt, die Prinzipien Transparenz und Demokratie erläutert und in einen Kontext mit der zugrundeliegenden rechtlichen Basis gebracht. Mögliche Ansätze um diese Prinzipien zu wahren bzw. sie zu verbessern werden an dieser Stelle ebenfalls genannt. Immer wieder wird dabei auch auf die vorhandene Situation und rechtliche Basis in den Vereinigten Staaten von Amerika hingewiesen und diese mit der europäischen Situation verglichen. Neben der allgemeinen Ausarbeitung dient die im Jahr 2012 von der Kommission vorgeschlagene Datenschutzgrundverordnung als Hauptanlaufpunkt um den Einfluss von Lobbyisten auf den EU-Gesetzgebungsprozess zu analysieren. Diese Verordnung benötigte aufgrund einer Vielzahl von Interessen, welche berücksichtigt werden mussten, ganze vier Jahre bis zu ihrer Finalisierung. In Fachkreisen gilt sie als das am stärksten lobbyierte Gesetz in der Geschichte der EU. Inwieweit dieser Lobbyismus Einfluss auf die ursprünglich geplanten Prinzipien der Verordnung nahm und was dieser für die Legitimität der EU als supranationales Konstrukt bedeutet, soll in diesem Zusammenhang geklärt werden.

Diplomarbeitsposter Tomitz Thomas

Thomas Tomitz

Masterstudium Business Informatics
Abstract:

Crowdfunding platforms are widely used in the start-up scene worldwide to fund a project or venture over the Internet. Their purpose is to provide a platform for investors to invest their capital into different projects or start-ups. Additionally, the platform gives projects or start-ups a new possibility to find new customers and investors. The purpose of this work is to analyse the legal situation before and after the new alternative financing act, which was enacted in August 2015. Furthermore, crowdfunding will be included into the present corporate financial models and the introduction of Basel III as a consequence of the crisis will be described. The thesis will characterize the requirements of a crowdfunding platform and define the stakeholders, for whom a role concept will be developed. Additionally, the technical concept is supported with a usability test and the financial data of the big three Austrian crowdfunding platforms. Besides the alternative financing act the work also includes alternative payment methods for crowdfunding platforms with the special focus on Bitcoin. The technical functionality and the legal situation of electronic money will be described in detail. Comparing the new legal situation after the enacted alternative financing act with the situation before shows that projects or start-ups are able to gather more capital through crowdfunding platforms but have to provide the investor with more information. The investor has more rights concerning the project or start-up but is limited with his investment amount. The analysis of the different alternative payment methods including Bitcoin and their usage on crowdfunding platforms shows that there are possibilities to use them legally

Institut für Managementwissenschaften

Diplomarbeitsposter Schiessl Christoph

Christoph Schiessl

Masterstudium Business Informatics
Abstract:

Risk management in software projects is crucial for success but also a very complex issue. Software project managers face multiple difficulties to manage software risks in an adequate manner. Different software risk management frameworks exist in literature to support software project managers in their business. Some of them also provide conceptual models which can be used to build a better understanding of the framework as well as provide a basis for further implementations in software development i.e. automated risk management tools. This work takes up a goal-driven software project risk management framework (GSRM) with the aim to answer the research question about how to design and align a GSRM domain model concerning COSO-II-ERM Framework components and methods. The methodological approach starts with an analysis of a state-of-the-art GSRM domain model about missing concepts in alignment to COSO-II-ERM-Framework components and enhances the model to fulfill those requirements. Further a database is implemented according to the designed domain model and deals as basis for a proof of concept approach. The results of this work show that the designed GSRM domain model in alignment to COSOII- ERM Framework is valid and applicable for further implementations and supports software managers in the task of manage software risks in a successful way.

In Zusammenarbeit mit anderen wissenschaftlichen Einrichtungen

Universität Wien

Diplomarbeitsposter Yildirim Songül

Songül Yildirim

Masterstudium Informatikdidaktik
Abstract:

Die Einführung der standardisierten Reifeprüfung stellt sowohl für SchülerInnen als auch für LehrerInnen eine große Besorgnis dar [1]. Hinter dieser Besorgnis verbergen sich viele Gründe, die auch in dieser Arbeit Platz einnehmen werden. Es stellt sich die Frage wie sich die standardisierte Reifeprüfung auf die Lehrkräfte und die SchülerInnen auswirken wird und die damit verbundenen Ziele auch erfüllt werden. Mit der Einführung der standardisierten Reifeprüfung stellt sich auch zugleich die Frage der optimalen Prüfungsvorbereitung. Die Arbeit umfasst das Thema der Vorbereitung auf die Reifeprüfung in Mathematik, daher lautet meine Fragestellung: ¿Ist die Benutzung Moodle- Plattform eine Unterstützung für angehende MaturantInnen im Hinblick auf die Vorbereitung der Reifeprüfung in Mathematik¿. Das erwartete Resultat hierbei ist mittels der zu erstellenden Moodle-Plattform den SchülerInnen eine Vorbereitung auf die standardisierte Reifeprüfung zu bieten. Die Erstellung der Lernplattform verfolgt das Ziel den SchülerInnen die Möglichkeit zu gewähren durch einen vorgegebenen ¿Lernpfad¿ eine Orientierung im umfangreichen Lehrstoff zu finden und sich somit besser vorbereitet fühlen. Bei der Evaluierung soll durch Selbsteinschätzungsbögen, die nach der Benutzung der Plattform auszufüllen sind, festgestellt werden, ob die SchülerInnen sich durch die Benutzung der Moodle-Plattform auf die standardisierte Reifeprüfung besser vorbereitet fühlen. [1] Peschek W.: Die zentrale schriftliche Reifeprüfung an AHS - Ein mehrfacher Paradigmenwechsel. In: ILS Mail, Innsbruck: Innsbruck University Press (2013), 1/13, S. 5-6.