EPILOG Sommersemester 2017

Auszeichnungen

Weitere Nominierungen für Distinguished Young Alumnus/a Award SoSe2017

Ausgestellte Arbeiten

Institut für Technische InformatikE182

Arbeitsbereich Cyber-Physical Systems

Diplomarbeitsposter Alakhras Nazir

Nazir Alakhras

Masterstudium Technische Informatik
Abstract:

Quarzoszillatoren sind aufgrund der niedrigen Implementierungskosten und der akzeptablen Stabilität eine wichtige Frequenzquelle. Da die Aufrechterhaltung einer globalen Zeit eine Voraussetzung für ein korrektes Verhalten von Echtzeitsystemen ist, werden die lokalen Uhren mit einer externen Zeitreferenz synchronisiert. Diese Lösung bietet eine stabile Frequenzquelle. Wenn die externe Zeitreferenz nicht verfügbar ist, hängt die Länge der Zeitspanne, in der das System ein korrektes Verhalten aufweist, von der Stabilität der Quarzoszillatoren ab. Obwohl verschiedene Ansätze existieren, um diese Zeitspanne zu verlängern, gibt es nur ein paar Ansätze, die mehrere Umgebungsbedingungen berücksichtigen und noch weniger Ansätze sind erweiterbar hinsichtlich des Software- und Hardwaredesigns. Das Ziel dieser Arbeit ist die Entwicklung eines quarzspezifischen Modells, das jene Frequenzabweichungen vorausbestimmt, welche durch die Auswirkungen der jetzigen Umgebungsbedingungen ausgelöst werden. Die berechnete Frequenzabweichung des Quarzes wird dazu verwendet, die Abweichung der Uhr zu korrigieren und somit die o.g. Zeitspanne zu verlängern. Die Regressionsanalyse wird zur Modellierung und zur Vorhersage des Quarzverhaltens eingesetzt. Eine Verbesserung von einer Größenordnung wird erreicht. Darüber hinaus berechnet das Modell regelmäßig einen Korrekturwert für die Abweichung der Systemuhr und erzeugt einen präzisen Puls pro Sekunde. Wenn die externe Zeitreferenz verfügbar ist, wird sie dazu verwendet, das Modell während der Betriebszeit zu trainieren. Eine zusätzliche Verbesserung von einer Größenordnung für wird erreicht. Weitere Verbesserungen zur aktuellen Implementierung wie z.B. eine erweiterte Methode für die Korrektur des Quarzalterungseffekts und mögliche Erweiterungen für den entwickelten Ansatz wie z.B. die Erkennung von einer manipulierten externen Zeitreferenz, werden angegeben.

Diplomarbeitsposter Balún Ondrej

Ondrej Balún

Masterstudium Software Engineering & Internet Computing
Abstract:

In this research work, we aim to extract elegant neuronal control principles by investigating the locomotory neural circuit of the nematode Caenorhabditis elegans (C. elegans). Recently, there is huge demand for brain-inspired artificial intelligence (AI) solutions in the field of applied computer science. First step towards developing brain-like high-tech is deep understanding of the working principles of the biological neural network (BNN)s. Studying the simple BNNs is the necessary precondition on understanding of more complex networks. One of the highly concentrated researches on BNNs, is the nervous system of the C. elegans. We are particularly interested in the part of the locomotory NC – Tap Withdrawal (TW) neuronal circuit – responsible for the processing of the mechanical tap stimulus. Synaptic and neuronal ablations led us to deep understanding of working principles behind the underlying neuronal circuit. We provide a functional mapping between synaptic and electric connections and processing tasks, required for correct evaluation of stimulus signal. Finally we introduce a new fashion in designing of neuronal controllers by implementing simple stock market decision module.

Diplomarbeitsposter Petschina Bernhard

Bernhard Petschina

Masterstudium Technische Informatik
Abstract:

So genannte Cyber-Physische Systeme (CPSe) sind Systeme, die nicht nur aus einer Software, oder einem mechanischen Teil bestehen, sondern aus der Kombination aller Teile, zusammen mit der Umwelt, in der sie eingesetzt werden. Ein Beispiel für CPS sind moderne Autos, welche viele Computer und Mikrocontroller enthalten, die miteinander kommunizieren. Beispiele der enthaltenen Systeme sind die Motorsteuerung, ein GPS, und Unterhaltungssysteme. All diese Systeme, zusammen mit den mechanischen, elektrischen und elektronischen Teilen, bilden ein CPS Um solche Systeme zu bauen wird ein Designprozess verwendet, welcher hilft, die Arbeiten an verschiedene Abteilungen optimal zu verteilen und Fehler früh zu finden oder zu verhindern. Diese Diplomarbeit beschäftigt sich mit der Definition eines neuen Designprozesses, welcher verwendet werden kann, um CPSe zu bauen. Dieser Designprozess sollte es den Abteilungen ermöglichen, parallel zueinander zu arbeiten. Ein kleiner Anwendungsfall sollte dann zeigen, dass der Designprozess praktisch angewendet werden kann. Zu diesem Zweck wurde ein kleiner Quadcopter gebaut, wobei die Kosten so gering wie möglich gehalten werden sollten, und außerdem sollte er in zukünftigen Projekten als Grundlage für Forschungsarbeiten verwendbar sein. Um diese Ziele zu erreichen wurden folgende Schritte unternommen: Am Anfang wurden Informationen zu existierenden Designprozessen eingeholt. Danach wurde unser neuer Designablauf definiert und in einem Anwendungsfall getestet. Nach dem Erstellen der generischen Modelle wurden die Schaltpläne und das Board entworfen, welche anschließend an einen Leiterplattenhersteller geschickt wurden. Der letzte Schritt beinhaltete einen einfachen Test der Hardware, welcher zeigt, dass der Quadcopter seine Position während des Fliegens halten kann. Für uns hieß das, dass der Designprozess praktisch angewendet werden kann.

Diplomarbeitsposter Steiner Dieter

Dieter Steiner

Masterstudium Technische Informatik
Abstract:

Nowadays real-time systems can be found in every aspect of modern life – from controlling a washing machine to the autonomous navigation of Mars rovers. In this systems, the correctness of a systems behavior does not only depend on the actual computation results, but also on the physical instant at which these results are produced. Determining the maximal execution time of a calculation is, therefore, essential to ascertain if the system can meet its temporal requirements. But is there more usable information within an algorithms execution time? This thesis investigates if respectively how the temporal behavior of an algorithm changes in the presence of errors that are caused by hardware faults. It examines if the observation of task run times can be used to detect these errors, so that undesired system behavior and failures can be averted early. To reach this goal, a number of microbenchmarks will be identified and implemented; a fault injection model will be defined, and – building onto it – errors will be injected into the benchmarks’ program code. Those modified benchmarks will then be measured and the results evaluated with suitable methods. The gathered evaluations and insights will be presented in graphical and textual ways. This work will show a robust method, detecting – depending on the algorithm – up to 70% of previously undetected errors. The method can be implemented into existing systems with reasonable effort and overhead, and provides an additional layer of protection against errors.

Arbeitsbereich Embedded Computing Systems

Diplomarbeitsposter Huemer Florian Ferdinand

Florian Ferdinand Huemer

Masterstudium Technische Informatik
Abstract:

Compared to synchronous approaches, asynchronous delay-insensitive (DI) communication links have very interesting and desirable properties with respect to their robustness against timing variations and delay assumptions required to implement them. However, special DI codes have to be used to encode the data being transmitted. These codes are usually prone to transient faults occurring during an ongoing transmission, since, in the worst case, even a single transient fault is sufficient to completely change the contents of a message. Unless further redundant information is provided, the receiver has no means to detect such an erroneous transmission. This can, of course, have severe consequences on a system and the environment depending on it. In this thesis we therefore investigate existing approaches to secure DI communication against transient faults and propose a novel two-step data encoding scheme that combines DI and error detecting codes. Our solution exploits the inherent fault resilience of DI codes to achieve a low overhead and hence good coding efficiency. We use methods from graph theory to analyze this fault resilience and identify appropriate solutions. In contrast to existing approaches we carefully avoid the introduction of timing assumptions to mask faults. The proposed coding scheme is generic and can, in principle, be used with any 4-phase DI code. We give examples on how to apply it to selected representatives of the important class of m-of-n codes and analyze the resulting coding efficiency. Additionally, we provide a metric that allows to identify which codes are well suited for fault-tolerant communication. We, furthermore, provide a range of transmitter and receiver circuit variants that implement the presented coding scheme. In particular, we give detailed gate-level implementation examples for two m-of-n codes, that demonstrate the feasibility of our approach and give some insight into the required implementation overhead.

Institut für Rechnergestützte AutomationE183

Arbeitsbereich Automatisierungssysteme

Diplomarbeitsposter Amtmann Katrin

Katrin Amtmann

Masterstudium Software Engineering & Internet Computing
Abstract:

In der Softwareentwicklung gibt es viele Herausforderungen. Um mit diesen umzugehen, werden ständig Methoden adaptiert und neue Methoden entwickelt. Zwei konkrete Herausforderungen sind Qualitätssicherung und Wissenstransfer. Eine mögliche Technik, um damit umzugehen, ist die Paarprogrammierung. Im industriellen Umfeld wurde diese Technik oft untersucht. Die bisherigen Studien im akademischen Umfeld fokussieren sich auf die Entwicklung von Software mit klar definierten Zielen in einer laborähnlichen Umgebung, untersuchen allerdings keine großen, fortlaufend entwickelten Softwareprodukte. Eine umfangreiche Produktentwicklung wurde für eine Fallstudie ausgewählt, um die Auswirkungen von Paarprogrammierung im akademischen Umfeld zu untersuchen. Diese Studie untersuchte den Entwicklungsprozess einer Software, woran etwa 20 Studenten mit unterschiedlichen Vorkenntnissen beteiligt waren. Den Studenten wurden Partner für die Paarprogrammierung zugeordnet. Dabei arbeiteten sie zum Teil mit gleich, aber auch mit unterschiedlich qualifizierten Partnern. In unregelmäßigen Abständen wurden die Partner gewechselt. Es wurde der Einfluss des Qualifikationsniveaus der Studenten auf die gemeinsame Arbeit untersucht, sowie die Auswirkungen von Paarprogrammierung im Lernprozess analysiert. Die Studie stützt sich auf Einzel- und Gruppeninterviews, teilnehmende Beobachtung sowie Untersuchung der Artefakte aus der Softwareentwicklung. Die Ergebnisse legen nahe, dass der Code eine höhere Qualität hat, wenn zumindest ein besser qualifizierter Student Teil des Paares ist. Weiters wurden vier soziale Kompetenzen durch Paarprogrammierung gefördert. Auch Fachkompetenzen wurden unter anderem durch Erklärungen vom Partner erworben. Wissen wurde in jede mögliche Richtung weitergegeben. Dass die Partner immer wieder wechselten, erwies sich als positiv. Vorschläge, wie Paarprogrammierung erfolgreich in Studenten-Projekten umgesetzt werden kann, wurden basierend auf diesen Ergebnissen erstellt.

Diplomarbeitsposter Brandner Alex

Alex Brandner

Masterstudium Medieninformatik
Abstract:

Mobile Technologien werden in den letzten Jahren neben anderen Bereichen auch in der Bildung vermehrt eingesetzt. Der Begriff Mobile Micro-Learning wird in diesem Zusammenhang als das Lernen in vielen kleinen und kurzen Einheiten zu jedem beliebigen Zeitpunkt bezeichnet. Portable Endgeräte, wie Smartphones oder Tablets, bieten dazu aufgrund der weiten Verbreitung eine passende Plattform. Oftmals werden Lernanwendungen durch Gamification-Elemente wie Punkte oder Ranglisten erweitert, um die Begeisterung am Lerninhalt zu forcieren. Dadurch können bestimmte Mechanismen (z.B. Wettbewerb) ausgelöst werden, welche die Nutzung und die Dynamik der Anwendung beeinflussen. In dieser Arbeit wird evaluiert, ob und wie der schulische Englischunterricht durch mobile Lernanwendungen effektiv ergänzt werden kann. Dazu werden die Anforderungen und Einstellungen von SchülerInnen, Erziehungsberechtigten und Lehrenden betrachtet und entsprechende Richtlinien abgeleitet. Weiters werden Ansätze zur Nutzung der Klassendynamik bewertet, um zur Verwendung von mobilen Lernanwendungen anzuregen. Hinsichtlich der methodischen Vorgehensweise wurden mittels einer Online-SchülerInnenumfrage und einem Elternfragebogen Bedingungen für den Entwurf einer Lernanwendung und speziell für den in der darauf folgenden Feldstudie verwendeten Prototyp abgesteckt. Auf Basis der Vorlieben und Eigenschaften der NutzerInnen konnte die Entwicklung der Anwendung zielgerichtet vorangetrieben werden. Aufbauend auf dem Modell von Bartle wurden dazu die Spielertypen der StudienteilnehmerInnen bestimmt. Dadurch wurde ersichtlich, dass der soziale Austausch und das Erreichen von Zielen wichtige Bausteine für die SchülerInnen darstellt. Die Interaktionsbereitschaft der StudienteilnehmerInnen wurde während der Feldstudie stark von Schularbeitsterminen und Klassendynamik geprägt. Abschließend wurden im Rahmen schriftlicher Interviews mit Lehrenden Gefahren und Chancen im Unterricht thematisiert.

Diplomarbeitsposter Grill Bernhard

Bernhard Grill

Masterstudium Software Engineering & Internet Computing
Abstract:

Bootkits (kurz für boot + rootkit) sind eine der fortschritlichsten, mächtigsten und langlebigsten Techniken, die in moderner Schadsoftware angewendet werden. Um dieses Bedrohungsszenario im Detail zu analysieren, wurde eine großangelegte Bootkit-Schadsoftware-Analyse basierend auf Windows XP und Win7 durchgeführt. Der Versuchsdatensatz besteht aus Schadsoftware, die eine Periode von über 8 Jahren umfasst, um eine detaillierte Einsicht in die Bootkit-Szene zu erhalten. Basierend auf der Analyse von 26.378 Schadsoftware-Proben, wurden neuartige Techniken zur Erkennung und Prävention von Bootkitangriffen entwickelt. Die vorgeschlagenen Erkennungstechniken basieren auf Anomalieerkennung und dynamischer Analyse während des Bootprozesses. Weiters wurden zwei neue Mechanismen zur Verhinderung von Bootkit-Infektionen entwickelt. Erstere basiert darauf, die Infektion durch Blockierung von Schreibzugriffen auf Festplatten-Bereiche, welche für den Bootvorgang relevant sind, zu verhindern, während der Zweite auf der Emulation und Überwachung der Auswirkungen von Festplattenänderungen, welche für den Bootvorgang wichtig sind, beruht. Weiters gibt diese Arbeit einen Einblick in die historische Entwicklung von Bootkit-Technolgie und bietet einen Ausblick auf mögliche zukünftige Entwicklungen.

Diplomarbeitsposter Kosco Matej

Matej Kosco

Masterstudium Software Engineering & Internet Computing
Abstract:

In complex software systems managing millions of members and customers and their sensitive data, users should only have limited access to those data depending on their role in the system. Attribute-based access control (ABAC) systems provide fine-grained access restrictions based on attributes of the customer, employee or any related object. An ABAC policy can, for example, de- fine that users are granted access to another user’s account if they are in a parent-child relationship and the age attribute of the child object is less than 18. Such policies are usually implemented on the application-level. Based on ABAC approaches from literature, a concept for storing digital ABAC access policies and algorithms to evaluate and enforce those policies were defined. Suitable database mechanisms were reviewed and a proof of concept was implemented, consisting of a database model for digital ABAC policies, modules to intercept requests to the database, to evaluate policies and to enforce them by preventing unauthorized requests. An evaluation of different access control and perfor- mance metrics was conducted, and the results were compared with existing, similar software-based solutions.

Diplomarbeitsposter Pelesic Igor

Igor Pelesic

Masterstudium Technische Informatik
Abstract:

The integration of different Building Automation Systems (BAS) technologies in cooperation with smart grids show great potential for enhancing the energy efficiency of buildings and inhabitant comfort. In order to realize this potential, smart buildings should consume the most energy when there is enough of renewable energy available and postpone or reduce consumption otherwise. The communication between devices on the demand side the whole way up to power distributors is aggravated by a great diversification of BASs, which is caused by a variety of devices, protocols and technologies produced by different vendors. Web Services (WS) provide a technology independent way of accessing data. Therefore, they represent a viable path to ease integration of various systems and technologies into an Internet of Things. The open Building Information Exchange (oBIX) is an open standard which offers a technology independent access to BASs and allows integration on a syntactical level by abstracting from different control protocols and network technologies. Still, the data exchanged does not necessarily bear the same semantics and thus require further interpretation. In order to reach the goal of a comprehensive integration of different BAS technologies, this semantic incompatibility has to be resolved by enabling the distribution of semantically consistent data by various diversified devices. Semantic interoperability allows different interconnected agents to interpret the exchanged data without ambiguity and further empowers automated communication between things.

Diplomarbeitsposter Riepl David

David Riepl

Masterstudium Software Engineering & Internet Computing
Abstract:

Storage systems represent a key component in a modern data center architecture. Because of its central role, the storage system design shapes the structure of the whole data center and, therefore, also impacts the overall infrastructure costs to a large extent. Due to the virtualization and cloud computing paradigm shift, business applications switch from physical servers to virtual machines that are hosted by large clusters of hypervisors or even completely transparently in a cloud computing infrastructure. As a result, the physical location of the data moves from the disk drives of a single application server to a large-scale storage system that provides a reliable data storage service over the network to a multitude of clients. Alongside traditional Storage Area Networks (SANs), alternative storage architectures have emerged that instead of relying on proprietary hardware components use open-source software to build a cluster of a large number of intelligent storage nodes. In order to fulfill the demands for data availability, a distributed storage system needs to maintain multiple real-time copies of a given data set. For this purpose, instant data replication is commonly used as a mechanism to achieve data consistency among a set of replicas. This thesis analyzes different methods of building a distributed storage cluster out of open-source components. Moreover, it highlights the characteristics of various system architectures and verifies their compliance with the general requirements for resilient distributed services. Furthermore, the architectural analysis is combined with the practical evaluation of two open-source case studies. In a realistic use case scenario, those case studies are tested regarding system performance and fault tolerance behavior in order to reveal their architectural strengths and weaknesses.

Arbeitsbereich Computer Vision

Diplomarbeitsposter Fankhauser David

David Fankhauser

Masterstudium Visual Computing
Abstract:

Stürze sind die wahrscheinlichste Ursache für unfallsbedingten Tod von Personen die 65 Jahre oder älter sind. Gestürzte Personen können mit Hilfe von Tiefensensoren die mittels strukturiertem Licht arbeiten, detektiert werden. Somit kann sofortige Hilfe geleistet werden und Morbidität und Mortalität gesenkt werden. Tiefensensoren die mittels strukturiertem Licht arbeiten schützen die Privatsphäre, sind unauffällig und funktionieren auch ohne sichtbares Licht. Jedoch haben sie einen entscheidenen Nachteil und zwar ein geringes Sichtfeld. Diese Limitierung kann mit Hilfe eines Schwenkneigekopfs gelöst werden, der einen Tiefensensor bewegt, sodass dieser einer Person folgt. Als Konsequenz wird das Sichtfeld des Sturzerkennungssystems um einen entscheidenden Anteil erhöht. Diese Diplomarbeit schlägt eine Methode vor wie ein existierendes Sturzerkennungssystem, das sich in der Praxis bewährt hat, die induzierten Sensorbewegungen kompensieren kann. Synthetische Daten werden erzeugt, um verschiedene Artefakte, die mit solchen Tiefensensoren auftreten, zu isolieren und zu analysieren. Weitergehend werden auch Artefakte untersucht die nur auftreten wenn Tiefensensoren bewegt werden. Reale Daten werden aufgenommen um die Genauigkeit des Sturzerkennungssystems während Sensorbewegungen zu bestimmen. Resultate zeigen, dass Stürze bis zu 4m Entfernung unter Sensorbewegungen detektiert werden können, wobei Sensoren auf einer Höhe von 1.15m am besten funktionieren. Eine voll funktionierende Implementierung in Form von lose gekoppelten Komponenten wird vorgestellt, welche Benutzer Rückmeldungen liefert und Fernsteuerung ermöglicht.

Diplomarbeitsposter Zeimpekos Paraschos

Paraschos Zeimpekos

Masterstudium Medieninformatik
Abstract:

Das Ziel dieser Masterarbeit ist die Anerkennung und Klassifizierung von Objektklassen in Bildern mit der Hilfe vom Bag of Keypoints Algorithmus und Segmentierung Verfahren. Im Einzelnen, zuerst wir übersegmentieren die vorhandenen Bilder, extrahieren von jeder segmentierten Region Farbe Information und gruppieren diese Information mit der Hilfe vom kmeans Verfahren. Als Segmentierungsverfahren benutzen wir die volumic extraction und Wasserfall Verfahren, welche auf der Minimum Spanning Tree Methode basiert sind. Für die Extraktion der Farbeinformation benutzen wir zwei verschiedene Farbräume, die Opponent und HSI Farbräume. Das Gruppierung Ergebnis ist unsere Merkmale - Wortschatz für das Bag of Keypoints. Der näcste Schritt ist Histogramme zu erstellen, die von der Auftretennummer vom jeden Keypoint nach der Gruppierung der Bilder gebildet sind. Schließlich, wir benutzen die Histogramme, um Support Vector Machines tu trainieren, deren Nummer gleich mit der Nummer der Klassen ist, und mit denen unbekannte Objekte in Bildern zu erkennen und klassifizieren. Für das Training und Testen von den Klassifikatoren benutzen wir die PASCAL Datenbank 2006. Für unser Auswertungverfahren wir benutzen die Receiver Operating characteristic, auch bekannt als ROC Kurve. Unsere Ergebnisse sind ausreichend und vergleichbar mit den offiziellen Ergebnissen von der 2006 VOC Challenge.

Institut für InformationssystemeE184

Arbeitsbereich Distributed Systems

Diplomarbeitsposter Balint Florin Bogdan

Florin Bogdan Balint

Masterstudium Business Informatics
Abstract:

Mit den technologischen Fortschritten der letzten Jahre sind im Bereich des Internet der Dinge (IdD) die Anzahl an verbundenen Geräten, und die dadurch produzierte Datenmenge, drastisch gestiegen. Mehrere IdD Plattformen wurden erstellt um den Kauf bzw. Verkauf von Daten zu ermöglichen. Diese sind jedoch eingeschränkt in Bezug auf der Vertragsgründung und Vertragsverwaltung. Zum Beispiel wird das Verhandeln von individuellen Datenverträgen nicht unterstützt, ebenso wie das Überwachen des Datenflusses und das Empfehlen neuer Verträge. Die Herausforderung hier ist, dass unterschiedliche Datenverträge, für die produzierten Daten von einem Ding, abgeschlossen werden können. Eine weitere Herausforderung ist das Überwachen des Datenflusses für Datenverträge: Ein Vertrag kann aus Daten bestehen, die von beliebigen Dingen erstellt werden und jedes Ding kann unterschiedliche Daten produzieren. Diese Arbeit stellt ein erweiterbares und skalierbares IdD vertragsbewusstes Framework vor, welches das Verhandeln von individuellen Datenverträgen, die Überwachung des Datenflusses für Datenverträge und Empfehlungen anbietet. Der methodische Ansatz dieser Arbeit ist in drei Teilen eingeteilt. Im ersten Teil wird eine Literaturrecherche durchgeführt um mögliche Schlüsselelemente für das Erstellen, Überwachen und Empfehlen von Datenverträgen zu identifizieren. Basierend auf diesen Ergebnissen werden Anforderungen für die Implementierung eines Frameworks erstellt. Im zweiten Teil werden ein Framework und ein Prototyp als Konzeptnachweis erstellt. Im letzten Teil wird der Prototyp mittels zwei Methoden ausgewertet: einer deskriptiven Analyse, um den Nutzen des Prototyps zu demonstrieren und einer dynamischen Analyse um die Stabilität und Zuverlässigkeit des Prototyps zu beweisen. Die resultierenden Ergebnisse beweisen die Effektivität des vorgestellten Frameworks bei dem Verhandeln, Überwachen und Empfehlen von Datenverträgen in IdD Datenräumen.

Diplomarbeitsposter Biasion Thomas

Thomas Biasion

Masterstudium Business Informatics
Abstract:

Business models are studied in management science and are investigated in practice to create a common understanding of how companies create and capture value. Mostly, business models are examined from a company perspective to reveal the role and capabilities of the company in a market. In complex network-based industries this perspective neglects the importance of relationships to partners and customers. The Internet of Things (IoT) serves as the paragon for a business network that is missing out network-based business models to propagate groundbreaking products and services. The main goal of this master thesis is to foster innovative business models for the IoT by providing a network-based business model framework. The framework, called NBMF, is first defined in theory, then implemented as a web-based design tool and finally evaluated by conducting an IoT case study. To gain concrete insights into challenges and opportunities in the IoT, business models of the most common types of companies in the IoT are analysed in the graphical form of the Business Model Canvas. The limitations of the Business Model Canvas for modelling the companies and their relationships in the business network are resolved by extending the Business Model Canvas. The NBMF introduces intra-company relations between its building blocks and inter-company relations expressing the exchange of value propositions and financial transactions. Furthermore, the NBMF integrates amongst others concepts the e3-value ontology and the IoT Business Model Builder. The resulting coherent framework for business models includes a customer viewpoint, a network viewpoint, a company viewpoint and a statement for an automated profitability calculation. A case study about a Home Automation Ecosystem shows the functionality of the web-based design tool and its underlying theoretical framework. Additionally, the case study reveals opportunities for business model innovation in the IoT.

Diplomarbeitsposter Prybila Christoph

Christoph Prybila

Masterstudium Software Engineering & Internet Computing
Abstract:

To address scalability limitations of orchestration-oriented workflow management systems, scientific contributions propagate workflow choreographies. The control over a workflow instance is shared between independent participants. Accordingly, an independent mechanism to document and verify the execution of a workflow instance is required. In the unrelated scientific field of cryptocurrencies the Bitcoin project utilizes the Blockchain technology as distributed ledger to record payment transactions. This thesis explores the suitability of the Blockchain to create a novel approach to runtime verification. Existing approaches to runtime verification are discussed. Next, the properties of different operating Blockchains are highlighted. Based on these findings a novel approach to runtime verification that utilizes the Bitcoin Blockchain is developed. The developed prototype is evaluated in a functional comparison. Based on selected criteria, runtime verification approaches are categorized. Findings show that our Blockchain-based approach enables a seamless execution monitoring while preserving anonymity and independence of the participants. Some downsides remain. Our prototype enables flexible on-demand participant selection but is not able to provide data confidentiality or to enforce an execution sequence. At last, the prototype is evaluated in a performance analysis. The usage of the prototype can significantly increase workflow duration. The greatest influence factor is the transaction confirmation time (TCT) in the Bitcoin Blockchain. A median TCT of 7.741 minutes is recorded in the evaluation. The TCT also exhibits a high standard deviation, indicating that single transactions take even longer to confirm. While it is possible to reduce the induced execution overhead of the framework with a less safe but greedy approach, results suggest that the prototype is most suited for business processes with long running activities like logistic or supply chain processes.

Diplomarbeitsposter Rausch Thomas

Thomas Rausch

Masterstudium Software Engineering & Internet Computing
Abstract:

Continuous integration (CI) is a practice where developers integrate their work into the main stream of development frequently. A CI server monitors the source code repository of a project and automatically executes the software build process when new changes are checked in. If a build fails, developers have to identify and fix the cause of the broken build, leading to a delay in the integration process and stalling further development. Large software projects often have long running builds that exacerbate this problem. Despite the widespread use of CI, little is known about the multiplicity of errors that cause builds to fail. Yet, understanding when and why build errors occur is an important step towards improving developer productivity in the CI workflow. By identifying characteristics of development practices that cause build failures, we can predict preliminary results for an integration. This helps developers react to possible problems even before a build is initiated, thereby saving time and resources. In this thesis, we introduce CInsight, a framework for analyzing CI workflows and build failures. We conduct an empirical study on real-world data from 14 open source software projects. Data from source code repositories and build systems are explored to gather qualitative and quantitative evidence about the multiplicity and frequency of CI build errors. Statistical methods are used to examine the relationship between development practices and build failures. Based on the results, we devise a method for CI build failure prediction. Our results show that failing unit-tests and violations of code quality rules are the main causes for build failures. The statistical analyses reveal that the type and amount of previous errors are the strongest predictor for future failures. Our best prediction models yield average recall and precision values of 0.82 and 0.80, respectively. Furthermore, our approach allows to update a prediction during the execution of a build.

Arbeitsbereich Database and Artificial Intelligence

Diplomarbeitsposter Mischek Florian

Florian Mischek

Masterstudium Computational Intelligence
Abstract:

The generation of working schedules for employees in hospitals and similar institutions has been an important field of study for multiple decades. Demand for each time period must be met, while at the same time conforming to various regulations, employment contracts and employee preferences. In the problem variant posed for the Second International Nurse Rostering Competition (INRC-II), solvers need to produce schedules for multiple consecutive and interdependent periods. In this setting, also called a stepping horizon, information about future periods becomes available only after the current schedule has been fixed. This corresponds more closely to the real-word practice found in hospitals, where demand can change within short periods, compared to the monolithic problem formulations usually studied in the literature. The problem structure requires solvers to take future stages with unknown requirements into account during the solution of the current week in order to avoid imbalances and high overall penalties to the quality of the whole schedule. In this thesis, an Integer Programming model of the problem is introduced and then extended with additional constraints that consider the special requirements of this problem, but are general enough to fit also other problems of a similar structure. It is shown that using these extensions, substantial improvements in the quality of the generated schedules can be achieved, while still keeping solution times within the time limits imposed by the competition. Further, a Local Search framework is implemented that also makes use of these additional constraints to improve its solutions. The results of both approaches are experimentally evaluated and compared to each other. They are shown to be competitive with those of the finalists in the INRC-II.

Arbeitsbereich Knowledge Based Systems

Diplomarbeitsposter Leutgöb Alexander

Alexander Leutgöb

Masterstudium Business Informatics
Abstract:

Software projects evolve through successive releases. With every release, new functionality gets added or existing functionality is adapted and improved. While new releases of commercial software are usually distributed in binary form, and are thus ready for usage for their target group, open-source software projects face a different approach. These are typically maintained by developer communities where new releases are often only provided as source code archives and end users of the software are therefore expected to build the software themselves. However, not all potential users are able and willing to build software from source. The problem of missing binary builds is especially true for software that targets people that are not originating from the field of software engineering, like software created for knowledge representation and reasoning. Such software is mainly used by academic research groups in the field of Business Informatics for describing ontologies or information extraction. The described issue makes the usage of such tools more difficult or not applicable at all. To address this problem, we will design a generic framework for a build system that can be used to largely automate the release process of a software project and thus supports developers to provide up-to-date packages. The framework will be designed in a generic way, so that it is applicable for a wide range of software projects of different size. As a last step, the framework will be validated against a real-world project. The field of logical programming will be used to derive a good example for an open-source software that lacks of binary distribution. The used software DLVHX, a reasoner for hex programs, comes up with a high level of complexity due to external dependencies. Because of that, the software currently does not follow a frequent and periodical release cycle, which makes new features inaccessible for a longer time. The framework will finally be used to create a new release.

Institut für ComputersprachenE185

Arbeitsbereich Programmiersprachen und Übersetzer

Diplomarbeitsposter Pona Nika

Nika Pona

Masterstudium DDP Computational Logic (Erasmus-Mundus)
Abstract:

Es ist bekannt, dass kein elementarer Beweis der Schnittelimination für den Sequenzenkalkül der Logiken höherer Stufe möglich ist. Das beruht darauf, dass ein solcher Beweis einen elementaren Beweis der Widerspruchsfreiheit der Peano Arithmetik liefern würde. Deshalb sind alle Beweise der Schnittelimination für die Logiken höherer Stufe semantisch oder teilweise semantisch. In dieser Diplomarbeit wird eine Teil-Logik der Logik höherer Stufe mit der Quantifizierung nur über Objekte funktionalen Typs untersucht. Der funktionale Typ ist jeder Typ der einfachen Typentheorie, der ohne den Typ Boolean definiert ist. Diese Einschränkung definiert eine Logik mit einer leicht handhabbaren Beweistheorie, die dennoch einige interessante Eigenschaften der vollen Logik höherer Stufe hat. Zuerst geben wir Definitionen der Syntax und der Semantik von zwei Versionen der Logik dieser Art und beweisen die entsprechenden Sätze über Schnittelimination. Einfache Modifizierungen der Beweise der Schnittelimination für den Sequenzenkalkül der Logik erster Stufe von Gentzen sind für dieses Ziel hinreichend. Man muss nur die beta-eta-Gleichheit in den Kalkül integrieren und dann das Argument für die Logik erster Stufe mit Gleichheit adaptieren. Beweistheoretisch betrachtet ist diese Logik ähnlicher der Logik erster Stufe als der Logik höherer Stufe. Das wird klar durch die übersetzung von Beweisen der funktionalen Logik höherer Stufe in Beweise der Logik erster Stufe, die in dieser Diplomarbeit definiert ist. Solche übersetzungen ermöglichen eine neue Sichtweise von Skolemizierung und Unifizierung, die beide in der Logik höherer Stufe problematisch sind. Weiters untersuchen wir die Sematik dieser Logik: wir beweisen ihre Unvollständigkeit bezüglich der Standardsemantik und geben einen Beweis der Vollständigkeit bezüglich der verallgemeinerten Semantik, welcher der Methode von Schätte folgt.

Arbeitsbereich Theoretische Informatik und Logik

Diplomarbeitsposter Condoluci Andrea

Andrea Condoluci

Masterstudium DDP Computational Logic (Erasmus-Mundus)
Abstract:

Ceres is a cut-elimination algorithm for first- and higher-order classical logic. It is based on the notion of a characteristic set of clauses which is extracted from a proof in sequent calculus and is always unsatisfiable. A resolution refutation of this clause set is used as a skeleton for a proof with only atomic cuts. This is obtained by replacing clauses from the resolution refutation with the corresponding proof projection derived from the original proof. Ceres was extended to proof schemata, which are templates for usual first-order proofs, with parameters for natural numbers. We could apply existing algorithms for cut-elimination to each proof in this infinite sequence, obtaining an infinite sequence of cut-free proofs. The goal of Ceres for first-order schemata is instead to give a uniform, schematic description of this sequence of cut-free proofs. To this aim, every concept in Ceres was made schematic: there are characteristic clause set schemata, resolution refutation schemata, projection schemata, etc. However, while Ceres is known to be a complete cut-elimination algorithm for first-order logic, it is not clear whether this holds for first-order schemata too: given in input a proof schema with cuts, does Ceres always produce a schema for cut-free proofs? In this thesis, we progress in solving this problem by restricting Ceres to propositional schemata, which are templates for propositional proofs. We focus on one particular step of Ceres: resolution refutation schemata. First, we prove that by naively adapting Ceres for first-order schemata to our case, we end up with an incomplete algorithm. Then, we modify slightly the concept of resolution refutation schema: to refute a clause set, first we bring it to a generic form, and then we use a fixed refutation of that generic clause set. Our variation of schematic Ceres is the first step towards completeness with respect to propositional schemata.

Diplomarbeitsposter Lanzinger Matthias Paul

Matthias Paul Lanzinger

Masterstudium Computational Intelligence
Abstract:

Spiellogiken ermöglichen formales Schließen im Kontext der Spieltheorie. Während allerdings in Spielen oft mehr als zwei mögliche Auszahlungswerte vorkommen, sind die meisten Spiellogiken nur zweiwertig. Daher ist es in diesen Logiken nur beschränkt möglich, Auszahlungswerte oder die zugehörigen Präferenzen direkt zu repräsentieren. Durch den Einsatz von mehrwertigen Logiken kann diese Auszahlungsinformation direkt, ohne spezifische Prädikate, codiert werden. Diese Arbeit befasst sich mit der mehrwertigen Verallgemeinerung der Forcing-Power-Aussagenlogik von van~Benthem. Anstatt klassische Aussagenlogik mit einem Modaloperator für die erzwingbaren Ausgänge eines Spiels zu erweitern, wird in dieser Arbeit Lukasiewicz-Logik mit einer generalisierten Form des Modaloperators erweitert. Es wird gezeigt, dass die zentrale Eigenschaft des zweiwertigen Falles, Invarianz unter Power-Bisimulation, auch im mehrwertigen Fall erhalten bleibt. Darüber hinaus wird ein neues Resultat präsentiert, das zeigt, dass für eine eingeschränkte Klasse an Formeln die untere Schranke des Wahrheitswerts unter Power-Simulation erhalten bleibt. Auf Basis dieser Power-Simulation wird eine weitere Form der Spieläquivalenz eingeführt, die sich von Power-Bisimulation unterscheidet. Des Weiteren wird das Min-Max-Theorem mit der Dualität des Modaloperators in Zwei-Personen Spielen mit perfekter Information in Verbindung gebracht. Ein Begriff der Spielreduktion wird eingeführt und verwendet um von Eigenschaften von Zwei-Personen-Spielen mit perfekter Information auf Eigenschaften von allgemeineren Klassen von Spielen zu schließen.

Diplomarbeitsposter Schmitt Manuel

Manuel Schmitt

Masterstudium Software Engineering & Internet Computing
Abstract:

Kassensysteme unterstützen den Kassenverantwortlichen vermehrt bei immer komplexer werdenden Vorgängen im Verkaufsprozess. So werden diese Systeme nicht nur für den reinen Verkauf von Waren, sondern auch für die Verwaltung von Lagerbeständen oder für die Buchhaltung eingesetzt. Ab Januar treten in Deutschland weitreichende Änderungen im Bereich elektronischer Kassensysteme in Kraft. Hier endet 2016 eine Übergangsfrist, die für alte elektronische Kassensysteme galt. Ab dem Januar 2017 müssen alle elektronisch betriebenen Kassensysteme den Grundsätzen der GoBD (Grundsätze zur ordnungsgemäßen Führung und Aufbewahrung von Büchern, Aufzeichnungen und Unterlagen in elektronischer Form sowie zum Datenzugriff) genügen. Dies hat zur Folge, dass viele alte Kassensysteme nicht mehr eingesetzt werden dürfen und ersetzt werden müssen. Diese Arbeit untersucht Open-Source-Lösungen für den Einsatz im Point of Sale (POS)-Umfeld, um deren Konformität gegenüber den neuen Anforderungen der deutschen GoBD herauszuarbeiten. Hierbei wird der Einsatz der Open-Source-Lösungen im Umfeld von Museen und Schwimmbädern untersucht.

Institut für Computergraphik und AlgorithmenE186

Arbeitsbereich Algorithms and Complexity

Diplomarbeitsposter Parlak Aykut

Aykut Parlak

Masterstudium Computational Intelligence
Abstract:

In recent work Heule and Szeider presented a method for computing the clique-width of graphs based on an encoding to propositional satisfiability (SAT), which is then evaluated by a SAT solver, managing to discover the exact clique-width of various small graphs, previously unknown. Our main contribution is a generalization of the method by Heule and Szeider to directed graphs. Namely we present and implement an algorithm that, by invoking a SAT solver on a suitable instance, certifies the clique-width of a given directed graph. We exploit this implementation in two ways. First, we find the exact clique-width of various small directed graphs. Second, we implement an algorithm by Fischer, Makowsky, and Ravve and combine this and the aforementioned to an algorithm that counts models of CNF formulas of small directed incidence clique-width.

Arbeitsbereich Computergraphik

Diplomarbeitsposter Jahrmann Klemens

Klemens Jahrmann

Masterstudium Visual Computing
Abstract:

Süßgräser sind ein wichtiger Bestandteil der weltweiten Vegetation und kommen in allen Klimazonen vor. Aus diesem Grund befindet sich in so gut wie jedem Außenszenarium Gras. Allerdings gibt es wegen der hohen geometrischen Komplexität bis heute nur wenige Algorithmen zum Rendern von Gras in Echtzeit. Die meisten Algorithmen arbeiten deshalb mit Billboards oder anderen bildbasierten Verfahren, welche jedoch Probleme haben, Animationen und physikalische Interaktionen darzustellen. Ein weiterer Nachteil von bildbasierten Verfahren ist jener, dass diese oft Artefakte beim Rendern aus bestimmten Blickwinkeln aufweisen, da diese zweidimensionale Bilder in den dreidimensionalen Raum einbetten. In dieser Arbeit stellen wir ein Verfahren vor, mithilfe dessen Gras in kompletter geometrischer Repräsentation in Echtzeit gerendert werden kann. Der Algorithmus ist sehr allgemein geschrieben und kann leicht verändert beziehungsweise erweitert werden, damit er sich gut an die meisten Szenarien anpasst, in denen das Rendern von Gras oder grasähnlichen Vegetationen eine wichtige Rolle spielt.

Diplomarbeitsposter Schütz Markus

Markus Schütz

Masterstudium Visual Computing
Abstract:

This thesis introduces Potree, a web-based renderer for large point clouds. It allows users to view data sets with billions of points, from sources such as LIDAR or photogrammetry, in real time in standard web browsers. One of the main advantages of point cloud visualization in web browser is that it allows users to share their data sets with clients or the public without the need to install third-party applications and transfer huge amounts of data in advance. The focus on large point clouds, and a variety of measuring tools, also allows users to use Potree to look at, analyze and validate raw point cloud data, without the need for a time-intensive and potentially costly meshing step. The streaming and rendering of billions of points in web browsers, without the need to load large amounts of data in advance, is achieved with a hierarchical structure that stores subsamples of the original data at different resolutions. A low resolution is stored in the root node and with each level, the resolution gradually increases. The structure allows Potree to cull regions of the point cloud that are outside the view frustum, and to render distant regions at a lower level of detail. The result is an open source point cloud viewer, which was able to render point cloud data sets of up to 597 billion points, roughly 1.6 terabytes after compression, in real time in a web browser.

Arbeitsbereich Bildverarbeitung und Mustererkennung

Diplomarbeitsposter Papp Adam

Adam Papp

Masterstudium Visual Computing
Abstract:

This thesis investigates the use of an Optical Time Domain Reflectometry (OTDR) device for railway safety improvement. OTDR sensing, often also termed Distributed Acoustical Sensing (DAS), measures the Rayleigh backscattering of a light pulse along an optical fiber. The resulting signal provides information on local acoustic pressure at linearly spaced segments, corresponding to positions, along the fiber. Using optical time-domain reflectometry, vibrations in the ground caused by different sources can be detected with high accuracy in time and space. We propose a novel method for the detection of vibrations caused by trains in an optical fiber buried within a few meters from the railway track. The presented method learns the characteristic pattern in the Fourier domain using a Support Vector Machine (SVM) and it becomes robust to background noise in the signal. We show that using a General Purpose Graphical Processing Unit (GPGPU) it is possible to compute feature values relevant for train detection in real-time. For the tracking of trains, a point-based causal algorithm is presented. The tracking has two stages to minimize the influence of false classifications of the vibration detection and is solved as an optimization problem. While several algorithms have been demonstrated in the literature for train tracking using OTDR signals, they have neither been tested on longer recordings nor with a large number of train samples. In contrast to that, our data contain four railway stations and more than ten train trajectory crossings over two hours under realistic conditions. To our knowledge, the presented algorithm is the first one in the literature which is tested against ground truth of train trajectories from a conventional train tracking system.

Institut für Gestaltungs- und WirkungsforschungE187

Arbeitsbereich Multidisciplinary Design

Diplomarbeitsposter Rauscha Astrid

Astrid Rauscha

Masterstudium Medieninformatik
Abstract:

In den letzten Jahren stieg die Anzahl an übergewichtigen Menschen weltweit so hoch, dass dies zu einem ernsten Problem wurde. Aus diesem Grund ist es wichtig, Adipositas vorzubeugen. Richtige und ausgewogene Ernährung, sowie Sport sind wichtige Schritte im Kampf gegen Fettleibigkeit. Das Ziel dieser Diplomarbeit ist es, herauszufinden, ob Exergames Menschen zur physischen Betätigung motivieren können. Aus diesem Grund wurde eine Literaturrecherche, bei der die Themengebiete Motivation, Fitnessapplikationen, Exergames, Avatars, digital Pets und Spielmechaniken untersucht wurden, durchgeführt. Besondere Aufmerksamkeit galt sozialen Spielmechaniken, um eine Herangehensweise zu finden, die Sozialisierung unterstützt. Basierend auf den Ergebnissen der Literaturrecherche wurde ein Prototyp eines mobilen Exergames entwickelt, bei dem die Benutzer und Benutzerinnen ein digitales Tier besitzen und mit anderen Menschen interagieren können. Um einen den Benutzerbedürfnissen entsprechenden Prototyp zu erstellen, wurde ein benutzerzentrierter Designprozess durchgeführt, bei dem verschiedene Forschungsmethoden, wie zum Beispiel Skizzen, Mock-ups, Personas und Szenarios, angewandt wurden. Innerhalb einer anschließenden User Study wurde der Prototyp getestet, um herauszufinden, ob das Konzept eines mobilen, sozialen Exergames, in dem ein digitales Tier das sportliche Verhalten der Benutzer und Benutzerinnen widerspiegelt, Menschen zu physischer Betätigung animieren kann. Die Ergebnisse der Studie zeigten, dass das Spiel und besonders der Mehrspielermodus von den Testpersonen sehr gut angenommen wurden, weil die Probanden und Probandinnen den sozialen Aspekt mochten. Des Weiteren zeigten die Ergebnisse, dass nahezu alle Testpersonen das Spiel in Kollaboration mit Freunden und Freundinnen im Alltag verwenden würden, wobei die Faktoren kurzzeitige Neugier und Langzeitmotivation nicht in Betracht gezogen wurden. Die Testpersonen waren durch das Exergame motiviert, Sport zu treiben.

Arbeitsbereich Human Computer Interaction

Diplomarbeitsposter Eisserer Clemens

Clemens Eisserer

Masterstudium Medizinische Informatik
Abstract:

E-Banking verzeichnet stetig steigende Marktdurchdringung da es zahlreiche Vorteile, wie beispielsweise Ortsunabhängigkeit, ständige Verfügbarkeit sowie oftmals niedrigere Transaktionskosten bietet. Allerdings lässt sich gerade bei älteren Menschen eine deutlich geringere Inanspruchnahme feststellen. Dies kann unter anderem auf technische Einstiegsbarrieren, kritische Haltung gegenüber neuen Technologien, zu komplizierten User-Interfaces sowie Sicherheitsbedenken zurückgeführt werden. In Hinblick auf Sicherheitsbedenken ist die digitale Archivierung von Transaktionsdaten, wie beispielsweise Buchungsbestätigungen, ein Hindernis, da in digitale Bestätigungen oftmals das Vertrauen fehlt. Aufbauend auf einer Designstudie von Pavlovic wurde ein einfach verwendbarer und wartungsfreier Belegdrucker konstruiert, mit welchem diese Hemmnisse abgebaut aber auch neue Einsatzgebiete wie Gutschein- oder Rezeptdruck erschlossen werden sollen. Das Design unterscheidet sich grundlegend von herkömmlichen PC-Druckern, da der Belegdrucker, bis auf das Papier, ohne Verbrauchsmaterialien auskommt und wartungsfrei ist. Zusätzlich wird das Papier von oben nach unten bedruckt, sodass Ergebnisse schnellstmöglich sichtbar werden. Es werden nur Einzelblätter bedruckt, wobei der Datentransfer und die Stromversorgung über den Universal Serial Bus erfolgen. In einem ersten Schritt wurde, aufbauend auf der Designstudie von Pavlovic, ein tech- nisches Grundkonzept erstellt, für welches passende Komponenten wie Thermodruckwerk, Controllerplatine sowie Mikrocontrollerboard recherchiert wurden. Bei der darauf folgen- den Integration wurden die Datenverbindungen zwischen den einzelnen Komponenten hergestellt und diese mittels Microcontroller-Firmware angesprochen, wobei anschließend der mechanische Aufbau sowie die Konstruktion eines geeigneten Gehäuses erfolgte. Den Abschluss der Arbeiten bildete die Implementierung eines Windows-Druckertreibers.

Diplomarbeitsposter Hinterer Christian

Christian Hinterer

Masterstudium Medizinische Informatik
Abstract:

Bargeldloser Zahlungsverkehr, speziell e-banking, birgt für viele Menschen, insbesondere ältere, die es zeitlebens gewohnt waren, bar zu bezahlen und ihre Bankgeschäfte direkt mit einem bzw. einer Bankangestellten abzuwickeln, große Probleme. Im Rahmen dieser Diplomarbeit wird gezeigt, wie das am Zentrum für Angewandte Assistierende Technologien der TU Wien entwickelte „Senioren Terminal - SISI“ bzw. LUI erweitert werden kann, um älteren Menschen Unterstützung zukommen zu lassen, wenn diese ihren Zahlungsverkehr auf erleichterte Art und Weise von zu Hause aus erledigen wollen. Kern der Arbeit ist es, Belege, welche in Papierform vorhanden sind, mit einer einfachen Webcam zu erfassen, mittels Bildbearbeitung die Qualität zu erhöhen, mittels Bilderkennung den Beleg selbst sowie dessen Layout zu erkennen und mittels OCR (Optical Character Recognition) den benötigten Inhalt aus dem Bild zu extrahieren. Ziel ist eine eigenständige Lösung, welche allerdings über eine definierte Schnittstelle als Treiber von dem „Senioren Terminal – SISI“ bzw. der darauf laufenden universellen Benutzer-Schnittstelle LUI verwendet werden kann. Die dabei an LUI übertragenen Informationen können dann in weiteren Schritten, unter Absprache mit Kreditinstituten und unter Verwendung von definierten Schnittstellen, zu e-banking-Applikationen exportiert werden. Dies ist allerdings von dieser Diplomarbeit abgegrenzt. Die als Treiber implementierte Lösung ist mit Embarcadero Delphi implementiert, die Kommunikation mit den „Consumer-Applikationen“ erfolgt unter Verwendung von „Named Pipes“. Für die Durchführung der OCR-Logik sind einige vorhandene Komponenten evaluiert worden, um eine effiziente Komponente in Relation zu den Kosten zu wählen. Zudem wurde eine Studie mit der zu erwartenden Benutzergruppe, nämlich den Benutzern und Benutzerinnen von LUI durchgeführt, um die Benutzerfreundlichkeit sowie die Benutzerakzeptanz abschätzen zu können.

Diplomarbeitsposter Hofmann Melanie

Melanie Hofmann

Masterstudium Medieninformatik
Abstract:

Das Thema Barrierefreiheit hat in den letzten Jahren immer mehr an Bedeutung gewonnen. Um Menschen mit Behinderung die Teilnahme am gesellschaftlichen Leben zu ermöglichen, müssen Gebäude wie Freizeit- und Bildungseinrichtungen barrierefrei gestaltet sein. Hierzu müssen selbst bestehende Gebäude umgebaut werden, um allen Personengruppen eine uneingeschränkte Nutzung zu ermöglichen. Menschen, die diese Umbauten in die Realität umsetzen, benötigen daher ein genaueres Verständnis über Planungsgrundlagen in Bezug auf Barrierefreiheit. Da die Kosten der barrierefreien Umbauten selbst getragen werden müssen, fehlt es diesen oftmals an Verständnis und Bewusstsein für die Gleichstellung von Menschen mit Behinderung und Barrierefreiheit. Das Ziel ist daher, ein im Rahmen dieser Diplomarbeit entwickeltes Serious Game Open Access vorzustellen, welches auf den Planungsgrundlagen der ÖNORM B 1600 beruht. Das Serious Game soll dabei helfen, Kenntnisse bezüglich Barrierefreiheit zu vermitteln und dem Nutzer/der Nutzerin die Notwendigkeit des Beseitigens von Barrieren aufzuzeigen. Zunächst werden die Grundlagen, welche essentiell für die Entwicklung des Serious Games waren, erörtert. Das Kapitel Grundlagen gibt einen Überblick über bekannte Methoden aus Serious Game Design und Strategien, sowie über unerlässliche Vorgaben der ÖNORM B 1600, die im Spiel Verwendung finden. Im weiteren Verlauf der Arbeit wird näher auf die Entwicklung des Spielkonzepts sowie der Spielidee eingegangen und das entwickelte Serious Game im Detail beschrieben. Der letzte Teil der Arbeit befasst sich mit der Evaluation des Serious Games, die gezeigt hat, dass Personen, die zuvor wenig bis kaum mit Barrierefreiheit zu tun hatten, durch das Spielen von OpenAccess mehr Kenntnisse zu diesem Thema erlangen konnten.

Institut für Softwaretechnik und Interaktive SystemeE188

Arbeitsbereich Information & Software Engineering

Diplomarbeitsposter Bachl Mathias

Mathias Bachl

Masterstudium Software Engineering & Internet Computing
Abstract:

Sicherheitsvorfälle, die auf kompromittierte Passwörter zurückzuführend sind, sind ein allgegenwärtiges Problem. Entsprechende Lösungen für sicherheitskritische Anwendungen existieren zwar, sind aber für viele Dienste aufgrund zahlreicher Einschränkungen im Hinblick auf deren Benutzerfreundlichkeit und Einsetzbarkeit ungeeignet. Unter der Vielzahl an Ansätzen, die eine Lösung dieses Problems versprechen, scheint der FIDO-Standard der vielversprechendste Kandidat zu sein. Einige Größen der IT-Industrie haben bereits begonnen, diesen Standard in ihren Produkten zu implementieren. FIDO bietet einen hohen Sicherheitsstandard, da sowohl ein Gerät im Besitz des Benutzers (mittels asymmetrischer Kryptographie) als auch der Benutzer gegenüber dem Gerät selbst (mittels Biometrie, PINs, etc.) authentifiziert wird. Unglücklicherweise birgt dieses Konzept Probleme, wenn ein Client-Gerät authentifiziert werden soll, welches sich nicht unter der exklusiven Kontrolle des Benutzers befindet (z.B. an dessen Arbeitsplatz). In solchen Szenarien ist ein zusätzliches Gerät (Authenticator) im Besitz des Benutzers notwendig, welches den Benutzer authentifiziert. Die dazu benötigte Schnittstelle zwischen den beiden Komponenten birgt allerdings potentielle Sicherheitsrisiken (bei drahtlosen Verbindungen), als auch mögliche Einschränkungen im Hinblick auf die Einsetzbarkeit (v.a. bei kabelgebundenen Schnittstellen). Diese Arbeit präsentiert sowohl eine benutzerfreundliche Lösung zur Sicherung dieses Kommunikationskanals, als auch eine Erweiterung des Authentifizierungsprotokolls, wo der Kommunikationskanal komplett entfällt. Da der Authenticator einen Single point of failure darstellt, besteht zudem die Notwendigkeit, kompromittierte Geräte auf globaler Ebene widerrufen zu können. Diese Arbeit schlägt mehrere Ansätze zur zentralen Widerrufbarkeit vor, welche die Privatsphäre des Benutzers nicht gefährden (Unlinkability).

Diplomarbeitsposter Djajakusuma Ilka

Ilka Djajakusuma

Masterstudium Business Informatics
Abstract:

Die Bereiche Unternehmensproblemlösung und Geschäftsstrategien entwickeln ein deutlich erhöhtes Bewusstseins für die Vorteile von Enterprise Social Networks (ESN). Folglich ist die Beurteilung von Leistung und Auswirkung von ESNs Fokus vieler Untersuchungen geworden. Studien präsentieren eine Vielzahl von entwickelten und implementierten Ansätzen um den Erfolg von ESNs zu messen. Allerdings fehlt eine systematische Strategie um ESNs kontinuierlich zu überwachen und zu bestimmten Zielen zu lenken. Ziel der Diplomarbeit war es eine auf der Balanced Scorecard basierende Lenkstrategie für ESNs zu entwickeln. Anschließend wurden ESN Leistungs-Metriken und die wichtigsten Maßnahmen, die als externe Treiber wirken, untersucht. Dies wird in einer Fallstudie von TechnoWeb, einem von Siemens verwendeten ESN, angewandt. Die in dieser Diplomarbeit entwickelte Strategie nimmt die Grundform der Balanced Scorecard und passt sie an die ESN-Umgebung durch Einbeziehen anderer Methoden und Theorien, wie vernetztes Denken und den Build-Measure-Learn Cycle, an. In der TechnoWeb Balanced Scorecard, die dem Management-Team einen Überblick über den aktuellen Zustand des ESN bietet, können kritische Bereiche, die Verbesserungen benötigen, identifiziert werden. Darüber hinaus können die Konsequenzen umgesetzter Maßnahmen kontinuierlich überwacht werden. Die Ergebnisse werden für die weitere Entscheidungsfindung und für die Verbesserung der Metriken verwendet, um das ESN zum gewünschten Ziel zu lenken.

Diplomarbeitsposter Kukovic Christoph

Christoph Kukovic

Masterstudium Business Informatics
Abstract:

Die Einführung des neuen Internetprotokolls IPv6 erfordert eine umfangreiche Umstellungsphase die potenzielle Sicherheitslücken mit sich bringt. Da sowohl für private Personen und Unternehmen als auch für den öffentlichen Sektor IT-Security eine immer wichtigere Rolle spielt, gilt es, die Gefahren dieser Phase rechtzeitig aufzuzeigen und zu eliminieren. In der Vergangenheit bot IP High Performance Scanning einen effizienten Weg, um die globale Internetinfrastruktur zu analysieren und potenzielle Gefahrenpunkte zu identifizieren. Da das Vorgängerprotokoll von IPv6, IPv4 eine mittlerweile überschaubare Anzahl an verfügbaren, eindeutigen Netzwerkadressen bietet, sind High Performance Scanner dazu in der Lage, das gesamte IPv4 Internet in weniger als 45 Minuten nach Schwachstellen zu scannen. Da IPv6 eine weit höhere Anzahl an global eindeutigen Adressen zulässt, kann der alte Ansatz in der bekannten Form zur Analyse der IPv6 Infrastruktur nicht mehr verwendet werden. Diese Diplomarbeit beschäftigt sich mit der Adaption des bekannten IPv4 High Performance Scanners ZMap und der daraus resultierenden Fähigkeit IPv6 Scans durchzuführen. Desweiteren wird aufgezeigt, dass die große Anzahl an möglichen IPv6 Adressen alleine keinen Schutz vor Angriffen bietet. Es werden zwei verschiedene Vorgehensweisen untersucht, um mittels Hochleistungs-Scanning Informationen über vorhandene IPv6 Infrastrukturen zu sammeln. Zusätzlich werden die Ergebnisse der durchgeführten Scans präsentiert und die dabei aufgetretenen Probleme analysiert.

Diplomarbeitsposter Mahdi Zadeh Samira

Samira Mahdi Zadeh

Masterstudium Software Engineering & Internet Computing
Abstract:

Umweltverbrechen sind als schweres globales Problem anerkannt. Dies inkludiert illegale Abholzung und Waldzerstörung, illegaler Rohstoffabbau und Handel mit Mineralien, illegaler Handel und Wilderei von Wildtieren und Pflanzen. Autonome Drohnen und akkustitsche Technologien können zum Einsatz kommen um Wälder und Gelände wie Häfen und Lagerhallen bei Nacht auf illegale Aktivitäten zu überwachen. Derzeitig hat man sich akkustische Technolgien noch nicht voll zunutze gemacht, um eine effektivere Prävention illegaler Aktivitäten bei Nacht anhand der Ermittelung und Lokalisierung verdächtiger Geräusche. Die neuartige Idee von akkustischen Überwachungsdrohnen und deren verschiedene mögliche Einsatzszenarien vor Augen, gibt es noch viele Herausforderungen und offene Fragen bezüglich der Realisierung dieser Idee. Wir identifizieren die folgenden drei Kategorien von Herausforderungen: (i) Neutralisierung der Drohnengeräusche, (ii) Echtzeit-Übertragungsverarbeitung, und (iii) Konstruktions-Einschränkungen zwinged durch die limitierte Traglast, die eine Drohne tragen kann. Diese Forschungsarbeit befasst sich mit den oben erwähnten Herausforderungen in dem ein neuer Beitrag, bestehend aus zwei Teilen, vorgestellt wird: (i) eine Simulationsplattform die Drohnengeräusche mit Geräuschbeispielen einer Kettensägen mischt, mit einem realistischen Distanzeffekt (ii) Entwicklung und Umsetzung einer praktikablen Überwachungsdatenverarbeitungs-Pipeline für Überwachungsdrohnen, um Geräusche von illegaler Abholzung und Waldzerstörung aufzuspüren. Die Pipeline wurde dann evaluiert und analysiert um die Effizienz unserer Herangehensweise zu belegen.

Diplomarbeitsposter Rieder Thomas

Thomas Rieder

Masterstudium Software Engineering & Internet Computing
Abstract:

Net neutrality is a much discussed topic in both mainstream media and research papers alike. Yet the related topic of peering has mostly eluded these discussions. Like net neutrality, it affects how fast content gets delivered to users -- it just works in a different manner. We point out the differences, examine the current state of the art and propose a system to analyze peering on a global scale. The system makes use of RIPE Atlas -- a network of more than 9,000 measurement probes scattered around the globe. By using a microservice architecture we can scale our system elastically and easily respond to the vast amount of data generated. In addition we give a prototypical implementation and use it to analyze the peerings in three different countries. The results of our evaluation show just how big the impact of peering is.

Diplomarbeitsposter Strelzow Alexej

Alexej Strelzow

Masterstudium Software Engineering & Internet Computing
Abstract:

Das Ziel dieser Arbeit ist es ein Tool bereit zu stellen, das Personen (Benutzern) beim Verstehen von schweren Texten, z.B. Publikationen eines Forschers, individuell unterstützt. Basierend auf einer Sammlung von Dokumenten des Benutzers stellen wir eine neuartige Methode vor Wörter in einem neuen Dokument, welcher er oder sie lesen möchte, zu finden, welche dem Benutzer mit großer Wahrscheinlichkeit unbekannt sind. Außerdem erklären wir diese Wörter mit Hilfe von externen Datenquellen. Unser Tool stellt das analysierte Dokument Seite für Seite dar und zeigt dem Benutzer eine Liste von gefundenen, unbekannten Wörtern und deren Erklärung zu der jeweiligen Seite. Wir implementierten einen Prototypen, welcher Sprachmodelle (Benutzer- und Dokumentenmodelle) aus Text generiert, diese miteinander vergleicht und die als unbekannt befundenen Wörter erklärt. Wir identifizieren unbekannte Wörter mit Hilfe von semantischen und statistischen Methoden. Um unbekannte Wörter erklären zu können verwenden wir BabelNet, ein großes semantisches Wörterbuch. Für die Evaluierung haben wir ein Testset aus Sprachmodellen erstellt und danach quantitative und qualitative Experiment durchgeführt. In unseren Experimenten haben wir Benutzermodelle (aus der IT Domäne) mit den Dokumentenmodellen aus den Domänen der IT (equi-domain Experimente) und Medizin (cross-domain Experimente) verglichen. Das Resultat zeigt, dass im Durchschnitt beinahe zwei Mal die Menge an unbekannten Wörtern in Dokumenten aus der medizinischen Domäne, im Kontrast zu Dokumenten aus der IT Domäne, gefunden wurden. Im Vergleich zu den equi-domain Experimenten, haben wir in den cross-domain Experimenten beobachtet, dass die Mehrzahl an unbekannten Wörtern domänenspezifischer Natur sind und nicht generellen Ursprungs. Wir haben auch eine negative Korrelation (Kendall's Tau = -0.82) zwischen dem geschätzten Sprachniveau des Benutzers und der Summe der unbekannten Wörter nachgewiesen.

Arbeitsbereich Interactive Media Systems

Diplomarbeitsposter Furlan Lukas

Lukas Furlan

Masterstudium Medieninformatik
Abstract:

Grundrisspläne finden Anwendung im Bauwesen und beinhalten wichtige Informationen über das dargestellte Gebäude. Auch wenn die meisten dieser Pläne heutzutage digital erstellt und in einem Vektorformat gespeichert werden, so ist eine maschinelle Interpretation des semantischen Inhaltes dennoch nur eingeschränkt möglich. Begründen lässt sich diese Problematik insbesondere durch den Mangel eines allgemein gültigen Zeichenstandards. Ausschlaggebender Vorteil einer automatisierten Erfassung liegt in der effizienten Generierung von dreidimensionalen Gebäudemodellen. Unter anderem wird im Kontext der virtuellen Realität eine kostengünstige Grundlage für das realitätsbezogene Durchwandern von Gebäuden bereitgestellt. Ziel der vorliegenden Masterarbeit war die Entwicklung einer Applikation, um vektorbasierte Grundrisspläne automatisiert zu erfassen und strukturelle sowie topologische Informationen in Form eines dreidimensionalen Gebäudemodelles für weitere Anwendungen interpretierbar bereitzustellen. Neben der Automatisierung des Systems spielen Generizität und Robustheit eine wesentliche Rolle und stellen als Kombination die primäre Herausforderung dar. Eine durchgeführte Analyse verschiedener Grundrisspläne schafft ein Regelwerk für die entwickelten strukturellen Methoden zum Erkennen der Gebäudebestandteile. Jede Methode wurde dabei iterativ verbessert und analysiert bis hin zu einer zufriedenstellenden Leistung. Dabei ist einem prioritären vollautomatisierten Ansatz eine halbautomatische Vorgehensweise untergeordnet, womit im entwickelten System ein akzeptabler Kompromiss zwischen Automatisierung und Generizität geschaffen wird. Die quantitative Evaluierung der Methoden mittels verschiedener Testpläne liefert zufriedenstellende Ergebnisse und mit dem System ist es möglich, durch minimale Eingriffe der Benutzer oder Benutzerinnen komplexe Pläne in kürzester Zeit zu analysieren.

Diplomarbeitsposter Kamenica Aleksandar

Aleksandar Kamenica

Masterstudium Business Informatics
Abstract:

Diese Arbeit befasst sich mit einer möglichen Lösung für jene Nachteile, welche sich durch die übliche Vorgehensweise beim Angebot von Open Data Datensätzen ergeben, bei welcher die Datensätze auf einer Webseite als Dateien zum Herunterladen angeboten werden. Stattdessen könnten die Erzeuger von solche Datensätzen diese über REST Services anbieten, welche OData Version 4, einem aufkommenden Standard für REST Services, entsprechen. Auf diese Art und Weise könnte man eine generische Client-Applikation bauen, welche dazu in der Lage wäre, solche Daten zu durchsuchen und deren zugrunde liegendes Datenmodell anzuzeigen, ohne eine Datei herunterladen zu müssen oder das Datemodell selbst ableiten zu müssen. Auch andere Nachteile könnten durch die Verwendung von REST Services eliminiert werden. In dieser Arbeit wird sowohl ein Prototyp eines OData Version 4 konformen REST Services als auch ein Prototyp einer generischen Client-Applikation implementiert um zu zeigen, dass solch eine Konstellation realisierbar ist. Die generische Client-Applikation wurde zudem auch mit anderen OData Version 4 konformen REST Services erfolgreich getestet. Zusätzlich wurde ein Fragebogen über OData von Fachexperten ausgefüllt. Diese Fachexperten haben bestätigt, dass OData das Bauen von generischen Client-Applikationen zum Abrufen und Durchsuchen von Daten, die über entsprechende Services veröffentlicht wurden, ermöglicht.

Diplomarbeitsposter Sinnl Alexander

Alexander Sinnl

Masterstudium Medieninformatik
Abstract:

Die von der „Digitalen Revolution“ ausgelösten Veränderungen unserer Welt bringen diverse Herausforderungen mit sich. So handelt eine der großen Fragen dieser Zeit davon, wie ein nachhaltiger Umgang mit (digitalen) Daten aussehen kann. Jeder Mensch produziert und nutzt tagtäglich eine Vielzahl an Daten, die abhängig vom jeweiligen Kontext sinnstiftend zu Informationen zusammengefasst werden. Gesamtheitlich betrachtet, entsteht aus diesen Einzelhandlungen ein natürlicher Kreislauf, in dem Menschen maschinenunterstützt und in Beziehung zueinander Informationen erzeugen wie abrufen. Für den konkreten Anwendungsfall dieser Diplomarbeit, dem Schaffen eines Softwareprototyps für die Erfassung und Verwaltung von Studienbewerbungen an der TU Wien, sind folgende Minimalanforderungen umzusetzen: Der entwickelte „Student Records Manager“ speichert Informationen in Studierendenakten und präsentiert diese zur Bearbeitung via Benutzeroberfläche in drei verschiedenen Sichten. „Studierende“ haben die Möglichkeit, Dokumente für Studienbewerbungen hochzuladen und diese abzusenden. „Mitarbeiter“ der Studien- und Prüfungsabteilung der TU Wien können diese Bewerbungen evaluieren. „Studiendekane“ sind in der Lage, Stellungnahmen zu verfassen. Um diesen Anforderungen gerecht zu werden, basiert der „Student Records Manager“ auf dem frei zugänglichen elektronischen Dokumentenmanagementsystem „Nuxeo Platform“, das sich im Zuge einer Marktsondierung als geeignete Grundlage erwiesen hat. Der Prototyp setzt auf einen benutzerzentrierten Ansatz, bei dem der Anwender gezielt automationsunterstützt wird. Die abschließend durchgeführte Evaluierung des Prototyps bestätigt dessen grundsätzliche Tauglichkeit für die Erfassung und Verwaltung von Studienbewerbungen an der Technischen Universität Wien. In einem möglichen nächsten Schritt könnte der „Student Records Manager“ testweise in der geplanten Einsatzumgebung implementiert werden, um in der Folge weitere Maßnahmen abzuleiten.

Diplomarbeitsposter Unterguggenberger Johannes

Johannes Unterguggenberger

Masterstudium Visual Computing
Abstract:

In dieser Diplomarbeit wird eine Technik präsentiert, um virtuelle Objekte in mobilen Augmented Reality-Applikationen möglichst realistisch zu rendern und somit deren visuelle Kohärenz zu steigern. Die präsentierte Technik nutzt die Kamera und die Bewegungssensoren eines mobilen Gerätes, um ein omnidirektionales Bild der Umgebung mit hohem Dynamikumfang aufzunehmen und in einer Environment-Map zu speichern. Aus dieser Environment-Map werden mittels gewichteter Faltung nach einem Beleuchtungsmodell eine Irradiance-Map und mehrere Reflection-Maps generiert. Irradiance-Maps beinhalten diffuse Beleuchtungsinformationen, während Reflection-Maps spiegelnde oder glänzende Beleuchtungsinformationen beinhalten. Zur Berechnung der Maps werden drei verschiedene Methoden präsentiert, die unterschiedliche Eigenschaften, Vorteile und Einschränkungen haben: Die akkurate Berechnung, eine auf MIP-Mapping basierte Approximation, sowie die Berechnung im Frequenzbereich mittels Spherical Harmonics. Ebenso wird beschrieben, wie diese Maps in Rendering nach bildbasierter Beleuchtung (image-based lighting) genutzt und mit weiteren gängigen Echtzeit-Renderingeffekten kombiniert werden können, um eine hohe visuelle Kohärenz von virtuellen Objekten in AR-Szenen zu erreichen. Das wichtigste Novum dieser Diplomarbeit ist der Fokus auf die Möglichkeiten von mobilen Geräten und die Eigenschaft, dass alle Schritte auf einem einzigen handelsüblichen mobilen Gerät durchgeführt werden können: vom Aufnehmen der Environment-Map an einem bestimmten Punkt im Raum, über die Berechnung der Irradiance- und Reflection-Maps, bis hin zum Rendern der virtuellen Objekte mit den berechneten Maps in einer Augmented Reality-Szene.

Arbeitsbereich Business Informatics

Diplomarbeitsposter Altenhuber Alexander

Alexander Altenhuber

Masterstudium Software Engineering & Internet Computing
Abstract:

Domain-specific languages (DSLs) are popular for reasons such as increasing productivity for developers and improving communication with domain experts. Textual DSLs let users create models by using a textual concrete syntax (TCS). Graphical DSLs render the model by means of a graphical concrete syntax (GCS), which is based on graphical shapes and also facilitates graphical editing. Using a TCS may lead to higher productivity due to editor functionalities like search and replace, syntax highlighting, and code completion. Textual models, however, may be hard to understand for developers and domain experts. Graphical representations of models, such as GCSs, aim at improving the comprehension of models and the communication with domain experts. A GCS, however, mostly visualizes structural aspects of the model by defining a mapping between semantic elements and graphical elements. Furthermore, graphical editing capabilities may impose restrictions on the design of a GCS. This thesis analyzes a way of combining both representations by using a textual DSL for editing purposes and read-only graphical representations which entirely aim at improving the comprehension of the DSL. These graphical representations are referred to as visualizations in this thesis. A visualization is a graphical representation that cannot be edited and highlights a particular aspect. This thesis mainly investigates if visualizations can increase users' comprehension of models. The results of this work are evaluated based on two use cases. The first use case aims at exploring and illustrating the technical capabilities of using JavaFX as a technology for creating visualizations. The second use case intends to evaluate the practical relevance of visualizations in the domain of automotive testing by creating visualizations for an existing DSL. The answers to our research questions are based on the results of in-depth interviews, which have been conducted with engineers professionally using the DSL.

Diplomarbeitsposter Artner Johannes Manuel

Johannes Manuel Artner

Masterstudium Business Informatics
Abstract:

Performanz, unter dem Gesichtspunkt zeitlicher Anfrage-Antwortintervalle, ist eine charakteristische Eigenschaft von Softwaresystemen. Zur Evaluierung der Performanz gibt es in der wissenschaftlichen Literatur eine Vielzahl an Ansätzen, wobei aufgrund des zumeist sehr hohen Zusatzaufwandes und der zusätzlichen Komplexität die meisten dieser Ansätze wenig Verwendung in der Praxis finden. Das adäquate Management von Performanz anhand ingenieurmäßiger Prinzipien ist in der Praxis demfolgend sehr selten. Die Konzeption und Evaluation der Performanz von Softwaresystemen wird in der wissenschaftlichen Disziplin des Software Performance Engineerings behandelt. In dieser Disziplin gibt es modell- und messgetriebene Methoden welche zumeist isoliert voneinander ablaufen. In der jungen Vergangenheit gab es eine Vielzahl an Innovationen im Bereich der Softwareentwicklung. Hierfür sind im Speziellen die Konzepte der agilen Entwicklung, des Continuous Deliveries sowie die DevOps-Kultur von Interesse. Die vorliegende Arbeit präsentiert ein neues Vorgehensmodell in der SPE-Domäne, den ASPE-Ansatz (Agile Software Performance Engineering) welcher modell- und messgetriebene Techniken verbindet. Der ASPE-Ansatz wurde auf Grundlage des Travelistr-Systems evaluiert. Hierbei galt es zunächst, Travelistr unter Verwendung des ASPE-Ansatzes zu entwickeln und die Nützlichkeit dieses Ansatzes zu evaluieren. Darauffolgend konnte in einem empirischen Versuch mit 32 Testnutzern die Markov-Eigenschaft einer typischen Web 2.0 Applikation bestätigt, und die Effektivität der Markov-Approximation gezeigt werden. Des Weiteren wurden zwei Tools entwickelt die Teilbereiche des ASPE-Ansatzes automatiseren: Der OperationsAndTraceMonitor und das UserTrace2Markov-Tool. Um die Performanz eines Softwaresystems anhand der Warteschlangetheorie evaluieren zu können, wurde ein Ansatz zur Berechnung von Ankunftsintervallen an Stationen auf Basis der Ergodizitätstheorie und Little’s Gesetz entwickelt.

Diplomarbeitsposter Siemayr Anita

Anita Siemayr

Masterstudium Business Informatics
Abstract:

Massive Open Online Courses (MOOCs) sind eine neue Art des Lehrens und Lernens. Tausende Personen nehmen an kostenlosen online Kursen über mehrere Wochen teil. Es gibt keine Aufnahmelimitierungen, wie zum Beispiel ein bestimmtes Bildungslevel, um an diesen Kursen teilnehmen zu können. Der Inhalt von den verschiedensten Kursen wird strukturiert in Videos, Texten, Quizzes, Hausübungen und Projekten dargeboten. Diese Diplomarbeit untersucht welche Presentationstechniquen von den Studenten gerne angenommen werden wenn es um das Lehren einer Modellierungssprache geht. Außerdem werden die Motivationstreiber der Studierenden, um einen MOOC über Modellierungssprachen, zu machen evaluiert. Im Zuge dieser Diplomarbeit wir ein MOOC über das UML Klassendiagramm, ein Teil von der Objektorientierten Modellierung, entwickelt und durchgeführt. Der MOOC wird auf Grund von zwei Fragebögen und Logfiles vom Kurs evaluiert. Zuletzt werden die Ergebnisse interpretiert um die Forschungsfragen zu beantworten. Der Videostil, der Slides und den Vortragenden zeigt, ist die am meisten gewünschte Presentationstechnik um eine Modellierungssprache zu lehren. Animated handwriting zeigt weniger in-video dropouts, aber ist nicht sehr populär bei den Studenten. Zusätzliche Projekte und Quizze sind die hilfreichsten Aktivitäten für MOOC-Teilnehmer. Die meisten Studenten nehmen an einem MOOC teil, weil sie gerne neue interessante Themen kennenlernen. Bonuspunkte für eine Lehrveranstaltung der TU Wien sind auch ein willkommener Motivationsfaktor um einen MOOC zu machen.

Andere Institute der Technischen Universität Wien

Institut für Diskrete Mathematik und Geometrie

Diplomarbeitsposter Manighetti Matteo

Matteo Manighetti

Masterstudium DDP Computational Logic (Erasmus-Mundus)
Abstract:

In this thesis we are concerned with Markov's principle, a statement that originated in the Russian school of Constructive Mathematics and stated originally that ``if it is impossible that an algorithm does not terminate, then it will terminate''. This principle has been adapted to many different contexts, and in particular we are interested in its most common version for arithmetic, which can be stated as ``given a total recursive function $f$, if it is impossible that a there is no $n$ for which $f(n)=0$, then there exists an $n$ such that $f(n)=0$''. This is in general not accepted in constructivism, where stating an existential statement requires one to be able to show at request a witness for the statement: here there is no clear way to choose such an $n$. We introduce more in detail the context of constructive mathematics from different points of view, and we show how they are related to Markov's principle. In particular, several \emph{realizability} semantics are presented, which provide interpretations of logical systems by means of different computational concepts (mainly, recursive functions and lambda calculi). This field of research gave origin to the well known paradigm often called \emph{Curry-Howard isomorphism}, or also \emph{propositions as types}, that states a correspondence between proofs in logic and programs in computer science. Thanks to this the field of proof theory, that is the metamathematical investigations of proofs as mathematical objects, became of interest for computer science and in particular for the study of programming languages. By using modern research on the Curry-Howard isomorphism, we will obtain a more refined interpretation of Markov's principle. We will then use this results to investigate the logical properties of systems related to the principle.

Institut für Wirtschaftsmathematik

Diplomarbeitsposter Dani Suad

Suad Dani

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

The worlds increasing use of fossil fuels leads to increased greenhouse gases emissions (GHG Emissions). Different factors play a role in the increasing of these emissions; such as transport performance, economic factors or even social factors. Goal of the countries and governments is to reduce the emissions that also contribute to the global warming. In Austria, the road is the main source of greenhouse gases. This work investigates the Austrian transport situation and its impact on greenhouse gases, as well as the measures taken by the government to reduce the emissions and reach thy Kyoto targets in the last commitment period 2020. The first three chapters of this work present a general situation how the emissions are caused and the possibilities to reduce them, the Kyoto protocol and its targets and possible measures that can be taken. Chapter four explains the linear model from historical data and the formulas to calculate the effect of the measures. The last chapter explains the model in numbers and simulates the future scenarios.