EPILOG Wintersemester 2014

Auszeichnungen

Distinguished Young Alumnus

Diplomarbeitsposter-Thumbnail Pani Thomas

Thomas Pani

Loop Patterns in C Programs

Weitere Nominierungen für Distinguished Young Alumnus

Ausgestellte Arbeiten

Institut für Technische InformatikE182

Arbeitsbereich Cyber-Physical Systems

Diplomarbeitsposter Frühwirth Thomas

Thomas Frühwirth

Masterstudium Technische Informatik
Abstract:

The requirements, functionality, and consequently also the complexity of software used in the automotive industry has constantly been increasing over the last decades. To cope with this development, main car manufacturing companies and automotive suppliers established the AUTOSAR partnership back in 2003. Its main objective is to reduce development costs and to enhance cooperation between different companies by creating standards and specifications for automotive software applications. With the increasing number of ECUs higher communication speeds than provided by nowadays state-of-the-art bus systems like CAN and FlexRay are desired. The tremendous success story of standard Ethernet has led to various adaptions for different industries to make its benefits also available for safety-critical and real-time applications. One of these enhancements is the SAE AS6802 standard, commonly known as TTEthernet. In this thesis, AUTOSAR and TTEthernet are brought together for the first time. A concept is developed of how TTEthernet can be added as an additional communication protocol, preserving the interfaces to the application and thus being compliant with the AUTOSAR specification. It is shown that precise timing cannot be guaranteed with a pure software solution, but certain, commonly supported, hardware features are required. As TTEthernet also supports conventional Ethernet traffic, extending the functionality by time-triggered communication unavoidably comes to the price of increased run time and memory consumption. However, results indicate that this overhead is negligible for many applications. Furthermore, as analysis of the network traffic generated by the SW-based end system shows, it is very well shaped. Time-triggered traffic, having the highest priority, is not at all effected by conventional Ethernet traffic. The jitter is bounded and the end-to-end latency can be predicted precisely.

Diplomarbeitsposter Meier Ludwig

Ludwig Meier

Masterstudium Software Engineering & Internet Computing
Abstract:

Real-Time systems require guarantees on the execution time of the executed programs, commonly at least a Worst-Case Execution-Time (WCET) bound. The complexity of today’s computing architectures makes it difficult to predict the execution timing of a program. The single-path programming scheme improves timing predictability by eliminating the selection of different execution paths depending on the input data provided to the program. Such programs execute the exactly same sequence of instructions for every invocation. This document describes the automated transformation to a single-path program from annotated source code. The transformation consists of a dataflow analysis to iden- tify the input-data dependent branches in the program and a transformation phase that replaces these branches by utilizing conditional execution, i.e., predicated instructions.

Diplomarbeitsposter Mödlhamer Stefan

Stefan Mödlhamer

Masterstudium Technische Informatik
Abstract:

With growing system complexity and system size, the benefit of a system-wide synchronized timebase becomes apparent: synchronized clocks simplify the coordination of the actions and communication of nodes in a (potentially spatially wide-spread) distributed system. Typically, clock synchronization protocols are used to establish such a synchronized timebase. Over the last few decades several clock-synchronization standards for distributed computer networks have emerged, each of them designed with a specific field of application in mind, providing unique properties concerning: redundancy, fault tolerance, cost, support for external synchronization, precision, media, phase/frequency correction. Despite this variety of clock synchronization approaches almost none of these standards consider an interface to different approaches, hence none of them are officially suitable to create a system with heterogeneous clock synchronization clusters, without losing the time information on the transition between the clusters. To overcome this problem the thesis introduces an approach to interface different clock synchronization standards and other time sources to each other. In particular, an interface from SAE AS6802 time to IEEE 1588 time and vice versa has been developed. The developed design allows for a redundant time information communication from an internally synchronized SAE AS6802 cluster to a single or multiple IEEE 1588 clusters. Utilizing the implemented IEEE 1588 grandmaster protocol stack of the boundary SAE AS6802 nodes, connected to the IEEE 1588 cluster. The opposite gateway direction enables a SAE AS6802 node and in further consequence the whole SAE AS6802 cluster to synchronize its time to TAI, e.g. employing the time information provided by an IEEE 1588 grandmaster synchronized to the GPS time.

Arbeitsbereich Embedded Computing Systems

Diplomarbeitsposter Kutschera Robert

Robert Kutschera

Masterstudium Technische Informatik
Abstract:

Die Kommunikation zwischen Elementen mit deren Setup/Hold- Anforderungen (Speicherelemente) kann innerhalb einer geschlossenen Timing Domain (Bereich mit einheitlichem Zeitverständnis, z.B.: Systemtakt) sicher bewerkstelligt werden. Oft ist es aber notwendig Signale zwischen verschiedenen Timing Domains auszutauschen, wie im Falle eines GALS-Systems (Globally Asynchronous Locally Synchronous) bei dem die verschiedenen Systemkomponenten jeweils unterschiedliche Timing Domains besitzen. Diese Übertragungen von Signalen können zu Metastabilitätsproblemen an den Schnittstellen führen. Um diesen Metastabilitätsproblemen entgegenzuwirken müssen die Signale an der Empfängerseite in die dort herrschende Timing Domain synchronisiert werden. Diese Aufgabe bewerkstelligen Synchronizer. In der vorliegenden Arbeit wird als erster Schritt ein Überblick über bestehende Interfacing- Lösungen erstellt um diese durch analytische Modelle vergleichen zu können. Dazu werden verschiedene Vergleichskriterien wie MTBF (Mean Time Between Failures), Durchsatz und Verzögerung herangezogen. Dabei werden die Interface-Typen von synchronen Systemen (z.B. mesochronous, plesiochronous, heterochronous) und asynchronen Systemen (verschiedene Handshake- Protokolle) betrachtet. Nach dem Vergleich der gesammelten Lösungen kann eine Identifizierung geeigneter Lösungen für die unterschiedlichen Kategorien vorgenommen werden und so ein Nachschlagewerk verfasst werden.

Diplomarbeitsposter Maier Jürgen

Jürgen Maier

Masterstudium Technische Informatik
Abstract:

Testing electronic circuits during their operation in the field is mandatory to ensure correct functionality over a long period of time. To avoid fault accumulation test vectors have to be applied actively to the circuit under test, without disturbing the normal operation. In synchronous circuits this topic has been investigated thoroughly, however for asynchronous ones, a more and more emerging design paradigm due to its superior properties, only few test approaches are available. In this thesis a novel concurrent Built-In Self-Testing (CBIST) approach is presented, that is capable of testing asynchronous logic without interrupting the normal operation at any point in time. For that purpose the rather unproductive NULL-phase of a 4-phase communication protocol is replaced by dedicated TEST values, which are generated and analysed on chip. In detail two 4-phase input streams (user and test data) are combined to a 2-phase one, which is afterwards processed by the circuit under test and then split up into two 4-phase streams again. The units responsible for merging and splitting had to be implemented from scratch due to missing references in literature, both for the bundled data and completion detection communication style and in several versions, differing by their complexity and level of concurrency. The proposed test procedure has the advantage that the test data are independent of the user data and can therefore be defined already at design time. This yields several advantages, for example the possibility to test rather complex structures like cyclic pipelines. As our assessment shows, the price for the test approach in terms of increased hardware effort and additional delay is very moderate, especially for large circuits. For those reasons the proposed test approach is a good alternative if data processing must not be interrupted at all.

Diplomarbeitsposter Trenkwalder Christian

Christian Trenkwalder

Masterstudium Technische Informatik
Abstract:

Asynchrone Quasi Delay-Insensitive (QDI) Logik ist im Vergleich zu synchroner Logik toleranter gegenüber transienten Fehlern und permanenten Defekten. Dies ist das Resultat einer delay-unabhängigen Kodierung. Das Auftreten eines permanenten Defektes führt bei der betrachteten Klasse von delay-insensitiven Schaltungen immer zu einem Deadlock im Protokoll und damit zum Anhalten der Operation. Es stellt sich die Frage, ob nach Korrektur des Defekts die Schaltung unmittelbar fehlerfrei in ihrer Operation fortfahren kann, oder ob ihr interner Status als Folge des Defekts fehlerhaft sein kann, zudem stellt sich die Frage, von welchen Faktoren dies abhängt. Diese Fragen sollen in der vorliegenden Arbeit beantwortet werden. Als mögliches Verhalten der Schaltung nach dem Auftreten eines Defektes werden Deadlock, Late Detection und Premature Fire identifiziert. Um das Verhalten von komplexen Schaltungen mit vertretbaren Aufwand zu analysieren, muss ein Kompromiss aus Komplexität und Detailreichtum geschlossen werden. In dieser Arbeit wird ein abstraktes Modell entwickelt, welches ohne Verlust der Generalität auf alle Schaltungen anwendbar ist. Eine Schaltung wird auf ihrem logischen Level in mehrere Blöcke unterteilt, welche unabhängig voneinander analysiert werden. Die Ergebnisse der Einzelanalysen werden, auf der nächsthöheren Abstraktionsebene verwendet, um auf das Verhalten der Gesamtschaltung zu schließen. Zur Verifikation des erstellten Modells wird dessen Ergebnis mit dem einer Behavioral-Simulation verglichen. Es wird die Anwendbarkeit und Korrektheit des Modells für ein verbreitetes Template für asynchrone Schaltungen bewiesen. Das Template wird auf Null-Convention-Logic, Level-Encoded-Dual-Rail und Code- Alternating-Logic angewandt. Das Resultat ist eine Vorhersage mit welcher Wahrscheinlichkeit eine Schaltung nach einem Defektes ein unerwünschtes Ergebnis liefert bzw. einen fehlerhaften internen Zustand aufweist.

Institut für Rechnergestützte AutomationE183

Arbeitsbereich Automatisierungssysteme

Weitere ausgestellte AbsolventInnen dieses Arbeitsbereichs:
Philipp Matthias Forsthuber, Bettina Gruber, Andreas Hübler, Martin Jauernig, Andreas Lindner, Birgit Wlaschits
Diplomarbeitsposter Chrenko Thomas

Thomas Chrenko

Masterstudium Software Engineering & Internet Computing
Abstract:

In dieser Arbeit werden verschiedene Entwicklungsansätze für das Erstellen von mobilen Applikationen vorgestellt und ihre Einsatzmöglichkeiten in der Automatisierungstechnik analysiert. Native Entwicklungsansätze, der Ansatz der Entwicklung von Webapplikationen, hybride Entwicklungsansätze und der Ansatz der modellgetriebenen Softwareentwicklung werden diskutiert. Es werden verschiedene Kategorien, wie die Unterstützung von nativen Gerätefunktionen, die Benutzerfreundlichkeit oder das Entwicklerteam unterstützende Tools, eingeführt und die Ansätze anhand dieser verglichen. Es wird gezeigt, dass native Ansätze die beste Wahl für die Entwicklung solcher Anwendungen sind, wenn nur eine Plattform unterstützt werden soll.Wenn die Applikation jedoch auf mehreren Plattformen lauffähig sein soll, eignen sich Webapplikationen oder hybride Entwicklungsansätze besser für diese Aufgabe, auch wenn sie nicht die Benutzerfreundlichkeit von nativen Applikationen erreichen. Modellgetriebene Ansätze sind sehr vielversprechend für die Entwicklung, es existiert jedoch noch kein produktiv einsetzbarer Ansatz. Auf der Analyse basierend wird die Portierung einer bereits bestehenden Visualisierungslösung für Stationsleittechnik, Fernwirktechnik und Schutztechnik auf mobile Plattformen vorgestellt. Für diese Portierung wird die Entwicklung einer Webapplikation gewählt, weil keine nativ mobilen Gerätefunktionen für die Implementierung benötigt werden und eine Vielzahl von Plattformen unterstützt werden soll. Die entwickelte Applikation wird anschließend in einer Fallstudie evaluiert und mit der bestehenden Referenzimplementierung verglichen. Die Evaluierung zeigt, dass der entstandene Prototyp funktionsfähig ist und plattformunabhängige Visualisierungslösungen für die Automatisierungstechnik realisiert werden können.

Diplomarbeitsposter Dori Thomas

Thomas Dori

Masterstudium Software Engineering & Internet Computing
Abstract:

Eine immer größer werdende Anzahl an Menschen ist mittlerweile im Besitz von Smartphones. Bei den Betriebssystemen für Smartphones sind Android, iOS, Windows Phone und Blackberry 10 die vorherrschenden Plattformen. Diese ermöglichen die Nutzung von sogenannten Apps, wobei es sich um speziell für mobile Geräte entwickelte Anwendungen handelt. Die Entwicklung solcher Anwendungen erfolgt in den meisten Fällen mit den plattformspezifi- schen Mitteln. Diese Form von Anwendungen wird als native Anwendungen bezeichnet. In den letzen Jahren haben sich jedoch auch noch weitere Alternativen zu nativen Anwendungen ent- wickelt. So können dem Benutzer z. B. auch Dienste über den Browser zur Verfügung gestellt werden. Diese Art von Anwendungen wird als Web Apps bezeichnet. Sollte es gewünscht sein, dass die App über einen Marktplatz angeboten wird, kann sie auch in eine native App verpackt werden. Eine solche App wird auch hybride App genannt. Welche dieser drei Architekturoptionen sich für eine bestimmte Anwendung am besten eignet, ist eine Designentscheidung, die relativ früh im Projekt getroffen werden muss. Um diesen Entscheidungsprozess zu unterstützen, ist es möglich, Entscheidungstechniken zu verwenden, die den Softwarearchitekten methodisch an die Auswahl einer geeigneten Architekturoption heranführen. Ziel dieser Arbeit ist es, basierend auf den relevanten theoretischen Grundlagen einen adaptierten Prozess zu entwickeln, der im Rahmen der Implementierung eines praxisrelevanten Beispiels evaluiert wird.

Diplomarbeitsposter Friedberg Ivo

Ivo Friedberg

Masterstudium Software Engineering & Internet Computing
Abstract:

Mit der Entwicklung und dem verbreiteten Einsatz von Informations- und Kommunikationsnetzwerken stieg auch der Umfang und die Komplexität von Attacken in diesen Netzwerken. Jüngste Vorfälle zeigen, dass aktuelle Sicherheitssysteme nicht ausreichen, um gezielte und gut vorbereitete Angriffe zu verhindern. War eine Attacke erst erfolgreich, ist eine zeitnahe Erkennung wichtig um die Auswirkungen einzudämmen. Mit der verbreiteten Anwendung von Internet Protokollen im Bereich von „Supervisory and Data Acquisistion“ (SCADA) Systemen sind industrielle Netzwerke oft schon jetzt den selben Bedrohungen ausgesetzt wie herkömmliche, vernetzte Systeme. Diese Arbeit präsentiert einen neuartigen Anomalieerkennungsansatz. Dieser basiert auf der zeitlichen Korrelaion von Log-Datein verschiedener Systeme in einem überwachten Netzwerk. Das System generiert ein Modell, welches das normale Verhalten verscheidener Komponenten im überwachten System beschreibt. Dabei verlässt sich das System nicht auf vordefinierte Regeln und benötigt auch kein Wissen über Syntax oder Semantik der Log-Zeilen, die es verarbeiten muss. Stattdessen wird das Model auf Basis der verarbeiteten Zeilen erstellt und fortlaufend weiterentwickelt, solange das Netzwerk überwacht wird. Ein vollständig kontrolliertes Netzwerk wird verwendet, um Testdaten zu generieren, die frei von Anomalien sind. Anhand dieser Testdaten wird gezeigt, dass das generierte Model in der Lage ist, aussagekräftige Teilmengen der verarbeiteten Zeilen zu unterscheiden. Diese Teilmengen werden weiters verwendet, um zu zeigen, dass auch Implikationen zwischen Ereignissen verschiedener, verteilter Komponenten erkannt werden. Basierend auf einem semi-synthetischen Datensatz, in dem Anomalien eingebaut sind, wird die Anwendbarkeit des Ansatzes in herkömmlichen IT-Netzwerken demonstriert. Weiters wird anhand eines Datensatzes aus dem Produktivsystem eines österreichischen Energieanbieters die Eignung im SCADA Bereich gezeigt.

Diplomarbeitsposter Grabner Marc

Marc Grabner

Masterstudium Technische Informatik
Abstract:

The IoT6 (Universal Integration of the Internet of Things through an IPv6 based Service Oriented Architecture enabling heterogeneous components interoperability) project was initiated in order to overcome the current fragmentation of the IoT, by putting efforts into research topics concerned with exploiting potential IPv6 features and to construct a service- oriented architecture, that sets on the vision of IoT by integrating various heterogeneous subsys- tems. This thesis provides an analysis of interoperability testing methodologies for the IoT based on the input and the information gained from two research projects (PROBE-IT, IoT.est), that put their focus on testing issues within the IoT domain. The result is a light-weight testing methodology based on a generic testing framework developed by the European Telecommunica- tions Standards Institute, which has been adapted for our purposes. Subsequently, the developed methodology has been applied to an example use case scenario provided by the IoT6 project, to evaluate the functionalities of the different architectural components, where the focus of the use case was placed on multi-protocol integration of legacy device technologies

Diplomarbeitsposter Hackl Martin

Martin Hackl

Masterstudium Informatikmanagement
Abstract:

Nachdem die in der österreichischen Justiz etablierten Methoden zum Management der IT-Unternehmensarchitektur aufgrund der stetig steigenden fachlichen und technischen Komplexität sukzessive an ihre Grenzen stoßen, wurde im Rahmen dieser Arbeit das Potential für neue Methoden und Werkzeuge auf Basis des The Open Group Architecture Frameworks (TOGAF) untersucht. Dazu wurden die unterschiedlichen Elemente von TOGAF analysiert sowie entsprechende Einsatzszenarien im Justizressort untersucht. Dabei wurden auch die speziellen Anforderungen an die Unternehmensarchitektur des Justizressorts berücksichtigt, welche sich aus (ver-fassungs-) rechtlichen Rahmenbedingungen wie der Unabhängigkeit der Gerichte, der Gewaltentrennung oder dem IKT-Konsolidierungsgesetz ergeben. Im ersten Teil der Arbeit wird eine detaillierte theoretische Aufarbeitung der Themengebiete E-Government, E-Governance und E-Justice durchgeführt, sowie eine Abgrenzung der Begriffe vorgenommen. Der zweite Teil der Arbeit widmet sich der theoretischen Auseinandersetzung mit dem Thema Unternehmensarchitekturmanagement sowie diesbezüglicher Rahmenwerke. Nach einer zusammenfassenden Beschreibung der wesentlichen Charakteristiken von TOGAF wird der Status Quo der österreichischen E-Government Strukturen sowie der bestehenden Unternehmensarchitekturmanagement-Methoden in der österreichischen Justiz analysiert. Den im Zuge dieser Analyse identifizierten Optimierungspotentialen werden in weiterer Folge Lösungsansätze aus dem TOGAF-Framework gegenübergestellt. Die dargestellten Lösungsansätze werden hinsichtlich ihrer spezifischen Ausgestaltung beschrieben und anschließend zu Arbeitspaketen zusammengefasst, womit eine Roadmap zum Ausbau des Justiz Unternehmensarchitekturmanagements konzipiert wird. Abschließend findet sich ein Curriculum, welches einen Rahmen für begleitende Trainings anbietet und auch als Basis für ein langfristiges Ausbildungskonzept herangezogen werden kann.

Diplomarbeitsposter Ilo Nikola

Nikola Ilo

Masterstudium Software Engineering & Internet Computing
Abstract:

Software interrelationships, like software dependencies, have impact on the quality and evolution of software projects and are therefore important to software development and maintenance. Sophisticated systems have been created to define, manage, and utilize relationships in software processes. Examples for this are package management systems of Linux distributions and build systems like Apache Maven. These systems are clustered in software-ecosystems, which most of the times are syntactically and semantically incompatible to each other, although the described software can overlap. Currently there are no viable systems for querying information across different ecosystems. This thesis is about how to overcome semantic and syntactic borders of software ecosystems and thereby enable practical usage of information about software interrelationships in software development and maintenance. An iterative approach was used to develop a prototype, which enables integration of - and therefore queries across - different software ecosystems. Particular emphasis was placed on the extendibility and the scalability, i.e., to be able to easily integrate new and many ecosystems. Semantic Web technologies showed to provide a suitable framework to approach this task. Several ecosystems, like Debian/Ubuntu repositories, and CVEs and CPEs defined by the NIST, were used to evaluate data integration. Additionally small applications, like a vulnerability notification system and license violation detector were used to show the usefulness of aggregated cross-ecosystem-interrelationships. Contributions of this thesis consist of: a distributed architecture for data retrieval, parsing, mapping, post-processing and querying of generic data into semantic RDF data model; an abstract owl-ontology for semantic modeling of inter-software relationships; and a model for processing temporally scoped RDF statements using SPARQL without previous normalization of observation times to time periods.

Diplomarbeitsposter Oberhumer Helene Sophie

Helene Sophie Oberhumer

Masterstudium Technische Informatik
Abstract:

In safety-critical environments, reliable communication is essential in order to prevent situations with severe consequences. To increase the reliability of communication systems, the concept of fault tolerance can be applied, which is basically achieved by hardware redundancy like redundant links in the context of data communication. Networks with redundant paths entail the necessity of a network protection and recovery protocol. Due to the increasing importance of the Internet, network technologies such as Ethernet and IP find their way even into the automation domain. However, different restrictions and additional demands, such as limited network bandwidth and special real-time requirements, have to be considered in this area. Although many different fault-tolerant communication technologies are available, they are mainly intended for use in high-performance communication systems with a limited number of network nodes. This work provides an overview of the state of the art of such protocols. Subsequently, an important representative, which is based on a ring topology, is examined using simulation. The communication system under investigation operates at DLL and is based on Ethernet, the data exchange is based on IP. It offers further QoS mechanisms to categorize the data traffic. The simulation studies are based on networks which consist of links with a bandwidth of less than 1Mbps, operating in half duplex mode. The Media Redundancy Protocol (MRP) is selected and examined under the restrictive conditions stated above. The simulation studies are performed with the discrete-event simulation environment OMNeT++ in combination with the INET framework, which is extended by an MRP model. The investigations explore the scalability of MRP with various parameter values and the spatial and temporal distribution of the network utilization. Beyond the results of the simulation, the analysis of the MRP discovers possible improvements for low-speed Ethernet connections.

Diplomarbeitsposter Paulhart Markus

Markus Paulhart

Masterstudium Informatikmanagement
Abstract:

Social network is a well-known term for a communication form in private environments. Since several years this technology is used increasingly in the business sector in order to support the employees by enhancing communication with colleagues, supporting the user to find, learn and organize knowledge and also to show personal skills in a more transparent way. The purpose of this master thesis is to evaluate how promising and successful an implementation of such a technology in a business environment can be. Also part of this work was the question about what kind of forecast for adapting social networks as an internal business communication tool can be derived is. As a representative business social networking tool My Site, as part of the Enterprise Content Management (ECM) SharePoint, was chosen. The evaluation itself was carried out with the people of the YPP group by answering six surveys using the survey feature in SharePoint. For a proper analysis of the data a suitable tool had to be evaluated. Eventually the analysis was performed with the QlikView application SPSurvey Dashboard. The content of the surveys is about the use of SharePoint, their opinions on business social networks as well as the functionality and usability of the My Site software. The data analysis shows that the benefits of business embedded social networks were clearly recognized by the participants. Therefore social networks are a promising communication tool to be implemented in a company and may very well succeed in business environments.

Diplomarbeitsposter Pongracz Ferdinand

Ferdinand Pongracz

Masterstudium Informatikmanagement
Abstract:

Die Diplomarbeit befasst sich eingehend mit den theoretischen Grundlagen konstruktivistischer Pädagogik und bietet anschließend eine Analyse des Lehrbuchs "Angewandte Informatik für HTL", um mögliche Anwendungsbereiche des Konstruktivismus im Rahmen der Informatikdidaktik aufzuzeigen.

Diplomarbeitsposter Racz Michael

Michael Racz

Masterstudium Software Engineering & Internet Computing
Abstract:

The importance of security in the field of software development cannot be emphasized enough. Already known vulnerabilities like all kinds of injections are still very common. InjectionCop is a framework that helps to address cross cutting security concerns by adding custom type qualifiers to the type system of C#. Type qualifiers can be used to boost the expressiveness of the source code and define security requirements that are executable. Furthermore, requirements that are not met indicate vulnerabilities and are detected by static analysis of the assembly. InjectionCop is targeted to support and improve the development process by reducing the risk to introduce programming errors that affect security.

Diplomarbeitsposter Schachinger Daniel

Daniel Schachinger

Masterstudium Technische Informatik
Abstract:

Die Integration von Building Automation Systems (BASs) in das Internet wird durch das aufstrebende Konzept des Internet of Things (IoT) immer wichtiger. Es gibt jedoch eine Vielzahl von Technologien im Building Automation (BA) Sektor, die berücksichtigt werden müssen. Ein automatisierter Prozess muss definiert werden, um eine effiziente Möglichkeit zur Integration von BA-Netzwerken in das IoT zu schaffen. Gateway-Technologien wie Open Building Information Exchange (oBIX) stellen Web Services als Schnittstelle zwischen BASs und Building Management Systems zur Verfügung. Model-Driven Engineering (MDE) bietet einen Ansatz zur Erstellung eines automatisierten Integrationsprozesses auf Basis von Modellierungssprachen und Transformationen. In dieser Arbeit wird Model-Driven Architecture, eine MDE-Initiative der OMG, eingesetzt, um zwei Modellierungssprachen in Form von Metamodellen zu entwickeln. Diese Metamodelle sind konform mit einem gemeinsamen Meta-Metamodell und stellen Konzepte zur Erstellung von Modellen zur Verfügung, die wiederum Ausschnitte von Systemen repräsentieren. Das BAS Metamodell wird zur Definition von Platform Independent Models verwendet, die abstrakte Modelle von BASs darstellen. Das oBIX Metamodell definiert Platform Specific Models, da oBIX als Zieltechnologie verwendet wird. Der Transformationsprozess baut auf diesen Modellierungssprachen auf. Zunächst wird das BAS auf ein PIM abgebildet, welches durch eine Model-to-Model Transformation in ein PSM konvertiert wird. Zuletzt erzeugt eine Model-to-Text Transformation aus dem PSM den ausführbaren Quellcode für die Zielplattform. Zusätzlich wird eine Proof of Concept Implementierung vorgestellt, die auf der Entwicklungsumgebung Eclipse und der oBIX Integrations-Middleware IoTSyS basiert. Um die Funktionsweise der realisierten Konzepte zu veranschaulichen, wird ein experimentelles KNX-Netzwerk in ein oBIX-Gateway integriert. Diese Evaluierung verdeutlicht die Funktionsfähigkeit des Ansatzes.

Diplomarbeitsposter Spandl Andreas

Andreas Spandl

Masterstudium Business Informatics
Abstract:

Enterprise Resource Planning (ERP) systems are the central data storage systems of companies. They are designed to integrate different business units of a company and are even capable of integrating systems beyond the borders of a company. Thus business processes can be optimized and the communication and information management can be improved. For many years, accessing business data was possible only from desktop computers inside a company. With ongoing technological advances new mobile forms of devices, equipped with wireless connection technologies have been developed and laptops, which were used for mobile applications for a long time have been replaced by tablets and smartphones. Access to business data via these devices can provide a significant advantage for a company over its competitors. Business processes are developing fast. They must be modified and adapted to new circumstances more frequently than ever before. The tools for supporting these processes must be very flexible and have to be able to support different types of devices without any configuration or modification effort. As many of the existing solutions are static, they need to be adapted for additional functionality. In a globalized world, this might prove to be a disadvantage for companies and could even threaten their existence. The thesis at hand addresses precisely this trend. It evaluates existing technologies for integrating mobile devices into an ERP-System. Furthermore, technologies for a generic approach are evaluated and a generic solution is presented. In order to illustrate and evaluate the proposed approach, a Proof of Concept implementation, using SAP ERP as ERP-System, has been developed. The objective is to describe in detail the architecture of the proposed approach, the involved systems and the communication process, as well as to work out the pros and cons. Finally, an evaluation of the presented prototype was performed.

Diplomarbeitsposter Vogl Stefan

Stefan Vogl

Masterstudium Software Engineering & Internet Computing
Abstract:

In 2006, the first passports with an embedded RFID (Radio Frequency Identification) chip were released in Austria. Since then, all data printed on the passport, except the holder's size and signature, are additionally stored on this chip. This includes the name, date of birth and the picture printed on the data page. Since 2009, two fingerprints are stored on the chip as well. Due to the fact that the mentioned data are very sensitive, it should be well protected. In a worst-case scenario, an attacker would use his NFC-enabled (Near Field Communication) smartphone to read, replay or modify these data for malicious purpose. Currently, various mechanisms are implemented to secure this information. These mechanisms try to prevent attacks against RFID systems like skimming, cloning and data modification. This thesis provides an in-depth analysis of the security measurements implemented in the Austrian ePassport. After this analysis, a feasibility study is done on the found weaknesses. This study shows, which of the weaknesses can be practically exploited and what threats can arise of this exploitation. For practically exploitable weaknesses, a proof of concept is developed, whereas their emphasis lies on the availability of the hardware to show that no specialized equipment is necessary to attack ePassports. The results of this thesis show, that attacks are possible with consumer grade hardware, especially if taking into account special circumstances in the Austrian implementation of the ePassport. Some attacks can even be implemented on an NFC-enabled off-the-shelf smartphone.

Diplomarbeitsposter Weissbacher Michael

Michael Weissbacher

Masterstudium Software Engineering & Internet Computing
Abstract:

Modern web applications are increasingly moving program code to the client in the form of JavaScript. With the growing adoption of HTML5 APIs such as postMessage, client-side validation (CSV) vulnerabilities are consequently becoming increasingly important to address as well. However, while detecting and preventing attacks against web applications is a well-studied topic on the server, considerably less work has been performed for the client. Exacerbating this issue is the problem that defenses against CSVs must, in the general case, fundamentally exist in the browser, rendering current server-side defenses inadequate. In this master's thesis, we present ZigZag, a system for hardening JavaScript-based web applications against client-side validation attacks. ZigZag transparently instruments client-side code to perform dynamic invariant detection on security-sensitive code, generating models that describe how - and with whom - client-side components interact. ZigZag is capable of handling templated JavaScript, avoiding full re-instrumentation when JavaScript programs are structurally similar. Learned invariants are then enforced through a subsequent instrumentation step. Our evaluation demonstrates that ZigZag is capable of automatically hardening client-side code against both known and previously-unknown vulnerabilities. Finally, we show that ZigZag introduces acceptable overhead in many cases, and is compatible with popular websites drawn from the Alexa Top 20 without developer or user intervention.

Diplomarbeitsposter Wenzel Lukas

Lukas Wenzel

Masterstudium Business Informatics
Abstract:

With the recent advances in mobile technology, mobile devices have emerged from a luxury to a necessity in our lives. Especially the ability to be connected anytime and anywhere has become essential to a majority of smartphone users. As a consequence the mobile market is flourishing. The popularity of smartphones and tablets has increased the demand for high quality software in this area. In order to survive in this competitive market the use of software process models is advised. In recent years agile and lean methodologies have become very popular for the development of software, but there has only been little research about the applicability of these methods in the area of mobile applications. Therefore this master thesis aims to investigate the impact of agile and lean concepts in the field of mobile software development. In order to achieve that, the author proposes a new process model called ALP-Mobile which is a combination of scrum, kanban and extreme programming (XP). The introduced concept, in which fixed iterations in the development are waived, increases the flexibility of ALP-Mobile and furthermore helps to adapt to the fast pace of the mobile market. Practical experiences in the field of mobile application development are gathered in course of a case study executed within this research. Due to the conduct of qualitative interviews with experts in this area, the author is able to derive strengths and weaknesses of ALP-Mobile. The positive feedback received during the interviews is a first indicator that ALP-Mobile can bring real value to organizations working in the area of mobile application development.

Diplomarbeitsposter Zoffi Markus

Markus Zoffi

Masterstudium Software Engineering & Internet Computing
Abstract:

Das Testen von Software sowie ihre Qualitätssicherung sind feste Bestandteile des Software- Entwicklungsprozesses und tragen maßgeblich zum Erfolg eines Projekts bei. Aufgrund der Volatilität von Anforderungen, Komponenten, Applikationen und besonders von Benutzeroberflächen kann sich das Testen derselben als aufwändig und zeitintensiv herausstellen. Vor allem im Zusammenhang mit Modifikationen der Benutzeroberfläche kann die Konsistenz von Testfällen oder Testskripts wesentlich beeinträchtigt werden, da diese einen hohen Grad an Abhängigkeit von den Elementen der Benutzeroberfläche besitzen können. Durch eine Modellrepräsentation der Benutzeroberfläche und einen modellbasierten Testansatz könnte diese Problematik vermindert werden. Im Rahmen dieser Arbeit wird ein Ansatz für modellbasiertes Testen von Benutzeroberflächen entworfen und prototypisch implementiert. Die realisierte Applikation vereinfacht die Spezifikation von Testfällen und unterstützt den Tester bei der funktionalen Testfallerstellung, ohne dabei Programmierkenntnisse vorauszusetzen. Durch Verwendung des entworfenen Prototyps ist es dem Tester möglich, Testfälle anhand der Modellrepäsentation einer Benutzeroberfläche zu spezifizieren und diese anschließend als konkreten Testfall zu exportieren und in einen bestehenden Testprozess zu integrieren. Zu Beginn der Arbeit wird eine Einführung in die Grundlagen der relevanten Themenbereiche gegeben. Hier werden grundlegende Definitionen zum besseren Verständnis der Arbeit beschrieben sowie gängige Praktiken erläutert. Die nachfolgenden Kapitel der Arbeit umfassen theoretische und praktische Vorgehensweisen. Planungsprozesse wie eine Anforderungsanalyse und ein Architekturkonzept sowie eine heuristische Evaluierung des Designs der geplanten Benutzeroberfläche spiegeln den theoretischen Aspekt dieser Arbeit wider. Im darauffolgenden praktischen Teil wird bei konkrete Implementierung dargestellt und detailliert beschrieben.[...]

Diplomarbeitsposter Zrelski Christina

Christina Zrelski

Masterstudium Software Engineering & Internet Computing
Abstract:

Die Disziplin des Software-Testens hat in den vergangenen 30 Jahren stetig an Bedeutung gewonnen und ist heute wichtiger Bestandteil jedes Softwareprojekts. Aus Effizienz- und Kostengründen wird dabei häufig der Einsatz von Testwerkzeugen zur (Teil-)Automatisierung wiederkehrender und zeitaufwendiger Tätigkeiten angestrebt. Die Sicherung der Qualität grafischer Benutzeroberflächen ist besonders wichtig, da diese eine zentrale Rolle in der Interaktion zwischen einem Benutzer und einem Softwaresystem einnehmen. Die Erstellung von Tests gestaltet sich auf diesem Gebiet allerdings komplex und Ansätze zur Automatisierung von Testabläufen befinden sich oft erst im Anfangsstadium. Für das automatisierte Testen der Benutzeroberfläche javabasierter Desktop- Applikationen fehlen Informationen über die Verfügbarkeit, Praxistauglichkeit und den Reifegrad bestehender Werkzeuge. Diese Arbeit reduziert das angesprochene Wissensdefizit, indem sie sechs am Markt verfügbare, als Open-Source lizensierte Werkzeuge zum automatisierten Testen von Benutzeroberflächen javabasierter Rich-Client-Applikationen untersucht und vergleicht. Grundsätzlich gilt: Damit die Praxistauglichkeit bestehender Werkzeuge beurteilt werden kann, müssen diese anhand eines konkreten Fallbeispiels erprobt werden. Im Rahmen dieser Arbeit wurde hierfür eine bestehende Event-Management-Applikation ausgewählt, die aufgrund ihres Umfangs, ihrer Komplexität sowie der verwendeten Technologien als repräsentativ anzusehen ist. Neben dem Funktionsumfang der Werkzeuge werden insbesondere auch nicht-funktionale Qualitätskriterien wie Integrationsfähigkeit, Robustheit und Wartbarkeit der Testskripts betrachtet. Zu Beginn werden die theoretischen Grundlagen für die nachfolgende praktische Untersuchung geschaffen, indem das Konzept der grafischen Benutzeroberfläche diskutiert und in die Disziplin des Software-Testens eingeführt wird ...

Arbeitsbereich Computer Vision

Diplomarbeitsposter Hofmanninger Johannes

Johannes Hofmanninger

Masterstudium Medizinische Informatik
Abstract:

Medical imaging is used for diagnosis and monitoring in the daily routine of hospitals. Up to thousands of images are recorded every day in just a single hospital. A way to increase the accessibility of such massive image databases is Content Based Image Retrieval (CBIR). Rather than text based search engines, CBIR uses actual visual information to find visual similar images for a query image. Visual similarity is a subjective terminology that is bound to a certain context. Thus, no standard design or methodology to solve a CBIR problem exists. The present work focuses on the development and evaluation of specialized CBIR compo- nents for three dimensional medical images. One part of the work deals with the development of a visual descriptor (a numerical representation to describe visual features) that allows to com- pare the similarity of images. Typically, such a descriptor is visual data driven. Medical images may be provided with textual information in the form of meta data or radiology reports. This in- formation conveys semantic information as it indicates radiological relevant visual appearances. We propose a way to link visual features to such textual information. Besides the descriptors, a CBIR system needs an indexing method that enables fast near- est neighbor search functionality. Approximate nearest neighbor indexing methods are used to search the database of descriptor vectors. Real world data, recorded in the daily routine of a hospital is used to evaluate the components developed. Four anomalies that are visible in the lung are defined as information need. The results show, that semantic information improves the ranking of relevant images for three of the four anomalies. Effects of the approximate nearest neighbor search on the ranking quality are studied. Results show, that the use of approximate search methods can reduce the memory consumption by 98% without decreasing the retrieval quality considerably.

Diplomarbeitsposter Holzer Markus

Markus Holzer

Masterstudium Medizinische Informatik
Abstract:

In this thesis a novel approach to compute a 3D over-segmentation (supervoxels) for radiological image data is presented. It allows to cope with the high levels of noise and low contrast encountered in clinical data such as Computed Tomography (CT), Optical Coherence Tomography (OCT) and Magnetic Resonance (MR) images. The method, MonoSLIC, employs the transformation of the image content to its monogenic signal as primal representation of the image. The phase of the monogenic signal is invariant to contrast and brightness and by selecting a kernel size matched to the estimated average size of the superpixels it highlights the locally most dominant image edge. Employing an agglomeration step similar to the one used in SLIC-superpixels yields superpixels/-voxels with high fidelity to local edge information while being of regular size and shape. The proposed approach is compared to state of the art over-segmentation methods on the real-world images of the 2D Berkley Segmentation Dataset (BSD) converted to gray-scale, as well as on challenging 3D CT and MR volumes of the VISCERAL dataset. It yields a highly regular, robust, homogeneous and edge-preserving over-segmentation of the image/volume while being the fastest approach. For 3D volumes the method is 3 times faster than the state of the art. Due to its invariance to contrast and brightness it yields 11% higher recall rate when dealing with MR and CT volumes. There is also no parameter that needs to be tuned, increasing the usability of the method.

Diplomarbeitsposter Hödlmoser Stefan

Stefan Hödlmoser

Masterstudium Medieninformatik
Abstract:

Morphing beschreibt die Verschmelzung von Bildregionen, die von mehreren Eingabebildern stammen können. In dieser Arbeit wurde ein System entwickelt, das die Fähigkeit besitzt, mehr als zwei Eingabebilder zu einem Ausgabebild zu morphen. Obwohl beliebige Bilder akzeptiert werden, liegt der Fokus auf altertümlichen Münzbildern, die alle einen gemeinsamen Typ aufweisen. Zur Zeit der Entstehung dieser Münzen, stellte jeder Münzprägestempel ein Unikat dar und musste nach einer gewissen Anzahl von Prägeiterationen manuell erneuert werden. Heutzutage können altertümliche Münzen abgenützt und beschädigt sein. Das Ziel dieser Arbeit liegt darin, automatisch Münzregionen zu finden, die in allen Eingabebildern vorkommen und diese in einem Ausgabebild zusammenzufassen. Somit werden Ausreißer, wie zum Beispiel Kratzer oder Abnützungen, automatisch aussortiert. Die zugrundeliegende Bildregistrierung erfolgt durch den Scale Invariant Feature Transform Flow Algorithmus. Der Einsatz eines Markov Random Fields trifft eine optimierte Kombination aller möglichen Bildregionen und störende beziehungsweise auffällige Übergänge entfernt die Anwendung eines Poisson-Gleichungs-Algorithmus. Die Evaluierung setzt sich aus zwei Teilgebieten zusammen, wobei im ersten die Flexibilität des Systems demonstriert wird, indem mehrere Datensätze zur Generierung eines gemorphten Bildes verwendet und dessen Ergebnisse präsentiert werden. Im Rahmen des zweiten Teilgebiets wird eine Klassifizierungsmethode vorgestellt, die die Frage beantwortet, wie gut das gemorphte Bild eine Klasse eines Bilddatensatzes repräsentieren kann. Die Energie des Scale Invariant Feature Transform Flow Algorithmus dient dabei als Ähnlichkeitsmaß zweier Bildinhalte. Es wird gezeigt, dass ein gemorphtes Bild dessen Klasse besser repräsentiert als ein einfaches Bild. Den Abschluss dieser Arbeit bildet eine detailierte Analyse der Klassifizierung altertümlicher Münzen mithilfe eines gemorphten Bildes.

Diplomarbeitsposter Moldan Herbert

Herbert Moldan

Masterstudium Medieninformatik
Abstract:

Der Ausbruch eines Feuers stellt eine große Gefahr für Menschen dar. In jüngster Zeit wurden Ansätze entwickelt um Feuer und Rauch kontaktlos zu erkennen - zumeist realisiert durch statische Kameras welche einen entsprechenden Bereich überwachen. Hierzu werden typische Merkmale von Feuer aus den Video-Daten extrahiert, um danach, anhand der erhalten Werte, zu bestimmen ob ein Feuer erkannt worden ist oder nicht. In dieser Diplomarbeit wird ein neuartiger Ansatz zur Feuer- und Raucherkennung vorgestellt. Hierzu werden die Daten von zwei Sensortypen kombiniert verwendet: eine Kamera welche ein Farbvideo erfasst und ein 3D Tiefensensor welcher die Entfernungen von Objekten zum Sensor bestimmt. Beide Sensoren sind bereits in Geräten wie der Microsoft Kinect vorhanden. Tests zeigen, dass Feuer zu einer sichtbaren Veränderung im Tiefenbild führt, während Rauch keine signifikante Änderung hervorruft und deshalb nur im Video-Stream erkennbar bleibt. Im Zuge der Diplomarbeit wird eine Methode vorgestellt, wo die Informationen aus dem Videostream verwendet werden um Feuer an Hand diverser Merkmale in Videos zu detektieren und zu lokalisieren. Zusätzlich werden die Daten des Tiefensensors verwendet um potentielle Feuer-Bereiche zu errechnen. Wird nun ein mögliches Feuer durch die RGB Kamera entdeckt, wird die Information des Tiefensensors verwendet um den Bereich auf seine Plausibilität hin zu überprüfen. Dieser kombinierte Ansatz vermindert die erkannten Falsch-Positiven (Feuer wurde erkannt obwohl kein wirkliches Feuer in der Szene vorhanden ist) um 97,46%, verglichen mit den Entscheidungen die alleine durch die Auswertung des Farbsensors getroffen wurden. Die Analyse von Testvideos deren Auswertung zeigt, dass das kombinierte Verwenden von beiden Sensoren die Erkennungsrate von echtem Feuer deutlich verbessert und die Falsch-Positiven effektiv reduziert. Selbst Aufnahmen von Feuer, welche über einen Bildschirm abgespielt wurden, wurden als Korrekt-Negativ erkannt.

Diplomarbeitsposter Präauer Michael

Michael Präauer

Masterstudium Medieninformatik
Abstract:

Medizinische, physische Rehabilitation ist die am häufigsten angewandte Methode zur Linderung von körperlichen Bewegungseinschränkungen die durch Unfälle, Krankheiten, Schlaganfälle oder hohes Alter verursacht werden. Physische Rehabilitation wird durch die wiederholte Durchführung von exakt definierten Rehabilitationsübungen erreicht. Diese werden von Physiotherapeuten zur Verfügung gestellt und von den Patienten sowohl in Therapiesitzungen als auch zu Hause durchgeführt. Das Problem bei der Durchführung der Übungen zu Hause ist jedoch, dass kein Therapeut die Richtigkeit der Übungsdurchführung überprüfen kann. Das Ziel dieser Arbeit ist zu überprüfen, ob kostengünstige Tiefenkameras eine geeignete Technologie für computerunterstützte Rehabilitation im Heimbereich darstellen. Im Zuge dieser Diplomarbeit wurde eine Software entwickelt, die den Patienten dabei helfen soll ihre Rehabilitationsübungen zu Hause korrekt durchzuführen. Das System basiert auf einer Tiefenkamera wodurch die Bewegungen der Patienten aufgezeichnet und analysiert werden. Aus diesen Daten wird eine vereinfachte Skelettstruktur des Körpers der Patienten rekonstruiert und die Bewegungen werden in Echtzeit mit vordefinierten Referenzübungen verglichen. Basierend auf den berechneten Bewegungsabweichungen wird visuelles Feedback über Fehler in der Übungsdurchführung der Patienten generiert. Zusätzlich soll die Applikation auch die Motivation der Patienten für eine regelmäßige und genaue Durchführung ihrer Übungen zu Hause steigern. Das System unterstützt beliebige Rehabilitationsübungen, die an die momentane Verfassung der jeweiligen Patienten angepasst werden können. Die Ergebnisse der Evaluierung sind sehr vielversprechend und die Software ist in der Lage zwischen richtiger und falscher Übungsdurchführung zu unterscheiden. Nutzerbefragungen im Zuge der Evaluierung zeigten außerdem positive Ergebnisse in Bezug auf Verständlichkeit, intuitive Interaktion und Motivation.

Institut für InformationssystemeE184

Arbeitsbereich Distributed Systems

Diplomarbeitsposter Claeßens Markus

Markus Claeßens

Masterstudium Software Engineering & Internet Computing
Abstract:

Today's Internet of Things (IoT) landscape is fragmented by proprietary solutions offered by different vertical industries, leading to heterogeneous environments in terms of domain- and vendor-specific communication protocols, data models, and control devices. Furthermore, the automation of application deployment in IoT framework environments is barely supported and the management procedures are not portable due to the lack of standardization. Thus, the operation of IoT solutions requires time consuming manual configuration and detailed knowledge about each gateway framework in use. Interestingly, quite similar problems appeared in the domain of cloud applications. The absence of standardized APIs led to heterogeneous cloud environments making vendor-specific application life-cycle management procedures necessary. The OASIS Topology and Orchestration Specification for Cloud Applications (TOSCA) was introduced to facilitate the definition of the topology of applications and their life-cycle management in a portable way. The goal of this work is to investigate how TOSCA can be applied to the IoT domain to automate application deployment and life-cycle management in a portable and reusable way. The structure of IoT applications is composed of reusable components which capture detailed management knowledge. Their behaviour is defined by life-cycle management procedures which are defined in a portable and interoperable way. Furthermore we show how the device virtualization proposed in the IoT PaaS architecture can be accomplished by applying TOSCA. To show the feasibility of this approach, a prototype that implements a building automation use case is developed, based on the OpenTOSCA runtime environment. The prototypical application consists of two Air Handling Unit (AHU) instances which are deployed onto two distinct gateway frameworks -- Sedona and Niagara.

Diplomarbeitsposter Grygorenko Dmytro

Dmytro Grygorenko

Masterstudium Software Engineering & Internet Computing
Abstract:

Die Anbieter von Cloud-Computing haben in den letzten Jahren durch das Angebot von hochverfügbaren und skalierbaren Services ein schnelles Wachstum erfahren. Dennoch zwingen die steigende Nachfrage der Kunden nach Ressourcen und der vom Wettbewerb bestimmte Markt die Anbieter dazu, ihre Datenzentren zu erweitern, was einen enormen Stromverbrauch und den Einsatz von wirtschaftlicheren Plänen für die Bereitstellung von Ressourcen zur Folge hat, worunter die Qualität der Services leidet. In dieser Arbeit stellen wir einen neuen Ansatz für ein kostenbewusstes Cloud-Energiemanagement vor, das die effektive Platzierung der virtuellen Maschinen (VMs) von Kunden in Cloud-Datenzentren ermöglicht. Dieser Ansatz besteht aus zwei Phasen: Zunächst erschaffen wir ein Model der Cloud-Infrastruktur, das Bayessche Netze (BNs) nutzt. BNs erlauben die Anwendung von Wissen über Domains, um versteckte und kausale Zusammenhänge zwischen unterschiedlichen Teilen der Cloud-Infrastruktur zu finden. Zweitens treffen wir Entscheidungen über eine effektive Platzierung der VMs, um Kosten des Cloud-Anbieters zu senken. Hier wenden wir Multikritierien-Entscheidungshilfen an. Dieses Verfahren hilft dabei, den Nutzen einer bestimmten Entscheidung quantitativ zu messen. Die relevante Forschung, die auf diesem Studiengebiet bereits getätigt wurde, deckt nicht alle Aspekte des Problems ab. Unsere Studie richtet den Blick insbesondere konkreter auf geo-verteilte Datenzentren, die häufig von Stromausfällen betroffen sind und in unterschiedlichen Zeitzonen bei sich ständig ändernden Außentemperaturen betrieben werden. Zusätzlich dazu haben wir ein Simulations-Kit entwickelt, das wir für die Validierung unserer Algorithmen verwendet haben, indem wir eine Leistungsbewertung durchgeführt haben. Die Ergebnisse der Experimente beweisen eine gute Leistung und Anwendbarkeit des vorgeschlagenen Models und sein hohes Potential, in verschiedenen realen Szenarien betrieben zu werden.

Diplomarbeitsposter Patonai Peter

Peter Patonai

Masterstudium Software Engineering & Internet Computing
Abstract:

This thesis addresses the problem of elastic cloud resource scaling. Cloud providers have to offer on-demand resource provision for time varying workloads. This often leads to SLA violations on application level, or energy waste due to providing more physical resources for the hosted applications than needed. Providing always as much physical resources as needed, results in QoS stability for the hosted applications. Also, significant reduction of electricity consumption can be achieved by dynamically turning down unused resources. This makes the cloud providers more competitive. Thereby we describe an adaptive and scalable scheduling infrastructure. This monitors the cloud applications, selects automatically an appropriate statistical forecasting method. Then, based on the forecast values, optimizes the resource allocation in the cloud. The contribution of this thesis is three-fold: (1) It presents a detailed survey about the available forecasting and time series analysis tools. (2) It provides a flexible and automatic classification framework to choose the best fitting forecasting method, based on the features of the monitored traces, such as trend, seasonality, and variance. (3) In the course of the work, a cloud simulator is developed in order to compare different forecasting methods, how accurately they can predict SLA violations. During the work it was observed that many cloud applications are exhibiting daily periodical fluctuations in terms of resource needs. Thus, we are focusing on seasonal forecasting. We compare these seasonal forecasting methods by the number of correct, incorrect and false positive predictions of SLA violations. In relation to the simulation we discuss additional aspects, such as heuristic based target machine selection and migration, the usage of forecast values to create scheduling rules, and the adaptive error corrections.

Diplomarbeitsposter Paudel Sarita

Sarita Paudel

Masterstudium Software Engineering & Internet Computing
Abstract:

With the increasing popularity of cloud computing, security in cloud-based applications is gaining awareness and security is regarded as one of the most crucial factors for the long-term success of such applications. Despite all the benefits of cloud computing, its fate lies in its success in gaining trust from its users that can be achieved only by ensuring safe and secure cloud environments. The objective of this research is to evaluate currently existing security standards and tools for Critical Infrastructure (CI) in cloud computing with focus on software development standards and tools to discuss their applicability in this context and to discuss how they support development of secure software and system engineering. A show case for a surveillance video or image storage system is used to experiment with a software development tool. We have identified security issues from literature review and experimentation with the show case. We have developed a multidimensional taxonomy based on the identified security issues and the existing standards and tools. The development of a multidimensional taxonomy is based on open security issues for CI in the Cloud, points out multiple standards and tools, and map security requirements to the available standards and tools. This multidimensional taxonomy will help software developers to identify appropriate means for creating secure cloud applications in CI domain.

Diplomarbeitsposter Strasser Michael

Michael Strasser

Masterstudium Software Engineering & Internet Computing
Abstract:

The final outcome of this work is a generic model for different kinds of distributed event-based systems with a runnable monitoring and a simulation environment on top of that model, called EventSim framework. The model synchronizes its state with a real-world application through adaptors, where an example adaptor is generated for an illustrary example. The handling of these adaptors is also done in a generic way, so that more adaptors can be written for different systems. Since they are included in the corresponding real-world system, the framework itself is not changed while adapting to a new system. This provides a generic way of simulating different kinds of distributed event-based systems. Therefore, a simulator is provided which enables the simulation of several scenarios using different strategies. The system model is based on preliminary work. At first this domain model gets transformed to a generic programming model. This model is implemented using model-driven development (MDD). Using MDD makes the model completely independent from current event-based systems, as it is directly generated from the domain model. On top of this, the tool layer is located with connections to the simulator and injection possibilities for real-world adaptors. The routing in this implementation is a simple forwarding from one event processing agent (EPA) to another. This leaves complex routing algorithms open for future work. The scaling of the model can be handled by different strategies. The simulator is a standalone program which should provide some sample configurations files for the initialization of the model. The simulation itself can afterwards change the state of the model by applying different event manipulations or strategy changes. Evaluation of the framework is done by simulating several scenarios on an example event--based system with the help of the simulator. The connection to existing systems is tested using the Storm framework.

Diplomarbeitsposter Szente Eduard

Eduard Szente

Masterstudium Software Engineering & Internet Computing
Abstract:

Test coverage is a valuable tool for quality assurance in software development. It is the degree to which a system has been tested or used. This thesis describes concepts and the prototypical implementation of an efficient distributed API coverage computation framework for Web services. The coverage of an API is defined by the amount of distinct invocations actually performed in relation to the amount of possible distinct invocations. Due to the large amount of possible input parameters a full coverage of non-trivial APIs is infeasible. Hence equivalence classes or partitions are defined upon the domain of all possible input data. In the case of Web services the input domain is the set of all valid XML messages defined by the XSD within the WSDL. The first contribution of this thesis is an approach to partition the set of all possible Web services messages by computing a synopsis for each message which maps the message into the corresponding equivalence class. The mapping depends on values and structural properties of individual elements in the XML message, which are tested against userdefined expressions during runtime. Computing the API coverage involves processing all elements in a (potentially large) set of historical invocation data. The second contribution of this thesis is a scalable architecture for the framework, which is capable of determining the amount of covered equivalence classes (or domain partition subsets) in a set of invocation messages which is held distributed over multiple data nodes. The major share of the computing workload is carried out next to the data. For an efficient implementation the suitability of various NoSQL databases is discussed whereas the final prototype is implemented on top of an in-memory data grid. The concluding performance evaluation of the prototype proves the scalability of the approach, providing fast response times even for millions of invocation messages distributed over multiple data nodes.

Diplomarbeitsposter Zaslavska Kateryna

Kateryna Zaslavska

Masterstudium Software Engineering & Internet Computing
Abstract:

In den letzten Jahren sind Volumen und Vielfalt der sogenannten Big Data signifikant angestiegen. Mit der großen und wachsenden Menge an massiv unstrukturierten Daten wird die Bedeutung ihrer Verarbeitung, Speicherung, Aggregation und Analyse sowie der Ableitung von wertvollen Informationen größer. Mit der steigenden Anzahl an unterschiedlichen Arten und Quellen von Big Data wächst auch die Anzahl an Unternehmen und Open-Source-Anwendungen, Techniken und Modellen zur Ressourcennutzung für die Analyse von Big Data stetig an. Die meisten davon bieten grundlegende Techniken des Data-Minings an. Dennoch besteht ein signifikanter Unterschied in ihren Möglichkeiten der Skalierung, der Visualisierungsfähigkeit, der Leistung, der Erweiterbarkeit und der Verarbeitung von verschiedenen Datenspeichern. Obwohl zahlreiche Unterlagen verfügbar sind, in denen die Stärken und Schwächen beschrieben werden, beantworten diese nicht die Frage der Mitglieder dieses Geschäftszweigs, ob eine bestimmte Anwendung auf tatsächliche Probleme angemessen ist und sie zu einer effektiven Entscheidungsfindung führt. Das Hauptziel dieser Arbeit ist es, solche Applikationen und Werkzeuge für die Analyse von Big Data, z.B. Weka, KNIME, Apache Mahout und R, zu untersuchen und miteinander zu vergleichen. Dafür verwenden wir mehrere Zeitreihen realer Datensätze und vergleichen ihre Anwendbarkeit im Kontext. Zu diesem Zweck entwickeln und nutzen wir geeignete Szenarien, die verschiedene Techniken des Data Mining anwenden und Datenanalyse, Datenumwandlung, Bewertung der Genauigkeit des Models und Visualisierung beinhalten. Basierend auf den gewonnenen Ergebnissen werden Applikationen für die Analyse von Big Data bewertet und verglichen, indem zahlreiche quantitative und qualitative Messungen verwendet werden.

Arbeitsbereich Database and Artificial Intelligence

Diplomarbeitsposter Bucar Damir

Damir Bucar

Masterstudium Computational Intelligence
Abstract:

Die Ladeoptimierung Elektroautos wird in der nahen Zukunft ein immer wichtigeres Problem, wegen der hohen Energiemengen die in kürzester Zeit über das Stromnetz fliessen müssen. Ohne die Flexibilität bei der Aufladung zu nutzen besteht die Gefahr die vorhandene Netzinfrastruktur zu bestimmten Tageszeiten (Spitzenlast) zu überlasten. Das Optimierungsproblem, das in dieser Arbeit als Electric Vehicles Recharge Scheduling with Time Windows (EVRSTW) bezeichnet wird, ist eng mit den Problemen der Ablaufobtimierung scheduling mit Ressourcen-Restriktionen verbunden. EVRSTW gehört der Klasse von NP-kompletten Problemen, was bedeutet, dass die exakten Methoden nicht in der Lage sind große Probleminstanzen in vernünftiger Zeit zu lösen. In einer realen Umgebung sollten Algorithmen mit begrenzter Laufzeit eine (auch suboptimale) Lösung liefern können. Wir untersuchen die möglichen heuristischen Ansätze für das EVRSTW–Problem. Zuerst definieren wir die greedy Heuristik, welche eine sofortige Aufladung nach plug-in bewirkt. Da diese Heuristik schlechte Ergebnisse nachweist widmen wir uns der local ratio Technik. Da diese Methode immer noch viele Ladeanforderungen ablehnt, suchen wir nach weiteren Heuristiken. Basierend auf der lokalen Suche, wählen wir schließlich die min-conflicts Heuristik (MCH) und definieren eine passende Nachbarschaftsrelation zwischen Lösungen. Wir vergleichen die drei heuristischen Methoden nach den vielfältigen Kriterien der Evaluierung. Diese zeigen, dass nur die MCH Methode es schafft, zulässige Lösungen zu generieren, indem sie die sämtlichen Aktivitäten erfolgreich einplant. Im Vergleich mit der exakten Methode (CPLEX Solver) zeigen wir, dass die Laufzeiten der MCH Methode bedeutsam kurzer sind, und das bei einer akzeptabler Lösungsqualität von 75% bis 93% vom Optimum. Dadurch ist die MCH Methode ein guter Kandidat für die Anwendung in Onlinemodus, und kann im Ladestation-Controller eingebaut werden.

Diplomarbeitsposter Stoilkovska Ilina

Ilina Stoilkovska

Masterstudium DDP Computational Logic (Erasmus-Mundus)
Abstract:

Since the publication of Codd's paper, the relational databases have dominated the database world and are still in wide use nowadays. With the advance of the Web technologies, the database research community has oriented its focus on bridging the gap between the traditional ways of storing data using relational databases and the novel techniques of transferring data on the Web. XML has emerged as a standard for data transmission on the Web, by setting its main goal to be providing a simple and efficient way of storing and transferring data. Problems such as data integration, data exchange and answering queries using views have become a topic of interest in recent years, and their formalization in an XML setting has received a significant amount of attention. In this thesis, we propose a unified framework for analyzing and comparing the features of a multitude of works that analyze these problems in the context of XML. We introduce a query language for XML trees, called extended tree patterns, which allows us to define XML mapping assertions that successfully capture the expressive power of the mapping assertions used in a large subset of the works that we overview. We classify different approaches based on the expressive power of their mapping assertions and point out the similarities and differences along several criteria. Finally, we give an overview of the problems that have been addressed so far, and identify which specific variants of the respective problems have not been tackled yet.

Arbeitsbereich Formal Methods in Systems Engineering

Diplomarbeitsposter Dobiasch Martin

Martin Dobiasch

Masterstudium Computational Intelligence
Abstract:

One of the main difficulties for testing concurrent software is determining the order in which the statements from different threads have to be executed. Weak memory models, which describe the memory architectures of modern processors, can further increase the number of possible executions. Weak memory models allow certain deviations from the expected thread-local program order. For modern memory hierarchies computations are distributed over several computing cores. The consequence of such behaviours can be software bugs that are hard or even impossible to detect with conventional testing techniques. Most testing tools are based on the assumption of the Sequential Consistency model, i.e., that these effects cannot occur. This thesis presents CONCRESTWMM, a concolic testing tool for concurrent software that is able to simulate the effects of weak memory models during an execution of a program under test. CONCRESTWMM is implemented as an extension of the tool CONCREST , a testing tool for concurrent software. As a central component, CONCRESTWMM adds a WMM-Scheduler. By using WMM-schedules it is possible to select a WMM and to trigger effects of this model at specific points during the execution of a test case. Thus, the tool CONCRESTWMM offers the possibility to discover bugs that can occur on real-world processor architectures that do not adhere to Sequential Consistency but to another WMM. Two WMMs are implemented as part of this thesis. First, the WMM Sequential Consistency which can be used to simulate the behaviour of CONCREST and second, the Partial Store Order (PSO) WMM, a model which allows to delay the effect of a write event. To test the implementation of CONCRESTWMM and to show its capabilities, several exper- iments were performed. These examples are taken from the literature. The experiments show that on average CONCRESTWMM is only a constant factor of ∼ 1.15 slower than CONCREST when comparing both tools.

Diplomarbeitsposter Pani Thomas

Thomas Pani

Masterstudium Software Engineering & Internet Computing
Abstract:

Loop statements are an indispensable construct of imperative programming languages. At the same time, their ability to express indefinite iteration entails undecidable problems, as famously demonstrated by Turing's work on the halting problem. Due to these theoretic limitations, efficacy of a termination procedure can only be demonstrated on practical problems. Even though existing techniques tackle some but by far not all decidable cases, so far no established notion of difficulty with regard to handling loops exists. We propose to conduct a study that describes classes of loops and empirically determines difficulty of automated program analysis for each class. To arrive at this classification, we draw on a recent direction in software verification: Instead of treating programs merely as mathematical objects, we also consider them as human artifacts that carry important information directed at human readers of the program. This engineering information should be leveraged for automated program analysis, but is usually provided informally (e.g. as comments) or implicitly (e.g. as patterns followed by programmers).Motivated by the state of the art, this thesis conducts a systematic study of loops in C programs to classify loops based on the difficulty of automated program analysis. To arrive at our classification, we leverage the program's structure as imposed by the programmer: We introduce the class syntactically terminating loops, a common engineering pattern for which termination proofs can be obtained using minimal information. Subsequently, we derive the family of simple loops, which allows us to describe a majority of loops in our benchmarks while still capturing syntactic termination criteria well. Finally, we present our tool Sloopy and compare the identified loop classes with results experimentally obtained from Loopus, a tool to compute symbolic loop bounds. Thus we show that simple loops indeed capture the difficulty of automated program analysis.

Institut für ComputersprachenE185

Arbeitsbereich Programmiersprachen und Übersetzer

Diplomarbeitsposter Falbesoner Sebastian

Sebastian Falbesoner

Masterstudium Technische Informatik
Abstract:

Registerzuteilung befasst sich mit dem Problem, bei der Übersetzung von Programmen eine theoretisch unendliche Anzahl an Programmvariablen einer endlichen, kleinen Menge an verfügbaren Prozessor-Registern möglichst effizient zuzuordnen. Sie wird nach wie vor als eine der wichtigsten Compileroptimierungen angesehen. Die vorliegende Diplomarbeit beschreibt den Vorgang der Implementierung eines Registerallokators für einen kleinen Ein-Pass C-Compiler namens TCC. Dieser ist sehr schnell, erzeugt jedoch ineffizienten Code -- eine sehr einfache Art der Registerzuteilung wird nur auf Basis von Anweisungen gemacht. Unser Ziel ist es, Registerzuweisung auf Basis von ganzen Funktionen zu implementieren (d.h. einen globalen Registerallokator), um einen deutlichen Geschwindigkeitszuwachs zu erzielen. Als Voraussetzung für einen Registerallokator in TCC muss ein passender Zwischencode in einem ersten Durchlauf erzeugt werden. Darauf aufbauend führen wir dann die Lebensdaueranalyse der Variablen, Registerzuteilung und letztendlich die Codeerzeugung durch. Wir bestimmen die Lebensdauerintervalle der Variablen mit einem außergewöhnlich einfachen Algorithmus, der die sonst üblichen Techniken der Datenflussanalyse vermeidet. Für die Registerzuteilung benutzen wir Linear Scan, eine Strategie welche das Problem nicht auf Graphenfärbung reduziert, sondern lediglich einen sequentiellen Durchlauf von den aktiven Intervallen der Variablen benötigt. Unsere Implementierung für die ARM-Architektur erzeugt Code der im Durchschnitt um ca. 32% schneller ist, wobei sich die Übersetzungs-Zeit nur marginal erhöht und immer noch über zehn Mal niedriger ist als für gcc ohne jegliche Optimierung. Somit ist unsere Implementierung des Registerallokators ein guter Kompromiss für dynamische Codeerzeugung mit TCC.

Diplomarbeitsposter Grandits Philipp

Philipp Grandits

Masterstudium Software Engineering & Internet Computing
Abstract:

In recent years, parallelism and concurrency have become significant topics because applications need adequate language constructs in order to completely exploit the performance offered by multi-core processors and multi-processor systems. The active object pattern is an approach that tries to address such problems. It operates on method requests that are automatically generated whenever one of its methods is called. They are processed by an independent thread in order to decouple the invocation of an operation from its execution. The incoming requests are scheduled one after the other to guarantee that only a single method is performed at a time. The concept facilitates software development because synchronisation concerns are alleviated. However, there does not currently exist a Java implementation of active objects that integrates appropriately into the language. Therefore, this thesis addresses the question which functions and features are reasonable for such a realisation of the pattern, and how they can be incorporated into a library for Java through reflective programming and bytecode instrumentation. The first step to achieve this objective is to study associated literature. Certain advanced features are selected and cast into a model together with the basic functionality. The design is realised by a proof of concept implementation. Lastly, the suitability of the chosen constructs is evaluated. For this purpose, a concurrent scenario is programmed both conventionally and with the aid of the library to determine specific code and performance characteristics of the individual approaches. The analysis of the collected data shows that the presented mechanisms ease the development of parallel software because the focus is moved from the synchronisation to the actual core functionality of the components. The outcome also indicates that a well-integrated active object feature is a competitive approach if compared to standard Java concurrency.

Diplomarbeitsposter Gruber Fabian

Fabian Gruber

Masterstudium Software Engineering & Internet Computing
Abstract:

The Java Specification Request 292 (JSR-292) adds features to the Java Virtual Machine (JVM) specification [34] that facilitate high performance implementations of dynamically typed languages, most notable the new invokedynamic bytecode. The aim of this thesis is to implement all new features of JSR-292 in the CACAO Java Virtual Machine [30],[31]. Implementing the invokedynamic instruction requires several changes to the JVM, which interact with various subsystems such as the class file loader, the bytecode verifier, the JIT code generator and even the garbage collector. The OpenJDK class library contains a runtime bytecode generator [57] which implements parts of JSR-292. Unfortunately, the generator relies on a number of internal APIs of the HotSpot JVM and non standard extensions to the bytecode instruction set and a large part of this work was dedicated to porting these to CACAO. Most notable among these is that the generator as- sumes that its host VM can handle changes to a methods stack behavior during execution, which HotSpot handles by falling back to interpreted mode. With CACAOs JIT only approach to ex- ecuting bytecode this is currently not feasible, as a workaround OpenJDKs generator is reverse engineered and the dynamic behaviour of the bytecode is anticipated statically where necessary. Finally, the JSR-292 implementation of CACAO is compared to that of HotSpot and JamVM, two JVMs that also use the same bytecode generator framework, in order to gain insights on how low level implementation decisions impact performance.

Diplomarbeitsposter Rauch Dominik

Dominik Rauch

Masterstudium Software Engineering & Internet Computing
Abstract:

The Peer Model is a new design approach for distributed software systems. In contrast to other modeling languages it allows to model even complex systems in a very concise and sharp way without being tailored for a specific problem domain. It gains its strengths from a well-defined underlying space based framework, which is able to guarantee several system properties, so that the architect may focus on the actual coordination pattern design. Up to now there has not been a concrete software implementation available which would enable developers to transform Peer Models into executable software components. It has therefore been crucial for the practical use of the Peer Model to provide such an implementation - the PeerSpace.NET framework in hand. Earlier frameworks in the area of space based computing faced criticism in the area of API usability for developers. Denoted as “hard to learn”, it has been set as a major goal to build a framework with high API usability, offering the same comfort to developers as the Peer Model is providing to software architects. Therefore a fluent interface has been created on top of the core framework to support developers in their work. An extensive evaluation using two completely different methods from the area of qualitative and quantitative API usability assessment ensured that the solution indeed fulfills the given requirements. Altogether, the PeerSpace.NET framework allows developers to build scalable distributed software components based on the new Peer Model approach in a convenient and error-preventive way.

Diplomarbeitsposter Schermann Gerald

Gerald Schermann

Masterstudium Software Engineering & Internet Computing
Abstract:

In the area of software development, reuse is an essential factor. Developing each component of a new product from scratch is costly, includes risks and has negative influence on the time to market. Therefore, the strategic reuse of software components is an important factor for the success of companies. It can leverage existing software investment, companies can build systems out of well-tested components of proven quality which have been used a couple of times and thus, both risks as well as costs for development and testing can be reduced. The software product line approach follows this aim by creating a platform of flexible components which can be selected and combined to different products tailored to stakeholder requirements. This is achieved by software variability, which allows one to customize components for the use in a particular context. It enables cost efficient mass customization of components. In this work, a pattern based approach is presented which provides this software variability for the Peer Model, a programming model for modelling highly concurrent and distributed systems. Patterns are introduced as new components and their interrelations with the original components are described. Similar to the software product line approach, design decisions are delayed and fixed only when concrete instances are created. The pattern concept allows defining generic patterns depending on certain parameters or properties which represent these delayed decisions. Such decisions are not limited to minor effects; the variability allows for a far-reaching influence on the functionality provided by the pattern and thus, it opens up the possibility for reuse on a large scale. Moreover, as composition is heavily used, patterns can be combined and nested to form more complex patterns and to encapsulate functionality.

Arbeitsbereich Theoretische Informatik und Logik

Diplomarbeitsposter Aigner Andreas

Andreas Aigner

Masterstudium Business Informatics
Abstract:

Der Einfluss der menschlichen Persönlichkeit auf bestimmte Aufgaben wie der Teamarbeit und Teamleistung ist seit über einem halben Jahrhundert ein wichtiges Thema in der Softwareentwicklung. Forscher diskutieren auch heute noch über die verschiedenen Ansätze zur Analyse von Persönlichkeiten. Das Ziel der vorliegenden Arbeit ist es herauszufinden, ob sich die Theorie eines spezifischen psychometrischen Instruments (KTS-II) in der Praxis bestätigen lässt. Dies wird mittels einer umfangreichen Fallstudie, in welcher bestehende Softwareprojekt-Teams befragt werden, untersucht. Zunächst werden theoretische Grundlagen von psychometrischen Instrumenten analysiert und im Detail erläutert. Basierend auf den fachlichen Grundlagen zum Projektmanagement werden die theoretisch am besten passenden Präferenzen und Typen für Projektmitarbeiter und -leiter abgeleitet. Parallel dazu wird eine umfassende Literaturrecherche durchgeführt und die hier beschriebenen Typen erfasst. Dabei zeigte sich, dass die unterschiedlichen Publikationen zu diesem Thema sehr gut übereinstimmende Typen aufzeigen. Als Ergebnis des theoretischen Teils der Arbeit konnten zusammenfassend 10 Hypothesen aufgestellt werden. Im praktischen Teil der Arbeit wird eine Fallstudie durchgeführt, bei der 30 Projektteams aus 14 Unternehmen und insgesamt 243 Personen teilnahmen. Acht der 14 Unternehmen wurden online und 6 offline befragt. Danach wurden die erhobenen Daten ausgewertet, um die aufgestellten Hypothesen anhand der Ergebnisse der Fallstudie zu überprüfen. Durch die Ergebnisse der Fallstudie konnten 9 von 10 Hypothesen bestätigt werden. Weiters wird klar aufgezeigt, dass Projektmanager und -mitglieder einige sehr unterschiedliche psychometrische Eigenschaften haben. Durch die hohe Übereinstimmung der theoretischen Analyse mit den Ergebnissen der praktischen Fallstudie konnten die Validität, Aussagekraft und praktische Anwendbarkeit des KTS-II Instruments nachgewiesen werden.

Diplomarbeitsposter Benkö Peter

Peter Benkö

Masterstudium Business Informatics
Abstract:

Menschen, die ein neues Zuhause in einer Stadt suchen, legen großen Wert auf die Infrastruktur rund um ein potentielles Objekt. Die Struktur der Nachbarschaft mit nahegelegenen Einkaufsmöglichkeiten und anderen Einrichtungen beeinflusst die wahrgenommene Lebensqualität. Das steigende Interesse im Bereich von Open Data führt zur Verfügbarkeit von umfangreichen Datensätzen mit geographischen Standpunkten aller Art innerhalb von Städten, die von Unternehmen, Regierung oder offenen Quellen bereit gestellt werden. Im Rahmen der vorliegenden Diplomarbeit wird das Konzept von Lebensqualität aus der Domäne der Soziologie mit der Domäne der Informationstechnologie zusammengeführt, um einen Prototypen zu entwickeln, der je nach individuellen Vorstellungen Areale mit subjektiv hoher oder niedriger Lebensqualität auf einer digitalen Karte von Wien visualisiert. Das Ergebnis ist eine Client Applikation, die mit dem Server kommuniziert und die Areale mit dem jeweiligen Lebensqualitätsindex, dessen Berechnung auf Basis eines Algorithmus erfolgt, der im Zuge dieser Masterarbeit erarbeitet wurde, auf einer digitalen Karte über der Stadt Wien visualisiert. Es handelt sich um eine Form der Geovisualisation, die es den Benutzern ermöglicht, einen unmittelbaren Überblick über optimale und weniger geeignete Bereiche der Stadt zu gewinnen, je nach individuellen Anforderungen. Abschließend wird der entwickelte Prototyp im Rahmen von Interviews evaluiert, wobei sich eine ausgezeichnete Akzeptanz der Applikation und eine hohe Bereitschaft zeigte, sie beim Entscheidungsprozess, ein neues Zuhause zu finden, einzusetzen. Zukünftige Ausbaustufen werden diskutiert, die zu einem Realeinsatz im Rahmen von Immobilienplattformen führen könnten.

Diplomarbeitsposter Fellner Andreas

Andreas Fellner

Masterstudium DDP Computational Logic (Erasmus-Mundus)
Abstract:

We present two methods for proof compression. One method compresses the congruence reasoning part of SMT proofs to achieve length compression. We propose a novel explanation producing congruence closure algorithm and prove that finding the shortest explanation is NP-complete. The space compression method constructs proof node orders that allow deletion of nodes as early as possible during proof processing.

Diplomarbeitsposter Lachner Clemens Michael

Clemens Michael Lachner

Masterstudium Medizinische Informatik
Abstract:

Brain-Computer-Interfaces (BCIs) sind ein junges Themengebiet deren Aufgabe das Ableiten und Interpretieren von Gehirnströmen ist, welche meist mittels Elektroenzophalografie (EEG) erfasst werden. Die ersten Studien, welche die Grundlage heutiger BCI-Anwendungen bilden, wurden in den 1970 Jahren publiziert. Ein Anwendungsgebiet von BCIs ist die Realisierung einer Steuerung durch Gedanken. Die Arbeit befasst sich mit der Analyse gängiger Modelle zur Steuerung und Navigation in virtuellen 3D-Umgebungen via BCI. Auf Basis einer prototypischen Experimentreihe soll aufgezeigt werden was mit kommerzieller Hardware zum heutigen Zeitpunkt realisierbar ist.

Diplomarbeitsposter Reisecker Franz Florian

Franz Florian Reisecker

Masterstudium Medizinische Informatik
Abstract:

Wrist injuries are a common health issue affecting many people. After a medical diagnosis the patients are reffered to occupational and physical therapists that tailor a rehabilitation plan. Besides the immidiate therapy session with the therapists, there are a bunch of home exercises that need to be performed autonomously by the patients. Although these home exer - cises are crucial for the success of the treatment, many patients fail to execute them regularly and correctly. The wrist region grants the opportionity to practice pervasevily which makes smartphones an interesting option to support the therapy. To find the needed requirements for a prototype of a serious game a user centered design process containing two occupational therapists and eight physical therapists was used. This prototype shows the ability to directly transform common wrist rehabilitation exercises to movement patterns covered by the serious game. Additionaly further requirements were obtained from the therapists and serve as a solid foundation for further research in the topic of wrist rehabilitation, especially for future work covering the evaluation with patients and doctors on the road towards a market-ready application.

Institut für Computergraphik und AlgorithmenE186

Arbeitsbereich Algorithms and Complexity

Diplomarbeitsposter Klaffenböck Patrick Helmut Wilhelm

Patrick Helmut Wilhelm Klaffenböck

Masterstudium Computational Intelligence
Abstract:

Die Suche nach optimalen Pfaden ist ein Bereich der künstlichen Intelligenz, die in vielen Computerspielen eine Rolle spielt. Dabei sollten die berechneten Pfade einerseits natürlich intelligent wirken, die Berechnung selbst sollte aber möglichst wenig Zeit in Anspruch nehmen, weil die zu bewegenden Objekte im Idealfall sofort beginnen sollen sich auf ihre Zielposition zu zu bewegen. Die Spielwelt wird für das Pathfinding in eine Graphenstruktur überführt, in der dann mit dem A*-Algorithmus der kürzeste Pfad zwischen Start- und Zielpunkt gesucht wird. Um mit großen Suchräumen, besser umgehen zu können, wurden einige Methoden entwickelt die Spielwelt oder deren Graphendarstellung zu abstrahieren. Im Rahmen dieser Arbeit wurde eine dieser Abstraktions-Methoden, Triangulation Reduction, im MMO Research Framework Mammoth implementiert und mit zwei konkreten Suchalgorithmen getestet.

Diplomarbeitsposter Riedler Martin

Martin Riedler

Masterstudium Computational Intelligence
Abstract:

In dieser Arbeit entwickle ich exakte Lösungsansätze für das Network Design Problem with Relays (NDPR). Gegeben ist eine Menge K von Knotenpaaren, die in einem ungerichteten Graphen G=(V,E) kommunizieren müssen. Ein Signal wird vom ersten Knoten des Paares zum anderen gesendet. Nachdem eine Distanz von dmax zurückgelegt wurde verschlechtert sich das Signal zu sehr und muss durch Platzieren eines relays aufgefrischt werden. Als Alternative können neue Kanten eingefügt werden, um die zurückgelegte Distanz zu verkleinern. Jede Kante e in E hat Kosten w_e und eine Distanz d_e. Die Kosten um ein relay bei Knoten i in V zu installieren, betragen c_i. Das Ziel des NDPR ist es eine Menge von zu installierenden Kanten und relays auszuwählen, die Kommunikation zwischen allen Paaren in K ermöglichen, sodass die Summe aus relay- und Kantenkosten minimal ist. Das NDPR findet Anwendung im Netzwerkentwurf, wo Distanzbegrenzungen eingehalten werden müssen, um eine zu starke Signalverschlechterung zu vermeiden. Das Zurücklegen größerer Distanzen erfordert Komponenten zur Auffrischung des Signals. Ein anderes Anwendungsgebiet ist e-mobility. Elektroautos können nur eine bestimmte Distanz zurücklegen, bevor sie wieder aufgeladen werden müssen. Ladestationen sind teuer, deshalb möchte man nur so wenige wie nötig bauen. Die verfügbare Literatur zum NDPR umfasst hauptsächlich heuristische Ansätze. In dieser Arbeitstelle exakte Lösungsansätze vor, die auf mixed integer linear programming basieren. Die Modelle werden in Bezug auf die verwendete Transformation des Graphen unterteilt. Die erste Gruppe von Modellen basiert auf sogenannten "layered graphs" und die zweite auf sogenannten "communication graphs". Wir testen unsere Modelle mit modifizierten Instanzen aus der Literatur und neuen Instanzen mit einer größeren Anzahl an Knotenpaaren.

Diplomarbeitsposter Tus Alan

Alan Tus

Masterstudium Computational Intelligence
Abstract:

Today's shipping industry heavily relies on intermodal containers for quick and easy cargo manipulation. Container terminals are used as temporary storage for containers between two forms of transportation where containers are stacked into container stacks and those stacks are then ordered next to each other to form a container bay. To achieve high efficiency, all containers in a container bay have to be preordered in such a way that at pickup time all containers belonging to the current shipment are directly accessible by cranes. A problem of reshuffling a container bay to achieve a layout where each container is accessible by a gantry crane at pickup time, using a minimal number of container relocations, is called the Pre-Marshalling Problem (PMP). A gantry crane can reach any container that is located on top of a stack. This work considers a new extension of the classical PMP in which we assume that the containers will be picked up by a reach stacker. A container is accessible by a so-called reach stacker if it is located on top of the left- or right-most stack of a container bay. This implies additional constraints that are discussed in this master thesis. We call our extension the Two Dimensional Pre-Marshalling Problem (2D-PMP). We solve the 2D-PMP with two main approaches. First, we adapt a PMP strategic heuristic, the Least Priority First Heuristic (LPFH). Second, we use a metaheuristic, the Max-Min Ant System (MMAS). Furthermore, we investigate simpler greedy and randomized construction heuristics, a PILOT method, and a local search procedure. All algorithms are experimentally evaluated on benchmark instances. MMAS and 2D-LPFH are able to solve almost all instances. Among instances that both algorithms solved, results show that MMAS clearly outperforms 2D-LPFH as MMAS's solutions usually require less movements.

Arbeitsbereich Computergraphik

Diplomarbeitsposter Cornel Daniel

Daniel Cornel

Masterstudium Visual Computing
Abstract:

Stochastisches Sampling ist ein für die Computergrafik unerlässliches Hilfsmittel, das die Annäherung komplexer Funktionen in endlicher Zeit ermöglicht. Um den abzutastenden Bereich gleichmäßig und ohne regelmäßige Muster abzudecken, muss die Verteilung räumliche Gleichmäßigkeit ohne Regelmäßigkeit garantieren, was als Blue-Noise-Charakteristik bezeichnet wird. Zusätzlich zu diesem lokalen Kriterium sollen Samples auch global entsprechend einer Gewichtsfunktion verteilt werden. Die Erzeugung optimaler Blue-Noise-Verteilungen ist aufwändig, selbst approximative Algorithmen sind meistens entweder nicht für Echtzeitanwendungen geeignet oder haben deutlich schlechtere Verteilungseigenschaften. Forced Random Sampling ist ein neuartiger Algorithmus für Importance Sampling in Echtzeit. Samples werden erzeugt, indem eine vorberechnete Dithermatrix mit einer Schwellwertfunktion verglichen wird. Aufgrund der Konstruktion der Matrix weisen die resultierenden Samples lokal wünschenswerte Verteilungseigenschaften auf und sind zudem global an die gegebene Gewichtsfunktion angepasst. In dieser Arbeit wird eine effiziente und parallelisierbare Implementierung dieses Algorithmus vorgestellt und hinsichtlich der Verteilungsqualität und Laufzeit analysiert. Die Ergebnisse werden sowohl mit dem qualitativen Optimum für Blue Noise Sampling als auch mit dem aktuellen Stand der Technik des Importance Sampling in Echtzeit verglichen. Die Analyse von Sampleverteilungen umfasst einerseits mehrere Maße zur Beurteilung der räumlichen Verteilungseigenschaften und andererseits Fourier- und Differentialbereichanalysen zur Beurteilung der spektralen Verteilungseigenschaften. Mit diesen bewährten Methoden wird gezeigt, dass Forced Random Sampling zur Erzeugung von Samples mit annähernder Blue-Noise-Charakteristik in Echtzeit verwendet werden kann. Verglichen mit dem derzeitigen Stand der Technik liefert das vorgestellte Verfahren Samples höherer Qualität mit weniger Berechnungsaufwand.

Diplomarbeitsposter Langer Edith

Edith Langer

Masterstudium Medizinische Informatik
Abstract:

Biologists at the Institute of Molecular Pathology in Vienna scan brains of the species Drosophila melanogaster with a confocal microscope to find relations between genes, brain structure and behavior. The database contains now more than 40.000 volumetric images, which makes it time-consuming to search for an image of interest. Therefore it is very helpful to have a method which extracts information directly from the image and works on the perceptual level of content. A biologist can choose an image which shows interesting brain structures and as result images which are globally similar can be retrieved or if one is only interested in some parts, also a local comparison is possible. Comparing two images voxelwise would be on the one hand computational expensive and on the other hand unflexible concerning the gray values and the shape of the structures. Creating maximum intensity projections from three directions and applying a Principal Component Analysis (PCA) on the gray values overcomes the before mentioned drawbacks and delivers satisfying results.

Diplomarbeitsposter Möllinger Christian

Christian Möllinger

Masterstudium Visual Computing
Abstract:

In the so called information age, data is widely available. Sources include data collection as a byproduct (e.g., log files on a server, or as a more concrete example, movement profiles of smartphone users) and data generation for particular purposes (e.g., simulation runs, data gathered from sensors). To benefit from this huge amount of available data, the data must be analyzed and relevant information must be extracted. Visual Analytics has become an important approach to identify and extract relevant information from data, especially with big data sets. However, data can also contain erroneous values for different reasons, e.g., caused by defect sensors. In data warehousing projects, transforming and edit the data into a usable state can account up for 80% of the cost and the development time. This diploma thesis focuses on time-dependent data and presents an extension for the existing visual analytics framework VISPLORE, to support the user in the process of data editing. Using plausibility rules, the user can define data checks and imputation strategies. Three different overviews, a data-based overview, a group-based overview, and a rule-based overview provide insight into the structure of implausible data values and the defined plausibility rules. Implausible values can be imputed using the defined imputation strategies and existing visualization techniques are extended to enable the user getting an overview of the modified values. Real-world data is used to demonstrate two use-cases. Limitations of the provided overviews, e.g., scalability for a large number of plausibility rules, are discussed and ideas for future work are outlined.

Diplomarbeitsposter Rögner Clemens

Clemens Rögner

Masterstudium Visual Computing
Abstract:

Computer-generated video sequences with a frame-rate higher than the usual 24 images per second, such as 48 or 60 frames per second, have become more popular in the respective industries, due to more visual fidelity. This, however, results in more computational costs for the same length of the video sequence. One solution to this problem is the so-called frame-rate upsampling, which makes use of temporal and spatial coherence to approximate new frames and therefore saves computational time. Several methods have been published in this field, for the purposes of real-time rendering as well as for offline rendering algorithms. In this thesis, two new algorithms for fame-rate upsampling are introduced. Those are targeted at high-quality computer-generated images that feature various global-illumination effects. The two new algorithms make use of a video denoising method --the non-local means algorithm-- to find the appropriate pixel colors for the frame, that has to be upsampled. To find the corresponding pixels in another frame, the methods of this thesis either use existing color information or require additional data, which can be extracted from any global-illumination algorithm with minimal further computations. The proposed methods are aimed at handling reflections and refractions in the scene better than previous work.

Diplomarbeitsposter Steiner Bernhard

Bernhard Steiner

Masterstudium Visual Computing
Abstract:

Inexperienced users get more and more exposed to 3d-modelling applications due to the wider availability of 3d printers and other such hardware. Structure-aware shape manipulation is one way to help them adapting and extending 3d models without having to handle the complexity of a traditional 3d-modelling environment. Such systems support the user by adapting an object to changes introduced by the user while retaining global shape characteristics. This thesis presents a new method for describing symmetries in geometry The method describes the arrangement of parts in terms of a parametrized curve. Additionally, the part-relation system used to describe models in structure-aware modelling applications is extended to a layered graph model that can describe symmetries better. In this thesis, also an extension for finding better binary relations between adjacent parts is shown, which uses a connected-component search to identify binary relations that approximate the connectivity between the parts best. It is shown how all these methods are implemented in a propagation-based framework, which can handle user input via mouse and via touchscreen. Using this framework, a user study is presented, which came to the result that the system is well usable by inexperienced users.

Diplomarbeitsposter Steinlechner Harald

Harald Steinlechner

Masterstudium Software Engineering & Internet Computing
Abstract:

Three dimensional scenes are typically structured in a hierarchical way. This leads to scene graphs as a common central structure for the representation of virtual content. Although the concept of scene graphs is versatile and powerful, it has severe drawbacks. Firstly, due to its hierarchical nature the communication between related nodes is cumbersome. Secondly, changes in the virtual content make it necessary to traverse the whole scene graph at each frame. Although caching mechanisms for scene graphs have been proposed, none of them work for dynamic scenes with arbitrary changes. Thirdly, state-of-the-art scene graph systems are limited in terms of extensibility. Extending framework code with new node types usually requires the users to modify traversals and the implementations of other nodes. In this work, we use attribute grammars as underlying mechanism for specifying scene graph semantics. We propose an embedded domain specific language for specifying scene graph semantics, which elegantly solves the extensibility problem. Attribute grammars provide well-founded mechanisms for communication between related nodes and significantly reduce glue code for composing scene graph semantics. The declarative nature of attribute grammars allows for side-effect free formulation of scene graph semantics, which gives raise for incremental evaluation. In contrast to previous work we use an expressive computation model for attribute grammar evaluation which handles fully dynamic scene graph semantics while allowing for efficient incremental evaluation. We introduce all necessary mechanisms for integrating incremental scene graph semantics with traditional rendering backends. In our evaluation we show reduced development effort for standard scene graph nodes. In addition to optimality proofs we show that our system is indeed incremental and outperforms traditional scene graph systems in dynamic scenes.

Arbeitsbereich Bildverarbeitung und Mustererkennung

Diplomarbeitsposter Janusch Ines

Ines Janusch

Masterstudium Visual Computing
Abstract:

Die Menge der Gene eines Organismus nennt sich Genotypen. Phänotypen sind definiert als die Menge der beobachtbaren Eigenschaften dieses Organismus. Um den Zusammenhang von Genotypen und Phänotypen sowie den Einfluss von Umweltbedingungen auf den Phänotyp zu bestimmen, werden große Datensätze evaluiert. Eine automatische Analyse von Bilddaten ermöglicht die Auswertung dieser großangelegten Studien. Diese Diplomarbeit widmet sich dem Vergleich zweier graphbasierter Bild-Repräsentation: Medial Axis Transformation und Reeb Graphen und analysiert die Einsatzmöglichkeit dieser Abbildungen in der bildbasierten Pflanzen Phänotypisierung. Zur Phänotypisierung von Pflanzen wird ihre Struktur analysiert. Die wichtigsten Charakteristiken sind: Verzweigungen, Enden von Zweigen, sowie die Länge bzw. Dicke der einzelnen Zweige. Diese Eigenschaften werden von den verwendeten Graph-Repräsentationen erfasst. Bei der Abbildung der Pflanze, findet eine Projektion der 3D Wurzelstruktur in den 2D Raum des Bildes statt. Diese Projektion kann in Überlappungen von Wurzelzweige im Bild enden. Ein Vorteil der Reeb Graph Repräsentationen ist die Möglichkeit, Verzweigungspunkte sofort von Überlappungen unterscheiden zu können. Dies beruht auf der Eigenschaft der Reeb Graphen, dass durch die Überlappungen der Wurzeln im Bild Zyklen in der Graphstruktur entstehen und diese Zyklen einen Knoten vom Typ Sattel (merge) im Graph erzeugen. Um die Vorteile verschiedener Darstellungen und die entsprechenden Charakteristiken zu verwenden, wird eine Kombination der unterschiedlichen graphbasierten Repräsentationen benötigt. Dazu wird die Gleichwertigkeit der Graphen bewertet. Eine neue normalisierte graphbasierte Darstellung für Wurzelbilder wird präsentiert. Diese normalisierte Darstellung konzentriert sich auf die Abbildung der Verzweiungsstruktur und der Länge der Wurzeln und erlaubt effizienten Vergleich und Evaluierung von Wurzelbildern.

Institut für Gestaltungs- und WirkungsforschungE187

Arbeitsbereich Multidisciplinary Design

Diplomarbeitsposter Fikar Peter

Peter Fikar

Masterstudium Medieninformatik
Abstract:

Technological advancement influences our societies’ development and has a heavy impact on our daily lives. Computation and industrialization provide us with the opportunity to control many aspects of our lives by sitting in front of a computer screen, therefore a sufficient physical activity level, which is essential for our wellbeing and health, no longer portraits a necessity to maintain for many people. The relatively young field of research regarding digital games utilized in order to achieve serious effects is gaining importance in current scientific literature. Such games make use of the entertaining qualities of video games as a medium to achieve a variety of beneficial effects in users. This work documents our experiences in designing a game to encourage physical activity on a scientific and user feedback-driven basis in our attempt to challenge sedentary habits. We look into existing installments of gamified applications, serious games and exergames, propagating exercising activity and sharing similar goals, such as an increase of physical activity level, analyzing their central themes and their development process. We combine defined goals for physical activity and participant’s feedback, gathered throughout an iterative design process, into a fully functional mobile game in a serious context. The final digital prototype of this browser-based smart phone game will provide the vital basis for exploring our design decisions and evaluating their impact on the participating users. Through the applied scientific methods and the insights we aim to gain through exploring participant’s expectations and experiences, we seek to identify motivational factors within our design which are possibly key to overcome personal barriers to physical activity. Furthermore we seek to encourage increased physical activity and to identify the relating aspects in participants responsible for triggering a possibly successful change from sedentary behavior to a more active lifestyle.

Diplomarbeitsposter Habiger Michael

Michael Habiger

Masterstudium Medieninformatik
Abstract:

Der technische Fortschritt steht im wechselseitigem Einfluss mit der Gesellschaft und unserem Leben. Insbesondere Weiterentwicklungen in informatischen sowie industriellen Bereichen ermöglichen uns viele Tätigkeiten unseres Alltags sitzend, zum Beispiel vor einem Computer-Bildschirm, zu verrichten. Daher ist ein entsprechend hoher Grad an physischer Aktivität beziehungsweise Bewegung, welcher mit vorteilhaften Folgen für die Gesundheit und dem Wohlbefinden im Allgemeinen einhergeht, nicht mehr zwingend erforderlich. In diesem Zusammenhang erlangt das Forschungsfeld im Bereich von Videospielen mit ernstem Hintergrund (Serious Games) an wachsender Bedeutung. Unter Einbeziehung wesentlicher Eigenschaften von herkömmlichen Spielansätzen streben Serious Games darüber hinaus positive Effekte für die spielenden Personen an. Die Arbeit dokumentiert den benutzerzentrierten Design- und Entwicklungsprozess unseres Spieles, welches darauf abzielt, den Grad an körperlicher Aktivität zu steigern und gleichzeitig die Menge sitzender Tätigkeiten innerhalb des Alltags der Spielerinnen und Spieler zu verringern. Unter Berücksichtigung existierender Referenz-Systeme im Bereich von Exergames, Serious Games sowie Gamified Applikationen, welche ähnliche Absichten verfolgen, Nutzerfeedback im Rahmen wissenschaftlicher Methoden, sowie aus der Literatur abgeleiteten Empfehlungen bezüglich körperlicher Bewegung, wird in Folge ein digitaler Prototyp eines mobilen browser-basierten Spieles mit ernstem Hintergrund erstellt und beschrieben. Dieser Prototyp bietet dabei die Basis, um potentielle Barrieren im Zusammenhang körperlicher Aktivität zu identifizieren sowie motivierende Aspekte abzuleiten, welche geeignet sind, den Grad an Bewegung zu erhöhen. Dahingehend beabsichtigen wir eine erfolgreiche Verlagerung von sitzenden Tätigkeiten, hin zu einem gesteigertem Ausmaß körperlicher Bewegung unserer Probanden, welche durch unser Spiel hervorgerufen wird.

Diplomarbeitsposter Mattanovich Karoline

Karoline Mattanovich

Masterstudium Business Informatics
Abstract:

Obwohl heutzutage bereits viele verschiedene Kommunikationstechnologien verwendet werden, ist es nur möglich die Notrufzentrale über das Festnetz oder das mobile Netzwerk zu erreichen. Dies kann, zum Beispiel, bei Geiselnahmen zu Problemen führen, da es nicht möglich oder zu gefährlich ist zu sprechen. Neben den Problemen alltäglicher Notfallsituationen, ist es auch notwendig die Koordination in Krisen zu verbessern. Dort sollte, unter anderem, der Umgang mit nicht vorher angemeldeten Freiwilligen verbessert werden. Falls diese nicht richtig koordiniert werden oder nicht einmal zum Einsatz kommen, kann es passieren, dass in Zukunft weniger Freiwillige helfen wollen. Aufgrund der beschriebenen Probleme soll herausgefunden werden welche Kommunikationstechnologien für Notrufe geeignet sind, wie die Koordination in Krisen verbessert werden kann und wie Freiwillige in Katastrophen Kosten reduzieren können. Schlussendlich soll analysiert werden wie ein Unterstützungssystem für Einsatzkräfte aufgebaut sein sollte. Um diese Probleme zu lösen wurden die folgenden Methoden eingesetzt. Die passenden Notruftechnologien und Verbesserungsmöglichkeiten für Katastrophenkoordination wurden mittels Literaturrecherche herausgefunden. Für die Erstellung des Prototypen wurden als Erstes Experteninterviews durchgeführt. Deren Ergebnisse wurden für die Erstellung der Mock-ups verwendet. Für die Evaluierung kam ein Eye-Tracking Gerät zum Einsatz. Mit den erzielten Resultaten wurde ein Prototyp implementiert. Die Analyse zeigte, dass Kontextinformationen helfen können die Arbeit von Einsatzkräften zu verbessern und zu beschleunigen. Diese Informationen müssen besonders aufbereitet werden, damit sie tatsächlich die Entscheidungsfindung beschleunigen können. Für ein Unterstützungssystem für Einsatzkräfte ist es besonders wichtig, dass die Features sinnvoll gewählt werden. Sonst sind die User überfordert und das System dadurch kontraproduktiv.

Diplomarbeitsposter Rumpold Stefanie

Stefanie Rumpold

Masterstudium Business Informatics
Abstract:

Every third person has at least once searched for medical information online. The average online health information seeker starts with a search engine and in most cases, the user selects one out of the first ten search results. Due to the changes in the health care system, an informed consumer will be more important and take over more responsibility concerning their own health. Since everybody can contribute to the Internet it is questionable whether the information users find online are trustworthy enough to at least partly replace doctors or other health care professionals as an information source. There are certain certification programs which aim to help users to find high quality content but users do not know many of them. Since quality is a huge issue especially concerning health information, this thesis aims to find out whether users are able to distinguish between trustworthy and non-trustworthy sources. There- fore the characteristics which influence the users quality assessment shall be studied in detail. The practical part of the thesis is split into two phases. In the first part, interviews and eye- tracking are used to find out which criteria the users relate to when they judge the quality of medical content. Out of those findings, hypotheses were formulated which were tested in the second part with several prototypes. For each hypothesis at least two prototypes were created where single characteristics were manipulated to test whether the quality assessment of the user is influenced. The results of the practical part show to which amount users are influenced by popularity, brand, design, sources, date, author information, advertisement and content when they evaluate quality. Based on the results of the practical part it is questionable if users are able to distinguish high quality from poor quality content in most of the cases.

Arbeitsbereich Human Computer Interaction

Diplomarbeitsposter Czekierski-Werner Sebastian

Sebastian Czekierski-Werner

Masterstudium Medieninformatik
Abstract:

Unsere Gesellschaft ist geprägt von einer Alterung der Bevölkerung. Durch die immer höhere Lebenserwartung steigt auch die Anzahl der Personen die mit Demenz diagnostiziert werden. Regierungen und Gesellschaften müssen sich der Herausforderung stellen für eine wachsende Anzahl an Personen zu sorgen, die nicht mehr selbstständig leben können. Da Serious Games immer effektiver werden und erfolgreich genutzt werden können um Wissen weiterzugeben, bieten sie eine wichtige Gelegenheit um das Bewusstsein für Demenz in der Bevölkerung zu erhöhen. Ziel dieser Arbeit ist die Entwicklung eines Prototypen für ein Serious Game, das Spielern eine Möglichkeit zur Kommunikation mit einer demenzerkrankten Person geben soll. Spieler sollen so erfahren, welche Effekte die Krankheit auf eine Person hat und wie sie mit ihr effektiv kommunizieren können. Ein erster Prototyp wurde entwickelt und erlaubt es Spielern mit einem Chatbot zu interagieren, der die Anwesenheit einer älteren, demenzerkrankten Frau simuliert. Zusätzlich können Spieler diverse nicht fiktionale Materialien wie Bilder, Briefe, Passkopien und Personalausweise benutzten um die Frau in die Vergangenheit zurückzusetzen: sie erinnert sich so an vergangene Ereignisse und der Spieler kann dadurch mehr über sie in Erfahrung bringen. Es wurden drei verschiedene Arten von Minigames entwickelt, die dazu gedacht sind eine Abwechslung zum Hauptteil des Spiels zu bieten und den Spaßfaktor zu erhöhen. Das Spiel wurde einer Evaluation unterzogen. Expert Reviews haben gezeigt, dass die Idee des Spiels gut ankam. Allerdings gibt es noch einige Elemente die als verbesserungswürdig eingestuft wurden. Die Ergebnisse haben gezeigt wie wichtig der Spaßfaktor ist um die Motivation der Spieler aufrecht zu erhalten. Spieler konnten die Symptome von Demenz richtig aufzählen nachdem sie das Spiel gespielt hatten.

Diplomarbeitsposter Der Manuelian Maria

Maria Der Manuelian

Masterstudium Informatikdidaktik
Abstract:

Schon seit Aufkommen der ersten Filme wurde dieses Medium nicht nur zur Unterhaltung sondern auch zur Vermittlung von Erkenntnissen und Wissen eingesetzt. Doch schon bald stellte sich heraus, dass der bloße Einsatz von Filmen und Videos in Lernumgebungen noch nicht ausreicht, um Lernerfolge vergleichbar mit denen von Büchern und anderen klassischen Medien zu erzielen. So wurde schon kurz nach der Euphorie rund um die „neuen Medien“ Kritik an denselben immer lauter und es wurde klar, dass sie nicht das Allheilmittel im Umgang mit Lernmaterialien schlechthin waren, sondern es stellte sich heraus, dass der Aufbau und Einsatz von Videos gründlich durchdacht werden musste, um die gewünschten Effekte zu erzielen. Parallel dazu muss sich die Frage gestellt werden, wie solche im Aufbau gründlich durchdachten Videos im Zeitalter von Smartphones und YouTube denn aussehen sollten und ob derartige Gestaltungskriterien nicht je nach Anwendungsbereich völlig unterschiedlich aussehen könnten?

Diplomarbeitsposter Gruber Margit

Margit Gruber

Masterstudium Informatikdidaktik
Abstract:

Wie können Kinder und Jugendliche zu einem verantwortungsvollen Umgang mit persönlichen Daten motiviert werden? In dieser Arbeit wird ein alternativer Ansatz zu herkömmlichen Lernmethoden erarbeitet. Dazu werden zunächst detaillierte Informationen über die Zielgruppe, 9- bis 14-Jährige, gesammelt. Anschließend wird auf die konkreten Risiken und Gefahren eingegangen. Die mittels Literaturrecherche erarbeiteten Inhalte werden, unter Zuhilfenahme von Game Design Patterns, spielmechanischen Prinzipien und der zuvor erarbeiteten Theorie, als Brettspiel umgesetzt. Das Ergebnis ist ein spielbarer Prototyp eines Brettspiels, der im Unterricht eingesetzt werden kann. Das Lernspiel ist für drei bis fünf Personen und einer Dauer von 50 Minuten ausgelegt. Ziel ist, das Schaffen eines Bewusstseins für den verantwortungsvollen Umgang mit persönlichen Daten in sozialen Netzwerken und dem Internet. Der Prototyp wurde mittels Testspiele in drei Schulklassen evaluiert und damit die Spielbarkeit nachgewiesen. Insgesamt wurden so neun Testspiele in drei verschiedenen Altersgruppen durchgeführt. Die Evaluierung erfolgte anhand von Beobachtungen, Fokusgruppen und Fragebögen. Aufgrund dieser Ergebnisse wurden Teile des Brettspiels angepasst. 96 % der SchülerInnen würden das Spiel gerne nochmals spielen. Sie schätzten ihr Wissen zum Thema private Daten im Internet relativ hoch ein. Die Analyse, der im Spiel ausgesuchten Passwörter, Benutzername und Statusnachrichten, hat ergeben, dass die Selbsteinschätzung von der Fremdeinschätzung abweicht. Die Evaluierung hat gezeigt, dass der richtige Umgang mit Daten im Internet ein wichtiges Thema für Kinder und Jugendliche ist. Das Brettspiel eignet sich für den Einsatz im Unterricht. Die Mehrheit gab an, dass ihnen die behandelten Themen im Umgang mit ihren persönlichen Daten helfen.

Diplomarbeitsposter Grünauer Johannes

Johannes Grünauer

Masterstudium Business Informatics
Abstract:

In ihren Ursprüngen war gute Software durch Effizienz und korrekte Benutzung definiert. Technologischer Fortschritt machte Softwaresysteme für eine breitere Masse verfügbar, grafische Benutzeroberflächen kamen auf und mit ihnen das Forschungsfeld ”Usability”, das sich um einfach zu benutzende Produkte bemüht. Heute sind Computersysteme allgegenwärtig. Sie werden für Arbeit, Freizeit, soziale Interaktionen, uvm. verwendet. Softwaresysteme haben sich in den letzten Jahren schnell weiter entwickelt und während Usability einen wichtigen Aspekt der Interaktion darstellt, kann sie allein dennoch nicht erfassen was Benutzer heutzutage in Softwareprodukten suchen: sinnvolle und einprägsame Erfahrungen. Konzepte der ”User Experience” (UX) und der ”Interaktionsästhetik” gehen über Usability hinaus und betrachten Softwareinteraktionen ganzheitlicher. Sie setzen den Fokus auf den Benutzer, seinen Kontext und die aus der Interaktion entstehende Erfahrung. ”Experiential qualities” (EQ) beschreiben Eigenschaften solcher Erfahrungen. Ziel dieser Arbeit ist es, einen Katalog dieser EQs zu erstellen, die sinnvollere und einprägsamere Erfahrungen fördern. Dazu wird zunächst durch Literaturrecherche der Bereiche UX, (visuelle) Ästhetik, Interaktionsästhetik und Spieldesign der Stand der Technik evaluiert. Konzepte aus diesen Bereichen werden zusammengetragen, aggregiert und verfeinert bis ein Katalog von elf Konzepten gefunden wurde. Dieser Katalog wird anschließend auf eine Intranetapplikation angewendet. Verbesserungen der Interaktion werden aus dem Katalog abgeleitet und implementiert. Die Wirkung dieser Verbesserungen wird anhand der Durchführung offener Interviews mit Endbenutzern evaluiert. Diese Evaluierung hat gezeigt, dass die über den Katalog eingeführten Anpassungen die Wahrnehmung der Software positiv beeinflussen, allerdings entstehen dadurch auch einige Nebeneffekte, da die Benutzer ein verstärktes Bewusstsein für die Interaktion entwickeln.

Diplomarbeitsposter Hillbrand Michael

Michael Hillbrand

Masterstudium Medieninformatik
Abstract:

Boulderhallen bieten Besuchern eine Reihe vordefinierter Routen. Für die Markierung der Routen werden meist Klebebänder verwendet. Die Folge sind Kletterwände mit farbigen Griffen und Markierungen, welche das Auffinden einer Route erschweren können. Zusätzlich können sich Klebebänder frühzeitig von der Wand lösen. Das Markieren von Routen ist den Betreibern der Boulderhallen vorbehalten, wodurch von Kletterern definierte Routen nicht dauerhaft der Community zur Verfügung gestellt werden können. Ziel dieser Arbeit war, ein softwarebasiertes System für mobile Endgeräte zu entwickeln, welches die Möglichkeit bietet, Boulderrouten von Betreibern und Kletterern zentral zugänglich zu machen, um genannte Markierungsprobleme zu lösen. Um möglichst viele der Community angehörige Personen zu erreichen, wurde auf das Konzept der hybriden Applikationen zurückgegriffen. Betreiber wie auch Kletterer sollen definierte Routen einsehen und erstellen können. Für das Erstellen von Routen wurde ein Editor implementiert, der es ermöglicht, Markierungen auf einem Bild zu setzen und dadurch eine Route zu definieren. Das System wurde so entwickelt, dass es verschiedene Boulderhallen abbilden kann. Das Ergebnis dieser Diplomarbeit ist eine hybride Applikation für mobile Endgeräte die es erlaubt, Boulderrouten einzusehen und selbst zu erstellen. Für das Erstellen von Routen wird auf die Kamera des mobilen Endgerätes zurückgegriffen, vorhandene Routen können über diverse Filterfunktionen angepasst werden. Ein Bewertungs- und Kommentarsystem ist gegeben.

Diplomarbeitsposter Markovic Boris

Boris Markovic

Masterstudium Medieninformatik
Abstract:

Technologien für Senior-Communities die den Schwerpunkt auf den Menschen setzen und auf Werten basieren, werden besser akzeptiert. Um zu ermitteln, wie das moderne Altern durch Co-Design und Design Exploration profitieren kann, wurde folgende Fragenstellung konkretisiert: Wie werden Communities alternder Gesellschaften durch den Einsatz von Designmethoden und Designtechniken unterstützt, um neue Designlösungen zu eröffnen? Praktiken einer Senior-Community über kognitives Training in Wien werden erforscht und potentielle Designlösungen gefunden. Die Designmethode von Schön wurde als reflektive und benutzerzentrierte Co-Designmethode verwendet, um Community-Werte zu ermitteln. Durch Designtechniken wird eine offene Zusammenarbeit mit älteren Menschen unterstützt. Es wurden sowohl Designtechnik bezogene Aspekte ermittelt als auch Community-Werte erfasst. Wenn mit Communities älterer Gesellschaften gearbeitet wird, kann die Reflexionsmethode als wichtige Entscheidungshilfe im benutzerzentrierten Co-Designprozess verwendet werden bzw. muss Ungewissheit vs. Vertrauen zwischen Teilnehmende und DesignerInnen ausbalanciert sein. Es ist sowohl eine Moderatorin und ein Moderator als Leitfaden im Designprozess wichtig als auch das Augmentieren von Community-Aktivitäten bei Zeitmangel. Als Community-Werte wurden Aspekte über die „Trainings“-Komponente hinaus ermittelt. Die Community agiert als lokaler Knotenpunkt und Verteiler, um den Alltag zu diskutieren und dient als ein Ort, um neues Wissen zu kreieren und zu teilen bzw. um die eigene, lokale Nachbarschaft zu erweitern. Es wurden auch „positive Aspekte des Senior-Lifestyles“ erfasst, wie Aspekte der Selbstdarstellung, der Routinen und Freude bzw. Aspekte der Kommunikation über die Community-Funktionalität hinaus. Die gewonnenen Erkenntnisse werden abschließend in einem Designartefakt in Form einer Zukunftsvision für die kognitive Fitness Community als Collect Case Solution zum Ausdruck gebracht.

Diplomarbeitsposter Pavlovic Goran

Goran Pavlovic

Masterstudium Medieninformatik
Abstract:

Die modernen und virtuellen bzw. elektronischen Bankgeschäfte, wie z.B. das Onlinebanking stellen besonders für die Anwenderinnen und Anwender der älteren Generationen neuartige Arbeitsabläufe dar, die mit einigen neuen Herausforderungen gekoppelt sein können. Alleine das Bewältigen von Bankangelegenheiten ohne dabei entsprechende greifbare Bestätigungen, Belege, Quittungen etc. in Papierform hinterlegen zu können, führen zu ungewohnten Situationen, die bei den Anwenderinnen und Anwendern möglicherweise Unsicherheiten und eine fehlende Transparenz hervorrufen können. Im Rahmen diese Diplomarbeit wird ein Onlinebanking-Belegdrucker entworfen, der an die Bedürfnisse und Anforderungen der Seniorinnen und Senioren angelehnt sein soll. Durch die Einbeziehung der Seniorinnen und Senioren als Expert/-innen in eigener Sache, soll der Gestaltungsprozess unterstützt werden und die funktionellen sowie gestalterischen Anforderungen an das Design erforscht werden. Im Laufe des Projektes wurde ein 3D Modell eines Onlinebanking-Belegdruckers entworfen, der durch mehrere Interview- und Beobachtungsrunden mit potenziellen Anwenderinnen und Anwendern evaluiert wurde. Während des Entwurfs des Onlinebanking-Belegdruckermodells wurden verschiedene Eingangsvoraussetzungen, wie z.B. die absolute Wartungsfreiheit d.h. bis auf das Einlegen vom Papier soll der/die Anwender/-in keine Aktivitäten am bzw. mit dem Onlinebanking-Belegdrucker vornehmen müssen, beachtet. Aufbauend auf dem Onlinebanking-Belegdruckermodell und den definierten Eingangsvoraussetzungen wurden diese sowie weitere Anforderungen an diesen Drucker durch die potenziellen Anwender/-innen erforscht. Das Ergebnis der Arbeit liefert die Erkenntnisse der durchgeführten Studie und der sich damit ergebenden funktionellen und gestalterischen Anforderungen an den Onlinebanking-Belegdrucker.

Diplomarbeitsposter Ramsauer Daniela

Daniela Ramsauer

Masterstudium Medieninformatik
Abstract:

Demenz ist eine Erkrankung des Gehirns, die das Erinnerungsvermögen, Denken, Verhalten und die Fähigkeit alltägliche Dinge zu erledigen stark beeinflussen. The Zahl der demenzerkrankten Menschen steigt stetig. 2011 hatten 35.6 Millionen Menschen weltweit Demenz, diese anzahl wird sich bis 2030 verdoppeln und bis 2050 verdreifachen. Oft werden Symptome der Demenzkrankheit wie Vergesslichkeit, Veränderungen in Sprache und Verhalten als normale Alterserscheinungen wahrgenommen. Ziel dieser Arbeit ist es Bewusstsein für Syptome der Demenzkrankheit zu erschaffen, besonders jene die Sprache betreffend. Für diesen Zweck wurde ein Prototyp des ’Do I Know You?’ Spiels entwickelt. Das ’Do I Know You?’ Spiel besteht aus einem Chatbot, der eine reale Person darstellt. Der Charakter des Chatbots basiert auf einer realen Person namens Jane, sie ist ungefähr 90 Jahre alt und leidet an Demenz. In dem Spiel kann durch das Drücken verschiedener Stichwort-Buttons mit Chatbot Jane gesprochen werden. Die Antwort des Chatbots wird nach Drücken eines Stichwort- Buttons in einer Sprechblase ausgegeben. Diese Antwort kann - wie die Antwort demenzkranker Personen - vollständig oder nur teilweise richtig sein. Weiters gewinnt der/die SpielerIn nach Drücken bestimmter Stichwort-Buttons das Vertrauen von Chatbot Jane und diese übergibt Dokumente, wie zum Beispiel Fotos. Diese Dokumente können im weiteren Spielverlauf Chatbot Jane gezeigt werden, um Informationen über sie zu erhalten, bzw. um die Richtung der Unterhaltung zu beeinflussen. Die Evaluation des Prototyps des ’Do I Know You?’ Spiels hat gezeigt, dass ein Chatbot eine gute Möglichkeit zur Vermittlung der Symptome der Demenz bezüglich Sprache darstellt.

Diplomarbeitsposter Regal Georg

Georg Regal

Masterstudium Medizinische Informatik
Abstract:

In dieser Arbeit wurde ein mobiles Kommunikationsgerät, für eine nicht sprechende Anwenderin mit motorischen Behinderungen entwickelt. Als Gerät wird ein Netbook verwendet, welches am Rollstuhl der Anwenderin montiert ist und mit einen Kopfstab bedient wird. Die Entwicklung wurde als User Centred Design Prozess mit Verwendung der UserFIT-Methodologie und des „Scenario based Design“ Ansatzes von Benyon und Macaulay durchgeführt. In enger Kooperation mit der Anwenderin wurde erhoben, welche Anforderungen das Kommunikationsgerät abdecken soll. Auf Basis dieser Anforderungen wurden Szenarios entwickelt, ein Prototyp entworfen und implementiert. Das resultierende System deckt Text to Speech Kommunikation mit anwesenden Personen und über Telefon, sowie textbasierte Kommunikation über SMS, Email und Instant Messaging ab. Insbesondere wurde eine Schnittstelle entwickelt, welche es ermöglicht, aus Text synthetisierte Stimme (Text to Speech) über eine digitale Telefonverbindung (Voice over IP) zu übertragen. Die Sprechqualität ist dabei ein wichtiger Faktor und wurde im Detail evaluiert. Die Studien zur Sprechqualität zeigen, dass eine ausreichende Sprechqualität mit mobilem Internet (3G) nicht erreicht wird, und daher Text to Speech Kommunikation über Voice over IP noch nicht flächendeckend möglich ist. Im Rahmen eines ersten Usability Tests mit der Anwenderin konnte gezeigt werden, dass das System erfolgreich verwendet werden kann. Allerdings zeigte sich nach einer Langzeitevaluierung, dass noch Probleme bei der Kommunikation im mobilen Kontext bestehen. Lokal befindet sich das System erfolgreich im Einsatz. In Zusammenarbeit mit der Anwenderin wurde erarbeitet, wie das System verbessert werden kann. Insbesondere eine Änderung der Eingabemethode auf Einzelschalter wurde von der Anwenderin vorgeschlagen. Als Bachelorarbeit am AAT wurde von Kollegen eine Plattform mit Scan-Matrix und Einzelschalter entwickelt, auf dieser soll das System in Zukunft zum Einsatz kommen.

Diplomarbeitsposter Resl Moritz

Moritz Resl

Masterstudium Medieninformatik
Abstract:

Im Kontext der Lehrveranstaltungen Exploratives Design 1 & 2 wurde die Idee geboren, eine Applikation zu entwickeln, die Graffiti- & Street Art-Funde mobil katalogisieren kann. Diese Applikation wurde im Rahmen dieser Diplomarbeit umgesetzt. Mit ihr kann man Interessantes mittels Mobiltelefon oder vergleichbaren mobilen Geräten fotografieren und auf einer Karte eintragen. Es ist möglich, Funde anderer Personen zu entdecken und dem Postingstream beliebiger User zu folgen. Der Fokus der Entwicklung und Gestaltung der App wurde dabei nicht nur auf Funktionalität, sondern auch auf Ästhetik in der Erscheinung sowie in der Interaktion gelegt. Die Applikation mit dem Namen TAG wird im Rahmen der Arbeit vorgestellt. Im Rahmen dieser Arbeit wird Ästhetik zunächst im Kontext der Interaktion beziehungsweise des Interaktionsdesigns untersucht, dem Ursprung des Wortes auf den Grunde gegangen und in weiterer Folge Aesthetic Computing betrachtet, um schließlich dem Begriff der Interaktionsästhetik einen Sinn zu geben. Interaktionästhetik ist ein relativ neuer Begriff im Feld des Interaktionsdesigns und beschreibt im Gegensatz zum allgemein gebräuchlichen Begriff der Ästhetik die wahrnehmbare Schönheit, die über rein visuelle Eigenschaften hinausgeht. Die beiden Termini der Graffiti und Street Art werden betrachtet, kurz historisch aufgearbeitet und wichtige Strömungen erläutert. Weiters werden die verschiedenen Arten der beiden Disziplinen erklärt und auftretende Themengebiete abgedeckt. Durch Expert Reviews mit ausgewählten Wissenschaftlern und Künstlern wurden mittels qualitativer Inhaltsanalyse die aktuelle Version untersucht und mögliche Weiterentwicklungen und Verbesserungen ermittelt.

Diplomarbeitsposter Seidl Gernot

Gernot Seidl

Masterstudium Technische Informatik
Abstract:

Aufgrund des demografischen Wandels steigt auch der Bedarf an technischer Unterstützung, die den betroffenen Menschen ein weitgehend selbstständiges Leben in den eigenen vier Wänden ermöglichen soll (Stichwort: „Ambient Assisted Living“ (AAL)). Es existiert bereits eine Vielzahl an AAL-Lösungen für die unterschiedlichsten Problem- und Anwendungsbereiche. Dabei wird heutzutage für die meisten Systeme und Netzwerke auf eine der vielen Drahtlosübertragungstechnologien zurückgegriffen. Diese sind mittlerweile sehr preiswert, ermöglichen eine einfache Installation der Endgeräte bzw. Sensormodule und bereits bestehende Systeme lassen sich meist nach Belieben erweitern. Als Nachteil sind u. a. die beschränkte Funkreichweite und die notwendige Energieversorgung der Geräte zu nennen. Vor allem Letzteres bedeutet einen zusätzlichen, regelmäßigen Wartungsaufwand für den erforderlichen Batteriewechsel. Eine Möglichkeit, dieses Problem zu lösen, liegt in der Verwendung energieautarker Funksensoren. Die Sensormodule der Fa. EnOcean beziehen die für ihren Betrieb notwendige Energie durch Ausnützung unterschiedlicher physikalischer Effekte („Energy Harvesting“) im besten Fall vollständig aus ihrer unmittelbaren Umgebung. Ein Ziel der Arbeit war es deshalb, Vor- und Nachteile der energieautarken EnOcean-Funktechnologie für den Einsatz im AAL-Bereich nicht nur theoretisch auszuarbeiten sondern auch praktisch festzustellen. Dafür wurden zwei typische Beispielanwendungen aus dem AAL-Bereich mithilfe der EnOcean-Funksensoren entwickelt. Darüber hinaus sollten die Beispielanwendungen einen möglichst geringen Stromverbrauch und somit eine entsprechend lange Batterielebensdauer bzw. minimalen Wartungsaufwand garantieren. Neben einer allgemeinen Bewertung in Hinblick auf die Anwendbarkeit der entwickelten Lösung sollte auch auf die Herausforderungen und Besonderheiten der System- und Softwareentwicklung bei Verwendung der energiesparenden Funksensortechnik hingewiesen werden.

Institut für Softwaretechnik und Interaktive SystemeE188

Arbeitsbereich Information & Software Engineering

Weitere ausgestellte AbsolventInnen dieses Arbeitsbereichs:
Timo Mischitz
Diplomarbeitsposter Annessi Robert

Robert Annessi

Masterstudium Technische Informatik
Abstract:

With the tremendous increases in communication over the Internet, privacy issues have become more and more important. In the interest of allowing people to communicate without revealing potentially identifying information, much research and effort has been put forth to develop anonymous communication protocols, which became the technical basis for promoting freedom of speech, achieving privacy, and overcoming censorship on the Internet. The most widespread and well researched anonymity system is Tor, which achieves a reasonable balance between the conflicting demands of performance and security. Although both latency and throughput have been improved significantly in recent years, Tor users still occasionally experience long and variable delays. Such delays are not only harmful for interactive web users, who create the vast majority of connections in the Tor network, but they also prevent altogether the use of real-time protocols, such as the Voice-over-Internet Protocol, where a certain quality of service is indispensable. In this thesis we find our means to decrease latency, the most important property from users’ perspective. In our approach, clients actively measure Round-Trip-Times (RTT) of circuits after they have been established and drop slow circuits before they begin to be used. We conduct several experiments on the live Tor network, to verify our assumption that the use of lightweight, active RTT measurements can achieve latency improvements. Our results show that this approach achieves an improvement not only in latency, but also in throughput, and in anonymity.

Diplomarbeitsposter Binder Johannes

Johannes Binder

Masterstudium Software Engineering & Internet Computing
Abstract:

Keeping multiple business processes deployed on one system poses severe threats to maintenance and flexibility of individual processes as well as the hosting system itself. Shared dependencies between processes limit the possibility to update the system for one process, because of the potential side effects on the other processes. The processes are bound to a system, even to a specific state of the system, and it is difficult to transfer them in a minimal way, so that only resources and dependencies of the respective process are considered. If documentation exists it is frequently outdated or complex to transform to an environment that is able to execute the process. Besides maintenance also preservation of the state of processes in a shared system consumes more resources than necessary. This makes it difficult to archive and share processes. The aim of this work is to provide a process migration framework (PMF) that frees processes from the chains imposed by the shared system where they are deployed. The first step of the PMF is to identify the process environment, so the resources that a process requires during execution, which is done by static and dynamic observation of the process and its environment. This process environment is stored in a model. The model can be adapted to upgrade software or migrate to different data types or other maintenance reasons. Next, a virtual system is created where the process environment is deployed. Finally it is verified that the target system is able to execute the process correctly. The advantages of this approach are that processes can be redeployed independently of any physical machine, processes are able to evolve independently of other processes, and process environments can be shared and archived in a sustainable way, including all dependencies that are required to execute the process.

Diplomarbeitsposter Brunner Herbert

Herbert Brunner

Masterstudium Software Engineering & Internet Computing
Abstract:

A main topic regarding modern web browsers is user privacy. When surfing on the Internet, web browsers typically store user-related browsing data on the local computer system. Saving that data locally may pose a security risk to Internet users, as it can be recovered from a computer’s hard disks. To tackle this privacy issue, web browser vendors introduced the private browsing mode, which promises not to store sensitive user data to the local system, in order to preserve user privacy. As there exists no guarantee that the private browsing mode of modern web browsers has been implemented thoroughly from a forensically view, in this work a proof-of-concept is provided which examines this mode by means of a new forensic analysis approach. This approach takes advantage a web browser testing and a forensic analysis framework. The key feature of the analysis framework is based on the concept of process monitoring, which offers the possibility to log file system events that have been induced by a web browser during a private browsing session. The collected file system event log files have been used for file recovery purposes in conjunction with Digital Forensics XML (DFMXL) files. Generally, DFXMLs provide digital examiners with valuable information about file objects (e.g. last access time, file size, allocation status). The experimental evaluation of this work is based upon this information, in order to retrieve those Internet artefacts which have been accessed when surfing the Internet in private mode. The evaluation of the results has shown that the private modes of the tested web browsers have been implemented differently. The amount of recovered Internet artefacts has varied depending on the web sites as well as on the web browsers that have been used for testing. From forensically standpoint of view, it has been found that private browsing artefacts can be recovered effectively by using process monitor log files.

Diplomarbeitsposter Chinquist Jeremy

Jeremy Chinquist

Masterstudium Informatikmanagement
Abstract:

This thesis evaluates the management of geospatial information in Web-based Open Source CMS. Geospatial data can be managed by the CMS in several of the technology layers, at the database level, on the file system level as well as in the programming level. Common use-cases include saving location data or area data to objects and evaluating their relationship to one another. Depending on the use-case, the object data can be exported in several different formats, such as a GeoRSS stream, or as GeoJSON, KML, GML, XML, GPX and RDFa data files for use in third party systems. The following questions were addressed: How should geo data be structured by (web-based) CMSs so that the system, and the administrator, can efficiently and flexibly manage the geo data and display it in context? What data, if any, should be stored, locally within the CMS? What external sources of geospatial data are available and how can these sources be efficiently used or imported into the CMS? Two popular Open Source Web-based CMSs were evaluated, Drupal 7 and Wordpress 3.9. We created prototypes of the CMSs and installed and evaluated several plugins (Wordpress) and modules (Drupal) as well as conducted research on the technology stacks. As is shown, neither CMSs take advantage of the Geospatial data type available in relational database systems like MySQL and PostGIS. The data type is similar to String and Numeric data types, but allows for complex geospatial equations such as ST_Contains, ST_Within and bounding box functions to be made on the data in the columns. Timing tests were developed to evaluate whether the CMSs should take advantage of the geospatial columns. The timing tests show that geospatial columns are faster for functions such as ST_Contains and ST_Within, but not for the bounding box functions like MBRWithin.

Diplomarbeitsposter Dür Alexander

Alexander Dür

Masterstudium Business Informatics
Abstract:

Today many smartphone applications are free for the user and financed by advertisements, also called ads. On an ad exchange this advertisement space is sold live to the highest bidder. The bidders see only certain characteristics of the smartphone user like the app he is using right now, the country he is in and his device. Based on this information they make an offer on how much they are willing to pay to show an advertisement of their choice right now to that user. The problem which should be solved in this thesis is finding a good bidding strategy from the perspective of a company that optimizes the click or conversion performance of campaigns on behalf of their customers. Advertisements for web browsers heavily rely on cookies and user tracking while mobile advertisements have to rely on other information. After finding a set of attributes that is suitable to make predictions various machine learning techniques will be used to learn which prediction method performs best for the problem at hand. Then we will show how to implement a predictor that can make good predictions about click and conversion performance considering constraints such as having to learn from large datasets and make extremely fast predictions. Our approach relies on a Naive Bayes classifier. One key finding is that the naive strategy of estimating click and conversion performance through the overall click or conversion rate of the app during an individual campaign has already performed surprisingly well as the specific app used already includes already most of the information about the advertising opportunity. Our approach can handle common problems like missing attributes or unknown attribute values. The proposed strategy also allows for modifications to adapt itself to different markets and competitors. The improved strategy heavily outperforms the reference strategy. In a direct comparison without any other bidding agents our improved strategy results in 250% increased profit.

Diplomarbeitsposter Fischer Bernhard

Bernhard Fischer

Masterstudium Informatikdidaktik
Abstract:

Problemstellung dieser Masterarbeit ist es, für die Aufgaben des Biber-Wettbewerbs (ein Wettbewerb dessen Ziel es ist, junge Leute für Konzepte der Informatik zu begeistern) eine spielerische Lernumgebung in Form einer mobilen App für das Betriebssystem Android zu entwerfen. Die wissenschaftliche Fragestellung lautet wie folgt: „Wie können motivierende und beim Erlangen der Lernziele unterstützende Gamedesign-Elemente in eine mobile Applikation zum Erlernen von Konzepten der Informatik integriert werden?“ Zur Beantwortung dieser Frage findet zunächst eine theoretische Auseinandersetzung mit dem Konzept Gamification statt und es wird ein kurzer Überblick über die Initiative Bebras (in Österreich: „Der Biber der Informatik“) und das Betriebssystem Android gegeben. Weiters werden im Rahmen der theoretischen Auseinandersetzung Gamedesign-Elemente identifiziert, die für ein gamifiziertes Designkonzept notwendig sind. Es wird ein solches Designkonzept verfasst, die einzelnen Gamedesign-Elemente werden detailliert erklärt und ihr Zusammenspiel wird erläutert. Zentrales Ergebnis dieser Arbeit ist ein Prototyp, welcher mit dem Android Software Development Kit in der Entwicklungsumgebung Eclipse verfasst wurde. Abschließend findet eine Evaluierung dieses Prototyps statt, deren Ziel es ist, einerseits qualitative Mängel aufzuzeigen, als auch die Frage zu beantworten, ob eine sinnvolle Integration der Gamedesign-Elemente in den Prototypen gelungen ist.

Diplomarbeitsposter Grünwald Andreas

Andreas Grünwald

Masterstudium Business Informatics
Abstract:

The application of an all-embracing project management software system (PMS) within a multiorganizational context is difficult and challenging: Superior “all-in-one solutions” (PM suites) are difficult to select and costly. Moreover, project partners have their preferred local tools in place, which they want to reuse. Additionally, some PM data, respectively knowledge, are residing at the local organizations and hence are difficult to identify / access by the project manager (a time and trust issue). Available data integration solutions focus on the integration of data in a large-scale enterprise context, and are not appropriate for temporary project organizations. L This work proposes a systematic integration framework for knowledge-supported project management in IT consortia. The solution approach address integration issues at different organizational levels, and leverages Model-Driven Software Engineering (MDSE), Semantic Web Technologies, and the OpenEngSb integration framework. The main research outcomes are (a) a Consortium Negotiation and Integration Process (CNP) to efficiently enforce the project manager’s integration requirements, (b) a ITPM Dashboard for the efficient visualization and monitoring of PM data, and (c) the Semantic Model Editor as the missing link between the negotiation of common data models and their technical integration. The systematic integration framework is applied to an industrial-oriented ITPM consortium use-case, (UC), in which four companies develop a joint software product. The evaluation results indicate a reduction of 25% to 80% of the project manager’s manual integration efforts (based on the project size), and a reduction of 65% for the development of new OpenEngSb connectors, for the specific use-case. The research outcome is useful for IT project consortia, but also for researchers / knowledge engineers who experiment with semantic technologies.

Diplomarbeitsposter Hofbauer Romana

Romana Hofbauer

Masterstudium Informatikdidaktik
Abstract:

In der heutigen Zeit sammelt sich viel persönliches Wissen an. Daher bedarf es eines Systems, welches diese Daten zentral an einer Stelle sammelt. In dieser Arbeit wird ein Prototyp entwickelt, der dieses Ziel erreichen soll. Als Plattform wird eine Webapplikation ausgewählt, damit kein Installationsaufwand erforderlich ist und es von überall aus zugänglich und plattformunabhängig ist. Es werden nur ausgewählte, wichtige Features implementiert, um die Komplexität möglichst niedrig zu halten. Der Hauptfokus dieser Abhandlung liegt dabei auf dem User Interface: dieses soll intuitiv und ästhetisch gestaltet werden. Das Design ist dabei an einen Schreibtisch angelehnt, um besonders für ältere Personen Einstiegspunkte für eine einfachere Benutzung zu schaffen. Als ersten Schritt für die Umsetzung wird eine umfassende Recherche in der Fachliteratur durchgeführt. Durch diese Methodik wird herausgefunden, welche open-source Technologien für die Entwicklung gut geeignet sind. Die zweite Erkenntnis aus der Literaturrecherche ist ein Set von Guidelines, welches beschreibt, wie das User Interface möglichst benutzerfreundlich gestaltet werden kann. Nach diesen Schritten wird die Methode des Evolutionary Prototypings angewendet. Dadurch kann überprüft werden, ob die verwendeten Technologien passend sind, und außerdem können die Guidelines für die Gestaltung des User Interfaces umgesetzt werden. Zusätzlich ermöglicht ein Prototyp mit Kernfunktionalität auch eine Evaluierung. Nach dieser Herangehensweise entsteht ein Tool names Personal Knowledge Desk, welches folgende Features enthält: Pinnwand, Dateisystem, Kalender, Aufgabenliste, Wörterbuch, Telefonbuch, Notizblock und Lesezeichen. Als Abschluss erfolgt eine Evaluierung in zwei Phasen: Zuerst wird eine Evaluation anhand von Usability Heuristiken durchgeführt, und anschließend wird Thinking Aloud Usability Testing verwendet.

Diplomarbeitsposter Paral Sebastian

Sebastian Paral

Masterstudium Software Engineering & Internet Computing
Abstract:

Mit Integration der Near Field Communication (NFC) Technologie zur kontaktlosen Erfassung von Daten auf Smartphones ergeben sich neue Anwendungsmöglichkeiten. Diese Forschungsarbeit widmet sich der mobilen Unterstützung eines im infrastrukturellen Gebäudemanagement beheimateten Facility-Management (FM) Prozesses, dem eines Gebäudereinigungsdienstes. Die Dokumentenerfassung zur Unterstützung der Prozesse wurde bislang mit Hilfe stationärer CAFM-Systeme bewerkstelligt. Dabei handelt es sich um Systeme zur Erfassung und zur Verwaltung von FM-Daten. Mobile Systeme sind gerade in dieser Branche begehrt, besonders zur Arbeitszeit- und Leistungskontrolle. Es soll die Frage beantwortet werden, inwieweit es möglich ist mit Hilfe eines Smartphones und dem Einsatz der NFC-Technologie den FM-Prozess eines Gebäudereinigungsdienstes geeignet zu unterstützen, zu optimieren und alle papierbasierten Prozesse zu ersetzen. Kann der gesamte Dokumentationsprozess ohne Einschränkung der Benutzerfreundlichkeit auf einem Smartphone stattfinden? Es wurde untersucht, welche mobilen Softwarelösungen bereits existieren und welche Technologien zur mobilen Datenerfassung im FM bereits eingesetzt werden. Auf Basis der untersuchten Lösungen entstand ein Konzept für ein auf NFC basierendes mobiles System für Smartphones zur Unterstützung der FM-Prozesse. Das Konzept basiert auf der Vision des Internet of Things, welches sich mit der Integration von realen Objekten in das Internet befasst. Da die Benutzerfreundlichkeit eines solchen Systems eine wichtige Rolle spielt, wurde das erarbeitete Konzept und somit der umgesetzte Prototyp Probanden zum Usability-Test vorgelegt. Die zentralen Ergebnisse dieser Forschungsarbeit waren, dass die Probanden durchwegs derMeinung waren, die Nutzung eines solchen Systems jedenfalls der papierbasierten Variante zu bevorzugen.

Diplomarbeitsposter Pershina Irina

Irina Pershina

Masterstudium Business Informatics
Abstract:

The Semantic Web describes a concept for information storing, sharing, and retrieving on the Web by adding machine-readable meta information to convey meaning to the data. Linked Open Data is publicly available structured data which is stored and modelled according to Semantic Web standards and interlinked with other Open Data. The Linked Open Data cloud comprises of Linked Data sources and has been growing significantly in recent years. Complementary to this, mashups allow non-professional users to access, consume, and analyze data from various sources. The basic component of a mashup is a widget that can access certain datasets, process data, and provide additional functionality. Mashups can partly handle Linked Data consumption for knowledge workers. The main challenges are finding the appropriate widget when the amount of available widgets is increasing, categorizing and finding widgets with similar functionality, and adding provenance information to widgets. The primary purpose of this thesis is to design a semantic model for a mashup platform that enables (i) publishing of widget information on the Linked Open Data Cloud, (ii) widget discovery, (iii) widget composition, and (iv) smart data consumption based on semantic model. Additionally, the semantic model should provide provenance information in order to provide additional information about origin and authenticity of data, and increase trust in data resources. During this research work existing approaches applicable for Semantic Web Service description have been compared and Semantic Web Service description techniques concerning application in the area of Web Widgets have been evaluated. Requirements to the semantic model are derived from literature review and complemented with requirements for mashup systems. Finally, the semantic widget model is implemented into a mashup prototype to demonstrate its usability.

Diplomarbeitsposter Pircher Michael

Michael Pircher

Masterstudium Software Engineering & Internet Computing
Abstract:

Modern industries such as energy, automotive, or chemical accommodate a multiplicity of different engineering areas. To satisfy the fast changing requirements of the market, the different engineering areas need to work together within multi-disciplinary engineering projects. This assumes the exchange of information between different tools of each area to enable the collaboration with a maximum of a synergy effects. This results in a scenario with the need of semantic integration which deals with the integration of heterogeneous data. A generic approach to face the challenge of semantic integration of engineering data is the Engineering Knowledge Base (EKB). The main features are data integration based on mappings between local tools on a domain level, transformation between local tools and the domain level, and advanced applications built on these foundations. The creation of a transformation is complex task. This master thesis proposes the TransformerIDE - a solution to support the engineers in their task of creating quality-assured transformations based on the knowledge stored within the EKB. It offers an integrated development environment (IDE) with functions to create, modify, validate, manage and export transformations. The core of the TransformerIDE is the procedural Transformation Language (TL) based on the Transformation Meta Language (TML). This language is tailored to the requirements of the use case and can be easily extended. It consists of simple functions, e.g., trim, concat, with clearly defined input and output. The evaluation of the TransformerIDE with the underlying Transformation Meta Language has shown that the automated creation and validation of the Transformer and the Transformations supports the user in reducing the effort and error rate of transformation design and operation processes.

Diplomarbeitsposter Pollak Michael

Michael Pollak

Masterstudium Informatikdidaktik
Abstract:

In der vorliegenden Arbeit wird aufgezeigt in wie weit mobile Technologien wie Smartphones für das Erlernen von Grundlagen der Programmierung geeignet sind, sowohl im schulischen Unterricht als auch für das informelle Erarbeiten von Kompetenzen. Um gleichermaßen die Lernenden- und auch die Lehrenden-Sicht verstehen zu können wurde eine Interview Reihe entwickelt, die sowohl praktische Erfahrungen in der Vergangenheit als auch experimentelle Versuche mit der vorliegenden Applikation umfasst. Neben der theoretischen Seite kommt auch die praktische Bearbeitung des Themengebietes nicht zu kurz. Die interviewten Schülerinnen und Schüler wurden weiters gebeten eine Vorreiter-Applikation im Bereich des visuellen Programmierens auf Smartphones zu testen und aus ihrer Sicht zu evaluieren. Aus Österreich, genauer gesagt von der TU Graz, stammt die Smartphone Applikation Pocket Code, die sich zum Ziel setzt visuelle Programmierung auf mobilen Interfaces zu verwirklichen. Die Konfrontation der Software mit den Anwendern zeigt Schwachstellen und Möglichkeiten auf, die in der vorliegenden Arbeit dokumentiert, herausgestrichen und in eine Art Framework zur Verbesserung zukünftiger Versionen eingearbeitet werden. Final versucht diese Diplomarbeit konkrete Verbesserungen an der Software Pocket Code aufzuzeigen, aber darüber hinaus auch allgemein gültige Schlüsse zu ziehen, die in Zukunft bei der Entwicklung von Lernsoftware für mobile Interfaces helfen wird.

Diplomarbeitsposter Schmidt Christian

Christian Schmidt

Masterstudium Informatikmanagement
Abstract:

Internet Privacy im Internet beschäftigt sich mit der Anwendung identitätsbezogener Informationen und deren Kontrolle. Jede reale Person bildet mit den im Internet gesetzten Aktivitäten und der Menge an preisgegebenen persönlichen Details eine virtuelle Identität und ist über diese definierbar. Die Privatsphäre eines Internet Nutzers ist somit bei jeder Nutzung eines Webdienstes oder beim Internetzugang selbst potentiell gefährdet, wobei fremde Kommunikationsteilnehmer in der Lage sind, Nutzerinformationen zu sammeln und Verhaltens-, Bewegungs- oder Kommunikationsprofile zu erstellen. Dieser Eingriff in die Privatsphäre der Internet Nutzer wird vielfach unterschätzt, da mögliche langfristige Konsequenzen der sensiblen Informationsoffenlegung für den Einzelnen oft nicht greifbar sind. In dieser Arbeit wird eine empirische Untersuchung vorgestellt, bei der in erster Linie das Bewusstsein für Privatsphäre im Internet von Endnutzern erhoben wird, um anschließend die Relevanz von Bildungsmaßnahmen zu analysieren. Zu diesem Zweck wurde ein didaktisches Model ausgearbeitet, welches als Schulungsmaßnahme für die Untersuchung verwendet wird. Den Probanden wird dabei wesentliches Wissen über die Thematik vermittelt und mögliche Lösungsansätze zum Schutz der virtuellen Privatsphäre präsentiert. Zudem wurde die Lehrmethode verschiedenen Lerntypen angepasst, sodass die Inhalte nach auditiven, visuellen, kommunikativen oder motorischen Gesichtspunkten vorgetragen werden. Abschließend wurde der Lernerfolg unter den Untersuchungsteilnehmern evaluiert und die kurz- und langfristigen Veränderungen im Umgang mit personenbezogenen Daten beim Internetsurfen festgehalten. Diese gesammelten Erfahrungen stellen wertvolle Erkenntnisse dar, um Ausbildungsmaßnahmen in diesem Bereich möglichst effizient zu gestalten. Die Erhöhung des Bewusstseins über die Privatsphäre im Internet und die Vermittlung von Lösungssätzen diese zu schützen stellen das Gesamtziel der Masterarbeit dar.

Diplomarbeitsposter Schrott Janina Roberta

Janina Roberta Schrott

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

In der heutigen Gesellschaft bilden Informations- und Kommunikationstechnologien eine wesentliche Grundlage des Lebens. Aufgrund des technologischen und gesellschaftlichen Wandels sind Informations- und Kommunikationstechnologien aus fast keinem Lebensbereich der Gesellschaft wegzudenken. Im ersten Teil der Diplomarbeit wird durch Evaluierungen von bestehenden Studien aufgezeigt, welchen Bezug österreichische Bürger, Unternehmen und Behörden zu dem Thema Datenschutz und Datensicherheit haben. Weiters wird auf die österreichische Gesetzgebung eingegangen. Hierbei wird das Hauptaugenmerk auf das österreichische Datenschutzgesetz gelegt, allerdings werden auch andere Gesetze angeführt, in welchen Datenschutz und Datensicherheit in Österreich geregelt werden. Im Anschluss wird ein Vergleich des Datenschutzrechtes zwischen Österreich und ausgewählten europäischen und internationalen Staaten durchgeführt. Am Ende wird ein Maßnahmenkatalog erstellt, worin Bedrohungen kategorisiert und anschließend Maßnahmen gegen diese Bedrohungen aufgezeigt werden.

Diplomarbeitsposter Sellner Manuela Theresia

Manuela Theresia Sellner

Masterstudium Information & Knowledge Management
Abstract:

Das heutige Gesundheitssystem steht unter einer sehr großen finanziellen Belastung, vor allem aufgrund der überalterten Bevölkerung, in der immer weniger Menschen die finanzielle Last tragen müssen. Eine Möglichkeit Kosten zu senken ohne an Behandlungsqualität einzubüßen ist die Digitalisierung von medizinischen Daten. Damit können Kommunikationswege zwischen medizinischen Dienstleistern optimiert und Behandlungen effektiv und unter Berücksichtigung der medizinischen Historie eines Patienten durchgeführt werden. Dadurch können unerwünschte Wechselwirkungen zwischen Medikamenten, redundante Untersuchungen und Doppelmedikationen reduziert werden. Allerdings steht man dadurch auch vor dem Problem, dass diese sensiblen Patientendaten vor Missbrauch und unbefugter Verwendung geschützt werden müssen. In dieser Arbeit werden bestehende Ansätze verschiedener, europäischer Länder untersucht, die eine elektronische Patientenakte mit einer elektronischen Rezept-Komponente im Einsatz haben bzw. sich gerade in der Implementierungsphase einer solchen befinden – besonders hinsichtlich des Datenschutzes von medizinischen Daten. Die Evaluierungsergebnisse werden miteinander verglichen und die Stärken und Schwächen der einzelnen Ansätze aufgezeigt. Daraus werden die Anforderungen an eine optimale Lösung abgeleitet und definiert wie diese aussehen kann.

Diplomarbeitsposter Stampf Lukas

Lukas Stampf

Masterstudium Software Engineering & Internet Computing
Abstract:

Systems Engineering ist heutzutage eine wichtige Disziplin zur Beherrschung der Komplexität von multidisziplinären Entwicklungsprojekten. Entwickler verschiedener Disziplinen kollaborieren um den erfolgreichen Ausgang dieser Systeme zu ermöglichen. Aber immer dann, wenn Techniker aus verschiedenen Wissensgebieten zusammenarbeiten, fehlt häufig die ganzheitliche Sicht auf das zu entwickelnde System. Ein Grund dafür ist, dass Techniker einer Disziplin nur über limitiertes Wissen über die Modelle anderer Disziplinen verfügen. Darum tendieren Techniker dazu domänenspezifische Modelle ohne Beachtung der Abhängigkeiten zu den Modellen anderer Disziplinen zu entwickeln. Jedoch ist es für den Erfolg des Projektes unerlässlich, Rahmenbedingungen auf interdisziplinären Abhängigkeiten zu definieren. Wenn sich Designparameter in einer Weise ändern, welche den wechselseitig verhandelten Rahmenbedingungen widersprechen, dann ist die zeitnahe Benachrichtigung der Parteien essentiell um negative Folgen, wie z.B. zusätzliche Kosten, für das Projekt zu vermeiden. Die Kernpunkte sind ein theoretisches Konzept, genannt der Multi-Model Dashboard (MMD) Ansatz, und ein Prototyp der dazugehörenden Werkzeuge. Das Ziel des MMD Ansatzes ist es eine Methodik zu definieren wie man interdisziplinäre Parameter und Bedingungen identifizieren, spezifizieren und beobachten kann Der Forschungsprotoyp wurde komplementär zum MMD Ansatz durch iteratives Prototyping entwickelt. Die Beschreibung des Prototypen in dieser Arbeit enthält detaillierte Informationen über die umgesetzten Komponenten und deren Interaktion. Die MMD Komponenten werden dann mittels realer Anwendungsfälle im Systems Engineering Bereich evaluiert. Die Kernpunkte der Evaluierung sind eine Machbarkeitsstudie und eine Kosten-Nutzen Abschätzung. Abgeschlossen wird diese These mit einer Diskussion welche Stärken und Schwächen des MMD Ansatzes aufzeigt.

Diplomarbeitsposter Trajanovski Ratko

Ratko Trajanovski

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Cloud Computing kann weder als eine einzelne Technologie, noch als eine einzige Architektur betrachtet werden. Cloud Computing ist grundsätzlich die nachfolgende Stufe der Innovation, die Einführung einer solchen Computing, Networking und Datenspeicher Plattform zielte darauf ab, drastisch kosten zu sparen und schnell auf den Markt zugreifen zu können. Das Cloud Computing bietet hervorragende Möglichkeiten für die Industriestaaten. Dank des Cloud Computing können Kleine und Mittlere Unternehmen Speicher, Computing Power und Software on Demand mieten. So können Kosten eingespart und die Flexibilität gesteigert werden, gleichzeitig kann sich auf einen guten und innovativen Service fokussiert werden, ohne dabei in den Aufbau und die Wartung von großen Datenzentren investieren zu müssen. Das Cloud Computing ermöglicht den Unternehmen einen stärkeren Fokus auf das Kerngeschäft zu setzen. Das bedeutet, sie können durch ein besseres Qualitätsangebot und durch die Stärkung des Wettbewerbsvorteils insgesamt effizienter arbeiten. Auf der einen Seite erleben aktuell viele Unternehmen zum ersten Mal die neuen Möglichkeiten, die das Cloud Computing bietet; Auf der anderen Seite ist auch eine große Anzahl von Unternehmen vorzufinden, welche bisher noch keine Erfahrungen mit dem Cloud Computing gesammelt haben. Ziel dieser Arbeit ist es, einen Leitfaden mit detaillierten und praktischen Informationen und Empfehlungen zu dem genannten Thema zu bieten. So können die Vorteile des Cloud Computing einfach erkannt und effizient genutzt werden.

Diplomarbeitsposter Unterberger Marco

Marco Unterberger

Masterstudium Business Informatics
Abstract:

Processes, either in scientific or business domains, are in general subjected to decay. In general, processes often interact with external components, which are located outside of the process boundaries. Web Services have become the de facto standard for realizing remote software components. Thus, Web Services are often part of a process and therefore can have a strong impact on a correct process execution. However, processes themselves are designed for long lasting, whereas Web Services have a highly dynamic and varying nature. That means, their functional behaviour often changes on demand. That dilemma of volatile third party resources is a major driver for process decay. This thesis analysis reasons why Web Services so easily become outdated. Based on a literature survey, the most common service changes scenarios causing the Web Service's dynamic nature are presented. In a first step we investigate challenges regarding Web Service's resilience. Therefore, we observe the Web Service beyond its public interface to identify non apparent challenges. In more detail, we concentrate our effort on two major challenges: Web Service version management and Web Service dependency management. We organized our work as follows: In the first step, theoretical concepts including requirements and policies addressing the resilience challenges have been developed. In a second step, we provided a reference implementation for that framework to support resilient Web Services. Both, the theoretical and practical contributions lead to the Resilient Web Service Framework. By applying this framework, it supports Web Service providers in offering resilient Web Services. For the purpose of demonstration, we applied the Resilient Web Service Framework on a selected set of scenarios of the Web Service management domain. The introduced resilience annotations get automatically attach to the service's WSDL. It demonstrates the successfully capturing of Web Service's dependencies at runtime.

Diplomarbeitsposter Wagner Simon

Simon Wagner

Masterstudium Software Engineering & Internet Computing
Abstract:

Ein Frage-Antwort System benutzt Algorithmen um semantisch ähnliche Fragen zu finden. Diese benötigen durch ihre hohe algorithmische Komplexität mehrere Sekunden für eine Berechnung. Das Matching soll jedoch in einer Anwendung eingesetzt werden, in der dem Benutzer oder der Benutzerin die Resultate in Echtzeit präsentiert werden. Damit diese Anforderung erfüllt werden kann schlägt diese Arbeit eine Vorberechnung von Ähnlichkeiten vor, deren Ergebnisse in einer geeigneten Datenstruktur abgelegt und anschließend dazu benutzt werden um in wenigen Millisekunden Antworten generieren zu können. Die Matching-Algorithmen verwenden Schlüsselwörter für ihre Berechnungen. Folglich entspricht die Menge aller Kombinationen dieser Keywords allen theoretisch denkbaren Eingaben. Da nicht all diese Möglichkeiten berechnet werden können, ist ein zentraler Punkt, eine sinnvolle Einschränkung zu treffen. Der Ansatz, der im Zug dieser Arbeit vorgestellt wird, verbindet nur Schlüsselwörter miteinander, bei denen die Schnittmenge der Matches nicht leer ist. Alle berechneten Ähnlichkeiten werden in einer Lucene-Indexstruktur gespeichert. Um dem Benutzer oder der Benutzerin die ähnlichsten Fragen präsentieren zu können, auch wenn noch kein Schlüsselwort komplett eingetippt wurde oder Tippfehler in der Eingabe vorhanden sind, werden die Vorberechnungen zusätzlich mit einer syntaktischen Suche kombiniert.

Arbeitsbereich Interactive Media Systems

Diplomarbeitsposter Adelbauer Thomas

Thomas Adelbauer

Masterstudium Medieninformatik
Abstract:

Die vorliegende Diplomarbeit befasst sich mit der Erstellung musikalischer Kompositionen, welche einem bestimmten Genre zugeordnet werden können. Es wird angenommen, dass mit Hilfe von Sets an charakteristischen Eigenschaften und Motiven dieses Ziel erreicht werden kann. Zu diesem Zweck werden diverse Kriterien einer Gruppe von MIDI-Dateien analysiert und mit Hilfe von Mustererkennung sowohl monophone als auch polyphone Motive extrahiert. Mit Hilfe dieser Daten und eines genetischen Algorithmus werden neue Kompositionen erstellt, welche Ähnlichkeiten zu den ursprünglichen Liedern aufweisen sollen. Es wird ein Ansatz verfolgt, welcher mit Notenfolgen bestehend aus ganzen Takten arbeitet. Zunächst werden in der Arbeit musikalische und algorithmische Grundlagen erläutert. Anschließend wird die Analyse der Musikstücke und das Konzept der Komposition vorgestellt. Abschließend werden die Ergebnisse präsentiert, welche durch eine Befragung einer kleinen Personengruppe erhalten wurden. Mehr als die Hälfte der verwendeten Musikstücke konnte dabei von den Probanden richtig zugeordnet werden. Die Qualität der Kompositionen wurde durchwegs positiv bewertet.

Diplomarbeitsposter Csizmazia Stefan

Stefan Csizmazia

Masterstudium Medieninformatik
Abstract:

Seit der ersten Vorstellung des Konzepts im Jahre 1961 haben sich Tabellenkalkulationen zu einem umfangreichen Werkzeug für diverse Anwendungsgebiete entwickelt. Tabellenkalkulationen werden vor allem im professionellen Umfeld, unter anderem für Berichte oder Datenanalysen, eingesetzt. Trotz ihrer Vielseitigkeit werden sie hauptsächlich dafür verwendet, um textuelle und numerische Daten in Form von Tabellen zu organisieren und zu speichern. Viele anspruchsvollere Funktionen, wie zum Beispiel komplizierte Formeln und Diagramme oder Macros, kommen nur in einer kleinen Zahl der Anwendungsfälle zum Einsatz. Die Ziele dieser Arbeit waren es, Forschungsergebnisse, die für den geschäftlichen Bereich erzielt wurden, für den privaten Bereich zu überprüfen, sowie genauer zu untersuchen, wie Benutzer aktuelle Tabellenkalkulationssoftware verwenden, welche Schwierigkeiten sie dabei haben und wie ein verbessertes Nutzererlebnis aussehen könnte. Aufbauend auf vorhandenen Arbeiten, wurde eine Online-Umfrage durchgeführt, deren Ergebnisse als Basis für die darauffolgenden teilnehmenden Beobachtungen und semi-strukturierten Leitfadeninterviews mit einer kleineren Benutzergruppe dienten. Die daraus gewonnenen Erkenntnisse wurden anschließend in einem benutzerzentrierten iterativen Prozess zu einem web-basierten Prototyp verarbeitet. Der vorgestellte Prototyp setzt anstelle der traditionellen Rasterstruktur auf einen leinwandartigen Arbeitsbereich, auf dem verschiedene Elemente frei platziert werden können. Neben der Integration bekannter Funktionen aus Tabellenkalkulations- und Textverarbeitungsprogrammen, konnten unter anderem eine von Grund auf neu entwickelte Formel-Funktionsleiste und Kennzeichnungssymbole für Formelzellen in Verbindung mit einer zielgerichteten Reduktion des Funktionsumfangs dazu beitragen, die Komplexität der Software maßgeblich zu reduzieren. Gleichzeitig unterstützt der entwickelte Ansatz die meisten alltäglichen Anforderungen im privaten Bereich.

Diplomarbeitsposter Fritz Daniel

Daniel Fritz

Masterstudium Medieninformatik
Abstract:

Die Diplomarbeit behandelt berührungslose Interaktionstechniken auf mobilen Geräten, um damit eine virtuelle 3D-Szene zu manipulieren. Es werden verschiedene Lösungen und Kombinationen der Fingergestenerkennung ohne Hilfsmittel auf ihre Robustheit und Performance untersucht, als Erstes ohne zusätzliche Hardware und später mit einer Tiefenkamera als Erweiterung. Die Perspektive der virtuellen Szene wird mithilfe der Kopfposition gesteuert, um einen 3D-Effekt zu erzeugen. Durch Handposition und Fingergesten können Objekte der Szene selektiert und manipuliert werden. Für die Kopferkennung wird ein bereits trainierter Klassifikator verwendet und die 3D-Position relativ geschätzt (Kopfgröße). Selbst erstellte Haar-Kaskade Klassifikatoren werden entweder für das direkte Erkennen zweier Gesten oder der Hand verwendet (RGB). Wurde die Hand erkannt, werden die beiden Gesten anhand der Fingerspitzenanzahl ermittelt. Dafür wird mithilfe von Bildverarbeitungsfunktionen die Hand segmentiert, die Kontur ermittelt und auf Fingerspitzen hin untersucht. Für die 3D-Interaktion werden die fehlenden Tiefenwerte relativ geschätzt (Handgröße, maximaler Grauwert der Hand). Microsofts Tiefenkamera Kinect wird verwendet, um die RGB-Daten mit absoluten Tiefendaten zu erweitern (RGBD). Die RGBD-Daten sollen die Handsegmentierung und 3D-Interaktion verbessern. Im Zuge dieser Arbeit wurde eine Android-Applikation mithilfe von OpenCV, Unity3D und OpenNI entwickelt. Der Prototyp besteht aus einem Rahmen zur festen Verbindung der Kameras, um eine Kalibrierung bzw. Mapping durchführen zu können. Die Performance und Robustheit der implementierten Ansätze wurde in verschiedenen Licht- und Hintergrundsituationen systematisch evaluiert. Mit einer experimentellen Studie (Testszenario), wurde die 3D-Interaktion untersucht. Insgesamt wurde das beste Ergebnis mithilfe von RGBD-Daten zur Fingergestenerkennung und absoluten Tiefenschätzung erreicht, allerdings zulasten der Latenz.

Arbeitsbereich E-Commerce

Diplomarbeitsposter Winter Berndt

Berndt Winter

Masterstudium Business Informatics
Abstract:

Web communities are about one of the most comprehensive data sources of our time. Hundreds of millions of users are discussing people, political issues, product characteristics and many other topics in an unguided way making online communities a potentially valuable resource for market researchers. There is a large amount of tools available for extracting and analysing web data. The big number of available tools makes it difficult for any web researcher to choose the tool fitting his needs best. The vast amount of existing web mining tools with strongly differing capabilities leave the prospective user disoriented. The present thesis addresses this issue by creating a comparison and overview of such tools. The process to achieve the desired overview starts by discussing and defining the information which can be extracted and derived from online communities using web mining. The extracted data should be valuable for market research purposes. In a second step selection of tools is made based on the theoretical abilities each tool can offer. Tools, theoretically and practically suitable for web based market research, are chosen and used for web crawling and mining tests in a third step. The results will be screened and analysed to ensure their accuracy. Readers of this thesis will learn how web mining in online communities can be conveyed. They will find a comprehensive overview of mining tools and a comparison of their abilities. They will learn about those tools suited best for accomplishing web mining in online communities and see how freeware tools are performing in practical tests.

Diplomarbeitsposter Zivankic Vladimir

Vladimir Zivankic

Masterstudium Informatikmanagement
Abstract:

Immer mehr Kunstmaterial ist im Internet verfügbar. Die vorliegende Arbeit beschreibt einen Ansatz, der es ermöglicht mit Hilfe von Open Source Data Mining Technologien, easy wGet, Kunstmaterial zu sammeln. Dabei werden auch rechtliche Rahmenbedingungen berücksichtigt. Eine manuell entwickelte Wrapper Software erlaubt es Daten aus dem gesammelten Material zu extrahieren. Im Rahmen dieser Arbeit wird eine generellere Methode entwickelt, die den Prozess der Materialsammlung und der Datenextrahierung beschreibt. Die Methode wird auf Basis einer Ressource, der "Olga's gallery", implementiert. Daraus ergibt sich die Entwicklung einer Kunstdatenbank. Die wichtigen rechtlichen Rahmenbedingungen für diesen Prozess werden geprüft und zusammengefasst: das Urheberrecht und die Datenschutzrichtlinien in Österreich, der EU und in den USA. Die potentiellen Quellen und die Web Data Mining Technologien werden dabei dokumentiert.

Andere Institute der Technischen Universität Wien

Institut für Diskrete Mathematik und Geometrie

Diplomarbeitsposter Mallinger Bernhard

Bernhard Mallinger

Masterstudium Computational Intelligence
Abstract:

Der Interpolationssatz von Craig stellt ein grundlegendes Ergebnis der mathematischen Logik dar. Interpolanten fassen gewisse logische Beziehungen zwischen Formeln präzise zusammen und können oftmals effizient aus Beweisen dieser Beziehungen extrahiert werden. Der immense Fortschritt von Inferenzsystemen ermöglicht die Berechnung der erforderlichen Beweise, was den Grundstein für Anwendungen etwa im Bereich der Softwareverifikation legt. Aufgrund der besseren praktischen Anwendbarkeit wird Interpolation häufig in relativ schwachen logischen Formalismen wie etwa der Aussagenlogik untersucht. Diese Arbeit setzt sich hingegen zum Ziel, einen umfassenden Überblick über bestehende Techniken und Resultate im Bereich der uneingeschränkten Prädikatenlogik mit Gleichheit zu geben. Dies geschieht in drei Abschnitten: Zuerst gehen wir auf den ursprünglichen Beweis des Interpolationssatzes von Craig ein, welcher eine Reduktion auf Prädikatenlogik ohne Gleichheit und Funktionssymbole durchführt. Aufgrund des dadurch entstehenden Mehraufwandes ergibt sich daraus nur ein ineffizienter Algorithmus zur Interpolantenextraktion. Danach stellen wir einen konstruktiven Beweis von Huang in einer etwas verbesserten Form vor. Hier werden Interpolanten direkt aus Resolutionsbeweisen in zwei Phasen extrahiert, was somit zeigt, dass auch in uneingeschränkter Prädikatenlogik mit Gleichheit eine effiziente Interpolantenberechnung möglich ist. Desweiteren analysieren wir die Anzahl der Quantorenalternationen in den daraus resultierenden Interpolanten und stellen einen neuen Ansatz vor, welcher beide Phasen von Huangs Algorithmus kombiniert und dadurch nicht prenexe Interpolanten liefert. Im letzten Abschnitt beschäftigen wir uns mit einer semantischen Sichtweise auf Interpolation in Form eines modelltheoretischen Beweises basierend auf dem Joint Consistency Satz von Robinson, was sowohl Ähnlichkeiten als auch Unterschiede zur beweistheoretischen Betrachtungsweise illustriert.

Institut für Wirtschaftsmathematik

Diplomarbeitsposter El Berry Jan

Jan El Berry

Masterstudium Business Informatics
Abstract:

Die letzte Dekade ging mit einer Reihe von fundamentalen realwirtschaftlichen sowie finanzwirtschaftlichen Veränderungen einher. Durch die variierende Anzahl, Dynamik und Gewichtung externer Einflussfaktoren auf die verschiedenen Teilbereiche der Finanzmärkte, ergibt sich eine erhöhte Notwendigkeit dynamischer Analysemöglichkeiten im aktiven Portfoliomanagement. Um dies zu ermöglichen, wurde ein genetischer Algorithmus entwickelt mit dem eine Asset-Allokation für ein Portfolio auf Basis frei erweiterbarer Bewertungsfunktionen und Basisdaten möglich wird. Darauf aufbauend ist eine prototypische Testumgebung mit grafischer Benutzeroberfläche entstanden, welche systematisches Backtesting und eine direkte Eingriffsmöglichkeit in die Parametrisierung des Algorithmus sowie einen Vergleich der daraus entstandenen Ergebnisse ermöglicht. Durch die Anwendung evolutionärer Algorithmen aus dem Bereich der Informatik auf ein anwendungsorientiertes Optimierungsproblem der Vermögensverwaltung, soll das Rahmenwerk für ein im aktiven Portfoliomanagement verwertbares Werkzeug hinreichend abgebildet werden können.

Diplomarbeitsposter Kügele Mathias

Mathias Kügele

Masterstudium Business Informatics
Abstract:

Demographic changes and individual dynamic behavior puts pressure on the government, leading to an enhanced pension model, aggravated access to earlier retirement and benefit adjustments. Many individuals do not want to accept these conditions and think about earlier retirement. But the factual time point is of course influenced by laws as well by the employer, the kind of employment in different sectors and, more important, imitative behavior of other individuals like the life partner or working colleagues through communication channels. The work focuses on indivdual behavior, corporate and national stipulations and wants to answer the question, how individual imitative behavior of agents as well as different sector policies are affecting retirement fractions and the purchasing power. Especially, the retirement time-points deferring from the stipulated level and the economic consequences are of major interest. A multi-agent based simulation is used to perform the experiments with individual local and group behavior under different global limitations and rules. The results show an influence of individual imitative behavior on the micro-level on the early retirements causedby imitation (26%) as well as the overall early retirements up to 39% on the macro-level. Accommodative corporate behavior and different policies yield results of 52% early retirements caused by imitation and a total rate of premature retirements up to 79%, justifying its impact on the system. It could be demonstrated, that external influences on the individual as well as on the corporate level are significant and produce noticeable high fractions of premature workforce exits, that result in critical purchasing power reductions and may cause individual financial austerity as well as a system financing issue.

Diplomarbeitsposter Pogatsch Martin

Martin Pogatsch

Masterstudium Business Informatics
Abstract:

In this paper we want to illustrate and analyze the trade flows and trade linkages in the countries of the OECD. First we will explain what intra-industrial trade is. Next we will look at two trade models. These are the Ricardo Model and the Heckscher-Ohlin Model. With these models as fundament, we will analyze Paul Krugman’s intra-industrial trade model. This model explains flows of trade, in particularly the trade flows between industrialized countries. We will also analyze the development of the unit costs and the labor productivity. Then we will analyze trade flows from the past. We especially examine the trade flows between industrialized countries. We also discuss trade in particular sectors. We analyze each sector of the agriculture branch, the chemical branch and the machine- and mechanical parts branch. The target is to find future trends and the impacts to countries.

Institut für Geoinformation und Kartographie

Diplomarbeitsposter Beranek Karl

Karl Beranek

Masterstudium Information & Knowledge Management
Abstract:

Seit wenigen Jahren findet man in der Gruppe von anerkannten Datenbanksystemen eine neue Form die im Gegensatz zu relationalen Datenbanken keinem festen Schema unterliegen sondern Daten in Form von Dokumenten speichern. Diese NoSQL, dokumentbasierenden Datenbanken weisen gravierende Vorteile in der Speicherung von großen, wenig strukturierten, vorwiegend textuellen Daten auf, erlauben einfache Zugriffe von vielen Umgebungen durch ihre offenen Schnittstellen und bieten ein hohen Grad an Sicherheit der Daten durch Replikationsmechanismen und Revisionskontrolle. Mit meiner Diplomarbeit will ich einen weiteren Einsatzzweck für dokumentbasierte Datenbanken vorstellen, nämlich die Speicherung von E-Mail Daten. Existierende proprietäre und offene Implementierungen für die Verarbeitung und Speicherung von Maildaten weisen unterschiedliche Vor- und Nachteile auf. Im Rahmen meiner Arbeit möchte ich diese verschiedenen Speicherungsformen diskutieren und deren Parameter im Bezug auf Speichereffizienz und Skalierung vergleichen. Ein weiterer Teil meiner Arbeit wird sich der Entwicklung eines in der funktionalen Programmiersprache Haskell entworfenen Prototypen widmen der die couchDB als E-Maildaten Speicherort verwendet. Konnektoren sollen den Empfang von E-Mail Nachrichten von Mailserver über POP3, den Import von MBOX-Mailarchiven sowie den SMTP-Versand von Mail ermöglichen. Ein intuitives Interface soll die Funktionalitäten des Prototyps in einer grafischen Benutzerschnittstelle veranschaulichen und die Einbindung eines Frameworks für Volltext-Suche soll das Auffinden von E-Mailnachrichten in der Datenbank vereinfachen. Der Schwerpunkt meiner Arbeit ist die Feststellung der Machbarkeit eines solchen in Haskell programmierten Systems und die Untersuchung der effizienten Aufbewahrung von Maildaten in couchDB.

Department für Raumplanung

Diplomarbeitsposter Denisov Oleg

Oleg Denisov

Masterstudium Business Informatics
Abstract:

In recent years the technological advancements in the IT sector have created capabilities for state-affiliated authorities of an extent beyond belief. Taking into account the vast global net- work that is the internet, new opportunities arose to carry out cyber espionage for agencies like the US-American NSA or the British GCHQ, targeting individuals, companies, institutions and providers of critical infrastructure. This thesis analyses the present techniques of cyber espi- onage, and the corresponding emerging risks and threats to the know-how of companies, and to the privacy of individuals, outgoing from intelligence gathering techniques and industrial espionage: topics, that, due to their confidential character, have been subject only to limited research. Further, it investigates the possible preventive measures in the sphere of information secu- rity, to protect corporate and personal information, data in particular. In addition, further risks associated with global surveillance and cyber espionage in today’s information society are con- sidered, including the topics of Big Data, mobile devices and Cloud Computing, as well as the presence of cyber war. Furthermore, the European Union’s strategy to fight cyber attacks and intelligence gathering, as well as their plans concerning reporting requirements are highlighted. Finally, a look is taken into the scope of security measures, covering inter alia corporate security and alternatives for the individual person. After a theoretical introduction and a situational analysis with the objective to develop anti- cipation and prevention, the findings of seven interviews with IT experts are presented, evaluated and integrated into the existing state of knowledge. Theresultsrevealthatawarenessneedstoberaisedregardingthevariousriskstoinformation security, not only in the IT related sphere, but also with respect to the highest risk imposing body, the human being.

Diplomarbeitsposter Pitterle David

David Pitterle

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

YouTube gilt als das größte Online-Videoportal und wird pro Minute um durchschnittlich 60 Stunden Videomaterial erweitert. Gemeinsam mit dem großen Erfolg des im Jahr 2005 gegründeten Portals entstanden auch externe Anbieter, die die fehlende Downloadfunktion für YouTube-Videos zur Verfügung stellen. Allerdings herrscht rechtliche Unsicherheit über den Gebrauch dieser Services und der Herstellung von sogenannten YouTube-Downloaddiensten. Dies wiederum führte zu einigen Klagen bzw. Klagedrohungen. Zielsetzung dieser Arbeit ist die Abklärung, der oben angeführten Problemstellung auf Grund der aktuellen urheberrechtlichen Gesetzeslage, eine Analyse von aktuellen Klagen, Klagedrohungen und Gerichtsbeschlüssen sowie eine Darstellung der verschiedenen technischen Möglichkeiten zum Abspeichern eines YouTube-Videos. Weiters werden die wesentlichen Stakeholder und die wirtschaftlichen Aspekte beleuchtet. Als die vier wichtigsten Vertreter teils divergierenden Interessens können YouTube selbst, die Benutzer der Dienste, Verwertungsgesellschaften bzw. Plattenfirmen sowie die Anbieter von YouTube-Downloadservices genannt werden. Während YouTube versucht, den Umsatz durch Werbeeinschaltungen auszubauen, wollen Verwertungsgesellschaften möglichst hohe bzw. gerechtfertigte Tantiemen für ihre Mitglieder sichern. Das Ergebnis dieser Arbeit zeigt, dass Benutzer aus Österreich und Deutschland gemäß dem Recht auf Privatkopie Download-Services verwenden dürfen, solange sie nicht eine sichtlich illegal auf YouTube gestellte Kopie downloaden. Für Serviceanbieter ist die rechtliche Situation von Fall zu Fall zu unterscheiden. Ausschlaggebend ist die Funktionsweise des Services. Zum Beispiel musste TubeFire, einer der ersten YouTube-Downloadanbieter, sein Service 2011 nach einer Klage der Recording Industry Association of Japan (RIAJ) einstellen. Die mit Klagedrohungen konfrontierten Anbieter YouTube-mp3.org und music-clips.net hingegen führen ihre Dienste weiterhin aus.

Institut für Managementwissenschaften

Weitere ausgestellte AbsolventInnen dieses Arbeitsbereichs:
Marcus Presich, Alexander Prikasky, Milica Sundic
Diplomarbeitsposter Schraik Benedikt

Benedikt Schraik

Masterstudium Business Informatics
Abstract:

In der vorliegenden Arbeit wird untersucht, wie sich der Einkauf in den nächsten 10 Jahren entwickeln wird. In einem ersten Schritt wurden Interviews mit Einkaufsleitern österreichischer Industrieunternehmen und mit Führungskräften anderer verbundener Funktionsbereiche durchgeführt. Die Erkenntnisse aus der systematischen Auswertung der Interviews wurden für die Erstellung einer repräsentativen Umfrage unter österreichischen Fachkräften, vorwiegend im Einkauf, genutzt. Diese Umfrage wurde anschließend statistisch ausgewertet und die Ergebnisse wurden hinsichtlich ihrer Relevanz für die Beantwortung der Forschungsfrage interpretiert. Es zeigt sich, dass der Einkauf insgesamt an Bedeutung gewinnt und die Anforderungen an seine Mitarbeiter im Steigen begriffen sind. Während im Allgemeinen eine Stagnation der Bedeutung operativer Tätigkeiten feststellbar ist, werden strategische Aufgaben zunehmend wichtiger. Diese Veränderungen manifestieren sich auch in den Bildungsanforderungen: Hier ist eine zunehmende Akademisierung zu erwarten, wobei festgestellt werden muss, dass die österreichischen Bildungsinstitutionen den Bedarf an spezifischer Einkaufsausbildung noch nicht zufriedenstellend abdecken. Die gestiegenen Anforderungen werden sich auch in einer organisatorischen Aufwertung des Einkaufs bemerkbar machen, es ist jedoch weder mit einer starken Zentralisierung noch mit einer Dezentralisierung zu rechnen. Der Erfolg des Einkaufs wird in Zukunft weiterhin vorwiegend durch monetäre Kennzahlen bestimmt werden, qualitative Kennzahlen gewinnen kaum an Bedeutung. Softskills sind zwar wichtig und werden ihren Stellenwert auch behalten, neben überdurchschnittlicher Belastungsfähigkeit werden in Zukunft aber besonders solide Englischkenntnisse, juristische Kenntnisse, Technologiewissen und Projektmanagementfähigkeiten an Relevanz gewinnen. Insgesamt wird der Einkauf also in Zukunft an Bedeutung gewinnen und seine zentrale Rolle in Unternehmen ausbauen.

Institut für Computertechnik

Diplomarbeitsposter Sakic Ivan

Ivan Sakic

Masterstudium Computational Intelligence
Abstract:

Im Artifical Recognition System (ARS)-Projekt wird aktuell versucht ein bionisch-kognitives Modell für intelligente autonome Agenten zu entwickeln. Das ARS-Modell nutzt einen ganzheitlichen Ansatz der Wahrnehmung und des logischen Denkens, welcher vom psychoanalytisch-funktionalen Modell des menschlichen Verstands inspiriert ist. Dies eröffnet neue Möglichkeiten, Probleme auf dem Gebiet der KI zu lösen. Das Ziel dieser Arbeit ist es, ein symbolisches Wegpunkt-basiertes Navigationsmodells zu erstellen, welches auf dem kognitiven ARS-Modell beruht. Unter Zuhilfenahme der fortschrittlichen kognitiven Fähigkeiten, die das zugrunde liegende Modell bietet, können neue Lösungen zu Problemen wie die Lokalisation, der Kartenerstellung und der Routenplanung der Agenten entwickelt werden. Diese Thesis untersucht verschiedene qualitativ-symbolische Ansätze der Agentenlokalisation, um die Grundprinzipien dieses Prozesses zu bestimmen. Dadurch kann eine grundlegende Fähigkeit zur Lokalisation hergestellt werden, die durch Weiterentwicklungen erweitert werden kann. Zusätzlich wird das Konzept der hierarchischen kognitiven Karte auf ihre Tauglichkeit als Darstellung einer räumlichen Wissensrepräsentation untersucht. Dabei wird ein besonderes Augenmerk auf die Integration in die Repräsentation des gemeinsamen Wissens des ARS-Modells gelegt, um räumliche Schlussfolgerung auf hoher Ebene zu ermöglichen. Schließlich wird der Prozess der Routenplanung mit Hilfe der integrierten kognitiven Karte analysiert. Dabei werden die Möglichkeiten der Routenberechnung unter Zuhilfenahme des Entscheidungsprozesses untersucht. Die Implementierung des Modells wurde mit Hilfe einer Simulation unter der Nutzung verschiedener Szenarios evaluiert. Sie zeigte dabei ein Verhalten, das mit den Zielen des ARS-Projekts übereinstimmt. Zusätzlich hat die Evaluierung eine Menge an Daten geliefert, die die Forschung und Weiterentwicklung des Navigationsmodells als Teil des ARS-Modells vorantreiben können.

Diplomarbeitsposter Sobotka Michael

Michael Sobotka

Masterstudium Software Engineering & Internet Computing
Abstract:

Die Entwicklung von Software unterliegt einem permanenten technologischen Fortschritt. Im Laufe der Jahre änderten sich nicht nur technische Aspekte der Softwareentwicklung, sondern auch die Struktur von Software selbst. In Bezug auf Wiederverwendbarkeit kommt damit der effizienten und präzisen Auffindung bestehender Services oder Komponenten mit zunehmender Fülle an existierenden Softwarekomponenten immer größere Bedeutung zu. Klassische Lösungen wie die Einteilung von Services in vordefinierte Kategorien oder rein textbasierte Suchverfahren sind oft unpräzise, ausdrucksschwach, erfordern eine umfassende manuelle Ergebnis-Beurteilung aufseiten der Nutzerin und weisen damit allgemein eine hohe Diskrepanz zwischen den zurückgelieferten Ergebnissen und dem eigentlichen Bedarf der Nutzerin auf. Im Rahmen dieser Arbeit wurde das "Semantically Enhanced Software Repository" (SEnSoR) entwickelt. Dabei handelt es sich um ein Repository, welches sowohl traditionelle Softwarekomponenten in unterschiedlichen Programmiersprachen als auch (Semantic) Web Services in einheitlicher Weise verwaltet. Im Unterschied zu existierenden Lösungen wie beispielsweise UDDI ermöglicht SEnSoR durch die Kombination von textbasierten Suchverfahren mit ontologiegestützten Techniken aus dem Gebiet des Semantic Web die Auffindung vorhandener Services bzw. Methoden auch auf Basis deren semantischer Beschreibung. Die Evaluierung zeigt, dass SEnSoR sehr gute Resultate hinsichtlich der Präzision von zurückgelieferten Services liefert und auch bei großer Anzahl von Services Anfragen im Millisekundenbereich beantwortet. In Verbindung mit einer einfach zu benutzenden Such-API, welche sich an modernen (Web-)Suchmaschinen orientiert, lässt sich SEnSoR damit als hilfreiches Entwicklerwerkzeug innerhalb bestehender Softwarelandschaften einsetzen, welches seine Nutzerinnen bei der Auswahl von passenden Services, etwa auf dem Anwendungsgebiet der Modellierung von Geschäftsprozessen, unterstützt.

In Zusammenarbeit mit anderen wissenschaftlichen Einrichtungen

Universität Wien

Weitere ausgestellte AbsolventInnen dieses Arbeitsbereichs:
Valon Ismaili
Diplomarbeitsposter Dobiasch Martin

Martin Dobiasch

Masterstudium Informatikdidaktik
Abstract:

With growing amounts of data being processed efficient programs become more and more im- portant. Over the last decade new frameworks have been developed to ease programming and avoid repetitive solutions to common problems. MapReduce is one of these frameworks which also received growing interest both in academic research as well as in commercial applications. Due to its structure MapReduce can also be used when teaching parallelism and abstraction in a computer science class. One downside of MapReduce-frameworks is that they are currently mainly available for large clusters rather than schools with small IT-infrastructure or private end users. This results in missing possibilities for teaching the key concepts behind MapReduce. Another problem is the lack of courses publicly available for studying MapReduce. Most of the material on hand targets experienced programmers with deeper knowledge of a certain programming language such as Java. This thesis first examines learning theories on their relevance for being used to teach MapRe- duce. The insights gained are then used in order to reason about criteria for a good framework in the context of teaching MapReduce. The thesis then presents a MapReduce-framework which is targeted to be used in schools for teaching programming novices. Additionally, some course material for a course on MapReduce is provided.