EPILOG Wintersemester 2013

Auszeichnungen

Ausgestellte Arbeiten

Institut für Technische InformatikE182

Arbeitsbereich Embedded Computing Systems

Diplomarbeitsposter Hagmann Andreas

Andreas Hagmann

Masterstudium Technische Informatik
Abstract:

The field of research for runtime verification (RV) deals with verification methods, classified between common testing and formal verification. In a RV setting, the system under test (SUT) is observed by a runtime monitor that checks the monitored behaviour against a specification. Based on existing approaches, this thesis presents a RV framework, capable of observing embedded real-time systems. The proposed framework features a runtime monitoring unit, implemented as micro-processor architecture. The monitoring unit is built entirely in hardware and may be used stand-alone or integrated in the target system. It evaluates claims, specified as atomic propositions, Linear Temporal Logic, and Metric Temporal Logic formulas. The connection to the system under test is established by wire-taping its external interfaces. After an introduction to RV methods, this thesis captures the state-of-the-art and provides theoretical background. It proceeds with an analysis of existing parts and proposes optimizations on them. Thereby, the influence of different improvements is compared and verified by benchmarks, conducted with a software model of the runtime verification unit. Furthermore, the runtime verification framework is extended to support natively the evaluation of future time temporal formulas. A prototype implementation, shows the feasibility of the novel approach. The design of the RV unit is done with special focus on not influencing the behaviour of the SUT and getting along with the limited resources available within embedded systems. Benchmark results compare the improved runtime verification unit to the existing design and show a speed up factor of twelve. Synthesis runs show, that the proposed design fits well into a low-end commercial off-the-shelf FPGA. A case study completes this thesis and demonstrates the benefit of a RV unit within a real-world Unmanned Aerial System to detect erroneous sensor readings.

Diplomarbeitsposter Hofstätter Markus

Markus Hofstätter

Masterstudium Technische Informatik
Abstract:

The topic of this thesis lies in the intersection of VLSI design and fault-tolerant distributed algorithms. It is devoted to the development of an FPGA implementation of the well-known synchronous Phase King consensus algorithm using single-bit serial communication and the design of a suitable testbench for verifying its operation. The implementation is finally integrated into an existing prototype and testbench of the self-stabilizing Byzantine fault-tolerant distributed clock generation scheme FATAL+, where it is used to generate 17-bit wide synchronized clocks without increasing the stabilization time of the underlying scheme. The thesis also explores implementation alternatives and provides the correctness proofs of the employed algorithm.

Diplomarbeitsposter Pados Karoly David

Karoly David Pados

Masterstudium Technische Informatik
Abstract:

To make system integration in VLSI designs easier and modular, a common interface for IP cores is desirable. Modules with standardized interfaces can be more easily integrated into existing designs or swapped out for new parts, should the need arise. Such an interface and the bus system that connects multiple components need to comply with several non-trivial requirements, like efficient power utilization, high throughput, low latency, being easily adaptable to multiple types of IP cores and providing implementation flexibility to system integrators. For this reason, a number of competing interface standards have emerged. The focus of this thesis is the implementation and evaluation of such a standard and the accompanying interconnect for the AMBA AXI4 (Advanced eXtensible Interface version 4) bus. First, system-on-a-chip (SoC) bus systems and state of the art protocols are described to establish a good understanding and broad knowledge of the topic in general. Then functional and synthesizable IP cores are developed and presented for AXI4. These cores range from simple master and slave devices to fully functional interconnects, as well as components to support interoperability with older devices of the AMBA protocol suit. Also developed in this thesis are a simulation driver and a protocol monitor/checker to support validation. The components are then applied to the Scarts microprocessor where they are tested in a live environment. A detailed comparison of AXI4 and AMBA2 AHB is provided.

Diplomarbeitsposter Pavlovic Matej

Matej Pavlovic

Masterstudium Technische Informatik
Abstract:

A recent paper "On Dynamic Distributed Computing" by Sébastien Gambs, Rachid Guerraoui, Florian Huc and Anne-Marie Kermarrec presents new algorithms that make it possible to perform reliable distributed computation on a dynamic network of nodes, despite a Byzantine adversary controlling an important fraction of the nodes. The network is partitioned into clusters of small size (polylogarithmic in the size of the network) that contain a majority of honest nodes with high probability. The clusters, interconnected by a randomized overlay network, provide an abstraction which makes it possible to perform reliable computation in a network containing unreliable nodes. The algorithms handle dynamic node addition and removal, as long as the size of the network changes polynomially with respect to its initial size. This document describes the first attempt to implement these algorithms. Although the implementation is not complete, it is usable under certain assumptions and provides a solid basis for future improvements. We discuss the challenges encountered during implementation, the assumptions that had to be made on the network and the adversary and possible ways to weaken or drop these assumptions by further improving the implementation.

Diplomarbeitsposter Perner Martin

Martin Perner

Masterstudium Technische Informatik
Abstract:

Diese Diplomarbeit präsentiert ein selbststabilisierendes, Byzantinisch fehlertolerantes Verfahren (HEX) zur Taktverteilung in einer hexagonalen Grid-Topologie. Typische Anwendungsgebiete sind VLSI-Schaltungen und andere parallele/netzwerkgekoppelte Systemarchitekturen, die genau synchronisierte Taktsignale in benachbarten Knoten benötigen. Im Gegensatz zur Taktverteilung mittels einer Baumtopologie toleriert HEX sowohl persistente als auch transiente Fehler im Grid und unterstützt mehrfache synchronisierte Taktquellen. Um das zu bewerkstelligen, läuft auf jedem Knoten im HEX-Grid ein einfacher verteilter Algorithmus, der Takte weiterleitet und auch lokal zur Verfügung stellt. Zentraler Gegenstand der Arbeit ist eine VHDL-Implementierung des HEX-Algorithmus. Ein speziell entwickeltes Testbed erlaubt die Instantiierung, Simulation und das Post-Processing von HEX-Grids. Das gesamte Design wurde mittels einer ASIC-Standardzellen-Bibliothek synthetisiert, um ein für die Simulation mittels Mentor Graphics's ModelSim geeignetes Modell zu generieren. Umfassende Experimente wurden durchgeführt, um die Resultate der ebenfalls in dieser Arbeit dokumentierten theoretischen Analyse der Synchronisationsgenauigkeit (Skew) und der Stabilisierungszeit zu verifizieren. Diese bestätigten, dass die exotischen Worst-Case Szenarien in der Praxis unwahrscheinlich sind, sodass der typische Skew viel geringer als der Worst-Case ist. Experimente mit fehlerhaften Knoten, wo analytische Resultate nicht verfügbar sind, zeigten, dass HEX auch mit einer großen Anzahl fehlerhafter Knoten im Grid hervorragende Eigenschaften aufweist. Die Resultate dieser Arbeit, die vom Österreichischen Fonds zur Förderung der wissenschaftlichen Forschung (FWF) im Rahmen des Projekts FATAL (P21694) unterstützt wurde, konnten auch in den Proceedings der 6th International Conference on Dependability und des 25th ACM Symposium on Parallelism in Algorithms and Architectures publiziert werden.

Diplomarbeitsposter Winkler Kyrill

Kyrill Winkler

Masterstudium Technische Informatik
Abstract:

This thesis is concerned with impossibility results, i.e., proofs of the fact that certain classes of algorithms cannot exist. The algorithms investigated are from the field of fault-tolerant distributed computing, which is devoted to the formal study of processing entities, modeled as communicating state machines, that may possibly fail and communicate with each other by either exchanging messages or via access to a shared memory. We investigate the problem of k-set agreement, a natural generalization of consensus. While consensus concerns itself with the task in which all processes eventually have to decide on a common value that was originally some process’ input value, k-set agreement allows up to k different decision values. Hence, for k = 1, k-set agreement is equivalent to consensus. Although there exist impossibility results for deterministic consensus in systems prone to failures, relying solely on combinatoric arguments that might be considered classical today, the corresponding impossibility results for k-set agreement require complex arguments from algebraic topology. Nevertheless, there has been recent research on finding “easy” or non-topological impossibility proofs for k-set agreement, which may also provide a new handle on solving some long-standing open problems like the weakest failure detector for k-set agreement in message-passing systems. The focus of this thesis lies on such non-topological impossibilities for k-set agreement. We present and discuss existing approaches and results and provide rigorous proofs for new results regarding various models and scenarios, including the important class of dynamic systems that may evolve over time. This work has been supported by the Austrian Science Fund (FWF) project RiSE (S11405).

Institut für Rechnergestützte AutomationE183

Arbeitsbereich Automatisierungssysteme

Diplomarbeitsposter Auernig Christoph

Christoph Auernig

Masterstudium Software Engineering & Internet Computing
Abstract:

Das heutzutage verwendete Formulardesign ist geprägt von der technischen Notwendigkeit für automatische Datenverarbeitung. Dies führt zu Formularen, die in viele kleine Felder aufgeteilt und mühsam auszufüllen sind. Verwandte Arbeiten im Bereich Such-Formulardesign schlagen vor, das dadurch entstehende Usability-Problem durch den Einsatz kombinierter Eingabefelder zu lösen. Die vorliegende Arbeit untersucht, ob die Idee von kombinierten Formularfeldern auch auf Formulare in Produktivitäts-Anwendungen – wie z.B. in der Betriebswirtschaft oder im e-Government – eingesetzt werden kann. Dafür wurde mit einem iterativen Designprozess ein Prototyp erstellt und mit konventionellem Formulardesign in einer Usability Evaluation verglichen. In dem in der vorliegenden Arbeit durchgeführten Usability Test wurde sechzehn Benutzern die Aufgabe gestellt, ein Benutzerprofil eines sozialen Firmen-Netzwerkes auszufüllen. Die Resultate zeigen, dass die Benutzer keine Probleme im Umgang mit den kombinierten Eingabefeldern hatten. Anders als ähnliche Arbeiten zeigen die Resultate keinen signifikanten Anstieg in der Ausfüll-Effizienz. Eine Langzeitstudie mit erfahreneren Benutzern könnte bessere Resultate zeigen. Jedoch waren die Testpersonen sehr zufrieden mit dem kombinierten Formular. Die Resultate bestätigen, dass die in der vorliegenden Arbeit entwickelten kombinierten Eingabefelder in Geschäfts- und Produktivitäts-Anwendungen verwendet werden können, um das visuelle Design zu verbessern und mehr Übersicht zu gewährleisten.

Diplomarbeitsposter Bartl Florian

Florian Bartl

Masterstudium Technische Informatik
Abstract:

Die Anzahl der Haushaltsgeräte steigt in modernen Häusern ständig. Um deren Kontrolle zu vereinfachen, wird Automatisierungstechnik eingesetzt. Durch die Integration zusätzlicher Geräte in die Steuerung/Regelung von Haustechniksystemen steigt jedoch die Komplexität des Systems weiter an. Zusätzlich wird die Energieeffizienz dieser Systeme immer wichtiger, unter anderen durch ökonomische Überlegungen sowie einem wachsenden Umweltbewusstsein. Moderne Haustechnik erlaubt es, Geräte und Funktionen im Haus zu kontrollieren, ist aber komplex in Konfiguration und Bedienung. Dies macht es den Benutzern des Hauses schwer, Änderungen vorzunehmen und führt dazu, dass Einstellungen, wie Komforttemperatur, lediglich bei der Inbetriebnahme des Systems eingestellt, aber nie verändert werden. Um sicherzustellen, dass diese Systeme mit optimaler Effizienz arbeiten, ist somit ein autonomer Betrieb notwendig, bei dem die eingesetzten Systeme selbsttätig Aufgaben im Haus übernehmen und deren Umsetzung effizient gestalten. In dieser Arbeit wird eine auf künstliche Intelligenz basierende autonome Steuerung/Regelung für ein Haus entwickelt. Der Systementwurf folgt einem Multi-Agenten Ansatz und wird mit Hilfe einer etablierten Agenten Methodik durchgeführt. Dabei sollen nicht nur klassische Haustechniksysteme wie Heizungs-, Lüftungs- und Klimaanlagen betrachtet werden, sondern alle Energieverbraucher sowie die Bewohner selbst in das System einbezogen werden. Dies wird mit Hilfe von Agenten, die auch die Bewohner repräsentieren, realisiert. Agenten vertreten die Interessen ihrer Abbilder und versuchen die Systeme im Haus so effizient wie möglich zu betreiben. Durch Ausnutzung des Multi-Agentenparadigmas und der Vorsehung von Kommunikationsbeziehungen zwischen Agenten wird ein dynamischer Betrieb ermöglicht, der parallel dazu die Einhaltung von Komfortparametern sicherstellt. Das System wird auf Basis einer detaillierten Spezifikation prototypisch umgesetzt und getestet.

Diplomarbeitsposter Bruckner Markus

Markus Bruckner

Masterstudium Software Engineering & Internet Computing
Abstract:

The increasing technologization of the business world yields many benefits. Various kinds of information are just accessible at any time. However, providing information requires storage space, and through the ever growing amount of digital information, the demand for additional storage space increases as well. The resulting need to cope with the continuously increasing demand for capacity is posing a considerable challenge for the information technology (IT) departments of organizations. Because of the large number of involved systems, keeping an overview of the overall consumption is hard. This problem concerns end users, which lack the ability of watching their space usage. Administrators are impeded by the lack of overview of the current situation and the consumption evolution as well. Further, capacity planning, charging user departments for consumed IT services, and justifying budget for new hardware against the executive management become more difficult. This thesis tries to address these problems. In a literature research the life cycle of data will be examined. Governance models will be explored with regard to their utilization of monitoring and reporting. Requirements will be derived from the topics of the literature research and complemented with experiences from a sample domain. Afterwards, a prototype will be implemented. The developed prototype constitutes a modular system to monitor and record resource consumption. It integrates seamlessly into existing infrastructures, for example by providing the ability to interface with existing directory services and authentication mechanisms. The reporting component provides the end users with personalized reports of their resource consumption. For the use by managers, administrators and other parties in charge of IT, the data can be summarized by users and departments or the whole organization. The component can be extended by additional modules and configured by an administration website.

Diplomarbeitsposter Dabrowski Adrian Marek

Adrian Marek Dabrowski

Masterstudium Software Engineering & Internet Computing
Abstract:

In this work, we carried out a black-box analysis of the electronic contact-less BEGEH system that has been steadily replacing the conventional mechanical BG key on multi-party houses in Vienna. The BG key has been introduced originally to allow mail delivery services to access multi-party houses but has since then aggregated additional users. We have found several vulnerabilities in the new system caused by the design, technology used, organization, and its implementation. We have further shown that the new system is circumventable with little costs.This effectively nullifies many security advantages promised by the manufacturer. We found a configuration issue, enabling access to 43% of all installations with a reprogrammed transponders worth approximately €2, such as an old ski pass. We have also shown that it is not necessary to break the encryption of the data, as it can be replayed together with its UID-derived key. Therefore, we built a card simulator for less than €20. We also conclude that the way blacklist updates are organized, raises the black market value of physically stolen keys. On two more examples (an electronic purse and an UID based access system) we demonstrated that similar issues are found in other systems as well. We show that UID based solutions offer a lower level of security than could be expected, especially when not enough attention is payed to the entropy of the UID space.

Diplomarbeitsposter Do Duc Hoa

Duc Hoa Do

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Die Einhaltung grundlegender sicherheitstechnische Prinzipien erhöht nicht nur die Zuverlässigkeit von technischen Systemen, sondern wird häufig auch vom Gesetz gefordert. Diese Diplomarbeit beschäftigt sich zuerst mit den zwei Normen EN 61508 und ISO 26262. Während die EN 61508 generisch ist und sich hauptsächlich mit der Risikobewertung von sicherheitsbezogenen technischen Systemen befasst, bezieht sich die ISO 26262 auf Serienfahrzeuge. Zentraler Begriff beider Normen ist das Maß der Sicherheitsrelevanz, die in SIL und ASIL angegeben wird. Danach wird das Sicheres Mikrocomputersystem SIMIS vorgestellt und Konzeption, Aufbau und Funktionsweise erläutert. Die Anwendung von FMECA ist ebenso eine anerkannte Methode, um die Sicherheit eines technischen Systems weiter zu verbessern. Hier wird auf die historische Entwicklung, Voraussetzung und Einsatzzweck, die FMECA Arbeitsblätter, Risikoprioritätszahl, Risikomatrix und die Grenzen der FMECA eingegangen. Die Verwendung von Funktionswächtern ist ein weiteres sicherheitstechnisches Prinzip. Nach zwei Einsatzbeispielen wird der grundlegende Aufbau dieser sogenannten Watchdogs erklärt sowie Architekturen und Ausführungen behandelt. Eine Skizzierung des optimalen Watchdogs wird vorgenommen und Ideen zu mehrstufigen Funktionswächtern werden angeboten. Die Funktionsweise des Ruhestromprinzips wird beschrieben und die Umsetzung in drei Anwendungsbeispielen veranschaulicht. Als letztes werden die Vorteile der Dynamisierung von Steuersignalen gezeigt. Die Umsetzung wird anhand einer Funktionsschaltung mit Transistorstufe und dem LOGISAFE Systems demonstriert.

Diplomarbeitsposter Galler Jürgen

Jürgen Galler

Masterstudium Technische Informatik
Abstract:

Today's Internet has reached its scalability limits with respect to the number of participants and performance. Contemporary Internet devices are not just computers, but also tablets, smart phones and even small devices, like sensors and actuators. A variety of new technologies is inherent to these Internet appliances, like IPv6, ZigBee, 6LoWPAN or NFC. From the combination of these technologies a new paradigm arises, the so called Internet of Things (IoT). The problem of all these new services is how a service can be addressed. Typically, a client has to know the exact resource identifier (URI) in order to use a specific service hosted by a server somewhere in the Internet. This thesis provides a concept which relaxes the strong binding between service and server by the use of IPv6 focusing on the addressing of sensors and actuators. A client can place an unaddressed request to the so called content aware network. A smart router fetches the request and forwards it to a dedicated server, which is able to process the request. To this end, the request contains a semantic tag which is interpretable by participating network nodes. After the initial primary request is sent to its target server, this server examines the request and performs some secondary requests in order to set the corresponding actuators or to fetch current values from sensors. In addition to the correct routing of unaddressed requests, the content aware network is also able to route unaddressed data packets sent from sensor/actuator-units. Such a data packet can be sent for example on the change of a node's internal state. As a proof of concept, an elementary reference system is implemented which provides a reduced set of functionalities in order to evaluate the concept with respect to performance, security and fault tolerance. The network's performance, measured in the amount of messages, is compared to some theoretical alternative approaches. In order to preserve security, IPsec is investigated.

Diplomarbeitsposter Miller Bernhard

Bernhard Miller

Masterstudium Software Engineering & Internet Computing
Abstract:

Over the last few years, Apple’s operating system OS X has steadily increased its user base. Today, an estimated 7.5% of all computers worldwide are running OS X. One reason for this advancement is the platform’s questionable reputation of being inherently safe. However, the growing popularity of Apple computers has called criminals to attention. An increasing number of malware families is specifically targeting OS X. While there is a substantial body of research and tools dealing with malware on Windows and, more recently, Android systems, OS X has received little attention from security researchers so far. To amend this shortcoming, I implemented iHoneyClient, a tool to discover and analyze Mac malware. iHoneyClient offers a high-interaction client honeypot based on OS X that simulates an end user browsing the web on an Apple computer. The honeypot is able to examine the threat a website poses to OS X users. In addition, I built a dynamic analysis sandbox based on iHoneyClient. With this sandbox it is possible to execute Mac malware samples in an isolated environment and monitor their behavior. I used iHoneyClient to evaluate over 6,000 blacklisted URLs to estimate how widespread malware for OS X is today. Furthermore, I used the dynamic analysis environment to analyze 174 malware samples. The combined results give an overview of the current state of OS X malware. While several advanced malware families for OS X exist, it is highly unlikely to become infected by simply browsing the web.

Diplomarbeitsposter Pfeifhofer Christian

Christian Pfeifhofer

Masterstudium Software Engineering & Internet Computing
Abstract:

Ausgefeilte Geschäftsmodelle bilden heutzutage die Grundlage für den Vertrieb und die Entwicklung von Malware. Kriminelle Organisationen haben Geschäftspraktiken, die im legalen Bereich schon lange als etabliert gelten, übernommen, und an die Gegebenheiten der Schattenwirtschaft im Internet angepasst. Sie erreichen damit eine effizientere Arbeitsteilung, sodass Kernkompetenzen bestmöglich zum Einsatz gebracht werden können. Die Verteilung von Schadsoftware ist dementsprechend oft ein Unterfangen, an dem mehrere, spezialisierte Gruppen beteiligt sind. Ein Beispiel für eine solcherart spezialisierte Gruppe ist der Pay-Per-Install (PPI) Provider. PPI Provider verkaufen die Ausführung bösartiger Programme auf gekaperten Computern als Service an andere Kriminelle (Clienten), welchen die Fähigkeit zur effizienten Schadsoftwareverteilung fehlt. PPI Affiliates führen dann im Rahmen von Partnerprogrammen die tatsächliche Verbreitung durch und werden vom PPI Provider für jede Installation bezahlt. Diese Arbeit konzentriert sich auf PPI Provider mit Partnerprogrammen, und beleuchtet deren Geschäftsmodell aus unterschiedlichen Perspektiven. Wir analysieren Infrastruktur und Software von PPI Providern, um neuartige Erkenntnisse über die zugrundeliegende Wertschöpfungskette zu gewinnen. Über einen Zeitraum von sechs Monaten beobachteten wir das Verhalten von 33 PPI Supportmitarbeitern und identifizierten damit Gemeinsamkeiten von Webseiten, obwohl diese scheinbar nicht in Beziehung stehen. Darauf aufbauend beschreiben wir die Gründung und Bewerbung unseres eigenen PPI Affiliate Programms, welches letztendlich eine potenzielle Infektionskapazität von 55.000 Computern pro Tag erreicht hat. Abschließend identifizieren wir wichtige ökonomische Eigenschaften des PPI Geschäftsmodells und fassen unsere Resultate unter Anwendung der Business Model Ontology zusammen.

Diplomarbeitsposter Renner Thomas

Thomas Renner

Masterstudium Informatikmanagement
Abstract:

Im Rahmen dieser Arbeit wird das Konzept einer E-Learning-Plattform für die Lehrveranstaltung „Technische Grundlagen der Informatik“ an der Technischen Universität Wien entwickelt. Die E-Learning-Plattform wurde in TUWEL umgesetzt. TUWEL ist eine Moodle Installation der Technischen Universität und steht allen Studierenden zur Verfügung. Im ersten Teil der Arbeit werden theoretische Grundlagen ausgearbeitet, auf denen die Umsetzung aufbaut. Zunächst wird das Potenzial von E-Learning im Allgemeinen erörtert, danach wird ein Vergleich zwischen papierbasiertem Lernen mit E-Learning gezogen. Ebenso werden theoretische Grundlagen für die Gestaltung von E-Learning Plattformen aufgearbeitet. Nach Definitionen für die einzelnen Ebenen im E-Learning werden besonders die Einflussfaktoren bei der Gestaltung von E-Learning Plattformen erörtert. Des Weiteren werden wichtige Erfolgsfaktoren für die Gestaltung einer E-Learning Plattform aufgezeigt. Danach wird auf jene Funktionalitäten und deren lerntheoretische Anwendung von Moodle eingegangen, die in der konzeptionellen Umsetzung für die Lehrveransaltung „Technische Grundlagen der Informatik“ Einsatz finden. Die konkrete Umsetzung des Konzepts erfolgt als TUWEL-Testkurs, der Einsatz von Bestandteilen obliegt der Verantwortung der Lehrveranstaltungsleitung.

Diplomarbeitsposter Ryba Gregor

Gregor Ryba

Masterstudium Software Engineering & Internet Computing
Abstract:

The "Internet of Things" vision refers to an Internet that is not completely dependent on humans creating information. It tries to incorporate the physical world with its objects. The smart grid is one application of this vision. It integrates ICT technology into the traditional power grid to cope with the new requirements that are arising out of its continuing expansion and the incorporation of new energy sources. Because of interoperability many of these ICT devices are relying on Web services for transportation of the data generated. Since most of this data is sensitive, privacy needs to be established. The huge number of devices that are involved in such a system requires high scalability. Based on an example scenario arising out of the smart grid, this thesis introduces an architecture offering authorization as a service. It is based on the two standards XACML and SAML. It is documented with the 4+1 view model and a software prototype is implemented. This prototype is then deployed to the PaaS framework Appscale. Appscale is an open source implementation of Google's App Engine framework. It enables the execution of applications in a cloud environment, without the need to take care of the issues arising out of the distributed computing model. For comparison a version of this architecture runnable on an on-premises system is developed. Evaluation of the prototype focuses on its scalability. Load tests are run against the system in various configurations with all distributed databases offered by Appscale. The recorded results are ranging from a very unstable behaviour to the awaited scalability dependent on the number of nodes used for Appscale deployment.

Diplomarbeitsposter Staroch Paul

Paul Staroch

Masterstudium Software Engineering & Internet Computing
Abstract:

In the past few years, the idea of creating smart homes has gained popularity. A smart home possesses some kind of intelligence that allows it to support its inhabitants. The overall goal is to increase the inhabitants' comfort while energy use and costs are reduced as well. In the context of a project aimed at building smart home systems, this thesis aims at constructing an OWL ontology for weather information, containing data about both current conditions and weather forecasts. The data described by this ontology will enable smart home systems to make decisions based on current and future weather conditions. At first, the thesis will determine in which particular ways weather data can be used within smart homes. Furthermore, possible sources for weather data will be analysed. Primary sources will be weather services that are that are accessible via Internet. Optionally, local weather stations will be able to provide further data about current weather conditions. A set of Internet-based sources for weather data will be reviewed for their suitability for use within smart homes. Afterwards, existing ontologies will be reviewed for their structure, advantages, and disadvantages in order to acquire ideas being suitable to be re-used. Several well-known approaches for building new ontologies from scratch will be discussed in detail. The thesis will follow METHONTOLOGY, the best-fitting of these approaches, to build SmartHomeWeather, an OWL ontology that covers both the weather data being available and the concepts required to perform weather-related tasks within smart homes while always keeping the possibility of simple and efficient OWL reasoning in mind. Eventually, Weather Importer, a Java application, will be developed that gathers data from weather services and local weather stations and transforms it to comply with the SmartHomeWeather ontology.

Diplomarbeitsposter Stütz Martin

Martin Stütz

Masterstudium Information & Knowledge Management
Abstract:

Diese Arbeit beschreibt einen Algorithmus zur Erkennung von Farbbildern mit pornographischen oder gänzlich illegalen Inhalten. Dazu kann der Algorithmus eine Altersklassifizierung anhand von gesichtsbasierter Geometrie durchführen. Der Algorithmus erweitert den Algorithm for Nudity Detection von Rigan Ap-apid durch die Verwendung von Support Vector Machines und Methoden zur Eliminierung von Fehlalarmen. Die Nacktheits- und Pornographieerkennung basiert auf Hauterkennung. Mithilfe von Hauterkennung können Hautflächen in Bildern lokalisiert werden. Größen, Formen und Distanzen der erkannten Hautflächen zueinander werden als Features zur Beschreibung der Inhalte von Bildern verwendet. Basierend auf diesen Features und dem Gesamtanteil von Haut wird das Bild durch eine Support Vector Machine als verfänglich oder unverfänglich klassifiziert. Die analysierten Bilder werden mittels OpenCv nach Gesichtern durchsucht. Positionen von Augen, Mund, Nase und Kinn werden innerhalb von erkannten Gesichtern ermittelt. Eine Support Vector Machine klassifiziert die Gesichter anhand der Distanzen zwischen diesen Gesichtsmerkmalen in zwei Klassen (>18 und <18). Die Nacktheits- und Pornographieerkennung arbeitet mit einer Recall-Rate von 65.7%, einer Precision-Rate von 39.8% und einer False-Positive-Rate von 6.4% auf einem Datensatz bestehend aus 12524 unverfänglichen und 811 verfänglichen Bildern. Die Altersklassifizierung wurde an einem Datensatz bestehend aus 2957 Bildern von Gesichtern mit verschiedenen Skalierungsgrößen getestet. Sie funktioniert mit einer Recall-Rate von 47.7%, einer Precision-Rate von 71.3% bei einer False-Positive-Rate von 2.9%. Basierend auf den erzielten Resultaten wurde eine GUI-basierte Software entwickelt, die Usern die Klassifizierung beliebiger Bilder ermöglicht.

Diplomarbeitsposter Valy Viktor Albert

Viktor Albert Valy

Masterstudium Business Informatics
Abstract:

Eine der großen Herausforderungen des Testmanagements eines Software-Entwicklungsprojektes stellt die Definition eines geeigneten, angepassten und integrierten Testprozesses dar. Im Rahmen der vorliegenden Arbeit wird anhand eines konkreten Fallbeispiels im Bereich der Flughafenverwaltung ein Testprozess für eine Airport Operational Database (AODB) entwickelt. Der entwickelte Testprozess basiert grundlegend auf den wichtigsten Teststandards der Industrie (IEEE 829, TMMi, ISTQB Glossar, ISO/IEC 29119) und auf projektspezifischen Merkmalen und Anforderungen, wie z. B. hausinterne Entwicklung, geographisch verstreute Mitglieder und agilen Entwicklungsansätzen, wie z. B. Pair-Programming und Pair-Testing. Um die repetitive Know-How Übermittlung zu reduzieren wurde eine exakte Hierarchie für Information-Retrieval festgelegt. Im Weiteren wurde ein sogenannter Feedbackloop konzipiert der als Rückmeldung für alle Teilnehmer dient. Um die Systemfunktonalität besser testen zu können, wurden verschiedene Test-Perspektiven definiert, wie z. B. Architektur, einzelne Anwendungsfälle und Benutzergruppen. Innerhalb diesen Test-Perspektiven muss der/die Tester/in spezifizieren, welche Testmethode (Black-Box, Grey-Box und White-Box) und welche Teststufe (Akzeptanz, System, Integration, Unit) getestet werden soll. Anhand dieser dreidimensionalen Matrix wird bestimmt, wie die Testfälle implementiert werden sollen. Der Testprozess wird mit Hilfe des Squash Test Management Tool umgesetzt. Squash TM wurde so konfiguriert, dass es die bisherigen Prozesse minimal beeinflusst und optimal unterstützt. Die Testdokumentation wurde laut dem IEEE 829 Standard konzipiert und bezüglich den zugehörigen Projektrollen in Squash oder dem Projektmanagement-Tool Redmine erstellt. Abschließend wurde eine Bewertung des angepassten und optimierten Testprozesses, basierend auf dem TMMi Bewertungsstandard, durchgeführt und in einer Tabelle zusammenfassend dargestellt.

Diplomarbeitsposter Weidinger Jürgen

Jürgen Weidinger

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Das Internet der Dinge (IoT) hat das Ziel, Komponenten der physischen Welt mit dem Cyberspace zu verbinden und Informationslücken zwischen der realen und virtuellen Welt zu minimieren. Durch die Entwicklung von Internet Protocol Version 6 IPv6 können zirka 340 Sextillionen Geräte eindeutig identifiziert werden. IPv6 ist damit ein wichtiger Wegbereiter zur Realisierung der Vision des IoT. Eine zukünftige Anwendungsdomäne im IoT betrifft die Gebäudeautomation mit Funktionen aus der Heizungs-, Lüftungs-, Klimatechnik, Beleuchtung und Verschattung. Das Zusammenwirken von Komponenten der technischen Gebäudeausrüstung ermöglicht auch die Einführung von Energiemanagementsystemen. Zusätzlich besteht der Bedarf der Integration von Gebäudeautomationssystemen mit Geschäftsprozessen. Web-Services sind eine Schlüsseltechnologie zur Gewährleistung von Interoperabilität zwischen unterschiedlichen Systemen. Diese Arbeit präsentiert einen Protokollstack für das IoT, der Interoperabilität unterschiedlicher Gebäudeautomationssysteme gewährleistet und eine eindeutige Identifizierung der Geräte mittels IPv6-Adressen ermöglicht. Der IoT-Stack basiert auf dem oBIX-Web-Service-Standard und erreicht Interoperabilität durch generische Typdefinitionen für zugrundeliegende Gerätschaften. Für die Optimierung hinsichtlich Effizienz des Übertragungsprotokolls wird im IoT-Stack das Constrained Application Protocol (CoAP) eingesetzt. Bezüglich Optimierung der Payloadgröße stehen unterschiedliche Kodierungsverfahren zu Verfügung. Im Rahmen der Arbeit wird ein transparentes Gateway für eine RESTful M2M-Kommunikation mit bestehenden Automationssystemen entwickelt. Evaluierungen untersuchen die Effizienz der Nutzdatenkodierungsverfahren und beziehen die Client/Gateway-Interaktion der vom IoT-Stack zur Verfügung stehenden HTTP- und CoAP-Bindings mit ein. Die Analyse zeigt deutlich, dass eine effiziente und interoperable Kommunikation durch den IoT-Stack ermöglicht wird.

Diplomarbeitsposter Wrubel Boris

Boris Wrubel

Masterstudium Business Informatics
Abstract:

Agiles Testen ist ein in der derzeitigen Theorie und Praxis des Softwaretestens wenig behandeltes Gebiet, obwohl die agile Softwareentwicklung eine Realität geworden ist, die nach dazu passenden Testansätzen verlangt. Damit verändern sich nicht nur die Aufgabengebiete im Test, es kommen auch ganz neue Schwerpunkte und Verantwortungen zum Tragen. Was dieser Wandel für den agilen Test bedeutet, wird in der vorliegenden Arbeit anhand eines konkreten Fallbeispiels erläutert. Die Analyse zeigt diverse Probleme, die entstehen können, wenn klassisches Testvorgehen auf agile Softwareentwicklung trifft und sie macht umso mehr deutlich, dass im Softwaretest ein Paradigmenwechsel angesagt ist. Gleichzeitig werden Lösungsansätze herausgearbeitet und in Folge ein beispielhafter agiler Testansatz vorgestellt. Der hier vorgestellte agile Testansatz beinhaltet einen Testprozess für agile Vorgehensmodelle und zeigt darüber hinaus auf, wie sich Testautomatisierung effizient in diesen integrieren lässt. Im Zusammenhang damit wird dargestellt, wie sich der Softwaretest die in der iterativen Entwicklung bereits etablierte Methode der Continuous Integration zunutze machen kann. Des Weiteren wird gezeigt, welche Wichtigkeit der Einsatz von passenden Werkzeugen im agilen Test hat und welche Bedeutung daher der Evaluierung dieser Tools zukommt. Abschließend wird der Wandel des Rollenbildes des Testers im agilen Umfeld behandelt, denn agile Testmodelle verlangen auch nach einem neuen Jobprofil des Testers.

Diplomarbeitsposter Zheng Min

Min Zheng

Masterstudium Informatikmanagement
Abstract:

Simulationen werden immer häufiger in der Wissenschaft eingesetzt. Auch in der Didaktik ist dies der Fall. Darum beschäftigt sich die hier vorliegende Arbeit mit dem Einsatz von Simulationstools für die Lehrveranstaltung „Technische Grundlagen der Informatik“. Des Weiteren wird das didaktische Konzept des „Blended Learning“ für diese Arbeit herangezogen, da dieses unterschiedliche Medien und didaktische Konzepte vereint. Für den näheren Selektionsprozess werden 40 Tools ausgewählt, die in dieser Arbeit evaluiert werden. Auch wird zu den jeweiligen Themengebieten dieser Lehrveranstaltung mindestens ein Tool vorgeschlagen, welches zum Einsatz kommen könnte. Daneben wird zu jedem Bereich ein Übungsbeispiel mit dem am besten bewerteten Tool geliefert.

Arbeitsbereich Computer Vision

Diplomarbeitsposter Gisperg Karin

Karin Gisperg

Masterstudium Visual Computing
Abstract:

Terrestrisches Laser Scanning (TLS) ist ein berührungsloses 3d-Datenerfassungssystem, welches z.B. in der Geomatik oder dem Denkmal- und Kulturgüterschutz verwendet wird. Abhängig vom Prinzip der Distanzmessung können Reichweiten bis zu 4000 m (RIEGL VZ-4000) oder Messraten von 976.000 Punkten/Sekunde (Faro Photon 120) erreicht werden. Ziel dieser Diplomarbeit ist die Implementierung eines automatisierten und robusten Prozesses zur Verarbeitung von TLS-Punkwolken historischer Fassaden. Basierend auf einer RANSAC unterstützen Methode wird die Struktur der Fassade durch geometrische Grundformen wie Ebenen, Kugeln oder Zylinder beschrieben. Abhängig von den Aufnahmebedingungen wird mithilfe dieser Methode eine Segmentierung der Objekte erreicht. Um die Performance hinsichtlich der großen Datenmenge und die Qualität der Resultate zu steigern, werden Optimierungen im Bereich der Modellinitialisierung (gestaffelte Initialisierungsumgebung) und der Lokalisierung von Punkten (kd-tree) umgesetzt. Um Redundanz zu vermeiden, werden die Symmetrieeigenschaften der Fassade untersucht. Es wird angenommen, dass klassizistische Fenster und deren Umrandungen symmetrisch angeordnet sind. Die Konturen der Fenster werden extrahiert und die Fassade in Regions Of Interest aufgeteilt. Diese werden anschließend mithilfe des Iterative Closest Point Algorithmus miteinander verglichen und ein Similaritätsmaß anhand der gemittelten quadrierten Distanzen ermittelt. Es wird gezeigt, dass dieses Kriterium in Kombination mit Otsu's Schwellenwertermittlung einen ausreichende Klassifizierung in symmetrische und nicht-symmetrische ROIs ergibt. Sind zwei Regionen symmetrisch, so werden sie einem Fenstermodell zugeordnet, welches durch jede weitere Instanz verfeinert wird. Letztendlich wird die Fassade durch die unterschiedlichen Fenstermodelle repräsentiert, welche aus den geometrischen Grundformen, den verbleibenden Punkten und den Einfügekriterien bestehen.

Diplomarbeitsposter Keglevic Manuel

Manuel Keglevic

Masterstudium Visual Computing
Abstract:

Even before the use of computers, meteorological data was recorded for statistics by means of handwritten notes. In addition to those handwritten documents stored in historic archives, processes, as manually filling in measurement values into forms, still depend on pen and paper. However, manually digitizing this data for further processing is cumbersome. In this thesis, a character recognition system for automatically digitizing handwritten weather records is proposed. The weather record dataset regarded in this thesis consists of known printed forms with handwritten meteorological measurements. The scope of this thesis are the numeric temperature values which are measured at three different points of time. The localization of the numerical data is achieved by first reconstructing the tabular structure of the form. Using vertical and horizontal projection profiles, the rough positions of the lines building up the table are found. Errors in the layout analysis are corrected using a-propri information of the form. Additionally, to reduce the influence of spurious lines, a stroke preserving line removal method is proposed. The extraction of the digits and signs is done using a binarization based on the Savakis filter. Using a trained PCA basis as a filterbank the features of the digits and signs are extracted and subsequently classified with multiple SVM with RBF kernels. Moreover, to allow an identification of uncertain prediction results, the class probabilities are estimated. The evaluation was conducted using three different digit databases with manually annotated ground truth, synthetically generated digit images with spurious lines and weather records from five different measurement stations. On a dataset with weather records from five different measurement stations an accuracy of 93% per digit is achieved. Furthermore, on a dataset containing only weather records from a single writer the performance is improved to over 99%.

Diplomarbeitsposter Kernegger Karin

Karin Kernegger

Masterstudium Business Informatics
Abstract:

Qualitätssicherung ist ein wichtiger Teil des Softwareentwicklungsprozesses. Diese kann unter anderem mit Hilfe von Sicherheitstests hergestellt werden. Das Ziel dabei ist es, so viele Sicherheitslücken wie möglich zu finden, weil versteckte Schwachstellen von einem Angreifer entdeckt und ausgenützt werden könnten. Heutzutage existieren verschiedene Ansätze und Werkzeuge, um automatisierte Sicherheitstests durchzuführen, allerdings können diese Angriffe, wie zum Beispiel SQL Injections oder XSS Attacken, nicht aufdecken. Das Ziel dieser Arbeit ist es, ein automatisiertes Sicherheitstestwerkzeug mit Hilfe von Retesting zu verbessern, sodass auch diese versteckten Sicherheitslücken gefunden werden können. Zunächst wird eine umfassende Literaturrecherche durchgeführt, in der automatisierte Sicherheitstestwerkzeuge vergleichend dargestellt wurden. Weitere Literaturrecherchen werden durchgeführt zu dem Thema des Retestings selbst sowie zu verschiedenen Konzepten, die notwendig sind, um Retesting im Rahmen eines automatisierten Sicherheitstestwerkzeuges umzusetzen. Ein Beispiel hierfür wäre automatisiertes Lernen. Basierend auf diesen Recherchen wird in dieser Arbeit ein selbst erarbeitetes Retesting Konzept vorgestellt: Zunächst erfasst das automatische Sicherheitstestwerkzeug im Rahmen einer Lernphase, wie das normale Verhalten des getesteten Systems wie zum Beispiel die normale Antwortzeit oder die normale CPU Auslastung ist. In der darauffolgenden Testphase werden bösartige Eingabewerte zu dem System gesendet. Wenn dabei ein abnormales Verhalten beobachtet wird, wird ein Retest durchgeführt. Das ist notwendig, um das Ergebnis des ersten Tests zu bestätigen. Dieses Konzept wird in ein schon bestehendes Sicherheitstestwerkzeug eingebaut. Die Ergebnisse im Rahmen eines Machbarkeitsnachweises zeigen, dass Retesting nicht nur hilft, Sicherheitslücken aufzuzeigen, sondern es kann auch die Anzahl der gemeldeten false positives reduzieren.

Diplomarbeitsposter Ofner Joachim

Joachim Ofner

Masterstudium Medizinische Informatik
Abstract:

The thesis compares texture features for fully automated quantification of Diffuse Parenchymal Lung Disease (DPLD) related pathological tissue in High Resolution Computed Tomography (HRCT) images. Features are implemented as classical local texture features and with the Bag of Features approach. Feature selection is tested as well. Furthermore, the stability of automatically generated class labels compared to ground truth labels is analyzed. The approach was evaluated on 97 HRCT images of pathological lung tissue. Slice thickness was 1mm and inter-slice distance 10mm. A ground truth containing healthy and four pathologic patterns (emphysema, ground glass, fibrosis, micromodules) with delineated regions created by three radiologists was available. We generated texture features (Gray Level Histograms, Local Binary Patterns, Haralick features, a Gaussian Filterbank and Riesz features) and evaluated the classification performance of the two texture formulations on volume level with a 10-fold cross validation. Random Forests were used as classifier, providing additional information of feature importance to be used for feature selection. Haralick features performed best as local texture features with 69.59% classification accuracy. With 76.17% Local Binary Patterns reach the highest performance in the Bag of Features formulation in manually generated regions of the ground truth. Feature selection does not improve classification results significantly. Ground truth class labels reach a stability of 71%. This stability is slightly outperformed by automatically generated labels. The results suggest the use of Local Binary Patterns, as computationally efficient local texture features in combination with the Bag of Features approach. This feature formulation provides high flexibility together with efficiency. Lung texture classification applications have to get more independent of manually created ground truth.

Diplomarbeitsposter Opitz Michael

Michael Opitz

Masterstudium Visual Computing
Abstract:

Text detection and recognition in natural scene images has applications in computer vision systems such as license plate detection, automatic street sign translation, image retrieval and help for visually impaired people. Scene text, however, may have complex background, image blur, partially occluded text, variations in font-styles, image noise and varying illumination. Hence scene text recognition is a challenging computer vision problem. This work addresses the problem of dictionary driven end-to-end scene text recognition, which is divided into a text detection problem and a text recognition problem. For text detection an AdaBoost sliding window classifier is used to detect text in multiple scales. The effectiveness of several feature-sets for this classifier are compared and evaluated. A modified Local Ternary Pattern (LTP) feature-set is found as most effective for text detection. In a post-processing stage Maximally Stable Extremal Regions (MSER) are detected and labeled as text or non-text. Text regions are grouped to textlines. Textlines are split into words by a word-splitting method build upon k-means and linear Support Vector Machines (SVM). For text recognition a deep Convolutional Neural Network (CNN) trained with backpropagation is used as one-dimensional sliding window classifier. To avoid overfitting the network is regularized by Dropout. Recognition responses are used in a Viterbi-style algorithm to find the most plausible word in a dictionary. The influence of training set size and size of convolutional layers is evaluated. The system presented outperforms state of the art methods on the ICDAR 2003 and 2011 dataset in the text-detection (F-score: 74.2% / 76.7%), dictionary-driven cropped-word recognition (F-score: 87.1% / 87.1%) and dictionary-driven end-to-end recognition (F-score: 72.6% / 72.3%) tasks.

Diplomarbeitsposter Pramerdorfer Christopher

Christopher Pramerdorfer

Masterstudium Visual Computing
Abstract:

Falls are a leading cause for accidental deaths among persons aged 65 or older. Fall victims require immediate assistance in order to minimize morbidity and mortality rates. However, statistically every other fall victim is unable to get back up without help. The aim of fall detection is to ensure fast assistance by automatically informing caretakers in case of falls. Different methods have been proposed for this purpose, but there are still unresolved issues that limit the applicability of fall detection systems in practice. This thesis introduces a new fall detection system using current depth-sensing technology, with the aim of addressing these limitations. This sensor technology has several advantages over alternatives; it is unobtrusive, preserves the privacy of subjects, and works independently of lighting conditions, allowing for continuous monitoring. The generated data enables powerful scene analysis and, consequently, reliable fall detection. The applicability of this technology is verified by means of a quantitative analysis, in order to assess its limitations and data quality. In contrast to existing methods, the proposed system emphasizes person detection and tracking, which allows for robust temporal analysis and thus improves fall detection performance. To this end, this work also proposes a new motion detection algorithm optimized for depth data and fall detection. Furthermore, this work contributes to the research field of tracking by introducing effective means for tracking multiple persons. The proposed system is easy to set up, plug and play, and can run on inexpensive low-end hardware, promoting broad acceptance. This work shows that reliable fall detection in depth data is possible, as verified on a comprehensive fall database. At the time of writing, the system is tested under practical conditions in four countries, with promising first results.

Diplomarbeitsposter Pönitz Thomas

Thomas Pönitz

Masterstudium Visual Computing
Abstract:

Aufgrund der kontinuierlich steigenden Menge an digitalen Bildern und dem ständigen Wachstum an verfügbarer Speicherkapazität, sind umfangreiche Bilddatenbanken weit verbreitet. Eine spezielle Herausforderung ist eine Bilddatenbank auf nahezu identische Bilder zu durchsuchen. Ein dafür konzipiertes System akzeptiert Bilder als Suchanfragen und liefert gegebenenfalls entsprechende Originale zurück. Die Schwierigkeit dabei ist eine Bildrepräsentation zu finden die robust in Bezug auf diese Transformationen ist. Gleichzeitig soll die Ähnlichkeit zweier Repräsentationen effizient zu berechnen sein oder die Repräsentationen sollten indizierbar sein. Im ersten Fall kann die Datenbank linear durchsucht werden, während im zweiten Fall eine effiziente Suchstruktur aufgebaut werden kann. Die Bags of Visual Words Methode hat sich als geeignet herausgestellt. Dabei wird ein Bild durch die Häufigkeiten seiner enthaltenen visuellen Worte beschrieben. Diese visuellen Worte werden von lokalen Bildmerkmalen abgeleitet. Methoden auf dem aktuellen Stand der Wissenschaft verwenden SIFT Merkmale, welche den Nachteil einer aufwendigen Berechnung haben. Um dem entgegenzuwirken werden in dieser Arbeit SIFT Merkmale durch binäre Merkmale ersetzt. Binäre Merkmale bestehen aus einer einfachen Liste an Bits und ermöglichen bestimmte Schritte der Bags of Visual Words Methode effizienter durchzuführen. Das Erzeugen der visuellen Worte ist einer dieser Schritte und äußerst zeitaufwändig. Ein alternativer Clustering-Algorithmus, kShifts, wird untersucht, um diesen Schritt effizienter durchzuführen. Weiters wird der kMeans Algorithmus für binäre Merkmale angepasst und mit kShifts verglichen. Für die Evaluierung des vorgestellten Systems werden frei verfügbare Bilddatenbanken verwendet. Ein Vergleich mit aktuellen Methoden wird gezogen. Zusätzlich wird eine Bilddatenbank mit circa 1,000,000 Pressebildern als praxisorientierter Anwendungsfall untersucht.

Institut für InformationssystemeE184

Arbeitsbereich Distributed Systems

Diplomarbeitsposter Djamiykova Denitsa

Denitsa Djamiykova

Masterstudium Software Engineering & Internet Computing
Abstract:

Mit der steigenden Popularität des Cloud Computings, nimmt auch die Notwendigkeit von leichten Bereitstellen, Migration und Voraussagen der Qualität des Netzwerks zu. Software Defined Networks (SDNs) versprechen bessere Skalierbarkeit, Flexibilität und Effizienz des Cloud-Netzwerks durch Abstraktion der Regelung von der Weiterleitungsschicht. Heutzutage ist eines der schwierigsten Probleme der Cloud-Netzwerksvirtualisierung, das auf eine SDN gebaut ist, die schlechte Verwaltung und Überwachung der Korrespondenz zwischen den hysischen und den logischen Ressourcen. Diese Arbeit präsentiert eine Erweiterung zu einem bestehenden SDN Controller, der die physikalischen Netzwerk-Ressourcen überwachen und die entsprechenden virtuellen Netzwerk Ressourcen zuweisen soll. Das Low-Level-Monitoring in jedem Cloud Setup ermöglicht eine optimale Ausnutzung der physischen Ressourcen und eine bessere und schnellere Bereitstellung des logischen Netzwerkes sowie der Tenant VMs. Das vorgeschlagene SDN Controller Plug-in ermöglicht Low-Level-Monitoring, das zentralisiert für das Netzwerk ist. Das Plug-in bietet Informationen für Änderungen und Störungen in der physischen Netzwerk Bereitstellung, gibt Feedback für alle durchsetzten Management-Strategien und hilft für eine effektive Durchsetzung der Netzwerk-QoS und schließlich für eine Vorhersage von SLA Verletzung. Weiterhin ist eine Analyse der Verbindung zwischen den physischen und den virtuellen Netzwerk Ressourcen bereitgestellt, die sich auf eine kontinuierliche Überwachung des verschiedenen Netzwerk Topologien Verhaltens berührt. Die Auswertung der unterschiedlichen Netzwerke zeigt, dass es keine universelle Lösung für die verschiedenen Arten von Netzwerk Anforderungen passen würde.

Diplomarbeitsposter Gavrilete Constantin-Claudiu

Constantin-Claudiu Gavrilete

Masterstudium Software Engineering & Internet Computing
Abstract:

Popular web search engines, such as Google, rely on traditional search result ranking methods such as the vector space model probabilistic models in combination with the famous PageRank algorithm. In the last couple of years personal document relevance got considered when ranking search results, as it improves the result quality significantly. This thesis extends related work in the area of result personalization, by providing the concept and implementation of a keyword based personal search engine. Compared to other work, the personal relevance is measured by the user's activity with keywords of one document, such as clicking or hovering. A ranking algorithm is introduced, which considers keyword and document frequencies in the vector space model, combined with the interaction of those keywords to compute the document score. The concepts are implemented as an HTML5 browser extension for Google Chrome, which actively measures the user's interaction with the visited content, without interfering with the normal surfing behavior. Querying for visited content retrieves stored documents and orders them according to their personal relevance. An evaluation is conducted to test whether the behavioral ranking factors are significant enough for personal relevance. It is shown, that the interaction of the user with the document's content correlates with its relevance. Furthermore, a benchmark of WebSQL and IndexedDB as HTML5 data storage structures for insert, update and search operations reveals that the latter technology outperforms the former in almost every configuration.

Diplomarbeitsposter Hava Thomas

Thomas Hava

Masterstudium Business Informatics
Abstract:

A constantly increasing growth of the amount of Internet users worldwide, as well as new types of web services like social networks or video services, are demanding more and more server capacities within data centers. In fact between the year 2000 and 2005 the power consumption of data centers has doubled. In the year 2010 data centers were estimated to consume 1,3% of the world wide electricity production. Since the increase of data center costs the concept of green IT developed in the field of data centers. Basic ideas of green IT are to reduce the ecological footprint and to improve the energy effectiveness. This goals can be reached by using renewable energy sources like wind power, photovoltaics or hydro power. These power sources share the issue, that the amount of energy, which they are producing depends on the current state of their environment. The key issue of this diploma thesis is to identify common data center server applications and to analyze if their power profiles can be aligned to the power production profiles of renewable energy based power sources.

Diplomarbeitsposter Hohenwarter Christoph

Christoph Hohenwarter

Masterstudium Software Engineering & Internet Computing
Abstract:

The assignment of this diploma thesis was the observation of the characteristics of infrastructure due a disruption by using a computer model. This leaded to the designing of a simulation model, the calculation and presentation of simulation results regarding a graph representing an infrastructure network. Therefore the time-dependent behavior after the occurrence of a disruption is observed. The examined infrastructure network can be an electric supply network, a water supply network or any other kind of infrastructure network. This diploma thesis observes the simulated behavior of the infrastructure of an Austrian military base after a theoretical incident. The used data in this thesis was delivered by the Austrian Armed Forces. The relationships between the infrastructure elements are modeled using one-dimensional input and output values as there is not made any distinction between the different performance aspects of each infrastructure element. For the model development a directed graph is used. The links are defined by functions. Also the used data for this thesis are analyzed and the way of collecting this data is discussed in a critical manner. The major results of this scientific work are the performance charts of the simulated infrastructure of the observed military base during a dysfunction at which assumptions are made of a general nature and those results are interpreted.

Diplomarbeitsposter Margulies Eduard Rudolf

Eduard Rudolf Margulies

Masterstudium Medieninformatik
Abstract:

The term smart-home has become very popular over the last years, gaining a great deal of importance in technological fields of research, especially in the field of Ambient Assisted Living (AAL). AAL represents an important branch of the Human Computer Interaction (HCI). For disabled persons the smart-home can offer increased support and an overall better experience in everyday life. Further, non-disabled persons could also benefit from the smart-home experience with many supportive functions for day to day living. Location plays an integral role in smart-home environments, thus many functions and actions depend on the user’s current location in the home. For outdoor environments robust solutions like the American GPS for navigation systems, aGPS, or the European Galileo already exist. For indoor-environments such as smart-homes, only a few useable technologies are available. With this master thesis, we are interested in research on an easy-to-setup and fairly inexpensive approach for location determination systems. For that reason we use an embedded device from ORACLE: the Sun SPOT. This device offers a variety of mechanisms which can be used for the location determination as, for example, the accelerometer as well as offering the ability for wireless communication. First, we will show that our experiments with the accelerometer device yields imprecise localization results related to erroneous measurement-readings from the device’s accelerometer-chip itself, thus not usable in indoor environments. The second part of this thesis covers the location inference based on the wireless network communication of the Sun SPOT, which in turn is based on key performance indicators and the Weighted Centroid Localization (WCL) algorithm. We will show that this inexpensive and effective approach is suitable for roughly determining location, because of its imprecise measurement values and dealings with common issues in a wireless network, like interferences and reflections.

Diplomarbeitsposter Nowak Rene

Rene Nowak

Masterstudium Software Engineering & Internet Computing
Abstract:

With an increasing number of devices using applications, the amount of data that has to be managed has grown rapidly. This means, that scalability of databases gets more and more important. So in the last years so called not only SQL (NoSQL) databases have become popular because they can be distributed more easy than traditional relational databases. The problem is, that different data stores use different ways to manage their data and provide specific interfaces to persist and load this data sets. This makes it hard for application developers to use this new technologies in their applications. So using different types of persistence, as described in the polyglot persistence model, means that a lot of code has to be written for covering the different APIs. The following thesis describes and presents a solution to access different types of data storage through one interface. Therefore, the differences between the management and storage of data are described and discussed. Based on this discussion, a common interface will be designed. Because the API cannot cover all different functionalities, developers will also get the possibility to access specific libraries, to use special functions for a data store. This means, that data can be stored where it fits best, without losing any functionality or flexibility. In some cases, it is useful to move data from one data store to another. This often requires a lot of migration code to read and write data. In this thesis, we will also present a solution for this problem and a prototype implementation of this feature will be discussed.

Diplomarbeitsposter Schreder Bernhard

Bernhard Schreder

Masterstudium Software Engineering & Internet Computing
Abstract:

This master thesis discusses the problem of integrating legacy data sources with other connected applications and data sources, one of the key issues of processes such as Enterprise Application Integration. This work examines one possible solution to this problem by leveraging semantic technologies, specifically, by mapping between ontologies which describe the legacy data sources. This solution necessitates the mediation and alignment between a data source's or application's data format and the format prescribed by the central, shared ontology. Utilizing ontologies is assumed to provide a flexible and light-weight solution to the data integration problem. In this thesis several semantic mediation approaches are surveyed, including the requisite preprocessing steps such as schema lifting and normalization. Using the Mapping Framework of the University of Karlsruhe as the underlying architecture, a comprehensive mediation tool has been developed, which supports the creation and execution of mappings between different ontologies. Several new methods of importing legacy data sources, such as relational databases and XML data, are developed and introduced as new services for the mediation tool. Finally, a number of case studies and application scenarios for these mediation services are detailed and their applicability and flexibility are evaluated.

Diplomarbeitsposter Sölkner Martin

Martin Sölkner

Masterstudium Software Engineering & Internet Computing
Abstract:

Elastizitätsmanagement ist eines der Kernkonzepte, die Clouds von herkömmlichen Datenzentren unterscheiden und erlaubt es Clouds autonom auf die Anforderungen ihrer Kunden zu reagieren. Kunden können Ressourcen der Cloud nach Bedarf anfordern, verwenden und freigeben, wodurch der Eindruck unbegrenzter Rechenleistung entsteht. Daher kann sich die Anzahl der tatsächlich durch Kunden genutzten Ressourcen ohne langfristige Planung jederzeit ändern. Um Clouds die Möglichkeit zu bieten, rechtzeitig auf spontane Verändern zu reagieren, untersuchten wir selbstlernende Methoden die das bisherige Verhalten einer Kundenapplikation analysieren und zukünftige Anfragen an die Cloudressourcen vorhersiehen. Wird ein Anstieg der Kundenaktivität berechnet, werden rechtzeitig alle benötigten Virtuellen Maschinen (VM) gestartet. Dadurch werden Verzögerungen, die sich ergeben würden, wenn die benötigten VM erst bei Bedarf gestartet werden, verhindert. Gleichzeitig werden VM in Zeiten niedriger Kundenaktivität abgeschaltet, um Energie zu sparen. Für den Kunden wirkt es, als wenn alle jemals benötigten VM jederzeit verfügbar wären, während gleichzeitig Energiekosten für den Cloudprovider reduziert werden. Die untersuchten Methoden wurden im Energieeffizienten Elastizitätsmanager (E3M) implementiert, in Simulationen getestet und ihre Leistung sowohl in Hinsicht auf Energieverbrauch als auch Kundenzufriedenheit bewertet. Der E3M wurde dabei mit verschiedenen Elastizitätsmethoden, die keine selbstlernenden Methoden einsetzten, zu unterschiedlichen Testbedingungen verglichen. Die Testfälle konzentrierten sich dabei auf die Unterschiede bei langfristiger Planung als auch kurzfristigen Schwankungen und zeigten erhebliche Reduktion der benötigten Energie bei gleicher Leistung für die Kunden.

Arbeitsbereich Database and Artificial Intelligence

Diplomarbeitsposter Aster Maximilian Robert

Maximilian Robert Aster

Masterstudium Business Informatics
Abstract:

Current trends in the market of Web-enabled devices are moving the focus from desktop web pages to pages optimised for a set of other devices like smartphones or tablets. Advanced User Behaviour Analysis tries to improve the effectiveness and usability of web pages in general and for specific user groups, using information that is gained from tracking users utilizing those mobile devices. The term points out the fact that new approaches are evaluated and used in order to achieve this goal. But the user behaviour data collected this way can also be used to adapt web pages and automatically transform pages and even the web applications logic flow into a new kind of representation, specifically for a certain target group. Therefore a general process is defined to describe the various phases that have to be gone through to transform or repackage a website. It serves as the basis for the solutions, which were built as part of this thesis, and incorporates state of the art concepts and methods from various fields of Web Science. The implemented artefacts demonstrate how an appropriate architecture looks like and what additional possibilities open up. In the end the collected data about user behaviour is employed to optimise the transformation of the web pages by selecting only content which showed to be important to other users.

Diplomarbeitsposter Erkinger Christoph

Christoph Erkinger

Masterstudium Software Engineering & Internet Computing
Abstract:

Das Erstellen von geeigneten Schichtplänen ist für viele Unternehmen von entscheidender Bedeutung, um zum einen eine Produktivitätssteigerung und zum anderen eine optimale Auslastung des vorhandenen Personals zu gewährleisten. Hierbei müssen neben den Anforderungen des Unternehmens auch gesetzliche Bestimmungen und indivduelle Interessen der Arbeitnehmer berücksichtigt werden. Dies stellt eine Herausforderung dar, welche selbst mit der Unterstützung aktueller Computersysteme im Allgemeinen nicht effizient gelöst werden kann. In den letzten 40 Jahren wurden zahlreiche computergestützte Methoden zur Lösung von Schichtplanproblemen entwickelt. Dabei wurden neben exakten Verfahren wie dem Constraint Programming auch heuristische Methoden eingesetzt. Exakte Methoden lösen zwar eine große Anzahl an Schichtplanproblemen, können jedoch Pläne für viele Mitarbeiter nicht effizient erstellen. Es ist deshalb von großem Interesse neue exakte Methoden zu entwickeln, welche diese Limitierung nicht aufweisen. In dieser Arbeit wird ein neues exaktes Verfahren für Rotating Workforce Scheduling (RWS) vorgestellt. Dafür wird RWS als Satisfiability Modulo Theories (SMT) Problem modelliert. Während das Lösen von SMT Problemen mit SMT-Solvern automatisiert werden kann, stellt das Finden einer effizienten Formulierung in SMT die größte Herausforderung dar. Im Rahmen dieser Diplomarbeit wurden zwei Modellierungen für RWS entwickelt, einmal basierend auf linearer Arithmetik und einmal unter der Verwendung von Bitvektoren mit binären Operationen. Beide Ansätze wurden mit 20 Probleminstanzen aus der Literatur experimentell evaluiert, wofür verschiedene SMT-Solver eingesetzt wurden. Die Bitvektor Formulierung erzielte im Vergleich zu jener mit linearer Arithmetik bessere Ergebnisse und zeigte außerdem im Vergleich mit anderen Methoden aus der Literatur, dass SMT-Solving ein kompetitives Verfahren ist, welches Probleminstanzen löst, die andere exakte Verfahren bisher nicht lösen konnten.

Diplomarbeitsposter Kordomatis Iraklis

Iraklis Kordomatis

Masterstudium Information & Knowledge Management
Abstract:

In this thesis the question how to robustly identify web objects across different sites is tackled. TAMCROW introduces a novel approach exploiting visually perceivable characteristics of a web object and its surrounding objects. This approach is entirely independent of textual labels, and hence has the noteworthy advantage of being language-agnostic. Another main advantage of the visual detection approach is sample parsimony. Fewer examples are required for the learning process to learn how to find certain web objects on previously unknown pages. Moreover, visual cues are crucial for the human perception and as a consequence also for the usability of a web page. Therefore, web designers create web pages coherent with the human perception in order to yield a high usability. Supervised machine learning techniques are applied for the object identification process. The knowledge is limited to features representing the visual appearance of the different web objects. An additional question is whether it is possible to predict the role of a web object by its visual appearance which is formally a classification problem. Within the scope of this master thesis, the following machine learning techniques are investigated in detail: logistic regression, k~nearest-neighbor, classification trees (in particular, c4.5 of Quinlan) and support vector machines. The evaluation results are illustrated in chapter \ref{ch:evaluationResults} indicating that the approach developed within the TAMCROW project is very fruitful. The workflow on web object identification is evaluated with different scenarios. These scenarios include searches for train, bus and flight connections as well as for accommodations. K-page cross-validation is used as evaluation technique. The mean precision is chosen as performance measure, since it fits best for the used scenarios. The results are significant for all classification techniques.

Diplomarbeitsposter Linsbichler Thomas

Thomas Linsbichler

Masterstudium Computational Intelligence
Abstract:

In recent years the research field of argumentation, in particular the formal approach of abstract argumentation introduced by Dung, has become a major topic in the study of AI. A so-called abstract argumentation framework is a directed graph where nodes represent arguments and arrows represent conflicts between arguments. The question of which arguments can be accepted out of an argumentation framework, called extension-sets, is answered by argumentation semantics. Surprisingly, a systematic comparison of their capability in terms of multiple extensions has been neglected so far. Understanding which extensions can, in principle, go together when a framework is evaluated with respect to a semantics of interest not only clarifies the "strength" of that semantics but also is a crucial issue in several applications. The aim of the master's thesis is to study the expressiveness of the naive, stage, stable, preferred, semi-stable, and complete semantics, by characterizing their signatures. The signature of a semantics is defined as the set of all possible sets of extensions one can obtain from the semantics, given an arbitrary argumentation framework. For each semantics we give necessary conditions for an extension-set to be in the signature, i.e. properties which are fulfilled by the outcomes of the semantics for each framework, as well as (corresponding) sufficient conditions for an extension-set to be in the signature, which make the extension-set realizable under the semantics. The thesis provides constructions of argumentation frameworks realizing extension-sets under the various semantics. The characterizations of the signatures of the semantics give rise to a systematic comparison of their expressiveness. We show that, with one exception, all semantics we deal with possess different levels of expressiveness. Finally the thesis investigates strict realizability, i.e. realizing an extension-set by a framework by not using additional arguments.

Diplomarbeitsposter Maschler Johannes

Johannes Maschler

Masterstudium Software Engineering & Internet Computing
Abstract:

Data exchange has been a very active area of database research over the past decade. In the first place, data exchange of relational data has been investigated. More recently, data exchange research has been extended to other data models such as knowledge bases and XML. The goal of this thesis is to summarize the state of the art in data exchange. We thus compare the results for the main problems in data exchange of relational data, knowledge bases, and XML data.

Diplomarbeitsposter Morgenbesser Sebastian

Sebastian Morgenbesser

Masterstudium Business Informatics
Abstract:

Aktuelle Verfahren um Nutzerverhalten aufzuzeichnen, mit dem Ziel Webseiten zu optimieren konzentrieren sich hauptsächlich auf Desktop Benutzer und beachten dabei die spezielle Gruppe der mobilen Benutzer fast überhaupt nicht. Wegen der steigenden Zahl an Smartphones im World Wide Web ist es von großer Wichtigkeit, Webseiten und deren Benutzer zu analysieren und anhand der Ergebnisse diese auf die Bedürfnisse der Benutzer hin zu optimieren. Diese Arbeit stellt eine neue Technologie mit dem Namen Mobile Viewport Tracking vor, die es ermöglicht, diverse Aktionen die von Benutzern von mobilen Endgeräten getätigt werden, aufzuzeichnen, diese zu analisieren und in einer grafischen Form wiederzugeben. Die Daten die durch Mobile Viewport Tracking verfügbar sind, können einerseits verwendet werden um Webseiten zu optimieren, auf der anderen Seite wird in dieser Arbeit basierend auf diesen Daten ein komplett neuer Ansatz für Web Archiving präsentiert. Dieser Ansatz verzichtet auf das reine Archivieren von Webseiteninhalt, stattdessen stehen der Benutzer und seine Interaktionen auf der Webseite im Vordergrund. Das Design eines Konzeptes und einer Architektur für ein solches benutzerorientiertes Web Archiv ist wesentlicher Bestandteil dieser Arbeit. Außerdem wird auch ein Konzept für mögliche Datenlieferanten vorgestellt da dieser Ansatz abhängig von externen Institutionen ist, die das Archiv mit aktuellen Daten versorgen. Ein weiterer Teil dieser Arbeit beschäftigt sich mit der Optimierung von Webseiten , ebenfalls auf Basis einer benutzerorientierten Analyse und der Wiedergabe von aufgezeichneten Benutzerinteraktionen im Internet.

Diplomarbeitsposter Neukam David

David Neukam

Masterstudium Business Informatics
Abstract:

Current approaches to track user behaviour in order to improve web pages are mainly focused on desktop users and do not consider the special group of mobile users. Because of the increasing domination of smartphones in the World Wide Web these days, it is very important to analyse and optimize web pages according to those devices. Advanced User Behaviour Analysis tries to improve the effectiveness and usability of web pages in general and for specific user groups, using information that is gained from tracking users utilizing mobile devices. The term Advanced User Behaviour Analysis points out the fact that new approaches are evaluated and used in order to achieve this goal. The main focus is to use mobile devices to track typical user interactions that can be archived and further interpreted, in order to analyse or adapt web pages. The key concept of this project is the limited viewport (visible area) of a website on a mobile device acting as a surrogate for the attention of a user. By tracking this small area, it can be reconstructed what a user has read. With this approach, studies are made which show possibilities of usage of such a tool. Also a prototype of an analysis-portal was created that can be used to analyze the recorded data. This tool was used to analyze the data from a study done with students of the course Applied Web Data Extraction and Integration. Metrics and indicators for web usability are identified that are not available with traditional 'inter-page-level' approaches like Google Analytics focusing on the navigation path between web pages. The analysis shows how people behave differently when accessing a desktop or mobile version of a website with their smartphone and which differences and similarities can be found when comparing different websites of one domain to each other. Some key performance indicators are theoretically discussed and some were implemented and their results are shown.

Arbeitsbereich Knowledge Based Systems

Diplomarbeitsposter Beck Harald

Harald Beck

Masterstudium Computational Intelligence
Abstract:

Die Straßenverkehrsordnung (StVO) ist das Bundesgesetz, welches den Verkehr auf öffentlichen Straßen regelt. Verordnungen verkehrlicher Maßnahmen werden rechtlich wirksam, indem sie durch entsprechende Verkehrszeichen kundgemacht werden. Dies kann zu Widersprüchen mit bestehenden Vorschriften führen, die dann durch Entfernung der entsprechenden Verkehrszeichen außer Kraft gesetzt werden müssen. Derzeit werden Beamte der Straßen- und Verkehrsverwaltung in Wien und Niederösterreich durch eine Webanwendung unterstützt, welche die Editierung und Visualisierung von verkehrlichen Maßnahmen und Verkehrszeichen auf einer digitalen Straßenkarte ermöglicht. Allerdings fehlt es noch an Werkzeugen, um die Konformität solcher Vorschriften bezüglich der StVO sicherzustellen. Das Ziel dieser Arbeit ist es, Methoden zu entwickeln, um dies auf Basis einer erweiterbaren Spezifikation zu ermöglichen. Dazu entwickeln wir auf Basis einer Domänenanalyse ein formales Modell, das erlaubt, Beziehungen zwischen Maßnahmen und Verkehrszeichen und deren Konformität bezüglich einer Spezifikation zu untersuchen, ohne an bestimmte Verkehrszeichen, Vorschriften, oder Datenmodelle konkreter Umsetzungen gebunden zu sein. Wir identifizieren praxisrelevante Aufgabenstellungen, die im Zusammenhang mit der Korrektheit von Verkehrsvorschriften stehen, und defineren diese als logische Probleme (reasoning tasks). Es wird gezeigt, wie Verkehrszeichen auf einer digitalen Straßenkarte aufgrund von Regelsätzen evaluiert werden können. Im Fehlerfall wird erkannt, welche Konflikte existieren, wo diese auftreten und wodurch sie zustande kommen. Wir zeigen, wie Korrekturvorschläge erzeugt werden können, die Maßnahmen und Verkehrszeichen gleichzeitig berücksichtigen. Wir bestimmen die Komplexität von zugehörigen Entscheidungsproblemen und präsentieren eine prototypische Implementierung mittels Answer Set Programming, die sich durch hohe Wartbarkeit auszeichnet.

Diplomarbeitsposter Busoniu Paula-Andra

Paula-Andra Busoniu

Masterstudium DDP Computational Logic (Erasmus-Mundus)
Abstract:

In this thesis, we address the issue of the usage of graphical models for the automation of ASP code generation and for the representation of answer sets. The proposed graphical modelling environment is a round-trip tool that provides the user with a graphical editor to represent the problem domain using a subset of the UML class diagram. From the model, a description of an ASP language signature (predicates, arities, types, and meaning of the argument terms) is automatically generated. The signature, together with the constraints of the domain, is expressed in Lana, a meta-language for annotating answer-set programs. Based on the signature in Lana, the programmer proceeds to develop ASP encodings. After computing the answer sets of the answer-set program, the user is able to visualise the problem solutions by means of UML object diagrams. Violations of constraints in the solutions can be seen either by checking for certain error-indicating atoms in answer sets or can be visualised directly in the graphical representation of the solution.

Diplomarbeitsposter Stashuk Oleksandr

Oleksandr Stashuk

Masterstudium DDP Computational Logic (Erasmus-Mundus)
Abstract:

Many declarative problems exploit hard computational nature that need to be evaluated effectively. Examples of such problems are task scheduling, optimization problems, database transaction management. This thesis presents a hybrid constraint answer-set programming solver that provides a modeling language and solving capabilities of Answer-Set Programming (ASP) and special relations over variables called constraints from area of Constraint Programming (CP). The proposed framework provides a custom syntax for supporting constraint and answer-set constructions and in addition it provides a support for a special type of global constraints. We then show how such programs can be transformed to HEX programs with external atoms and evaluated. Several formal properties of such transformation are provided. The thesis provides several optimizations for the original approach. The first improvement relies on reducing the size of the transformed program. This is based on the observation of the redundancy in some of the translated rules. This translation reduction does not affect answer sets of the programs. Another optimization is related to the program evaluation. The key idea is to find the small irreducible inconsistent set of constraints and add it as a nogood to the program. This way we will introduce user defined learning for the program. We also show that the learning functions for HEX programs based on these algorithms are correct. This thesis additionally provides the implementation of such approach as a plugin for dlvhex system. We show the plugin architecture, ideas of the implementation and describe required algorithms. We describe how main components, namely CASP converter, rewriter, external atom evaluation and learning can be implemented.

Diplomarbeitsposter Steyskal Simon

Simon Steyskal

Masterstudium Software Engineering & Internet Computing
Abstract:

The existence of a standardized ontology alignment format promoted by the Ontology Alignment Evaluation Initiative (OAEI) potentially enables different ontology matchers to be combined and used together, exploiting their respective strengths in a combined matching approach. In the present thesis, we present a novel architecture for combining off-the-shelf ontology matchers based on iterative calls and exchanging information in the form of reference alignments. Unfortunately though, only a few of the matchers contesting in the past years' OAEI campaigns actually allow the provision of reference alignments in the standard OAEI alignment format to support such a combined matching process. We bypass this lacking functionality by introducing an alternative approach for aligning results of different ontology matchers using simple URI replacement to ``emulate'' reference alignments in the aligned ontologies. While some matchers still consider classes and properties in ontologies aligned in such fashion as different, we experimentally prove that our iterative approach benefits from this emulation, achieving the best results in terms of F-measure on parts of the OAEI benchmark suite, compared to the single results of the competing matchers as well as their combined results. The new combined matcher -- Mix'n'Match -- integrates different matchers in a multi-threaded architecture and provides an anytime behaviour in the sense that it can be stopped anytime with the best combined matchings found so far.

Diplomarbeitsposter Weidinger Gerald

Gerald Weidinger

Masterstudium Computational Intelligence
Abstract:

Answer Set Programming (ASP) is nowadays a well-known and well acknowledged declarative problem solving paradigm. ASP originates from the area of artificial intelligence and is often used in knowledge-based reasoning and logic programming, where its main purpose is solving search and optimization problems. There are many solvers that solve ASP in a two-step manner, where they first ground the input program and then in the second step solve the resulting grounded program. From this approach one problem arises: the exponential blowup. In order to face this problem some answer set solvers use a grounding on-the-fly approach where rules are only grounded when needed during solving. Solvers that use this approach show that they indeed can solve some instances where standard solvers run out of memory. But on problem instances where exponential blow up is no issue, these solvers are much slower than standard solvers, because they have troubles finding applicable rules. Within this thesis we present the OMiGA solver, which combines the grounding on-the-fly approach with a Rete network that enables us to efficiently find those rules and therefore outperform other grounding on-the-fly solvers and even compare to standard solvers on certain instances.

Institut für ComputersprachenE185

Arbeitsbereich Programmiersprachen und Übersetzer

Diplomarbeitsposter Binder Johann

Johann Binder

Masterstudium Software Engineering & Internet Computing
Abstract:

Nowadays, all popular online social networks in the World Wide Web are based on a client-server architecture. This leads to severe privacy issues as the provider of the online social network holds all data and could easily misuse it. Other contributions already showed how to resolve this problem by decentralizing the data with a peer-to-peer architecture. Yet these solutions have their own drawbacks, e.g. many complex technologies, bad extensibility or a lack of important privacy and security features. A cause for these drawbacks is that no satisfying high-level peer-to-peer frameworks exist, allowing users to develop complex peer-to-peer applications in an easy way. Available frameworks are rather low-level, concentrating on the communication layer. Therefore, all of the peer-to-peer online social networks analysed have been created more or less from scratch. To overcome this issue, we introduce the XVSM Micro-Room Framework which focuses on ensuring those aspects, not covered sufficiently by the existing peer-to-peer online social networks. This framework allows to create peer-to-peer applications based on configurable, shared data rooms. We then use the XVSM Micro-Room Framework for creating a proof of concept peer-to-peer online social network settled in an e-learning environment. By comparing our solutions (both the XVSM Micro-Room Framework and the generated peer-to-peer online social network) with the analysed related work, we demonstrate the benefits of our solutions regarding functionality, simplicity, extensibility, privacy and security. Finally, several performance benchmarks show the practicability of the XVSM Micro-Room Framework even in heavy-load scenarios.

Diplomarbeitsposter Brückl Andreas

Andreas Brückl

Masterstudium Technische Informatik
Abstract:

In the development of distributed applications, especially communication and coordination are complex tasks. Therefore developers are using middleware technologies which are hiding the complexity and providing enterprise features like transactions out-of-the box. Especially middlewares which are following the space-based computing (SBC) paradigm are often used for coordination tasks. But although space-based middlewares are simplifying the development of distributed applications, most of them can not be used for complex applications because they do not provide an essential enterprise feature: distributed transactions. Other middlewares which already provide this feature often rely on old commit algorithms which are having known problems in certain scenarios. Therefore this work provides a flexible and concurrent distributed transaction model which is aligned on the space-based computing paradigm. The new model supports long-lived transactions and provides a high degree of consistency. As a positive side effect the evaluation shows that in certain scenarios the new transaction model performs better than a standard local transaction system.

Diplomarbeitsposter Grötz Gerald

Gerald Grötz

Masterstudium Medizinische Informatik
Abstract:

Due to the increasing complexity of software systems there comes the need of technologies that help developers to simplify the programming process. Middleware systems in general can offer this functionality. One type of middleware is based on the Space Based Computing paradigm. It offers a shared memory data space that can be accessed concurrently by different users. The eXtensible Virtual Shared Memory (XVSM) architecture uses this approach and provides an easy extendable solution for developers. Actual implementations are based on Java (MozartSpaces) and .NET (XCOSpaces). With the rapid growth of smartphones based on Apple’s iOS operating system comes the need of an implementation for that platform. The goal of this thesis is the provision of an implementation for the iOS platform that is fully compatible to MozartSpaces, the actual reference implementation of XVSM. A research process concerning possible solutions is followed by a ready to use implementation for software developers. The output is evaluated by different kind of performance benchmarks. The compatibility to MozartSpaces is evaluated by integration tests and presented by an application scenario where the new implementation works hand in hand with MozartSpaces. The new implementation is based on the native programming language of Apple, Objective C and works well in association with MozartSpaces.

Diplomarbeitsposter Oberhauser Arthur

Arthur Oberhauser

Masterstudium Software Engineering & Internet Computing
Abstract:

Während eines Fußballspiels befinden sich die Spieler einer Mannschaft in einer Reihe unterschiedlicher Spielsituationen. Jede dieser Spielsituationen erfordert die Ausführung einer Aktion, die der Spieler autonom bestimmen muss. Dabei sollte die gewählte Aktion jene sein, welche für die gesamte Mannschaft langfristig den größten Erfolg bringt. Manuelle Lösungen für dieses Problem der Entscheidungsfindung im Roboterfußball sind durch die enorme Komplexität der Domäne nur mit hohem Aufwand implementierbar, wartbar und auf unterschiedliche Spielvarianten übertragbar. Diese Arbeit untersucht die Anwendbarkeit der Neuroevolution zum automatisierten Erlernen performanter und flexibler Lösungen für das Entscheidungsfindungsproblem in zwei populären Spielformen des Roboterfußballs, dem Ballhalte- und Halbfeldspiel. Als virtuelle Umgebung dient dabei der Simulator der RoboCup 2D-Simulationsliga. Mithilfe der Neuroevolutionsmethode "Hypercube-based NeuroEvolution of Augmenting Topologies (HyperNEAT)" wurden Strategien zur Aktionsselektion sämtlicher Spieler der Offensiv- und Defensivmannschaft mit Ausnahme des Torwarts erlernt. Alle erzeugten Lösungen konnten die Spielstärke vordefinierter, manuell erstellter Benchmark-Lösungen übertreffen. Außerdem wurden die entwickelten Lösungen durch Ausnutzung der von HyperNEAT verwendeten indirekten Kodierung "Compositional Pattern Producing Network" in Spielvarianten mit unterschiedlichen Mannschafts- und Spielfeldgrößen ohne zusätzliche Evolutionszyklen eingesetzt. Die erlernten Strategien konnten automatisch übertragen werden, allerdings traten dabei teilweise Leistungseinbußen auf. Weiters wurden Experimente durchgeführt, um die Auswirkung der kooperativen Koevolution auf die Performanz einer Mannschaft zu untersuchen. Die Resultate dieser Experimente zeigten einen negativen Einfluss auf die resultierende Spielstärke des Teams.

Diplomarbeitsposter Schmid Thomas

Thomas Schmid

Masterstudium Business Informatics
Abstract:

Cloud computing is a popular possibility for service providers to host their applications. It enables the usage of scalable, elastic infrastructures that are charged according to their usage, and do not have to be maintained. Due to the increasing demand for such services, lots of cloud providers are entering the market. Their offerings are differing strongly and many parameters are used to describe them. It gets more difficult for users to compare clouds and choose a proper provider for a specific service. Furthermore, the demand of changing the provider and migrating existing services results from the growing market. Two major technical aspects of a migration have to be considered: 1) Cloud providers are using own platforms or APIs so services have to be adapted to them. 2) Services cannot be migrated seamlessly without an interruption. This master thesis proposes the dynamic Platform as a Service (dynPaaS), a new form of Platform as a Service provider that addresses these issues. The dynPaaS framework abstracts existing clouds, including their pricing parameters and their technical issues. It finds the optimal cloud for a service according to its requirements and provides transparency about the underlying clouds. It monitors clouds and hosted services and dynamically migrates services between clouds on the basis of changing parameters. In addition the framework optimizes the resource usage of integrated clouds and migrates services according to it. The result is a price reduction for both, the service providers and the dynPaaS provider.

Arbeitsbereich Theoretische Informatik und Logik

Diplomarbeitsposter Lederer Nadja

Nadja Lederer

Masterstudium Medizinische Informatik
Abstract:

In der vorliegenden Arbeit wird der Themenbereich der Selbstverletzungen bei Borderline-Patienten fokussiert und ein Konzept für eine Smartphone App entworfen, das Therapeuten in ihrer Arbeit mit Borderline-Patienten unterstützt. Zunächst werden neben umfangreichen Literaturrecherchen Anforderungen von Psychologen, Psychotherapeuten, Psychiatern und Wissenschaftlern erfasst und analysiert. Dabei wurden 18 Experten auf dem Gebiet von selbstverletzendem Verhalten und Borderline Persönlichkeitsstörung aus Österreich, Deutschland und den USA hinsichtlich konkreter Anforderungen an eine unterstützende App befragt, die als Android-Prototyp umgesetzt wurde. Interviews wurden nach dem Konzept der Grounded Theory Methodologie und dem IKIWISI Vorgehen geplant und analysiert. Der Prototyp orientiert sich an der Dialektisch Behavioralen Therapie (DBT) mit dem Fokus auf der Vermittlung und Provokation von Skills und Skills-Training. Die Mehrheit der Interviewpartner empfand das App-Konzept als sinnvoll und nützlich. Eine zu detaillierte Dokumentation der Selbstverletzung könnte jedoch dazu führen, dass dysfunktionales Verhalten von Patienten sogar unterstützt / verstärkt wird. Neben Datenschutz und Datensicherheit ist auch der Einsatz eines motivationalen Systems von Bedeutung, um Akzeptanz und Verwendung der App zu forcieren. Des weiteren werden kontext-sensitive Interventionen auf Basis von Spannungsleveln, kontinuierliche Spannungsabfragen sowie die individuelle Anpassung der App gefordert. Für eine sinnhafte Einbindung der App in den Therapieprozess ist eine interdisziplinäre Zusammenarbeit unabdingbar. Zukünftige Untersuchungen sollen zeigen, wie sich das konkrete Befinden des Patienten auf die Motivation, die vorgestellte App zu verwenden, auswirkt und inwieweit diese App positiv verstärkend eingesetzt werden kann.

Diplomarbeitsposter Sabau George

George Sabau

Masterstudium Medieninformatik
Abstract:

In der vorliegenden Arbeit wird ein Konzeptmodell für den Prozess des Engineerings der Migration von Web nach Native App vorgestellt. Es berücksichtigt die wichtigsten Anforderungen des mobilen Kontexts und integriert diese systematisch und plattformunabhängig. Dieses Konzept soll Entwicklern als Best-Practice-Leitfaden und Entscheidungsinstrument dienen.

Institut für Computergraphik und AlgorithmenE186

Arbeitsbereich Algorithms and Complexity

Diplomarbeitsposter Bacher Christopher

Christopher Bacher

Masterstudium Computational Intelligence
Abstract:

Der Kraftstoffverbrauch von elektrohybriden Kraftfahrzeugen ist von der verwendeten Betriebsstrategie abhängig. Für diese können optimalen Parametereinstellungen meist nicht einfach bestimmt werden können. In dieser Diplomarbeit werden die Parameter von zwei Hybridfahrzeugmodellen mit Hilfe von Metaheuristiken optimiert. Das Hauptaugenmerk liegt auf der Reduzierung der benötigten Simulationsdurchläufe, da diese viel Zeit benötigen. Dazu werden Suchraumeinschränkungen angewandt wo dies möglich ist. Weiters wird der Suchraum diskretisiert um den Optimierungsmethoden die Verwendung eines Lösungs-Caches zu ermöglichen. Zuletzt werden verschiedene, auf neuronalen Netzwerken und Ensemble-Methoden basierende, Regressionsmodelle trainiert um die Simulation aus der verwendeten Fitnessfunktion zu entfernen. Unterschiedliche Metaheuristiken wie Particle Swarm Optimization, Active Cov. Matrix Adaption Evolution Strategy und genetische Algorithmen werden zur Verwendung von Regressionsmodelle adaptiert. Dazu wird eine zwei-phasige Optimierungsstrategie entwickelt. Die erste Phase sammelt Trainingsdaten für Regressionsmodelle. Die zweite Phase verwendet die Regressionsmodelle zur Approximation von Fitnesswerten. Verschiedene Möglichkeiten zu deren Integration, wie die abwechselnde Verwendung von Regression und Simulation, sowie das Filtern mittels Regression, werden analysiert. Abschließend werden die Ergebnisse der zwei-phasigen Optimierung mit Referenzlösungen von unmodifizierten Optimerungsalgorithmen verglichen. Dabei findet die zwei-phasige Optimierung ähnlich gute Lösungen wie die Referenzmethoden. Die gefundenen Modellparametereinstellungen korrespondieren mit den Gebieten in denen gute Lösungen erwartet werden. Die erforderliche Simulationszeit konnte mit der zwei-phasigen Optimierung um bis zu 27% verringert werden. Die evaluierten Modellparametereinstellung werden für ein Modell mit Hilfe von Self-Organizing Maps analysiert.

Diplomarbeitsposter Putzenlechner Markus

Markus Putzenlechner

Masterstudium Medizinische Informatik
Abstract:

Bei Diagnosis Related Groups (DRGs) handelt es sich um ein medizinisches Klassifikationssystem, um Diagnosen, Prozeduren und weitere patientenbezogene Daten in Fallgruppen zu gruppieren. Damit können Krankenhausaufenthalte einfacher und strukturierter abgerechnet und ausgewertet werden. Eine der Herausforderungen in der IT ist die Bestimmung der richtigen DRG und somit der zu bezahlenden Fallpauschale. Diagnosen werden gemäß der internationalen Klassifikation ICD10 codiert – Operationen und Untersuchungen (als Prozeduren bezeichnet) werden nach einer Variante der internationalen Prozedurenklassifikation ICPM codiert. Weiters beeinflussen Nebendiagnosen, Komplikationen, Beatmungszeiten, Alter, Geschlecht etc. eine DRG. Eine Fallgruppe gilt dann als klassifizierbar, wenn der Patient entlassen wurde. Als „Fall“ bezeichnet man eine Behandlungsepisode von der Aufnahme bis zur Entlassung. Wenn ein Patient jedoch nach einer Entlassung innerhalb einer Frist wieder in dasselbe oder ein anderes Krankenhaus aufgenommen wird, trifft man auf das Problem der Fallzusammenführungen. Hierbei muss man die Daten zu einem Fall zusammenführen und neu im DRG-System klassifizieren. In Deutschland und in der Schweiz kommen Fallzusammenführungen im Zusammenhang mit stationären Akutfällen vor. Jedoch sind die Regeln und die Bedingungen für Fallzusammenführungen in den einzelnen Ländern unterschiedlich. Aufgrund dieser Rahmenbedingungen ist eine Umsetzung dieses Regelwerks in einem Krankenhausinformationssystem (KIS) sehr komplex. Fallzusammenführungen sind abhängig von den einzelnen Fällen oder von DRGs bereits gekoppelter Fälle. Ab 2013 werden in Deutschland zusätzlich psychiatrische Fälle klassifiziert und können auch für Fallzusammenführungen in Frage kommen. Im Rahmen dieser Arbeit werden die Regelungen und Bedingungen für Fallzusammenführungen von Deutschland, Schweiz und Österreich analysiert und eine exemplarische Integration von Fallzusammenführungen in ein KIS dargestellt.

Diplomarbeitsposter Schnabl Thomas

Thomas Schnabl

Masterstudium Software Engineering & Internet Computing
Abstract:

The Critical Links Detection (CLD) Problem consists of finding for the smallest set of edges in a graph to be protected so that if a given number of unprotected edges are removed the diameter does not exceed a given value. The diameter of a graph is defined as the length of the All-Pair-Shortest-Path (APSP). This thesis presents an algorithm that takes an instance of a graph and calculates the minimal set of protected edges. For k simultaneously failing edges it checks all possible tuples of k edges if after temporarily removing them the diameter of the graph exceeds the limit. Afterwards a Integer Linear Programming (ILP) model is built up and solved, which is equivalent to choosing the minimal amount of edges from these sets to get a feasible solution. Since the calculation of diameters takes most of the process time, the thesis presents an improvement on the performance of the algorithm. A massive parallel approach is implemented using CUDA, a framework to run calculations on graphic cards, also called GPGPU. The chosen algorithm solves one Single Start Shortest Paths (SSSP) algorithm on one GPU processor, running one thread per vertex of the graph. The performance of the algorithm shows a speedup of 30% using this approach on small instances and 70% improvement on large instances with over 1000 edges.

Diplomarbeitsposter Volko Claus- Dieter

Claus- Dieter Volko

Masterstudium Computational Intelligence
Abstract:

Beim Selective Graph Coloring Problem (SGCP) geht es darum, einen Teilgraphen mit spezieller Struktur zu finden, dessen chromatische Zahl so niedrig wie möglich ist. Der Ursprungsgraph ist in mehrere Cluster unterteilt, und von jedem Cluster muss der Teilgraph genau einen Knoten enthalten. Dieses Problem ist NP-schwer und wird daher meistens mit Heuristiken gelöst. Ich habe mehrere Varianten eines Algorithmus implementiert, der Variable Neighborhood Search (VNS) benutzt, um den Lösungsraum zu durchsuchen, und dann die gefundene Lösung mit heuristischen oder exakten Methoden evaluiert. Jede Variante kann mit oder ohne ein Lösungsarchiv verwendet werden. Ein Lösungsarchiv ist eine Datenstruktur, in der bereits gefundene Lösungen gespeichert werden, so dass Duplikate nicht neu evaluiert werden müssen, sondern effizient zu neuen Lösungen konvertiert werden können. Um eine obere Schranke zu errechnen, wurde eine Variante von Greedy Coloring verwendet. Eine weitere Variante des Algorithmus zählt auch die Anzahl der Konflikte, die entstünden, würde eine Farbe weniger verwendet werden. Schließlich wurden zwei Methoden umgesetzt, um eine untere Schranke zu berechnen: maximale Clique und lineare Programmierung mit Spaltengenerierung. Das Programm wurde mit verschiedenen Instanzen aus der Literatur getestet. Mein Algorithmus beendete die Berechnungen oft schon nach sehr kurzer Laufzeit, führte aber im Allgemeinen zu geringfügig schlechteren Ergebnissen.

Arbeitsbereich Computergraphik

Diplomarbeitsposter Arbesser Clemens

Clemens Arbesser

Masterstudium Medieninformatik
Abstract:

Noise pollution is an ever increasing problem not just in urban environments but also in more rural areas such as small villages, along country roads or even in very sparsely populated regions. The demands of the industry and local governments often clash with the interests of people in the neighborhood, creating areas of conflict that often end up in court. Though in many countries noise assessments are mandatory in order to obtain building permission, these documents are usually not suited or sometimes conceivably not even intended to convey the impact of projects on their environment to the general public. The purpose of this master's thesis is to propose ways to simulate and visualize noise pollution in large-scale, non-urban environments in order to help communicate the impact of new sound emitters on affected neighbors. Knowledge of noise propagation, the influence of the terrain and other obstacles as well as how different emitters add up can provide valuable insights and help in the decision-making process. This knowledge may be particularly helpful when trying to decide on suitable locations for noise screens and/or when trying to find good places to offset some of the local noise emitters. The tool developed uses NVIDIA's CUDA architecture and the European norm "ISO 9613-2: Attenuation of sound during propagation outdoors" to create real-time visualizations in both 2D and 3D. Results are compared against ground truth data obtained by taking noise measurements in the field.

Diplomarbeitsposter Fink Heinrich

Heinrich Fink

Masterstudium Visual Computing
Abstract:

This thesis investigates GPU-based video processing in the context of a graphics system for live TV broadcasting. Upcoming TV standards like UHD-1 result in much higher data rates than existing formats. To reach these data rates, the transfer of image data between main and graphics memory need to be overlapped with CPU-based and GPU-based processing. In this thesis, we therefore investigate the following questions: Which methods are available to a software implementation in order to reach this level of parallelism? Which data rates can actually be reached using these methods? We implement a prototype of a software for rendering TV graphics. To take advantage of the GPU’s ability to efficiently process image data, we use the OpenGL application programming interface (API). We implement the transcoding between RGB and the professional video format V210, which is more complex to process than conventional consumer-oriented image formats. In our software, we apply the pipeline programming pattern in order to distribute stages of the video processing algorithm to different threads. As a result, those stages execute concurrently on different hardware units of the system. Our prototype exposes the applied degree of concurrency to the user as a collection of different optimization settings. We integrate a profiling mechanism directly into the execution of the pipeline, which allows us to automatically create performance profiles while running our prototype with various test scenarios. The results of this thesis are based on the analysis of these traces. Our prototype shows that the methods described in this thesis enable a software program to process high-resolution video in high quality. When optimizing performance, different driver implementations and hardware features require our prototype to apply different optimization settings for each device. The ability of our software structure to dynamically change the degree of concurrency is therefore an important feature.

Diplomarbeitsposter Fürst Rene

Rene Fürst

Masterstudium Visual Computing
Abstract:

Water simulation in computer graphics has been the focus of many research papers in the last years. The proposed algorithms can be classified into offline simulation algorithms and realtime simulation algorithms, which have a big difference in their capabilities. Offline simulation algorithms can mostly simulate water with full detail in 3D because the processing time per frame is not limited very much. Real-time simulation algorithms, on the other hand, impose a hard limit on the processing time per frame and therefore many applications only rely on approximating water with 2D surfaces. While this works well for still water, effects such as breaking waves or simply pouring water into a tank, cannot be simulated. To accomplish this one has to rely on 3D water simulation algorithms, which require a massive amount of processing resources, such that even when using current graphics processing units (GPUs) an optimized algorithm is required. There are two types of 3D water simulation approaches: particle-based Lagrangian and gridor mesh-based Eulerian approaches, of which the latter will be the main focus of this thesis. Current real-time capable Eulerian water simulation algorithms rely on many approximations which either cause water to leak without reason or decrease the generality of the algorithm. In this thesis a novel Eulerian fluid simulation algorithm is proposed, which relies on on a octreebased mesh that automatically adapts to any given water geometry. By this it is made sure that the algorithm is very general and that it provides good performance in almost any given situation. The equations evolved in 3D water simulation are discretized with the finite element method in a way, such that the resulting linear equation system can be solved efficiently. Therefore it is possible to let the algorithm run in real-time on current GPUs.

Diplomarbeitsposter Maricic Ivan

Ivan Maricic

Masterstudium Visual Computing
Abstract:

Der Forschungsbereich Computational Neuroanatomy verwendet rechnergestützte Techniken wie Visualisierung, Modellierung und Analyse, um die neuronalen Strukturen von Gehirnproben aus Bild-Stapeln (semi-)automatisch abzuleiten. Für die Gewinnung der Bilder, in der relevante Strukturen hoch genug aufgelöst sind, verwendet man die sogenannte Transmissionselektronenmikroskopie (TEM), die eine Pixelauflösung von unter 5 nm ermöglicht. Die manuelle Segmentierung dieser hochaufgelösten aber kontrastarmen und mit Aufnahmefehlern behafteten Bilder wäre allein wegen der hohen Auflösung der 200.000 Bilder mit 2.000.000×2.000.000 Pixel pro Bild in einem Kubikzentimeter Gehirnprobendatensatz impraktikabel. Da die Pixel einen geringen Wertebereich (8 Bits pro Pixel) haben und verschiedenste Aufnahmeartefakte beinhalten, ist eine vollautomatische Segmentierung fehleranfällig. Deshalb ist es wichtig, die Ergebnisse aufwendiger automatischer Segmentierungsverfahren zu quantifizieren, zu visualisieren und reproduzieren zu können. Diese Arbeit basiert auf dem Membran-Segmentierungsverfahren von Kaynig-Fittkau [2011], welches für ssTEM Hirngewebe-Bilder unter anderem folgende Ausgaben liefert: (a) ein Zuversichtswert für jeden Pixel (bezüglich des analytischen Modelles der Benutzerwahl der Zellmembranen) der angibt, wie sicher sich das zugrundeliegende statistische Modell ist, dass das Pixel zur Membran gehört und (b) die nach der Optimierung erhaltenen Kanten, welche die Zellmembranen repräsentieren. Wir setzen genau hier an und verwenden Benutzerwissen ein weiteres Mal, um entscheiden zu können, welche und in welcher Form man Daten dem Random-Forest-Klassifizierer zur Verfügung stellen muss. Das Ziel dabei ist es, die Segmentierungsergebnisse zu verbessern, indem man die Qualität der Segmentierung verbessert, die Segmentierung beschleunigt oder den Speicheraufwand reduziert.

Diplomarbeitsposter Meier-Stauffer Aaron

Aaron Meier-Stauffer

Masterstudium Visual Computing
Abstract:

This thesis presents a method to compute soft shadows from environment maps and local light sources on dynamic height fields, extending the work of Snyder and Nowrouzezahrai (Fast Soft Self-Shadowing on Dynamic Height Fields). While direct illumination in static scenes is very common in video games and 3D applications, real-time global-illumination methods supporting dynamic scenes and lights are still an active field of research. In this work, a short general introduction to global illumination and spherical harmonics is presented as well as an overview of the state of the art methods in interactive global illumination for height fields. In our method, visibility at each receiver point of a height field is determined by the visible horizon, which can be approximated efficiently using a multi-resolution sampling approach. Local light sources are represented by spherical lights and the incident radiance at receiver points is projected into the spherical harmonic basis. Hence, this method produces convincing shadows on dynamic height fields more efficiently than global illumination methods for general geometry.

Diplomarbeitsposter Parzer Simon

Simon Parzer

Masterstudium Medieninformatik
Abstract:

Mit Hilfe eines von Hofstetter Kurt entwickeltem Verfahren, genannt Inductive Rotation (IR), kann auf einer zweidimensionalen Ebene aus einem einzigen Startelement durch wiederholte Translation und Rotation ein komplexes, lückenloses Kachelmuster erzeugt werden. Diese Muster sind allem Anschein nach nicht periodisch und haben sowohl aus mathematischer als auch künstlerischer Sicht interessante Eigenschaften. Das IR-Verfahren wurde noch nicht in der wissenschaftlichen Literatur behandelt, aber ist am ehesten vergleichbar mit aperiodischen Kachelmustern wie sie z.B. bereits von Penrose beschrieben wurden. Die Diplomarbeit beschäftigt sich näher mit den durch Inductive Rotation erzeugten Mustern. Es wurden Algorithmen entwickelt, mit denen es möglich ist, die Rotationsschritte in einem Computerprogramm zu automatisieren. Die Implementierung schließlich ist der Irrational Image Generator, ein Programm, das einerseits als Referenzimplementierung für das genannte Verfahren dient, andererseits aber vom Künstler verwendet wird, um durch weiteres Experimentieren das IR-Verfahren künstlerisch auszureizen. Dem Irrational Image Generator gehen eine Reihe von Prototypen voraus, die dazu entwickelt wurden, um das Laufzeitverhalten und die Ergebnisse abschätzen zu können. Sowohl die Prototypen als auch das Endprodukt wurden von Hofstetter Kurt getestet. Dieser iterative Entwicklungsprozess führte dazu, dass das fertige Programm zwei unterschiedliche Implementierungen beinhaltet, die beide ihre Vor- und Nachteile haben. Es hat sich herausgestellt, dass sowohl Laufzeit als auch Speicherbedarf des IR-Algorithmus abhängig von der Anzahl der Iterationen exponentiell ansteigen. Dadurch sind Iterationszahlen nach oben hin begrenzt, reichen aber für künstlerische Zwecke aus.

Diplomarbeitsposter Voglsam Günther

Günther Voglsam

Masterstudium Visual Computing
Abstract:

In computer graphics, ray tracing is a well-known image generation algorithm which exists since the late 1970s. Ray tracing is typically known as an offline algorithm, which means that the image generation process takes several seconds to minutes or even hours or days. In this thesis I present a ray tracer which runs in real-time. Real-time in terms of computer graphics means that 60 or more images per second (frames per second, FPS) are created. To achieve such frame rates, the ray tracer runs completely on the graphics card (GPU). This is possible by making use of Nvidia’s CUDA-API. With CUDA, it is possible to program the processor of a graphics card similar to a processor of a CPU. This way, the computational power of a graphics card can be fully utilized. A crucial part of any ray tracer is the acceleration data structure (ADS) used. The ADS is needed to efficiently search in geometric space. In this thesis, two variants of so called kD-Trees have been implemented. A kD-Tree is a binary tree, which divides at each node a given geometric space into two halves using an axis aligned splitting plane. Furthermore, a CUDA library for the rendering engine Aardvark, which is the in-house rendering engine at the VRVis Research Center, was developed to access CUDA functionality from within Aardvark in an easy and convenient way. The ray tracer is part of a current software project called “HILITE” at the VRVis Research Center.

Institut für Gestaltungs- und WirkungsforschungE187

Arbeitsbereich Multidisciplinary Design

Diplomarbeitsposter Diesenreiter Simon

Simon Diesenreiter

Masterstudium Medieninformatik
Abstract:

Der Begriff Awareness in der CSCW-Forschung wird durch technische Neuerungen stetig vorangetrieben. Die Verwendung von Web 2.0-Technologien in Unternehmen – auch bekannt als Enterprise 2.0 – stellt eine solche Neuerung dar. Das Ziel der vorliegenden Arbeit ist es zu zeigen, wie Enterprise 2.0-Systeme gemeinsam mit klassischen Informationssystemen im Arbeitsumfeld eingesetzt werden, um Awareness zwischen ArbeitskollegInnen herzustellen. Durch eine theoretische und empirische Analyse wird ein Modell von Awareness konstruiert, welches darstellt, welche Variablen, Mechanismen und Faktoren bei der Arbeit mit Awarenessinformationssystemen wirken und welche Beziehungen zwischen ihnen bestehen. Für die empirische Untersuchung wurde ob der Komplexität des Themas ein qualitativer Forschungsansatz im Stile der Grounded Theory gewählt. Zur Datenerhebung wurden in einer Softwareentwicklungsfirma eine Intranetrecherche, teilnehmende Beobachtung und ExpertInneninterviews durchgeführt. Die Analyse resultiert in einem Modell von Awareness, das aus den vier Kategorien Awarenessbedürfnisse, Awarenessmechanismen, Toolverwendung und Faktoren besteht und auf der Zusammenarbeit von KollegInnen und Teams in und mit einem Ökosystem von Anwendungen begründet ist. Das erarbeitete Modell baut in seinem Ursprung auf vorhandenen Modellen von Awareness auf, erweitert diese aber in einigen Punkten: Ereignis- und Kontextmodelle werden in der Kategorie Awarenessbedürfnisse durch die Inhalte von Awareness verfeinert und um den Begriff des Zustandes erweitert. Die Erfassung, Verarbeitung und Präsentation von Ereignissen und Zustand wird durch verschiedene Awarenessmechanismen ausdifferenziert. Toolverwendung nennt die Formalisierung von Awarenessinhalten als Grundvoraussetzung für die Umsetzung von Awareness mittels Tools. Bestehende Modelle von Awareness werden um organisatorische, tool- und informationsbasierte Faktoren ergänzt.

Diplomarbeitsposter Hörmann Andreas

Andreas Hörmann

Masterstudium Medieninformatik
Abstract:

Im Sport werden unterschiedliche Bewertungssysteme für die Unterstützung der WertungsrichterInnen eingesetzt. Die WertungsrichterInnen treffen subjektive Entscheidungen durch objektive Bewertungskriterien, um "zwischen" oder "für" TeilnehmerInnen im Wettkampf zu werten. Je schwieriger eine Entscheidung ist, umso länger dauert der Bewertungsprozess. Um Zeit zu sparen und den Fokus auf die TeilnehmerInnen zu richten, sollen Bewertungssysteme eine schnelle und einfache Bedienung bieten. Dabei stellt sich die Frage: Welche Veränderungen gibt es im Wertungsprozess durch die Verwendung von neuen Technologien? Die neuen Smartphone- und Tablet-Technologien offerieren eine immer größer werdende Vielfalt an Möglichkeiten für die Entwicklung neuer mobiler Anwendungen. Einfache Interaktion und eine gute Usability tragen zu einer guten User Experience bei und die BenutzerInnen sind verleitet, die Anwendung weiter zu benutzen und zu empfehlen. Der Fokus dieser Arbeit liegt auf der Prototypisierung und Evaluierung eines benutzbaren Bewertungssystems für den Tanzsport mit dem Schwerpunkt Usability. Der Bewertungsprozess im Tanzsport ist sehr komplex und unterscheidet sich stark von anderen Sportarten. Die Vor- und Nachteile der unterschiedlichen Bewertungsmethoden wurden ermittelt und deren Potential für die Zukunft festgestellt.

Arbeitsbereich Human Computer Interaction

Diplomarbeitsposter Hartl Katharina

Katharina Hartl

Masterstudium Medieninformatik
Abstract:

Da in den letzten Jahren die Anzahl der Benutzer von Tablets und Smartphones geradezu explodiert ist und sie in nahezu jeder Tasche zu finden sind, erschließen sich immer wieder neue Anwendungsfelder. Durch den häufigen Einsatz dieser Devices wird die stets vorhandene natürliche Neugierde von Kindern geweckt. Immer Jüngere zählen zur Konsumentengruppe sogenannter Apps, weshalb es vermehrt Anwendungen gibt, die auf diese Zielgruppe zugeschnitten sind. Besonders die Nische der Lern-Apps, in denen während der Verwendung Wissen vermittelt werden soll, ist eine stetig Wachsende. In gut entwickelter Kindersoftware wird Rücksicht auf die Bedürfnisse und den Entwicklungsstand der Kinder, z.B. bezüglich der Aufmerksamkeitsspanne oder der Kommunikationsweise, genommen. Da die Entwickler von Apps oft nur beschränktes Wissen über diese Umstände haben, werden in dieser Arbeit Guidelines erarbeitet, die ihnen entscheidende Informationen zur optimalen Implementierung von Lern-Apps für Kinder zwischen 4 und 7 Jahren liefern sollen. Dazu wird zuerst die Zielgruppe durch eine systematische wissenschaftliche Literaturstudie analysiert und so entscheidende Erkenntnisse gewonnen. Nach dem Erstellen des Guidelinessets wird dieses durch den Test von einigen Apps mithilfe der heuristic walkthrough-Strategie validiert. In einer Überarbeitung des Guidelinekatalogs können mögliche Lücken oder Fehlformulierungen entdeckt und ausgemerzt werden. Das Ergebnis dieser Arbeit stellt ein 41 Richtlinien umfassender Guidelinekatalog dar, der auf die besonderen Herausforderungen im Zuge der Entwicklung von Apps für Vorschulkinder hinzuweisen versucht.

Diplomarbeitsposter Kececi Daniel

Daniel Kececi

Masterstudium Business Informatics
Abstract:

The possibility of communicating online within the context of courses in Higher Education is essential, especially for lectures aimed at a large number of students and not least because of the evolution of so-called Massive Open Online Courses. Within this thesis, aspects of web-based, course-related communication are investigated in order to explore the difficulties and challenges in this field of subject. A practical project was designed, implemented and evaluated with the aim of providing a unified and new, contemporary approach to course-related communication. This thesis focuses on theoretical foundations, a detailed state-of-the-art review as well as on design principles derived from Exploratory Research which are, in consequence, integrated into the practical project in terms of a prototype.

Diplomarbeitsposter Kühnl Stephanie

Stephanie Kühnl

Masterstudium Business Informatics
Abstract:

The population of Austria is getting older. Due to this demographic ageing a lot of work is done in the area of Ambient Assisted Living (AAL). AAL includes technical resources that enable older people in need of care to live independently in their own homes. Therefore, it is of interest which economic benefits Austria could have through the use of Ambient Assisted Living. One aim of this thesis is to show these benefits. For this, informations about care costs in Austria will be gathered and a survey is made to get information about companies and their Ambient Assisted Living projects and the costs related to the development of these projects. After an analysis of the collected information with regard to the benefit for Austria, it can be seen that there are major possible savings through the use of Ambient Assisted Living. Due to the fact that the change of living environment could be postponed for over one year, the independent life of people in need of care is extended. Thus, Austria can save a lot of financial support. The other aim of the theses was to create a single point of resource. A database has been extended to contain all gathered information about the AAL projects.

Diplomarbeitsposter Lenzhofer Andreas

Andreas Lenzhofer

Masterstudium Medieninformatik
Abstract:

In den vergangenen Jahren haben sich die Anforderungen an Crowdsourcing-Projekte stark geändert. Die Generierung von Aufmerksamkeit stellt für viele Projekte nicht mehr die zentrale Fragestellung dar. Vielmehr geht es um die Frage, wie die Aufmerksamkeit der Masse in Engagement, Partizipation und Motivation umgewandelt werden kann. Das Geo-Wiki-Projekt, eine partizipative Plattform zur Validierung von globalen Landbedeckungskarten, steht vor ähnlichen Problemen. Game-Designerinnen und -Designer haben sich in den letzten 30 Jahren Werkzeuge und Methoden angeeignet, mit denen sie die Massen begeistern und unterhalten. Eine mögliche Antwort auf das Engagement-Problem kann daher der strategische Einsatz von Game Design-Methoden sein. Seit Anfang 2011 ist ein Trend in diese Richtung erkennbar, der unter dem Neologismus Gamification eine breite Aufmerksamkeit erreicht hat. Gamification beschreibt im Allgemeinen den Einsatz von Game Design-Elementen in spielfernen Umgebungen mit dem Ziel, sämtliche Lebensbereiche, digital wie analog, motivierender, unterhaltsamer und interessanter zu gestalten. In der vorliegenden Arbeit werden folglich die Konzepte der Gamification beleuchtet und anhand theoretischer Grundlagen aus den Feldern der Game Studies und der Motivationspsychologie analysiert. Das Ergebnis dieser Arbeit ist ein Gameful Design-Konzept, das das Geo-Wiki in einen spielerischen, unterhaltsamen und motivierenden Kontext einbettet und das Engagement der Nutzerinnen und Nutzer nachhaltig fördern kann.

Diplomarbeitsposter Sereinig Martin

Martin Sereinig

Masterstudium Medieninformatik
Abstract:

Die aktive Einbindung von Studierenden in großen Vorlesungen ist schon lange Gegenstand der Forschung. Am Institut für Gestaltungs- und Wirkungsforschung der TU Wien wird bereits seit Jahren eine Web-Applikation – Slidecasting – entwickelt, die es Studierenden ermöglicht, sich während und nach der Vorlesung durch das Verfassen von Beiträgen einzubringen. In den letzten Jahren ist außerdem das Interesse an der Aufzeichnung und Auslieferung von Vorlesungen im universitären Umfeld gestiegen. Auch an der TU Wien ist mittlerweile Infrastruktur vorhanden, um Vorlesungen aufzuzeichnen und über das Internet abrufbar zu machen. Ziel dieser Diplomarbeit ist es, diese beiden Themengebiete zu verbinden. Durch die Integration von Vorlesungsaufzeichnungen in Slidecasting soll eine Lernumgebung entstehen, die es Studierenden nicht nur erlaubt Vorlesungen nochmals anzuhören, sondern auch eine Umgebung schafft, die es Studierenden ermöglicht, sich gemeinsam mit anderen Studierenden konstruktiv mit den Inhalten der Vorlesung auseinanderzusetzen. Die im Rahmen der Diplomarbeit entwickelte Anwendung wurde im Sommersemester 2013 in zwei Lehrveranstaltungen des Instituts für Gestaltungs- und Wirkungsforschung eingesetzt. Dieser Einsatz der Software diente zum einen der Detailgestaltung der Anwendung im laufenden Betrieb. Zum anderen wurden während dieses Einsatzes Daten über das Nutzungsverhalten der Studierenden erhoben, die als Anhaltspunkt für weitere Entwicklungen an diesem Projekt dienen können.

Diplomarbeitsposter Wruß Thomas

Thomas Wruß

Masterstudium Software Engineering & Internet Computing
Abstract:

Diese Diplomarbeit setzt sich mit dem Thema der Vertrauensbildung in sozialen Netzwerken für Smartphones auseinander. Es wird die mobile Applikation Open-Share-It, welche im Zuge dieser Diplomarbeit erstellt wurde, beschrieben. Sie ist ein gutes Beispiel für eine mobile Applikation in der Vertrauen eine wichtige Rolle spielt. Ansätze um besseres Vertrauen in solchen Applikationen zu erzeugen werden mittels Recherche, Interviews und einer Umfrage erforscht. Die daraus resultierenden Ergebnisse sind in Guidelines zusammengefasst. Diese Guidelines sollen helfen, sowohl das Vertrauen der User in die Applikation zu stärken, als auch das Vertrauen zwischen den Usern mithilfe der mobilen Applikation zu unterstützen. Neben der Beschreibung des Open-Share-It Projektes wird auch auf Zusammenhänge des Projektes mit der Diplomarbeit näher eingegangen und die mobile Applikation mit den Guidelines verglichen.

Institut für Softwaretechnik und Interaktive SystemeE188

Arbeitsbereich Information & Software Engineering

Diplomarbeitsposter Beyer Stefanie

Stefanie Beyer

Masterstudium Software Engineering & Internet Computing
Abstract:

In recent years, society is using media and communication technology more. One consequence of this is that there is more opportunity for its abuse, as well as use in crime. If there is more criminal usage of digital communication technology, we need to reliably be able to use digital evidence in both prosecutions and criminal defence cases. The main focus of this study is to show that forging of digital alibis is possible, which can impact on the reliance on digital evidence. The creation of a digital alibi using automation is the focus of other studies, and we are also looking at: social interaction during the simulation of a user’s behaviour, and whether behaviour can be simulated realistically and with limited computer evidence of the simulation. For this purpose an alibi framework is created that mimicked a typical user’s behaviour. This automation is intended to be implemented in such a way that it may not be possible to decide whether the traces of exercising actions recorded on the computer originate from either: a human user or a simulated user. Furthermore, forensic analysis is applied to verify whether the framework leaves any traces behind that could indicate the usage of a simulator. Social interaction is simulated by using a chatbot which used email and messaging and analysed the computers for their performance in creating a digital alibi. The performance criteria for the framework was based on metrics taken from real person computer behaviour. By evaluating the forensic analysis of simulated user’s hard drive and the real persons’ behaviour, it turned out that the simulator fits in the average range of real persons for nearly all categories. Therefore, simulation of user’s behaviour is possible, on condition that determining the sources of digital evidence is hard to verify. However, having a closer look at social communication, there is room for improvement, e.g. the chatbots’ text comprehension and email content.

Diplomarbeitsposter Bodesinsky Peter Michael

Peter Michael Bodesinsky

Masterstudium Medizinische Informatik
Abstract:

Clinical guidelines recommend applicable actions in a specific clinical context. Computer Interpretable Guidelines (CIG) aim to achieve guideline integration into clinical practice and to increase health care quality. Analyzing compliance with a CIG can facilitate implementation and assist in the design of CIGs, but enabling medical experts to derive insights from this wealth of data is a challenging task. In this thesis the procedural checking of compliance with an example guideline (artificial ventilation of newborn infants) is combined with interactive visualization. The approach suggested in this thesis covers action-based checking of compliance with a CIG, three types of actions considering compliance are defined: invalid actions, valid actions and missing actions. Visual mappings and encodings for compliance information found in the course of this work have been integrated into views for patient, treatment and guideline data. Highlighting and visual abstraction inside views for time-oriented patient parameters are supported. The plan-execution view, showing the executed actions during a treatment session, is enriched with encodings for invalid actions and interval-based representations of repeatedly missing actions. Furthermore aggregated compliance information is represented visually inside a view showing the guideline structure. The approach presented in this thesis is based on the extension of the CareCruiser prototype and implemented in Java. A low scale evaluation was conducted with a physician to gather qualitative data and feedback. Results indicate that the visual encodings for compliance information seem to be intuitive and useful in general, suggestions and found issues give input for future adaptions and refinements.

Diplomarbeitsposter Bors Christian

Christian Bors

Masterstudium Medizinische Informatik
Abstract:

Analyzing the information provided by the users in Online Social Networks (OSNs) is on the one hand a tedious task but on the other hand people lose control of the information they have shared with the network, this leaves the door open for criminals and their counterpart: Forensic investigators. The context of this thesis is to develop a software tool which facilitates analysis of Social Snapshots split up into two major modules, the first one being a storage solution and the other one dealing with visualization and analysis assignments. Utilizing a database solution we make the usually complex data set easily accessible and available to be further processed. In terms of visualization we are focusing on automated graph representations of social networks providing high usability. This is paired with an export functionality generating comprehensive reports of a single social snapshot. To store and access such a heterogeneous set of data efficiently we assess different database concepts and implement a traditional relational database as well as a modern NoSQL database to determine an optimal solution regarding performance and accessibility. An abstract access model delivers queried data to the - visualization as well as statistics related - processing modules, coverting the underlying physical database connection. These processing modules are integrated into Gephi, a comprehensive graph visualization tool, harboring all snapshot analysis related functionality. Efficient graph representations and clustering methods provide an easily comprehendible social network overview. After having analyzed a social snapshot the user can choose to generate a comprehensive report containing general snapshot information, graph visualizations and statistic results. The thesis is finalized with an evaluation of the proposed function set emphasizing the performance of the storage modules, the information content of the provided visualizations and the user interface's usability.

Diplomarbeitsposter Dabernig Josef

Josef Dabernig

Masterstudium Software Engineering & Internet Computing
Abstract:

This thesis investigates the possibility of creating a server-side clustering solution for mapping in Drupal based on Geohash. Maps visualize data in an intuitive way. Performance and readability of mapping applications decreases when displaying large amounts of data. Client-side clustering uses JavaScript to group overlapping items, but server-side clustering is needed when many items slow down processing and create network bottle necks. The main goals are: implement real-time, server-side clustering for up to 1,000,000 items within 1s and visualize clusters on an interactive map. Clustering is the task of grouping unlabeled data in an automated way. Algorithms from cluster analysis are researched in order to create an algorithm for server-side clustering with maps. The proposed algorithm uses Geohash for creating a hierarchical spatial index that supports the clustering process. Coordinates are encoded as string identifiers with a hierarchical spatial structure. The use of a Geohash-based index allows to significantly reduce the time complexity of the clustering process. Three implementations of the clustering algorithm are realized as the Geocluster module for the free and open source web framework Drupal. The first algorithm implementation based on PHP, Drupal’s scripting language, doesn’t scale well. A second, MySQL-based clustering has been tested to scale up to 100,000 items within one second. Finally, clustering using Apache Solr scales beyond 1,000,000 items and satisfies the main research goal of the thesis. In addition to performance considerations, visualization techniques for putting clusters on a map are evaluated in an exploratory analysis. Map types as well as cluster visualization techniques are presented. The evaluation classifies the techniques for cluster visualization on maps and provides a foundation for evaluating the visual aspects of the Geocluster implementation.

Diplomarbeitsposter Frühwirt Peter

Peter Frühwirt

Masterstudium Software Engineering & Internet Computing
Abstract:

Die steigende Komplexität von Systemen und die dadurch resultierende Vergrößerung des Angriffsvektors macht es Angreifern leichter, in Systeme einzudringen. Als Verteidiger ist man oft dazu gezwungen, die Lage vorab schnell einschätzen und eine passende Verteidigungsstrategie entwickeln zu müssen. Die bekannteste Möglichkeit zur Absicherung der eigenen Netzwerke sind Intrusion Detection Systeme (IDS). IDS erkennen Angriffe anhand von vordefinierten, statischen Signaturen oder anhand von Verhalten von Benutzern. Bestehende System haben oft das Problem, dass sie auf Grund von Signaturen relativ unflexibel sind und dadurch von Angreifern leicht umgangen werden können. Diese Arbeit befasst sich mit den theoretischen Konzepten der Erkennung von Angreifern und erweitert bestehende Modelle durch Machine Learning Mechanismen. Durch Verbesserung und Kombination von statischen Signaturen mit einem Machine Learning Ansatz, konnte eine neue Technik zur Erkennung von Angriffen entwickelt werden, welche die Fehlerzahl bei der Erkennung stark reduziert. Unser Ansatz ermöglicht die Erstellung von Signaturen ohne Expertenkenntnissen durch manuelle Klassifikation von Netzwerkpaketen. Mit Hilfe von Machine Learning Techniken können neue Pakete anhand dieses Models erkannt werden. Gleichzeitig kann das bestehende Modell durch die neuen Pakete weiter verbessern werden.

Diplomarbeitsposter Hofstätter Harald

Harald Hofstätter

Masterstudium Software Engineering & Internet Computing
Abstract:

Einer der Erfolgsfaktoren von Smartphones ist die hohe Anzahl an mobilen Applikationen (Apps). Jedes mobile Betriebssystem besitzt seinen eigenen App-Markt mit bis zu mehreren hunderttausenden Apps. Trotz dieser enormen Anzahl kann nicht für jeden Use Case eine existieren, wobei besonders hoch personalisierte Anwendungsfälle nicht abgedeckt werden. Findet ein Benutzer keine App die seine Anforderungen erfüllt, ist er in den seltensten Fällen in der Lage eine eigene, auf Grund von (1) fehlenden Programmierkenntnissen, zu hohem Zeitaufwand und (3) Kosten für bestimmte Platformen, zu entwickeln. In dieser Arbeit wurde eine Workflow Engine für Android erstellt, die es Benutzern ohne großem technischem Wissen erlaubt, mobile Workflows zu erstellen um persönliche Use Cases abzudecken. Dafür wurde die XProc Referenzimplementierung Calabash auf Android portiert und um smartphone-spezifische Steps, wie zum Beispiel das Auslesen der aktuellen Position, Versenden von Kurzmitteilungen oder Erstellen von Benutzeroberflächen, erweitert. Zusätzlich wurde ein Trigger-Mechanismus implementiert um Workflows aufgrund von Änderungen des Benutzerkontexts, wie zum Beispiel Zeit, Ort oder das empfangen einer Kurzmitteilung, auszuführen. Eine Leistungsmessung bestätigte, dass das Ausführen eines bereits in Objektrepräsentation vorliegenden Workflows keine Geschwindigkeitseinbußen gegenüber nativ entwickelten Android Apps aufweißt. Das entwickelte System erlaubt es Benutzern Workflows platformneutral und standardisiert (XProc) zu erstellen. Kommunikationsmöglichkeiten (zum Beispiel SMS oder Twitter) erlauben verteilte Workflows welche mehrere Geräte umfassen. Ein zentrales Workflow-Repository ermöglicht das Veröffentlichen von Workflows, so dass andere Benutzer diese benutzen können. Des Weiteren fungiert es als Registrierung für "Workflows as a Service", welche wiederum "Human Services" ermöglichen, wie zum Beispiel Restaurantempfehlungen für eine bestimmte Stadt.

Diplomarbeitsposter Krejci Robert

Robert Krejci

Masterstudium Medizinische Informatik
Abstract:

Analyzing the information provided by the users in Online Social Networks (OSNs) is on the one hand a tedious task but on the other hand people lose control of the information they have shared with the network, this leaves the door open for criminals and their counterpart: Forensic investigators. The context of this thesis is to develop a software tool which facilitates analysis of Social Snapshots split up into two major modules, the first one being a storage solution and the other one dealing with visualization and analysis assignments. Utilizing a database solution we make the usually complex data set easily accessible and available to be further processed. In terms of visualization we are focusing on automated graph representations of social networks providing high usability. This is paired with an export functionality generating comprehensive reports of a single social snapshot. To store and access such a heterogeneous set of data efficiently we assess different database concepts and implement a traditional relational database as well as a modern NoSQL database to determine an optimal solution regarding performance and accessibility. An abstract access model delivers queried data to the - visualization as well as statistics related - processing modules, coverting the underlying physical database connection. These processing modules are integrated into Gephi, a comprehensive graph visualization tool, harboring all snapshot analysis related functionality. Efficient graph representations and clustering methods provide an easily comprehendible social network overview. After having analyzed a social snapshot the user can choose to generate a comprehensive report containing general snapshot information, graph visualizations and statistic results. The thesis is finalized with an evaluation of the proposed function set emphasizing the performance of the storage modules, the information content of the provided visualizations and the user interface's usability.

Diplomarbeitsposter Maly Manuel

Manuel Maly

Masterstudium Information & Knowledge Management
Abstract:

Music has long been an important part of human culture, and its playback has become an integral cultural component of high importance. Digitalization of music recordings has not only introduced superior sound quality to everybody's living room, but has also enabled transmission of large music collections via the internet. Since user interfaces for music playback software have not changed much in the last years, they are not necessarily optimized for the exploration of collections of millions of music files. The scope of this master's thesis is to investigate a promising visualization of artists in 2D space (through integration of artist similarity) for mobile applications. The main questions this thesis asks are whether the chosen method to compute music similarity is feasible in the context of mobile apps, and whether 2D visualization is well suited for search and exploration of objects therein. These questions are investigated on their technical feasibility by finding and optimizing methods for the efficient retrieval of music similarity, and through the construction of an Android app prototype. A user study is planned and carried out, comparing important aspects of the prototype with other existing music apps for Android. The study shall find out whether contents can be found quicker within a collection. Hints and explanations can be derived: The implemented 2D visualization of music artists (incorporating their similarity) seems to positively affect the users' memorization ability of contained objects. A better mental model can be built in this context. Search of objects in a music collection seem to not be positively affected by the proposed visualization, as compared to other forms. However, leaving aside list-based visualization forms, the prototype performed comparably well for search and exploration. It is concluded that the proposed concepts are promising, but that further research is necessary to resolve the problems which have been found.

Diplomarbeitsposter Mayerhuber Felix

Felix Mayerhuber

Masterstudium Software Engineering & Internet Computing
Abstract:

This thesis deals with the theoretical concept and the practical approach of the model transformation solution used in the Open Engineering Service Bus (OpenEngSB) project, a tool integration platform with the goal of archiving efficient interoperation between tools in multidisciplinary environments. The proposed approach provides an easy to use model transformation solution which is also flexible and runtime extensible. The approach is based on Java. Transformation operations are Java methods and models are realised as Java classes' structures (specifically, in means of classes, their attributes and their relations to other classes). The advantage of this approach is that it can be adapted by every Java developer to address project requirements and their changes (e.g. by adding new operations). In addition, no expertise in formal high-level abstraction modelling and meta modelling is needed; only knowledge about Java is required. Based on the introduced transformation solution, an approach is introduced to enable a simple form of automatic model update propagation. With this approach, it is possible to define relations between model instances and enforce data integrity between them. The prototype has been tested by its application in practical use-cases out of the OpenEngSB domain and the OpenEngSB customer area. In addition to these use-case tests, the introduced transformation definition language has been compared with other existing approaches and the prototypes performance has been tested.

Diplomarbeitsposter Müllner Barbara

Barbara Müllner

Unterrichtsfach Informatik/Informatikmanagement
Abstract:

Die vorliegende Arbeit befasst sich mit der Didaktik des internationalen SchülerInnenwettbewerbs „Biber der Informatik“. Vorgesehen ist der Wettbewerb für alle SchülerInnen von der 5. bis zur 13. Schulstufe und erfordert keinerlei Vorwissen auf dem Gebiet der Informatik. Der Wettbewerb zielt darauf ab das Interesse der SchülerInnen bezüglich der Informatik zu wecken und darauf aufmerksam zu machen. Um diese wertvolle Idee zu unterstützen, steht im Zentrum dieser Arbeit die Frage „Wie kann der Biber der Informatik in den Schulunterricht integriert werden?“. Konkrete Literatur zur Didaktik des Biber-Wettbewerbs gibt es leider keine, deswegen musste ich auf vorhandenes Wissen zurückgreifen. Mittels Fragebögen und eigener Kreativität konnte ich bereits erprobte Techniken eruieren und weitere erstellen. Durch Interviews mit Experten wurde es möglich einen Vergleich zu anderen Ländern herzustellen. Das eine oder andere Interview brachte sogar neue Ideen auf. Es wurden Möglichkeiten gefunden, wie der Biber der Informatik zusätzlich zu der Wettbewerbswoche in den Schulunterricht integriert werden kann. Die verschiedenen Techniken der Integration können in verschiedenen Anwendungsgebieten und Situationen eingesetzt werden. Dazu gibt es mögliche Stundenbilder, die übernommen oder verändert werden können. In den Bildungsstandards Digitaler Kompetenzen und sowohl im Allgemeinen als auch im fachspezifischen Lehrplan wurden einige Passagen gefunden, die mit den Aufgaben des Bibers konform gehen.

Diplomarbeitsposter Panhofer Paul

Paul Panhofer

Masterstudium Software Engineering & Internet Computing
Abstract:

Web 2.0 is becoming the Buzz Word in the Distributed Systems community. The technological standards for Web Applications are continually changing resulting in a new stack of non-functional requirements. The focus of the thesis is to find a scaleable architecture for a special class of distributed softwaresystems. The processing of large amounts of data in a timely manner is key. The CAP Theorem helps us to establish a classification of dataprocessing distributed systems. This classification is key to understand the different properties and requirements in the process of developing the software architecture in question. The comparison of different classes of dataprocessing systems gives us an idea of the problem. RDBMS and NoSQL Systems are the current dataprocessing technologies. We have created two Softareprototypes. One prototype has been created as a NoSQL System the other one is using RDBMS for dataprocessing. We have been running different tests to learn about the performance, scalability and elastic speed up of the prototypes}. We have learned that RDBMS as a dataprocessing technology is not able to give us the scalability we need. On the other hand NoSQL solutions are a tool that helps us to develop a scalable architecture.

Diplomarbeitsposter Rainer Matthias

Matthias Rainer

Masterstudium Informatikmanagement
Abstract:

A large amount of information still dwells in archives, printed on paper and out of reach of today’s search engines. While it might not be necessary (or even possible) to manually process all that data, it could still prove useful to have it indexed and available for search. Such digitized information archives could be used as reference in research and educational projects. This thesis is the documentation of such a digitization project. The analog media used for this project is the Stock collection: twelve cardboard boxes filled with approximately 1400 articles, information material, and other papers with a focus on automation and information technology in libraries. The state of the art is evaluated based on the U.S. Library of Congress’ American Memory Project. The best practices learned in the American Memory Project are freely available online as guidelines for anybody planning to digitize paper media. These guidelines will be evaluated in an attempt to transfer the Stock collection from its original paper form to a hypertext system. The digitized articles of the Stock collection will then be made available online as part of the "Die Informatisierung Österreichs" project, hosted by the Austrian Computer Society. The motivation to do so is to preserve this collection and make it available for further research. Since only a fraction of the Stock collection was transferred during the evaluation, a manual for further processing will be provided as part of this project, with the intention that the process steps can be applied to other projects as well.

Diplomarbeitsposter Weiss Christian

Christian Weiss

Masterstudium Business Informatics
Abstract:

Linked Open Data (LOD) bezeichnet Daten, die unter Verwendung eines offenen und maschinenlesbaren Formates im Web publiziert werden und mit anderen offenen Datenquellen verlinkt sind. Die Verfügbarkeit von LOD ist eine der wichtigsten Voraussetzungen für die Realisierung der Vision des Semantic Web. Initiativen wie DBpedia und das Linking Open Data community project haben die Verbreitung von Linked Open Data deutlich vorangetrieben. Richtlinien für Datenqualität und Inhalt von offenen Daten sind mittlerweile verfügbar und eine Vielzahl von verschiedene Datenquellen ist bereits in der Linked Open Data Cloud enthalten. Regierungen in verschiedenen Regionen der Welt haben ebenfalls begonnen, Daten offen über das Internet zu publizieren. Die Stadt Wien z.B. hat Datensätze im Rahmen ihrer Open Government Data Initiative (OGD) veröffentlicht. Diese Datensätze wurden in verschiedenen Formaten online gestellt, sind allerdings untereinander isoliert und wurden nicht nach den Richtlinien für Linked Open Data entworfen. Seitens der Wiener OGD Initiative ist die Veröffentlichung der Daten in LOD geplant, durch die angestrebte Koordination mit anderen OGD Initiativen befindet sich dieses Vorhaben aber noch in einer frühen Planungsphase. Das Ziel dieser Diplomarbeit ist es, anhand einer Auswahl von Daten der OGD Initiative der Stadt Wien zu zeigen, dass diese in Linked Open Data konvertiert werden können. Die konvertierten Daten müssen dabei den Richtlinien bzgl. LOD entsprechen und werden auf einem Webserver veröffentlicht um neue Anwendungsfälle wie komplexe Abfragen mittels SPARQL zu ermöglichen.

Arbeitsbereich Interactive Media Systems

Diplomarbeitsposter Bressler Michael

Michael Bressler

Masterstudium Medieninformatik
Abstract:

Der Gebrauch von myoelektrischen Handprothesen ermöglicht es, Steuersignale für die Prothese mittels Elektroden zu erfassen, welche direkt auf der Haut platziert werden. Allerdings muss der Betroffene den Heilungsprozess der Amputation abwarten, bevor er damit anfangen kann, eine Prothese zu verwenden. Außerdem kann dieser Prozess vor allem am Anfang schwierig und frustrierend sein. In dieser Arbeit wird eine Trainingsanwendung vorgestellt, welche es erlaubt, in einem virtuellen Raum mit einer Hand nach Kugeln zu greifen, wofür eine jeweils der Kugel enstprechende Griffkraft aufgewendet werden muss. Um die virtuelle Realität zu erschaffen, wird das Tracking-System ioTracker verwendet, welches an der technischen Unversität Wien entwickelt wurde. Mit diesem System werden die Bewegungen von Kopf und Arm des Akteurs in 6 Freiheitsgraden aufgezeichnet (Position und Orientierung) und an eine Anwendung übertragen, welche mit der Game Engine Unity3D entwickelt wurde. Hier werden die Bewegungsdaten in eine virtuelle 3D Umgebung übertragen und visualisiert. Das Bild der virtuellen Kamera, welche mit dem Kopf des Akteurs mitbewegt wird, wird drahtlos an ein am Kopf des Akteurs befestigtes Display (Head mounted display, HMD) übertragen. Da diese Arbeit in Zusammenarbeit mit Otto Bock durchgeführt wurde, konnte für die Steuerung der virtuellen Hand die gleiche Technologie verwendet werden, wie sie in der von Otto Bock entwickelten Michelangelo Handprothese eingebaut ist. Das Ziel dieser Arbeit bestand sowohl in einer Trainingsumgebung als auch in einer Testumgebung für Handprothesen. Daher gibt es mehrere Optionen, die elektromyographischen Steuersignale auf die virtuelle Hand anzuwenden. Weiters können diverse Simulationsarten für die Erzeugung von Griffkraft verwendet werden. Ebenfalls wurden Optionen implementiert, um das Erstellen und Durchführen von unterschiedlichen Test- und Trainingsszenarion zu ermöglichen.

Diplomarbeitsposter Böhm Sebastian

Sebastian Böhm

Masterstudium Computational Intelligence
Abstract:

Brain-computer interfaces (BCIs) are human-computer interaction systems in which users communicate with a computer via a direct neural interface. Brain-computer interfaces have historically been closely associated with assistive technology for persons with disabilities, but the past few years have seen an increase in publications on human-computer interfaces for people without disabilities. The goal of a cursor control BCI is to control the position of a cursor via brain signals. While there have been a number of publications on cursor control using BCIs, most of them focus on controlling a cursor in custom-built experimental applications. The present thesis describes the design and implementation of a cursor control BCI prototype that translates EEG sensorimotor input into one-dimensional cursor movement and can be accessed using standard input interfaces. Since the BCI is accessible via standard input interfaces, existing input libraries can be used to create experimental applications and the BCI can be used to control existing applications.

Diplomarbeitsposter Fellner Jakob Matthias

Jakob Matthias Fellner

Masterstudium Medieninformatik
Abstract:

Die vorliegende Diplomarbeit beschäftigt sich mit Ansätzen des algorithmischen Komponierens. Verfahren aus diesem Bereich sollen dabei mit der Disziplin der Mustererkennung vereint werden. Das Ziel der Arbeit ist die Generierung von neuen Musikstücken, welche deutliche Parallelen zu zuvor ausgewählten Kompositionen aufweisen. Zu diesem Zweck werden kurze und prägnante Notenfolgen, sogenannte Motive, aus diversen Liedern extrahiert. Die so gewonnenen Teile dienen anschließend als Input für Verfahren der algorithmischen Komposition. Die erstellten Musikstücke sollen einen möglichst harmonischen Klangeindruck hinterlassen. Im Zuge dieser Diplomarbeit wurde ein Software-System implementiert, welches in der Lage ist, Motive in Musikstücken zu finden und diese im Anschluss zu extrahieren. Weiters wurden zwei unterschiedliche Verfahren der algorithmischen Komposition ausgewählt, welche sich in der umgesetzten Software aus den Ergebnissen der Motiv-Erkennung bedienen. Auf dieser Basis können Musikstücke im MIDI-Format generiert werden. Als Hinführung auf das Thema der Motiv-Extraktion und der algorithmischen Komposition werden zunächst unterschiedliche Verfahren und Ansätze im Detail erläutert. Im Anschluss wird das Konzept der implementierten Software vorgestellt. Am Ende der Arbeit erfolgt die Präsentation der erzielten Ergebnisse anhand der Evaluierung einer quantitativen Umfrage.

Diplomarbeitsposter Fuchs Christoph

Christoph Fuchs

Masterstudium Visual Computing
Abstract:

Die Segmentierung und Klassifikation von Videos ist aufgrund der steigenden Anzahl von digitalen Videos manuell nicht mehr zu beherrschen. Es werden Algorithmen benötigt, die in der Lage sind aus dem Videomaterial relevante Informationen zu extrahieren, welche für aussagekräftige Beschreibungen geeignet sind. In der vorliegenden Diplomarbeit wird ein System zur Klassifikation von Videos durch Analyse audiovisueller Merkmale vorgestellt. Ein solches Vorhaben stellt auf beliebigem Videomaterial ein komplexes Problem dar, da diese Merkmale in der Lage sein sollen, die semantische Bedeutung von Bildern und Audiosignalen aus Videos zu erfassen. Aus diesem Grund wird in dieser Arbeit der Anwendungsbereich der Videoklassifikation auf Szenen der Muppet Show beschränkt. Zunächst werden grundlegende Ansätze und Methoden zur Videoanalyse in einer umfassenden Literaturstudie erklärt. Nach einem kurzen Überblick über die Entstehung der Muppet Show, zeigt eine Analyse des Videomaterials die charakteristischen Eigenschaften auf. Basierend auf den gewonnenen Erkenntnissen werden aussagekräftige audiovisuelle Merkmale und geeignete Klassifikationsmodelle vorgestellt, die für die Entwicklung eines Prototyps herangezogen worden sind. Zuletzt wird die Qualität der Klassifikationsresultate mit Hilfe verschiedener Evaluierungstests ausgewertet. Dabei wird aufgezeigt, dass sowohl visuelle Merkmale, wie die Verteilung von Farbe, als auch die Segmentierung des Audiosignals in Musik, Sprache und Umgebungsgeräusche in der Lage sind, die semantische Bedeutung von Videoszenen aus der Muppet Show zu erfassen.

Diplomarbeitsposter Kaltenriner Christoph

Christoph Kaltenriner

Masterstudium Medieninformatik
Abstract:

Als UAV (Unmanned Aerial Vehicle) werden Fluggeräte bezeichnet, die ohne Pilot an Board gelenkt werden. Meist werden UAVs von einer Person per Fernsteuerung oder einem Computer über eine Basisstation gesteuert. Voraussetzungen dafür sind eine permanente Verbindung zum UAV, Sichtkontakt und zusätzliche Infrastruktur sowie Hardware für die Basisstation. In vielen Fällen ist es jedoch nicht möglich, diese Kriterien zu erfüllen. Hier ist es notwendig, dass sich das UAV in einer unbekannten Umgebung autonom lokalisieren und navigieren kann. Zur Lokalisierung kann speziell in Innenraum-Anwendungen nur selten ein GPS-Signal herangezogen werden. Eine alternative Möglichkeit zur Lokalisierung ist die Verwendung von Landkarten. Eine solche Karte ist allerdings in den seltensten Fällen im Vorhinein (a-priori) vorhanden, weshalb es sich anbietet, diese automatisch während des Flugs zu erstellen. Hierfür ist zusätzlich eine leistungsstarke Hardware notwendig, die entsprechend leicht sein muss, um vom UAV getragen werden zu können. Die Autoren zeigen im Rahmen dieser Arbeit, dass ein UAV für Innenraum-Anwendungen aus preisgünstigen Komponenten gebaut werden kann und ein handelsübliches Smartphone an Bord des UAVs als Einheit zur autonomen Steuerung verwendet. Zu diesem Zweck wurde ein entsprechender Prototyp konstruiert. Dieser Prototyp ist in der Lage, sich mithilfe speziell dafür entwickelter Algorithmen in einer für das UAV unbekannten Testumgebung aus 2D-Markern zu lokalisieren. Durch eine Tracking-Software werden diese Marker eindeutig identifiziert und ermöglichen das Erstellen einer Karte zur Laufzeit. Anhand dieser Karte kann sich das UAV lokalisieren und während des Flugs Steuerbefehle für die autonome Navigation generieren. Die durchgeführten Tests zeigen, dass ein handelsübliches Smartphone eine sehr gute Möglichkeit bietet, die notwendigen Komponenten wie Prozessor, Kamera und Kommunikationseinheit in einem leichten und kostengünstigen Gerät zu vereinen.

Diplomarbeitsposter Leichtfried Michael

Michael Leichtfried

Masterstudium Medieninformatik
Abstract:

UAVs (Unmanned Aerial Vehicle) sind Fluggeräte, die ohne menschlichen Piloten an Bord gesteuert werden. Sie werden vorrangig zur Erkundung schwer oder nicht erreichbarer Gebiete eingesetzt. Dazu müssen sich diese in einer unbekannten Umgebung autonom orientieren können. Oft dient dabei GPS als externe Referenz für die Positionsbestimmung. In Innenräumen und Gebieten ohne GPS-Abdeckung müssen jedoch alternative Methoden in Betracht gezogen werden. Ein Ansatz sind sogenannte SLAM-Algorithmen (Simultaneous Localization and Mapping), die beispielsweise mit Hilfe von on-Board Kameras, markante Punkte in der Umgebung erkennen und daraus während des Flugs eine Landkarte zur Orientierung aufbauen. Die dazu notwendige Hardware muss sowohl leistungsstark sein um die Algorithmen in Echtzeit zu verarbeiten als auch ein geringes Gewicht aufweisen, um vom UAV getragen werden zu können. In dieser Arbeit wird gezeigt, dass ein aktuelles handelsübliches Smartphone als zentrale on-Board Recheneinheit diesen Anforderungen gerecht werden kann. Es wurde ein UAV-Prototyp konstruiert, der sich ohne GPS in einer unbekannten Innenraumumgebung lokalisieren und während des Flugs eine Karte dieser Umgebung erstellen kann. Diese Karte dient anschließend als Grundlage für die autonome Navigation. Als Testumgebung dienen 2D Markierungspunkte (Marker), die beliebig auf dem Boden angebracht wurden. Die Marker werden mit der Smartphone-Kamera aufgenommen und anschließend für das Kartieren und Lokalisieren verarbeitet. Sämtliche Algorithmen für den autonomen Flug werden vom Smartphone verarbeitet, eine zusätzliche Bodenstation ist nicht notwendig. Da das Smartphone alle notwendigen Komponenten für den autonomen Flug integriert, können sowohl Gewicht als auch Kosten gespart werden.

Diplomarbeitsposter Tschach Thomas

Thomas Tschach

Masterstudium Software Engineering & Internet Computing
Abstract:

BPMN ist eine weitverbreitete und gut verständliche, grafische Beschreibungssprache für Geschäftsprozesse und wird von einer Vielzahl von Modellierungswerkzeugen unterstützt, während Asbru eine XML-basierte Beschreibungssprache für ausführbare, medizinische Leitlinien ist, die nur durch wenige grafische Modellierungswerkzeuge unterstützt wird. Durch Definieren einer Modelltransformation zwischen BPMN und Asbru könnte die durch ausgereifte Werkzeuge gut unterstützte, standardisierte und wohlbekannte Notation herangezogen werden, um medizinische Leitlinien und Behandlungspläne in Asbru zu modellieren. Da die beiden Modelle unterschiedliche Paradigmen zur Repräsentation des Kontrollflusses nutzen, müssen einige Probleme in Bezug auf deren Transformation gelöst werden. Ziel dieser Arbeit ist es, diese Probleme aufzuzeigen und Lösungsansätze in verwandten Bereichen zu finden. Daher werden (1) Transformationsstrategien diskutiert, die Lösungen für diese Transformationsprobleme auf Basis von Übersetzungen zwischen graforientierten Prozessbeschreibungssprachen und BPEL aufzeigen. Des Weiteren wird (2) beschrieben, wie und welche Kontrollflussmuster von BPMN und Asbru unterstützt werden, um etwaige Diskrepanzen aufzuzeigen. Anschließend wird (3) ein Mapping von BPMN-Elementen auf Asbru-Elemente definiert, und (4) die Eignung der oben angesprochenen Transformationsstrategien für die Umsetzung in einem BPMN-zu-Asbru Transformationssystem überprüft. Abschließend wird (5) das implementierte Transformationssystem anhand der Übersetzung der einzelnen Kontrollflussmuster beschrieben. Die gewonnen Erkenntnisse und gezogenen Parallelen können verwendet werden, um eine Transformation zwischen BPMN und Asbru zu realisieren, wie dies am implementierten Prototypen gezeigt wurde.

Arbeitsbereich Business Informatics

Diplomarbeitsposter Franz Thomas

Thomas Franz

Masterstudium Business Informatics
Abstract:

Softwaremodelle werden nicht mehr nur für Entwurfszwecke genutzt, sondern sind ein Haupt-element im Software Engineering Prozess geworden. Modellierungssprachen werden genutzt um Modelle darzustellen, die eine Basis für die weitere Entwicklung bilden. Neben den Modellierungssprachen spielen in der modellgetriebenen Softwareentwicklung auch Modelltransformationen eine entscheidende Rolle. Das Ziel einer Modelltransformation ist ein bestimmtes Quellmodell in ein gewünschtes Zielmodell zu transformieren. Oftmals schlagen Modelltransformationen fehl und die Fehlersuche ist mühsam und langwierig, da diese in der Transformation selbst oder in den Metamodellen liegen können. Eine weitere Herausforderung ist es eine hohe Testabdeckung zu erreichen. Ziel dieser Arbeit ist das Auffinden eines automatisierten Ablaufs, der regelbasierte Transformationen testen kann. Dabei soll ein Tool in Java implementiert werden, welches auf der Metamodellierungssprache Ecore und regelbasierten Modelltransformationen in der ATL aufbaut. Es wird ein automatisierter White-Box Testing Ansatz entwickelt. Außerdem sollen mit Hilfe einer automatischen Generierung von Testinstanzen eine hohe Testabdeckung sichergestellt und verschiedene Fehler, vor allem Laufzeitfehler in der Transformation aufgezeigt werden. Basierend auf einem objektiven Testdatenset von Modelltransformationen der Übungs-aufgaben aus der Lehrveranstaltung "Model Engineering" der Technischen Universität Wien der Jahre 2009 bis 2012 wird eine Evaluierung in Form einer Fallstudie durchgeführt. Die Ergebnisse zeigen, dass das entwickelte WBT-Tool viele verschiedene Fehler, sowohl bei der Validierung der Modelle, als auch in der Transformation selbst aufzeigt. Das Tool birgt den Vorteil auch komplexere Testdatensets automatisch testen zu können, da bis auf die Anfangseinstellungen keine weitere Interaktion notwendig ist.

Diplomarbeitsposter Skackov Michal

Michal Skackov

Masterstudium Software Engineering & Internet Computing
Abstract:

This thesis aims to enable SMEs and non-profit organisations to trade within electronic markets using modern, freely available information technologies and systems. These businesses are not capable of investing in integration, but are forced by larger business partners or governments to produce business documents of a certain standard. To help address these issues a free of charge, cloud-hosted transformation between two different business document types is explored. Related research questions are addressed in order to enable direct transformation using the Smooks Data Integration Framework by applying current technology to offer transformation as SaaS with the help of a Web-based mapping tool. This thesis follows the guidelines of design science research methodology. The main parts consist of related work relevant to B2B electronic exchange of structured business documents, their mapping and subsequent transformation. In summary, this thesis provides an overview of related work on B2B business document standards, their mapping and transformation, as well as current integration tools. The major contribution is the prototype implementation of a Web-based system using Smooks to transform business documents. The most complex part relates to the actual interpretation of mapping and consecutive transformation. The implementation of the Web-based editor for mapping models for the data integration framework Smooks relates to a wide range of technologies. The jQuery framework, a library for JavaScript, is used for the user interface. The transformation works with help of FreeMarker, a template engine, and is hosted as a freeof-charge cloud computing service within a Google App engine using Java. In conclusion, the prototype although not an out-of-the-box solution, allows users to define schema mapping with functionality comparable to that offered by products already on the market.

Diplomarbeitsposter Wolny Sabine

Sabine Wolny

Masterstudium Business Informatics
Abstract:

Softwaremodelle werden nicht mehr nur für Entwurfszwecke genutzt, sondern sind ein Hauptelement im Software Engineering Prozess geworden. Modellierungssprachen werden genutzt um Modelle darzustellen, die eine Basis für die weitere Entwicklung bilden. Neben den Modellierungssprachen spielen in der modellgetriebenen Softwareentwicklung auch Modelltransformationen eine entscheidende Rolle. Das Ziel einer Modelltransformation ist ein bestimmtes Quellmodell in ein gewünschtes Zielmodell zu transformieren. Oftmals schlagen Modelltransformationen fehl und die Fehlersuche ist mühsam und langwierig, da diese in der Transformation selbst oder in den Metamodellen liegen können. Eine weitere Herausforderung ist es eine hohe Testabdeckung zu erreichen. Ziel dieser Arbeit ist das Auffinden eines automatisierten Ablaufs, der regelbasierte Transformationen testen kann. Dabei soll ein Tool in Java implementiert werden, welches auf der Metamodellierungssprache Ecore und regelbasierten Modelltransformationen in der ATL aufbaut. Es wird ein automatisierter White-Box Testing Ansatz entwickelt. Außerdem sollen mit Hilfe einer automatischen Generierung von Testinstanzen eine hohe Testabdeckung sichergestellt und verschiedene Fehler, vor allem Laufzeitfehler in der Transformation aufgezeigt werden. Basierend auf einem objektiven Testdatenset von Modelltransformationen der Übungsaufgaben aus der Lehrveranstaltung "Model Engineering" der Technischen Universität Wien der Jahre 2009 bis 2012 wird eine Evaluierung in Form einer Fallstudie durchgeführt. Die Ergebnisse zeigen, dass das entwickelte WBT-Tool viele verschiedene Fehler, sowohl bei der Validierung der Modelle, als auch in der Transformation selbst aufzeigt. Das Tool birgt den Vorteil auch komplexere Testdatensets automatisch testen zu können, da bis auf die Anfangseinstellungen keine weitere Interaktion notwendig ist.

Diplomarbeitsposter Zehetner Christoph

Christoph Zehetner

Masterstudium Business Informatics
Abstract:

The need for validating models automatically, in the early design phase arose with the emergence of the Model-Driven Development (MDD) paradigm. Models are not any longer used just for brainstorming and communication purposes. The Object Management Group (OMG) suggests the usage of the Unified Modelling Language (UML) to define platform-independent models. UML has been widely accepted as the de facto standard for modelling object-oriented systems. This master thesis pointed out that UML models are not necessary expressive enough to provide all complex aspects of a system. Some aspects of the domain are more expressed in natural language, which will lead to ambiguities and to errors. There-fore the Object Constraint Language (OCL) can be used to specify conditions on models that must hold for the system. Apart from the development of standards for modelling systems, several vendors developed modelling tools or so called Computer-Aided Software Engineering (CASE) tools to provide a wide range of instruments to support the MDD approach. The support depends on the ven-dor’s realization of the standards. In general there is a lack of validating models in CASE tools, which is essential in the early design phase. Additionally, there is only little support for writing OCL expressions for models. Thus, models defined by users of such tools are not nec-essarily valid against the wellformedness rules (WFR). The contribution of this master’s thesis is to provide an adaptive solution for managing OCL transformation in different environments or CASE tools. Mappings patterns are defined to manage the schema matching between selectable environments (source and target schema). The OCL expressions are applied to a selectable source schema, which is mapped to a target schema. The goal of this work is to analyse the OCL expression and generate a semantically equivalent expression in the target schema depending on pre-defined trans-formation patterns.

Arbeitsbereich E-Commerce

Diplomarbeitsposter Baltaci Ilker

Ilker Baltaci

Masterstudium Business Informatics
Abstract:

Empfehlungssysteme werden als ein wichtiges Management- und Marketinginstrument betrachtet, die nicht nur sowohl für die Online-Kunden als auch für Dienstleister sehr viele Vorteile bieten können. Ein effizientes Empfehlungssystem kann fast alle Aufgaben von einem Verkaufsberater erfüllen. In Folge der einzigartigen Eigenschaften von Dienstleistungen wie die Teilnahme der Kunden und der Dienstleistungsmitarbeiter an dem Service-Prozess sowohl die unterschiedlichen Dienstleistungsqualitätsabmessungsmodelle gelten die Services mehr als immaterielle Güter. Bei der Implementierung eines dienstleistungsorientierten Empfehlungssystems sind die speziellen Eigenschaften und Dimensionen von Dienstleistungen explizit zu berücksichtigen. Diese Masterarbeit befasst sich mit den generischen Dimensionen der Dienstleistungen, die sich bei den herkömmlichen gut-orientierten Empfehlungssystemen nicht befinden. Potentielle Probleme der Dienstleistungskunden während des Kaufprozesses können mit Hilfe von Empfehlungssystemen beseitigt werden, die auf Grund der immateriellen, untrennbaren, verderblichen und variablen Natur von Dienstleistungen auftreten können. Diese Arbeit beschäftigt sich mit den zusätzlichen Rollen der Empfehlungssysteme für Dienstleistungskunden in Bezug auf die sogenannten Eigenschaften von Dienstleistungen. Der empirische Teil der Masterarbeit beschreibt ein generisches Empfehlungsmodel, das gezielt auf die Anforderungen von Dienstleistungskunden und Empfehlungssystembenutzern implementiert wird. Das generische Modell wird in einer Restaurantempfehlung-Anwendung eingesetzt und mit Hilfe von einem vordefinierten Daten-Set evaluiert.

Diplomarbeitsposter Kaya Öncü Pinar

Öncü Pinar Kaya

Masterstudium Informatikmanagement
Abstract:

Due to economic and technological changes, eLearning sector had finally been able to take his place in the business world, and undoubtedly, it will continue to grow in governments, universities, companies and professional associations. ELearning is now a part of the organizational infrastructure to increase the productivity of companies such as sales effectiveness, improving company’s competency, and to build better customer relationship. The most important factor to deliver an eLearning service and to be successful is an efficient eLearning strategy, which need to act in response to the rapid changes in the technology. The purpose of this research is to give ideas about the definition of an online learning community, characteristics and types of online learning communities, community of practice (CoP), and the motivation behind it. After giving fundamental literature about online learning communities, the research will be set up with building and growing eLearning communities. The question is when building an online learning community, who participates, and their technologies that are used today. Further research introduces the Business Model Ontology (BMO) by Osterwalder&Pigneur for eLearning, and analyzes nine building blocks of BMO including monetization strategies and success factors with case studies of eight online learning communities.

Diplomarbeitsposter Messlehner Philip

Philip Messlehner

Masterstudium Software Engineering & Internet Computing
Abstract:

Die Datenspeicherung wird zunehmend in die Cloud verlagert. Gleichzeitig bauen viele Unternehmen auf mobile Applikationen, um Ihre Geschäftsprozesse abzubilden und abzuwickeln. Die bereitgestellten mobilen Applikationen der Cloud-Anbieter erfüllen jedoch nicht die Anforderungen dieser Unternehmen. Dabei verhindern folgende drei Probleme den Einsatz bestehender Applikationen. An erster Stelle sind die Applikationen nicht um die notwendigen Funktionen erweiterbar die benötigt werden, um diese sinnvoll im Geschäftsumfeld einzusetzen. Des Weiteren gibt es keine Anpassungsmöglichkeiten, um die Benutzeroberfläche an die Corporate Identity einer Firma anzupassen. Der Vertrieb dieser Applikationen wird über AppStores abgewickelt, die Firmen selbst können somit auch nicht steuern, welche BenutzerInnen diese Applikationen nutzen. Die Lösung für diese Probleme ist ein systematischer Umgang mit Variabilität in Applikationen, welche durch die unterschiedlichen Anforderungen der Unternehmen entstehen. Hierbei sollen Konzepte der Produktlinienentwicklung in die Domäne der mobilen Applikationen übertragen werden. Aus diesem Grund wird in dieser Arbeit ein Feature Modell erarbeitet, welches die Anforderungen der Unternehmen widerspiegelt. Des Weiteren werden Mechanismen entwickelt, um die unterschiedlichen Arten von Variabilität in Objective-C abzubilden. Sowohl das Feature Modell als auch die entwickelten Werkzeuge werden verwendet, um eine mobile Software-Produktlinie zu schaffen. Von dieser Software-Produktlinie sollen die verschiedenen Applikationen für Unternehmen effektiv abgeleitet werden. Mit der entwickelten Software-Produktlinie ist es möglich flexible Applikation abzuleiten, die um Module und Komponenten je nach Wunsch der KundInnen erweitert werden können. Somit können die Applikationen auch auf die jeweiligen Geschäftsprozesse perfekt zugeschnitten werden.

Diplomarbeitsposter Stödtner Christina

Christina Stödtner

Masterstudium Business Informatics
Abstract:

People share their opinions and stories with friends and strangers over various platforms. The connections that users create while interacting with each other influence them in their daily decisions. Moreover, information gathered on social media platforms offers valuable clues of what people are interested in. In my thesis, I explored 32 cultural institutions located in Vienna and how they use social media. I observed both the institutions and users on social media platform. I performed the following steps for my analysis: First, I studied what kind of information is public available for analysis. I found out what platforms are used by cultural institutions and how many people they reach with their messages on them. Furthermore, I compared how active the selected museums participated in social networks, how many users they attracted and if those numbers correlate. At the other end of the spectrum, I intended to investigate the characteristics and behaviour of users who interacted with cultural institutions on social media platforms in general. I illustrated what kind of content people like in order to create a successful social media strategy. After data collection, I performed statistical tests to evaluate my research questions and hypothesis. I explored that social media activities have a positive effect on the popularity of cultural institutions. Therefore, I compared the activity of museums with the activity and behaviour of people interacting with them. My results also demonstrated that users who interact with cultural institutions on social networks show different characteristics than the overall user population of those networks. In conclusion, I give insights in how social media analysis can be valuable for businesses in general and cultural institutions in particular.

Andere Institute der Technischen Universität Wien

Department für Raumplanung

Diplomarbeitsposter Yan Chin-Han

Chin-Han Yan

Masterstudium Informatikmanagement
Abstract:

Business Analytics ist die Evolution des traditionellen Business Intelligence in Form von Predictive Analytics. Während Business Intelligence sich noch im Bereich der Auswertung und der Visualisierung von Informationen aus der Vergangenheit und Gegenwart beschäftigt, liegt der Fokus von Predictive Analytics darin, aus Business Intelligence mögliche Aussagen über zukünftige Entwicklungen zu treffen. Der Einsatz von Predictive Analytics ermöglicht es Unternehmen bzw. Organisationen auf der Basis von Vorhersagemodellen vorausschauend zu agieren und künftige Entwicklungen rechtzeitig zu erkennen. Dabei geht es nicht mehr nur darum beispielweise globale Umsatzziele zu prognostizieren, sondern spezifische Entwicklungen für einzelne Kundensegmente oder sogar das Verhalten individueller Kunden zu prognostizieren. Die österreichische Finanzverwaltung befindet sich im Moment in der Phase der Modernisierung. Im Rahmen der E-Government-Offensive wurde in den vergangenen Jahren viel Wert auf das E-Administration und FinanzOnline gelegt. Aus diesem Bekenntnis zur Innovation steht die österreichische Finanzverwaltung seither ein breiter Basis-Datenbestand für Business-Intelligence-Analyse zur Verfügung. Aus Sicht der österreichischen Finanzverwaltung wurde bisher die richtige Richtung eingeschlagen. Die Leistungssteuerung wurde etabliert.Nun geht der Fokus um das Erkennen und das Verringernvon Gefahrenpotenzialen. (FraudDetecion, Risk Management). Für dieses Etappenziel sind Erfahrungswerte unter anderem aus der Privatwirtschaft näher zu betrachten und mögliche Anwendungsperspektiven zu entwickeln.Auf welcher Weise können die mit Erfolg zu Ende gebrachte Predictive Analytics Projekte aus der Privatwirtschaft als Grundlage für einen Einsatz in der österreichischen Finanzverwaltung dienlich sein? Auf diese und weitere Fragestellungen werden im Rahmen vorliegender Arbeit zu beantworten versucht.

Institut für Konstruktionswissenschaften und Technische Logistik

Diplomarbeitsposter Weissenbach Paul Christian

Paul Christian Weissenbach

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Die Entwicklung von erfolgreichen Produkten und Dienstleitungen ist schwierig. Ein wichtiger Teil eines Entwicklungsprozesses ist es herauszufinden, was der Kunde will, wie er danach sucht und vor allem was er letztendlich kauft. Die Qualität solcher Informationen und deren Aufnahme im Entwicklungsteam haben starken Einfluss auf das Ergebnis des Entwicklungsprojektes. Aufgaben die in diesen Bereich fallen werden üblicherweise als Anforderungsmanagement (engl. requirements engineering) bezeichnet. Die Kernaufgabe von Anforderungsmanagement ist die Erstellung von konsistenten Produkt-/ Dienstleistungsspezifikationen. Nachdem der state-of-the-art von Anforderungsmanagement mit semantischer Technologieunterstützung begutachtet wird und die Fähigkeiten von Anforderungsmanagementsoftware generell und in Bezug zu semantischen Technologien analysiert werden, wird in dieser Arbeit ein Ansatz zur Verbesserung des vorherrschenden Kundenbildes vorgestellt. Dieser Ansatz bedient sich "semantic web" Technologien und integriert sich in die Quality Function Deployment Methode, genauer, in eine Auswahl von Houses of Quality. Diese Auswahl ermöglicht es dem QFD Team, sein Kundenbild zu hinterfragen und auch zu rechtfertigen. Ein unerwartetes Ergebnis dieser Arbeit ist, dass der vorgestellte Ansatz bei linearen Entwicklungsvorgehensmodellen hilft, den Zeitpunkt festzustellen, wann von einer Anforderungs-/ Spezifikationsphase zu einer Implementierungsphase übergegangen werden kann. Eine für das Team selbst und auch für Projektaußenstehende, wie zum Beispiel das Management, hilfreiche Information.

Institut für Managementwissenschaften

Diplomarbeitsposter Djalili Manuel

Manuel Djalili

Masterstudium Business Informatics
Abstract:

Companies are highly interested in optimizing their processes (e.g. logistic, manufacturing) in order to increase their productivity or to reduce costs. Different optimization concepts and technologies have been developed, but their implementation with purely theoretical knowledge can be challenging. Learning factories bridge theory and praxis by simulating specific scenarios to easily and efficiently illustrate optimization possibilities in practice. Therefore, the company staff learns about direct benefits and application of the previously learned theory. RFID is a technology that can be used to optimize manufacturing processes but it has not yet been adapted or used by many learning factories. Especially in manufacturing processes further research is needed. The goal of this thesis is to research opportunities, benefits and challenges of RFID used in learning factories as well as to exploit the possible use of RFID in a learning factory and show its implementation. To achieve this goal, existing learning factories and RFID applications were analysed as well as RFID was integrated into an existing learning factory, the FhA Lean Assembly, and a software to exploit the potential of this technology was developed. The results are three software tools to support the various setups of the lean assembly, to communicate with the RFID hardware, to support staff during the practical exercise (assembly) and to prepare and display data generated by the RFID system. In this scenario four main benefits and three challenges have been identified.

Diplomarbeitsposter Dural Ömer Faruk

Ömer Faruk Dural

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Am Institut für Managementwissenschaften der TU Wien wird ein integriertes ERP-System namens ERPControl entwickelt. Als Hauptmodul des ERPControls befasst sich diese Arbeit mit folgenden Konzepten, um optimale Produktionplanung und –steuerung exemplarisch anzuwenden. - Design eines Informationssystems für die Produktionsplanung und –Steuerung unter expliziter Einbeziehung von mit der Zukunft verbundenen Unsicherheiten - Prototypische Implementierung des Informationssystems in einer modernen IT-Architektur - Dokumentation einer der Hauptkomponenten von ERPControl, welche die Produktions-planung und -steuerung, sowie die Kostenrechnung und Produktionsanalyse umfasst. Ausgehend von den Anforderungen für den Produktionsplanungs und –steuerungsprozess wird das Informationssystem mittels Klassendiagrammen und Aktivitätsdiagrammen designet. In den Klassendiagrammen werden die Informationen über Jahrespläne, Quartalpläne und Monatspläne modelliert. Zur Einbeziehung der mit der Planung verbundenen Unsicherheit werden die Quartals- und Monatspläne als stochastische binäre Bäume designet. Stochastische Informationen dieser Bäume werden im Zeitablauf in den Klassenmodellen dynamisch abgebildet. Diese Software Anwendung wird durch die Unterscheidung von drei architektonischen Ansichten auf Basis der Enterprise Management Information System realisiert: Business & Management Semantik, Informationssystem, Informationstechnik. Das Design des Informationssystems basiert auf der REA-Ontologie und dem ECSI Standard, welcher Ressourcen, Geschäfts- und Managementprozesse in Produktionsunternehmen explizit modelliert, um eine konsistente Daten- und Prozessmodellierung zu gewährleisten. Durch das Design und die prototypische Implementierung des Informationssystems mit Hilfe der Business Operationen des JBoss Seam Frameworks unter Java EE Technologie soll ein objekt- und prozessorientiertes IT System entstehen, das als Modul in der ERPControl Software zu sehen ist.

Diplomarbeitsposter Ernstbrunner Florian

Florian Ernstbrunner

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Im Maschinen- und Anlagenbau sind KMUs im Vergleich zu Großunternehmen stärker von den Nachfrageschwankungen betroffen. Das Modell „Kostenoptimale Kapazitätsanpassung” durch ein Entscheidungsunterstützungssystem (EUS) nach Morawetz bietet eine Herangehensweise an diese Problematik. Um eine beispielhafte Umsetzung des Modells der „kostenoptimalen Kapazitätsanpassung“ durch ein EUS zu zeigen, wird im Rahmen dieser Arbeit ein Prototyp - genannt Flexation-EUS (engl.: DSS, Decision support system) - entwickelt. Im Zuge der Entwicklung werden zwei Konzepte eingeführt. Das eine Konzept beschreibt eine Methodik, um manuell einen Kapazitätsplan anzupassen. Es wurde eine Anleitung verfasst, wie Maßnahmen ohne Optimierungsalgorithmus iterativ gesetzt werden können, bis das gewünschte Kapazitätsniveau erreicht wird. Diese Anleitung besteht aus fünf Fragenblöcken und entsprechenden Handlungsmöglichkeiten. Der Prototyp unterstützt den Benutzer bei der Beantwortung dieser Fragen. Das zweite graphisch-basierte Konzept beschreibt, wie der Kapazitätsplan aufgebaut ist und wie die Benutzer ihn bearbeiten können. Jenes bedient sich der Konzepte der Kapazitätshüllkurven, der Balkendiagramme und dem Verschieben von Elementen am Bildschirm durch ein visuelles „Drag&Drop”-Verfahren. Die Flexibilisierungsmaßnahmen, um deren bestmöglichen Einsatz es sich in dieser Arbeit dreht, beeinflussen einander in unterschiedlicher Weise und Umfang. Das Konzept der Maßnahmenbeeinflussungsmatrix (MBM) ist ein Hilfsmittel, um die gegenseitigen Einflussnahmen festzuhalten. Es konnte, über die Methode Experteninterview, festgestellt werden, dass das Flexation-EUS zwar noch nicht für den operativen Einsatz gerüstet ist, jedoch einen Schritt in die richtige Richtung darstellt, und es überdies dabei hilft, die Anzahl der Fehler zu reduzieren.

Diplomarbeitsposter Kaya Kadriye

Kadriye Kaya

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Mit der Globalisierung und in folge, dem steigenden Wettbewerbsdruck finden sich Unternehmen mit erhöhten, existenzbedrohenden Risiken konfrontiert. Unternehmen erkennen die Wichtigkeit, Risiken frühzeitig zu identifizieren und entsprechend zu reagieren. Wir sehen, dass seit einigen Jahren von verschiedenen Seiten versucht wird Risikomanagementbegriffe, -prozesse und -abläufe zu standardisieren, sodass unterschiedlichste Unternehmen diese je nach ihren Anforderungen in ihre Organisation integrieren und so effektives Risikomanagement betreiben können. Eines der wichtigsten und umfangreichsten dieser Versuche, stellt der ISO 31000 Standard für Risikomanagement dar, welches Thema dieser Arbeit ist. In dieser Arbeit werden Managementprozesse des Risikomanagements, nach dem ISO 31000 Standard als implementierbare Prozessmodelle vorgestellt. Es wird anhand eines Beispiels gezeigt, wie ein Risikomanagementsystem nach dem ISO 31000 Standard operieren kann.

Diplomarbeitsposter Nasufi Aqif

Aqif Nasufi

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Am Institut für Managementwissenschaften der TU Wien wird ein integriertes ERP-System namens ERPControl entwickelt. Als Hauptmodul des ERPControls befasst sich diese Arbeit mit folgenden Konzepten, um optimale Produktionplanung und –steuerung exemplarisch anzuwenden. - Design eines Informationssystems für die Produktionsplanung und –Steuerung unter expliziter Einbeziehung von mit der Zukunft verbundenen Unsicherheiten - Prototypische Implementierung des Informationssystems in einer modernen IT-Architektur - Dokumentation einer der Hauptkomponenten von ERPControl, welche die Produktions-planung und -steuerung, sowie die Kostenrechnung und Produktionsanalyse umfasst. Ausgehend von den Anforderungen für den Produktionsplanungs und –steuerungsprozess wird das Informationssystem mittels Klassendiagrammen und Aktivitätsdiagrammen designet. In den Klassendiagrammen werden die Informationen über Jahrespläne, Quartalpläne und Monatspläne modelliert. Zur Einbeziehung der mit der Planung verbundenen Unsicherheit werden die Quartals- und Monatspläne als stochastische binäre Bäume designet. Stochastische Informationen dieser Bäume werden im Zeitablauf in den Klassenmodellen dynamisch abgebildet. Diese Software Anwendung wird durch die Unterscheidung von drei architektonischen Ansichten auf Basis der Enterprise Management Information System realisiert: Business & Management Semantik, Informationssystem, Informationstechnik. Das Design des Informationssystems basiert auf der REA-Ontologie und dem ECSI Standard, welcher Ressourcen, Geschäfts- und Managementprozesse in Produktionsunternehmen explizit modelliert, um eine konsistente Daten- und Prozessmodellierung zu gewährleisten. Durch das Design und die prototypische Implementierung des Informationssystems mit Hilfe der Business Operationen des JBoss Seam Frameworks unter Java EE Technologie soll ein objekt- und prozessorientiertes IT System entstehen, das als Modul in der ERPControl Software zu sehen ist.

Diplomarbeitsposter Plank Alexander

Alexander Plank

Masterstudium Business Informatics
Abstract:

Um dem vermehrten internationalen Wettbewerb adäquat begegnen zu können, sind Innovationen, nachhaltige Innovationsprozesse, sowie die Intensivierung des Wissens- und Technologietransfers in zukunftsorientierten Branchen und Unternehmen von essentieller Bedeutung. Die erforderlichen Maßnahmen zur stetigen Wachstumssicherung und strategischen Differenzierung, sowie die Identifizierung der notwendigen Faktoren zur Festigung und Erhöhung der Innovationsfähigkeit und die gezielte Entwicklung von Innovationen sind wesentliche Bestandteile eines strategisch geregelten Innovationsmanagements. Da der Fokus bisheriger Untersuchungen weitestgehend auf das betriebliche Innovationsmanagement ausgerichtet ist, erhebt diese Arbeit, wie renommierte technische Universitäten in Europa das Management von Innovationen und den damit verbundenen Wissens- und Technologietransfer handhaben. Es werden hierbei jene Faktoren ermittelt, die für erfolgreiche Leistungen in diesen Bereichen von essentieller Bedeutung sind und welche Einflüsse auf diese Leistungen einwirken. Die sich aus diesem Kontext abgeleitete erste Forschungsfrage beschäftigt sich somit mit der Definition relevanter Leistungskriterien, anhand derer man ein erfolgreiches Innovationsmanagement bzw. einen effektiven Wissens- und Technologietransfer messbar machen kann. Eine zweite Forschungsfrage analysiert schließlich den Umgang ausgewählter Universitäten mit diesem Themenbereich und deckt mögliche Zusammenhänge zu den zuvor definierten Leistungsgrößen auf. Nach einer sekundären und primären Datenerhebung wird eine empirische Untersuchung, sowohl mit Hilfe einer quantitativen, als auch qualitativen Benchmarkanalyse durchgeführt, welche durch den Vergleich der technischen Universitäten die Beantwortung beider Forschungsfragen ermöglicht. Im Rahmen des Universitätsvergleichs werden die Leistungsunterschiede zwischen den untersuchten Benchmarking Partnern aufgezeigt.

Diplomarbeitsposter Preis Armin

Armin Preis

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

The postmodern socioeconomic system is coined by an unprecedented interdependency of organizations around the whole globe. Companies have to become more resilient to survive crises and more efficient to stay successfully in business under the pressure of worldwide competition at the same time. The goal of this thesis is to develop a cybernetic risk and resilience management framework that allows to plan and control internal risks and to prepare for external risks so that a more competitive business strategy can be applied. The scientific research approach is the Design Science Methodology that is divided into three major parts. The first one is a literature analysis on risk and resilience management to evaluate current standards and trends in these management domains. In the second part cybernetic risk and resilience management frameworks are developed. The integration of the developed management frameworks into a cybernetic enterprise wide risk and resilience management framework as well as an evaluation constitute the final part of the research process. As results, the ISO 31000 Risk Management Standard and the ASIS Organizational Resilience Management Standard were modeled as Cybernetic Management Frameworks, existing management theories were integrated into the new Recursive Cybernetic Management Model (RCMM), and the Enterprise Resilience Management Meta-Framework (ERM-MF) was developed. The ERM-MF facilitates the steering of enterprise resilience by managing risks on and resilience of assets as well as the quality of management processes.

Diplomarbeitsposter Womser Thomas

Thomas Womser

Masterstudium Business Informatics
Abstract:

The relevance of trademarks has significantly increased within innovation literature. However the motives behind the application of trademarks for innovations are currently barely investigated. Therefore this master thesis aims at analysing Austrian firms’ trademarking behaviour to reveal novel insights regarding the relationship between trademarks and innovation. Thereby the research questions about the appropriateness of trademarks as innovation indicator and the revelation of factors which influence firm’s trademarking behaviour are discussed in detail. Within an extensive literature analysis trademarks are analysed from three different literature strands – marketing, strategic and innovation literature. Further descriptive statistics of the Community Trademark Database are conducted. Methodologically the empirical part of the study is based on qualitative interviews of Austrian firms. The sample of interviewed firms is carefully selected from the Community Trademark Database with the assistance of a multiple criteria catalogue, drawn up from insights of the literature and statistical analysis. Thereby a qualitative assessment of the relationship between innovation and trademark registration has been undertaken. Furthermore multiple factors of trademarking behaviour for innovations could be qualitatively observed and a framework for assessing innovative trademarking behaviour, which consists of factors of the competitive environment and internal firm factors, is proposed.

Diplomarbeitsposter Zimper Stefan

Stefan Zimper

Masterstudium Business Informatics
Abstract:

Innovation is considered the base for economic success, what requires an active managerial commitment to establish environmental conditions that facilitate innovative behaviour and therefore ensure a sustainable existence of the firm. However, there is much debate in the literature whether companies should focus on one form of innovation or combine different innovative activities at the same time. Only a few publications have focussed on this multidimensional and combinatory perspective of innovation strategy yet, whereas less empirical studies have been conducted so far that also took financial performance into consideration. Based on broad recent empirical data of the European Manufacturing Survey (EMS) 2009 and 2012 for Austria this thesis should provide insight into the innovation strategy – financial performance relation to find out if companies that focus on more dimensions of innovation actually achieve better financial results. Furthermore it is a focus of this work to assess factors that significantly influence strategic innovation choices and to find out whether industry classification also plays an important role in that sense. The literature research as well as the empirical part of this thesis highlighted that a more comprehensive view of innovation within the firm is needed, to properly react to environmental changes and ensure a sustainable existence of the firm. This paper found many determinants of firm’s innovative behaviour, whereas competitive/industry environment and international orientation have been identified as key factors influencing the choice of an appropriate innovation strategy. As a last key result it has been observed that companies that distribute their efforts across all types of innovations are likely to achieve better financial performance in terms of profitability.

Institut für Automatisierungs- und Regelungstechnik

Diplomarbeitsposter Barsoukov Yaroslav

Yaroslav Barsoukov

Masterstudium Software Engineering & Internet Computing
Abstract:

Der von Besl and McKay entwickelte ICP Algorithmus ist längst zum Goldstandard fürs Lösen des Reqistrierungsproblems geworden. Nachdem sich die Programmierbarkeit der GPUs in der letzten Zeit erhöht hat, ist ihr paralleles Programmierungsmodel nun für ICP perfekt geeignet. Die vorliegende Arbeit setzt sich zum Ziel, eine Implementierung von ICP zu entwerfen, die völlig auf GPU ausgeführt werden könnte; die dabei entstehenden Probleme mit GPU Architektur werden gelöst, und die erhöhte Leistung wird dafür benutzt, den Algorithmus selbst präziser zu machen.

Diplomarbeitsposter Mathias Bernhard

Bernhard Mathias

Masterstudium Technische Informatik
Abstract:

Object learning and object recognition are general research topics in the robotics. This thesis deals with the problem of automating the learning process. A robot should be able to explore its environment and to learn new objects autonomously. For object modelling, an implementation of the V4R library (of the Vision for Robotics group, ACIN, TU Vienna) is used. A model combines image descriptors (SIFT) representing textures and point cloud descriptors (SHOT) to describe the 3-D shape of the object. The information stored in such models can be used to recognize objects in other scenarios again (even amongst many other objects). In order to get 2-D RGB as well as 3-D depth images, the Microsoft Kinect camera is used within this project. To move the objects in front of the camera, a robotic arm of the type Neuronics Katana 450 is used. A trajectory as optimally as possiple is necessary to receive a complete model. The completeness of a model can be checked with the probability sphere already implemented in V4R. The probability sphere is a platonic body where the surface consists of several triangular faces. These faces represent different viewpoints relative to the object. Colours represent the completeness of the model from the according direction. White faces indicate a high probability to detect the object from this viewpoint and black faces indicate missing viewpoints. Grey-shaded faces represent partially observed viewpoints. There are several subproblems within this project, for example, the determination of the robot arm pose within the camera coordinates (camera calibration) or the topic of how to control the arm with an optimal trajectory. Also image processing is an important topic within this thesis. For example, the object must be segmented out of the 3-D data stream received from the Microsoft Kinect sensor. It is not allowed to learn parts of the arm or some background information together with the object.

Diplomarbeitsposter Rodler Matthias

Matthias Rodler

Masterstudium Informatikmanagement
Abstract:

Zurzeit werden Batch-Prozesse sehr häufig in der chemischen und pharmazeutischen Industrie eingesetzt. Durch die festgelegten Vorgaben im Ablauf haben sie aber nur sehr eingeschränkte Möglichkeiten um sich einem stetig ändernden Umfeld anzupassen. Der Einsatz von autonomen Agenten bietet hier eine neue Möglichkeit um Prozesse bei Veränderungen im Umfeld zu adaptieren und deren Vorgänge zu optimieren. Leider hat sich dieser neue Ansatz noch nicht durchgesetzt. Dies wird vor allem darauf zurückgeführt, dass die Steuerung komplexer Anlagen - durch autonome Agenten - für den Anwender schwer durchschaubar ist und dadurch das nötige Vertrauen in autonome Agenten noch nicht gewonnen werden konnte. Um ein Multi-Agenten System jedoch verstehen zu können sollte der Anwender zum einen das Verhalten jedes einzelnen Agenten und zum anderen das Verhalten des Gesamtsystems überblicken können. Im Zuge dieser Magisterarbeit wurde eine Visualisierung entwickelt, welche das Verhalten und die Kommunikation eines Multi-Agenten Systems für den Anwender verständlich grafisch wiedergibt. Das Institut für Automatisierungs- und Regelungstechnik (ACIN) nutzt Automationsagenten, um die physikalischen Komponenten einer Anlage zu steuern und die Batchprozesse zu optimieren. Ein Automationsagent, das Kernstück ihrer Architektur, agiert selbstständig basierend auf seinem Wissen, indem er Produktionsumfeld und -bedingungen analysiert und einen Schlussfolgerungsprozess auslöst. Diese Anlage wurde als Referenz herangezogen um die Funktionstauglichkeit der Visualisierung zu testen und soll im Weiteren gemeinsam mit der Visualisierung dazu dienen, um Studenten Multi-Agenten Systeme näher zu bringen.

Institut für Computertechnik

Diplomarbeitsposter Formanek Rene

Rene Formanek

Masterstudium Software Engineering & Internet Computing
Abstract:

Bei der triebgesteuerten Fauna für Artificial Life Simulation handelt es sich um Software-Agenten, welche die Simulationsumgebung des Artificial Recognition System (ARS) Projekts des Instituts für Computertechnologie der Technischen Universität in Wien erweitern. Im ARS-Projekt wird eine kognitive Architektur entwickelt, deren Entscheidungsfindung an die des menschlichen mentalen Apparats angelehnt ist. Hierfür werden psychoanalytische Theorien als Basis für die Architektur verwendet. Das Verhalten der Agenten, die diese Kontrollarchitektur verwenden, soll dabei menschenähnlich sein. Da Architekturen für künstliche Intelligenz - insbesondere jene, deren Agenten menschenähnliches Verhalten zeigen sollen - nicht ausreichend durch klassische Software Engineering-Techniken getestet werden können, müssen menschliche Beobachter das Verhalten der Agenten bewerten. Diesen Beobachtern muss zur Beurteilung der Fähigkeiten und Verhaltensweisen eine Simulationsumgebung mit ausreichend vielfältigen und komplexen Möglichkeiten für Testszenarien zur Verfügung gestellt werden. In der vorliegenden Arbeit wurde eine triebgesteuerte Fauna entwickelt, deren Agenten mit einer künstlichen Intelligenz ausgestattet sind, die auf die grundlegenden körperlichen Bedürfnisse von Tieren reagiert. Diese Agenten wurden in einem Belief-Desire-Intention-Framework entwickelt und werden über Properties-Dateien angepasst. In der Simulationsumgebung wird das Verhalten der Agenten visualisiert, um Änderungen der Konfiguration nachzuvollziehen. Da sie den gleichen Simulator für die Simulationsumgebung verwenden, können die Agenten in die Artificial Life Simulation des ARS-Projekts integriert werden. Dadurch werden die Möglichkeiten, die Testern im Simulator geboten werden, erweitert und die Erstellung von zusätzlichen Testszenarien wird vereinfacht.

Diplomarbeitsposter Jahoda Michael

Michael Jahoda

Masterstudium Business Informatics
Abstract:

Die Mehrheit der Benutzerschnittstellen im Bereich der Gebäudeautomation basiert auf handbetätigten Steuerelementen. Körperlich eingeschränkten Personen hingegen fehlt oft die Fähigkeit bzw. die Kraft, Schalter oder Knöpfe selbstständig zu betätigen. Eine neue Form der Interaktion mit Systemen der Gebäudeautomation wird benötigt, um Personen mit körperlichen Einschränkungen in ihrem Alltag zu unterstützen. In dieser Arbeit wurde eine berührungslose Benutzerschnittstelle erstellt, die es Benutzern mit einem Mangel an physischer Kraft und mangelnder Bewegungsfreiheit erlaubt, mit klassischen Kontrollelementen der Gebäudeautomation zu interagieren. Die Benutzerschnittstelle kann berührungsfrei mit Kopfgesten bedient werden. Der Benutzer kann mit definierten Gesten, die mit einer Standard-Webcam erfasst werden, mit dem System interagieren. Weiters soll es jedem Benutzer ermöglicht werden, individuelle Befehlsgesten zu definieren, um unabhängig von der Art der Beeinträchtigung, die bestmögliche Benutzbarkeit sicherzustellen. Die Umsetzung der Gestenerkennung basiert auf den empfangenen Daten der Facetracking-Engine faceAPI von SeeingMachines. Die Bewegungen des Kopfs werden erfasst und mit den im System gespeicherten Befehlsgesten verglichen. Wurde eine Geste eindeutig identifiziert, wird der korrespondierende Befehl vom System ausgeführt. Es wurde weiters ein Aufzugssimulator implementiert, mit dem das Verhalten eines echten Aufzugs simuliert werden soll. Anhand des Aufzugsimulators wurde das System mit Hilfe von Testpersonen, unter anderem mit körperlich beeinträchtigten Benutzern, bezüglich ihrer Benutzbarkeit evaluiert. Im Rahmen des Benutzertests hat sich die Praxistauglichkeit dieser Benutzerschnittstelle erwiesen. Durchschnittlich wurden 95% aller durchgeführten Gesten korrekt von der gestenbasierten Benutzerschnittstelle erfasst.

Diplomarbeitsposter Platschek Andreas

Andreas Platschek

Masterstudium Technische Informatik
Abstract:

Genau wie die Luftfahrt Industrie ist derzeit auch die Automobil Industrie im Umbruch, und beginnt mehrere ECUs (Error Containment Units) in einen Hardware Knoten zu integrieren. Bei diesem Ansatz ist es jedoch äußerst wichtig, dass die Unabhängigkeit der Applikationen – die meist auch unterschiedliche Sicherheitsanforderungen (sowohl Safety als auch Security) haben – erhalten bleibt. Die Unabhängigkeit wird durch Isolation, das heißt zeitliche sowie räumliche Trennung erreicht und wird durch geeignete Kommunikationsmechanismen, die keines dieser Isolationskriterien stören dürfen, ergänzt. Der Ansatz erlaubt, durch die Isolation die Safety- und Security-Eigenschaften zu erhalten und ermöglicht so die modulare Validierung sowie die modulare Zertifizierung von Software. Die Arbeit versucht, die Safety-Kriterien, die von der Automobil Industrie gefordert wer- den, mit Hilfe von FLOSS (free/libre open source software) zu erfüllen. Die gewählte Vorge- hensweise ist, basierend auf dem XtratuM2 Hypervisor mehrere unabhängige Instanzen einer FLOSS-Implementierung der OSEK-Spezifikation (Offene Systeme und deren Schnittstellen für die Elektronik im Kraftfahrzeug) laufen zu lassen, wobei jede dieser Instanzen eine typi- sche Applikation aus dem Automobil Bereich ausführt. Die resultierende Plattform erlaubt es, mehrere unabhängige Applikationen parallel laufen zu lassen, anstatt einen Hardware Knoten für jede der Applikationen zu verwenden. Dieser Ansatz reduziert die Anzahl der Knoten im Fahrzeug und führt so zu einer Reduktion des Gewichtes sowie des Stromverbrauchs. Weiters wird die Ausnutzung der Ressourcen, die moderne CPUs zur Verfügung stellen, verbessert und die Kommunikation zwischen Applikationen vereinfacht.

In Zusammenarbeit mit anderen wissenschaftlichen Einrichtungen

Medizinische Universität Wien

Diplomarbeitsposter Brandmüller Mario

Mario Brandmüller

Masterstudium Medizinische Informatik
Abstract:

Diese Diplomarbeit beschreibt die Erstellung eines versionierbaren Persistenz-Frameworks zur versionierten Speicherung von hierarchischen Objektstrukturen. Dafür werden zu versionierende Entitäten des Tumordokumentationssystems HNOOncoNet als Ausgang herangezogen, um auf deren Grundlage ein allgemeines Versionierungskonzept für das Persistieren hierarchischer Objektstrukturen zu entwerfen und in weiterer Folge in Form einer Implementierung einer Persistenz-Framework-Erweiterung umzusetzen. Exemplarisch werden anhand des existierenden HNOOncoNet-Systems Anforderungen an ein solches Versionierungskonzept für dynamische Web-Anwendungen erstellt. Zu diesen Anforderungen wird ein Konzept zur versionierten Speicherung von hierarchischen Objektstrukturen auf Basis des Hibernate-Erweiterungsmoduls names Envers vorgeschlagen. Dieses vorgestellte Konzept wird dann in Hinblick auf seine Speicherplatznutzung optimiert. Diese Optimierung zielt auf das Unterbinden der ungewollten mehrfachen Speicherung von identen Zuständen der zu persistierenden Entitäten ab, das bedingt durch die notwendige Aufrechterhaltung einer Ordnung der Revisionsnummern von Objekten innerhalb einer Objektstruktur im Falle des ersten Ansatzes auftreten kann. Erreicht wird dies durch eine Teilung der Zustandsbeschreibung in einen Verwaltungsteil und in einen Datenteil. Für diesen optimierten Ansatz wird dann noch eine Implementierung in Form einer Erweiterung des Hibernate-Erweiterungsmoduls Envers präsentiert. Diese bietet als Bestandteil der Persistenzschicht die angestrebte Funktionalität zur versionierten Speicherung von hierarchischen Objektstrukturen für auf Hibernate aufbauende dynamische Web-Anwendungen.