EPILOG Sommersemester 2014

Auszeichnungen

Weitere Nominierungen für Distinguished Young Alumnus/Alumna

Ausgestellte Arbeiten

Institut für Technische InformatikE182

Arbeitsbereich Cyber-Physical Systems

Diplomarbeitsposter Brugger Stephan

Stephan Brugger

Masterstudium Technische Informatik
Abstract:

Action planning of robots and autonomous vehicles is typically based on maps of their environment. These maps often only contain information about the static environment and ignore dynamic entities. Information about dynamic entities, like moving objects, in the environment can help to improve action planning in robotics. The basics of autonomous navigation such as localisation, mapping and tracking are covered. State of the art algorithms for mapping such as particle filtering and Simultaneous Localization and Mapping (SLAM) are evaluated. An approach to gather probabilistic and dynamic information about the dynamic environment is introduced within this thesis. All entities within a map are probabilistic, containing a value about the probability of their existence and a change rate. Dynamic behaviour at certain locations will cause dynamic areas to be created. In addition these new information need to be saved somehow within the map. A technique to save this information, as well as to reuse existing maps and extend them, is presented. This thesis is all about gathering information, evaluating this information regarding its dynamic aspect, generating dynamic areas and store probabilistic and dynamic information in maps. A software module, which is designed to gather and process change rates about the dynamic environment, was developed. This module in cooperation with other modules and a robotic software framework is able to perform dynamic mapping while autonomously driving to a certain destination. A small robot, equipped with a laser scanner which provides information about the environment, was used to experimentally examine the behaviour of the dynamic mapping software module. These experiments are evaluated and demonstrate the approach of generating maps with information about the dynamic environment.

Diplomarbeitsposter Degasperi Philipp

Philipp Degasperi

Masterstudium Technische Informatik
Abstract:

For embedded real-time systems it is important to fulfill timing constraints and therefore the focus is on the worst-case execution time. One performance bottleneck is the memory access, where caches are introduced to increase processor performance. Traditionally used caches are optimized for the average case and hardly predictable, what makes them unpractical for real-time systems. Instead we need to build predictable caches and integrate them into the processors design. In the context of the T-CREST project this thesis investigates the method cache as a possible solution to build an instruction cache that is highly predictable for a worst-case execution time analysis. The method cache satisfies this requirement already by design. A method cache stores full functions in the on-chip memory and therefore an instruction miss can only occur on a function call or return. This simplifies the timing analysis since only the call tree of the program has to be considered. We present different implementations of the method cache and a performance evaluation, comparing the method cache with conventionally used cache organizations. We used a subset of embedded benchmark suites for the evaluation of different method cache configurations. Most benchmarks show a good average case performance, comparable to a conventional instruction cache.

Diplomarbeitsposter Frömel Bernhard

Bernhard Frömel

Masterstudium Technische Informatik
Abstract:

In der Time-Triggered System-on-Chip (TTSoC) Architektur sind Komponenten an ein Time-Triggered Network-on-Chip (TTNoC) angeschlossen und interagieren miteinander über ihr Linking Interface (LIF). Daher ist die Definition der Interaktionsbeziehungen zwischen den Komponenten und das Design der Komponentenschnittstellen der Schlüssel zur Entwicklung von Applikationen für die TTSoC Architektur. Unser Ziel ist die Formulierung eines generischen Prozesses zur Entwicklung von verteilten Applikationen für die Architektur. Dazu haben wir existierende Methoden sowohl für die Time-Triggered Architecture als auch generell im Feld verteilter Systeme begutachtet. Basierend auf diesen Erkenntnissen haben wir einen Entwicklungsprozess für die TTSoC Architektur gestaltet und seine Brauchbarkeit anhand eines Fallbeispiels evaluiert. Im Entwicklungsprozess haben wir mehrere service-orientierte Modelle definiert, die das System auf unterschiedlichen Abstraktionsebenen darstellen. Modelltransformationen verfeinern das System bis es auf einer Plattform ausgeführt werden kann. Das zu diesem Zweck entwickelte Tool unterstützt die Modelltransformationen und erzeugt automatisch eine Konfiguration für Architekturelemente, e.g., TTNoC. Im Zuge der Gestaltung des Entwicklungsprozesses wurden existierende Arbeiten zur TTSoC Architektur sowohl auf Konzept- als auch Implementierungsebene erweitert. Wir haben das Konzept rekursiver Komponenten auf die TTSoC Architektur angewendet, sodass Komponenten andere Komponenten enthalten können. Ein Fallbeispiel validiert die entwickelten Erweiterungen der Architektur und zeigt die Brauchbarkeit des Entwicklungsprozesses. Das Konzept der rekursiven Komponenten erlaubt eine Systemgestaltung die bezüglich Komplexität, Zuverlässigkeit, Performance und Energie skaliert. Mit dieser Arbeit hoffen wir die TTSoC Architektur für weitere wissenschaftliche Evaluierung, ihren Einsatz in Lehrveranstaltungen und ihre Verwendung in der Industrie gefördert zu haben.

Diplomarbeitsposter Macher Dominik

Dominik Macher

Masterstudium Technische Informatik
Abstract:

Vehicles and autonomous systems can strongly benefit from the exchange of information. For instance, vehicles can inform each other about accidents, such that a detour can be found in time. The challenge of information exchange between autonomous systems is that there are different types of systems which want to share information. Each system type has specific requirements for its information, i.e. one system is interested in a particular kind of information whereas other systems may be interested in different information. Another challenge is that information often gets invalid after a specific time or due to some other invalidation criteria. Systems are not interested in such information any more, i.e. it is not necessary to share invalid information. So it is required to not share all information that is available between systems, instead autonomous systems should be able to decide which kind of information to exchange. This thesis is working towards a solution for these challenges, i.e. a software framework is implemented that allows autonomous systems to exchange different types of information and also to restrict that exchange (i.e. avoid unnecessary communication). The implemented software will be referred as Information Management Framework (IMF) and it provides mechanisms to control sharing of information between these systems. Moving robot systems like rovers are often equipped with the robot operating system (ROS) as hardware abstraction layer to gather data from hardware sensors. Therefore the IMF supports the exchange of data with ROS by implemented software modules using the functionality of inter-process communication (IPC). Information generated by ROS software modules or which is needed by ROS software modules for computation or the operation of actuators is exchanged with the IMF on the one hand. On the other hand, this information can be shared with the IMF of other autonomous systems connected to the network.

Diplomarbeitsposter Ratasich Denise

Denise Ratasich

Masterstudium Technische Informatik
Abstract:

Sensors usually suffer from imprecision and uncertainty, e.g. measurements are corrupted by noise. Additionally the observations of a sensor may be incomplete, i.e. a single sensor possibly does not cover the entire range of a measured variable. To overcome these problems, sensor fusion techniques are often applied. Sensor fusion combines measurements to improve the description of a property in a system, i.e. to provide data of higher quality. Although various sensor fusion algorithms exist, there is only few literature comparing the different methods, and still less frameworks collecting sensor fusion algorithms. Several implementations of commonly used algorithms exist but are difficult to configure and less applicable. The objective of this thesis is the design and implementation of a generic framework that integrates various sensor fusion algorithms with a common interface. The implementation is build on top of the Robot Operating System, which enables a wide usage of the framework. The implemented methods can be configured to combine an arbitrary number of sensors and can be easily integrated into an existing application. The focus within this thesis lies on low-level sensor fusion, i.e. fusion that is processing raw sensory data. In particular so-called state estimation algorithms are discussed. Such fusion methods use a system model to combine the measurements to minimize the error between actual and estimated state of the system. The accuracy of the algorithms are experimentally evaluated and compared, using a dead-reckoning navigation application on a robot (i.e. the position is estimated considering the translation and rotation of the robot). Several sensors and different configurations are investigated. The parameters of the methods are tuned to reach the best possible accuracy and guidelines for configuring sensor fusion algorithms are stated.

Arbeitsbereich Embedded Computing Systems

Diplomarbeitsposter Hechinger Oliver

Oliver Hechinger

Masterstudium Technische Informatik
Abstract:

A promising approach for lowering the complexity of safety critical embedded systems like, e.g., the distributed network of Electronic Control Units (ECUs) in a modern car, is to combine the functionality of multiple ECUs in one unit. Doing so, however, gives rise to the problem of mutual influence of otherwise independent functionalities. Hence, proper separation in between them becomes critical andmandatory. One foundation for this is to introduce a hardware enforced memory separation. This work is going to describe two different memory protection mechanisms, i.e., the hardware enforced separation in multiple memory regions by a Memory Protection Unit (MPU) and the full memory virtualization by virtual memory. The latter is common in PCs and mobile phones and is implemented in a hardware assisted fashion by using a Memory Management Unit (MMU). This work is going to put its focus on this hardware unit and its failure possibilities. To the best of our knowledge, no such in-depth elaboration about MMU failure modes exists. The MMU features provided by a selection of modern embedded system processors are presented. These features are then abstracted in a theoretical MMU, termed hypothetical MMU, consisting of multiple functional blocks. The functionalities and interconnections of these locks are explained and an in-depth analysis of the failure modes of this MMU is provided. The analysis is based on a single-fault assumption w.r.t. faults within the MMU and additionally considers wrong memory accesses by the processor in combination with MMU internal faults. In order to confirm, extend or refute the theoretical analysis, a simulation based fault injection in the MMU of the LEON3 processor is performed. This fault injection covers all internal signals of a synthesized version of the MMU and is implemented with tool support. The results of the fault injection are analyzed for their validity and possible bias due to the implemented fault injection method.

Diplomarbeitsposter Schwarz Manfred

Manfred Schwarz

Masterstudium Technische Informatik
Abstract:

In dieser Diplomarbeit stelle ich eine Lösung des "k-set agreement"-Problems unter einem schwachen, verteilten, synchronen Berechnungsmodel vor. Das Model basiert auf einer Sequenz von gerichteten Kommunikationsgraphen, die, vom Adversary bestimmt, vorgibt, welcher Prozess von welchem Prozess pro Runde eine Nachricht erhält. "k-set agreement" beschreibt das Problem, in dem Prozesse mit möglicherweise verschiedenen Startwerten sich auf ein kleineres Set von Entscheidungswerten einigen müssen. Um "k-set agreement" lösbar zu machen, müssen die Möglichkeiten des Adversaries zur Unterbindung der Kommunikation zwischen Prozessen eingeschränkt werden. Diese Restriktionen stellen sicher, dass in jeder Ausführung stark verbundene Strukturen (sogenannte "vertex stable root components") sich gegenseitig beeinflussen und irgendwann ausreichend lang stabil sind, um Termination zu garantieren. Wir geben einen Algorithmus an, der unter diesen Einschränkungen "k-set agreement" löst und beweisen seine Korrektheit. Der Algorithmus versucht, lokal "vertex stable root components" zu erkennen und diese zu nutzen, um alle darin enthaltenen Prozesse zu einer gemeinsamen Entscheidung zu bringen. Der Algorithmus ist k-uniform, also unabhängig von k, und passt daher die Anzahl unterschiedlicher Entscheidungswerte automatisch an die aktuellen Bedingungen im Netzwerk an. Die Resultate dieser Arbeit, die Unterstützung durch das Projekt RiSE (S11405) des österreichischen Fonds zur Förderung wissenschaftlicher Forschung (FWF) erhielt, wurden bei der 17. International Conference on the Principles of Distributed Systems (OPODIS 2013) eingereicht.

Institut für Rechnergestützte AutomationE183

Arbeitsbereich Automatisierungssysteme

Diplomarbeitsposter Ahammer Alexander

Alexander Ahammer

Masterstudium Software Engineering & Internet Computing
Abstract:

Web applications offer a multitude of configuration switches that need to be set correctly. In case of a single product it is feasible to manage the configuration files with the source code in a version control system. However, in case of a product line with many similar products it is necessary to have means to manage the configurations separately. Furthermore it is desirable to be able to apply the configurations automatically, because a manual configuration is error prone and time consuming. The aim of this thesis was the creation of a system that supports (and partially automates) the configuration management of software product lines of enterprise web applications. It should support the storage of configuration information in machine readable form and provide a tool that is able to apply those configurations automatically. Furthermore the tool should be integrable in the build automation system. In a first step the products of the product line were analyzed and all existing configuration switches were documented and categorized. Afterwards an object model was abstracted which is able to cover the configurations of the product line. A focus was laid on extensibility and the special requirements of software product lines. Based on the model a configuration tool was developed which is able to configure each product. Finally the tool was integrated in the automatic build process of the continuous integration server. Thus, it is now possible to build all products automatically and deploy them correctly configured. Moreover the required time to configure a product was considerably reduced. The measured time saving between automated and manual installations ranges from 17 to 40 minutes (depending on the complexity of the installation).

Diplomarbeitsposter Brunner Gerhard

Gerhard Brunner

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Mechatronics is an interdisciplinary field which combines software, electronics, mechanic and control theory. It is applied in different areas like industrial assembly, robotics and consumer products. Each of the interdisciplinary fields has a high complexity which requires engineers with knowledge of specific area of expertise. Additionally the development of interfaces between the different fields requires a high communication effort of the engineers which results in even higher costs of time and money. In the product development cycle prototypes are used for solving technical problems and usability issues in an early development phase. Technical problems and usability issues which are not discovered and solved in this prototyping stage are causing higher costs in the later stages. This work evaluates development environments which can be used for designing mechatronic applications in a rapid prototyping approach. Thereby the focus is set on virtual development environments which simulate kinematic behavior. The environments differ in their focus on certain aspects of mechatronics and in their benefit of doing rapid prototyping. In summary, the development environments are either too complex for rapid prototyping of mechatronics, or are lacking important features. Therefore a rapid prototyping development environment for simulating and controlling mechatronics is designed. In comparison to the presented environments, it allows to rapidly design mechatronic applications without the need of programming and electronic skills. It implements a simulation environment programmed with the Unity game engine for simulating fischertechnik components. Additionally, the mechatronic behavior of the virtual prototype can be transmitted to the physical prototype via an arduino board.

Diplomarbeitsposter Djokic Adrian

Adrian Djokic

Masterstudium Software Engineering & Internet Computing
Abstract:

Das byzantinische Fehlermodell umfasst alle möglichen Fehler eines Systems. Darunter gehören Abstürze sowie Timing-Fehler und verlorengegangene Übertragungsdaten. Wir präsentieren ein System, das erleichtertes Testen und Benchmarking eines verteilten Systems und fehlertoleranter Protokollen ermöglicht. Praktikabilität ist von vorrangiger Bedeutung: Es soll einfach sein, das Framework einzusetzen, auszuführen und zu warten. Ein modulares Design ermöglicht eine einfache Erweiterung des Quellcodes und der Konfiguration. Darüber hinaus ist die Dokumentation des Frameworks sehr umfangreich. Sie beinhaltet eine umfassende Code-Dokumentation und visuelle Darstellungen wie Klassendiagramme, die das Verständnis des Frameworks erleichtern. Die Umsetzung des Frameworks in Java ermöglicht die Bereitstellung und Ausführung des Programms auf mehreren Plattformen sowie ein objektorientiertes Design, was einen großen Vorzug für Modularität bietet. Das modulare Framework ermöglicht es, verteilte Algorithmen zu testen. Zusätzlich sind wir in der Lage, neue Ideen für Storage-Netzwerke, wie z.B. Netzwerkkodierung, einzusetzen. Netzwerkkodierung ist eine Möglichkeit, um die Effizienz eines Netzwerkes und die Widerstandsfähigkeit gegen Angriffe zu steigern. Das Kodierungsverfahren stellt auch eine alternative Methode dar, um byzantinische Fehlertoleranz zu gewährleisten, während andere Methoden nur auf Kryptographie basieren. Netzwerkkodierung ist im wesentlichen ein Verfahren, das ein größeres Paket in kleinere Päckchen zerstückelt, oder diese wieder in die ursprüngliche Form zurückversetzt. Obwohl der aktuelle Stand des Frameworks keinen Kodierungssalgorithmus anbietet, integriert die Standardimplementierung des fehlertoleranten-Protokolls die Methodenaufrufe zu einer abstrakten Java-Klasse, die zum Codieren und Decodieren der Daten dient. Die Erweiterung des Frameworks mit einem Codierungsschema, wie z.B. Reed-Solomon, würde somit die volle Funktionalität anbieten.

Diplomarbeitsposter Ehrentraud Fabian

Fabian Ehrentraud

Masterstudium Informatikdidaktik
Abstract:

Im Zuge dieser Arbeit wurden spezielle Teile eines innovativen Musik-Unterrichtskonzepts als eigenständige Lernapplikation ausgearbeitet. Beachtenswert beim ursprünglichen Konzept sind die geringen benötigten Vorkenntnisse und die Verwendung der Idee eines Musikalischen Raums, um verschiedenartigste kompositorische und tontechnische Methoden und Phänomene zu erklären und deren Vorzustellung zu erleichtern. Grundidee des Musikalischen Raums ist die Vorstellung von in einem Raum platzierten Klangobjekten, welche sich gegenseitig ergänzen, oder auch stören. Interessant dabei ist, dass ein Klangobjekt nicht unbedingt einem Instrument entsprechen muss, sondern auch aus mehreren Instrumenten bestehen kann, oder auch mehrere Klangobjekte von einem Instrument gebildet werden können. Bis dato spielte sich die Darstellung des Musikalischen Raums lediglich in den Köpfen der Lernenden und des Lehrers ab, unterstützt durch Zeichnungen auf der Tafel. Die mit dieser Masterarbeit verfolgte Idee war es, eine interaktive Visualisierung zu erstellen, welche die Vergegenwärtigung der Konzepte erleichtert und die Lerninhalte auch einem größeren Publikum außerhalb des Klassenzimmers zur Verfügung stellt. Somit lautet die wissenschaftliche Fragestellung dieser Masterarbeit: „Inwieweit kann eine interaktive Visualisierung der Ideen des „Musikalischen Raums“ dabei helfen, die im Unterrichtskonzept beschriebenen musikalischen Zusammenhänge zu begreifen und in vergleichbaren Situationen zu identifizieren?“

Diplomarbeitsposter Gissing Michael

Michael Gissing

Masterstudium Business Informatics
Abstract:

Heutzutage liegt der Fokus von Security-Spezialisten auf der Sicherung von Nachrichteninhalten und der Identifikation von technischen Problemen und Schwachstellen. Aktuelle Medienberichte zeigen, dass auch Verkehrsdaten und konzeptionelle Mängel Schwachstellen von Computersystemen sein können. Da es noch sehr wenige Studien gibt, die explizit diesen Aspekt untersuchen, liegt der Schwerpunkt der vorliegenden Arbeit auf der Analyse von betrieblichen Kommunikationskomponenten bezüglich Verkehrsdaten und konzeptionellen Schwachstellen. Dazu wird zunächst eine Analyse der potentiellen Angreifer durchgeführt und ein Überblick über verbreitete Kommunikationskomponenten gegeben. Danach wird der Schwerpunkt auf detaillierte Analysen von verwendeten Technologien sowie verarbeiteten Daten bei email und voice over IP gelegt. Basierend auf den Ergebnissen dieser Analysen werden Risiken und Bedrohungen dieser Kommunikationsmechanismen ermittelt. Im letzten Schritt werden mögliche Gegenmaßnahmen erarbeitet, die einen angemessenen Schutz bieten können. Die Analyse hat gezeigt, dass besonders die Zwischenstationen auf dem Transportweg der Datenpakete gute Angriffsmöglichkeiten bieten. Neben der Notwendigkeit eines risikobewussten Umganges mit der Vertraulichkeit von Inhalten hat die Analyse aber deutlich zwei oftmals unterschätzte Bereiche aufgezeigt. Zum einen können Verkehrsdaten für Angreifer oftmals mehr nutzbringende Informationen preisgeben als die eigentlichen Dateninhalte, und zum anderen ist oftmals ein Angriff auf die Technik eines Systems gar nicht notwendig. Das Ergebnis der vorliegenden Arbeit ist ein allgemeines Bedrohungsprofil von Verkehrsdaten sowie ein Katalog von Risiken sowie die Identifikation konzeptioneller Schwachstellen der Kommunikation über email und voice over IP. Mittels konkreter erarbeiteter Empfehlungen wird die Grundlage für einen Unternehmensleitfaden zur Bedrohungs- und Risikoanalyse sowie zur Auswahl angemessener Gegenmaßnahmen geschaffen.

Diplomarbeitsposter Gobber Martin

Martin Gobber

Masterstudium Medizinische Informatik
Abstract:

Eine der fortschrittlichsten minimal invasiven Technologien ist die sogenannte thermische Ablation. Bei dieser Methode wird pathologisches Gewebe mittels hoher oder tiefer Temperaturen im Bereich von -40°C bis 105°C zerstört. Obwohl die drei am meisten genutzten Ablationsverfahren RF-Ablation, Kryoablation und Mikrowellenablation zufriedenstellende Ergebnisse im Bereich der Krebstherapie ergaben und schon seit mehreren Jahren im Einsatz sind, gibt es immer noch Mängel in der Planung, (intra- und postoperativen) Überwachung und Evaluierung solcher Eingriffe. Es besteht daher Bedarf nach einer Planungsplattform, die diese Probleme adressiert und den Arzt bei der Planung von thermischen Ablationen unterstützt. Im Rahmen der vorliegenden Arbeit wurde eine Planungsplattform entwickelt. Nach umfangreichen Literaturrecherchen wurden zunächst die Anforderungen und Arbeitsabläufe analysiert und ausgewertet und auf einen gut definierten Prozess abgebildet. Besondere Bedeutung kam der Pfadplanung für das Einführen des thermischen Applikators zu. Der Algorithmus zur Pfadplanung basiert aktuell auf der bekannten Datenstruktur bzw. dem Algorithmus RRT (Rapidly-exploring Random Tree). Bei einer abschließenden Evaluierung konnte gezeigt werden, dass die vorgestellte Planungsplattform akzeptable Ergebnisse in Bezug auf die Performance und Nutzbarkeit zeigte und in der klinischen Praxis zum Beispiel als Trainingssimulator eingesetzt werden könnte. Zukünftige Entwicklungen sollten Funktionen, die das Simulieren von mehreren überlappenden Ablationszonen ermöglichen als auch numerische Verfahren zur Echtzeitsimulation der Ablationszone und der optimalen Ausnutzung der Hardware inkludieren. Auch in Bezug auf die Pfadplanung sollte die Deformation des Gewebes während der Nadeleinführung berücksichtigt und dementsprechend simuliert werden, um genaue Resultate zu gewährleisten.

Diplomarbeitsposter Judmayer Aljosha

Aljosha Judmayer

Masterstudium Software Engineering & Internet Computing
Abstract:

The traditional areas of application for building automation systems like heating, ventilation, air conditioning and lighting are more and more extended by services which require a more robust security infrastructure. Those additional services can be alarm systems, access control systems and power management systems for renewable energy sources. Additionally, building automation networks are more and more integrated into existing IP-based networks, or even communicate directly over the internet. Therefore the attack surface of building automation systems has increased dramatically. This requires a solid security architecture for building automation systems and a good knowledge of possible attack vectors. In a first step, this work highlights the security issues of the current version of KNX and KNXnet/IP. This is done by demonstrating successful attack scenarios. Among these scenarios are network based attacks, like the replay of packets, as well as application based attacks, like a proof-of-concept of a buffer overflow exploit for the ETS4 management application. In a second step, a new draft for securing KNXnet/IP networks is analysed regarding its security properties. It is pointed out that the current version of this draft specification, called KNXnet/IP Secure, lacks necessary details and has certain limitations concerning the provided level of security. At the end, alternative security concepts for KNXnet/IP networks are discussed. This includes a general security concept for building automation systems, as well as a simplified security concept, which was developed during this thesis.

Diplomarbeitsposter Kasberger Johannes

Johannes Kasberger

Masterstudium Business Informatics
Abstract:

Feuer hat heute wie früher ein hohes Schadenspotential und stellt daher eine große Bedrohung für Menschen und Gebäude dar. Im Mittelalter patrouillierten Brandwachen in den Straßen, um die Bewohner der Stadt im Falle eines Feuers zu warnen. Die Brandwachen wurden mit dem Aufkommen moderner Technologien durch automatische Systeme ersetzt. Diese Systeme verwendeten anfänglich analoge Technologien. Für moderne Gebäude sind diese aber nicht mehr ausreichend, und komplexe digitale Feueralarm-Systeme sind notwendig. Brandschutz ist ein kritischer Bereich, von dem Menschenleben abhängen. Daher existieren internationale und nationale Standards, die Brandschutzbestimmungen reglementieren. Neben verpflichtenden baulichen Maßnahmen ist oft der Einsatz eines automatischen Brandmeldesystems vorgeschrieben. Diese Standards definieren Anforderungen im Bereich der Sicherheit und der Zuverlässigkeit. Mit der wachsenden Popularität des Internets wurden die entsprechenden Technologien auch im Bereich der Gebäudetechnik eingesetzt. Diese Technologien erfüllen die von den Brandmeldestandards geforderten Eigenschaften aber nicht vollständig. Der Fokus dieser Arbeit liegt auf der zuverlässigen IP-basierten Kommunikation im Bereich der Brandmeldesysteme. Ein Kommunikationssystem dieser Art muss den in den Standards definierten Anforderungen genügen. Zusätzlich ist es wünschenswert, möglichst viele konventionelle Technologien und Komponenten zu verwenden. Die vorliegende Arbeit fasst die in den Standards gestellten Anforderungen solcher Kommunikationssysteme zusammen. Außerdem werden die Eigenschaften bestehender Netzwerkkomponenten analysiert, um diese für neue Konzepte verwenden zu können. In der Folge werden verschiedene hierfür mögliche Ansätze diskutiert. Der aussichtsreichste Ansatz wird genauer untersucht. Die Machbarkeit wird mithilfe einer Proof of Concept Implementierung nachgewiesen.

Diplomarbeitsposter Paulhart Markus

Markus Paulhart

Masterstudium Information & Knowledge Management
Abstract:

Enterprise Content Management Systeme wie zum Beispiel SharePoint sind verstärkt in Verwendung in Mittel- und Großunternehmen. Ihr Zweck ist es den BenutzerInnen ein zentralisiertes Portal zur Verfügung zu stellen, das ihre Daten sammelt, anbietet und archiviert (Dokumente, E-mails, Dateien, Wissen, etc.). Solch ein Portal kann bei der Erstellung von empirischen Studien helfen und bietet dem Analysten die Möglichkeit einer voll-elektronischen qualitativen Fragemethode, dem Fragebogen. Der Zweck dieser Diplomarbeit besteht darin, die mit einem Fragebogen erhobenen Daten nach der Art ihrer Abrufung und Darstellungsmöglichkeiten zu analysieren. Des Weiteren wird die Möglichkeit, diese Daten mithilfe eines externen Programms zu analysieren evaluiert und realisiert. Hierfür werden Fragenbögen, die mit SharePoint erstellt worden sind, als exemplarisches Beispiel herangezogen. Um ein passendes externes Analyseprogramm zu wählen wurden vier Business Intelligence Tools, nämlich (1) Spotfire von TIBCO, (2) QlikView von QlikTech, (3) Tableau Desktop von Tableau Software und (4) SQL Server Analysis Services (SSAS) Würfel von Microsoft evaluiert. Schlussendlich wurde die Analyse mit dem Programm QlikView realisiert. Wenn man die externe Applikation mit den standardisierten SharePoint Funktionalitäten zur Darstellung von Fragebögen vergleicht stellt man fest, dass man mit der externen Applikation mehr Informationen bei gleichzeitig ansprechenderer Darstellung erreichen kann. Der Nachteil ist jedoch der zusätzliche zeitliche Aufwand durch die Datenaufbereitung, der bei der Standard SharePoint Analysemethode nicht notwendig ist.

Arbeitsbereich Computer Vision

Diplomarbeitsposter Trapp Martin

Martin Trapp

Masterstudium Computational Intelligence
Abstract:

Methods for medical image acquisition have rapidly evolved and the amount of digital images acquired in the daily image production of hospitals has exponentially increased in the last 30 years. Therefore, methods for the efficient automatic localization of anatomical landmarks on medical images need to be elaborated. Recent publications addressing this problem use regression models. Despite convenient results the main shortcomings of most of these models are superfluous time and memory consuming computations. Inspired by the memory efficient random regression fern model, the aim of this thesis is to develop a novel regression model that allows to obtain accurate results with memory efficient computations. Based on an exhaustive literature research on existing methods, regression based state of the art methods are analyzed to enable the development of a novel approach. The accuracy of this new approach is evaluated using K-fold cross validation on CT head scans, MRI T1 weighted head scans and CT whole body scans. The proposed method achieves a mean deviation of 13.05mm on CT whole body scans in less than a minute. The contribution of this thesis to the improvement of methods for the efficient automatic localization of anatomical landmarks on medical images is three-fold: (1) Two novel feature descriptors tailored to medical images are designed. One of the introduced image features (cuboidalBRIEF) outperforms all other tested feature descriptors. (2) A robust boosted regression model inspired random regression ferns is developed. The model stands out through its significantly higher accuracy as well as time and memory efficient computations. (3) A generalized multi-phase landmark location system allowing is presented. While the second phase results turn out to be less accurate than anticipated the first phase results of the system are highly satisfying.

Diplomarbeitsposter Traxler Lukas

Lukas Traxler

Biomedical Engineering
Abstract:

Functional Magnetic Resonance Imaging (fMRI) is a widely used tool in neurosciences. It allows to measure metabolic properties related to neuronal activity in the working human brain. With that, processes in the human brain can be studied on a neuronal level. One field of current research in psychological neurosciences is the investigation of the neuronal basis for empathy. Empathy allows the human being to share affective states of others and is fundamental in social interaction. A huge variety of methods for analyzing fMRI measurements exist. Currently methods based on univariate statistics are predominantly used in empathy research. One factor of interest is to identify shared representations between self- and empathic-perception. Methods capturing multivariate properties have successfully been used to decode participant’s mental states from fMRI measurements and to increase sensitivity in detecting neuronal activity involved in the neuronal process. The aim of this thesis is to describe and demonstrate a novel method based on a multivariate Random Forest classifier on real data. The method successfully decodes the mental state induced by visuo– tactile stimuli. Further it is able to detect multivariate cortical activation patterns distributed across the entire brain, which are shared between self– and empathic perception. The thesis also deals with the visualization of the multivariate coding pattern, as well as with visualization of long ranged conjunctions which are informative in decoding the mental state. The results from this method will give support for new insight into distributed patterns of neuronal processes of empathy.

Institut für InformationssystemeE184

Arbeitsbereich Distributed Systems

Diplomarbeitsposter Cito Jürgen

Jürgen Cito

Masterstudium Software Engineering & Internet Computing
Abstract:

Over the past few decades, the internet has grown to an enormous infrastructure connecting millions of people worldwide. The large scale of the internet has offered unique economic opportunities by enabling the ability to reach a tremendous, global user base for businesses. These opportunities also open up overwhelming challenges due to the drastic growth and increasing complexity of the internet. When it comes to speed, users have high demands on their online services. Recent research has shown that 47% of consumers expect load times of two seconds or less. This puts high pressure on web applications, when even minor changes in performance can have significant effects on how users perceive an application. If the revenue of a business is generated through their online presence, performance directly correlates with loss of sales and damage of brand perception. With the growth of the internet and its user base, the underlying infrastructure has drastically transformed from single server systems to heterogeneous distributed systems. Thus, the end performance depends on diverse factors in different levels of server systems and infrastructure. In this thesis, statistical methods are applied to deal with the management of web performance issues. In order to properly manage performance, the timely observation and analysis of performance degradation is of key importance. Statistical changepoint analysis and exploratory visual analysis are applied to results obtained through synthetic monitoring of a simulation system to identify and discuss how performance issues in web applications can be detected. Web Performance Benchmarking of competitors is discussed as a way to establish a baseline for an overall performance goal. A general methodology for web performance benchmarking is developed based on statistical analysis of finite collections of observed data from production systems. The presented approach is then applied in a case study for benchmarking search engine providers.

Diplomarbeitsposter Floh Andrea

Andrea Floh

Masterstudium Software Engineering & Internet Computing
Abstract:

The number of event processing systems is increasing. In contrast to traditional systems, event processing systems do not handle persistent data, but they have to deal with events, which are received continuously over communication channels and should be processed immediately. Complex computations in form of queries have to be performed. The frequency of the arriving events is not steady. In fact, the system has do deal with ups and downs which can influence the data volume heavily. Especially in times of high volume the systems have to deal with a huge number of events and should be able to manage these phases. Different approaches have been studied to deal with high volume data streams, but their applicability and efficiency may vary depending on the application. General approaches or guidelines how to treat overload are not available. This thesis covers strategies to handle phases of high data volume on event streams for a single event processing node. There are three established strategies to cope with high load, which have been used to treat the overload situation caused by high data volume. These strategies are discussed and their applicability for different queries is evaluated. To that end, a taxonomy of queries is elaborated. This taxonomy covers different dimensions like the type of processing operation and the scope for the query. Based on the features of the strategies and the query types, the applicability of the strategies is analyzed and an evaluation is performed to support the analysis. The strategies are implemented in a generic way and are integrated into the WS-Aggregation framework. This framework for distributed, event-based aggregation of web services data was developed by the Distributed Systems Group at the Vienna University of Technology. The results of the evaluation are used to determine the strength of the influence of the different applicability criteria and to formulate problem statements for further research.

Arbeitsbereich Database and Artificial Intelligence

Diplomarbeitsposter Diller Martin

Martin Diller

Masterstudium DDP Computational Logic (Erasmus-Mundus)
Abstract:

“Abstract argumentation” is an increasingly important area of artificial intelligence dealing with the representation and reasoning on argumentation. Starting with the “argumentation frameworks” (AFs) proposed by Dung in 1995, several different formalisms for abstract argumentation have been devised to date with just as many desiderata in mind. One of the most recent and general formalisms is that of “abstract dialectical frameworks” (ADFs), which allows for the direct representation of complex relations of support and attack between arguments through boolean formulas associated to the arguments. This increase in expressive power with respect to AFs has the consequence that many of the reasoning tasks that can be defined for ADFs suffer from an even “higher complexity” than the tasks they generalise in the context of AFs, being complete for up to the third level of the polynomial hierarchy. Quantified boolean logic on the other hand is a well established formalism in computer science, being of special relevance because of its connection with the polynomial hierarchy of complexity classes. Given the advances in the performance of software systems for this logic in recent years, it is also increasingly recognized to be a promising formalism in which to translate computational problems located within the polynomial hierarchy. In this work we present complexity sensitive encodings of some of the main reasoning tasks defined for ADFs into the satisfiability problem of quantified boolean logic (QSAT). In this manner we provide a uniform axiomatization of these reasoning tasks into quantified boolean logic. Moreover, we pave the way for implementations of these reasoning tasks via the already mentioned advances in solvers for QSAT. Finally, we also describe a prototype of such a system we have implemented and report on preliminary experiments that serve as a first benchmark for implementations of these tasks via QSAT.

Diplomarbeitsposter Fischl Wolfgang

Wolfgang Fischl

Masterstudium Computational Intelligence
Abstract:

Die Menge an von Informationssystemen gespeicherten Daten wächst stetig. Für diesen Zweck werden vorwiegend Datenbanksysteme eingesetzt. Jedoch gewinnen alternative Datenformate, wie XML Dokumente und Graph-basierte Datenbanken, immer mehr an Einfluss. In all diesen Datenformaten ist es wichtig, mit Hilfe des Datenbankdesigns Redundanzen zu vermeiden. Aus diesem Grund wurden Normalformen entwickelt. Für das relationale Datenmodell wird Boyce-Codd Normalform (BCNF) verwendet. Arenas und Libkin entwickelten 2004 XML Normalform für XML Dokumente. Normalformen für Graph-basierte Datenbanken wurden bisher nicht untersucht. Unser Ziel ist es diese Lücke zu schließen. Wir wollen eine Normalform definieren, welche die Eigenschaften von BCNF auf Graph-basierte Datenbanken überträgt. Zuerst werden wir Boyce-Codd und XML Normalform betrachten. Ideen aus diesen Normalformen verwenden wir dazu, um eine Normalform für Graph-basierte Datenbanken zu entwickeln. Beschreibungslogiken (DLs) sind als formales Modell für Graph-basierte Datenbanken überaus passend. Da BCNF mittels funktionaler Abhängigkeiten definiert ist, muss es uns möglich sein solche auch über DL Wissensbasen (DL KBs) auszudrücken. Ein naheliegender Kandidat sind die von Calvanese et al. 2008 eingeführten path-based identification constraints (pIdCs) verwenden. Allerdings zeigen wir, dass pIdCs nicht ausdrucksstark genug sind, um funktionale Abhängigkeiten in DLs zu modellieren. Deshalb erweitern wir pIdCs zu tree-based identification constraints. Mittels diesen untersuchen wir Redundanzen in DL KBs. Der Hauptbeitrag dieser Arbeit ist eine Definition der Beschreibungslogik Normalform (DLNF), welche eine sinnesgetreue Erweiterung der BCNF zu DLs ist. Zusätzlich stellen wir eine direkte Abbildung von relationalen Schemata auf DL KBs vor. Wir zeigen, dass jedes relationale Schema genau dann in BCNF ist, wenn auch die direkte Abbildung dieses Schemas auf eine DL KB in DLNF ist und umgekehrt.

Arbeitsbereich Knowledge Based Systems

Diplomarbeitsposter Solomakhina Nina

Nina Solomakhina

Masterstudium DDP Computational Logic (Erasmus-Mundus)
Abstract:

In large industries usage of advanced technological methods and modern equipment comes with the problem of storing, interpreting and analyzing huge amount of information. Typical sources for this data include a myriad of sensors mounted at the industrial machinery, measuring qualities such as temperatures, movement and vibration, pressure, and many more. However, these sensors are complex technical devices, which means that they can fail and their readings can become unreliable, or “dirty”. Low quality data makes it hard to solve the original task of assessing system and process status and controlling the system behavior. So, data quality is one of the major challenges considering a rapid growth of information, fragmentation of information systems, incorrect data formatting and other issues. The aim of this thesis is to propose a novel approach to address data quality issues in industrial datasets, in particular, measurements of sensors mounted at power generation facilities.

Arbeitsbereich Formal Methods in Systems Engineering

Diplomarbeitsposter Birgmeier Johannes

Johannes Birgmeier

Masterstudium Software Engineering & Internet Computing
Abstract:

Software model checking is an approach to formal software verification based on reasoning about the states a program can be in. A software model checker can prove that certain properties hold on a given program. Properties expressing that certain states must never be reached during a run are called safety properties. In this work, we aim to construct a model checker that can prove or refute safety properties on certain programs. The approach for model checking is based on the principle of incremental, inductive model checking. An incremental, inductive model checker proves safety properties by incrementally constructing a description of a set of states that the program can never leave and all of which are safe. The model of the program that the checker operates on is the transition system. The transition systems we derive from software programs are expressed as first-order formulas over the theory of quantifier-free linear integer arithmetic. Such transition systems operate on infinitely many states. The method we develop in this work is based on the IC3 model checker. IC3 can prove properties only on systems that comprise finitely many states. Since we are aiming at proving safety properties on systems working with infinitely many states, we reduce the problem to the finite-state case by applying Boolean predicate abstraction on the state space. The result of this thesis is IC3-CEGAR, an incremental, inductive model checker that is capable of proving or disproving safety properties on certain software programs.

Institut für ComputersprachenE185

Arbeitsbereich Programmiersprachen und Übersetzer

Diplomarbeitsposter Eisl Josef

Josef Eisl

Masterstudium Computational Intelligence
Abstract:

Ein Virtuelle Maschinen (VM) ist eine Software die verwendet wird, um andere Programme auszuführen. Das geschieht entweder durch interpretieren der einzelnen Instruktionen oder durch übersetzen von Programmteilen in Maschinencode. Cacao ist eine reinen JIT VM für Java. Alle Methoden werden kompiliert, bevor sie ausgeführt werden. Dazu bedarf es einem schnellen Compiler um eine zeitnahe Programmausführung zu gewährleisten. Dazu verwendet der sogenannte Baseline Compiler einfache Datenstrukturen und die einzelnen Übersetzungsschritte sind stark an einander gekoppelt. Für die meisten Programmteile reicht das Ergebnis des Baseline Compilers. Für häufig verwendete Methoden würde es sich allerdings auszahlen, mehr Zeit in eine bessere Übersetzung zu investieren. Bisweilen verwendete Cacao dafür den Baseline Compiler. Das hat mehrere Nachteile. Zum einen wird der Baseline Compiler dadurch immer komplizierter und die Wartung aufwendiger. Das größere Problem liegt allerdings darin, dass durch die einfache, aber effiziente Form der Baseline Compilers unflexibel ist und sich das entwickeln von neuen Optimierungen schwierig gestaltet. Diese Arbeit beschreibt ein neues Compiler Framework das den Baseline Compiler als optimierenden Übersetzer ablösen soll. Das Framwork verwendet zwei neue Zwischendarstellungen. Die graph-basierte high-level Darstellung eignet sich besonders für Programmanalysen und Transformationen. Ihr Ziel ist es den Entwicklungsprozess für Optimierungen einfach und schnell zu gestalten. Die low-level Darstellung ist speziell an die Bedürfnisse von maschinennahen Aufgaben, wie zum Beispiel Register Allokation oder der Generierung von Maschinencode, angepasst. Der Compiler verfügt über einen Pass Manager der sich um die Ausführung und den Datenaustausch der Pässe kümmert. Zur Zeit beinhaltet die Compiler-Pipeline die IR-Graphen Erstellung, strukturelle Analysen, verschiedenen Scheduler, Befehlsauswahl, einen Register Allokator sowie einen Maschinencode Emitter.

Diplomarbeitsposter Hollenstein Jakob Johannes

Jakob Johannes Hollenstein

Masterstudium Computational Intelligence
Abstract:

Speech synthesis based on Hidden Markov Model (HMM) has become a well known and widely applied technique. One benefit of statistical modelling of speech over signal concatenation approaches is greater flexibility since the parameter trajectories can be modified more easily than the audio signal. However, the acoustic features used for speech synthesis are high dimensional and difficult to modify even for an expert. The idea of control is to find a more intuitive representation and a mapping from this more intuitive representation to the acoustic feature space. Then changes applied in the intuitive space should be mapped to appropriate changes in the difficult to understand acoustic feature space. This would allow modification by expert knowledge and thus lead to a more flexible synthesis system. In previous work articulatory features have been used to control acoustic synthesis, since they lend themselves to modification based on linguistic knowledge. More recently formants have been used to control speech synthesis as well. Since articulatory data is inherently more difficult to capture than visual data, the questionarises whether visual data can also be used to control and modify the acoustic parameters similar to articulatory control. To answer the question whether visual data can be used for control in a similar way to formant and articulatory data, the system used for formant control was adapted to the visual features and a series of experiments was performed to gain indication on whether the relation between visual and acoustic data is sufficiently strong. The mapping investigated for articulatory and formant based control consists of state-based piecewise linear transformations from the control to the acoustic space. It was found that restricting the visual control space appropriately leads to sufficiently distinct visual representations and thus allows for control modelling.

Diplomarbeitsposter Jucu Ioana

Ioana Jucu

Masterstudium Computational Intelligence
Abstract:

Die invariante Generierung/Erzeugung von Programmen mit Schleifen ist ein kritisches Problem bei der Pruefung von Eigenschafen einschliesslich Korrektheit. Das Problem wird schwieriger wenn die Anzahl von Quantoren in einer zu pruefenden Eigenschaft waechst. Wir haben die Technik der Symbol-Elimination in der Theorempruefung erster Ordnung benutzt, um quantifizierte Invarianten fuer eine Menge von Schleifen zu generieren. Dabei werden zwei andere Ansaetze versucht, die Schwaechung der Nachbedingung und die invariante Generierung von SMT basierendes Array/Feld, um diese zu vergleichen und eine Klassifikation der Pruefungsstaerke zu bekommen. Da jeder Ansatz verschiedene Informationen bezueglich des analysierten Programms bringt, versuchen wir die Technik der Symbol-Elimination mit andere Techniken zu kombinieren, um staerkere und wahrscheinlich viel nuetzlichere Invarianten als die von einzelnen Methoden generierte Invarianten zu erhalten.

Diplomarbeitsposter Klausner Lukas

Lukas Klausner

Masterstudium Software Engineering & Internet Computing
Abstract:

Die Koordination von verteilten Softwareagenten kann eine komplexe Aufgabe darstellen, speziell wenn diese Agenten von verschiedenen Organisationen entwickelt wurden. Space-based-Computing - ein Konzept für datengetriebene Kommunikation mittels verteiltem gemeinsam benutzten Speicher - versucht die Entwicklung von solchen Applikationsszenarien durch Entkopplung der Kommunikation von Zeit und Ort zu vereinfachen. Semantic-Web ermöglicht die Entwicklung von Domänenmodellen und Wissensbasen mit plattformunabhängigen Web-Technologien. Zur Verbesserung der Interoperabilität in heterogenen Systemen ermöglicht Semantic XVSM - das in dieser Diplomarbeit entwickelte Framework - den Gebrauch von semantischen Modellen und Wissen innerhalb des Space-based-Computing-Frameworks XVSM. Der Gebrauch von Semantic-Web-Technologien in XVSM erlaubt die Selektion von Kommunikationsobjekten mittels mächtigen Abfragefähigkeiten und die Anreicherung dieser Objekte mit impliziter Information. Mit Semantic XVSM wurde es möglich die Koordinationslogik mit plattformunabhängigen, standardisierten Sprachen zu formulieren und diese Logik zur Laufzeit unter Benutzung von XVSM-Standardoperationen zu verwalten. Die Koordinationslogik beschreibt die Verteilung der Objekte in XVSM. Einige Projekte kombinierten bereits Semantic-Web-Technologien mit Space-based Computing zu einem semantischen Tuple-Space. Diese Diplomarbeit konzentriert sich auf die Entwicklung einer soliden Basis für zukünftige Frameworks und verwendet dazu ausschließlich W3C-Standards. In dieser Diplomarbeit wird das Design von Semantic XVSM und dessen Referenzimplementierung, Semantic MozartSpaces, vorgestellt. Eine Applikation zur Lösung eines Problems in einem Multiagentensystem wird als Anwendungsbeispiel präsentiert.

Diplomarbeitsposter Kragl Bernhard

Bernhard Kragl

Masterstudium Computational Intelligence
Abstract:

Extensionality axioms are common when reasoning about collections, such as sets in mathematics, or arrays and functions in program analysis. An extensionality axiom asserts that two collections are equal if they consist of the same elements (at the same indices). Using extensionality is often required to show that two collections are equal, a typical example is the set theory theorem (∀x)(∀y) x ∪ y = y ∪ x. Interestingly, while humans have no problem with proving such set identities using extensionality, they are very hard for superposition theorem provers because of the calculi they use. In this thesis we show how addition of a new inference rule, called extensionality resolution, allows first-order theorem provers easily solve problems no modern first-order theorem prover can solve. We illustrate this by running the world-leading theorem prover VAMPIRE with extensionality resolution on a number of set theory and array problems.

Diplomarbeitsposter Schuh Andreas

Andreas Schuh

Masterstudium Software Engineering & Internet Computing
Abstract:

Das Thema dieser Diplomarbeit ist die Automatisierung von Software-Mustern, welche während der Entwicklung mit konventionellem Java, d.h. ohne die Hilfe von Frameworks und Generatoren, vorkommen. Dazu zählen unter anderem Boilerplate-Code, Design-Patterns und Cross-Cutting-Concerns. Diese Muster führen zu einer großen Menge an manuell erstelltem Code, welcher die Produktivität sowie Wart- und Erweiterbarkeit negativ beeinflusst. Der Lösungsansatz ist, dass die typischen Programmierschritte des Musters in einem Metaprogramm spezifziert werden, damit sie der Computer generieren kann. Im Zuge dieser Diplomarbeit wird ein funktionaler Prototyp eines passenden Metaprogramming-Systems erstellt. Anschließend wird mit dessen Hilfe versucht verschiedene Muster (Boilerplate-Code, Design-Patterns,. . . ) zu automatisieren. Am Ende konnte auf folgende konkrete Forschungsfrage eine Antwort gegeben werden: Kann die Automatisierung von Software-Mustern die Programmierung ohne Frameworks in Hinblick auf Produktivität, Erweiterbarkeit und Wartbarkeit verbessern? Es konnten alle ausgewählten Muster sehr gut automatisiert werden, welche nun mittels deklarativer Programmierung (Annotationen) gesteuert werden. Dadurch konnte die Produktivität,Wart- und Erweiterbarkeit aufgrund von reduzierter Codierungsarbeit, besserer Übersicht und zentraler Verwaltung verbessert werden. Statische Codegenerierung macht die Funktion vonMetaprogrammen sichtbar und erleichtert das Debugging. Eigenschaften von dynamischer Metaprogrammierung wurden während der Entwicklung nicht vermisst.Weiters führt die Erstellung von Metaprogrammen zu einem besseren Verständnis von Mustern: So konnten viele Gemeinsamkeiten zwischen Design-Patterns erkannt werden. Eventuell könnte sich nach einiger Zeit ein Kern an oft gebrauchten Mustern herauskristallisieren, welcher in die Konzeption neuer Programmiersprachen miteinbezogen werden könnte.

Arbeitsbereich Theoretische Informatik und Logik

Diplomarbeitsposter Aigner Christoph

Christoph Aigner

Masterstudium Medizinische Informatik
Abstract:

Diese Diplomarbeit beschäftigt sich mit der prototypischen Konzeptionierung und der Implementierung einer elektronischen Krankenakte für die Nutztierhaltung (abgekürzt AHR). Ein AHR besteht aus mehreren Datensätzen, welche Gesundheitsdaten für Tiere enthalten. Diese Arbeit beschäftigt sich mit Tieren, die Teil eines Tierbestandes im Sinne der Nutztierhaltung sind. Der entwickelte Prototyp ist eine Webanwendung, welche mit der Java Enterprise Edition-Technologie entwickelt wurde und von Landwirten, weiterverarbeitenden Betrieben, staatlichen Einrichtungen und Tierärzten gleichermaßen verwendbar ist. Zuerst werden die derzeitige Marktsituation, die organisatorischen bzw. technischen Standards und die Grundlagen der Java Webentwicklung beleuchtet. Danach wird die Konzeption dargelegt und Details der Implementierung diskutiert. Zum Schluss wird das Ergebnis anhand von Screenshots und textuellen Beschreibungen gezeigt. Im Rahmen der vorliegenden Arbeit wurde der Design-Prozess und die konkrete Implementierung eines Prototypen detailliert vorgestellt. Der entwickelte Prototyp ist kompatibel zu den EHR Standards, ermöglicht einen plattformunabhängigen Zugriff und ist von allen beteiligten Akteuren nutzbar.

Institut für Computergraphik und AlgorithmenE186

Arbeitsbereich Algorithms and Complexity

Diplomarbeitsposter Fritz Gilbert

Gilbert Fritz

Masterstudium Computational Intelligence
Abstract:

Diese Arbeit beschäftigt sich mit dem Partition Coloring Problem (PCP). Es handelt sich dabei um eine Generalisierung des Knotenfärbungsproblems und ist ein Optimierungsproblem der Komplexitätsklasse NP. Gegeben ist ein Graph, dessen Knotenmenge in disjunkte Partitionen unterteilt ist. Aus jeder Partition muss ein Knoten gewählt werden. Der durch die gewählten Knoten induzierte Subgraph soll unter der Bedingung eingefärbt werden, dass kein zueinander adjazentes Knotenpaar die gleiche Farbe annimmt. Ziel ist es, die Gesamtanzahl der verwendeten Farben - die sogenannte chromatische Zahl - zu minimieren. Zur Lösung dieses Problems werden mittels heuristischer Verfahren initiale Lösungen erstellt und diese durch Tabusuche und wiederholter, partieller Neueinfärbung verbessert. Das Problem der Neueinfärbung wird mit unterschiedlichen Ansätzen gelöst.

Diplomarbeitsposter Karl Roman

Roman Karl

Masterstudium Computational Intelligence
Abstract:

The rooted delay-constrained Steiner tree (RDCST) problem is a combinatorial optimization problem. The task is to find a tree in a given weighted graph. The tree should have minimal weight which is defined as the sum of the edge weights. Furthermore, it should satisfy two constraints. The first is that the so-called terminal nodes have to be part of the tree. Additionally to the weight, every edge has also a given delay. The second constraint is that the overall delay on a path from a given root node to a terminal node stays within a given bound. This problem sometimes occurs when planning networks. For many services it is important that the delay between client and server does not get too high. A typical example are network applications with user interaction. In optimization algorithms we usually assume that all input values are given precisely. But in practice these values are often affected by some kind of uncertainty. Inaccuracies occur inevitably with many measurements. Another source for uncertainty is data that is not yet present and therefore has to be predicted. Solutions of optimization problems can become infeasible because of the variability of input data. In practice this often means that the solution is of no use. Also the delays in a network are commonly affected by some jitter. We investigate for the RDCST problem how uncertainties can be incorporated into the optimization process.

Diplomarbeitsposter Luipersbeck Martin

Martin Luipersbeck

Masterstudium Software Engineering & Internet Computing
Abstract:

The Steiner tree problem in graphs (STP) is a fundamental NP-hard combinatorial optimization problem of theoretical and practical interest. Common applications range from VLSI design to problems in computational biology. The STP can be informally described as the problem of connecting a subset of special vertices called terminals in a weighted graph at minimum cost. Due to the problem's complexity the computation of optimal solutions may not always be feasible. This holds true especially for large-scale instances which are quite common in real-world scenarios. In such cases, heuristic methods specialized on finding near-optimal solutions in reasonable amounts of time are generally the only choice. In this master's thesis we propose a new partition-based heuristic for the efficient construction of approximate solutions to the STP in very large graphs. Our algorithm is based on a partitioning approach in which instances are divided into several subinstances which are small enough to be solved optimally. A heuristic solution of the complete instance can then be constructed through the combination of the subinstances' solutions. The implemented algorithms are also embedded into a memetic algorithm, which includes the partition-based construction heuristic, reduction tests, an algorithm for solution recombination and a variable neighborhood descent. We use common neighborhood structures from the STP literature: Steiner node insertion, Steiner node elimination, key-node elimination and key-path exchange. All algorithms are evaluated through practical experiments on the SteinLib, a state-of-the-art benchmark set for the STP, and a set of new real-world instances from network design. The results show that our approach yields good quality solutions with reasonable runtime, even for large graphs.

Diplomarbeitsposter Markvica David

David Markvica

Masterstudium Software Engineering & Internet Computing
Abstract:

Die Berechnung der Longest Common Subsequence (LCS) ist ein klassisches Problem der Stringverarbeitung, das unter anderem in der Mustererkennung und Textverarbeitung Anwendung findet. In der Bioinformatik wird die LCS als Maß für die Ähnlichkeit von DNS- und Proteinsequenzen verwendet. Von mehreren Zeichenketten soll die längste gemeinsame Teilfolge gefunden werden. Bei variabler Anzahl von Zeichenketten erweist sich das Problem als NP-schwer. Da die in der Bioinformatik auftretenden Probleminstanzen hunderte von Sequenzen mit mehreren tausend Zeichen umfassen, werden heuristische Verfahren benötigt um Instanzen dieser Größe effizient verarbeiten können. In dieser Arbeit wird eine parallele Hybridheuristik zur Berechnung der LCS präsentiert. Die Heuristik kombiniert einen Ant Colony Optimization Algorithmus mit einer Lokalen Suche und ist für die Ausführung auf massiv paralleler Hardware (wie beispielsweise gängige Graphikkarten) optimiert. Im Ant Colony Optimization Algorithmus werden zahlreiche Lösungen zeitgleich und unabhängig voneinander erstellt und die Lokale Suche verwendet ein hoch paralleles Enumerationsverfahren um die Nachbarschaften zu erkunden. Für die Implementierung des Algorithmus wurde OpenCL verwendet, eine Programmierschnittstelle für heterogene Parallelrechner. Das entwickelte Programm ist sowohl auf der Graphikkarte (GPU) als auch auf dem Hauptprozessor (CPU) ausführbar. In einer Reihe von Benchmark-Tests werden die Unterschiede der beiden Prozessorarchitekturen hervorgehoben und gezeigt, dass die Implementierung mit der Anzahl der Prozessorkerne linear skaliert. Abschließend wird die Implementierung an gängigen Instanzen aus der LCS Literatur getestet. Es konnte gezeigt werden, dass die vorgestellte Hybridheuristik bessere Lösungen liefert als bestehende Verfahren, die auf Ant Colony Optimization beruhen.

Diplomarbeitsposter Petelin Thomas

Thomas Petelin

Masterstudium Computational Intelligence
Abstract:

In this thesis a two-phase local search based metaheuristic algorithm for the Bi-objective Connected Facility Location Problem (BoConFL) is presented. The main drawbacks of previously considered variants of ConFL are that they either aim to mandatorily connect all potential customers or that they simply optimize the difference between the revenue obtained by connecting a subset of customer and the resulting network construction costs. In many realistic settings, however, customer „revenues“ may be given e.g. by means of demands rather than in monetary units. Thus, simply maximizing the previously mentioned difference is not meaningful. Hence, the Bi-objective Connected Facility Location Problem (Bo- ConFL) which is addressed in this thesis aims to simultaneously maximize the collected revenue and minimize the resulting costs for constructing the network. In many relevant scenarios, the addition of a second objective function provides a better representation of the real world since these two objectives are conflicting, rather than finding a single optimal solution in the BoConFL we are interested in identifying the set of non-dominated, i.e., Pareto-optimal, solutions. Based on previous work for single-objective variants of the problem and successful approaches for different bi-objective combinatorial optimization problem a two-phase algorithm is developed in order to get a good approximation of the Pareto front with the following two main steps: a) Construction of a set of promising solutions by objective aggregation. Variable neighborhood descent is used to further improve the obtained set of initial solution candidates. b) Application of a Pareto local search algorithm that takes both objectives explicitly into account to further improve the quality of the solution set. The influence of the algorithms components and parameters on the runtime and the quality of the obtained approximation is analyzed using a computational study.

Diplomarbeitsposter Pinter Andreas

Andreas Pinter

Masterstudium Software Engineering & Internet Computing
Abstract:

Bike Sharing Systems became popular in recent years to extend the public transportation network of cities or regions. Most research in this area focuses on finding the optimal locations for bike sharing stations. Still various approaches on how to operate such a system efficiently exist. The usefulness of a bike sharing system strongly depends on the user convenience which is directly connected to the availability of bikes and parking slots when and where they are needed. To increase user convenience a fleet of vehicles are used to move bikes between different stations to avoid empty or full stations. The goal of this thesis is to provide an algorithm to efficiently calculate transportation routes for balancing such a bike sharing system while the system is kept active during the process. The proposed algorithm is divided into two parts: solution search and solution evaluation. The first part is implemented using two different variants of a Variable Neighborhood Search (VNS) with an embedded Variable Neighborhood Descent (VND). The solution evaluation part incorporates a Linear Programming (LP) approach to calculate the optimal set of loading instructions for a solution found by the first part. Alternatively a greedy approach is used as well. Finally three variants (D: complete VND+LP; W: VND (with only two neighborhoods structures used)+LP; G: complete VND+Greedy) are tested on three different sets of test instances with 60, 90 and 120 stations. Comparing variant D and W gives the impression that D is performing better although no strong statistical evidence was found. Compared to variant D and W the solutions found by variant G are between 0.5% and 5% worse. On the other hand the greedy approach evaluates about twice as much solutions than the other two methods in the same amount of time. For real world applications the greedy approach may be the better one. Although it is not guaranteed to find the optimal solution it will find good solutions relatively fast.

Diplomarbeitsposter Trummer Dietmar

Dietmar Trummer

Masterstudium Computational Intelligence
Abstract:

The Periodic Vehicle Routing Problem with Time Windows (PVRPTW) is an extension of the classical vehicle routing problem. It differs from the latter by introducing a planning horizon spanning several days and by associating time windows with the customers which have to be visited. The objective is to minimize the overall travel costs while respecting all constraints. This thesis investigates the application of the Ant Colony Optimization (ACO) metaheuristic to solve this highly constrained NP-hard problem. For this purpose we apply ACO in two different ways: as heuristic solver for the pricing subproblem arising in a column generation approach for the linear programming-relaxed PVRPTW; and as an approximate problem solving method for the whole PVRPTW. In the first approach we show how ACO speeds up the column generation process by solving the Elementary Shortest Path Problem with Resource Constraints (ESPPRC) that forms our pricing subproblem. The investigation results reflect that the application of ACO improves performance and quality of columns compared to an exact ESPPRC solver, although other applied metaheuristics produce the same effect. For the second approach we present a new ACO algorithm: the cascaded ACO. The PVRPTW is decomposed in an upper level and a lower level problem which are both solved with specific ACO variants. The ACO for the upper level problem has to optimize the visit combinations, whereas the lower level ACO solves a Vehicle Routing Problem with Time Windows (VRPTW). A method is shown that allows us to find semi-optimal settings for the various parameters of the ACO algorithms. An extensive comparison of our results to results from previously published PVRPTW solution algorithms reveal, that recently developed hybrid algorithms show better performance on large problem instances, but our cascaded ACO outperforms the sole other ACO algorithm for the PVRPTW published so far.

Arbeitsbereich Computergraphik

Diplomarbeitsposter Beer Benjamin

Benjamin Beer

Masterstudium Medieninformatik
Abstract:

In der Informationsvisualisierung wurden in den letzten Jahren viele erfolgversprechende Ergebnisse erzielt, um die immer größeren Datenmengen, die uns im täglichen Leben umgeben, fassbarer und besser verständlich aufzubereiten. Erstaunlicher ist es aber, dass es aus diesem Forschungsbereich vergleichsweise wenig Literatur über Sportstatistiken gibt, obwohl diese eine interessante Herausforderung zum Erforschen passender Visualisierungstechniken darstellen. In dieser Arbeit wird deshalb der Sport und hier insbesondere Statistiken aus dem Eishockeybereich in den Mittelpunkt gestellt. Es wird versucht, dafür geeignete Visualisierungsmöglichkeiten zu finden. Im Besonderen wird dabei darauf geachtet, dass die Methoden auch für mobile Endgeräte, wie Smartphones und Tablets, geeignet sind. Es wird ein Prototyp entworfen, der verschiedene Statistiken visualisiert: einerseits können die wichtigsten Informationen einer Liga auf einem Screen dargestellt werden (Ligastand, vergangene und zukünftige Spiele), und andererseits können die Statistiken zweier Teams direkt miteinander verglichen werden. Um die neue Visualisierungsmethode zu evaluieren, wurde sie in einem Versuch mit einer klassischen Tabellenansicht verglichen. Die Ergebnisse aus dem Versuch zeigen neben den Stärken und Schwächen der neuen Methode auch interessante Möglichkeiten zur Verbesserungen für Sportvisualisierungen im mobilen Bereich auf.

Diplomarbeitsposter Dogangönül Onur

Onur Dogangönül

Masterstudium Visual Computing
Abstract:

Nowadays real-time graphics programmers find themselves in a challenging development environment. Graphics algorithms are usually accelerated by specialized hardware, which is optimized for streaming operations and parallel computation. Programmers write shaders to specify the behavior of certain stages of the graphics pipeline. Shaders are mostly written in procedural per-stage languages like HLSL or GLSL, whereas application code is mostly written in C/C++. Hardware state setup, shading- and application code has to be aligned to achieve a certain visual effect. Advanced graphics algorithms often comprise numerous shader files, including undesirable duplicate- and pass-through shader code. Furthermore, code reusability, composability and modularity are restricted due to the design of current shading languages. In this thesis current issues in real-time graphics development are discussed. Particularly, the Spark framework, which is considered as a reference approach is examined and extended by supplementary documentation and functionality. Within the framework the authors present a novel aspect-oriented per-pipeline shading language, which is eventually translated to HLSL procedures by a compiler on top of a Direct3D 11 back-end. Within this thesis an OpenGL 4.2 back-end is presented, new examples are shown and the extended framework is re-evaluated and discussed.

Diplomarbeitsposter Tragust Markus

Markus Tragust

Masterstudium Visual Computing
Abstract:

Die Digitalisierungsverfahren der Informatik bieten heute die Möglichkeit eine exakte Abbildung eines beliebigen Objektes mittels Laserscanner zu erstellen. Dabei entsteht eine Punktwolke des Objektes. Neben der archäologischen Stätte selbst existieren Daten welch Informationen über das digitalisierte Objekt beinhalten, sodass dies besser verstanden werden kann. Diese Diplomarbeit präsentiert ein Annotationssystem, welches in einen Punktwolkenrenderer integriert wird. Das System ermöglicht es Annotationen so im virtuellen Raum zu positionieren, dass diese in direktem Bezug zu dem Teil der Punktwolke stehen für den sie zusätzliche Informationen bereitstellen möchten. Die so bereitgestellten Informationen sollen dem Betrachter die Möglichkeit bieten mehr über einzelne Teile des Objektes zu erfahren. Dabei sollen nicht nur Texte als Informationsquelle dienen, sondern auch Bilder, Dokumente und Webseiten können eingebunden werden. Um die Sichtbarkeit einzelner Annotationen steuern zu können, werden verschiedene Filtermöglichkeiten angeboten. Unter anderem soll es möglich sein Annotationen blickpunktabhängig anhand ihrer Wichtigkeit darzustellen. Zudem wird ein Leitsystem vorgestellt, das es ermöglicht den Betrachter zu den verschiedenen Annotationen innerhalb der Punktwolke zu führen. Um eine klare Verbindung zwischen Annotationen und den Teilen der Punktwolke herzustellen, welche annotiert werden, wird ein Selektionsverfahren und ein Markierungsverfahren für Punkte präsentiert. Die Verfahren heben die für die Annotationen relevanten Punkte heraus. Damit diese mit einer großen Anzahl von Annotationen funktionieren werden die Methoden in CUDA entwickelt. Die entwickelten Methoden erweitern existierende Verfahren, welche Octrees für CUDA bereitstellen. Dadurch ist es möglich beide Verfahren schnell auf der Grafikkarte auszuführen, während es auf dem Hauptprozessor nicht möglich wäre diese Verfahren für eine große Anzahl an Annotationen in Echtzeit zu berechnen.

Diplomarbeitsposter Zapotocky Stephan

Stephan Zapotocky

Masterstudium Visual Computing
Abstract:

This thesis presents a method for converting a point cloud into a combination of polyhedral primitives. The process is supported by the use of digital imagery, which also forms the basis for the 3D dataset. Modern techniques from the field of computer vision allow the reconstruction of 3D objects or entire scenes out of a series of 2D images. The different coordinates of corresponding features on 2 or more images define the position of the respective point in 3D space as well as the camera parameters of the source images. The result is a 3D point cloud, whose appearance is equal to the real scene. Post-processing of this kind of data may be necessary, but it challenges the user due to its large amount of samples and lack of structure. This thesis describes an approach for converting such point clouds into a combination of parameterized polyhedral primitives, whose appearance approximates the real object. Part of the work on this thesis was the implementation of a tool for the reduction of point clouds to the previously mentioned combination of primitives. The fitting of those objects is automated, but the user defines the parts of the dataset to be reconstructed. The selection and displaying of the dataset’s source images forms an important part in the navigation through the point cloud, accelerating the reconstruction task. The resulting set of primitives forms a strong reduction of manipulation tasks. The main part of this thesis concentrates on the research, evaluation and implementation of an opimization technique for the fitting of parameterized polyhedral primitives to the point cloud. During the work both image-based and 3D-based optimization approaches have been studied, which form an important part of current work on this topic. The principle is presented and evaluated with sample datasets. The results show, that the combination of automated optimization and manual user interaction leads to a simplified dataset with high accuracy.

Arbeitsbereich Bildverarbeitung und Mustererkennung

Diplomarbeitsposter Augustin Marco

Marco Augustin

Masterstudium Medizinische Informatik
Abstract:

The functional analysis of genes is a popular and interesting challenge in natural sciences. The understanding about genes causing pathologies in humans and animals or genes causing an increasing crop yield are only two important and relevant applications. High-throughput phenotyping studies are seeking to increase the understanding about the impact of the genotype of an organism on its appearance- the phenotype. To find this correlation, genetic sequenced data as well as the phenotypic characteristics, so called traits, have to be determined. The bottleneck in these large-scale studies is the manual manipulation of samples and the subsequent determination of traits. Arabidopsis thaliana is a widespread, small, flowering plant and a popular model in functional genomics. In this work a framework is presented to extract geometrical and topological traits from 2D images of mature Arabidopsis (e.g. length of a stem, number of branches). Due to logistical reasons the plants were dried and pressed before the images were acquired. Therefore some parts of the plants are overlapping and the “realistic” architecture has to be reconstructed from the 2D images before the traits can be extracted. The reconstruction of the plants’ architecture is done in two steps. In the first step, a tracing approach is used for the extraction of the centerline of the plant. In the second step, continuity principles are used to group centerline segments and reconstruct the plants’ realistic architecture. The need for supervision along the pipeline is tried to be brought towards a minimum. Nevertheless, methods for minor corrective interventions are provided to rise the throughput rate. The accuracy and the grade of automation during the plant reconstruction is depending on the morphological complexity of the plant structure. Unsupervised trait extraction using the framework is reserved to plants with a limited morphological complexity and images with a uniformly high contrast.

Institut für Gestaltungs- und WirkungsforschungE187

Arbeitsbereich Multidisciplinary Design

Diplomarbeitsposter Auferbauer Daniel

Daniel Auferbauer

Masterstudium Business Informatics
Abstract:

The subject-matter of my work is a foray into the topic of assisting with presence awareness as a means of aiding in group management. My thesis provides a primary examination and evaluation of this issue. I aim to clarify if it is possible to help with group management by providing electronic assistance to improve awareness of physical presence and, if so, how this could best be achieved. Not only does this mean an examination of technical feasibility, but also an evaluation of the general concept with prospect users. The methods and approach employed to that end are thus: I have led interviews with teachers (who are to be considered prospect users) to better understand the problems arising from the management of mobile groups and draw up a requirement analysis. I then investigated wireless technologies currently available on the consumer market and assessed them by a set of criteria, to find the one that is best suited for my needs, as well as delved into the topic of location and range estimation within wireless sensor networks. That being done, I have provided a prototype implementation, which was tested both under laboratory conditions and in the field. I was able to identify three types of problematic situations, which are inherent to the examined use-case scenario, and provide a list of required features as a result of the expert interviews. A prototype featuring basic functionality was implemented and tested. This evaluation has shown the viability of my concept. Most importantly, my results have revealed the technical and practical feasibility of the general subject of assisting in group management by providing technological aid for better awareness of physical presence. I conclude that a device that provides assistance to group management through awareness of physical presence would be of benefit to the working conditions of people tasked with managing mobile groups and the safety of their charges.

Diplomarbeitsposter Bretschneider Andreas

Andreas Bretschneider

Masterstudium Software Engineering & Internet Computing
Abstract:

Herkömmliche Interaktionsmechanismen zur Steuerung und Fernbedienung von Geräten im Haushalt beschränken sich auf das Drücken von Tasten oder die Bedienung durch einen Touchscreen. Die notwendigen Handlungen erfordern ein erhöhtes Maß an Konzentration und Aufmerksamkeit. Das Ziel dieser Arbeit ist die Entwicklung und Evaluierung einer aktivitätsbasierten Universalfernbedienung, welche zusätzlich die Steuerung durch das Einlesen von NFC-Tags mit einem Android Smartphone ermöglicht. Die Interaktion soll dabei möglichst benutzerfreundlichen umgesetzt werden, um mit einem einzigen Handgriff durchgeführt werden zu können. Durch die Bestimmung von Orten an denen bestimmte Aktionen üblicherweise durchgeführt werden und der Platzierung von NFC-Tags, wird der BenutzerIn dadurch eine zusätzliche Möglichkeit zur Bedienung geboten. Der gesamte Prozess wurde durch benutzerzentrierte Methoden gestützt, um die Frage nach der Benutzerakzeptanz und den Auswirkungen auf die Usability zu klären. Durch die Anwendung eines iterativen Entwicklungsprozesses konnte auf angefallene Probleme und neue Forschungsfragen reagiert werden. Am Ende jeder Iteration stand jeweils die Evaluierung der entwickelten Lösung mit Hilfe von Benutzertests. Um eine optimale Grundlage zur Durchführung der Tests zu bieten, wurde eine Vielzahl von Geräten in die Fernbedienung integriert. Bei der Evaluierung standen die Fragen nach der Erlernbarkeit, der Benutzerzufriedenheit und dem möglichen Mehrwert im Vordergrund. Zur Klärung der Fragen kamen sowohl unstrukturierte Beobachtungen und Interviews als auch Usability Metriken zum Einsatz. In Abhängigkeit von der jeweiligen Situation und einer sinnvollen Platzierung erwies sich die Interaktion mit den NFC-Tags als äußerst nützlich. Während dieser Arbeit wurden mögliche Erweiterungen der Software zur Fernbedienung sowie verbesserungswürdige Punkte der momentan vorherrschenden technischen Umsetzung von NFC Lesegeräten in Smartphones identifiziert.

Diplomarbeitsposter Dietinger Sandra

Sandra Dietinger

Masterstudium Medieninformatik
Abstract:

Kinder wachsen in einem digitalen Zeitalter auf, wodurch sie schon sehr früh mit Technik und den verschiedensten Technologien in Berührung kommen. Digitale Lernspiele greifen dieses Wissen von Kindern auf, um den Kindern das Lernen zu erleichtern und einen Spaßfaktor hinzuzufügen. Bisher entwickelte Lernspiele sehen das Kind jedoch nicht als Designpartner und Experten ihrer eigenen Bedürfnisse und Fähigkeiten an, sondern als Endtester, die ein fertiges Lernspiel vorgesetzt bekommen. In dieser Arbeit soll das Thema, sowie die präferierten Technologien für das Lernspiel von den Kindern selbst gewählt werden. Kinder sind sich jedoch meist nicht bewusst über ihre Wünsche und Bedürfnisse bezüglich Interesse und mögliche Eingabegeräte, geschweige denn diese klar auszudrücken. Das Interesse und die gewünschte Technologie der Kinder wird aus diesem Grund in dieser Arbeit über Cultural Probe und Technology Probe eruiert. Diese beiden Methoden werden mit (Video-)Beobachtungen ergänzt und führen auch zu Erkenntnissen über die bildliche Darstellung von Abbildungen. Aufbauend auf den daraus resultierenden Ergebnissen wird ein Lernspiel-Prototyp für Kleinkinder im Alter von 4 - 6 Jahren erstellt und im Anschluss mit den Kindern getestet, evaluiert und analysiert.

Diplomarbeitsposter Koller Evelyn

Evelyn Koller

Masterstudium Medieninformatik
Abstract:

Emotionen stellen einen wichtigen Teil unseres Seins dar. Sie beeinflussen unser Handeln, unsere Wahrnehmung und werden mit Erinnerungen verbunden. Oft jedoch haben Menschen Schwierigkeiten, sich zu ihren eigenen Emotionen zu äußern, was sie selbst und ihr soziales Umfeld beeinflusst. Das Ziel dieser Arbeit ist es, mögliche Formen der Visualisierung und Kommunikation von Emotionen zu untersuchen und ein Hilfsmittel in Form eines elektronischen Tagebuchs zu schaffen. Dieses soll betroffene Personen ermuntern, ihre Emotionen zu hinterfragen, sich mit ihnen auseinanderzusetzen und es erleichtern, Gefühle frei auszudrücken. Das Gerät soll anhand des Anwendungsfalls Psychotherapie getestet werden, da bei dieser Therapieform die Kommunikation zwischen PatientIn und TherapeutIn essentiell ist. Es wurden unterschiedliche Arbeiten realisiert, die sowohl Therapien als auch das Erfassen und Visualisieren von Emotionen unterstützen. Allerdings existieren keine Geräte, die sich mit der Unterstützung der Kommunikation der Patientinnen und Patienten befassen. Ein tangible Tagebuch bietet hier den Vorteil, direkte Manipulation über haptische Interaktionen zu ermöglichen und digitale Informationen in einer physischen Form zu repräsentieren. Es werden benutzerzentrierte Designmethoden untersucht, die zur Gestaltung des Prototyps eingesetzt wurden, welcher anschließend mit Patienten getestet und evaluiert wurde. Dabei wurde geprüft, inwiefern das tangible Tagebuch einen Vorteil gegenüber klassischen Tagebüchern bietet, inwiefern es die Hemmungen senkt, über eigene Emotionen zu sprechen und ob es den Zugang und das Verständnis des Benutzers zu den eigenen Gefühlen verbessern kann. Die Ergebnisse dieser Arbeit bilden die Basis für mögliche Weiterentwicklungen und zeigen weitere, mögliche Verwendungen auf.

Diplomarbeitsposter Sellitsch David

David Sellitsch

Masterstudium Business Informatics
Abstract:

Context aware music systems aim to free the user from the tedious work of creating playlists. They achieve this by sensing their environment and select music that fits the current situation. People often consume music in the background, while they perform other activities, such as cooking, working on something, or having some friends over for dinner. A common problem is that music players often get in their way, by drawing too much attention and hindering them from what they wanted to do in the first place. Context aware music systems have been the topic of many research papers in the past. Most of them focused on specific parts of the topic, like music categorization or reasoning, while neglecting design questions about the actual use of such a device. A major question of this thesis was the field of tension of giving users control over a system that makes autonomous decisions. These questions can only be addressed by observing people, using a fully functional prototype. Such a prototype, consisting of a software application and a specifically designed USB-device (including sensors and a tangible user interface), has been developed for the purpose of answering these questions. The prototype was developed using user centered design (UCD) techniques like personas, usability tests, and qualitative inter- views. The main contribution of this thesis is a newly designed interaction concept for context aware music players, as well as insights gathered through the evaluation of a fully functional prototype. The interaction concept proposed in this thesis enables users to express information about their mood and activities in a subtle way, and lets them customize the system, by mapping situation descriptions to music. I also found out, that the subjective feeling of having control over a system can be strengthened by adding customization options and by making autonomous decisions transparent.

Diplomarbeitsposter Simeunovic Ivana

Ivana Simeunovic

Masterstudium Software Engineering & Internet Computing
Abstract:

In dieser Arbeit wird mithilfe von Methoden des benutzerInnenzentrierten Designs untersucht, wie User Experience für SeniorInnen verbessert und weiterentwickelt werden kann. Dies geschieht am Beispiel eines Systems zum Organisieren von digitalen Reiseerinnerungen, sogenannte Souvenirs, für SeniorInnen. Im Kontext gesetzt werden am Anfang der Arbeit die Zielgruppe der SeniorInnen und das Gebiet der Reisen. In einer Vorstudie untersucht, ob und in welcher Form eine derartige technische Unterstützung von SeniorInnen gewünscht wird. Die Vorstudie beruht auf einer Recherche und Analyse von existierenden Systemen, gemeinsam mit einer durchgeführten Skizzenbefragung. Danach wird unter Verwendung von benutzerInnenzentriertes Design ein Prototyp entworfen, der möglichst gut auf die Wünsche und Bedürfnisse der SeniorInnen eingeht. Ein iteratives Designprozess wird angewendet, in dem SeniorInnen bzw. SeniorInnen-ExpertInnen nach jedem Entwicklungsschritt befragt werden, ob das bisherige Ergebnis für sie passend ist und was sie sich in weiterer Folge vom System und aus dem nächsten Entwicklungsschritt wünschen. Somit kann eine Applikation entwickelt werden, welche die SeniorInnen verwenden wollen und verwenden können. Das Ergebnis des Designprozesses ist ein Prototyp, der basierend auf wissenschaftlichen Untersuchungen und Feedback von SeniorInnen auf die Bedürfnisse der SeniorInnen eingeht. Besonders zu erwähnen ist der Bedarf der SeniorInnen nach Flexibilität und Gestaltungsfreiheit. So ist ihnen zum Beispiel wichtig, dass sie ihre Daten nicht in einer starren Weltkartenstruktur organisieren müssen, sondern, dass eigene Kartenbilder verwendet werden können. Die SeniorInnen wissen genau, was sie haben wollen - deshalb ist benutzerInnenzentriertes Design eine sinnvolle Vorgehensweise. Aber sie sind nicht sehr offen gegenüber neuen und anderen Arten, Funktionalitäten zu implementieren.

Arbeitsbereich Human Computer Interaction

Diplomarbeitsposter Hattinger Christian Franz

Christian Franz Hattinger

Masterstudium Informatikmanagement
Abstract:

Zunehmend mehr Lehrveranstaltungen werden aufgezeichnet und in E- Learning Plattformen online gestellt. Um auch ohne externen Firmen eine höhere Untertitelquote zu erreichen, liegt der Fokus dieser Diplomarbeit auf der Evaluierung von zwei thematisch verwandten und vielversprechenden Möglichkeiten der offline Untertitelerzeugung. Einerseits wurde die automatische Erzeugung von Untertitel mittels einer Sprecher bzw. Sprecherinnen unabhängigen, für spontane Sprache entwickelten Spracherkennungssoftware untersucht. Die Erkennungsraten lagen deutlich hinter den Erwartungen, wodurch diese Art der Untertitelerzeugung derzeit keine Unterstützungsmöglichkeit für hörbeeinträchtigte Studierende darstellt. Die zweite untersuchte Alternative ist die offline Untertitelerstellung mit Respeaking. Das im Zuge dieser Diplomarbeit erarbeitete, dokumentierte und evaluierte Training legt den Grundstein für eine Respeaking Ausbildung in Österreich. Der Trainingsplan beinhaltet sieben Einheiten samt Übungen zum Erlernen des Respeakings. Im Zuge dieser Diplomarbeit wurde ein Respeaker ausgebildet. Durch qualitative, mündliche Interviews und der ständigen Evaluierung des Trainingsprozesses wurden die Einheiten ebenso wie der Zeitaufwand und das verwendete Equipment evaluiert. Eine Vorlesung wurde unabhängig von drei Seiten mittels Respeaking untertitelt: Live durch eine externe Firma und offline via Respeaking durch den ausgebildeten Respeaker sowie den Autor dieser Diplomarbeit. Die Beurteilung aller durch Respeaking erstellten Untertitel erfolgte durch die NER-Analyse. Dabei wird ab einem NER-Wert von 98% von akzeptablere Qualität gesprochen. Die offline erstellten Untertitel weisen mit 98,9% bzw. 97,4% eine deutlich höhere Qualität sowie eine höhere qualitative Konstanz als die live erzeugten Untertitel mit 94,9% auf. Die Ergebnisse sind visualisiert, textlich beurteilt und heben die Vorteile ebenso wie die Nachteile der verschiedenen Arbeitsweisen hervor.

Diplomarbeitsposter Kastner Philipp

Philipp Kastner

Masterstudium Medieninformatik
Abstract:

Die Annotation dient der intensiven Auseinandersetzung mit unterschiedlichen Inhalten. In dieser Arbeit wird speziell das Annotieren im Zusammenhang mit Videos und einer dafür entwickelten Tablet-App genauer betrachtet. Dafür wird zunächst ein grundlegendes theoretisches Verständnis im Bereich der Interaktion mittels Gesten und dem Umgang mit dem Medium Video erarbeitet. Durch den Einsatz von Touchscreens bieten Tablets neue Möglichkeiten im Be- reich des Interaktionsdesigns. Inwiefern sich die Eingabe mittels Finger oder Stylus auf das User-Interface Design auswirkt wird untersucht und in weiterer Folge auf die Veränderung des Medium Video in den letzten Jahren und dessen Einsatzgebiete eingegangen. Es existieren bereits einige Anwendungen zum Annotieren von Videos allerdings wurde diese meist für ganz spezielle Einsatzgebiete entwickelt und sind einigermaßen komplex. Durch die Erarbeitung von möglichen Einsatzgebieten einer intuitiven Tablet-App zum Annotieren von Video wird gezeigt, dass in vielen unterschiedlichen Bereichen ein Bedarf für eine solche App besteht. Außerdem werden die Möglichkeiten des kollaborativen Arbeitens betrachtet. In vielen Fällen werden Annotationen nämlich nicht nur für den eigenen Gebrauch erstellt, sondern auch mit anderen ausgetauscht. Was bei der Entwicklung von Software, die die Zusammenarbeit von mehreren Personen ermöglicht beachtet werden muss und welche Chancen dabei entstehen sind dabei zentrale Fragestellungen. Neben der theoretischen Auseinandersetzung wurde im Rahmen der Arbeit auch ein Prototyp für das iPad umgesetzt. Dieser wurde verwendet um diverse Konzepte zu validieren. Zum Abschluss werden noch Verbesserungsmöglichkeiten für eine zukünftige iterative Weiterentwicklung der Tablet-App aufgeführt.

Diplomarbeitsposter Linecker Stefan

Stefan Linecker

Masterstudium Information & Knowledge Management
Abstract:

The traditional infrared remote control is a widespread and time-tested device but, with the advent of interactive television and the accompanying growth of available content and features, it might reach its limits. The overall aim of this work is to contribute to customer satisfaction of interactive television by exploring if the data of button presses in such a system is useful for gaining significant insights for the design of remote controls and interaction television user interfaces. It does so by applying a usability method called remote logging and information visualization techniques are used to analyze the gathered data. The central findings of this work consist of three purpose-build visualization techniques and a variety of patterns found using these methods.

Diplomarbeitsposter Patru Bianca

Bianca Patru

Masterstudium Medieninformatik
Abstract:

Diese Arbeit analysiert den Grad der Selbstenthüllung in Statusupdates, die von rumänischen Studenten die in Österreich leben auf Facebook gepostet werden. Basierend auf früheren Studien, beginnt die Analyse mit der Annahme dass eine Person intimere Details in seiner Muttersprache preisgibt als in anderen Sprachen. Die letzten 25 Statusupdates von 20 Benutzern wurden zu diesem Zweck heruntergeladen. Die Selbstenthüllungsaussagen wurden in sachliche, kognitive und emotionale Aussagen unterteilt. Darüber hinaus werden auch andere Aspekte wie die Verwendung von Dialekt, Abkürzungen oder Emoticons studiert. Als Letztes werden einzelne qualitative Interviews durchgeführt um eine detailliertere Einsicht in den individuellen Sprachgebrauch zu gewähren. Die Ergebnisse unterstützen einige der Hypothesen dass User von sozialen Netzwerken Sprache als Auswahlverfahren für deren Freundesgruppen und als ein Werkzeug der Kontrolle ihrer Privatsphäre benutzen. Manche Hypothesen wurden nicht erfüllt und stimmen nicht mit der originalen Arbeit überein. Gründe dafür sind der Zeitunterschied zwischen den beiden Studien und die kulturellen Differenzen. Weiters weisen die Interviews darauf hin dass man mit der Zeit weniger bereit war Emotionen zu enthüllen und die allgemeine Angewohnheit Updates zu posten wurde schrittweise von dem Ausdrücken von Emotionen durch das Posten von Fotos, Liedern oder Links zu Artikeln abgelöst.

Diplomarbeitsposter Tretter Matthias

Matthias Tretter

Masterstudium Software Engineering & Internet Computing
Abstract:

Die Visualisierung von asynchronen Onlinediskussionen wird seit jeher nicht hinterfragt - die zweidimensionale Struktur eines Diskussionsbaumes wird in eine linearisierte Form gezwängt und durch schrittweise Einrückungen annotiert, um die Hierarchie aufrechtzuerhalten. Im Rahmen dieser Arbeit wurde eine neuartige Visualisierung, die für das E-Learning Framework discuss am Institut für Gestaltungs- und Wirkungsforschung der TU Wien (HCI group) entwickelt wurde, im Kontext der Social News Plattform Reddit evaluiert. Die Hypothese ist dass diese Form der Visualisierung auch außerhalb des Bildungskontexts ihre Stärken ausspielen kann, die Informationsaufnahme verbessert und die Teilnahme an Diskussionen anregt. Im Rahmen der Diplomarbeit wurde mit Hilfe eines designorientierten Prozesses eine vollwertige iPad Reddit Applikation, basierend auf der Diskussionsvisualisierung discuss, entwickelt und evaluiert. Der vorliegende Text präsentiert eine Analyse der Plattform Reddit, ihrer Eigenschaften und Merkmale und einen Vergleich bestehender Reddit Frontends. Darüber hinaus wird der Entwicklungsprozess des Reddit Clients Biscuit geschildert und anschließend anhand zweier verschiedener Blickwinkel analysiert.

Diplomarbeitsposter Tunjic Bruno

Bruno Tunjic

Masterstudium Medieninformatik
Abstract:

Mehrere Forschungen zeigen, dass Muskel- und Skeletterkrankungen oft mit sitzenden Tätigkeiten, die die Arbeit mit dem Computer umfassen, verbunden sind. Übermäßiges Sitzen vor dem Computer und Untätigkeit im Allgemeinen, kann dazu führen, dass die Nacken-, Schulter-, Handgelenk- und Rückenschmerzen entstehen. Rehabilitationssysteme für solche Probleme sind vorhanden, aber eine lohnendere Lösung wäre Prävention. Deshalb wird in dieser Arbeit ein System zur Verhinderung von Schmerzen vorgestellt. Die wichtigsten Herausforderungen bei der Entwicklung und Gestaltung von solchen Systemen sind wie die BenutzerInnen zu üben zu motivieren, und wie die Bewegungen zu verfolgen, so dass ein Feedback zurückgegeben sein kann. Das hier vorgestellte System umfasst einen virtuellen Agent, der eine Führung und einen Übungspartner für die BenutzerInnen darstellt. Der zweite integrale Bestandteil des Systems ist der Kinect-Sensor von Microsoft, der die Bewegungsverfolgung ermöglicht. Virtuelle Agenten sollten die BenutzerInnen daran erinnern, wann und wie viel zu trainieren. Dabei wird der Kinect-Sensor verwendet, um die Bewegungen zu verfolgen und Rückmeldungen über die Richtigkeit der Übungen zu geben. User Centered Design (UCD) Wurde als Gestaltungsansatz angewendet. Die Interviews und ständige Einbeziehung der BenutzerInnen machte es möglich, das Design an die Bedürfnisse der NutzerInnen anzupassen. Das wichtigste Ergebnis des gesamten Prozesses war, dass die BeutzerInnen genaue Navigation und Orientierung während der Übungen brauchen. Dieses Problem wurde gelöst indem die statischen Punkte auf dem Bildschirm angezeigt werden, durch die die Bewegung durchgeführt werden müssen. Die Anzahl der falschen Bewegungen wurde dadurch drastisch verringert. Das resultierende System wurde nicht nur von den BenutzerInnen positiv bewertet, sondern auch von Physiotherapeuten, die auch glauben dass diese Art von Systemen ihre Arbeit erleichtern und Schmerzen großenteils verhindern kann.

Diplomarbeitsposter Wiener Sarah

Sarah Wiener

Masterstudium Informatikmanagement
Abstract:

Neue Medien sind Teil des Lebens geworden und nicht mehr wegzudenken. Medienkompetenz zu vermitteln ist eine Notwendigkeit im Computerzeitalter geworden und ist vorrangiges Ziel der Medienerziehung. Kindern im Kindergarten Computer anzubieten, um Medienkompetenz zu entwickeln, hat jedoch Diskussionen ausgelöst. Ziel der im Rahmen dieser Arbeit durchgeführten Studie war, anhand eines Elternfragebogens sowie Interviews mit KindergartenpädagogInnen und SchülerInnen von Bildungsanstalten für Kindergartenpädagogik Einblicke in die derzeitige Situation hinsichtlich des Einsatzes von Computern im Kindergarten im Raum Wien zu erhalten. Im Fokus stand die momentane Einstellung und Akzeptanz sowie das derzeitige Maß der Umsetzung und Hindernisse. Die Auswertung ergab, dass dem Angebot von Computern im Kindergarten nur geringe Bedeutung zugeschrieben wurde. Weder sozioökonomische Merkmale noch die Familiensituation, aber der Wissensstand um das Thema Medienerziehung im Kindergarten hatten Einfluss auf die Einstellung von Eltern. Die Eltern gaben mehrheitlich an, dass dem Computereinsatz im Kindergarten Einschränkungen unterliegen sollte. Nur eine geringere Anzahl an Eltern sprach sich generell gegen ein solches Projekt aus. Eltern befürchteten vorrangig Bewegungsmangel und sahen die größte Chance im Kennenlernen des Mediums und kompetenten Umgang erlernen. Die Ausstattung von Kindergärten mit Computern war nur selten gegeben. Der Blick auf die Qualifikation von KindergartenpädagogInnen zeigte, dass Berufstätige für ein solches Projekt geringfügig geschult werden. In der Ausbildungszeit wird Basiswissen vermittelt und vereinzelt die Möglichkeit geboten, erste Erfahrungen zu sammeln. Es besteht ein Bedarf an intensiver Vorbereitung auf das Projekt Einsatz von Computern im Kindergarten. Die gesammelten Erkenntnisse können als Basis für konzeptuelle Ansätze bei der Einführung von Computern in Wiener Kindergärten herangezogen werden und erweitern das Spektrum Diskussionsgrundlagen.

Institut für Softwaretechnik und Interaktive SystemeE188

Arbeitsbereich Information & Software Engineering

Diplomarbeitsposter Antensteiner Doris

Doris Antensteiner

Masterstudium Informatikmanagement
Abstract:

Blended Learning beschreibt die Kombination aus verschiedenen Lern- und Lehrmethoden. Diese Kombination wird hier genutzt um ein ganzheitliches Konzept einer persönlichen Lernumgebung in Klassenräumen zu entwerfen, die von E-Learning Technologien unterstützt wird. Präsentiert wird eine neuartige Lösung für das Assessment in einer Blended Learning Umgebung, welches neue Lehrmethoden integrativ in den Assessmentprozess einbindet. Dieses integrative Assessment wird in dieser Arbeit unter dem Begriff Blended Assessment beschrieben.

Diplomarbeitsposter Aufner Peter

Peter Aufner

Masterstudium Software Engineering & Internet Computing
Abstract:

Smartphones und Tablets werden immer mehr zu einer Selbstverständlichkeit. Um die Entwicklung für solche Geräte zu vereinfachen, erscheint es als gute Idee eine Middleware Lösung zu entwickeln, um gemeinsam genützte Funktionalität in Plugins lagern zu können und so Platz zu sparen und Entwicklung von mehr Funktionalität zu erleichtern. Jedoch haben mobile Plattformen wie Android nie vorgesehen, dass eine Applikation dynamisch Teile von Code unterschiedlicher Hersteller beherbergt und anderen Applikationen Zugriff auf diese gibt. Das bereits bestehende Ambient Dynamix Framework wurde als Beispielimplementierung einer Middleware für diese Arbeit gewählt, da es eine moderne Plattform für Android bietet. Mit einer Lösung wie dieser ergeben sich jedoch einige Probleme: Android bietet nur ein pro Applikation Rechte System, das es nicht erlaubt den Code einer einzelnen Applikation in geteilten Bereichen zu sehen. Es ist schwer eine Applikation davon abzuhalten Services, die eine andere bietet, aufzurufen. Plugins von entfernten Quellen müssen authentifiziert werden, da verschiedene Attacken erlauben den Download zu verändern, oder sogar ein komplett bösartiges Repository einzurichten, das zu einer kompletten Kompromittierung des Geräts führen kann. Mit detaillierten Kenntnissen über Android wird eine sichere Endnutzerlösung gesucht, die keine Modifikationen am Android Betriebssystem benötigt. APIs können genutzt werden um Informationen über Applikationen und deren Rechte zu erhalten um Privilege Escalation vorzubeugen. Um das System vor bösartigen Plugins zu schützen, werden wir statische Codeanalyse verwenden. Im Rahmen dieser Arbeit werden Lösungen zu den genannten Problemen geboten. Die Android Sicherheitsplatform wird genutzt um die Berechtigungen von Applikationen zu prüfen, die Code aufrufen. Es wurden zwei Bibliotheken erstellt um die angeforderten mit den genutzten Berechtigungen abzugleichen und sowie um das Signieren von Plugins zu übernehmen.

Diplomarbeitsposter Dietrich Markus

Markus Dietrich

Masterstudium Business Informatics
Abstract:

Über die letzten Jahrzehnte hinweg wurden grafische Benutzeroberflächen zur weitverbreitetsten Benutzerschnittstelle. In grafischen Benutzeroberflächen werden digitale Daten auf einem Bildschirm dargestellt. Die Interaktion findet meist über eine Maus und eine Tastatur statt. Angreifbare Benutzerschnittstellen beschreiben eine neue Methode der Mensch-Computer-Interaktion. Der Fokus liegt hier bei der Entwicklung von neuen Interaktionsmöglichkeiten mit digitalen Daten über die physische Umgebung. In den letzten Jahren haben sich vermehrt wissenschaftliche Arbeiten mit angreifbaren Benutzeroberflächen im Zusammenhang mit Lernen beschäftigt. Viele Projekte stellen mittlerweile angreifbare Benutzeroberflächen speziell zu Bildungszwecken vor, basierend auf der Annahme, dass spielerische Aktivitäten mit physischen Objekten pädagogisch wertvoll seien können. Diese Arbeit präsentiert eine angreifbare Benutzeroberfläche zur Musikkomposition und Tonerzeugung für künstlerische und Bildungszwecke. Aufbauend auf einem umfangreichen Literaturüberblick werden Anwendungsszenarien entwickelt, Anforderungen an das Design definiert und Skizzen erstellt. In diesem Zusammenhang wird untersucht wie sich Datenobjekte die Informationen über Musik und Töne enthalten mit angreifbaren Objekten realisieren lassen und wie Musik und Ton mit solchen erzeugt werden kann. Des Weiteren werden Möglichkeiten zur Musikkomposition und Tonerzeugung speziell für Kinder vorgestellt. Darüber hinaus wird der fertige Prototyp auf seine Funktionalität getestet und Möglichkeiten und Grenzen eines solchen Systems diskutiert.

Diplomarbeitsposter Durco Matej

Matej Durco

Masterstudium Information & Knowledge Management
Abstract:

The ultimate objective of this work was to enhance search functionality over a large heterogeneous collection of resource descriptions. This objective was pursued in two separate, complementary approaches: a) design a service delivering crosswalks (i.e. equivalences between fields in disparate metadata formats) based on well-defined concepts and apply this concept-based crosswalks in search scenarios to enhance recall. b) express the domain data as a Semantic Web resource, to enable the application of semantic technologies on the dataset. In parallel with the two approaches, the work delivered two main results: a) the specification and prototypical implementation of the module for concept-based search together with the underlying crosswalks service. And b) the blueprint for expressing the original dataset in RDF format, allowing to provide the dataset as Linked Open Data. Partly as by-product, the application SMC browser was developed – an interactive visualization tool to explore the dataset on the schema level. This tool provided means to generate a number of advanced analyses of the data, directly used by the community for exploration and curation of the complex dataset. This work is embedded in the context of a large research infrastructure initiative aimed at providing easy, stable, harmonized access to language resources and technology (LRT) in Europe, the Common Language Resource and Technology Infrastructure or CLARIN. A core technical pillar of this initiative is the Component Metadata Infrastructure, a distributed system for creating and providing metadata for LRT in a coherent harmonized way. Semantic Mapping Component, is one module within the infrastructure dedicated to overcome the semantic interoperability problem stemming from the heterogeneity of the resource descriptions, by harnessing the mechanisms of the semantic layer built-in into the core of the infrastructure.

Diplomarbeitsposter Goldstein Christian

Christian Goldstein

Masterstudium Medieninformatik
Abstract:

Seit 1997 existieren mit dem Kyoto Protokoll internationale Ziele um den Treibhausgasausstoß zu reduzieren. Österreichs Energiebruttoinlandsverbrauch ist jedoch im Zeitraum von 1990 bis 2010 um 39% gestiegen. Betrachtet man den Sektor private Haushalte, beträgt die Steigerung des Energieverbrauchs 18%. In Gebäuden ab 1990 konnte allerdings der Energieverbrauch durch eine modernere Bauweise bereits um 27% gesenkt werden. In dieser Arbeit wird das Konzept des Smart Home als eine Möglichkeit vorgestellt, den Energieverbrauch weiter zu reduzieren. In diesem Zusammenhang wird auf die folgenden Fragestellungen eingegangen: Welche Technologien und Standards für Smart Homes existieren bereits? Welche Systeme sind miteinander kompatibel und wie können sie verbunden werden? Welche neuen Funktionalitäten, Anwendungsszenarien und energieeffizienten Logiken sind durch die Verbindung möglich? Welches Energieeinsparungspotential resultiert aus dieser Verbindung? Das Ziel dieser Arbeit ist die Analyse des Energieeinsparungspotentials moderner Technologien, welche in der Lage sind, dem steigenden Energieverbrauch und wachsenden Treibhausgasausstoß auf dem Sektor private Haushalte entgegenzuwirken. Die Technologieanalyse umfasst das Funksensornetzwerk EnOcean, das KNX Hausautomatisierungssystem, die Wechselrichter Fronius Galvo 3.1-1 und SMA Sunny Boy 5000 Smart Energy, sowie Produkte der Wärmepumpenhersteller Heliotherm und Alpha-Inno Tec. Der Fokus der Analyse liegt auf dem grundlegenden Konzept, der Qualität und Effizienz, sowie der Kompatibilität zu anderen Technologien. Diese Arbeit zeigt, dass der gemeinsame Nenner zur Vernetzung dieser Technologien, die jeweiligen Protokolle auf Basis der IP-Protokollfamilie sind. Abschließend wird das Energieeinsparungspotential der technisch möglichen Kombinationen der untersuchten Systeme verglichen. Es wird gezeigt, dass je nach Systemkombination ein maximales Gesamteinsparungspotential von rund einem Drittel entsteht.

Diplomarbeitsposter Hanel Manuel

Manuel Hanel

Masterstudium Medieninformatik
Abstract:

Das Internet umfasst laut Google mehr als 60 Billionen einzelne Seiten (Stand: Februar 2014) und die Zahl wächst unaufhaltsam weiter. Kaum eine Dienstleistung oder ein Produkt kommt heutzutage ohne Internetpräsenz aus, was zur Folge hat, dass Internet-Seiten oft schnell und effizient erstellt werden müssen. Einige dieser Websites werden daher mithilfe von Front-End Frameworks erstellt. Oft legen diese Toolkits hohen Wert vor allem auf Zeiteinsparung sowie einfache Handhabung und Gestaltung. Hierbei wird jedoch häufig nicht berücksichtigt, wie BenutzerInnen mit Beeinträchtigung im Internet agieren und Websites nutzen. In dieser Arbeit möchte ich zunächst zeigen, was Barrierefreiheit bedeutet, welche Richtlinien es bei der Gestaltung zu berücksichtigen gilt und welche Auswirkungen eine Nicht-Einhaltung dieser Vorgaben hat. Anschließend erörtere ich, ob beziehungsweise wie weit Barrierefreiheit in zehn bekannten Front-End Frameworks umgesetzt wird. Anhand einer barrierefreien Testseite wird eine Bewertungstabelle definiert, die wichtige Beurteilungs-Kriterien für Accessibility beinhaltet. Die Testseite wird dann in den ausgewählten Frameworks implementiert und anschließend durch manuelle Tests bzw. Untersuchungen unter anderem mit Screen Readern und Validierungs-Werkzeugen bewertet. Das Resultat der Untersuchungen ist im Sinne der Barrierefreiheit ernüchternd und bestätigt Vermutungen, wonach die meisten Frameworks nicht für die Erstellung barrierefreier Inhalte geeignet sind. Hier muss mehr Bewusstsein bei den Web-Entwicklern und in der Community geschaffen werden, damit auch bei der Verwendung von Front-End Frameworks beeinträchtigte Menschen nicht außen vor gelassen werden und Zugang zu freien Informationen im Internet erhalten.

Diplomarbeitsposter Heil Michael

Michael Heil

Masterstudium Business Informatics
Abstract:

Data Mining findet als effektives Instrument um aus gesammelten Datenfluten nutzbares Wissen zu extrahieren verstärkt Einsatz in Unternehmen, scheitert aber oftmals an der Komplexität und falschen Erwartungen. Um dem entgegenzuwirken soll anhand einer Machbarkeitsstudie, in der es darum geht, mithilfe von Verkaufsdaten einer kulturellen Einrichtung im deutschsprachigen Raum verschiedene Vorhersage-Fragestellungen zu beantworten, eine Methodologie erarbeitet werden. Dem Vorgehensmodell CRISP-DM folgend wird ein Verständnis der zugrundeliegenden Daten sowie dem betriebswirtschaftlichen Kontext erarbeitet, um eine fachgerechte Aufbereitung zu ermöglichen. Die Fragestellungen werden nacheinander beantwortet, wobei bereits gewonnene Erkenntnisse sowie aufgebaute Datenstrukturen wiederverwendet werden. Soweit möglich, werden im Zuge dessen auch verschiedene Evaluierungen durchgeführt, wobei ein erfolgsbeurteilender Vergleich mit der herkömmlichen Methode nur in einem Fall gezogen werden kann. Aus methodologischer Sicht werden die verschiedenen Möglichkeiten zur Problemlösung sowie die Aspekte, auf die dabei zu achten ist, aufgezeigt. Im Endeffekt soll ein Gefühl für die Funktionsweisen vermittelt werden, um den Prozess auch unter anderen Rahmenbedingungen effektiv nachzeichnen zu können. Was die Ergebnisse der Machbarkeitsstudie angeht, so wird gezeigt, dass Data Mining im Wesentlichen geeignet und die Datenlage ausreichend ist, um brauchbare Ergebnisse für den Großteil der Fragestellungen zu liefern. Insgesamt können viele neue Erkenntnisse gewonnen werden, es treten jedoch auch einige Unzulänglichkeiten zu Tage. Zuletzt kann mit der Erkenntnis verblieben werden, dass durch die Formalisierung des grundsätzlichen Vorgehens das Ziel der Erleichterung der Wiederholung des Prozesses zwar erreicht wird, die Anwendung von Data Mining im Wesentlichen jedoch gleichermaßen Kunst wie Wissenschaft bleibt.

Diplomarbeitsposter Hochreiner Christoph

Christoph Hochreiner

Masterstudium Software Engineering & Internet Computing
Abstract:

Mobile devices, like smartphones and tablets, find their way into more and more households. While these new mobile devices introduce new possibilities for their users, they also reveal several security and especially privacy challenges. This work focuses on the sensitive location privacy, which is increasingly violated by the extended use of location aware applications. Those applications make use of the location provided by the mobile device to either offer context sensitive services or to monetize the personal information. The goal of this thesis is to provide theoretical and practical approaches, to support user to regain their power over their location privacy without limiting the usage of location aware applications. The first challenge deals with mitigation approaches that are used to reduce the entropy of location information. So far, there are no suggestions of obfuscation algorithms, which are suited for specific applications to improve the privacy while maintaining the quality of service provided by the applications. The second aspect evaluates, how the obfuscation algorithms can be deployed to mobile operating systems. Currently these systems only provide very limited support in terms of location privacy and they provide no functionalities to implement the privacy preserving mechanisms. Consequently it is necessary to find alternative approaches to deploy location obfuscation mechanisms. The first contribution is a new classification scheme for obfuscation algorithms, which includes plausibility aspects of obfuscated locations. Based on this classification, a mapping between commonly used applications and appropriate algorithms is suggested. The second contribution is the improvement of an existing interception framework and an implementation of a novel approach, to improve the location privacy. These two prototypes resolve several issues of previous interception approaches and can be used to support the user to regain power over their personal privacy.

Diplomarbeitsposter Juch Andreas

Andreas Juch

Masterstudium Software Engineering & Internet Computing
Abstract:

Btrfs (B-tree file system) ist ein ständig weiterentwickeltes, neues Dateisystem für Linux mit fortschrittlichen Funktionen, die derzeit von keinem existierenden Linux-Dateisystem abgedeckt werden. Der Kontext dieser Arbeit liegt in der Digitalen Forensik und das Ziel der Arbeit ist die Entwicklung neuartiger forensischer Methoden um Daten aus Dateisystemen zu extrahieren. Diese Arbeit definiert sechs verschiedene Artefakte die aus den Dateisystemdaten extrahiert werden sollen. Diese Artefakte sind unter den wichtigsten Daten, an denen ein forensicher Ermittler während einer Analyse interessiert ist. Diese Artefakte beinhalten unter anderem die Metadaten von Dateien und den Inhalt gelöschter Dateien. Die Hauptfrage dieser Arbeit ist inwiefern diese Artefakte aus den Dateisystemdaten extrahiert werden können und warum. Um diese Frage zu beantworden, wird zunächst eine eingehende Literaturrecherche und reverse-engineering des Btrfs Dateisystemformats durchgeführt. Anschließend werden die gefundenen Datenstrukturen analysiert um forensische Methoden spezifizieren zu können, die die oben genannten Artefakte extrahieren können. Diese forensischen Methoden werden dann im de-facto wichtigsten forensischen Open Source Toolkit „The Sleuthkit“ implementiert. Dies ermöglicht sowohl die Evaluierung der forensischen Methoden als auch die forensische Analyse von Btrfs Dateisystemen. Die Ergebnisse zeigen, dass von den sechs Artefakten fünf auf Grund von explizit vorhandenen Daten gefunden werden können, was zu einem vollständigen Ergebnis führt. Das letzte Artefakt, die Inhalte von gelöschten Dateien, wird auf Basis von Heuristiken extrahiert, da die Daten unvollständig sind. Die Ergebnisse zeigen aber, dass das in der Praxis trotzdem zu guten Resultaten führt.

Diplomarbeitsposter Kirchner Martin

Martin Kirchner

Masterstudium Software Engineering & Internet Computing
Abstract:

Die Auslagerung von Daten in die Cloud ermöglicht signifikante Einsparungen von Kosten und nahezu unlimitierte Rechenleistung. Aus diesem Grund ist das Auslagern von Daten und für viele kleine und mittlere Unternehmen sehr verlockend, auch wenn es Ängste bezüglich der Speicherung von vertraulichen Informationen außerhalb des eigenen Unternehmens gibt. Die größten Herausforderungen bei der Migration in die Cloud sind die mangelnde Kontrolle über die Daten, ein sogenannter “Vendor lock-in”, bei dem man sich potenziell einem einzelnen Anbieter aufgrund fehlender Standards ausliefert, die Lokalität der Daten, rechtliche Problemzonen, Daten- und Serviceverfügbarkeit sowie “böswillige Insider bzw. Outsider”, welche entweder in das System von außen einbrechen können oder direkt bei den Anbieter arbeiten. Das Ziel dieser Arbeit ist die Anwendbarkeit von Secret Sharing Kryptographie in dieser Cloud Umgebung zu untersuchen, um die oben beschriebenen Herausforderungen lösen zu können. Dafür wurden Modelle entwickelt, welche eine Verteilung der von Secret Sharing generierten “Shares” auf verschiende Cloud Anbieter zu verteilen, sodass ein Anbieter alleine oder mehrere Anbieter zusammen die Originaldatei nicht rekonstruieren können. Dabei ermöglicht die Angabe von Vertrauenswerten einzelner Anbieter eine Präferierung verschiedener Anbieter gegenüber anderen. In der Folge wird das Konzept der “Collaboration Sets” eingeführt, um Zusammenhänge zwischen mehreren Anbietern abbilden zu können, wie etwa Lokalität, um zu verhindern, dass zu viele Anbieter aus einem Land verwendet werden. Diese Modelle wurden in der Folge in einer “Proof-of-concept”-Implementierung abgebildet, um deren Einsatzfähigkeit in praxisnahen Szenarien evaluieren zu können bezüglich der Leistung und Funktionalität.

Diplomarbeitsposter Medimorec Apolonia

Apolonia Medimorec

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Der Begriff Cloud Computing prägt bereits seit einigen Jahren das Bild der Informationstechnologien mit der neuen Methode, Dienste und IT-Infrastrukturen über das Internet zur Verfügung zu stellen. Statt lokalen Ressourcen zu verwenden, die teuer gemietet oder gekauft, aber in vielen Fällen nur gelegentlich genutzt werden, ermöglich es Cloud Computing schnell und kostengünstig Dienste und IT-Ressourcen aus dem Netz zu beziehen. Die benötigten IT-Leistungen werden nur nach Bedarf verwendet und abhängig vom Verbrauch abgerechnet, was zu einer laufenden Verbesserung der Kostenstruktur durch Kostensenkung führen soll. Der Fokus dieser Arbeit liegt auf dem wirtschaftlichen Aspekten des Cloud Computing. Es wird untersucht, welche Kostenfaktoren bei einer klassischen IT-Infrastruktur - also beim Betreiben eines eigenen Rechnerzentrums mit eigenen Servern und eigenem Betreuungspersonal – anfallen. Das sind zum einen die direkten Investitionskosten, wie Hardware- und Softwarekosten, Kosten für Servicezeiten und Dienstleistungen sowie Energiekosten, zum andern die indirekten Kosten wie Administration- und Supportkosten, die durch den Betrieb der Services verursacht werden. Im Gegensatz dazu wird untersucht, welche Kosten bei Cloud Computing anfallen. Dazu gehören unteranderem die direkt messbaren Kosten wie monatliche Mietgebühren. Zur Analyse wird ein Modell für die Berechnung der Kosten entwickelt. Das Modell wird anhand eines Use Case im österreichischen Öffentlichen Bereich validiert. Dabei werden auch verantwortliche Personen interviewt. Diese Analyse soll als eine Entscheidungsgrundlage dienen und ein klares Bild über das Investment und mögliche Einsparungspotentiale anbieten. Sie soll aufzeigen, wie hoch das mögliche Kostenreduktionspotenzial ist bzw. welche Einsparmöglichkeiten sich beim Energieverbrauch in dem öffentlichen Sektor ergeben können, und die Frage beantworten, ob ein Umstieg auf Cloud wirtschaftlich Sinn macht.

Diplomarbeitsposter Mezensky Harald

Harald Mezensky

Masterstudium Business Informatics
Abstract:

Digital Preservation macht es sich zur Aufgabe Strategien zu entwickeln, um die dauerhafte Nutzbarkeit digitaler Daten über sich ändernde Umgebungen hinweg gewährleisten zu können. Eine dieser Strategien ist die Migration potentiell gefährdeter Dateien in aktuellere Formate. Um sicherzustellen, dass der Inhalt migrierter Dateien vor und nach der Migration annähernd gleich ist, setzt Digital Preservation Characterisation Tools ein, welche die Eigenschaften von Dateien analysieren um Vergleiche zu ermöglichen. Für qualitätssichernde Maßnahmen an diesen Tools sind aussagekräftige Benchmark Daten notwendig, welche auf einer bekannten Grundwahrheit (Ground Truth) basieren müssen, um das Ergebnis von Testläufen verifizieren zu können. Aktuell fehlt es jedoch an solchen Daten, weswegen die systematische Entwicklung von Characterisation Tools nicht durchgeführt werden kann. Diese Arbeit beinhaltet einen modellgetriebenen Lösungsansatz, der die Kluft zwischen Digital Preservation und Qualitätssicherung überbrücken soll. Er basiert auf der Idee, dass digitale Objekte in Form eines Modells repräsentiert werden können. Ein plattformunabhängiges Modell wird als Input für eine Modelltransformation verwendet, bei der mehrere Modelle generiert werden, indem die Eigenschaften eines Quellmodells unter Zuhilfenahme von statistischen Daten diversifiziert werden. Dadurch wird größere Varianz in die Grundwahrheit gebracht um Daten mit möglichst realitätsnahen Eigenschaften zu erzeugen. Jedes diversifizierte Modell wird wiederum zu einem plattformspezifischen Modell umgewandelt, wodurch Benchmark Daten für unterschiedliche Plattformen in nur einem Lauf hergestellt werden können. Mittels Codegenerierung werden schließlich Benchmark Daten inklusive dazugehöriger Ground Truth erzeugt. Die Arbeit beinhaltet neber der Beschreibung dieses Konzepts auch die Dokumentation einer Referenz Implementierung und die Analyse der durch verschiedene Experimente gewonnenen Resultate.

Diplomarbeitsposter Resutikova Martina

Martina Resutikova

Masterstudium Business Informatics
Abstract:

Data warehousing is successfully creating a layer between classical operational databases and reporting applications. In the financial industry, data warehousing architectures are crucial for creating market value and supporting business activities. Business data modeling, the initial phase of a DWH project, establishes a common language among stakeholders such as departments of a bank. However, we find that methodologies followed in the financial service industry today are insufficient in practice. In addition, these methodologies do not offer solutions for typical issues that occur during development of a data warehouse inside a bank. This leads us to the following research question: Can a structured methology for the early development phase of financial DWH projects help prevent failure of these projects? The answer to this question is presented as a business data modeling methodology that establishes a basis for consistent data and clear product scope definitions. Furthermore, it enhances top management prioritization and decreases interpretation ambiguities caused by insufficient specifications and thereby helps to close the Business-IT gap.

Diplomarbeitsposter Sagmeister Martin

Martin Sagmeister

Masterstudium Software Engineering & Internet Computing
Abstract:

Mashups gelten als moderne technologische Lösungen in typischen Web 2.0 Anwendungen und auch in Geschäftsanwendungen heutzutage. Auch Geodaten und Daten mit räumlichem Bezug (z.B. Adressen) sind heutzutage weit verbreitet. Dies führt zu der Idee ein Mashupsystem zu entwerfen welches mit räumlichen Daten umgehen kann und auf diesen operiert. Typische Geodaten welche Anwendung finden sind GeoRSS (als Erweiterung von RSS und Atom) und die Keyhole Markup Language (KML). Ein räumliches Mashupsystem, so wie es in dieser Diplomarbeit beschrieben wird, operiert auf solchen räumlichen Daten und auf öffentlich zugänglichen räumlichen Diensten (Webservices). Die Bausteine eines Mashups werden Widgets genannt. Widgets werden eingesetzt, um typische Aufgaben eines Mashups, wie lesen, schreiben, konvertieren, transformieren und verändern von Daten zu realisieren. Widgets welche auf räumlichen Daten operieren werden in dieser Arbeit auch räumliche Widgets genannt. Die Diplomarbeit definiert drei unterschiedliche Beispielmashups, welche die Funktionalität der identifizierten Widgets zeigen sollen. Diese Beispielmashups zeigen typische Anwendungsfälle für Mashups wie Verschmelzung von Geodaten, Erzeugung von GeoRSS aus nicht räumlichen Feeds oder die Suche von Geodaten in Metadatenkatalogen. Der Prototyp eines räumlichen Mashupsystems basiert auf der Enterprise Mashup Markup Language (EMML). EMML findet als Basisframework, Referenzimplementierung und Definitionssprache für Mashups Anwendung. Auf Basis von EMML können Widgets durch Verwendung von EMML-Funktionalität, Verwendung von XSLT für Datenkonvertierungen und durch Verwendung von freien und eigenen Services umgesetzt werden. Ein Prototyp zeigt, dass die identifizierten räumlichen Widgets verwendet werden können um die Beispielmashups zu implementieren.

Diplomarbeitsposter Sauerwein Clemens

Clemens Sauerwein

Masterstudium Software Engineering & Internet Computing
Abstract:

Digital Preservation is the process of keeping digital information accessible and usable in an authentic manner for a long term. Preservation activities are used to guarantee long term and error free accessibility of data regardless of technological change. Different approaches based on continuous transformation of data are used to perform these preservation activities. Several tools exist for the execution of these activities. For the evaluation of these tools benchmark data is necessary. Due to the fact that real world data does not hold any annotations the evaluation has to be done manually. Therefore the scalability of the evaluations is limited. There is a profound lack of annotated benchmark data in Digital Preservation. For this reason the evaluation and improvement of digital preservation approaches and tools is hindered. This thesis introduces a model driven benchmark data generation framework with the purpose of automatic generation of benchmark data with corresponding ground truth. The system uses the Model Driven Architecture as underlying concept which facilitates the usage of well-known model driven engineering tools and frameworks. The model driven benchmark data generation framework is evaluated by generating benchmark data for testing preservation action tools for Web Pages. They are widely used and complex. Therefore we define a Platform Independent and a Platform Specific Model for representing webpages and demonstrate how benchmark data can be created with these.

Diplomarbeitsposter Schindler Stefan

Stefan Schindler

Masterstudium Software Engineering & Internet Computing
Abstract:

In the last years the amount of information, that is published and shared in the world wide web, increased rapidly. Long-term accessibility of web data is not possible, so it is necessary to archive these data for later use and prevent this loss of information. As the world wide web grew, many new file formats and versions have been developed, that found their way into the web usage. This leads to the risk, that data is available in older formats, that are no more readable and interpretable by newer versions of a program. This software obsolescence represents a big issue for digital objects. Another information, that is important developers and users of these created formats, is the time it takes for a file format to disappear or to be replaced by its successor. From these exigences, the following questions can be derived, that can be seen as typical for developers as well as users: (1) To what extend has a newly invented file format been accepted? (2) How long did it take for a specific version to replace its predecessor? (3) When will a specific version or a certain file format become obsolete? This thesis creates a framework for the identification and analysis from files loaded from the web, and also has the ability to compute extensive statistics of the development of particular versions of certain file formats over a longer period. Different tools are used and created, that also allow future adaptation and the adding of new functionalities to the framework. An extra in-depth analysis of HyperText Markup Language files is performed and specific characteristics of these files are illustrated. The produced framework and the generated statistics are used to try giving an insight in the evolution of the world wide web, and to highlight patterns and trends that can be used to support digital preservation and to discover potential preservation risks.

Diplomarbeitsposter Schmit Alice

Alice Schmit

Unterrichtsfach Informatik/Informatikmanagement
Abstract:

Diese Diplomarbeit beschäftigt sich mit der Einbindung von Informations- und Kommunikationstechnologien in den Physikunterricht der Sekundarstufe I. Dadurch soll sich das Verständnis der Schülerinnen und Schüler erhöhen. Grafiken, Animationen, Simulationen, Spiele und Erfahrungen am eigenen Körper sollen den konventionellen Unterricht auflockern und verbessern. Dabei sollen klassische Versuche nicht ersetzt, sondern durch IKT-Einsatz unterstützt werden. Diese (interaktiven) Materialien erleichtern das Verständnis auf der mikroskopischen Ebene, wodurch Vorgänge besser verstanden und erfasst werden können. In dieser Arbeit finden sich verschiedene selbsterarbeitete Unterrichtsszenarien, in denen IKT eingesetzt werden. Außerdem werden die Vor- und Nachteile der Technologien aufgelistet sowie eine Anleitung für Lehrer/innen, um eigene Szenarien zu erstellen. Konkrete Literatur zum Einsatz von Informations- und Kommunikationstechnologien im Physikunterricht gibt es wenig, daher musste ich auf empirisches Wissen zurückgreifen. Mittels Expertengespräche wurde die momentane Situation erhoben und Ideen für Unterrichtskonzepte wurden gesammelt. Das Resultat sind verschiedene Unterrichtsszenarien, die in den Physikstunden der Sekundarstufe I eingesetzt werden können. Dabei richtet sich die Auswahl der Themengebiete nach dem Lehrplan der Physik für die Sekundarstufe I.

Diplomarbeitsposter Ulm Frieder

Frieder Ulm

Masterstudium Software Engineering & Internet Computing
Abstract:

Ein Kalender ist ein System dass der Organisation von Zeitperioden in kohärente Gruppierungen dient. Dies macht Zeitintervalle und Zeitpunkte besser verständlich und verwendbar für soziale, religiöse, kommerzielle und administrative Zwecke. Kalender sind ein allgegenwärtiger Aspekt des modernen Lebens, und sind insbesondere im Bereich der Informatik wichtig. Obwohl gemeinsame Elemente in allen Kalendersystemen existieren gibt es zahlreiche strukturelle Differenzen. Aufgrund des komplexen Aufbaus von Kalendersystemen und der hohen Anzahl von sowohl historischen als auch noch verwendeten Systemen ist die Modellierung und gemeinsame Verwendung von mehreren Systemen alles andere als trivial. In dieser Arbeit wird eine eine Einleitung zu Kalendersystemen bereitgestellt, in der elaboriert wird wie diese klassifiziert werden können, wie ihre groben Strukturen aussehen, und wie sie in generellen Bausteinen modelliert werden können. Weiters wird eine Anzahl von weitverbreiteten Kalendersystemen vorgestellt, wobei sowohl die Ähnlichkeiten als auch die Unterschiede hervorgehoben werden. Ausserdem werden Implementierungen von Kalendersystemen in Java ausgewertet und ihre Vorund Nachteile verglichen. Ein weiterer Bestandteil der Arbeit ist die Implementierung von Zeitgranularitätskonzepten in Java, und die entsprechende Dokumentation.

Diplomarbeitsposter Waltersdorfer Florian

Florian Waltersdorfer

Masterstudium Software Engineering & Internet Computing
Abstract:

The development of large automation systems requires the collaboration of engineers from several disciplines. These groups working together have common concepts that are represented in different ways in their respective tools. These tools are hardly interoperable and their data models are often highly heterogeneous, causing “semantic gaps” between the groups. This refers to the fact that exchanging data needs to be done by hand, as parts of the common data model are simply missing in some tools. These missing parts have to be added either via custom fields in a tool or after the data exchange, by editing export/import files “outside” the tools. Designing an integration solution to ease these development processes requires developers to start by re-modeling the common data models so that an efficient data integration can take place. Said developers and application integration power users are the main stake-holders, as they usually do not have modeling guidelines and neither designs, nor an efficient way to evaluate a given solution. To aid this development process, a guideline, that results in similar (possibly equal) data model designs even if done by different developers, is needed. In addition, a method that allows for identification and correction of common errors before implementation, after the design is desired. By iterative prototyping, candidates for modeling styles are tested, while inspection-based techniques and the Architecture Tradeoff Analysis Method (ATAM) will be used to evaluate one solution candidate. Also, the results will be used derive the design guideline to aid the initial creation and to handle change requests against such a model during its life-cycle. Criteria for a good solution include: • ease-of-use method to design and validate data integration models • robustness against later updates of the data model • high rate of detection of common design errors and invalid specifications

Arbeitsbereich Interactive Media Systems

Diplomarbeitsposter Hirsch Hubert

Hubert Hirsch

Masterstudium Software Engineering & Internet Computing
Abstract:

This study deals with the visualization and modeling of protocol-based treatment plans that are composed from hierarchically structured skeletal-plans, and defined in the Asbru language. For this it introduces PlanStrips, a tree-map based visualization, designed for ease of use and simplicity. To test the PlanStrips visualization a prototype of the same name was developed. PlanStrips main characteristics are a dense presentation of treatment plans and qualitative presentation of plan execution order. The prototype also displays other guideline features such as conditions. After an introduction and short description of the projects background, the thesis takes a look at well-known visualization approaches for hierarchically structured data, as well as existing tools for Asbru guideline visualization and editing. In a discussion aspects/features of these tools are juxtaposed with PlanStrips. A user study was conducted to evaluate the PlanStrips prototype and verify its claims of simplicity and easy of use. The evaluation included three physicians, two domain experts, and a software engineer. The participants’ knowledge in the fields of medical guidelines, guideline definition languages and general computer knowledge varied from novice to expert level. The results of the evaluation are presented and discussed. Both a qualitative and, to a lesser degree, quantitative evaluation of the findings are given.

Diplomarbeitsposter Ivancsics Manuel

Manuel Ivancsics

Masterstudium Medieninformatik
Abstract:

Die zunehmende Beliebtheit von 3D-Technologien und die kommerzielle Verfügbarkeit von stereoskopischen Bildschirmen geht mit einem wachsenden Bedarf an passenden 3D-Inhalten einher. Die effiziente Generierung solcher Inhalte stellt ein aktuelles Problem dar. Eine Lösung dieses Problems ist die Konvertierung von bestehenden 2D-Inhalten zu 3D. Die für die Konvertierung benötigte Zeit ist dabei ein wichtiger Faktor. Diese Diplomarbeit präsentiert einen optimierten, semi-automatischen Algorithmus zur effizienten 2D-zu-3D-Konvertierung von Videos, der auf einem bereits vorhandenen Konvertierungs-Algorithmus beruht. BenutzerInnen stellen dabei im Vorfeld grobe Tiefeninformationen in Form von Scribbles zur Verfügung, welche anschließend automatisch mithilfe von Segmentierungs- und Filterungs-Techniken auf das gesamte Video propagiert werden. Dadurch entsteht eine Tiefenkarte des Videos. Das Ziel dieser Diplomarbeit liegt in der Reduktion der Laufzeit des existierenden Konvertierungs-Algorithmus, bei gleichzeitiger Beibehaltung der Qualität der Ergebnisse. Das wurde durch die Verlagerung von besonders rechenintensiven Teilen des Algorithmus auf die Grafikkarte (GPU) erreicht, wo eine parallele Abarbeitung stattfindet. Das beinhaltet auch die Optimierung der zu Grunde liegenden Segmentierungs- und Filterungs-Techniken. Die limitierte Kapazität des Grafikkartenspeichers erschwert die parallele Bearbeitung von großen Datenmengen wie Videos. Es wird ein Lösungsvorschlag für dieses Problem präsentiert, welcher darauf basiert, längere Videos in Subsequenzen aufzuteilen und nacheinander auf der Grafikkarte zu verarbeiten.

Diplomarbeitsposter Nezveda Matej

Matej Nezveda

Masterstudium Medieninformatik
Abstract:

Depth-Image-Based Rendering (DIBR) is a key technology for the processing and distribution of three-dimensional (3D) content. Given a two-dimensional image from a scene that was taken from a specific viewpoint and a corresponding depth or stereo-derived disparity map, DIBR enables the generation of images (i.e., novel views) that capture synthesized viewpoints of the scene. The ability of DIBR to synthesize novel views enables the generation of enhanced 3D content (i.e., additional views) for stereoscopic and multi-view displays and gives control over the 3D depth impression (e.g., adjusting the depth range). In DIBR the quality of an underlying depth map contributes to the quality of the novel views generated from it. For example, mismatches, misalignments of depth and color edges or over-smoothed depth edges can lead to visible artifacts in the novel views. We conduct a user study to investigate the effects of depth map post-processing on the perceived quality of 3D content that contains a novel view. A test environment for subjective quality assessment of the visual quality is introduced. In our study we find that filters based on local smoothing, i.e., the bilateral filter and the guided image filter, achieve significantly higher quality scores than filters based on local statistics or the unprocessed counterparts. In addition, our results indicate that the depth range within a scene has a strong impact on the visual quality of DIBR-based novel view generation and the effectiveness of depth post-processing. Furthermore, the obtained subjective results are compared against ten objective quality metrics. We observe only a weak correlation between subjective and objective quality results, which confirms the necessity of user studies in this field.

Diplomarbeitsposter Rittler Thomas

Thomas Rittler

Masterstudium Visual Computing
Abstract:

“Depth Image Based Rendering” ist zu einem wichtigen Werkzeug im Bereich der sogenannten “Free-Viewpoint”-Videos und des dreidimensionalen Fernsehens geworden, da dieses Verfahren, ausgehend von einem einzelnen Blickwinkel und der dazugehörigen Tiefenkarte, die Erzeugung virtueller Ansichten einer Szene ermöglicht. Eine häufig auftretende Problematik hierbei stellen jedoch Aufdeckungen dar, also jene Bereiche, die in den neu erzeugten Perspektiven freigelegt werden. Die vorliegende Diplomarbeit befasst sich mit dem Auffüllen dieser in stereoskopischen Bildern und dreidimensionalen Videos entstandenen Lücken. Um adäquate Bildinformation in den freigelegten Bereichen der neuen Ansichten zu generieren, wird eine texturbasierte Inpainting-Methode präsentiert, unter der Verwendung des randomisierten Korrespondenzalgorithmus PatchMatch. Da zeitlich inkonsistentes Inpainting von aufeinanderfolgenden Bildern zu störenden Flacker-Artefakten führt, wird in dem vorgestellten Bildvervollständigungsansatz temporale Information eingesetzt, wobei sowohl Patchkorrespondenzen, als auch Farbinformationen in nachfolgende Bilder propagiert werden. Des Weiteren wird die im Bereich der Stereoskopie vorhandene Tiefeninformationen einbezogen, um die Einmengung von Farbanteilen des Vordergrundes in die Inpainting-Ergebnisse zu unterdrücken. Um zusätzlich den Einfluss von Artefakten aufgrund von Ungenauigkeiten in den Tiefenkarten zu reduzieren, werden verschiedene Verbesserungen, wie unilaterale Dilatation, adpative Patchgrößen und ein Matching-Schwellwert, vorgestellt. Eine umfangreiche Evaluierung mittels objektiver Qualitätsmetriken und einer subjektiven Benutzerstudie zeigt, dass die mit Hilfe der räumlichen und zeitlichen Erweiterungen erhaltenen Ergebnisse des vorgestellten Bild- und Videovervollständigunsansatzes jene bestehender Inpainting-Werkzeuge, wie das im professionellen Bildbearbeitungsprogramm Adobe Photoshop vorhandene “Inhaltssensitive Füllen”, an Qualität übertreffen.

Arbeitsbereich Business Informatics

Diplomarbeitsposter Bill Robert

Robert Bill

Masterstudium Software Engineering & Internet Computing
Abstract:

Das Ziel dieser Diplomarbeit ist, die Welten von Modellprüfung und Softwaremodellierung näher zu bringen. Modellprüfungstechniken werden zwar erfolgreich in der Hardware-, nicht aber in der Softwaremodellierung eingesetzt. Dies könnte in den zu unterschiedlichen Begrifflichkeiten in beiden Bereichen liegen. Daher wird in dieser Arbeit versucht, Modellierungs- und Modellprüfungskonzepte zu verbinden. Zunächst werden modellgetriebene Softwareentwicklung (MDE) und Modellprüfung beschrieben. Schließlich werden existierende Ansätze in diesem Bereich verglichen, die meist vorschlagen, die Object Constraint Language (OCL) um temporale Aspekte zu erweitern. Denn OCL eignet sich zwar gut für die Abfrage von Eigenschaften aus statischen Modellen, aber kaum für sich im Zeitverlauf verändernde Modelle. Kein realisierter Ansatz bietet eine für das Debuggen hilfreiche Ausgabe. In dieser Diplomarbeit werden (i) eine OCL-Erweiterung um zeitliche Aspekte, die auf der Computational Tree Logic (CTL) basiert, und (ii) eine OCL-Erweiterung um Pfadselektoren zur Auswahl interessanter Systemkonfigurationen, formal spezifiziert und implementiert. Wir beschreiben Systeme durch Zustandsräume mit Zuständen aus Ecore-Modellen und Zustandsübergängen mit Abbildungen zwischen Modellelementen eines Zustands und dessen Nachfolgezustands. Systemverhalten wird derzeit durch Anfangsmodell und Graphtransformationen in Henshin spezifiziert. Um das zu einem Zustand führende Systemverhalten verständlich zu machen, wurde ein Werkzeug mit Webschnittstelle entwickelt. Ein Benchmark überprüft die Implementierung hinsichtlich Skalierbarkeit im Bezug auf Eingabemodellgröße und Ausdruckskomplexität. Eine qualitative Benutzungsstudie überprüft die Benutzbarkeit der CTL-Erweiterung und der Webschnittstelle. Die Ergebnisse zeigen, dass die Spracherweiterung und das interaktives Werkzeug einen vielversprechenden Schritt in Richtung Integration von Modellprüfung in den MDE-Lebenszyklus darstellt.

Diplomarbeitsposter Bohn Alexander

Alexander Bohn

Masterstudium Business Informatics
Abstract:

UML ist eine standardisierte Modellierungssprache, die in vielen Bereichen Anwendung findet. Viele Unternehmen benutzen UML für ihre Modellierungstätigkeiten und man darf annehmen, dass zahlreiche UML Modelle in unterschiedlichsten Domänen existieren. Da UML eine Sprache ist, die für zahlreiche Einsatzgebiete verwendet wird, stellt sich die Frage, wie UML in der Praxis Verwendung findet. Derzeit gibt es nur wenige empirische Studien über die praktische Verwendung von UML. Keine dieser Studien hat sich dabei mit echten Modellen aus der Praxis beschäftigt. Diese Arbeit widmet sich der Forschungsfrage, wie UML in der Praxis Verwendung findet, und versucht diese durch die Analyse von Modellen aus der Praxis zu beantworten. Für die Beantwortung dieser Forschungsfrage wurden folgende Detailfragen definiert: Welche UML Spracheinheiten werden verwendet? Welche UML Sprachkonzepte werden verwendet? Welche UML Diagramme werden verwendet? Welche Beziehungen werden zwischen UML Sprachkonzepten verschiedener UML Spracheinheiten verwendet? Welche UML Profile werden verwendet um zusätzliche Informationen in UML Modellen zu erfassen? Um diese Fragen zu beantworten wurden, 92 UML Modelle, die öffentlich im Web verfügbar sind quantitativ analysiert. Die Ergebnisse gaben einen Einblick in die Verwendung von UML. Insbesondere konnte eruiert werden, welche der in der Analyse beachteten UML Sprachkonzepte sowie UML Diagramme häufig bzw. weniger häufig verwendet wurden. Des Weiteren konnte aus den Resultaten festgestellt werden, zwischen welchen UML Spracheinheiten mehr oder weniger starke Beziehungen modelliert wurden. UML Profile wurden zwar durchgehend und relativ häufig verwendet, jedoch wurden nur wenige verschiedene UML Profile verwendet. Weitere Evaluierungen betreffend des UML Sprachgebrauchs sind sicher nötig, um fundiertere Kenntnisse über die Verwendung von UML in der Praxis zu erhalten.

Diplomarbeitsposter Gürth Thomas

Thomas Gürth

Masterstudium Business Informatics
Abstract:

ERP Systeme umfassen die Verwaltung aller Informationen über Ressourcen, die von Unternehmen zur Durchführung der Geschäftstätigkeiten benötigt werden. Um eine problemlose Nutzung von ERP Systemen sicherzustellen ist es von großer Bedeutung, dass diese Prozesse sowohl im User Interface, als auch in der zugrundeliegenden Datenstruktur abgebildet werden. Da ERP Systeme heutzutage im Normalfall als Standardlösung implementiert werden, die einen vordefinierten Funktionsumfang bietet und zusätzliche Anpassungen benötigt, ist das nicht immer der Fall. Derartige Anpassungen, die auch unter dem Begriff Customizing bekannt sind, sind nicht trivial und können hohe Folgekosten nach sich ziehen. Abgesehen davon kann Software, die im Moment funktioniert, oft nur sehr schwer an sich ändernde Marktanforderungen angepasst werden. Im REAlist Projekt wird ein modellgetriebener Ansatz verfolgt um die zuvor genannten Nachteile einzudämmen. Geschäftsanforderungen werden als Geschäftsmodelle dargestellt und zur automatischen Erzeugung von Benutzermasken so wie der Funktionen herangezogen. Zur Beschreibung der Geschäftsmodelle kommt die Resource-Event-Agent (REA) Ontologie zum Einsatz, die die Entwicklung von Softwareanwendungen unterstützen kann und ihre Wurzeln im Feld der Datenmodellierung hat. Die Datenbank des REAlist Projektes (REA DB) basiert auf REA. Dadurch ist es möglich REA Geschäftsmodelle (und damit jede Form von Geschäftsanforderungen) in der Datenbank abzuspeichern ohne deren Struktur abändern zu müssen. Um eine möglichst einfache Erstellung der REA Modelle sicherzustellen, wird eine grafische domänenspezifische Sprache (REA-DSL) verwendet. Im Zuge dieser Arbeit soll ein Mapping der REA-DSL Geschäftsmodelle auf die REA DB definiert werden, das es ermöglicht die Geschäftslogik in der Datenbank abzulegen. Weiters soll, basierend auf den gespeicherten Modellen, eine automatische Generierung von Eingabemasken erfolgen, um den großen Aufwand beim Customizing zu verringern.

Diplomarbeitsposter Neubauer Patrick

Patrick Neubauer

Masterstudium Business Informatics
Abstract:

With the introduction of OMG's Foundational UML (fUML) standard, completely executable systems can be built and executed with UML. However, an important aspect that increases the potential of executable models is the ability to re-use existing software components since that reportedly increases the overall quality and productivity of the software development process. This thesis identified that the fUML standard does not offer a procedure to use software libraries. The standard foresees its extendability through the Foundational Model Library. Yet, doing so requires implementing model libraries that basically mimic the functionality provided by currently existing software libraries. This approach imposes a significant drawback. It requires a huge amount of dedicated joint effort to build a set of libraries having similar functional coverage and sophistication as the existing set of software libraries. The research question of this thesis is as follows. Is the fUML virtual machine extendable, such that it allows the execution of models referencing external software libraries? Within this work, an approach has been elaborated that enables to use external libraries in fUML models. The applicability of this approach has been shown by implementing a prototype that is able to integrate Java libraries with the fUML virtual machine such that the modeler can benefit from the advanced and complex functionalities provided by those libraries. While conducting several case studies, experiences have been gained that led to further enhancements of the prototype and to the following conclusion. The fUML virtual machine can be extended, such that it allows the execution of models referencing external libraries. Nevertheless, to broaden the applicability of the implemented prototype, and therefore increase the scope of applicable modeling scenarios, an in-depth investigation on common library use cases and their following implementation is recommended.

Arbeitsbereich E-Commerce

Diplomarbeitsposter Fischl Alexander

Alexander Fischl

Masterstudium Business Informatics
Abstract:

With the steady growth of the mobile apps ecosystem, a vast number of IT startups have been founded to create innovative services. Those startups usually face manifold strategic questions concerning the app conceptualisation and development that often cannot be answered without data from the market. This work discusses critical aspects related to the lifecycle and adoption of mobile applications (apps), and obtains quantitative data concerning these aspects directly from the Austrian target market. A non-representative explorative online survey was conducted among 278 smartphone owners, exploring facts that range beyond proprietary high-level market statistics. Apart from questions on the users’ smartphone features use, the operating system choice, and app buying behaviour, several topics of high relevance for app developers are addressed, such as app installation barriers, the users’ app engagement, social networking attitude, privacy resentments, and security awareness. This broad picture is explored using descriptive and inferential statistics, testing for relationships between those attributes, and for significant differences between user segments, and the two major ecosystems, iOS and Android. The results confirm the gap between the Android and iOS platforms regarding their monetisation potential. Further, they suggest, that common assumptions on the users’ privacy awareness need to be questioned. As a by-product from exploring results concerning the integration of social networks, red flags indicating a considerable Facebook-weariness of users were encountered, showing a negative sentiment against Facebook, even from its active users.

Diplomarbeitsposter Hörhager Gernot

Gernot Hörhager

Masterstudium Business Informatics
Abstract:

Österreich profilierte einst im Bereich des e-Tourismus und konnte über längere Zeit eine führende Rolle sowohl akademischer als auch wissenschaftlicher Natur einnehmen. Aufgrund der hohen internationalen Konkurrenz musste Österreich seine Vorrangstellung in diesem Sektor abgeben. Diese starke Konkurrenz ist insofern spürbar, als dass sich der elektronische Buchungsmarkt auf wenige nicht-österreichische Buchungsplattformen beschränkt. Diese Plattformen haben daher eine exzellente Marktposition und besitzen über einen enormen Einfluss auf touristische Leistungsträger. Das Ziel dieser Diplomarbeit ist die Definition und Ausarbeitung strategischer Handlungsalternativen für die österreichische Tourismus Industrie, mit Berücksichtigung unterschiedlicher Sichtweisen der Tourismusorganisationen und Leistungsträger. Die Entwicklung der Alternativen basiert auf den Resultaten einer Status quo Analyse der e-Tourismus Industrie. Diese Analyse beinhaltet eine Webseitenanalyse von nationalen und internationalen Tourismusorganisationen und Interviews mit Vertreterinnen und Vertreten von österreichischen Tourismusorganisationen. Die Alternativen wurden mithilfe eines ”Advisory Board” rückgekoppelt und evaluiert. Die Ergebnisse der Status quo Analyse zeigen, dass die österreichischen Tourismusorganisationen sehr gute Funktionalitäten und Services anbieten. Jedoch ist eine mangelnde Abdeckung des ”Tourist Life Cycle” zu erkennen, da die heimischen Destinationen ihre Kunden beim Kaufabschluss auf externe Buchungsplattformen weiterleiten. Daher kommt es zu einem ökonomischen Verlust von Kunden und ihren Daten. Es entsteht eine paradoxe Spirale: Die Vertriebsausgaben der Anbieter für die Buchungsplattformen und Suchmaschinenmarketing erhöhen die Abhängigkeit von diesen. Die im Zuge dieser Arbeit durchgeführten Analysen führten zu folgenden Handlungsalternativen: ”Status quo beibehalten”, ”Datenharmonisierung”, ”Vergleichsplattform”, ”Buchungsplattform” und ”Offene Service Plattform”.

Diplomarbeitsposter Madtha Sonia Sheethal

Sonia Sheethal Madtha

Masterstudium Business Informatics
Abstract:

The United Nations Centre for Trade Facilitation and Electronic Business (UN/CEFACT) has introduced UN/CEFACT's Modeling Methodology (UMM) to close the semantic and context gap, on both the process and data level in B2B. During business transactions, business documents are exchanged between trading partners. UN/CEFACT recommends using UML Profile for Core Components (UPCC) for designing business documents for the collaboration process. This thesis covers all the aspects of UMM 2.0 and UPCC 3.0 specifications adopted by UN/CEFACT. It introduces a step-by-step modeling compendium that starts on a conceptual level and guides the modeler through the workflow of creating artifacts towards a UMM-compliant business collaboration model. Thereby, modeling techniques are suggested that help to deal with complex semantics and fasten the modeling process by reusing artifacts. Furthermore, this thesis introduces worksheets that support capturing domain knowledge from business experts. The artifacts created during the modeling process, are summarized after each milestone is reached. Finally, the modeling guide is accompanied by an example scenario that show by example how to model UMM and UPCC in an efficient way and to ensure the overall quality of the resulting business process model.

Diplomarbeitsposter Trümmel Matthias

Matthias Trümmel

Masterstudium Business Informatics
Abstract:

Die meisten etablierten Bezahlsysteme benötigen eine Internetverbindung um zu funktionieren. Im Ausland, wenn durch Roaming hohe Kosten entstehen würden, ist die Benutzung eines online Bezahlsystems oft mit zusätzlichen Kosten für den Datentransfer verbunden. Des Weiteren gibt es in einigen Gebieten keine hundertprozentige Netzabdeckung durch Mobilfunkanbieter. Wenn man nun aus den eben beschriebenen Gründen keine mobile Lösung, die eine Internetverbindung benötigt, verwenden kann, ist man momentan weiterhin auf die Verwendung von Bargeld angewiesen. Diese Arbeit analysiert deshalb bestehende und etablierte Bezahlsysteme in Österreich und in anderen Ländern. Dabei werden Vor- und Nachteile ausgearbeitet, sowie Schlüsse für ein neues Protokoll gezogen, welches das übertragen von Geld zwischen zwei Personen erlaubt. Außerdem wird ein Framework vorgestellt, welches auf bestehenden Kriterienkatalogen für digitale Bezahlsysteme basiert. Dieses wird verwendet um die Bezahlsysteme nach bestimmten Kriterien zu vergleichen und zu untersuchen. Das Ergebnis der Analyse wird verwendet um die oben beschriebenen Probleme mithilfe eines neuen Protokolls zu lösen. Es erlaubt Geld mit einem Mobiltelefon, welches NFC (Near Field Communication) unterstützt, zwischen zwei Personen zu tauschen. Zusätzlich ist es, da es keine Internetverbindung benötigt, an jedem beliebigen Ort einsetzbar. Am Ende wird ein Prototyp vorgestellt, der die Funktionalität des Protokolls demonstriert. Die Evaluierung des Protokolls und des Prototyps zeigt, dass das Protokoll auch in der Praxis funktionieren würde. Es wird aber auch gezeigt, dass es noch Probleme mit dem vorgestellten Protokoll gibt und wie diese zu lösen sind.

Andere Institute der Technischen Universität Wien

Institut für Wirtschaftsmathematik

Diplomarbeitsposter Aichberger Silke

Silke Aichberger

Masterstudium Business Informatics
Abstract:

In this thesis a new paradigm of economic reasoning, often labeled complexity economics, is discussed and applied in order to evaluate new possibilities for overcoming the shortcomings of the neoclassical „equilibrium-cum-optimization“ approach. Thus, motivated by the problematic situation of the European Un_ion in light of the current global crisis, the focus was on the exploration of the innovation-employment nexus through agent-based simulation. First, selected theoretical insights and concepts from complexity economics, together with political economy and evolutionary economics, were described and compared to the prevailing neoclassical perspective. In this sense, the most attention was given to innovation, productivity and growth theory. Finally, the crucial point was demonstrated that in contrast to neoclassical economics, here the economy is seen as a complex adaptive system with constant and uneven evolutionary change, in which history is always taken into account. This viewpoint, however, requires a fundamentally new methodological toolbox based on algorithmic methods rather than on analytical methods only. Consequently, it is argued that economic agent-based modeling combined with social network theory are the methodological crucial driving forces for fulfilling these aspirations. After the theoretical discourse, the specifications of a macroeconomic agent-based model of political economy, i.e. agents, markets, and their processes, are described and explained. Finally, the results of some simulation experiments regarding the innovation-employment nexus are documented and discussed. At the end, a critical discussion rounds out the work.

Diplomarbeitsposter Paukner Anton

Anton Paukner

Masterstudium Business Informatics
Abstract:

Input-output analysis is one important technique to identify endogenous impacts on economic variables like industry output, shifts in sectoral structures or employment caused by exogenous changes of final demand or other stimuli. The main effort of this thesis consists in (re-)defining a new and more appropriate classification of the information sector, also in respect to the thesis’ aims, creating a homogenous data basis of input-output tables in the first step, followed by conducting a time series analysis and as the final step measuring the economic impact of the information sector through Leontief-Inverse matrices and multiplier effects. Since the five largest EU economies are part of the investigation, a huge amount of data has to be processed, which clearly cannot be handled manually. Due to the context of the thesis, Austria and Portugal are being included too. Thus it is necessary to evaluate the steps for finding out where automation is possible and effective. Scientific research methods are oriented towards empirical analysis techniques, analytical transformations and condensing conclusions for projecting complex economic coherences in a descriptive modality. The updated definition of the information sector and precise industry classification, represent an essential basis for further steps. An important requirement for conducting the time series and impact analysis is constituted by a homogeneous and compatible data basis of national input-output tables. The goal is to construct technical coefficient matrices, (socio-) economic multipliers and linkages, which facilitate the description of the information sector’s economic impact. Later they are being translated into a set of decision variables to provide starting points for further analysis or enable researchers like economists for drawing conclusions about economic behaviour.

Department für Geodäsie und Geoinformation

Diplomarbeitsposter Sommer Markus

Markus Sommer

Masterstudium Business Informatics
Abstract:

Routenplaner sind heutzutage in vielen verschiedenen Geräten verfügbar. Es gibt eine Menge von Online-Tools, viele neue Autos haben ein Navigationssystem eingebaut und beinahe jedes Smartphone hat eine Navigationssoftware installiert. Im Gegensatz zur Personalisierung in anderen Bereichen des Internets liefern Routenplaner größtenteils noch immer jedem Benutzer die gleiche Route. Während diese Routen zwar technisch korrekt sind, berücksichtigen sie jedoch keine individuellen Präferenzen. Diese Diplomarbeit untersucht die Attribute von Stationen im Netz der öffentlichen Verkehrsmittel die für einen Menschen relevant sind bei der Entscheidung für eine Route. Die Attribute werden in einem ersten Schritt mit Hilfe einer Focus Group ermittelt. Danach werden sie als objektiv oder subjektiv kategorisiert. Ein besonderes Augenmerk gilt den subjektiven Attributen, da davon auszugehen ist, dass sie einen erheblichen (unterbewussten) Einfluss auf die Routenplanung haben. Abschließend wird die Bedeutung jedes Attributes durch einen Online-Fragebogen bewertet. In diesem Fragebogen werden die Teilnehmer mit verschiedenen Situationen konfrontiert so dass der Unterschied der Bedeutung der einzelnen Attribute festgestellt werden kann. Einige wichtige Ergebnisse sind die Bestätigung, dass Routen-Entscheidungen tatsächlich von vielen verschiedenen Faktoren beeinflusst werden. Eine große Anzahl an Attributen wurde festgestellt und von den Teilnehmern bewertet. Zwölf dieser Attribute wurden in mehr als 20% der Fälle als wichtig ausgewählt. Unter den gefundenen Attributen befinden sich einige die als subjektiv bezeichnet werden können und die daher nicht so einfach zu messen sind.

Diplomarbeitsposter Turdean Timea

Timea Turdean

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Um zu verstehen, warum wir uns in gewisser Weise in unterschiedlichen Umgebungen verhalten, ist die Notwendigkeit der Erfassung emotionaler Information über unsere Umwelt entstanden. Ganz viel Aufmerksamkeit wird dabei auf das Extrahieren emotionaler Informationen aus Social-Media-Daten verwendet. Methoden, die in früheren Forschungsarbeiten präsentiert wurden, die affektive Reaktionen auf die Umwelt aus Social-Media-Daten identifizieren, sind nicht spezifisch genug, um das Ziel der Reaktionen zu identifizieren oder sind gar nicht auf die Umwelt bezogen. Das kann zu falsch identifizierten zusätzlichen Daten in Benutzer-Beiträgen führen, die keine affektiven Reaktionen beinhalten. Im Zuge dieser Arbeit wurde eine Methodik entwickelt, die eine neue Perspektive verwendet um genauere affektive Antworten zu Orten in Wien mit Hilfe von Flickr Metadaten identifizieren. Satz-Strukturanalyse und Textklassifikation sind Bausteine der neuen Methodik. Wir definierten, dass das Ziel der affektiven Reaktion - in Textinformation - aus englischen Ort-Substantiven besteht. Mit Hilfe der Verarbeitung von natürlicher Sprache, insbesondere mit syntaktischer und semantischer Analyse, haben wir Adjektiv - Nomen - Strukturen identifiziert. Auf diese haben wir einen Maschinenlern-Klassifikator angewandt, um nur die Ort-Substantive zu sammeln. Die affektive Reaktion eines Ortes haben wir anhand der Valenz der Adjektive, die bei den Ort-Substantiven in einem Benutzerpost gefunden wurden, berechnet. Um die Adjektiv-Valenz erhalten zu können, haben wir eine neue affektive Wortliste erstellt. Unsere Ergebnisse zeigen, dass die neue Methode genauerer ist als früheren Forschungen, wenn sie auf Flickr Metadaten angewandt werden. Wir glauben, dass diese Lösung auch für verschiedene soziale Plattformen einsetzbar ist, um zur Verbesserung der Entscheidungsfindung für die Entwicklung von Smart Cities beizutragen.

Department für Raumplanung

Diplomarbeitsposter Löffler Michael

Michael Löffler

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Das derzeit in Österreich geltende Urheberrechtsgesetz trat in seiner Stammfassung bereits 1936 in Kraft. Die Wurzeln unseres Urheberrechts reichen zurück bis ins späte 19. Jahrhundert. Durch die fortschreitende 'Digitalisierung' der Gesellschaft, insbesondere aufgrund des Internets, gewinnt das fast 80 Jahre alte Urheberrecht dennoch täglich an Bedeutung und entwickelt sich zu einem zentralen Rechtsgebiet. Die Arbeit beginnt damit, die historische Entwicklung des österreichischen Urheberrechts vom Ende des 19. Jahrhunderts bis hin zur aktuellen Rechtslage zu analysieren. Anschließend wird aufgrund der Betrachtung internationaler Urheberrechtsnormen bzw. jüngster ausländischer Gesetzesvorschläge ein Ausblick über mögliche zukünftige Entwicklungen des Urheberrechts gegeben. Im zweiten Abschnitt werden gängige Internettechnologien betrachtet, die Herausforderungen für das Urheberrecht darstellen. Neben einer Betrachtung der technischen Funktionsweise der vorgestellten Technologien werden immer auch deren spezifische rechtliche Aspekte behandelt. Der dritte Abschnitt beschäftigt sich mit den rechtlichen Rahmenbedingungen des Erwerbs von Werken im Internet. Weiters wird auf die Verwertung von Urheberrechten im Internet eingegangen, wobei neben dem Vertrieb von Lizenzen auch auf die unter Umständen lukrative massenhafte Abmahnung von vermeintlichen Urheberrechtsverletzern eingegangen wird.

Institut für Managementwissenschaften

Diplomarbeitsposter Frimmel Nikolaus

Nikolaus Frimmel

Masterstudium Business Informatics
Abstract:

Building Information Modeling (BIM) ist eine objektorientierte, digitale Darstellung eines Gebäudes, die Interoperabilität und Datenaustausch in einem universellen Format ermöglicht. Building Information Modeling unterstützt und begleitet den kompletten Lebenszyklus eines Gebäudes, vom ersten Design bis zum schlussendlichen Abriss. Mit zunehmender Bedeutung von BIM für die Bauindustrie wird es immer wichtiger, dass Probleme mit dem Prozess und der verwandten Software identifiziert und anschließend gelöst werden. Diese Arbeit untersucht Daten eines Experiments, während dessen Studierende der Architektur, des Bauingenieurwesens und der Bauphysik in Gruppen ein Gebäude mittels Verwendung verschiedenster BIM Software und des BIM Ansatzes planten. Das Experiment wurde im Rahmen eines interdisziplinären Forschungsprojekts an der Technischen Universität Wien durchgeführt. Daten wurden mittels Fokusgruppeninterviews und Fragebögen zur Technology Acceptance und zur Teamperformance erhoben. Die Analyse der Daten zeigt, dass Probleme sowohl mit der interdisziplinären Zusammenarbeit durch Defizite in der Kommunikation im Team als auch mit der verwendeten Software bezüglich Interoperabilität zwischen den verschiedenen Lösungen auftreten. Nach der Analyse werden Verbesserungsvorschläge gleichermaßen für den Prozess und für die Software formuliert. Beteiligte an einem BIM-Projekt sollten offen und regelmäßig kommunizieren, während die SoftwareentwicklerInnen die Schnittstellen zwischen ihren Programmen verbessern müssen, um die Interoperabilität zu erhöhen und einen einwandfreien Import und Export von Modellen zu gewährleisten. Außerdem würde eine erhöhte Wertschätzung der beteiligten Berufsgruppen für die Arbeit und Bedürfnisse der jeweils anderen zu einer besseren Zusammenarbeit und dadurch zu höherer Produktivität beitragen. Die Berücksichtigung der erarbeiteten Vorschläge sollte dabei helfen Zeit und Kosten in zukünftigen Projekten, die die BIM Methode verwenden, zu sparen.

Diplomarbeitsposter Gauss Benjamin

Benjamin Gauss

Masterstudium Business Informatics
Abstract:

Building Information Modeling (BIM) ist eine objektorientierte, digitale Darstellung eines Gebäudes, die Interoperabilität und Datenaustausch in einem universellen Format ermöglicht. Building Information Modeling unterstützt und begleitet den kompletten Lebenszyklus eines Gebäudes, vom ersten Design bis zum schlussendlichen Abriss. Mit zunehmender Bedeutung von BIM für die Bauindustrie wird es immer wichtiger, dass Probleme mit dem Prozess und der verwandten Software identifiziert und anschließend gelöst werden. Diese Arbeit untersucht Daten eines Experiments, während dessen Studierende der Architektur, des Bauingenieurwesens und der Bauphysik in Gruppen ein Gebäude mittels Verwendung verschiedenster BIM Software und des BIM Ansatzes planten. Das Experiment wurde im Rahmen eines interdisziplinären Forschungsprojekts an der Technischen Universität Wien durchgeführt. Daten wurden mittels Fokusgruppeninterviews und Fragebögen zur Technology Acceptance und zur Teamperformance erhoben. Die Analyse der Daten zeigt, dass Probleme sowohl mit der interdisziplinären Zusammenarbeit durch Defizite in der Kommunikation im Team als auch mit der verwendeten Software bezüglich Interoperabilität zwischen den verschiedenen Lösungen auftreten. Nach der Analyse werden Verbesserungsvorschläge gleichermaßen für den Prozess und für die Software formuliert. Beteiligte an einem BIM-Projekt sollten offen und regelmäßig kommunizieren, während die SoftwareentwicklerInnen die Schnittstellen zwischen ihren Programmen verbessern müssen, um die Interoperabilität zu erhöhen und einen einwandfreien Import und Export von Modellen zu gewährleisten. Außerdem würde eine erhöhte Wertschätzung der beteiligten Berufsgruppen für die Arbeit und Bedürfnisse der jeweils anderen zu einer besseren Zusammenarbeit und dadurch zu höherer Produktivität beitragen. Die Berücksichtigung der erarbeiteten Vorschläge sollte dabei helfen Zeit und Kosten in zukünftigen Projekten, die die BIM Methode verwenden, zu sparen.

Diplomarbeitsposter Ghasemi Sanaz

Sanaz Ghasemi

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Das Bestreben von Unternehmen bzw. deren Managern sollte darin liegen, im Vergleich zu den Marktbegleitern stets die Nase vorn zu haben. Dies gilt für die gesamten kaufmännischen Aktivitäten und Beschlüsse innerhalb eines Unternehmens. Es gibt eine Reihe von Themenbereichen, die dabei eine große Rolle spielen. Wichtig sind vor allem die funktionalen Bereiche, wie der Einkauf, die Produktion und das Marketing. Für die Durchführung und die Umsetzung eines Prozesses sind mehrere Arbeitsbereiche eines Unternehmens notwendig. Für den gewünschten Erfolg ist das Prozessmanagement verantwortlich: es stellt Beobachtungen, Analysen und in weiterer Folge Optimierung an, die dann zur Entwicklung von Standardisierungen führen sollten. Das Absatz-Management kann für die Planung, Steuerung, Implementierung und für das Management von Kontaktprogrammen mit Kunden, Marketing und Vertrieb benutzt werden, um die Umsatz- und Gewinnziele des Unternehmens zu erreichen. Veränderungen bei Kunden, Konkurrenten und Technologien sind Faktoren, die einen wichtigen Einfluss auf die Vertriebsorganisationen haben. Es existieren viele Geschäftsprozesse für verschiedene Domänen, aber es fehlen Managementprozesse (Absatzmanagement). Im Vergleich zu den Geschäftsprozessen, gibt es wenige Literaturen für Management-Prozesse, deshalb werden oft ISO Standards für Managementprozesse verwenden.

Diplomarbeitsposter Hainzel Thomas

Thomas Hainzel

Masterstudium Business Informatics
Abstract:

Die Telekommunikationsindustrie sieht sich durch Marktentwicklungen mit einem Umschwung konfrontiert. Aktuelle Entwicklungen zeigen einen stetigen Trend in Richtung Unternehmensfusionen, um wettbewerbsfähig zu bleiben. Studien weisen jedoch auf fehlgeschlagene Kulturtransformationsprozesse hin. Change Management Modelle sehen die (mittlere) Führungsebene in der Verantwortung dieses Change-Prozesses. Allerdings gibt es kaum Studien, welche Change-Faktoren diese Führungskräfte als erfolgskritisch erachten. Diese Arbeit führt eine Literaturrecherche mit einer explorativen Einzelfallstudie bei einem Telekommunikationsanbieter mit dreijähriger Post-Merger-Erfahrung zusammen. Die Datenerhebung wird mittels Interviews mit Führungskräften über ihre subjektive Wahrnehmung von Veränderungsprozessen durchgeführt. Eine qualitative Inhaltsanalyse arbeitet die als wesentlich wahrgenommenen Change-Faktoren heraus und stellt sie entlang von vier Wahrnehmungsebenen - Person, Team, Organisation, Kultur - dar. Schlüsselergebnisse zeigen eine Dominanz von organisatorischen Strukturen wie etwa Prozessen oder Trainings. Die Führungskräfte bekräftigen das Facettenreichtum ihrer Rolle als "Hüter" über Mitarbeiter, Kulturen und Strukturen. Ergebnisse weisen auch auf deren paradoxe Rolle als aktive Gestalter und Betroffene der Veränderung hin. Nur wenige kritische Ereignisse begründen sich auf Kulturdissonanzen. Vergleichbar stellen sich auch Uneinigkeit im IT-Management und die Komplexität von IT-Systemen als weniger kritisch heraus. Resultate heben eine fehlende strukturelle Unterstützung im Change-Prozess hervor, welche die Relevanz der Kulturintegration überschattet. Zudem ist es wahrscheinlicher, dass Führungskräfte organisatorische Rahmenbedingungen stärker reflektieren und konkreter wahrnehmen als kulturelle Werte. Diese Implikationen unterstreichen die hohe Relevanz und die paradoxe Rolle von Führungskräften - ein bislang wenig beleuchteter Aspekt in Change Management Modellen.

Diplomarbeitsposter Rumpold Gernot

Gernot Rumpold

Masterstudium Software Engineering & Internet Computing
Abstract:

The field of product design and development requirements engineering gained more and more attention over the last decades. Product implementation and requirements management require structured approaches to handle requirement specifications over a product lifecycle. The way a user interacts with a product is individually and differs for each person. Nevertheless it is a known practice to classify users in user-groups. By nowadays common approaches for requirements engineering, the individual needs of user-groups are not handled adequately which leads to discrimination of subsets of users. The matter of this work is to show, that differences in the demands that several user-groups make on a product exist. Based on this hypothesis it becomes necessary to define a requirements engineering process that is capable of handling different requirements from several usergroups to avoid discrimination. Based on an empirical study which was conducted as part of the Ge:MMas project, it is shown that the assumption of different requirements among gendergroups exist. Furthermore a process to handle requirements of different groups of users is described and evaluated based on the data of the empirical study. The results show, that existing approaches for requirements engineering differ among technical disciplines. The proposed approach, called function-requirements-elevation, combines elements from both methods. allows user to directly state their demands and collecting them in a semi-structured way. The requirements of multiple user-groups are transformed into a sound and structured requirements specification that contains the consolidated requirements of all user-groups. The evaluation of the process shows that the approach can be applied in practice. Furthermore it is shown that differences between the requirements of user-groups classified by gender exist. This substantiates the need of a requirements engineering process that is capable of handling this diverse requirements.

Diplomarbeitsposter Siebert Lisa

Lisa Siebert

Masterstudium Business Informatics
Abstract:

Problemstellung: Ziel der Arbeit ist ein Tool-Set zu entwickeln, anhand dessen der nicht oder nur schwer quantifizierbare IT-Nutzen bewertet werden kann. Lassen sich IT-Ausgaben und IT-Kosten relativ leicht ermitteln oder errechnen, so sind Faktoren wie Prozessverbesserung, Kundenzufriedenheit oder Mitarbeiterzufriedenheit weitaus schwerer in einer Maßgröße auszudrücken. Erwartetes Resultat: Es soll ein flexibles Tool-Set, zusammengestellt aus IT-Controlling Methoden, zur Bewertung von IT-Services entwickelt werden. Es soll eine Entscheidungsgrundlage bei der Auswahl der Produktstrategien sein. Die Anwendung des in dieser Masterarbeit erstellten IT-Controlling Tool-Sets schafft Mehrwert in der Entscheidungsfindung durch transparente Darstellung des nicht direkt messbaren „IT Nutzens“ und ermöglicht somit eine Kosten/Nutzentrechnung als strukturierter und nachvollziehbarer methodischer Ansatz, der zur Objektivierung der Entscheidungsfindung beiträgt. Methodisches Vorgehen Im theoretischen Teil werden allgemeine Grundlagen wie Strategie, Produktlebenszyklus, IT-Nutzen, IT-Anwender vs. IT-Dienstleister, strategisches und operatives IT-Controlling vorgestellt. Weiteres werden verschiedene Bewertungsmethoden (Kosten-, Leistungs-, Wirtschaftlichkeitsrechnung) und Kennzahlensysteme erklärt. Darauf Aufbauend erfolgt die Entwicklung des Tool-Sets. Für die praktische Ausarbeitung werden zwei IT-Service mit zwei unterschiedlichen Anwendungsszenarien beschrieben und durch das aus den Bewertungsmethoden entwickelte Tool-Set bewertet.

Diplomarbeitsposter Stojkovic Ivan

Ivan Stojkovic

Masterstudium Software Engineering & Internet Computing
Abstract:

Organisations focus on integration of ERP systems, which is motivated by intention to provide integrated application for the business processes. As proposed from Prof. Dr. Jörg Becker [2] a lot of those IT-focused approaches failed because they were dominated by the complexity of the selected software solutions rather than concentrating on the challenge of business. The most of those failed approaches starts with the bottom level, the software integration and goes up to design of management processes. The design, implementation and integration of management processes in one enterprise can be simplified with usage of one generic management process framework that can support the designer and programmer. Additionally the framework should focus on management of business processes and not on software solutions. The framework has one generic meta management process that describes different types of management processes. The designer needs to know which type of management process will be designed and the framework will support the designer by selecting appropriate generic management process skeleton, represented as UML activity diagram. The designer needs to transform this skeleton into concrete management process diagram. The programmer needs to transform elements of this activity diagram into code. Framework supports the programmer as well by providing generic implementation of elements of this diagram and the programmer only needs to derive those elements into concrete implementation. Additionally those generic elements are already integrated into one ERP system and the programmer don’t need to think about integration of a new process. There is the challenge that this framework should translate business and management ontologies into the information system, it should use generic data model so that it can be applied in different contexts and must allow the implementation according to the modern IT principles and technologies.

Diplomarbeitsposter Ulbricht Roland

Roland Ulbricht

Masterstudium Business Informatics
Abstract:

The aim of this thesis was to find out how culture fit influences recruiting from both the organizational as well as the individual perspective. Qualitative research of nine different organizations and a quantitative survey of potential applicants were conducted. The most important questions concerned the relevance of fit in decisions of both sides and how communication about these issues worked. On the employer side, cultural fit was an important selection criterion for most examined organizations, however they were unsure how to communicate their values and how to select fitting individuals. The organizations used online recruiting intensively, however, also indicated that transmitting information about their culture was difficult when done in written form and much easier in person through referrals or campus recruiting. On the side of individuals, fit was also an important aspect when choosing an employer. Survey participants stated that the most important sources of information about employers are personal contacts and the organizations' websites. In conclusion the findings indicate that providing richer information for individuals through personnel marketing leads to better self-selection from their side and better fitting applications.

Institut für Energiesysteme und Elektrische Antriebe

Diplomarbeitsposter Eidler Dieter

Dieter Eidler

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Biomasse bietet die Möglichkeit, die Abhängigkeit von fossilen Brennstoffen und den CO2 Ausstoß zu reduzieren. Länder mit geringen Waldvorkommen, sind allerdings von Importen abhängig, was durch lange Transportdistanzen ökonomisch und ökologisch zu Problemen führen kann. Ziel dieser Arbeit ist die Wirtschaftlichkeit und Einsatzmöglichkeiten von Torrefizierungskonzepten zu analysieren. Torrefizierung bezeichnet einen thermischen Vorbehandlungsprozess von Biomasse bei Temperaturen zwischen 200-300°C, bei dem diese durch anschließende Verarbeitung zu Pellets (sogenannte TOP-Pellets) oder Briketts eine wesentlich höhere volumen- und massebezogene Energiedichte aufweist und somit die Energiebereitstellungseffizienz erhöhen soll. Basierend auf Daten der Literatur wurde die Wirtschaftlichkeit von Torrefizierung und anschließender Pelletierung von holzartiger Biomasse im Zuge von Biomasseversorgungsketten unter verschiedenen Rahmenbedingungen bewertet und mit konventioneller Pelletierung verglichen. Für die Berechnung wurde ein Softwaretool implementiert. Für die Berechnungen wurden Kanada, Lateinamerika und Skandinavien als Exportländer sowie die Niederlande als Importland für Biomasse definiert. Für die betrachteten Transportdistanzen sind TOP-Pellets nie kostengünstiger als herkömmliche Pellets. Dies liegt im Masseverlust bei TOP begründet. Für die untersuchten Fälle sind TOP-Pellets hinsichtlich der Energiebereitstellungseffizienz in fast allen Fällen zu empfehlen. Diese Technologie könnte Biomasseversorgungsketten ökologischer gestalten und somit die ökologische Attraktivität von Biomassebrennstoffen gegenüber fossilen Energieträgern erhöhen.

Diplomarbeitsposter Mujic Emina

Emina Mujic

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Der stark wachsende Anteil der erneuerbare Energie an Energiemix fordert die Entwicklung der entsprechenden Stromspeichertechnologie. Um die Erzeugungsüberschüsse aus volatile Quellen über längere Zeitperioden zu speichern und beim Bedarf zur Verfügung stellen, bedarf die Speichertechnik mit ausreichenden Kapazität. Als die innovative Systemlösung Power-to-Gas bietet die Möglichkeit die Ökostromüberschüsse in Form von synthetischem Erdgas (erneuerbares Methangas) in den Spitzenlastzeiten zu verlagern. Wirtschaftliche und technische Perspektiven neuer Technologie werden in Rahmen der Arbeit erläutern. Die Auswirkung der Einflussparameter auf die Methankosten wird graphisch dargestellt und unter verschiedenen Szenarien beurteilt. Die technische Entwicklungs- und Optimierungsmaßnahmen werden herausgearbeitet und die Aufgaben für die Verbesserung der Wirtschaftlichkeit eruieren.

Institut für Computertechnik

Diplomarbeitsposter Gutschier Christian

Christian Gutschier

Masterstudium Business Informatics
Abstract:

The introduction of version 2.0 of Business Process Model and Notation (BPMN) promised direct executability of compliant business processes. In the previous versions of BPMN (1.x), a transformation of BPMN models into another, executable format (e.g., Business Process Execution Language, BPEL) was required to make these models executable. The reason why direct execution is now possible with BPMN 2.0 is that attributes necessary for execution were added to the XML-representation. This master's thesis investigated how BPMN 2.0 models (based on the BPMN 2.0 standard) can be executed directly. Furthermore, the standard should support portability between different tools. Direct execution has been investigated based on a simple business process example, which was modeled with BPMN 2.0. The focus is on Tasks that can connect to software (e.g., Web Services or Java) and do not required human interaction (e.g., User Tasks). During the investigation, a pitfall was found related to the number of parameters (which a Service Task accepts) and solutions are proposed for circumventing this pitfall. Due to this pitfall it is not possible to use BPMN 2.0 as a general orchestration language (such as BPEL). Based on the simple BPMN 2.0 model, also the portability between tools was investigated. To select suitable tools, the following three criteria were defined. First, the tools have to be freely available (e.g., open source or trial version). Second, the tools have to support BPMN 2.0 modeling. Third, the tools have to support direct execution of BPMN 2.0 models. All selected tools in this master's thesis were able to directly execute the business process example. However, adjustments in the XML-representation of this example were needed when it was not created with the designer of the same tool. For this reason, portability between the tested tools was not given without adjustments.

In Zusammenarbeit mit anderen wissenschaftlichen Einrichtungen

Medizinische Universität Wien

Diplomarbeitsposter Smutny Paul

Paul Smutny

Masterstudium Informatikmanagement
Abstract:

Durchflußzytometrie ist eine Technologie die angewandt wird um verschiedene physikalische Eigenschaften von Partikeln zu messen während die Partikel in einer Flüssigkeit an einem Laserstrahl vorbeigeführt werden. Die Eigenschaften der Partikel im Flüssigkeitsstrom werden in Abhängigkeit davon bestimmt, wie das Licht gebrochen wird und wie stark die Fluoreszenz der Partikel ist. Aktuelle Zytometer sind mit mehrfachen Lasern und auch mehrfachen Empfangsdetektoren ausgestattet und die Anzahl der Partikel, die an einem Laser vorbeigeführt werden kann sehr hoch sein. Software Lösungen für die Verarbeitung dieser Daten orientieren sich meist an den Anforderungen aus der klinischen Anwendung, da Durchflußzytometer meist in Spitälern als zentrale Laboreinrichtungen betrieben werden. Deshalb mangelt es der zur Verfügung stehenden kommerziellen Software im Allgemeinen an funktionaler Unterstützung sowie funktionaler Anwendbarkeit, die für den Einsatz in der Forschung notwendig sind. In der vorliegenden Diplomarbeit wird die quelloffene allgemeine Statistiksoftware R mit durchflußzytometriespezifischen Softwarepaketen erweitert und die Anwendbarkeit der Software für durchflußzytometrieunterstützte Forschungsaufgaben wird evaluiert. Die Software wird dabei auf einem kommerziellen Personalcomputer anhand eines standardisierten Qualitätsmodells evaluiert. Die Ergebnisse der Evaluierung zeigen, dass die funktionale Unterstützung der Software ausreicht. Probleme der Interoperabilität und unzureichende Leistungskapazität, die in einer hohen Auslastung der Systemressourcen resultieren, wenn große Datenmengen verarbeitet werden müssen sind die Nachteile der Lösung. Zur Zeit der Verfassung der Arbeit orientieren sich die Lehrunterlagen der Softwarepakete für die Durchflußzytometrie an erfahrenen R Benutzern. Um das Erlernen zu erleichtern stellt die Diplomarbeit ein Tutorial zur Verfügung.