EPILOG Wintersemester 2017

Auszeichnungen

Distinguished Young Alumnus/a Award WiSe2017/18

Diplomarbeitsposter-Thumbnail Lechner Mathias

Mathias Lechner

Brain-inspired Neural Control

Weitere Nominierungen für Distinguished Young Alumnus/a Award WiSe2017/18

Ausgestellte Arbeiten

Institut für (vor 2018) Technische InformatikE182

Arbeitsbereich (vor 2018) Cyber-Physical Systems

Diplomarbeitsposter Heindl Mario

Mario Heindl

Masterstudium Technische Informatik
Abstract:

Ein wichtiger Schritt im Design-Flow von Analog Mixed-Signal Systemen ist die Post- Silicon Verifikation. Sie dient dazu, um Random Manufacturing Defects zu erkennen und kostenintensive Field Returns vom Kunden zu verhindern. Diese Art von Test wird durch das Automatic Test Equipment (ATE) unterstützt. Ein ATE dient dazu, um analoge sowie digitale Stimuli anzuwenden sowie Messungen durchzuführen anhand derer verifiziert wird, ob das System die Spezifikationsanforderungen erfüllt. Im Rahmen dieser Arbeit wurde ein Framwork zur Unterstützung der Analyse der Testcoverage entwickelt. Dazu wird ein beliebiges ATE Testprogramm übersetzt und in einer Simulationsumgebung ausgeführt. In dieser Simulationsumgebung ist es möglich Random Manufacturing Defects zu injezieren und die Effektivität der aktuellen Tests zu messen. In einem ersten Schritt werden die Teile des ATE und die verwendeten Testinstrumente vorgestellt, bevor die zu modellierenden Funktionalitäten identifiziert werden. Aufbauend auf diesen Informationen gibt diese Arbeit einen Überblick darüber wie diese modelliert werden können. Zusätzlich wird eine Methode vorgestellt, um ein existierendes, allgemeines ATE Testprogramm automatisch in ein Format zu übersetzen, das von der Simulationsumgebung importiert und ausgeführt werden kann. Diese Ergebnisse ermöglichen es, ein ATE Testprogramm mit minimaler manueller Interaktion und einem großen Anteil an Wiederverwendung von vorhandenen Informationen im Rahmen einer Simulation auszuführen. Um Aussagen über die Simulationszeit und die Funktionalität der vorgestellten Methode treffen zu können, wurde der gesamte Prozess anhand eines existierenden Chips, zur Verfügung gestellt von Infineon Technologies, verifiziert.

Diplomarbeitsposter Lechner Mathias

Mathias Lechner

Masterstudium Technische Informatik
Abstract:

Ein bedeutender Anhaltspunkt für die Entwicklung von künstlicher Intelligenz (KI) im Bereich von Regelungs- und Steuerungssystemen sind biologische neuronale Netze, die eine Grundlage für das komplexe und anpassungsfähige Verhalten von Lebewesen bilden. Ziel dieser Arbeit ist es, durch Analyse von mittels Kalzium-Imaging gewonnenen Signalverläufen von Nervenzellen des Fadenwurms C. elegans Entwurfsmethoden für künstliche neuronale Prozesseinheiten herzuleiten. Dieses Ziel wird erreicht durch formale Spezifikation von Aktivitätsbeziehungen zwischen einzelnen Neuronen, welche es erlauben die gesamte Struktur eine neuronalen Netzes festzulegen. Weiters wird in dieser Arbeit anhand ausführlicher Beispiele gezeigt, dass zusätzlich zur Verdrahtung die Wahl der Parameter eine Schlüsselrolle zur Bestimmung der Funktionalität eines neuronalen Netzes besitzt. Aus diesem Grund wird ein auf dem Monte-Carlo-Verfahren basierender Algorithmus vorgestellt, welcher automatisiert eine, zu einer gegebenen Aufgabe passende, Parametrisierung findet. Die hier eingeführte Methodik zum Entwickeln neuronale Regeleinheiten wird anhand zweier Problemaufgaben überprüft: Das automatisierte Einparken eines mobilen Roboters, sowie die Steuerung eines Industrieroboters in einer Fertigungsstraße. Im Gegensatz für vielschichtigen neuronalen Netzen (\emph{Deep learning}) kann, aufgrund des manuellen Entwurfsprozesses, die Funktionsweise der hier entwickelten Regeleinheiten nachvollzogen werden. Die Vorteile der in dieser Arbeit beschriebenen neuronale Prozesseinheiten umfassen unter anderem, die effiziente parallel Verarbeitung von Information, die hohe Unempfindlichkeit gegenüber Sensorrauschen, sowie besonders die Lernfähigkeit, sprich die automatische Anpassung der Parameter an eine gegebene Aufgabe.

Diplomarbeitsposter Platzer Michael

Michael Platzer

Masterstudium Technische Informatik
Abstract:

Autonome Agenten, ob in der Luft oder am Boden, benötigen präzise Informationen über ihre Umgebung um sicher navigieren zu können. Laserscanner, auch als LIDAR (engl., LIght Detection And Ranging) bezeichnet, sind besonders geeignet um akkurate virtuelle Modelle der Umgebung zu erstellen und sind relativ unempfindlich gegenüber variierenden Umwelteinflüssen. Allerdings sind kommerziell erhältliche Laserscanner sehr teuer, was ihre Verbreitung einschränkt. Diese Arbeit schlägt ein Design für ein kostengünstiges LIDAR-System vor, bestehend aus einem optischen Aufbau, einem elektronischen System, einem Regler und Software zur Nachbearbeitung der Messungen. Das angestrebte Ziel ist die Konstruktion eines Laserscanner, der für das Erfassen der Umgebung und die Identifikation von Hindernissen auf unbemannten Luftfahrzeugen, häufig als Drohnen bezeichnet, geeignet ist. Während des gesamten Prozesses wird darauf geachtet, die Komplexität gering zu halten und ausschließlich leicht erhältliche Komponenten zu verwenden.Um die Gültigkeit des vorgeschlagenen Designs zu bewerten, wird ein Prototyp gebaut. Eine umfangreiche Evaluierung quantifiziert die Performance des Laserscanner in Bezug auf Reichweite, Genauigkeit, räumliche Auflösung und Scan-Rate. Der Prototyp ist in der Lage, grobe Scans der Umgebung zu produzieren, allerdings mit einer gewissen Verzerrung und einer langsameren Geschwindigkeit als kommerzielle Geräte. Auch wenn der Scanner derzeit noch nicht für den Einsatz zur Erkennung von Hindernissen auf unbemannte Luftfahrzeugen bereit ist, demonstrieren die Resultate die konzeptionelle Gültigkeit des Designs.

Diplomarbeitsposter Wimmer Bernhard

Bernhard Wimmer

Masterstudium Technische Informatik
Abstract:

Motion-Planning bezieht sich auf den Prozess der Übersetzung von High-Level Spezifikationen von Zielen in die Low-Level Steuereingänge für die Aktoren eines Roboters. Roboter mit Beinen, die vor allem in unebenen oder Umgebungen mit Hindernissen flexibler sind als jene mit Rädern, sind ein anspruchsvolles Anwendungsgebiet für Motion-Planning. Solche Systeme können von der Nutzung eines multimodalen Planers, der zwischen diskreten Modi wechseln kann, profitieren. Diese Modi entsprechen der Platzierung der Beine des Roboters auf dem Untergrund. Gewöhnliche Single-Mode Planer können dann zur Erzeugung von kontinuierlichen Pfaden durch die einzelnen Modi genutzt werden. Kinematische Zwangsbedingungen erfordern in der Regel, dass solche Pfade in einem Unterraum des Konfigurationsraums liegen, was die Wirksamkeit von üblichen Single-Mode Planern begrenzt und entsprechende Änderungen jener für dieses Problem erfordert. In dieser Arbeit präsentiere ich eine Einführung in die Modellierung und Simulation von Robotersystemen unter dem Einfluss von dynamischen Effekten, untersuche die Wirkung unterschiedlicher Single-Mode Planer im Zusammenhang eines multimodalen Planers zur Steuerung eines sechsbeinigen Roboters und entwickle einen physikalischen Prototyp, der für zukünftige Forschungsarbeiten in diesem Bereich verwendet werden kann. Für die Auswertung des implementierten multimodalen Planers werden zwei verschiedene Szenarien untersucht: Fortbewegung auf einer flachen Oberfläche (1) und das Erklettern einer Stufe (2). Für jedes Szenario werden mehrere Metriken gesammelt, um die Leistung der jeweiligen Single-Mode Planer zu vergleichen. Ich bin der Ansicht, dass dieser Vergleich bei der Wahl von Single-Mode Planern in diesem Umfeld hilfreich ist. Darüber hinaus hoffe ich nützliche Einblicke darüber zu geben welche Änderungen notwendig sind um andere Planer für dieses Umfeld und zukünftige Herausforderungen in diesem Gebiet anzupassen.

Institut für (vor 2018) Rechnergestützte AutomationE183

Arbeitsbereich (vor 2018) Automatisierungssysteme

Diplomarbeitsposter Falb Klaus

Klaus Falb

Masterstudium Software Engineering & Internet Computing
Abstract:

Webanwendungen werden verwendet, um Bankgeschäfte durchzuführen, einzukaufen, und vieles mehr. Die Komplexität dieser Anwendungen führt aber zu immer mehr Sicherheitslücken, die nicht nur die Daten von Nutzern gefährden, sondern auch dem Geschäft der Betreiber schaden. Eine Technik, um Webanwendungen sicherer zu machen, sind Sicherheitstests. Da viele Sicherheitslücken dadurch entstehen, dass eine Anwendung mit manchen Eingaben nicht umgehen kann, müssen bei Sicherheitstests viele eventuell problematische Daten erzeugt werden. Es ist also von Vorteil, diese Abläufe zu automatisieren. In dieser Arbeit wird ein Framework zur Testdatengenerierung entworfen und umgesetzt. Es wird ein modellbasierter Ansatz gewählt: Die Struktur einer Anwendung wird von Testern als Modell formalisiert. Parallel dazu implementieren Sicherheitsexperten Strategien, die Testdaten für ein solches Modell erzeugen. Diese Strategien sind von konkreten Anwendungen unabhängig und somit wiederverwendbar. Die Funktionsweise des Frameworks wird wie folgt nachgewiesen: Eine einfache Strategie zur Testdatengenerierung für Sicherheitstests wird entwickelt. Es wird eine Open-Source-Webanwendung mit bekannten Sicherheitslücken ausgewählt und dafür funktionale Tests entwickelt. Mithilfe der so entstandenen Modelle werden dann Sicherheitstests mit der zuvor implementierten Strategie ausgeführt. Diese Tests fanden drei mögliche Sicherheitslücken und zwei Programmfehler. Die Arbeit bietet folgenden Mehrwert: Erstens trennt das Framework die Aufgaben von Testern, die Testmodelle basierend auf ihrem Domänenwissen erstellen, sowie Sicherheitsexperten, die Teststrategien mithilfe ihres Fachwissens umsetzen. Zweitens wird Code-Wiederverwendung ermöglicht, da das Framework sowohl für funktionale Tests als auch für Sicherheitstests ausgelegt ist. Drittens wird die Ausführung von Sicherheitstests zu einem früheren Zeitpunkt möglich, da sie ausgeführt werden können, sobald Testmodelle entwickelt wurden.

Diplomarbeitsposter Hammerer Tobias

Tobias Hammerer

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Während kontaktloses Bezahlen mit Hilfe von Near-Field-Communication (NFC)-fähigen Ban- komatkarten in Österreich inzwischen weit verbreitet ist, sind mobile Zahlungslösungen, die NFC-fähige Smartphones als Client und SIM-Karten als Secure-Element verwenden, wenig verbreitet. Technisch betrachtet sind bereits alle nötigen Voraussetzungen für diese Lösungen vorhanden. Die Herausforderung besteht jedoch darin, alle Stakeholder eines NFC-Ökosystems zusammenzuschalten, um Over-The-Air (OTA)-Administrationsprozesse an zentraler Stelle steuern zu können. Diese Arbeit liefert einen Architekturentwurf für ein Managementsystem für OTA-Administration von NFC-Services am Beispiel einer mobilen Zahlungslösung für den österreichischen Markt. Der präsentierte Architekturentwurf orientiert sich an einem Microservice-orientierten Architekturstil, welcher hochverfügbare, wartbare und flexible Systeme ermöglicht. Der erste Teil der Arbeit beschäftigt sich mit den theoretischen und technischen Grundlagen und Konzepten, die als Basis und Referenz für technische Entscheidungen in späteren Kapiteln dienen. Es werden Grundlagen zu Microservice-Architekturen, verschiedene Kommunikationsstile für Intraprozess-Kommunikation, bewährte Entwurfsmuster in Microservice-Architekturen sowie Konzepte des Domain-Driven Design-Entwicklungsprozesses diskutiert. Abschließend wird in diesem Teil ein Überblick über das NFC-Ökosystem gegeben. Der praktische Teil der Arbeit beschäftigt sich mit der Anforderungsanalyse, der Identifikation von zentralen Administrationsprozessen und sicherheitsrelevanten Betrachtungen des zu entwickelnden Systems. Diese dienen als Grundlage für den Architekturentwurf sowie die funktionale Beschreibung der im Architekturentwurf enthaltenen Microservices. Abschließend werden anhand einer prototypischen Implementierung eines ausgewählten Micro- services der Architektur Implementierungsdetails zu State-of-the-Art Technologien des Java- Universums präsentiert.

Diplomarbeitsposter Khassraf Roman

Roman Khassraf

Masterstudium Software Engineering & Internet Computing
Abstract:

Mobiltelefonie hat sich in den vergangenen Jahrzehnten als eines der wichtigsten Kommunikations- mittel im Alltag etabliert. Diese Form der Telekommunikation wird durch Mobilfunknetzwerke ermöglicht, über deren Infrastruktur die Kommunikation der Teilnehmer abgewickelt wird. Dabei werden schutzbedürftige Informationen übertragen. Sicherheitsforscher haben in der Vergangenheit eine Vielzahl von Sicherheitslücken in Technologien aufgedeckt, auf denen Mobilfunknetzwerke aufbauen. Die Durchführung von Sicherheitstests an Mobilfunknetzwerken ist mangels einheitlicher Software komplex und zeitaufwändig. Im Zuge der vorliegenden Arbeit wird ein Framework konzipiert und als Proof-of-Concept- Implementierung verwirklicht, das die Durchführung von Sicherheitstests an Mobilfunknetzwerken ermöglicht und vereinfacht. Die Zielsetzung der Arbeit ist es, Sicherheitsforschern eine erweiterbare Plattform zu bieten und die Hürden für Sicherheitstests an Mobilfunknetzwerken zu reduzieren. Zu Beginn der Arbeit erfolgt eine Literaturrecherche sowie eine Analyse der Anwendungsdomäne. Anhand der Ergebnisse wird eine Auswahl repräsentativer Angriffe getroffen, welche in der Proof- of-Concept-Implementierung verwirklicht wird. Um die ausgewählten Angriffe realisieren zu können, wird die Software gr-gsm erweitert und eine Android-App für den Versand spezieller Short Message Service (SMS)-Nachrichten entwickelt. Diese wird gemeinsam mit anderen frei verfügbaren Software- werkzeugen in das Framework integriert. Die zuvor ausgewählten repräsentativen Angriffe werden als Plugins realisiert. Abschließend wird die Proof-of-Concept-Implementierung hinsichtlich der Erfüllung von Anfor- derungen untersucht, die an ein Framework aus der Anwendungsdomäne von Sicherheitstests für Mobilfunknetzwerke gestellt werden. Anhand der Ergebnisse der Untersuchungen werden Verbesserungsmöglichkeiten für eine Weiterentwicklung des Frameworks identifiziert.

Diplomarbeitsposter Konrad Alexander

Alexander Konrad

Masterstudium Software Engineering & Internet Computing
Abstract:

Seit Jahrzehnten bedroht Malware eine Vielzahl der eingesetzten Softwaresysteme und deren Benutzer. Bis heute existiert kein allgemein gültiges Verfahren, um Systeme vor Schadsoftware zu schützen. Mit Android.FakePlayer, der ersten realen Android-Malware aus dem Jahr 2010, haben Cyberkriminelle erstmals Malware auf mobilen Geräten in Umlauf gebracht. Manuelle softwaretechnische Untersuchungen durch ausgebildete Analysten sind daher notwendig, um die Entwicklung von geeigneten Gegenmaßnahmen voranzutreiben, indem schadhaftes Verhalten und Funktionsweisen von mobiler Malware aufgedeckt werden. Weiters kann durch die Rekonstruktion von schadhaftem Verhalten die unmittelbare Gefahr eingeschätzt und entsprechend reagiert werden. Diese Arbeit verfolgt das Ziel, geeignete Techniken und Werkzeuge für die softwaretechnische Analyse von Android Malware zusammenzutragen und zu erläutern. Aus allgemeinen State-of-the-Art-Techniken zur Malware-Analyse werden spezifische Vorgehensweisen für Android abgeleitet. Weiters werden bekannte Charakteristiken von Android Malware und Anti-Virus Apps untersucht, um ein geeignetes Bewusstsein für Malware-Analysen zu schaffen. Eine weiterführende Diskussion von Obfuscation-Strategien gewährt Einblick, mit welchen zusätzliche Hürden bei der Untersuchung von Schadsoftware gerechnet werden muss und wie Malware-Autoren die Analyse ihrer Software verlangsamen wollen. Da die gesammelten Konzepte nur in Kombination bei der Untersuchung von realer Malware unterstützen können, wurde eine praxisnahe Android Malware-Analyse-Methodologie, basierend auf bereits existierenden Vorgehensmodellen zur Malware-Analyse, entwickelt. Diese Methodologie ermöglicht eine effiziente und strukturierte Analyse, ohne dabei auf notwendige Freiheiten bei der Untersuchung zu verzichten, um kreative Vorgehensweisen zu fördern.

Diplomarbeitsposter Müller Robin

Robin Müller

Masterstudium Software Engineering & Internet Computing
Abstract:

Building automation systems are becoming increasingly relevant in modern building projects to improve energy efficiency and increase inhabitant comfort. One of the ongoing challenges in such systems is providing security to the network. In particular, wireless message exchanges between individual network nodes need to be encrypted and authenticated efficiently, since the wireless devices typically deployed in most building automation systems are low-powered microcontrollers. Due to these performance constraints, potential solutions are limited to using efficient, symmetric cryptography. The resulting challenge lies in finding a suitable key-exchange scheme to establish the shared keys that is both scalable and extensible. In this thesis, a centralized key exchange scheme is proposed that is capable of establishing secret keys for arbitrary node pairs by using the building controller as a trusted third party. The proposed scheme is well suited for the particular network topology typically found in building automation systems while requiring only symmetric cryptography. A prototype was implemented to demonstrate the feasibility of the proposed approach and to evaluate the performance of the implementation with regard to memory and energy efficiency. The evaluation shows an acceptable overhead when using end-to-end encryption compared to an unsecured approach. In addition, the proposed scheme could also be easily integrated with more flexible encryption protocols such as DTLS in the future.

Diplomarbeitsposter Rohringer Jörg

Jörg Rohringer

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

In der Industrieautomation werden Engineering-Tools eingesetzt, um Anlagenteile zu planen und in Betrieb zu nehmen. Zusätzlich können sie auch für Wartungs- und Instandhaltungsaufgaben verwendet werden und bieten vereinzelt auch Diagnosemöglichkeiten. Diese Tools werden meist auf dem Betriebssystem Windows verwendet, das sich auf ortsgebundenen Computern oder Laptops befindet. Zusätzlich werden Daten kabelgebunden übertragen. Dies kann ein Problem darstellen, wenn Fehler behoben werden müssen und die Rechner weit entfernt von den fehlerhaften Komponenten sind oder keine Möglichkeit der Verwendung von Laptops vor Ort besteht. Smartphones und Tablets verfügen über graphische Benutzeroberflächen und sind mittlerweile mit leistungsstarken Komponenten ausgestattet, um auch komplexe Programme ausführen zu können. Außerdem bieten die Geräte verschiedenste Möglichkeiten für die kabellose Übertragung von Daten an. Ziel dieser Arbeit ist es, die Möglichkeiten und Vorteile von mobilen Applikationen in der Industrieautomation zu untersuchen. Dabei sollen im ersten Schritt Anwendungsfälle in der Industrieautomation, sowie Anforderungen für die verwendeten Geräte und Kommunikationsprotokolle erarbeitet werden. Weiters werden Übertragungsprotokolle beschrieben, die von Smartphones und Tablets verwendet werden. Diese werden auf ihre Eignung für die definierten Anwendungsfälle und die daraus abgeleiteten Anforderungen analysiert. Auch sollen einerseits „Best Practices“ für die Softwareentwicklung behandelt und andererseits die aktuell meist verwendeten Betriebssysteme von mobilen Geräten besprochen werden. Im Folgenden wird eine prototypische Applikation beschrieben, mit der verschiedene Aufgaben eines Engineering Tools erledigt werden können. Zuletzt wird eine wirtschaftliche Analyse von mobilen Applikationen vorgestellt, die auch die Ergebnisse einer Befragung von Personen aus verschiedenen Bereichen der Automation enthält.

Diplomarbeitsposter Schmid David

David Schmid

Masterstudium Business Informatics
Abstract:

Testing in general, and performance testing in particular, have become an integral part of the software development process. For all sorts of tests, there are patterns and practices available which describe the best way to perform. In practice, however, especially the conditions of performance tests deviate from the assumptions of the theoretical model. This thesis deals with the development of a customized performance process that encompasses the barriers of the everyday project routine. The tradeoffs which could be acceptable when applying performance tests, as well as their effects on the test outcome, are discussed. In addition, the customized process is performed on an example project, followed by a discussion as to the impact of the outcome on the project and the process itself. Moreover, a java library for measuring performance, which was developed for the application of the process, is presented. The result of the thesis is a performance test process, which addresses developers as its main target audience. It is reasonable, can be realized early in the software development process and its primary purpose is to analyze and monitor the performance on a continuous base in order to enable early counteractive measures.

Diplomarbeitsposter Schuller Felix

Felix Schuller

Masterstudium Medizinische Informatik
Abstract:

In contrast to many other industries, there is no standard in healthcare that allows for an effective transmission of data on a global scale. With Fast Healthcare Interoperability Resources (FHIR) a new digital communication standard is introduced as a promising candidate to finally succeed at doing so. While raising high hopes of many researchers, FHIR still is in active development and has to prove its practical suitability and flexibility when applied at a large scale. This master thesis evaluates FHIR’s performance when applied in-depth to a real world scenario by documenting and assessing the realization of a veterinary practice management system that builds on FHIR to its core. The veterinary medicine based scenario is chosen to challenge the standard’s adaptation mechanisms and because FHIR’s claims for also being applicable to the veterinary domain have not been verified yet. A concrete set of required functionality for the chosen scenario is compiled based on extensive literature research and a case study conducted with relevant stakeholders. The elucidated requirements result in the creation of four FHIR profiles that represent formal collections of structural adjustments to the standard and in the design of a prototype that internalizes FHIR’s data-model and -management concepts. The final system is realized as a record managing webserver that acts as a backend and a modern web-application as frontend, which represents the actual practice management system. During the development FHIR could prove itself as certainly applicable to the chosen scenario and as a consistent and versatile standard that can be easily implemented. The extension mechanism arose as an intuitive and expressive tool for the adaptation of the structures that are defined by the standard. Yet, some concerns emerged regarding a residual vagueness of the standard's specification and the extension mechanism’s rather extensive syntax and unpractical design.

Diplomarbeitsposter Stipsits Thomas Johannes

Thomas Johannes Stipsits

Masterstudium Medizinische Informatik
Abstract:

Besondere Herausforderungen von mobilen Technologien stellen der Datenschutz und die Sicherheit von Smartphone-Applikationen dar. Immer häufiger erlangen Meldungen über Datenlecks und Exploits die mediale Aufmerksamkeit, wobei speziell sensiblen Daten, wie etwa gesundheitsbezogenen Datensätzen, eine besondere Bedeutung zukommt. Ein zentraler Fokus dieser Diplomarbeit liegt auf dem Schutz besagter Daten, insbesondere im Hinblick auf die zunehmende Verwendung sensibler Daten im Rahmen mobiler Applikationen. Um die Sicherheit dieser Daten in mobilen Apps zu überprüfen, wird ein Einblick in den aktuellen Stand der Sicherheit bei Applikationen aus dem gesundheitsbezogenen Anwendungsgebiet gegeben. Aufgrund des deutlich höheren Marktanteils gegenüber anderen Betriebssystemen wird in dieser Erhebung ein Fokus auf das Android-Betriebssystem gelegt. Zu Beginn werden grundlegende Konzepte der IT-Sicherheit und des Aufbaus von Android diskutiert. Basierend auf diesen Grundlagen wird ein Testkonzept zur Überprüfung von Android-Applikationen aus dem gesundheitsbezogenen Anwendungsbereich hinsichtlich der Sicherheit von sensiblen Daten geschaffen. Schließlich wird im zweiten Teil der Arbeit das erarbeitete Konzept im Rahmen einer Analyse von 5 frei erhältlichen Applikationen aus dem Android Play Store umgesetzt. Im Zuge der praktischen Anwendung des Testkonzeptes konnten schließlich einige potentielle Schwachstellen identifiziert werden. So konnte beispielsweise aufgezeigt werden, dass trotz Verwendung von TLS keine Applikation Zertifikats Pinning verwendet und einige Apps tiefgreifende Berechtigungen zum Sammeln von Daten benötigen. Weiters sind mehr als die Hälfte der Applikationen unter bestimmten Umständen bei physischem Zugang zum Gerät anfällig für die Extraktion von User-Datenbanken. Eine weitere Schwachstelle, die im Rahmen dieser Arbeit aufgezeigt werden konnte, bietet einem Angreifer potentiell Zugriff auf Benutzerdaten über das Server-Interface des App-Servers.

Arbeitsbereich (vor 2018) Computer Vision

Diplomarbeitsposter Doppelbauer Stefan

Stefan Doppelbauer

Masterstudium Visual Computing
Abstract:

In dieser Arbeit wird Mobilitätsanalyse mittels Analyse des menschlichen Gangs und mittels automatischer Analyse des Timed UP & Go (TUG) Tests durchgeführt. Für beide Ansätze des Mobilitätsassessments wird jeweils eine Methode basierend auf Tiefendaten und eine Methode basierend auf Skelettdaten vorgestellt. Um die vorgestellten Ansätze zur Mobilitätsanalyse zu evaluieren, werden drei Datensätze mit Hilfe eines Kinect v2 Sensors aufgenommen und manuell markiert. Der erste Datensatz beinhaltet 234 Gangsequenzen von gesunden Erwachsenen, die auf vordefinierten Bodenmarkierungen gegangen sind. Der zweite Datensatz enthält 22 Gangsequenzen von 11 älteren Erwachsenen und der dritte Datensatz enthält 11 TUG Tests, die von älteren Erwachsenen durchgeführt werden. Der erste Ansatz zur Mobilitätsanalyse untersucht den menschlichen Gang durch die Extrahierung von fünf raum- und zeitabhängigen Gangparametern. Die extrahierten Parameter sind unter anderem Schrittgeschwindigkeit, Schrittlänge und Schrittdauer. Weiters wird der Status der Gebrechlichkeit der älteren Erwachsenen basierend auf Gangdaten, der benötigten TUG Zeit und eines validierten Fragebogens ermittelt. Der zweite Ansatz zur Mobilitätsanalyse präsentiert eine Methode zur Kinect-basierten, automatischen Analyse des TUG Tests. Die vorgestellte Methode erkennt nicht nur die benötigte Zeit für den Test, sondern auch den Beginn und das Ende von sechs Phasen des TUG Tests. Diese werden erkannt, indem die Bewegung der Person basierend auf der Geschwindigkeit des Schwerpunkts bzw. des zentralen Schultergelenks im Skelettmodel analysiert wird. Der vorgestellte Ansatz zur Automatisierung des TUG Tests weist deutlich niedrigere Fehler bei der Messung der benötigten Zeit, verglichen mit einer Stoppuhr und einem früher vorgestelltem Ansatz, auf.

Diplomarbeitsposter Hofer Dominik

Dominik Hofer

Masterstudium Medizinische Informatik
Abstract:

Despite its steady reduction in mortality due to early detection and improved treatment, prostate cancer remains the most common cancer form in men in the developed countries. Multi-parametric magnetic resonance imaging is gaining clinical relevance and is increasingly used to diagnose prostate cancer. In the last 15 years, computer-aided detection systems that aid the radiologists in their clinical decision making have come into focus of medical image analysis. These frameworks normally detect cancer by computing pixel-based features or compute region-based features and give a diagnosis about a region of interest that was manually annotated. In this thesis, we propose a computer-aided detection system that automatically segments the prostate into specific regions of interest without the need for manual annotation. By incorporating a multi-modal, superpixel-based oversegmentation of the prostate into our framework, more accurate region-based features can be calculated. The system is evaluated on two datasets. The first dataset consists of multi-modal MRI scans of 20 patients of which 18 have biopsy-proven prostate cancer. The second dataset has multi-modal MRI scans of 25 patients. In both datasets, the prostate boundary, prostate zones and cancer lesions were annotated by experienced radiologists. Performance evaluation is based on receiver operating characteristic curve. The average area under the curve is 0.84 with a standard deviation of 0.08 for the first dataset. The second dataset shows an average area under the curve of 0.71 with a standard deviation of 0.11. The framework shows a better performance than comparable computer-aided detection systems in literature and proves that superpixels can improve the classification result for detecting prostate cancer (from 0.85 to 0.87 for the first and from 0.55 to 0.59 for the second dataset).

Diplomarbeitsposter Pinetz Thomas

Thomas Pinetz

Masterstudium Visual Computing
Abstract:

Biometric authentication is used to secure vital infrastructure like airports. The most common form thereof is fingerprint matching. Current matcher use information about special landmarks in fingerprints, called minutiae for robust matching results. For this reason a stable fingerprint minutiae extractor is needed. Current solutions use time-consuming image enhancements routines and rely on specific quality measurements to allow reliable extraction of minutiae landmarks. With the rise of deep learning in similar areas and the free availability to synthetic fingerprint generators it is promising to try this technology on the minutiae extraction problem. The idea is to solve an equivalent binary segmentation problem, where for every pixel it is determined, if this pixel belongs to a minutiae region. This problem is then solved using an U-net FCNN. Using this information, a minutiae list is extracted and is then compared to existing solutions based on the matching score. Thereby results similar to other state-of-the-art methods are reported. Learning based approach depend on their training data. The freely available synthetic fingerprint generator Anguli is used to generate the basic dataset for training. Anguli also provides clean images of the ridge pattern to every fingerprint. The commercial minutiae extractor Verifinger is then used on those clean images to add a suitable ground truth. In this thesis it is proven, that it is possible to learn a minutiae extractor, which is better than the minutiae extractor used to generate the ground truth. To minimize the difference between synthetic images and real fingerprint images a novel approach based on adversarial learning is proposed, where suitable refinements are learned instead of hand crafted. This enables to generate synthetic fingerprint images indistinguishable from real fingerprints and improve the matching score across all tested databases.

Institut für (vor 2018) InformationssystemeE184

Arbeitsbereich (vor 2018) Distributed Systems

Diplomarbeitsposter Bachmann Kevin

Kevin Bachmann

Masterstudium Software Engineering & Internet Computing
Abstract:

An emerging decentralized computing paradigm that shifts the focus of interest away from a centralized cloud computing environment towards the edge of the network is called fog computing. The main idea of fog computing is to utilize the processing and storage resources at the edge of network by deploying IoT services on available edge devices to reduce latency and processing cost. The research challenges to be tackled in order to develop a dynamic software environment realizing the vision of fog computing are decentralized data processing, resource virtualization, service deployment, IoT device orchestration, and resource provisioning. Such a dynamic decentralized software environment is a fog computing framework. State of the art approaches are mostly focusing on cloud computing, conceptual fog computing architectures, and cloud-based resource provisioning approaches. Only few contributions deal with the development of a concrete fog computing framework. Therefore, in this work, IoT use cases, related IoT frameworks, and best practices in the area of distributed systems are analyzed in order to design and implement a dynamic, and extensible, fog computing framework. The fog computing framework provides the tools to manage IoT services in the fog landscape by means of a real-world test-bed. Furthermore, the framework facilitates the communication between the devices, fog device orchestration, IoT service deployment, and dynamic resource provisioning in the fog landscape. In addition, the framework is able to react on various system events, e.g., device accedence, device failure, and overload. As a result, the framework provides the utilities to deal with the dynamism of the fog landscape and yields lower deployment times of IoT services and considerable cost benefits. Finally, the design of the framework allows future researchers to configure, extend, and enhance the components of the framework to fit the individual requirements and research challenges.

Diplomarbeitsposter Eder Peter

Peter Eder

Masterstudium Software Engineering & Internet Computing
Abstract:

In the last years terms like Smart Grid, Smart City or Smart Vehicle, became increasingly popular. They all fall under the conception of the so called Internet of Things (IoT). It is estimated that in 2020 will be up to 34 billion devices connected with the Internet. However, the huge potentials of IoT come with various challenges. Among issues like privacy, security, scalability, etc., the infrastructure in IoT is a significant problem. The huge amount of different devices leads to a highly heterogeneous environment. Thus, developing applications that respect these heterogeneous infrastructures is exceedingly complex and in further consequence very error prone. A possible solution to this problem is to abstract the hardware layer through virtualization. In the course of this thesis we investigate how operating-system-level virtualization can be used to cope with the heterogeneous environment. Therefore, commonly used IoT devices are presented and an in-depth explanation of how operating-system-level virtualization is implemented on different operating systems (e.g., Linux, FreeBSD, Solaris, Windows) is given. Furthermore, currently available container engines with focus on Linux are introduced and compared. We also explain the concept of continuous delivery, and why this development approach facilitates agile development. To show the feasibility of operating-system-level virtualization in the context of IoT, a prototype of an application deployment framework is developed. This framework provides distribution and deployment of applications within one click. Furthermore, it allows to deploy on different CPU-architectures (e.g., ARM, x86) transparently to the user. The features of the framework are demonstrated via the deployment of a Building Managament System (BMS). In the last part of the thesis, the deployment time of different applications on various devices is evaluated and discussed, which shows both, feasibility and applicability of the proposed approach.

Diplomarbeitsposter Filz Manuel

Manuel Filz

Masterstudium Software Engineering & Internet Computing
Abstract:

The Internet of Things (IoT) represents an evolving field of technical, social, and economic significance. At its core, it connects a plethora of devices able to collect and sense their environment by using embedded sensors and exchange gathered information via the Internet. The enormous amount of data generated by these devices produces both new possibilities and new challenges. Opening up an endless array of new opportunities for innovative applications, the high volume of data demands the development of new tools and technologies. One such technology is Complex Event Processing (CEP), designed to detect patterns by analyzing streams of data in real-time. Applied to the IoT, it allows applications to make decisions tailored to their specific environment. As a result, applications can change their configuration depending on different requirements. However, CEP in the traditional sense of a central processing unit does hardly scale across thousands of nodes. This limitation can be overcome by applying a distributed processing model. Yet while distribution allows such applications to meet their requirements, it comes at a cost: the effort necessary for implementation of distributed systems are very high due to their complexity. Therefore, this thesis proposes a framework for supporting and facilitating the construction of CEP based IoT applications. By design, the framework leverages a modular design of the concrete application and employs well-defined communication structures to satisfy aforementioned requirements. It also cares about low-level tasks of distributed systems such as the coordination of different components, the distribution of rules, and measures for improving fault tolerance. Moreover, this thesis proposes a custom language for defining rules. The proposed language is optimized for the IoT context and enables users to express patterns in an intuitive way. For evaluation purposes, this thesis presents a prototype implementation of the framework.

Diplomarbeitsposter Hießl Thomas

Thomas Hießl

Masterstudium Software Engineering & Internet Computing
Abstract:

Das Internet of Things (IoT) gewinnt mit steigender Zahl an verbundenen Geräten an Bedeutung. Privates und geschäftliches Leben wird durch intelligente Geräte mit Sensoren und Aktuatoren erleichtert. Vorallem in der Fertigungsindustrie sorgt das IoT für verbesserte Prozesse. Die Sensor-Datenströme werden dazu häufig von Data Stream Processing (DSP)- Topologien in Echtzeit in der Cloud verarbeitet. Da die Sensoren an unterschiedlichsten Standorten platziert sind, kann beim Daten-Upload eine hohe Latenz auftreten. Um diese zu beschränken, werden Fog Computing-Ressourcen verwendet, die ihre Rechenleis- tung in geografischer Nähe zur Verfügung stellen. Fog Computing ist eine virtualisierte, skalierbare und on-demand zugängliche Rechenplattform, bestehend aus einer großen Anzahl von heterogenen Ressourcen wie z.B. Router, Switches und diverse Endgeräte. Um bestmögliche Servicequalität anbieten zu können, ist es vorteilhaft die DSP-Operatoren auf diversen Fog Resourcen hinsichtlich Latenz, Verfügbarkeit und Kosten zu optimieren. Das Ziel dieser Arbeit ist die Optimierung von DSP-Operatoren auf Fog Resourcen. Dafür wurde der ODR Reasoner entwickelt, ein loser gekoppelter Service, der für die Optimierung von DSP-Operator-Platzierungen in Fog- und Cloud-Umgebungen eingesetzt wird. Der ODR Reasoner überwacht das Netzwerk- und die DSP-Topologie, um diese In- formationen in ein lineares Programm zu integrieren, welches wiederholt gelöst wird. Um zu untersuchen, welche Kriterien bei der Optimierung berücksichtigt werden müssen, un- tersuchen wir aktuelle Ansätze und analysieren DSP- und Fog-Computing-Eigenschaften. Der entwickelte dynamische Ansatz wird in einer simulierten Fog-Umgebung basierend auf virtuellen Maschinen evaluiert. Der ODR Reasoner wurde mit einem statischen Ansatz verglichen, der nur beim Start der Topology optimiert. Die Ergebnisse zeigen, dass Latenz und Kosten um 31,5% bzw. 8,8% verringert werden konnten.

Diplomarbeitsposter Matt Johannes

Johannes Matt

Masterstudium Software Engineering & Internet Computing
Abstract:

The use of cloud-based storages to store data has become a popular alternative to traditional local storage systems. Users of cloud-based storages can benefit from a lot of advantages, such as higher data availability, extended durability and lower IT administration cost. However, there also exist drawbacks in using cloud-based storage systems. Among the biggest drawbacks are the problem of vendor lock-in and possible unavailability of the data. To overcome these problems, in this thesis we formulate a system model that makes use of multiple cloud storages to store data. The usage of this system model allows the redundant storage of data and aims at finding the cheapest possible storage solution. In this thesis we formulate a global optimization problem that takes into account historical data access information and ensures predefined Quality of Service requirements to find a cost-efficient storage solution. Furthermore, we present a highly scalable heuristic approach that can be used with big amounts of data. The heuristic approach aims at scalability while still providing a cost-efficient storage solution that comes close to the optimal solution provided by the global optimization. As an extension to the heuristic approach we also describe a latency consideration approach. This approach incorporates latencies between the middleware and the used cloud storages into the optimization in order to find a storage solution that offers the lowest possible latencies. Therefore, customers can access their data faster which leads to a better end-user experience. We extensively evaluate all three optimization approaches and thereby show the benefits of our designed approaches. The evaluations are presented by comparing our optimization approaches to a baseline that follows a state-of-the-art approach. We prove the correct functionality of the approaches by a detailed analysis of the results and show that we save more than 35% of total cost in comparison with the baseline.

Diplomarbeitsposter Prennsberger Alexander

Alexander Prennsberger

Masterstudium Business Informatics
Abstract:

Cloud Computing ist eine der wichtigsten Technologien der heutigen Zeit um on- demand Services über das Internet verfügbar zu machen. Ziel der Cloud Anbieter ist es, hohe QoS (Kosten,Deadlines) Standards einzuhalten. Cloud Konsumenten können jedoch überall auf der Welt verteilt sein und es ist zum Beispiel ineffizient Workloads von Konsumenten aus Europa in asiatischen Datenzentren zu bearbeiten. Durch die große geographische Distanz kann es außerdem der Fall sein, dass manche QoS Standards nicht mehr eingehalten werden können weil z.B. die Antwortzeiten zu groß sind. Deshalb sollten Ressourcen von verschiedenen Datenzentren beim bearbeiten von Workloads berücksichtigt werden. Um das zu ermöglichen benötigt es verteilte Prozesse. In dieser Arbeit wird ein verteilter Ansatz für Ressourcen Scheduling in der Cloud vorgestellt. Der Ansatz ist zwei Phasen gegliedert: (i) Lokale Scheduling Phase und (ii) Resource Discovery Phase. In der Scheduling Phase werden Workloads verfügbaren Ressourcen zugeordnet. Dieses Opti- mierungsproblem wirt mit Hilfe einer Particle Swarm Optimization Heuristik gelöst. In der Resource Discocery Phase werden Workloads an andere Datenzentren weitergeleitet. Diese prüfen ob sie genug verfügbare Ressourcen haben um den Workload abarbeiten zu können. Wenn ja, antworten sie dem Sender mit Informationen zu ihren Ressourcen. Dadurch ist es möglich, lokale Ressourcen innerhalb eines Datenzentrums durch externe Ressourcen zu erweitern. Mit Hilfe des CloudSim Frameworks wurde eine Simulation des Ansatzes durchgeführt. Die erzielten Ergebnisse zeigen, dass die Ausführungskosten von Workloads im Vergleich zu einem zentralen Scheduling Ansatz deutlich geringer sind. Die Einhaltung von Deadlines und Budgets ist ebenfalls besser wenn ein verteilter Ansatz verwendet wird. Vor allem bei sehr knappen Deadlines und in Szenarien mit sehr vielen Workloads sind die größten Verbesserungen durch einen verteilten Ansatz zu erkennen.

Diplomarbeitsposter Sheganaku Gerta

Gerta Sheganaku

Masterstudium Business Informatics
Abstract:

With software services becoming ever more ubiquitous, organizations are increasingly relying on interconnected business processes that act as a clockwork to orchestrate the interplay of individual services. Due to the volatility of business process landscapes, the amount of data or the number of process instances which need to be handled concurrently may vary to a large extent. With the advent of cloud computing and the virtually unlimited availability of computational resources in a utility-like fashion, organizations of any size and across industries are able to adjust their cloud-based infrastructure rapidly and on-demand. Besides applications, also complete business processes can be hosted on leased virtual resources, which enables the realization of so-called elastic processes, i.e., processes which are executed on scalable cloud infrastructure. The allocation of resources for elastic processes is usually done on a rather high level, i.e., services are directly allocated to Virtual Machines, which leads to a underutilization of computational resources. This thesis presents a novel solution that enables a fine-grained allocation of services to lightweight containers instead of complete VMs, leading to a higher level of control over leased computational resources and thereby to a better resource utilization. Optimization models and heuristics that consider resource, quality, and cost elasticity, while taking the fine-grained control into account are provided and realized as part of a newly designed container-based middleware. Extensive evaluations of the main presented approach for optimized enactments of given process landscapes under given Quality of Service (QoS) constraints show substantial cost savings and a better resource utilization while maintaining Service Level Agreements (SLAs), when compared to recently proposed VM-based approaches.

Arbeitsbereich (vor 2018) Database and Artificial Intelligence

Diplomarbeitsposter Becker Moritz

Moritz Becker

Masterstudium Software Engineering & Internet Computing
Abstract:

The ever increasing amount of data that the modern internet society produces poses challenges to corporations and information systems that need to store and process this data. In addition, novel trends like the internet of things even adumbrate a prospectively steeper increase of the data volume than in the past, thereby supporting the relevance of big data. In order to overcome the gap between storage capacity and data access speed while maintaining the economic feasibility of data processing, the industry has created frameworks that allow the horizontal scaling of data processing on large clusters of commodity hardware. The plethora of technologies that have since been developed makes the entrance to the field of big data processing increasingly hard. Therefore, this thesis identifies the major types of big data processing along with the programming models that have been designed to cover them. In addition, an introductory overview of the most important open source frameworks and technologies along with practical examples of how they can be used is given for each processing type. The thesis concludes by pointing out important extension projects to the presented base systems and by suggesting the conduction of a performance-centric comparison of Apache Spark and Apache Hadoop that can help to establish a more profound understanding of the nature of these systems and to identify potential novel research topics.

Diplomarbeitsposter Benuska Viliam

Viliam Benuska

Masterstudium Software Engineering & Internet Computing
Abstract:

Planning is an important research area of artificial intelligence. The goal of planning is to deliver a sequence of actions leading from an initial state to a goal state. The main goal of this master thesis is to implement a portfolio solver that delivers optimal solutions for planning problems as fast as possible. The portfolio solver is based on the fact, that algorithms outperform other algorithms for problem instances with specific characteristics. The implementation of a portfolio solver requires a solution for the sub-problem of extracting the right characteristics called features from planning problem instances and analysis of problem instances. Machine learning is used to find the correlations between characteristic features that describe problem instances and an optimal solver. The approach of introducing machine learning into planning is not entirely new, but it is not getting enough attention in the field of planning. Furthermore this thesis will cover analysis of the correlation of features that describe the planning problem instances and the most effective solver. The last aspect will be the creation of decision rules also called classification model. A good classification model can select with high probability an effective solver for any problem instance. At the end the implemented portfolio solver is empirically tested.

Diplomarbeitsposter Ivanschitz Bernd-Peter

Bernd-Peter Ivanschitz

Masterstudium Computational Intelligence
Abstract:

This thesis investigates the algorithm selection approach and the runtime prediction approach for the BPP. We considered two variations of the BPP, in the first case the items are oriented (O) and guillotine cuts are required (G), and in the second case the items can be rotated by 90 degrees (R) and guillotine cuts are also required (G). To use this method, we first introduce a set of features for the problem instances, which can be computed in polynomial time. Then we evaluate the performance of nine state of the art heuristics for the BPP. In order to evaluate these algorithms we use 500 problem instances from two publicly available instance sets. Furthermore, we investigate which attributes define hard instances and whether an algorithms exist, which clearly outperforms the other algorithms. We analyse the behaviour of the algorithms on classes of problem instances with different attributes. Furthermore, we investigate which characteristics define hard instances and whether a algorithms exist, which clearly preforms better than others. We use the knowledge about the most appropriate algorithm and the new developed features for each instance to train eight classification algorithms. The obtainedmodels use supervised learning methods to predict the most appropriate algorithm for new and unseen instances. For each classifier we test multiple parameter settings. We analyse the impact of preprocessing and data preparation techniques on the quality of the performance for the prediction models. Our experiments show that the selection of an algorithm based on machine learning is able to beat all the single solver heuristics in terms of time - and solution quality. For the run time prediction approach we use additionally a newly generated dataset with a higher variety of instance sizes. The experimental results with different regression models show that the designed features can be used for the runtime prediction of the BPP-algorithms.

Diplomarbeitsposter Karami Omid

Omid Karami

Masterstudium Computational Intelligence
Abstract:

Machine learning is one of the most interesting topics of research that is applied in many domains such as for example medicine. It is going to play an important role for decision support in this area. The amount and complexity of recorded data in this area increases constantly, which makes it harder for humans to make right decisions that are important for human lives. The focus of this thesis is the application of the machine learning techniques in medical data. An important question which arises, when applying machine learning techniques, is the selection of the most suitable techniques for a specific application. Although many researchers compared different techniques for specific medical domains, often it is not clear if the results for these domains can be still improved by applying other machine learning techniques. In this thesis, several medical data sets were selected from UCI repository. The focus was particularly on data sets for which is not easy to achieve high classification accuracy. In this thesis we first reviewed the machine learning techniques which have been used for the selected data sets and analyzed the existing results. We then experimentally evaluated various new classifiers on these data sets. The parameters in each classifier were investigated and experiments with various configurations were performed. Furthermore, we evaluated the impact of the preprocessing techniques on selected datasets. The experiments showed that the use of preprocessing techniques and parameter tuning is very important to achieve good performance for the most machine learning algorithms. Although the best results were obtained by various machine learning algorithms, our experiments showed that ensemble learning algorithms such as AdaBoost and random forest gave usually very good results.

Diplomarbeitsposter Keshavarzi Zafarghandi Atefeh

Atefeh Keshavarzi Zafarghandi

Masterstudium DDP Computational Logic (Erasmus-Mundus)
Abstract:

Argumentation, and in particular computational models of argumentation, has recently become a main topic within artificial intelligence. This is not only because of its crucial importance and wide applications in other fields of science like philosophy, law, logic, and medicine but also because of its connection to other areas of AI, in specific, knowledge representation. One popular, prominent and simple formalism stands out, namely abstract argumentation frameworks (AFs) first introduced by Dung. Although AFs are very popular tools in argumentation because of their conceptual simplicity, they are not expressive enough to define different kind of relations. Several generalizations of AFs exist, in particular, abstract dialectical frameworks (ADFs), a powerful generalization of AFs, are widely studied. ADFs, first defined by Brewka and Woltran, are capable to express arbitrary relations between arguments beyond simple attacks by assigning an acceptance condition to each argument in the form of a propositional formula. In the current work we close some gaps in existing research on ADFs. More specifically, we investigate whether some main results carry over from AFs to ADFs. For instance, we reformulate Dung's Fundamental Lemma and we study under which conditions all semantics of an ADF coincide. We also study whether particular properties which are known to hold for certain subclasses can be extended to the world of ADFs by defining related subclasses of ADFs. A central aspect of our work is comparing the expressivity of subclasses of AFs and ADFs from the perspective of realizability. At the end we introduce an implementation of a generator to produce such subclasses of ADFs. We use this generator in order to evaluate the effect of cycles on the performance of existing solvers for ADFs.

Arbeitsbereich (vor 2018) Knowledge Based Systems

Diplomarbeitsposter Gegendorfer Andreas

Andreas Gegendorfer

Masterstudium Computational Intelligence
Abstract:

This work examines part of the question as to how far the method of neuroevolution can be used for the automated generation of various animations. Specifically, the extent to which neuroevolution is suitable for the realization of physics-based animations for two-dimensional characters in computer games is considered. The analysis of the current state of the art in the areas of neuroevolution and physics-based character animation forms the basis for the design of a concept that is implemented subsequently. At the heart of this concept stands the realization of a prototypical implementation that allows the creation of appealing animations for different character models and creatures. In addition to being able to handle the given task well and in view of a practical application in the game industry, the program is desired to provide great flexibility, ease of use, and high performance. The game engine Unity and the already integrated physics engine Box2D are the technological foundation for the prototype. The implementation phase is supported by extensive tests and experiments, which are of great importance due to the limited availability of intelligence on this topic up to the present time. The result of this work is a versatile software prototype that can already fulfill the most important tasks and handle the appealing animation of different types of movements for virtual 2D-characters. This property is underlined by the results of an extended testing phase in which results of technical measurements and aesthetic aspects (which are assessed by means of a survey) are taken into account. Therefore the overall conclusion concerning the outcome of this work remains largely positive and its results provide a solid starting point for further research on using neuroevolution for physics-based character animation. The investigation of possible adaptations of the prototype to the special requirements of real-time applications is presented as a possible next step.

Arbeitsbereich (vor 2018) Formal Methods in Systems Engineering

Diplomarbeitsposter Danninger Clemens Florian

Clemens Florian Danninger

Masterstudium Software Engineering & Internet Computing
Abstract:

Resource Bound Analysis ist ein Bereich der Programmanalyse mit dem Ziel, Bounds (Grenzen) für den Verbrauch an bestimmten Ressourcen beim Durchlauf eines Programms zu bestimmen. Bounds sind Ausdrücke über die Parameter eines Programms, die für beliebige Parameterkombinationen korrekt sind. Da dies durch einfaches Testen nicht erreichbar ist, sind die hier behandelten Analysetypen statisch. Bounds für viele verschiedene Arten von Ressourcen sind von Interesse, darunter Laufzeit, Stack und Heap-Ausnutzung oder wie oft eine bestimmte Funktion aufgerufen wird. Resource Bound Analysis hat zahlreiche Anwendungsmöglichkeiten in der Entwicklung von Embedded- und Echtzeitsystemen, Komplexitätsanalyse von Algorithmus-Implementierungen und Security. Während viele neuere Ansätze auf imperative Programme abzielen, konzentriert sich diese Arbeit auf funktionale Programme, wo Wiederholung (der wichtigste Aspekt in der Resource Bound Analysis) als rekursive Funktionsaufrufe statt als Schleifen implementiert ist. Da Ressourcenanalyse ein umfangreiches Thema ist, beschränken wir uns auf die Analyse der Anzahl an Funktionsaufrufen (d.h. wie oft jeder Teil des Programms ausgeführt wird). Eine Erweiterung auf andere Ressourcentypen wäre allerdings problemlos. Wir präsentieren eine Boundanalyse für eine seiteneffektfreie Untermenge von Lisp mit Funktionen erster Ordnung. Die Analyse baut auf CoFloCo auf, einem existierenden System, das Bounds aus einem System von Cost Relations berechnet. Wir beschreiben eine Übersetzung von Lisp in Cost Relations, aus denen Bounds für Lisp-Programme mit polynomieller Komplexität berechnet werden. Wir berichten über Experimente, die mit einem umfangreichen Benchmark durchgeführt wurden. Wir analysieren etwa 20000 Funktionen und untersuchen die Ergebnisse und berechneten Bounds, um die Eignung unseres Ansatzes zu beurteilen und verbleibende Probleme sowie aussichtsreiche Ansätze für weitere Untersuchungen zu identifizieren.

Institut für (vor 2018) Institut für ComputersprachenE185

Arbeitsbereich (vor 2018) Programmiersprachen und Übersetzer

Diplomarbeitsposter Binder Johann

Johann Binder

Masterstudium Business Informatics
Abstract:

Nowadays, several modeling tools exist for creating business processes in enterprises. Most of them can be used by IT experts to semi-automatically create corresponding software artifacts of the given process. However, as they comprise a lot of complexity, none of these tools is usable by ordinary end users. When searching for related work targeting process modeling tools for end users, only very few approaches can be found. An evaluation of the existing papers shows that they all have several drawbacks. To overcome this gap, we have designed and implemented a modeling tool that is usable by end users to model their daily life workflows such as chatting or exchanging photos with a friend. Afterwards, a fully executable application can be created from the model automatically that can be downloaded and shared with friends. The abstraction of the modeling tool is more comprehensible than those of other modelers as it uses the micro-room concept as a basis. It allows end users to think about their daily life workflows in terms of persons performing specific actions in several rooms they can visit in a predefined order. Additionally, the user interface of the modeling tool is kept as simple as possible to provide proper usability. By performing a usability testing it could be shown that the micro-room concept indeed uses a more comprehensible abstraction if compared to other modeling languages. Additionally, it is well-suited for modeling simple collaborative tasks, whereas other approaches are better if very complex processes have to be modeled or software should be specified formally. Also, the developed modeling tool is far more intuitive than the competing ones due to the simplifications allowed by using the micro-room concept. Finally, five key factors for creating an intuitive modeling tool in general have been derived, i.e. required functionality, undoability, system stability, easy learnability and understandability.

Diplomarbeitsposter Koltraka Ardian

Ardian Koltraka

Masterstudium Computational Intelligence
Abstract:

Rasch veränderliche Marktsituationen, hohe Variantenvielfalt und Flexibilität sowie immer kürzer werdende Innovationszyklen, erfordern häufig eine schnelle Anpassung moderner Produktionssysteme an die neuen Gegebenheiten. Mensch-Roboter-Kollaboration (MRK) wird in diesem Zusammenhang als Schlüsseltechnologie zur Effizienzsteigerung und Kostenreduktion betrachtet. Zur Umsetzung effizienter MRK, z.B. in Montageprozessen, sind durchdachte Konzepte für die Kommunikation und Koordination unter den Akteuren, sowie die Abstraktion von domänenrelevantem Wissen notwendig. Die wesentliche Herausforderung an derartige Roboterassistenzsysteme ist das Setzen korrekter Handlungen zum richtigen Zeitpunkt und in nahtloser Kollaboration mit dem Menschen. Dabei sind das Lernen und Identifizieren von Zuständen in einem Montageprozess unverzichtbare Fähigkeiten, um auf nachfolgend auszuführende und zielführende Handlungen schließen zu können. Ziel dieser Masterarbeit ist die Entwicklung eines Reasoning-Systems um Hypothesen über den aktuellen Zustand des Montageprozesses aufstellen zu können. Als Informationsquellen für den Reasoning-Prozess sollen das vorhandene Domänenwissen und erfasste Daten von Sensor- und Aktuator-Systemen in kombinierter Weise herangezogen werden. Zur Wissensrepräsentation wird ein generisches Datenmodell zur Beschreibung des Montageprozesses aus Prozesszuständen entwickelt. Jeder Prozesszustand ist durch erfasste Zustände von Mensch und Roboter sowie der räumlichen Anordnung der relevanten Objekte (z.B. Bauteile) beschrieben. Dieses Datenmodell ist konform mit den Datenformaten der Sensor- und Aktuator-Systeme und ermöglicht qualitative Hypothesen über den aktuellen Prozesszustand unter Verwendung von Algorithmen zum überwachten, maschinellen Lernen.

Diplomarbeitsposter Schoba Jörg

Jörg Schoba

Masterstudium Software Engineering & Internet Computing
Abstract:

Peer-to-peer (P2P) communication and coordination is an emerging paradigm in next generation distributed systems. An analysis of the state of the art of conceptualized and existing P2P communication and coordination frameworks, which are applicable for widely distributed systems and support deployment on current mobile devices, reveals that most of these approaches do not provide sufficient developer support, are only applicable for specific use cases, are designed for local area networks, are deprecated or not easily deployable on mobile devices. Therefore, a coordination framework for mobile devices based on P2P communication is designed and implemented, intended to support developers in creating internet-scale, distributed mobile applications. The reference implementation is conducted for Android devices, because Android currently has the highest market share of mobile operating systems. Nevertheless, the system is designed to be implementable also on other mobile platforms and generally is compliant to mobile constraints. Compared to a system running on a desktop or server machine these constraints include, e.g., the battery consumption, the limited processing power and the limited network connectivity. These aspects have been considered in the technical system design. Also, because P2P communication shall be possible in an internet-scale network, appropriate security measures have been taken. Moreover, the system is designed to be able to traverse any network address translation (NAT) of a network without having to configure a router or firewall, which enables P2P communication in any network constellation. This work delivers a framework that supports a developer of a mobile P2P application by providing the middleware components that abstract communication and coordination logic of the application and let the developer focus on application logic only.

Diplomarbeitsposter Tillian Peter

Peter Tillian

Masterstudium Software Engineering & Internet Computing
Abstract:

Various peer-to-peer coordination models and frameworks have evolved in the last 20 years, facilitating the design and implementation of complex coordination and collaboration tasks in highly distributed systems. However, none of them were specifically designed for mobile environments and they do not cope with typical constraints, like battery consumption, limited processing power and discontinuous availability. Nowadays, a mobile device can act as an autonomous node in such a distributed network and is also capable of performing complicated tasks due to increasing capabilities in hardware and software. Therefore, in the course of this work, a coordination framework has been implemented which is particularly tailored for mobile devices. The Peer Model developed at the TU Wien has been chosen as the underlying coordination model, for which also a reduced feature set has been elaborated as part of this work. By using the provided framework, application developers are supported in terms of P2P communication and coordination logic and can hence focus on the application logic only. The framework is implemented for the Android platform, but is developed with cross-platform considerations in mind. In addition to a proof-of-concept Android messenger application, the framework has been evaluated with performance benchmark tests.

Diplomarbeitsposter Zischka Stefan

Stefan Zischka

Masterstudium Software Engineering & Internet Computing
Abstract:

Die Problemstellung der Pfadselektion beim Senden von Daten über mehrere Netzwerkknoten wird durch Routing Algorithmen gelöst und ist von elementarer Relevanz für die Kommunikation in Peer-to-Peer Computer Netzwerken. Für Peer-to-Peer Netzwerke ist das Routing Problem von spezieller Wichtigkeit, da keine zentrale Sicht auf das Netzwerk und keine globale Adresszuordnung existiert. Die Diplomarbeit liefert ein dringend benötigtes Framework für faire und systematische Benchmark-Tests von Routing Algorithmen in unstrukturierten Peer-to-Peer Netzwerken und ermöglich deren Vergleich. Die resultierende Applikation basiert auf dem koordinationsbasierten Programmiermodel Peer Model, erlaubt die leichte Austauschbarkeit von Routing Algorithmen und bietet umfangreiche Konfigurierbarkeit. Ein weiterer Beitrag ist die Adaptierung von zwei vorhandenen schwarm-intelligenten Algorithmen zur Lösung des Routing Problems. BeeNet basiert auf dem Futtersuchverhalten von Honigbienen. SlimeMoldNet hingegen basiert auf dem Lebenzyklus des Dictyostelium discoideum Schleimpilzes. Beide Algorithmen werden kompetitiv gemessen, evaluiert und mit fünf bekannten Routing Algorithmen verglichen: AntNet, BeeHive, Physarum polycephalum Routing Algorithmus, Gnutella Flooding und k-Random Walker. SlimeMoldNet performt ingesamt besser als die anderen Algorithmen bezüglich der durchschnittlichen Datenpaketverzögerung. Dies gilt im Speziellen für größere Netzwerke und große Anzahl von Datenpaketen. BeeNet zeigt ähnlich gute Resultate. Hinsichtlich der Skalierbarkeit performt BeeNet besser als die anderen Algorithmen. Die Ausnahme bildet k-Random Walker in einigen wenigen Fällen, der jedoch dafür in anderen Bereichen wesentliche Mängel aufweist. Die Skalierbarkeit von SlimeMoldNet ist überdurchschnittlich gut und verbessert sich drastisch und proportional zur Netzwerkgröße und Datenverkehr.

Arbeitsbereich (vor 2018) Theoretische Informatik und Logik

Diplomarbeitsposter Ackermann Thomas

Thomas Ackermann

Masterstudium Information & Knowledge Management
Abstract:

Adapting to technological advances in a world that is constantly evolving, research on education in information security is providing the framework to ensure that individuals, deciding to pursue a career in IT security, can acquire an adequate foundation of knowledge. Rooted in educational psychology, this research is ultimately responsible for the measures employed in the future education of students. Educators are informed on instructional methodology as well as on the knowledge areas to include in a specific field of study. Finding the most optimal way for educating new students in information security includes the need for researchers to be aware of the current state in research, as well as of avenues for future research provided by the underlying sciences. Seeking to assess the state of research in information security education, this thesis analyses a representative selection of state-of-the art publications. To identify trends in the evaluated research, the employed theoretical principles of teaching and learning, as well as the discussion on the encountered learning methodologies will be investigated. A comprehensive summary of the evaluated scientific work serves to illustrate the current state of research. As inspiration for future directions in research, the study will be concluded by a discussion of the examined educational aspects. Next to innovative approaches in research on educational methodologies and supporting technologies, this thesis finds instruction characteristics to be often overlooked in the discussion of the employed educational measures. Coupled with a very low percentage of scientific work concerned with the improvement of learning and instruction methods, research in information security education is found to be predominantly concerned with the design and implementation of new curricula, primarily reacting to new requirements in a constantly evolving technological landscape.

Diplomarbeitsposter Steyrer Bernhard

Bernhard Steyrer

Masterstudium Medizinische Informatik
Abstract:

Die Durchführung von digitalen Röntgenuntersuchungen in medizinischen Einrichtungen gehört seit Jahren zur alltäglichen Praxis. Unabhängig von der Höhe der Strahlenbelastung werden dabei Zellveränderungen provoziert und das Krebsrisiko erhöht. Hinsichtlich dieser Gegebenheit ist es unerlässlich, der Reduktion von individueller Strahlendosis zum Schutz der Patienten höchste Priorität zuzuordnen. Die Literaturrecherche hat jedoch aufgezeigt, dass in keiner aktuell gültigen österreichischen Rechtsordnung die patientenbezogene Strahlenbelastung bei digitalen Röntgenaufnahmen überprüft wird. Die Strahlenschutzverordnung verweist auf diagnostische Referenzwerte, welche lediglich im Mittel zu betrachten sind. Potentielle Überdosierungen bleiben somit unbemerkt. Die vorliegende Arbeit zum Ziel gesetzt, die Qualitätssicherung der patientenbezogenen Strahlenbelastung näher zu betrachten und diese mit Hilfe einer Software-basierten Lösung zu optimieren. Aufgrund der Nichterfüllung der definierten initialen Anforderungen an eine Software-Applikation dieser Art, wurde ein Prototyp im Zuge eines iterativen User Centered Design-Verfahrens erstellt. Die durch den Einsatz der prototypischen Software-Applikation erhaltenen Ergebnisse, zeigen eine Einhaltung der rechtlich vorgegebenen mittleren Strahlenbelastung. Werden die gesetzlichen Referenzwerte als individuelle Grenzwerte angesehen, zeigen 445 (7%) der analysierten Untersuchungen eine überhöhte Strahlendosis. Mit Hilfe des entwickelten Prototyps wurden Röntgenaufnahmen mit Überdosierungen festgestellt, bei welchen die Patienten das bis zu Fünffache der Durchschnittsdosis erhalten haben. Vorkommnisse wie diese müssen innerklinisch zur Diskussion gestellt werden, um die Ursachen zu finden. Die Evaluierung zeigt, dass eine Analyse der Strahlenbelastung eine geeignete software-basierende Lösung fordert und die derzeit geltenden Rechtsvorschriften aufgrund des technischen Fortschrittes angepasst werden sollten.

Institut für (vor 2018) Institut für Computergraphik und AlgorithmenE186

Arbeitsbereich (vor 2018) Algorithms and Complexity

Diplomarbeitsposter Horn Matthias

Matthias Horn

Masterstudium Technische Informatik
Abstract:

Im Rahmen dieser Arbeit wurde ein auf variable Nachbarschaftssuche (VNS) basierender Algorithmus entwickelt, um eine Variante des Site-Dependent Vehicle Routing Problem with Time Windows (SDVRPTW) zu lösen. Motivation dieser Arbeit war weitere für die Praxis relevante Eigenschaften zu berücksichtigen, wie zum Beispiel große Test-Instanzen mit einen Planungshorizont über mehrere Wochen. Der Planungshorizont wird dynamisch um jeweils einen Tag verschoben, sodass neue Kundenaufträge hinzugefügt werden und alte Aufträge aus dem Planungshorizont herausfallen. In dieser Arbeit wurden sowohl exakte als auch heuristische Methoden für das beschriebene Problem entworfen. Die heuristische Methode basiert auf der VNS Metaheuristik, welche systematisch und teilweise randomisiert nach besseren Lösungen sucht. Eine Besonderheit ist, dass der Algorithmus ohne einen expliziten Konstruktionsalgorithmus auskommt, da die benutzten Nachbarschaften in der Lage sind, eine Lösung zu erzeugen bzw. zu erweitern. Die Ergebnisse des entwickelten Algorithmus wurden mit den publizierten Ergebnissen von der Literatur verglichen. Es lässt sich zeigen, dass die Ergebnisse robust sind sowie eine hohe Lösungsgüte besitzen. Des Weiteren wurde eine auf Techniken der mathematischen Programmierung basierende exakte Methode entwickelt. Das zugrundeliegende Modell basiert auf einer Miller-Tucker-Zemlin Formulierung, die durch die dynamische Separierung von weiteren Ungleichungen gestärkt wird. Diese exakte Methode ist in der Lage, kleine Problem-Instanzen des SDVRPTW zu lösen. Trotz des Schwerpunktes auf der operativen Anwendbarkeit in der Praxis im dynamischen Kontext erreichen die Algorithmen nahe state-of-the-art Ergebnisse auch auf akademischen Benchmark-Instanzen für die statische Problemvariante.

Diplomarbeitsposter Hubmer Oliver

Oliver Hubmer

Masterstudium Software Engineering & Internet Computing
Abstract:

In times of smartphones and mobile technologies, telecommunication is a crucial part of modern life and indispensable for private and professional communication. With the emergence of social media, music and video streaming, evermore data is send over these networks, which have a limited bandwidth capacity. In order to ensure a stable and reliable communication of mobile devices, a solid infrastructure in form of a network must be planned and monitored carefully, to ensure enough available bandwidth for all customers. A comprehensive network of radio towers and their connections have to ensure an area wide coverage. In order to satisfy the ever increasing demand for more bandwidth more radio towers can be constructed, or new technologies, such as fiberglass, can be used to upgrade existing radio towers and their connections to increase the amount of data which can be send through a telecommunication network at any given time. This thesis focuses on the latter option, in upgrading existing radio towers, and in which radio towers are best suitable for upgrades depending on different criteria, such as the bandwidth availability, the costs, and other factors like future potential markets. Furthermore, despite the specific use case the methods and algorithms can be used for other problems with little or no adaption.

Diplomarbeitsposter Jatschka Thomas

Thomas Jatschka

Masterstudium Computational Intelligence
Abstract:

In this thesis algorithms are developed for solving scheduling problems subject to a large time horizon. We apply these algorithms on a problem motivated by a real world patient scheduling scenario at the cancer treatment center MedAustron located in Wiener Neustadt, Austria. The tasks involved in providing a given set of patients with their individual particle treatments shall be scheduled in such a way that given minimum and maximum waiting times are respected. Each task needs certain resources for its execution. One of the resources is the particle beam which is particularly scarce as it is required by every treatment and shared between several treatment rooms. The goal is to find a schedule which is as dense as possible to allow treating as many patients as possible. We develop different exact as well as heuristic algorithms for tackling the problem. A GRASP is used to heuristically solve the problem. The exact algorithms are based on MILP. We provide different MILP models and compare the strength of models that are of particular interest. The main algorithm of this thesis is a matheuristic. The basic idea of our matheuristic is to solve the problem without explicitly considering the complete time horizon. Instead, the algorithm considers a relaxed model which is based on partitioning the time horizon into so called time-buckets. An obtained solution provides a dual bound for the problem’s solution value but in general does not represent a feasible schedule. Using the solution to the relaxation, the algorithm tries to heuristically derive a primal bound, i.e., a feasible schedule. Moreover, the algorithm also subdivides some time-buckets based on information gained from the solution to the relaxation and resolves the resulting refined model to obtain an improved bound on the problem. Doing this refinement iteratively yields a matheuristic that in principle converges to a provably optimal solution.

Arbeitsbereich (vor 2018) Computergraphik

Diplomarbeitsposter Erler Philipp

Philipp Erler

Masterstudium Visual Computing
Abstract:

Virtuelle Realität (VR) wird im Moment zu einem verbreiteten Medium. Aktuelle Systeme wie die HTC Vive bieten ein genaues Tracking des HMD und der Controller. Dies ermöglicht extrem immersive Interaktionen mit der virtuellen Umgebung. Diese Interaktionen können durch Feedback weiter verbessert werden. Wir haben eine Nutzerstudie durchgeführt, um Folgendes zu analysieren: 1. Das Aufnehmen und Werfen mit Controllern in einem einfachen Basketball-Spiel. 2. Den Einfluss von haptischen und optischen Feedback auf Leistung, Präsenz, Benutzerfreundlichkeit und Arbeitsbelastung. 3. Die Vorteile von Punktwolken-Bearbeitung in VR gegenüber Punktwolken-Bearbeitung am Computer. Durch die Entwicklung den Punktwolken Editors für VR sind einige neue Verfahren entstanden. Unsere neue Betrachtungsmethode, die beidhändige Zwick-Geste, erweitert die Handgriff-Metapher, um Punktwolken in VR effizient zu bewegen, drehen und skalieren. Unsere neue Renderingtechnik nutzt den Geometry Shader, um dünn besetzte Punktwolken schnell zu zeichnen. Selektionvolumen am Controller sind unsere neue Methode, um Punkte in der Punktwolke effizient zu selektieren. Die sich ergebende Selektion kann in Echtzeit dargestellt werden. Die Ergebnisse der Nutzerstudie zeigen, dass: 1. das Aufnehmen mit einem Controllerknopf intuitiv ist, das Werfen aber nicht. Den Knopf loszulassen ist eine schlechte Metapher für das Loslassen eines virtuellen Objekts, um es zu werfen. 2. das Hinzufügen von haptischen, optischen oder beiden Feedbacktypen zum Aufnehmen die Leistung der Nutzer und die Präsenz verbessert. Allerdings sind nur Teilbereiche wie Genauigkeit und Vorhersagbarkeit signifikant verbessert. Das Feedback hat fast keinen Einfluss auf Benutzerfreundlichkeit und Arbeitsbelastung. 3. das Editieren von Punktwolken in VR mit der beidhändigen Zwick-Geste und den Selektionsvolumen ist signifikant besser als am Computer mit Orbitkamera und Lasso-Selektionen.

Diplomarbeitsposter Gehrer Daniel

Daniel Gehrer

Masterstudium Medizinische Informatik
Abstract:

This work proposes an agent-based model for animating molecular machines. Usually molecular machines are visualized using key-frame animation. Creating large molecular assemblies with key-frame animation in standard 3D software can be a tedious task, because hundreds or thousands of molecular particles have to be animated by hand, considering various biological phenomena. To avoid repetitive animation of molecular particles, a prototypic framework is implemented, that employs an agent-based approach. Instead of animating the molecular particles directly, the framework utilizes behavior descriptions for each type of molecular particle. The animation results from the molecular particles interacting with each other as defined by their behavior. Interaction between molecular particles is enabled by an abstract model that is implemented by the framework. The methodology for creating the framework was driven through learning by example. Three molecular machines are visualized using the framework. During this process, the framework was iteratively improved, to meet the requirements for each new molecular machine. The resulted animations demonstrate that agent-based animation is a viable option for molecular machines.

Diplomarbeitsposter Jordakieva Ivalina

Ivalina Jordakieva

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

SiMA (Simulation of the Mental Apparatus & Applications) ist ein interdisziplinäres Projekt bei dem Techniker und Psychoanalytiker ein implementierbares Modell einer Entscheidungsfindungseinheit entwickeln, welches auf dem psychischen Apparat des Menschen beruht. Dabei wird besonderes Augenmerk daraufgelegt, dass das entwickelte System in seinen Funktionen (und seinem Verhalten) dem menschlichen Vorbild nahekommt. Dazu gehört auch das Umsetzen sozialer Regeln und Abwehrmechanismen. Diese bilden gemeinsam einen bionisch inspirierten Filtermechanismus für die Sensordaten des Agenten. Der Filtermechanismus ermöglicht es Konflikte zwischen Wahrnehmung und Zielen des Agenten sowie sozialen Regeln zu erkennen und aufzulösen. Einem Use-Case driven development-Ansatz folgend, wird das SiMA Projekt in der vorliegenden Arbeit iterativ weiterentwickelt. Grundlage sind psychoanalytische Use-Cases, die das menschliche Verhalten abbilden. Der aktuell zu erfüllende Use-Case befasst sich mit der Verfeinerung der Abwehrmechanismen. Zur Erfüllung dieses Use-Cases ist es notwendig die Abwehr auf die nächste Entwicklungsstufe zu heben. Dies beinhaltet das Formulieren der Filter-Regeln, eine Wissensrepräsentation um diese abzubilden und Visualisierungsmöglichkeiten um Filterregeln und ihren Einfluss auf die Entscheidungsfindung validieren zu können. Des Weiteren muss die Infrastruktur zum Umsetzen des aktuellen Use-Cases weiterentwickelt werden, um eine Validierung mit dem Gesamtsystem zu ermöglichen. Dies fordert die Entwicklung eines Inventarsystems und neuer Aktionen für den Agenten.

Diplomarbeitsposter Kreuzer Felix

Felix Kreuzer

Masterstudium Visual Computing
Abstract:

Schatten helfen dabei, räumliche Zusammenhänge zu begreifen, und sind aus modernen Echtzeitvisualisierungen nicht mehr wegzudenken. In der Echtzeitgrafik werden häufig Shadow-Mapping Verfahren in Kombination mit Tiefpassfiltern verwendet um visuell ansprechende Schatten zu erzeugen. Der weichzeichnende Effekt dieser Filter hat den Vorteil, dass Fehler, die bei beim Abtasten der Szenengeometrie entstehen, versteckt werden können, was wiederum die visuelle Qualität der erzeugten Schatten erhöht. Ziel dieser Arbeit ist es, diese Filter auszunutzen, um eine Funktion aus dem Radius des Weichzeichnungsfilters und der Abtastrate der Shadow Map herzuleiten, die es ermöglicht, Rechenleistung einzusparen, während der optische Eindruck der Schatten erhalten bleibt. Im Verlauf dieser Arbeit werden wir ergründen, wie diese Fehler entstehen und wie man sie vermeiden kann. Eine Studie hilft uns dabei, ein optimales Verhältnis zwischen der Abtastfrequenz der Shadow Map und dem Radius des Filters zu finden. Aus den Ergebnissen der Studie leiten wir dann eine Formel ab und entwickeln einen Algorithmus, mit dem sich bestehende Shadow-Mapping Algorithmen erweitern lassen können. Anhand der Implementierung eines Prototyps können wir zeigen, dass sich mit unserer Methode in vielen Fällen die Sampling Frequenz reduzieren lässt und Rechenleistung eingespart werden kann.

Diplomarbeitsposter Podaras Silvana

Silvana Podaras

Masterstudium Visual Computing
Abstract:

This thesis presents a method to automatically estimate road-surface types based on crowd-sourced and open source data to give cyclists an overview of the road conditions along a cycle route. Automatic classification of land-cover has been an active research field in recent years and mainly focuses on the classification of areas based on digital satellite and aerial imagery. Performing classification of road-surfaces based on such images bears some special challenges because roads have a width of only a few pixels on these photos, which makes it difficult to successfully apply classical image-analysis methods. This thesis proposes an alternative approach for road-surface classification by utilizing open source data with a focus on data from the project OpenStreetMap (OSM). The system is designed so it can be extended with additional data from other sources to improve classification results. Classification takes place at two levels, based on a coarse-to-fine-grained surface taxonomy. The method was evaluated on different testing areas in Austria and Liechtenstein. At the coarse-grained level, up to 90% of streets were correctly classified. At the fine-grained level, up to 60% of streets were correctly classified. The advantage of the proposed method is that it is fast and applicable to regions worldwide at low cost, as long as sufficient OSM data for a certain region is available.

Diplomarbeitsposter Walch Andreas

Andreas Walch

Masterstudium Visual Computing
Abstract:

Lens flare is a visual phenomenon caused by interreflection of light within a lens system. This effect is often undesired, but it gives rendered images a realistic appearance. In the area of computer graphics, several simulation based approaches have been presented to render lens flare for a given spherical lens system. An accurate model of the lens system and all its components is crucial for a physically reliable result. Since the effect differs from camera to camera, these methods are not flexible, and the internal parameters – especially the anti-reflection coatings – can only be approximated. In this thesis we present a novel workflow for generating physically plausible renderings of lens flare phenomena by analyzing the lens flares captured on a camera. Furthermore, our method allows to predict the occurrence of lens flares for a given light setup. This is an often requested feature in light planning applications in order to efficiently avoid lens flare prone light positioning. A model with a tight parameter set and a GPU-based rendering method allows our method to be used in real-time applications.

Diplomarbeitsposter Weinzierl-Heigl Christoph

Christoph Weinzierl-Heigl

Masterstudium Visual Computing
Abstract:

In dieser Diplomarbeit präsentieren wir eine Methode zur glaubhaften Approximierung von indirekter Beleuchtung – einem Teilgebiet der globalen Beleuchtung (engl.: global illumination) in der Computergraphik – welche in Echtzeit auf moderner Computerhardware berechnet werden kann. Dazu benützen wir die programmierbare Rasterisierungspipeline aktueller Graphikkarten. Wir stellen eine Variante zur Berechnung der indirekten Beleuchtung vor, welche im Bereich der sogenannten Instant Radiosity Verfahren angesiedelt ist. Bei diesen Methoden wird indirekte Beleuchtung durch weitere virtuelle Lichtquellen simuliert, die an den Schnittpunkten der Lichtstrahlen mit den reflektierenden Objekten platziert werden. Unsere Methode namens Adaptively-Clustered Reflective Shadow Maps verwendet eine neuartige, adaptive Gruppierung basierend auf dem k-Means Algorithmus. Es ist das Ziel unserer Methode, die Anzahl an notwendigen virtuellen Lichtquellen zu reduzieren, ohne dabei die Bildqualität negativ zu beeinträchtigen. Dazu wird unter anderem eine komplexere Technik zur Berechnung der indirekten Schattenwürfe angewandt. Weiters unterstützt die zuvor erwähnte Gruppierungsmethode die zeitliche Stabilität des Algorithmus auf natürliche Weise indem Gruppierungsinformation aus dem zuvor berechneten Bild wiederverwendet werden. Diese Methode wird erweitert um eine gleichzeitige Evaluierung der eigenen Ergebnisse um eventuell auftretende ungleichmäßige Verteilungen in der Gruppierung zu beheben. Unsere Resultate zeigen, dass diese neue Variante hinsichtlich Leistung und Bildqualität Vorzüge gegenüber den bisherigen Implementierungen aufweist.

Institut für (vor 2018) Gestaltungs- und WirkungsforschungE187

Arbeitsbereich (vor 2018) Multidisciplinary Design

Diplomarbeitsposter Kaufleitner Martin

Martin Kaufleitner

Masterstudium Software Engineering & Internet Computing
Abstract:

Autonomous driving has been rapidly developing in the recent past and it is expected to reach our roads in the upcoming years. Technological advances in various disciplines have made it possible to finally realize this futuristic way of traveling. Nevertheless, the success of this new technology is not only related to technical advances. Due to its interruptive and revolutionize nature, autonomous driving might have the potential to impact our society just as the industrial revolution or the invention of the Internet did. Hence, for a successful introduction of self-driving cars, not only technical, but also social aspects have to be considered and analyzed. This study uses a qualitative research approach to elaborate and analyze the user's perspective on autonomous cars in rural areas. Subjects explain their current mobility situation, mention current problems and express their wishes in an open interview. They are confronted with actual open issues and considerations about autonomous driving in various fields. The interviews are focused on the personal opinion of each participant and provide detailed insight into potential real-life benefits as well as challenges and risks of self-driving cars. As a first step during the interview analysis of the interviews, they have been summarized in individual case studies. These elaborations show, which issues, problems but also wishes each individual emphasized during the interview. As a second step, these case studies have been analyzed by categorizing and evaluating the individual statements in order to get comprehensive and sound explanations on each topic. The results have been used to formulate a conclusion, including potential solutions and approaches as well as still open issues and challenges. These findings should facilitate stakeholders in their decision making process and outline necessary further investigation in order to gain knowledge for a beneficial introduction of autonomous driving in our society.

Diplomarbeitsposter Novotny Thomas

Thomas Novotny

Masterstudium Medieninformatik
Abstract:

As society ages, having the option for persons to stay in their own home as long as possible becomes more important. This can be made possible through a variety of Active and Assisted Living (AAL) technologies that can assist with living a more independent life and ensure the safety of the person using it. Using cable-bound systems for this is neither practical nor economical as it requires making permanent changes to a home during installation. Wireless systems provide more flexibility, but still typically rely either on an external power supply or on batteries which have to be changed frequently. The company EnOcean provides a wireless standard and hardware for creating energy harvesting wireless sensor networks that rely on ambient light and other sources of energy that can be harvested from the environment, making it possible to create wireless nodes that are easy to install in a wide variety of locations without the need for additional wiring and maintenance. In this paper, the aim is to develop modules that provide an array of sensing options such as water flow detection, presence detection and non-invasive current detection while trying to keep the power consumption as low as possible, laying the groundwork for further projects that are based on wireless energy harvesting sensor nodes.

Arbeitsbereich (vor 2018) Human Computer Interaction

Diplomarbeitsposter Gartlehner Lukas

Lukas Gartlehner

Masterstudium Medieninformatik
Abstract:

Modern performing arts is increasingly reliant on stage equipment. While technology has enabled artists to create novel performances, the use of technology often comes with the downside of putting more distance between audience and artists. Technological artifacts can act as an obstacle for interaction and audience participation. This thesis aims towards finding new ways to use technology in live performances that allow the audience to take an active role in a performance and to use game mechanics to foster audience participation. The design, development and evaluation of a prototype for technology mediated audience participation in concerts is the centerpiece of this thesis. During the design of the prototype we gathered data about the context by interviewing experts, hosting a workshop and building a cooperation with musicians. The prototype development followed an iterative approach where the state of development was regularly reviewed together with the cooperating musicians. To evaluate the prototype we conducted a field test in which we gathered data from different angles. Our methods consisted of questionnaires for the audience, interviews with the musicians, video analysis on the movement of the audience during the field test and analysis of the logfiles of our software. By analysing the gathered material we could identify parameters for successful audience participation from the musicians perspective. Moreover, we were able to develop a guideline for designing the audiences influence on a performance. For the audiences perspective we learned that successful interaction should be designed in a simple and easy to grasp way. Furthermore, we found that it is crucial not to overwhealm musicians and audience with complex interaction. By providing a detailed overview on each phase of the process, including a analysis of the software and hardware tools we used, we were able to depict potential pitfalls both on the conceptual and technical level.

Diplomarbeitsposter Geier Alexandra

Alexandra Geier

Masterstudium Medieninformatik
Abstract:

Online-Wahlhilfen erfüllen einen wichtigen bildungserzieherischen Zweck, da sie unentschlossene Wähler dazu animieren sich mit politischen Themen auseinanderzusetzen. Die österreichische Online-Wahlhilfe wahlkabine.at wurde im Zuge der Nationalratswahl 2002 erstmals eingesetzt. In diesen 15 Jahren hat die Applikation massiv unter Softwarealterung gelitten, was eine Neuimplementierung unumgänglich machte. Ein zukunftsweisender Designansatz musste gewählt werden, um die Software-Lebensdauer zu maximieren. Diese Arbeit diskutiert Design und Implementierung einer zukunftsfreundlichen Benutzeroberfläche für Online-Wahlhilfen am Beispiel von wahlkabine.at. Um vorzeitiger Softwarealterung entgegenzuwirken wurde eine Liste an Kriterien für zukunftsweisende Applikationen definiert: Barrierefreiheit, Anpassungsfähigkeit, Auffindbarkeit, Wartbarkeit, Performanz, Nachhaltigkeit und Usability. Diese Prinzipien dienten als Entwicklungsgrundlage; besonders Barrierefreiheit war ein essenzieller Aspekt, da die Applikation für alle Wähler gleichermaßen verwendbar sein sollte. Existierende Online-Wahlhilfen wurden untersucht, um von unterschiedlichen Lösungsansätzen zu lernen und Best Practices zu identifizieren. Die Applikation wird in dieser Arbeit durch den gesamten Entwicklungsprozess begleitet, von der Problemdefinition zum Plattformrelaunch, wobei Zukunftsfreundlichkeit in jedem Entwicklungsschrift ein Hauptaugenmerk war. Das Resultat ist eine adaptive Benutzeroberfläche, die für alle Wähler eine gleichermaßen großartige User Experience bietet, unabhängig von verwendeten Endgeräten. Empirische Anwendungstests wurden durchgeführt, um die Leistung der Applikation zu beurteilen. Darüber hinaus wurden formale Evaluierungen durchgeführt, um die Einhaltung der etablierten Prinzipien sicherzustellen. Diese durchgeführten Analysen sichern die Anforderung, dass die implementierte Wahlhilfe auch in den kommenden Jahren eingesetzt werden kann.

Diplomarbeitsposter Kalbhenn Larissa

Larissa Kalbhenn

Masterstudium Medieninformatik
Abstract:

Contemporary information and communication technologies (ICT) greatly shaped the way we communicate nowadays. Communication technology empowers people to be more involved into each others lives and sharing moments has never been easier, especially for geographically distributed families. Unfortunately though, when it comes to technology adoption, elderly people continue to lag behind and intergenerational communication with remote family members is mostly limited to the telephone. This thesis therefore explores issues of technology adoption and attitudes towards communication with the aim to develop an accessible device that integrate older people into the digital lives of their descendants. The prototype promotes the concept of a lightweight instant messaging service and establishes a new communication channel for distance-separated multigenerational families. In order to create a design that meet elderly users’ needs and expectations a broad spectrum of related literature is reviewed and qualitative research is conducted to collect individual and personal information in order to create an impression of the targeted user group and identify how technology can fit into their lives. Based on resulting design and user requirements, rapid prototyping techniques are used to illustrate and iterate design ideas and discover first design flaws. The final high-fidelity prototype for the elderly users, together with a custom developed counterpart app for the younger participants, represent the results of the conducted research and design process. Finally, the evaluation of the BK64 system by means of two different field studies suggests that the newly introduced communication modality has a positive impact on the feeling of togetherness and intergenerational communication habits within a distributed family with three or more generations.

Diplomarbeitsposter Knapp Christian

Christian Knapp

Masterstudium Medieninformatik
Abstract:

Serious games sind Spiele, die nicht nur einem reinen Unterhaltungszweck dienen. Die Industrie und das Forschungsgebiet der serious games befinden sich in starkem Wachstum. Allerdings basierte die Forschung über ihre Effektivität lange auf theoretischen Annahmen über ihr Potenzial, ohne dafür empirische Nachweise zu erbringen. Studien, die serious games evaluieren, bringen ergebnislose, inkonsistente oder sogar widersprüchliche Ergebnisse hervor. Ein Grund dafür ist das Fehlen von standardisierten Methoden und Richtlinien zur Vermeidung verbreiteter Fehler, und das unhinterfragte Übernehmen von Methoden aus anderen Forschungsgebieten. Diese Arbeit versucht Probleme in den verbreiteten Methoden zur Evaluierung von serious games zu identifizieren. Dazu gehört das Finden von intervenierenden Variablen, sowie von Eigenheiten in der Evaluierung von Spielen. Randomized controlled trials, die meist als Methode der Wahl genannt werden, stellen sich als oftmals ungeeignet heraus. Außerdem wird von der Anwendung der weit verbreiteten Medienvergleichsstudien abgeraten, da deren Annahme über die Vergleichbarkeit von Lehrmethoden in unterschiedlichen Medien nicht standhält. Evaluierungen von serious games treffen oftmals Annahmen, die auf einem falschen Verständnis von Spielen beruhen. Um diesen Missverständnissen entgegen zu treten, bedarf es einer einheitlichen Perspektive zur Unterstützung von Gestaltung, Anwendung, Evaluierung und Weiterentwicklung von serious games. Die Voraussetzung dafür, nämlich das Verstehen von Spieldynamik, Lerntheorien und derer Anwendungsmöglichkeiten auf Spiele, werden in dieser Arbeit betrachtet. Die vorgeschlagene neue Perspektive auf das Design und die Evaluierung von serious games wird beispielhaft an den Spielen EnerCities, Spent und Portal 2 angewendet. Die Spiele werden aus lerntheoretischer Sicht analysiert, um Ergebnisse aus vorangegangenen Studien zur Effektivität der Spiele zu erklären.

Diplomarbeitsposter Koch Robert

Robert Koch

Masterstudium Software Engineering & Internet Computing
Abstract:

Technologie wird nicht nur immer allgegenwärtiger, sie hat begonnen, bestimmte Aspekte des täglichen Lebens, die bisher persönlich erledigt wurden, zu ersetzen. Das Problem hierbei ist, dass Technologie üblicherweise von relativ jungen Menschen entwickelt wird, die scheinbar vergessen, dass nicht jeder so vertraut mit ihr ist wie sie selbst. Dies ist besonders deutlich im Bankenwesen. Onlinebanking ist auf dem Weg, den persönlichen Besuch bei der Bankfiliale komplett abzulösen, obwohl es viele ältere Erwachsene bisher nicht nutzen. Das Ziel diese Diplomarbeit ist es ein System zu entwickeln, das den Benutzerinnen und Benutzern erlaubt, eine Inlandsüberweisung mittels Zahlschein von zuhause aufzugeben (ähnlich wie das mit den Bankautomaten bei den Filialen möglich ist). Das System wird als Modul für das Ambient Assisted Living System CongeniAAL entwickelt. Diese Diplomarbeit beschäftigt sich mit dem Inlandsüberweisungsteil des Systems (und nicht mit dem Einscannen des Zahlscheins). Es ist bank-unabhängig und erweiterbar für jede beliebige Bank, bei der die Benutzerin Kundin bzw. der Benutzer Kunde ist. Das Ergebnis umfasst laufzeit-erweiterbare Schnittstellen für Skriptsprachen und Überweisungsscripte, automatisierte Weiterleitung der Transaction Authentication Number (TAN) über ein GSM modem, Validierung der Benutzereingaben und eine Benutzeroberfläche, die darauf getrimmt ist, für ältere Erwachsene so intuitiv wie möglich zu sein. Das Ergebnis wird Personen aus der Ziel-Altersgruppe demonstriert und diese anschließend mit dem Technology Usage Inventory (TUI) befragt. Die Resultate zeigen, dass obwohl die Benutzerfreundlichkeit und Nützlichkeit als hoch bewertet wird, die Absicht das System zu nutzen nur leicht überdurchschnittlich ist.

Diplomarbeitsposter Oberhauser Elisabeth

Elisabeth Oberhauser

Unterrichtsfach Informatik/Informatikmanagement
Abstract:

Im Zuge des Forschungs-Projekts Grün Plus Schule wurde ein Klassenraum an einer Wiener Schule mit einem living-plant-wall system, sowie Sensoren zur Messung diverser Raumklimadaten ausgestattet. Die Pflanzenwand verleiht dem Klassenraum ein außergewöhnliches Flair. Die Aufgabe dieser Diplomarbeit war es mögliche Zusammenhänge zwischen dem durch die Pflanzen verbesserten Raumklima und der Konzentrationsleistung der SchülerInnen nachzuweisen. Zu diesem Zwecke wurde, in Anlehnung an den Aufmerksamkeits-Belastungstest d2 nach Brickenkamp, eine App entwickelt. Insgesamt 28 SchülerInnen der begrünten Klassen, sowie einer Referenzklasse, nahmen über den Zeitraum von drei Wochen an 10 Tagen über die App an einer Testung ihrer Konzentrationsleistung (KL) teil. Es konnte für den kurzen Testzeitraum anhand der kleinen Stichprobe kein eindeutiger Zusammenhang zwischen der Raumbegrünung und der Konzentrationsleistung der SchülerInnen nachgewiesen werden. In den ersten fünf Testdurchläufe wirkte vor allem der für den d2-Test charakteristische Übungseffekt auf die Ergebnisse ein. An den letzten drei Versuchstagen korrelierten die KL-Werte der beiden Gruppen. Es wurde daraus abgeleitet, dass die Umgebungsbedingungen erst nach einer gewissen Anzahl von Testwiederholungen in den KL-Werten sichtbar werden. Ergänzend wurde eine Fokusgruppe durchgeführt. Die zentralen Ergebnisse der Fokusgruppe im Bezug auf die Raumbegrünung waren, dass die Begrünung der Klasse ein Alleinstellungsmerkmal gibt, welches die Kinder sehr genießen. Bezüglich der Qualität der Raumluft äußerten die SchülerInnen den Wunsch nach einer Verbesserung des Lüftungsmanagement in der Klasse. Die durch das modulare Smartphone Fairphone 2 angestoßene Diskussion über Umweltbewusstsein offenbarte, dass Informationstechnologie selbstverständlicher Teil des Alltags der SchülerInnen ist. Die Aussagen der Kinder lassen hoffen, dass diese nicht nur als Digital Natives, sondern auch als Sustainability Natives aufwachsen.

Diplomarbeitsposter Rohrer Katharina

Katharina Rohrer

Masterstudium Medizinische Informatik
Abstract:

Dokumentation ist ein wesentlicher Bestandteil jedes klinischen Umfeldes. Vorgehensweisen, wie das Dokumentieren auf Papierstücken oder Handschuhen, wurden durch diverse elektronische Dokumentationssysteme ersetzt, die sich bereits als Standard durchgesetzt haben. Neue Konzepte etablieren sich langsam in unseren Alltag und bringen Transparenz in unsere Gesundheit. ”ELGA” (kurz für ”Elektronische Gesundheitsakte”) ist die österreichische Elektronische Gesundheitsakte und speichert medizinische Dokumente, wie beispielsweise Arztbriefe, Laborbefunde oder aktuelle Medikation. Diese Arbeit beschäftigt sich mit den speziellen Anforderungen in der präklinischen Versorgung. Das Ziel der Forschung ist notwendige Informationen und Prozesse am Notfallort zu identifizieren, um entsprechende Entscheidungen über Diagnose, Behandlung und Transport treffen zu können. Weiters soll der Anwendungsfall einer Integration einer Elektronischen Gesundheitsakte in ein präklinisches Umfeld analysiert werden. Dafür werden verfügbare Datenfelder in ELGA zu den benötigten Daten am Notfallort zugeordnet. Das Ziel der Forschung wird durch einen exploratorischen Ansatz erreicht, der einerseits durch Beobachtungen und Experteninterviews als auch durch eine systematische Analyse der Ergebnisse geprägt ist. Die Ergebnisse wurden in Ablaufdiagrammen dargestellt, um die Prozesse und Arbeitsabläufe zu veranschaulichen. Es konnte gezeigt werden, dass ein Notfall eine stressige Situation ist, die durch Entscheidungen unter hohem Zeit- und Ressourcendruck geprägt ist. Basierend auf den Ergebnissen wurden die benötigten Informationen am Notfallort zu verfügbaren Datenfeldern in ELGA zugeordnet und in einem nächsten Schritt in einem Datenmodel (Entity-Relationship-Model) dargestellt. Das ermöglicht die weitere Diskussion einer Integration einer Elektronischen Gesundheitsakte in ein präklinisches Umfeld und erlaubt die erste Definition von möglichen Anwendungsfällen.

Diplomarbeitsposter Taranetz Andreas

Andreas Taranetz

Masterstudium Software Engineering & Internet Computing
Abstract:

Wird man in sozialen oder öffentlichen Medien zum richtigen Zeitpunkt erwähnt, kann das zu Lastspitzen führen, die Web Applikationen an ihre Grenzen treiben. Diese Diplomarbeit zeigt wie man eine hoch performante Webseite entwickelt, die sich skalieren und dadurch rasch an wechselnde Lastverhältnisse anpassen kann. Die Neuentwicklung von wahlkabine.at wird dabei als Beispiel dienen. Diese Seite hat die zusätzliche Anforderung für lange Zeit wartbar zu bleiben. Für ein performantes, skalierbares und wartbares Ergebnis müssen diese Eigenschaften im gesamten Entwicklungsprozess berücksichtigt werden. Diese Arbeit hebt vor allem die architektonischen Entscheidungen hervor und wie sie von spezifischen Anforderungen beeinflusst werden. Die Implementierung als Single-Page-Anwendung wird im Detail erläutert. Dabei wird ein Schwerpunkt auf wahrgenommene und tatsächliche Ladezeiten gelegt. Weiters wird das Hosting der resultierenden Anwendung betrachtet und welche Möglichkeiten existieren die zu übertragende Datenmenge vom Server zum Client reduziert werden kann. Diese Arbeit richtet sich an Entwickler die Wege suchen, um die Performanz ihre Webseiten zu steigern, sowie an jene, die Softwareprojekte mit den gleichen Eigenschaften planen. Für wahlkabine.at konnte eine Leistungssteigerung erzielt werden, die jegliches Auslagern auf externe Ressourcen überflüssig macht, selbst wenn sie im Hauptabendprogramm des ORF erwähnt wird.

Institut für (vor 2018) Softwaretechnik und Interaktive SystemeE188

Arbeitsbereich (vor 2018) Information & Software Engineering

Diplomarbeitsposter Bakos Asztrik

Asztrik Bakos

Masterstudium Software Engineering & Internet Computing
Abstract:

Using a digital repository is an effective way to share research results. The task is not only to publish, but also to provide clear information on metadata, provenance and licenses and enable long-term access for the stored data. A repository requires a data management plan, which describes how one should deposit or access the data. Uploading the research material however may occur for the researchers as yet another bureaucratic step. Depositing research results requires knowledge on digital preservation, assistance for the technical infrastructure - which costs time and effort. The aim of this work is to minimize that effort by offering a method to automate digital preservation in research repositories. To achieve that, we have analyzed how research data management policies influence the data management plans and proposed a template which makes machine actionability possible for them. We have built an executable workflow model using the business process model notation for the data ingest processes and have set up a working demonstration on an Alfresco server. We have also extended Alfresco with a plugin that can run arbitrary preservation tools. We have also set up and configured an Archivematica instance, which is a preservation-focused system using a fixed workflow. By comparing Alfresco and Archivematica we showed that Alfresco not only manages to preserve the files exactly as Archivematica does, but can also use a complex preservation workflow - including branches and different task types. We concluded that depositing research files according to the data management plan is possible during the project with minimal effort required from the researchers. This means that the amount of user interaction can be reduced only to uploading the files and starting the workflow - the rest of the preservation will be done safely and silently in the background.

Diplomarbeitsposter Bayerle Richard

Richard Bayerle

Masterstudium Software Engineering & Internet Computing
Abstract:

Das Ziel dieser Arbeit ist, Benutzer von Desktop-Betriebssystemen an den Fortschritten im Bereich des Instant Messaging teilhaben zu lassen, die überwiegend auf mobilen Geräten gemacht wurden. Um dies zu erreichen, wurden aktuelle Technologien identifiziert und bewertet, sowohl für zwei als auch für mehr Konversationspartner. Das Resultat ist ein direkter Vergleich zwischen OpenPGP, OTR, und dem Signal Protocol zum einen, und eine Gegenüberstellung üblicher Mechanismen für Gruppenkonversationen mit spezielleren Protokollen wie np1sec zum anderen. Weiterhin wurden die Anforderungen für `modernes' Messaging spezifiziert, und ihnen entsprechende Technologien ausgewählt. Das Ergebnis ist ein erfolgreiches Plugin für die libpurple-Messaging-Library, das das OMEMO-XMPP-Erweiterungsprotokoll implementiert, und somit auch dem weit verbreiteten Pidgin-Messenger zur Verfügung stellt. Um dies zu erreichen, wurden auch Libraries für das Arbeiten mit der Signal-Protocol-Implementation in C sowie das OMEMO-Protokoll geschrieben. Weiterhin wurde auch ein libpurple-Plugin entwickelt, das es ermöglicht, mehrere Geräte gleichzeitig zu verwenden.

Diplomarbeitsposter Bonic Sanja

Sanja Bonic

Masterstudium Medieninformatik
Abstract:

This work has as its main focus the creation of resumes, how they are integrated into the hiring process, and how visual resumes play into the current world of recruitment and applications. On the side of applicants, there is a trend to create visualised resumes in the form of infographics whereas the recruiting side employs more and more automation technology that extracts the information contained in regular resumes and on social media sites in order to have to spend less time and therefore money on individualised resumes. Instead of viewing both these sides as opposites, this research tries to unify them and design a system that appeases both. The challenge is to find a way to create and use a new and innovative form of resume that benefits both recruiters and applicants. A new global specification created within a Community Group at the World Wide Web Consortium as well as a rudimentary implementation that can evolve into a rich ecosystem using that specification are introduced. Research for the topic had to be conducted from three different angles: the state of the art in research regarding recruitment and resumes, the state of the art in the industry, and currently existing resume standards, including the question whether they are suitable for the next-generation resume we are proposing. We are defining the core points of this next-generation resume that we labelled CV 2.0 and are proposing ways to reach a greater adoption of this resume in the future.

Diplomarbeitsposter Bösch Hannes

Hannes Bösch

Masterstudium Business Informatics
Abstract:

Ranked retrieval result lists are not reproducible with current retrieval systems in a dynamic data environment, although it is a desired feature in patent application and research. In this thesis we built a retrieval index on top of a column-store database to facilitate versioning of data records to tackle this issue. We first explore data models to achieve the results and further evaluate correctness and efficiency of the models.

Diplomarbeitsposter Erhart Oliver

Oliver Erhart

Masterstudium Medieninformatik
Abstract:

Scientific disciplines like climate research or high-energy physics build up large repositories of time series data. In order to process big data sets for data mining or explorative analysis, data integrity and quality has to be guaranteed. To increase data quality, Data Cleansing is performed to remove unwanted and misleading data anomalies before executing the analytical process. Data Profiling also helps to identify and communicate data quality problems, which can then be cleansed. Existing Data Profiling tools provide mechanisms to identify invalid data but without prior focus on time-oriented data. Often those tools are limited providing simple statistics about a given data set and do not offer interactive operations. There is already a prototype being developed at the Technical University of Vienna which detects, partially cleanses, and annotates erroneous data entries. This thesis is about designing, implementing and evaluating a prototypical module of this prototype, visualizing detected errors and providing visualizations to find further data problems with a focus on time-oriented quality checks.

Diplomarbeitsposter Filipov Velitchko

Velitchko Filipov

Masterstudium Visual Computing
Abstract:

Information present in resumes has temporal as well as spatial dimensions, such as a person’s work experience or education. This information by itself is comprehensible - it is very clear when, where, and for how long a person has worked or studied. It becomes increasingly difficult to maintain a clear overview when comparing multiple resumes, specifically their chronological information. Navigating back and forth between resumes, switching between views and attempting to compare every single event is highly inefficient. The most common and intuitive way to compare events from multiple resumes, would be to view them in a side-by-side fashion. Many similarities can be quickly recognized by doing this, but in cases where more than two resumes need to be compared simultaneously, the overview becomes cluttered, the amount of information increases substantially and comparing events becomes a difficult task. We propose the design and implementation of a web application - CV3 - that is capable of comparing multiple chronologies and visualizing the output in a clear manner, whilst maintaining a clean overview. Our approach supports users in filtering timeline events across all resumes, recognizing and extracting relevant information from resumes and visualizing their similarities efficiently in a single overview.

Diplomarbeitsposter Fürnweger Andreas

Andreas Fürnweger

Masterstudium Software Engineering & Internet Computing
Abstract:

Software ages. Maintenance costs tend to increase, and modifications to an application make future adaptions more difficult. As the surrounding software components are updated and modernized, static software becomes even more outdated relative to them. As soon as a system notably resists modification and evolution, it becomes legacy software and the stakeholders, such as architects and managers, have to decide whether to preserve or redesign the system. The main research questions are: * What software evolution approaches are feasible and how to evaluate their cost and risk criteria? * How do these criteria affect an actual migration based on a large, real-world software package? The chosen evaluation methods are: * Research software evolution and related topics to identify different evolution approaches, and create a list of software evolution criteria for them. * Apply those criteria to a real-world application to find an appropriate evolution approach; break it down to milestones; implement and evaluate the success of the implementation. The results are: * The evolution can be preservation or migration driven; many offsetting costs/benefits and risk/reward profiles must be considered. * As for real-world instances of migrations, there exist several tools to ease migrations and enable cross-platform application development. A code analysis is a useful way to quantify the success of the implementation. This work is the extended version of the paper "Software Evolution of Legacy Systems: A Case Study of Soft-Migration".

Diplomarbeitsposter Gruber Georg Julius Peter

Georg Julius Peter Gruber

Masterstudium Medieninformatik
Abstract:

Für Musiker, Gamesound-Designer und Toningenieure ist Sample-Browsing ein Bestandteil des täglichen Arbeitsablaufes. Während sich die Methoden und Benutzeroberflächen mit denen die genannten Berufsgruppen ihre Samplesuche durchführen kaum verändert haben, ist der Umfang der zur Verfügung stehenden Samples in den letzten 15 Jahren exponentiell gestiegen. Das kreative Potential derartig großer Sample-Mengen kann weder mit listenbasierten Interfaces noch mit einer Stichwortsuche ausgeschöpft werden. Als Alternative zu listenbasierten Interfaces und Stichwortsuchen sind mehrere Forschungsprototypen entwickelt worden, die die psychoakustische Ähnlichkeit von Samples algorithmisch berechnen. In den meisten Fällen stellen diese Anwendungen einzelne Samples als grafische Objekte auf einer 2D Karte dar. Die Ähnlichkeit der Samples wird durch den Abstand der grafischen Objekte visualisiert. Nach 15 Jahren universitärer Forschung und einer Vielzahl an vorgestellten Forschungsprototypen bleibt der Befund, dass sich ähnlichkeitsbasierte Sample-Browser in der Praxis nicht durchgesetzt haben. Die zentrale Fragestellung dieser Arbeit ist daher die Identifikation jener Faktoren, welche die Usability dieses Ansatzes beinträchtigen. Die bisher vorgestellten Forschungsprototypen wurden häufig durch relative kurze, pro Anwenderin einmalige User-Tests evaluiert. Ähnlichkeitsbasierte Sample-Browser unterscheiden sich in vielen Aspekten deutlich von listenbasierten Interfaces und erfordern eine Lernphase um das volle Potential dieser Interfaces auszuschöpfen. In einem mehrmonatigen, partizipativen Designprozess wurde daher im Rahmen dieser Diplomarbeit ein ähnlichkeitsbasierter Sample-Browser entwickelt und zwei Anwender mit dem Designkonzept „ähnlichkeitsbasierter Sample-Browser“ vertraut gemacht. Im Laufe des Designprozesses wurden jene Faktoren identifiziert, die eine weitreichende Verwendung von ähnlichkeitsbasierten Sample-Browsern durch die genannten Berufsgruppen verhindern.

Diplomarbeitsposter Ledinsky Roman

Roman Ledinsky

Unterrichtsfach Informatik/Informatikmanagement
Abstract:

In der vorliegenden Arbeit wird anhand eingehender Literaturrecherche ein sowohl didaktisch als auch aus Sicht der Usability fundierter, umfassender Kriterienkatalog zur Erstellung und Evaluierung von videozentrierten E-Learning Materialien ausgearbeitet. Die insgesamt 51 gewonnenen Kriterien enthalten jeweils Umsetzungsempfehlungen, die im weiteren Schritt als Grundlage für die Entwicklung einer prototypischen Lernstrecke dienen. Die Folgerungen aus der Literaturarbeit dienen als Basis für die Analyse bestehender videozentrierter Lernangebote, um aus diesen die geeignetste Darstellung der Inhalte abzuleiten. In ausführlichen Tests findet eine Evaluierung der für die Erstellung der interaktiven Lernvideos nötigen Hard- und Software statt. Die praktische Umsetzbarkeit der Recherche- und Entwicklungsarbeit lässt sich anhand der Realisierung als Prototyp am Beispiel der Mathematik für die Sekundarstufe belegen. Die anschließende qualitative Erhebung legt den Fokus auf zwei Bereiche: Zum einen beurteilen die Expertinnen und Experten die Relevanz, der zuvor aus der Theorie gewonnenen Kriterien, zum anderen wird die Qualität des Prototyps hinsichtlich der Schwerpunkte Didaktik und Usability erhoben. Die Ergebnisse der Evaluierung bestätigen dabei den Stellenwert der Kriterien in vollem Umfang und bescheinigen eine gelungene praktische Umsetzung. Zum Abschluss werden Anregungen und Kritikpunkte, die im Rahmen der Erhebung eingeholt werden konnten, für künftige Erweiterungen interpretiert und zusammengefasst. Aus der Reflexion über die gesamte Arbeit wird abgeleitet, dass der Kriterienkatalog hinsichtlich positiver Auswirkungen auf den Lernerfolg keinen Anspruch auf Vollständigkeit stellen kann. Themen wie beispielsweise der Einsatz von Social Media oder die Umsetzung von Genderaspekten bieten sich in dieser Hinsicht für weitere Forschung an.

Diplomarbeitsposter Mannsbart Stefan

Stefan Mannsbart

Unterrichtsfach Informatik/Informatikmanagement
Abstract:

In der vorliegenden Arbeit wird anhand eingehender Literaturrecherche ein sowohl didaktisch als auch aus Sicht der Usability fundierter, umfassender Kriterienkatalog zur Erstellung und Evaluierung von videozentrierten E-Learning Materialien ausgearbeitet. Die insgesamt 51 gewonnenen Kriterien enthalten jeweils Umsetzungsempfehlungen, die im weiteren Schritt als Grundlage für die Entwicklung einer prototypischen Lernstrecke dienen. Die Folgerungen aus der Literaturarbeit dienen als Basis für die Analyse bestehender videozentrierter Lernangebote, um aus diesen die geeignetste Darstellung der Inhalte abzuleiten. In ausführlichen Tests findet eine Evaluierung der für die Erstellung der interaktiven Lernvideos nötigen Hard- und Software statt. Die praktische Umsetzbarkeit der Recherche- und Entwicklungsarbeit lässt sich anhand der Realisierung als Prototyp am Beispiel der Mathematik für die Sekundarstufe belegen. Die anschließende qualitative Erhebung legt den Fokus auf zwei Bereiche: Zum einen beurteilen die Expertinnen und Experten die Relevanz, der zuvor aus der Theorie gewonnenen Kriterien, zum anderen wird die Qualität des Prototyps hinsichtlich der Schwerpunkte Didaktik und Usability erhoben. Die Ergebnisse der Evaluierung bestätigen dabei den Stellenwert der Kriterien in vollem Umfang und bescheinigen eine gelungene praktische Umsetzung. Zum Abschluss werden Anregungen und Kritikpunkte, die im Rahmen der Erhebung eingeholt werden konnten, für künftige Erweiterungen interpretiert und zusammengefasst. Aus der Reflexion über die gesamte Arbeit wird abgeleitet, dass der Kriterienkatalog hinsichtlich positiver Auswirkungen auf den Lernerfolg keinen Anspruch auf Vollständigkeit stellen kann. Themen wie beispielsweise der Einsatz von Social Media oder die Umsetzung von Genderaspekten bieten sich in dieser Hinsicht für weitere Forschung an.

Diplomarbeitsposter Naumovska Martina

Martina Naumovska

Masterstudium Computational Intelligence
Abstract:

Computer science is very young and is a constantly progressing discipline.The validation and the effectiveness of a scientific research, besides its theoretical properties and methods, can often be validated by experimentation. Scientist and students confront the challenge of not being able to achieve the same results when reproducing someone else’s experiment. Most computational experiments are poorly documented, experimental results are barely described and the source code that produced the results is rarely available. Because of this, the concern about reproducibility of a scientific research has been steadily rising recently. This thesis focuses on analyzing the influence of different operating systems and different development environment when trying to reproduce machine learning results. Further- more, this thesis presents the pros and cons of reproducing machine learning algorithms on different version of operating systems and development environments. The thesis concludes that while reproducing a machine learning classification algorithm, the scientist need to be very cautious when changing the original development environment or operating system, due to the fact the number of experiments analyzed in this thesis show that different environments or operating system can change the results of the output prediction of the model.

Diplomarbeitsposter Schindler Philipp

Philipp Schindler

Masterstudium Software Engineering & Internet Computing
Abstract:

In 2008, S. Nakamoto presented Bitcoin as a peer-to-peer version of electronic cash - a system allowing direct payments between participants without the need for a financial institution or trusted third party. Thereby, he proposed the first practical solution for the problem of reaching consensus in a dynamic set of potentially anonymous participants without a prior agreement on this set. Bitcoin achieves this advancement at the cost of high computational requirements for Proof-of-Work, leading to vast amounts of electricity being consumed. Recently, new protocols, using Proof-of-Stake as a fundamental principle, have tried to improve upon Nakamoto's solution. These protocols require a trustworthy source of randomness, i.e. publicly-verifiable and bias-resistant randomness, to maintain desirable security guarantees. However, obtaining trustworthy randomness, in a highly decentralized network and under potentially adversarial conditions, is by itself a challenging task. Recent academic research as well as projects from the industry try to address this problem by designing random beacon protocols, which produce the required random values in regular intervals. In this thesis, we highlight the design challenges of random beacon protocols as well as provide the first in-depth review and comparison of state-of-the-art protocols. We identify public-verifiable secret sharing (PVSS) as a common building block and develop a new protocol using this cryptographic primitive. Our PVSS-based random beacon protocol greatly improves upon the scalability of existing approaches, as communication complexity is reduced from O(n³) to O(n²). Additionally, we present an optimized solution, which further reduces the interaction between network nodes and achieves a near optimal communication complexity of O(nc). This improvement is accomplished while still retaining liveness, bias-resistance and unpredictability of the random beacon values with very high probability.

Diplomarbeitsposter Thurnher Robert

Robert Thurnher

Masterstudium Information & Knowledge Management
Abstract:

Data wrangling generally denotes the cumbersome task of making data useful for analysis. Usually, this means applying hand-crafted scripts, requiring at least a certain degree of technical expertise. In order to make suchlike data preparation accessible for rather casual users as well, we have built a visual analytics prototype in the context of this thesis, easing related tasks. Our approach is an interdisciplinary one, combining contemporary concepts and ideas from various fields: human-computer interaction and usability engineering with information retrieval, data mining, machine learning, plus information visualization. In particular we focus on supporting transformations of time-oriented data since this kind of data exhibits unique characteristics which demand for special consideration. After analyzing related state of the art we identified open issues and derived requirements for such a system. We followed an iterative design process to develop a software prototype called TempMunger, in an agile manner. The process as well as corresponding artifacts are documented and presented in this thesis. Our prototype is a web-based application, tailored for desktop browser usage. More concretely, it offers interactive dashboard visualizations for preferably intuitive and exploratory transformation operations of time-oriented data. A qualitative evaluation of the prototype demonstrates its usefulness and reveals opportunities for future work. Concluding it is safe to say that data wrangling continues to be an exciting field of research where much is yet to be discovered.

Diplomarbeitsposter Zamyatin Alexei

Alexei Zamyatin

Masterstudium Software Engineering & Internet Computing
Abstract:

Merged Mining beschreibt das Konzept von parallelem Mining auf mehreren verschiedenen Kryptowährungen, ohne zusätzlichen Einsatz von Rechenleistung für Proof-of-Work. Bei dessen Einführung 2011 war Merged Mining vor allem als Starthilfe für neue Kryptowährungen angedacht und sollte die Fragmentierung von Rechenleistung auf konkurrierende Systeme verhindern. Obwohl Merged Mining bereits in einer signifikanten Zahl an Kryptowährungen eingesetzt wird, ist bisher wenig über dessen Auswirkungen auf die darunterliegenden Systeme bekannt. In dieser Diplomarbeit wird, unter Durchführung der ersten umfangreichen Analyse der praktischen Aspekte von Merged Mining, Aufschluss über dessen Auswirkungen auf Kryptowährungen gegeben. Im Zuge dieser Studie wird, zwecks zuverlässiger Evaluierung von Zentralisierungserscheinungen in Kryptowährungen, ein Schema zur Attributierung generierter Blöcke zu deren ursprünglichen Minern vorgestellt. Die Ergebnisse dieser Arbeit zeigen auf, dass Mining Pools signifikante Anteile der Rechenleistung in Kryptowährungen, welche Merged Mining einsetzen, akkumulieren und über lange Zeitraume kontrollieren konnten. In manchen Fällen wurden dadurch die Sicherheitsgarantien des am Kern dieser Systeme liegenden Nakamoto Konsensus ungeltend gemacht. Wir evaluieren die daraus ableitbaren Sicherheitsprobleme für Kryptowährungen und stellen diese Entwicklungen den geplanten Effekten von Merged Mining gegenüber.

Arbeitsbereich (vor 2018) Interactive Media Systems

Diplomarbeitsposter Perndorfer Rafael

Rafael Perndorfer

Masterstudium Medizinische Informatik
Abstract:

Katastrophen passieren weltweit, an manchen Orten öfter als an anderen. Das Vermeiden dieser steht an erster Stelle, ist jedoch eine Katastrophe unumgänglich oder außerhalb des menschlichen Einwirkungsbereichs, müssen gute Vorbereitung getroffen werden, um eine gute Versorgung zu gewährleisten. Nicht nur materielle und bauliche Maßnahmen müssen getroffen werden, sondern auch personelle Vorbereitungen. Gerade Führungskräfte müssen in einem kurzen Zeitfenster wichtige Entscheidungen treffen, die den Erfolg der Katastrophenbewältigung nachhaltig beeinflussen. Um in einem Ernstfall effizient reagieren und entscheiden zu können, benötigt es eine dementsprechend gute Ausbildung. Die Durchführung von Großübungen ist mit großen Kosten verbunden, diese benötigt personelle und materielle Ressourcen der Einsatzkräfte, örtliche Umsetzungsmöglichkeiten und Figuranten. Um eine kostengünstige Alternative zu den realen Übungsszenarien zu schaffen, wurde 2015 das FFG Projekt "VROnSite" ins Leben gerufen. Im Zuge dieses Projekts wurde mit dem aktuellen Stand der Technik eine mobile, generische, immersive Trainingsplattform für Einsatzkräfte (Feuerwehren, Rettungsorganisationen, Polizei) in der virtuellen Realität entwickelt. Das Hauptaugenmerk lag dabei auf die ersteintreffenden Führungskräfte im Schadensgebiet. Im Zuge dieser Arbeit wurde das bestehende Projekt um ein 3D Interaktionssystem erweitert und für den Mehrbenutzerbetrieb in ein verteiltes System umstrukturiert. Dabei dienen mobile Head-Mounted Displays zur Visualisierung und Gamepads bzw. Omni-Directionale Treadmills als Interaktions- und Navigations-Eingabegeräte. Sinn dieser Erweiterung ist es, dass Üben des vollständigen Kommando-Zyklus (Regelkreis der Führung) für die Trainingsteilnehmer zu ermöglichen. Um eine hohe Qualität zu erreichen und den Nutzen dieses Systems zu maximieren, werden Feuerwehren und Rettungsorganisationen in den Entwicklungsprozess miteinbezogen und eine User Study Evaluierung durchgeführt.

Arbeitsbereich (vor 2018) Business Informatics

Diplomarbeitsposter Daurer Julia

Julia Daurer

Masterstudium Business Informatics
Abstract:

Many companies successfully implement design as part of their differentiation strategy in order to achieve long-term commercial success and establish a competitive advantage. However, the protection of design through industrial design rights, has so far received little attention in the innovation literature. While some studies have already been conducted on trademarks and patents, there is only little research about the role of industrial design rights and the motivation to register these. Therefore, the aim of this diploma thesis is to identify possible reasons for the application and to find out further information on organisational details. This includes factors influencing the application and motives for selecting the application level (national, EU-wide or international). Further, a possible link between the application of design rights and innovation should be investigated. The basis for this thesis is a literature analysis, which contains theoretical background on industrial design rights. Furthermore, new approaches in design literature are discussed and the organisational link between the design right process, the innovation process and the design process is outlined. Descriptive statistics are conducted in order to identify current trends in the design registration behaviour. The insights of these statistics are included as a basis for the empirical investigation. In the analysis, interviews with different Austrian companies are conducted and a qualitative content analysis is carried out. The findings of the cross-case analysis are compared and possible relations are derived. Subsequently, conceptual models were created for influencing factors of the application, for components of a design right strategy, as well as for the selection of the application level.

Diplomarbeitsposter Fischer Ulrich

Ulrich Fischer

Masterstudium Business Informatics
Abstract:

Das Fehlen einer formalen Semantik für UML, die angibt wie UML Modell zu interpretieren sind, erforderte es von Entwickler von Codegeneratoren eine individuellen Interpretationen der Bedeutung von Modellierungskonzepten vorzunehmen. Dieser Umstand änderte sich mit der Veröffentlich des fUML-Standards im Jahr 2011. Dieser Standard definiert die formale Semantik für einer Teilmenge von UML, bestehend aus Konzepten von Klassen- und Aktivitätsdiagrammen, sowie der UML Action Language. Gemeinsam mit dem fUML Standard wurde eine virtuelle Maschine eingeführt, mit der Benutzer fUML-konforme Modelle ausführen können. Das erste Ziel dieser Diplomarbeit ist die Erarbeitung und Implementierung eines Codegenerators, der aus fUML-konformen Modellen ausführbaren Code erzeugt. Die wichtigste Anforderung ist dabei, dass sich die Ausführung des erzeugten Codes äquivalent zum fUML Modell verhält, von dem er generiert wurde. Das zweite Ziel ist die Entwicklung einer Komponente, die die Korrektheit des generierten Codes verifiziert. Dies soll durch einen Vergleich der Ausführung des generierten Codes mit der Ausführung des ursprünglichen Modells durch die virtuelle Maschine erfolgen.

Diplomarbeitsposter Lackner Martin

Martin Lackner

Masterstudium Software Engineering & Internet Computing
Abstract:

Model Driven Engineering (MDE) zielt darauf ab die Abstraktionsebene in der Softwareentwicklung durch die Verwendung von Modellen zu erhöhen. MDE Techniken können sowohl zur Erstellung neuer Softwaresysteme verwendet werden, als auch um bestehende Softwaresysteme zu modernisieren oder erweitern. Die letztere Anwendung erfordert das Reverse Engineering (RE) von bestehenden Softwaresystemen zu abstrakteren Modellen. Das Hauptziel von RE ist es, relevante Informationen über bestehende Software zu extrahieren und in abstraktere Modelle für Analysezwecke abzubilden. Model Driven Reverse Engineering (MDRE) ist die Anwendung von MDE Techniken für RE Aufgaben. Während bereits viele Ansätze existieren um strukturelle Informationen über bestehende Systemen mittels RE in Modellen abzubilden, gibt es bis heute kaum RE Ansätze, die detaillierte Verhaltensbeschreibungen von bestehenden Systemen extrahieren und abbilden. Im Zuge dieser Diplomarbeit wurde ein RE Ansatz erarbeitet, welcher detaillierte Verhaltensmodelle erstellt. Das Ziel dieser Arbeit ist es, ein Mapping zwischen Softwaresystemen, welche in der Programmiersprache C# programmiert sind, und UML Modellen, welche dem fUML Standard entsprechen, zu erarbeiten. Um das Verhalten von bestehenden Softwaresystemen zu beschreiben, wurde der OMG Standard Semantics of a Foundational Subset for Executable UML Models, oder foundational UML (fUML) gewählt, da man mit fUML Modellen das Verhalten von Softwaresystemen präzise und komplett beschreiben kann. Somit ist fUML ein geeigneter Kandidat als Zielsprache für einen MDRE Ansatz, welcher das detailierte Verhalten von Softwaresystemen abbilden soll. Im Zuge dieser Arbeit wurde auch ein Prototyp entwickelt, welcher in der Lage ist, Softwaresysteme, die in C# programmiert wurden, zu fUML konformen Modellen zu transformieren, und diese Modelle in der UML Modellierungsumgebung Enterprise Architekt zu persistieren.

Diplomarbeitsposter Shatkin Daniel

Daniel Shatkin

Masterstudium Business Informatics
Abstract:

Die Implementierung und die dazugehörige Verwendung organisationaler Innovation wird heutzutage als einer der wichtigsten Erfolgsfaktoren für den Aufschwung von Unternehmen angesehen. Trotz ihrer Wichtigkeit, der sich die meisten Forscher in diesem Forschungsfeld einig sind, ist vergleichsweise wenig zu dieses Thema bekannt. Diese Masterarbeit möchte zu dem Wissensstand bezüglich organisationaler Innovationen beitragen. Eine eigene Definition für die wichtigsten Merkmale organisationaler Innovationen wurde im Rahmen dieser Arbeit formuliert. Teil dieser Arbeit ist eine Liste einer Anzahl von organisationalen Innovationen, die in die Kategorien Prozesse, Management-Methoden und organisationale Strukturen geteilt wurden, welche im Rahmen der Recherche identifiziert wurden. Als eine der größten Lücken in der Literatur wurde die Diffusion organisationaler Innovationen identifiziert. Um herauszufinden ob der Diffusionprozess organisationaler Innovationen einem bestimmten Schema folgt wurden fünf Fallstudien erstellet. Der Großteil der Daten der Fallstudien resultierte aus zwei Umfragen, welche im Rahmen der Forschungsarbeit durchgeführt wurden. Zur Teilnahme eingeladen wurden sowohl die 500 erfolgreichsten Unternehmen Österreichs, als auch alle Planungsbüros Österreichs. Die Forschung ergab, dass in vier von fünf Fallstudien die logistische Funktion als Sättigungsmodell für die Modellierung des Diffusionprozesses verwendet werden konnte. Der Diffusionsprozess der fünften Fallstudie folgte einem exponentiellem Wachstum. Dies resultiert in der Erkentniss, dass Diffusionsprozesse organisationaler Innovationen dem selben Schema wie Diffusionprozesse von Produktinnovationen folgt, welche in der Literatur wesentlich zahlreicher vertreten sind.

Diplomarbeitsposter Weghofer Stefan

Stefan Weghofer

Masterstudium Software Engineering & Internet Computing
Abstract:

A fundamental part of Model-Driven Engineering (MDE) is the use of models and operations. Models represent information of a target system on varying levels of abstraction, while operations allow performing actions on one or more models, including model validation, model transformation, model merging, etc. In recent years, more and more such operations and languages to describe them were introduced to allow MDE to be applied to a wide spectrum of use cases. Today, many advanced scenarios can be expressed by MDE and the use of new operation languages. In every non-trivial project, multiple operations have to be executed in particular order to yield the final result. To orchestrate operations to so-called operation chain, tools and languages have been developed and included to development environments that help in defining complex operation chains and executing them whenever input models change. In this thesis, existing tools and languages for model operation orchestration are analyzed and compared against each other. Inspiration is taken from these tools and other domains, such as Build Management and Workflow Management, to create a new tool for describing operation chains, called Moola. Based on a feature list derived from real-life use cases, Moola is designed and later implemented as domain-specific language (DSL) on top of Groovy. Finally, Moola is evaluated against use cases taken from the ARTIST project.

Diplomarbeitsposter Wiesenhofer Christian

Christian Wiesenhofer

Masterstudium Business Informatics
Abstract:

Modeling languages play an essential part in the software engineering process. Currently, mostly UML is used for that purpose, but domain-specific modeling languages (DSMLs) get more and more attention. Their main benefit is a higher abstraction-level, which eases generating code from such models. One major drawback of DSMLs, is their time-consuming development. To tackle this problem the EMF Profiles project was founded. It provides a lightweight extension mechanism, just as UML profiles, to be used for DSMLs. This way models can be altered without modifying their whole metamodel and domain properties can be reused, thus reducing the required development time. In comparison to pure metamodel-based languages there are certain limitations in EMF Profiles. There is no way to model constraints regarding the restricted use of stereotypes or to include runtime behavior. A typical use case is for example to use multiple languages at once. However, considering these shortcomings, such an attempt is not possible. Thus the question emerged, how these features can be realized. In this thesis two extensions to EMF Profiles are presented and implemented as prototype, which is then evaluated using a case study. The research problems were solved by introducing an OCL constraint mechanism, which manages the stereotype application. Furthermore a generator was implemented to add AspectJ-based code fragments to profiles, so they can influence the runtime behavior of a model element. The case study was conducted by creating a base Petri net language and adding three Petri net extensions, implemented as EMF profiles, to it. All of their specifications could be fully implemented. Further metrics about the approach and the prototype were collected, in order to ensure it is assessable and comparable.

Arbeitsbereich (vor 2018) E-Commerce

Diplomarbeitsposter Glatzer Lisa

Lisa Glatzer

Masterstudium Business Informatics
Abstract:

The amount of people who use online booking platforms to select a travel accommodation has grown tremendously in the last years. Hence, many tour operator implement recommender systems in order to offer the most suitable hotels to their customers. In the context of this thesis, a method of using hotel descriptions collected by different tourist operators for recommendation is introduced. Based on the content of textual data samples, hotels are matched to seven predefined tourist roles ("The Seven Factors"), which represent general behaviours and preferences of tourists. To achieve this, a pre-processing of the unstructured hotel descriptions is done with different natural language processing methods including tokenizing, stemming and pruning. Further, three different approaches for the allocation of hotel descriptions to the tourist roles were implemented: unsupervised clustering, supervised classification and a dictionary-based approach, where keywords were identified by experts. The outcome of all three methods was compared and the best one was tested with an independent labelled data set of text description samples. The main results show that unsupervised clustering cannot be used to allocate hotels to tourist roles since the algorithm mostly relies on the operator-dependent structure which can be found in the descriptions. Further, it is identified that supervised classification achieves the highest precision for six of the seven tourist roles, whereas the dictionary approach is pointed out as the best solution for only one role. In general, the results for the different tourist roles vary due to the unequally distributed training and test data set as well as the various characteristics of the roles. The defined models are presented so that they can be used as an aid to design recommender systems based on hotel descriptions.

Diplomarbeitsposter Kastner Gregor

Gregor Kastner

Masterstudium Business Informatics
Abstract:

Digital badges may be virtually awarded by several organizations (for example educational institutions) upon an individual’s achievements. Internet technologies, such as user profiles on social media or web services, may be used to collect and present these digital badges. This thesis discusses the application of digital badges in knowledge management. More precisely, it is about the proof of personal expert-knowledge and competencies, acquired through informal learning. Whereas formal learning approaches are using a curriculum to define the learning path and certificates to proof learning achievements, a proof of additional competencies, such as experience in a particular topic or soft skills, is often missing. This thesis introduces a concept how digital badges will solve the problem of a missing proof of hidden knowledge. We discuss the approach based on an online knowledge-sharing platform. TechScreen is such a platform that allows users to submit problems (challenges) and to discuss about them, respectively to submit solution approaches. Our approach uses digital badges to image one’s gain of knowledge during knowledge sharing on TechScreen. Based on this personal competence profile, TechScreen issues digital badges. As part of the research question of this thesis, we further defined a long-term study to evaluate whether digital badges are an adequate proof of hidden knowledge. Secondly, we conducted a questionnaire to evaluate the acceptance

Diplomarbeitsposter Kotschy Georg

Georg Kotschy

Masterstudium Information & Knowledge Management
Abstract:

Public administrations deal with a wide range of investigative and case-related activities. The progress of a case is often driven by the circumstances or events that occur during the case itself and which depend on the knowledge of a team of case workers. The work performed by the case team is knowledge work, and non-traditional process automation techniques are required to support case workers. Based on the lessons learned from recent case management projects at the European Commission, the aim of this research is to identify a case management approach suitable for the domain of trade negotiations, as well as an open source-based technology stack able to support the chosen approach. This thesis will present decision-makers with arguments in favour of adopting an adaptive approach to case management, based on the need for flexibility required by knowledge workers to meet the goals set out for them. Business analysts, which currently largely depend on the Business Process Model and Notation (BPMN) to depict the way work is performed in an organisation, will benefit from the insights presented on business process execution in IT systems, while architects and developers can draw inspiration from the software design patterns and components chosen for the application architecture presented in this thesis, to conduct further research on the execution of emergent processes.

Diplomarbeitsposter Luef Mario

Mario Luef

Masterstudium Software Engineering & Internet Computing
Abstract:

Durch die Erhebung des persönlichen Werteportfolios lassen sich die Weltanschauungen einer Person in unterschiedlichen Bereichen ermitteln. Auf Basis dieser Erhebung ist es möglich, eine Person in eine gewisse Wertestufe einzuordnen. Diese Einstufung kann in unterschiedlichsten Anwendungsbereichen herangezogen werden, wie zum Beispiel: ideale Zusammensetzung von Teams etc. Im Rahmen dieser Arbeit wird eine neuartige Methodik vorgestellt, die die Erhebung des persönlichen Werteportfolios einer Person durch die Auswahl von Bildern ermöglicht. Um die Genauigkeit bzw. Aussagekraft dieser neuen Methodik überprüfen zu können, wird eine empirische Studie durchgeführt, die sich aus zwei Teilen zusammensetzt. Im ersten Teil wird das persönliche Werteportfolio mit Hilfe eines Fragebogens erhoben. Im zweiten Teil wird das Portfolio durch die Auswahl von Bildern bestimmt. Die Ergebnisse der beiden Erhebungsmethoden werden verglichen, um die Genauigkeit der neuen Methode feststellen zu können. Um diese neue Methodik entwickeln und überprüfen zu können, war es zunächst notwendig, den aktuellen Stand der Forschung im Bereich Wertestufen zu recherchieren, was unter anderem diverse Theorien zur Werteentwicklung umfasst. In weiterer Folge wird auf die Theorie von Clare W. Graves und deren Weiterentwicklung, Spiral Dynamics, eingegangen. Im nächsten Schritt werden die Anforderungen an ein Software-System erhoben, welches eine Erhebung mittels beider Erhebungsmethoden und einen umfangreichen Vergleich ermöglicht. Dieses System wird umgesetzt und in der Lehrveranstaltung ''Soft Skills für TechnikerInnen Werte als Entwicklungs- und Führungsinstrument'' eingesetzt. Im Rahmen dieser Lehrveranstaltung werden Fragen und Bilder von den TeilnehmerInnen erarbeitet und Erhebungen durchgeführt. Diese Erhebungen sind die Grundlage für die Evaluierung der neuen Methodik. Abschließend werden die Ergebnisse analysiert und etwaige Verbesserungs- bzw. Erweiterungsmöglichkeiten ausgearbeitet.

Diplomarbeitsposter Rajcic Nemanja

Nemanja Rajcic

Masterstudium Business Informatics
Abstract:

Diese Arbeit untersucht das Phänomen Wikipedia im Kontext der Mehrsprachigkeit und versucht einen Beitrag zu dem soziopolitischen Bild einer Region zu leisten, die in der jüngeren Vergangenheit stark durch den Krieg geprägt wurde. Die Forschung beschäftigt sich mit der Hypothese des ’lokalen Helden’, welche davon ausgeht, dass der Informationsgehalt über Personen, in deren Sprache der Artikel verfasst wurde, den Informationsgehalt jener Artikel übersteigt, die über Personen aus anderen Ländern verfasst wurden. Außerdem analysiert sie die Qualitätssteigerung der Artikel, die durch erhöhte Teilnahme am Verfassen und durch hohe Besucherzahlen erzielt wird, also das Argument der ’kritischen Masse’. Auch die Verbesserung der Qualität im Zusammenhang mit der Bekanntheit der Person wird untersucht. Die Masterarbeit befasst sich in diesem Kontext mit drei Artikeln, die über berühmte Personen aus Serbien, Bosnien, Herzegowina, Kroatien und Slowenien verfasst wurden. Dabei werden unterschiedliche sprachliche Versionen analysiert: serbisch, bosnisch, kroatisch, serbo-kroatisch und englisch. Die Untersuchung bezieht sich sowohl auf quantitative Daten (Wörterzahl, Größe in Bytes, Besucherzahlen etc) sowie auf qualitative Daten, wobei die Chico Richtlinien in diesem Zusammenhang als Evaluierungsintrument der Informationsqualität dienen. Die Ergebnisse der Arbeit bestätigen sowohl die Hypothese des ’lokalen Helden’ wie auch die der ’kritischen Masse’. Da bisher keine vergleichbare Forschung durchgeführt wurde, repräsentiert diese Arbeit einen neuen Forschungszugang innerhalb des Feldes und dient gleichzeitig als Ausgangspunkt für weitere multilinguale Studien zur Informationsqualität.

Andere Institute der Technischen Universität Wien

(vor 2018) Institut für Wirtschaftsmathematik

Diplomarbeitsposter Aufner Peter

Peter Aufner

Masterstudium Business Informatics
Abstract:

This work examines the impact of the eastward enlargement of the European Union on nature by answering three questions: 1) Is there a direct impact of joining the European Union on Net Primary Production(NPP) values? 2) What kind of changes in land cover causes the observed changes in NPP values? 3) Can the exogenous impact of GDP on NPP be observed in the environmental Kuznets curve for Europe? To do so, satellite data from the years 2000 to 2012 provides information on NPP and land cover changes. To measure the development over time two dimensions are used. A difference-in-differences regression aims to measure the direct impact of the EU eastward enlargement on the forest cover, agriculture, urbanization and NPP. The Environmental Kuznets Curve is derived for the regions to visualize how they develop in comparison to each other. For these calculations the border regions between the old EU countries (Germany, Austria and Italy) and the new EU countries (Poland, Czech Republic, Hungary, Slovenia and Slovakia) are split into the neighbouring NUTS 3 regions. Then pairs of NUTS 3 regions are formed to observe the development in the differences along the border. It is shown, that the EU eastward enlargement decreases the difference in NPP between the old EU countries and the new EU countries. An increase in the difference in forest cover between the old EU countries and the new EU countries is observed. Despite the increase in the difference of forest cover, there is still more forest cover in the European Union, thus it may still explain a positive impact on the NPP. Both the old EU countries and the new EU countries are beyond the lowest point on the Environmental Kuznets Curve, meaning that the state of the environment is getting better in both parts of the EU. The old EU countries are in a better environmental shape already due to higher economic well being. uring the 13 years observation period, the new EU countries do catch up.

Diplomarbeitsposter Haberbusch Mattias

Mattias Haberbusch

Masterstudium Business Informatics
Abstract:

Industrial specializations of a country, are the economic factors that drive and contribute the most to the national economy and demonstrate their importance in the European Union (EU). Industries have emerged over time and have shifted certain production or services’ activities to certain countries. Input-Output (I/O) tables show how goods are traded within countries and can be traced through all production steps. A comparative advantage of industries based on commonly used export values is not reliable any more. This approach is replaced by the better known Global value chain (GVC) to identify the value added in different countries and steps. The GVC concept is measured within the World Input-Output Table (WIOT). This dataset is limited regarding the availability of data, the customizability and its possible extensions. There are multiple data sources which are not interconnected at the moment but have the capability to increase the research opportunities. This thesis introduces a model for discovering industrial specializations of national economies, especially those of the five biggest European countries, based on the GVC. The model is extended to take any amount of countries which are available in the WIOT to set up the research context. As the data only exists till 2014 it is mandatory to develop a model to calculate and forecast future years in a reliable way. It is necessary to develop transformation scripts first and import the data needed for forecasts into the model, to be able to compute each period and extract the important data out of the model. The development of industrial sectors of the top five countries are highlighted and discussed before describing the structure of the WIOT and the technical approach of the GVC income. The obtained data prove the functionality of the model and validate the results based on common statistical tests. The model is able to find specializations and retrieve short-term

Diplomarbeitsposter Litzellachner Alexander

Alexander Litzellachner

Masterstudium Business Informatics
Abstract:

This thesis aims to identify and analyze specific patterns and temporal events at the rail-road tracks of the Viennese metro lines using the accelerometer sensor installed in smartphones. Examples of this are driven bends, acceleration, switches and track damage. For this purpose eight smartphones were purchased in different qualities, in order to also analyze the thereof resulting differences in their measurements. These eight mobile phones were used to carry out a series of test runs in Vienna's metro network. Their recorded sensor readings were then analyzed via various statistical methods, including correlation analysis, multiple linear regression and SCARM, a function in R for signal extraction from noisy and outlier-interfered data streams. The smartphone sensors all measure ap-proximately the same, but differ in their maximum sensor sampling rates as well as in their variances. Also, the gyroscope data of the mobile phones, which was also recorded, is very similar to the curvature recorded by Wiener Linien’s rail test car. Based on the acceleration data, the speed can be estimated, which, together with the bends, allows a reconstruction of the driven path via sensor fusion and thus an approximate localization in the metro net. Switches can be detected with the accelerometers of the smartphones. However, this was possible only if the smartphone was rigidly installed in the train or on the floor of the passenger compartment. If the smartphone was held in the hands, switches and also slight track damage could not be identified, as the human body absorbs the vibrations too strongly.

(vor 2018) Department für Geodäsie und Geoinformation

Diplomarbeitsposter Perebner Martin

Martin Perebner

Masterstudium Software Engineering & Internet Computing
Abstract:

Nowadays it is common to use technical devices like smartphones which assist in the wayfinding by presenting information about our environment as well as providing specific route instructions dependent on our location. One of the youngest of these new technologies is the smartwatch. While these devices exhibit interesting characteristics for pedestrian navigation, their viability in this field is not well examined. Therefore, the purpose of this thesis is to explore designs for pedestrian navigation systems via a smartwatch and evaluate their viability. Furthermore, landmarks are incorporated into the navigation system and it is evaluated if they provide a benefit for pedestrians. In order to develop suitable concepts a user-centered design approach is applied. During a design study concepts are developed which are based on findings in the literature. These concepts are tested by the means of a “Wizard of Oz experiment” in order to gather feedback. Based on the outcome of the design study two final designs are proposed and implemented as prototypes for an Android smartwatch. While both prototypes consist of a map view combined with a direction view, they differ in the use of landmarks and the visual distinction of subsequent and non-subsequent turns. Finally these two prototypes are evaluated by conducting a field trial. The results of the evaluation suggest that smartwatches can be very viable in the context of pedestrian navigation. The combination of a map view and a direction view proves to be a suitable solution which offers a good overview while still maintaining details about decision points. Furthermore, tactile feedback via vibrations can be concluded to be a good addition in order to notify pedestrians about upcoming decision points. The inclusion of landmarks reduces the perceived workload and increases the confidence of users during the navigation.

(vor 2018) Institut für Managementwissenschaften

Diplomarbeitsposter Drach Andreas

Andreas Drach

Masterstudium Business Informatics
Abstract:

The relation of expenditure on research and development (R&D) to economic output (R&D intensity) is often considered as an indicator of the economic and technological capability of an economy. In this context, Austria is one of the few developed countries with a significant increase in both R&D expenditure and intensity over the last 20 years. The theoretical basis for this work is literature on innovation and R&D as well as current studies on the development at national and international level. Technical innovation and R&D generally influence firm growth positively and are one of the most important drivers for economic growth and the long-term prosperity of an economy. This work examines the growth of the R&D expenditure of the Austrian business enterprise sector based on data from the F&E Erhebung of 2002 and 2013. In a first step, the R&D performing companies are divided into groups on the basis of firm size, technology or knowledge intensity as well as relative and absolute R&D expenditure. The development is then analyzed in these groups. In a second step, we identify companies that perform R&D over a longer period of time and analyze their growth and mobility. The role of structural change is examined by a shift-share analysis, which decomposes the change in R&D intensity into a structural, interaction, and diffusion effect. Our results show that the increase in R&D expenditure mainly comes from large, R&D- intensive companies and that it is due to an intensification of R&D across all sectors. We found only low mobility among the R&D performing companies in the considered period: there are almost no small companies that have risen to large, research-intensive actors.

Diplomarbeitsposter Kartal Yaman Emel

Emel Kartal Yaman

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Spricht man von Arzt, Lehrer oder Rechtsanwalt assoziiert man – sofern nicht explizit auf die weibliche Form dieser Berufe hingewiesen wird - einen Mann damit. Viele Jahrzehnte mussten vergehen, um Frauen in bestimmten Berufsgruppen als Selbstverständlichkeit wahrzunehmen. Technik und damit verbunden das Ingenieurwesen ist ein von hauptsächlich Männern besetztes Berufsfeld. Wie viele Jahre vergehen müssen, damit Frauen auch hier den selben Status wie Männer erlangen, steht in den Sternen geschrieben. Spricht man in der Türkei, wo sich Frauen in der Berufswelt nur sehr schwer etablieren konnten, von einer Ingenieurin, so muss man davor, quasi schon als Präfix, das Wort “Frau” setzen, um verständlich zu machen, dass es sich dabei tatsächlich um eine Frau handelt. Unabhängig vom Alter, dem Geschlecht, der Kultur und des sozialen Status ist das Bild von einer “Frau Ingenieurin” immer noch etwas ungewohnt. Entweder wird sie im Außendienst oder bei Projektleitungen nicht sonderlich ernst genommen oder es herrscht die Annahme, dass sie ohnehin bald einen Kinderwunsch haben und schließlich aufgeben wird. In diesem Zusammenhang scheint es , als ob die Menschheitsgeschichte dort stehen geblieben ist, wo eine Ingenieurin mit dem männlichen Jäger kämpfen muss, um sich behaupten zu können. Im besten Fall begegnet man einer “Frau Ingenieurin” in der Türkei als einer Frau mit starkem Durchsetzungsvermögen; ihr begegnet man teils mit Verwunderung teils mit Begeisterung. Leider wird diese wiederum mit der Phrase “eine Frau wie ein Mann” ausgedrückt, d.h. je weniger Frau desto mehr Lob. Welche positive sowie negative Diskriminierung erfahren Ingenieurinnen? Wie gelingt es ihnen Hindernisse zu bewältigen? Sind Heiraten und Kinderwunsch Barrieren auf dem Karriereweg? Wie kann es erklärt werden, dass die Zahl der Ingenieurinnen in der Türkei höher ist als in vielen westlichen Ländern?

Diplomarbeitsposter Kocakov Ivan

Ivan Kocakov

Masterstudium Business Informatics
Abstract:

Since 2010 in Harvard located Edmond J. Safra Research Lab has produced numerous studies that established and extended definitions of Institutional Corruption (IC). Institutional Corruption can be defined as a systemic influence on an institution. This influence is legal or currently accepted as ethical; however, it prevents an institution from fulfilling its socially defined purpose, and in the process, undermines public trust in that institution. The idea of IC was proven to be broadly applicable to many domains. It can be viewed as a paradigm and as an issue of organizational design. By analyzing the features of IC and identifying the role that e-Government could play, this study is looking for an expansion of the theory of IC. This thesis approaches IC from multidisciplinary lenses, such as organizational design and e-Governance. We are interested to identify the enablers and key concepts, such as economy of influence, public trust, and institutional purpose. An investigation into the relationship between e-Government and corruption is performed; furthermore, the challenges and some of the ICT-enabled solutions, such as transparency, open government data, e-participation, are reviewed. The relationship between e-Government and corruption in the European Union (EU) is investigated by developing and testing an empirical model, using data from Transparency Internationals and the United Nations. The emerging relationship between inequality and corruption is tested in the model. The theoretical fundament is applied to a case study about the health-care industry in the EU and off-label prescription. The existing databases and e-Government systems related to the clinical trials and market authorization of new drugs are presented, and a new e-Government system is proposed to assist various stakeholders in identifying and tracking off-label prescription, as well as to increase transparency and restore patients’ trust in the industry and regulatory agencies.

Diplomarbeitsposter Marboe Gregor

Gregor Marboe

Masterstudium Business Informatics
Abstract:

The last decade unleashed changes in the world economy that led to the collapse of entire well established industries. Innovative energy and disruptive forces driving the changes arise from new players mainly coming from IT industry. One thing these young companies have in common is that the way they are managed is as disruptive to traditional management methods as their goods. Every company that does not want to get crowded out by these management methods which are new to businesses outside the software industry must consider modernising their approach. Two management methods stand out: Scrum, the most common approach in agile software development today, and Holacracy, a younger approach which is still in an early-adopter stage. While Scrum has been object of research, there is very sparse research on Holacracy. A dedicated comparative analysis of organisational aspects of both methods appears to be inexistent. So, this thesis aims at providing a general understanding of both approaches from the perspective of organisation sciences focussing on structure, collaboration and motivation. By answering the research question this thesis aims to contribute to the academic void of low coverage on Holacracy and to the body of knowledge on currently successful practices in terms of organisation science. This thesis uses a theoretical deductive and a qualitative approach of semi-structured expert interviews that aim at providing non-generalisable, first practical insights. As a result, this thesis highlights fundamental differences to traditional organisation forms: a radical change to the idea of hierarchy, process concepts that boost transparency, a shift to work centered governance, a powerful tool-kit that serves team and meeting effectiveness, and outstanding conditions to ensure motivated employees. At last, this thesis proposes a categorisation of Scrum and Holacracy with respect to existing organisation forms, labelling them as management innovation.

Diplomarbeitsposter Tanner Alexandre

Alexandre Tanner

Masterstudium Business Informatics
Abstract:

Institutions are society's rules of the game and are increasingly recognized as playing a crucial role in providing the background conditions for economic growth. An institutional innovation is a perceived improvement to these rules of the game. The literature on the diffusion of institutional innovation remains poorly explored and is often not differentiated from social or cultural innovations. In this exploratory study, the diffusion duration, pattern, and process was analyzed and cross-compared for two major cases of institutional innovation — the international gold standard and state-driven compulsory education — from a historical perspective on temporal and spatial dimensions. We used standardized quantitative methods commonly employed in diffusion studies that allow cross-comparison with previously studied diffusion processes, by curve fitting time series data with a three-parameter logistic function and its linear transformation known as the Fisher-Pry transform, and then deriving the diffusion rate that can be compared. Our results suggest that institutional innovation diffuses in the same pattern that technological innovation was shown to follow in past empirical studies: An s-shaped curve best modeled by a three-parameter logistic function. Institutional innovation is strongly susceptible to social barriers, and its diffusion is a function of the degree of influence of those opposing it. This work can help modelers by bounding the range of the diffusion rate of institutional innovation.

Diplomarbeitsposter Vecerka Simone

Simone Vecerka

Masterstudium Software Engineering & Internet Computing
Abstract:

Viele, wenn nicht alle Unternehmen sind in der heutigen Zeit mit der Herausforderung konfrontiert, die Kommunikation und Zusammenarbeit in Teams nicht nur konventionell, vor Ort, sondern auch virtuell, sprich online, effektiv zu gestalten. Teams mit verteilten Arbeitsbedingungen gewinnen immer mehr an Bedeutung. Dabei entstehen für alle Typen von Aufgaben verschiedene Anforderungen an die Kommunikationsprozesse, die Medienwahl und die Kollaborationsstruktur. Durch eine längere Zusammenarbeit und Vertrautheit der Teammitglieder werden Medien in Unternehmen mit weniger Synchronizität als unterstützende Werkzeuge für die virtuelle Zusammenarbeit genutzt (Walsh, Hass, und Kilian, 2010). Ein großes Angebot an Anwendungen kann diese bei unterschiedlichen Aufgaben unterstützen. Oft ist es für die Unternehmen schwierig, das geeignete Tool auszuwählen und das gesamte Potential auszuschöpfen. Diese Arbeit beschäftigt sich mit der Frage, wie sich die Rolle der Teambeziehung für die Medienwahl in IT-Teams auf Basis der Mediensynchronizitätstheorie darstellt. Benötigen Teams, die bereits länger zusammenarbeiten und sich entwickelt haben, seltener Medien mit hoher Synchronizität? Und wird die Medienvielfalt durch eine längere Zusammenarbeit mehr? Anzunehmen ist, dass Teams, die erst kürzlich verteilt zusammenarbeiten, eher fokussiert auf bestimmte Medien sind. Dazu wurde in vier Unternehmen eine qualitative Sozialforschung durchgeführt. Insgesamt wurden vier Fokusgruppen zur Datenerhebung durchgeführt. Da die jeweilige Projektleitung getrennt befragt wurde, entstanden insgesamt acht Interviews. Die Bearbeitung und Analyse dieser Daten erfolgte nach einem angepassten Leitfaden für qualitative Inhaltsanalysen nach Mayring (2008). Es wurde ein Kriterienkatalog auf Basis der Mediensynchronizitätstheorie erstellt, mit dem die gewählten Medien beurteilt wurden. Auf Basis dieser Ergebnisse werden Handlungsempfehlungen für Unternehmen gegeben.

Diplomarbeitsposter Zarzycki Jakub

Jakub Zarzycki

Masterstudium Business Informatics
Abstract:

Das Ziel der vorliegenden Diplomarbeit ist die Identifizierung und Spezifizierung des Growth Hacking Prozesses im Rahmen der Untersuchung zweier Startups im anfänglichen Stadium. Das Growth Hacking ist ein Marketingansatz, bei dem kreative Techniken (sogenannte "Hacks") angewendet werden, um das Wachstum der Kundenbasis anzuregen. Dabei wird besonderer Wert auf die Analyse und Beobachtung gelegt. Die Theorie für das Growth Hacking wurde aus der grauen Literatur gewonnen, da akademische Literatur zu diesem Thema nur beschränkt verfügbar ist. Danach wurde eine intensive Literaturrecherche betrieben, um die wissenschaftlichen Bereiche rund um Growth Hacking zu identifizieren und kurz zu beschreiben. Dabei versuchte der Autor einen Bereich zu finden, in dem Growth Hacking angesiedelt werden könnte, deshalb wurde besonderes Augenmerk auf das Thema des Entrepreneurial Marketing gelegt. Da im Rahmen der Arbeit ein Prozess entworfen wurde, wurde auch das Thema Business Process Management angesprochen, und hierbei speziell das Business Process Modelling. Für die Untersuchung wurde die Methode der Fallstudie gewählt, im Rahmen welcher diverse Dokumente analysiert, die Ereignisse direkt beobachtet und qualitative Interviews mit den für Growth Hacking in dem Unternehmen verantwortlichen Personen durchgeführt wurden. Im nächsten Schritt wurden die gesammelten Materialien mittels der Methode der qualitativen Inhaltsanalyse ausgewertet. Aus den Daten wurden induktiv Kategorien gebildet, die in späterer Folge zu Prozessschritten zusammengefasst wurden. Diese Vorgehensweise ergab einen vollständigen Growth Hacking Prozess, der in Business Process Modelling Language dargestellt wurde.

(vor 2018) Institut für Fahrzeugantriebe und Automobiltechnik

Diplomarbeitsposter Ibrahimovic Emir

Emir Ibrahimovic

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Bei der Reduktion der Kohlendioxid (CO2) Emissionen steht unter anderem nachhaltige Mobilität im Fokus, welche durch die Optimierung vorhandener Antriebstechnologien, vor allem die der Verbrennungsmotorfahrzeuge, sowie die Entwicklung alternativer Antriebsstränge, wie Elektrofahrzeugen, (Plug-in) Hybridfahrzeugen sowie Brennstoffzellenfahrzeugen, ermöglicht werden soll. In Anbetracht des konzeptionellen Unterschieds des Energieeinsatzes bei Fahrzeugen welche Primärenergie in mechanische Antriebsenergie an Bord übertragen und solchen die bereits umgewandelte Energie für den Antrieb verwenden, ist die rein auf direkte Emissionen basierende Umweltbewertung von Fahrzeugen nicht ausreichend. Die vorliegende Arbeit liefert eine Datenbestandsaufnahme für die Ökobilanzierung der Produktion und des Betriebs von Fahrzeugen mit herkömmlichen sowie alternativen Antriebssträngen für vier geografische Regionen: USA, Europäische Union, Deutschland und Österreich. Durch Fahrzeugsimulation und Datenbestände wurde hierbei der CO2-Ausstoß für den vollen Lebenszyklus der Fahrzeuge erfasst. Ergebnisse die durch die Simulation der derzeit gültigen Prüfverfahren erzielt wurden, zeigen dass das Elektrofahrzeug mit einer Reduktion des CO2 Ausstoßes um 30% im Vergleich zum ineffizientesten Fahrzeug, das höchste Potenzial für CO2-nachhaltige Mobilität bietet. Leider ist das Elektrofahrzeug stark abhängig von den lokalen Bedingungen der Stromerzeugung und der CO2-Effizienz der Batterieproduktion. Das momentan gültige Prüfverfahren für Elektro- und Brennstoffzellenfahrzeuge in Europa spiegelt nicht exakt die tatsächlich verursachte CO2-Emissionen wieder, sondern nur die lokalen Emissionen dieser Fahrzeuge. Signifikante Unterschiede zwischen den Regionen zeigen sich in der Produktion und beim Einsatz der Fahrzeuge, während im Fall von Österreich die Bedeutung eines CO2-effizienten Strommixes durch mehrfache Sensitivitätsanalysen aufgezeigt wurde.