EPILOG Wintersemester 2015

Auszeichnungen

Weitere Nominierungen für Distinguished Young Alumnus/a WS15

Ausgestellte Arbeiten

Institut für Technische InformatikE182

Arbeitsbereich Cyber-Physical Systems

Diplomarbeitsposter Kasper Andreas

Andreas Kasper

Masterstudium Technische Informatik
Abstract:

Diese Arbeit befasst sich mit der Konfiguration eines Routers für CAN Nachrichten. Ziel des CAN Routers ist es dabei die Grenzen eines gewöhnlichen CAN Busses zu überwinden. Durch das selektive Weiterleiten von Nachrichten sowie die Unterstützung von Traffic-Shaping unterstützt der Router die Fehlertoleranz und die Echtzeitfähigkeit von CAN basierten Kommunikationssystemen. Hierfür es es jedoch notwendig, dass dem Router die Zusammensetzung des Kommunikationssystems so wie das Kommunikationsverhalten der einzelnen, beteiligten Geräte bekannt ist. Diese Arbeit zeigt wie eine modellbasierte Methode zur Konfiguration des Routers verwendet werden kann. Aus FIBEX basierdenden Konfigurationsdateien, welche die gesamte Architektur des Bussystems abbilden, werden verschiedene binäre Konfigurationsdateien generiert. Diese Dateien beinhalten Routing-Tabellen welche den Ursprung und das Ziel einer Nachricht definieren und Warteschlangen, welche sicherstellen, dass die CAN Nachrichten in der korrekten Reihenfolge, abhängig von der Priorität, gesendet werden. Unter Verwendung eines Echtzeit-Linux- Betriebssystems und einem Ethernet basierenden Echtzeit-Netzwerkprotokoll so wie einer Echtzeit-Konfigurationssoftware werden die generierten binären Daten an die Konfigurationseinheit des Routers übertragen. Der Aufbau der Konfigurationssoftware und das Protokoll so wie Formeln zum Berechnen der maximalen Konfigurationszeit werden präsentiert. Weiters werden die tatsächlichen Konfigurationszeiten mit den berechneten verglichen und analysiert. Abschließend werden noch Maßnahmen präsentiert um den Konfigurationsprozess zu verbessern.

Institut für Rechnergestützte AutomationE183

Arbeitsbereich Automatisierungssysteme

Diplomarbeitsposter Adamer Jasmin

Jasmin Adamer

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Hohe Volatilität auf dem Markt und anspruchsvolle Kundenanforderungen zwingen Firmen, schnell auf neue Herausforderungen zu reagieren. Um dies zu realisieren, verwenden viele Unternehmen Business Intelligence (BI) - Systeme, welche bei strategischen Entscheidungen helfen. Sehr bekannt ist auch der Ansatz namens Vendor Managed Inventory (VMI), welcher eine besondere Form des sogenannten Supply Chain Managements (SCM) darstellt. Damit können unter anderem Kosten reduziert und die Effektivität gesteigert werden, indem nur die tatsächlich benötigte Warenmenge produziert und versandt wird. Um solche Modelle einzusetzen, müssen Unternehmen große Mengen an Daten austauschen. Diese Daten müssen im richtigen Format, der richtigen Qualität und in Echtzeit verfügbar sein, um Erfolg zu ermöglichen. Die Verwendung eines Real Time Data Warehouse (RTDW) ist eine gute Lösung, um Daten- und Zeitprobleme zu beseitigen. Der vorgestellte Ansatz kombiniert Vendor Managed Inventory und Real Time Data Warehousing, um die Vorteile der beiden Modelle zu nutzen. Durch das zusätzliche Anwenden von Standards für den Informationsaustausch ist ein schneller und fehlerfreier Datenaustausch möglich. Die beispielhafte Implementierung basiert auf einem flexiblen Anwendungsfall, welcher eine Erweiterung zu jedem Zeitpunkt ohne großen Implementierungsaufwand für die neuen Supply Chain-Mitglieder ermöglicht. Der Fokus der Umsetzung liegt auf den Schnittstellen der Supply Chain-Mitglieder, welche sorgfältig geplant werden müssen, um alle benötigten Daten an die Teilnehmer zu verteilen. Die Diplomarbeit zeigt, dass eine technische Implementierung dieses Ansatzes möglich ist und die Kombination von VMI und RTDW mit Fokus auf die Schnittstellen zu einem effizienten und funktionierendem Modell führt. Neben technischen Anforderungen an die Infrastruktur zeigt die Diplomarbeit auf, dass auch strategische Geschäftsentscheidungen essentiell sind, um das vorgestellte Modell erfolgreich zu machen.

Diplomarbeitsposter Gaida Stefan

Stefan Gaida

Masterstudium Technische Informatik
Abstract:

Die Energiewende weg von fossilen Brennstoffen hin zu erneuerbaren Energiequellen stellt neue Anforderungen an die Stromnetze. Die größte Herausforderung dabei besteht darin, dass das Ausmaß an produzierter Energie mit dem Wetter, der Tageszeit und der Jahreszeit variiert. Darüber hinaus wird erwartet, dass der aktuelle Trend, Elektrizität an Stelle von weniger effizienten Energiequellen (z.B. Öl) in Sektoren wie der Mobilität einzusetzen, zu einer weiteren Erhöhung des Strombedarfs führt. Stromnetze, welche diese Entwicklungen berücksichtigen, werden als Smart Grids bezeichnet. Der entscheidende Unterschied zur derzeitigen Infrastruktur besteht dabei in der intensiven Nutzungen von Computernetzwerken zur Kommunikation zwischen Dienstleistern, Versorgungsunternehmen und Kunden. Ein wesentlicher Teil des Smart Grids wird durch die Schnittstelle zu Smart Buildings gebildet. Zurzeit gibt es keinen internationalen Standard, der Regeln für diese Art von Kommunikation festlegt. In der vorliegenden Arbeit werden geeignete Netzwerkprotokolle und Datenmodelle identifiziert und anschließend auf ihre Eignung zur Erfüllung der Anforderungen an eine solche Schnittstelle geprüft. Neben allgemeinen Anforderungen an die Schnittstelle werden spezifische Anwendungsfälle für die Kommunikation zwischen Smart Buildings und Smart Grids identifiziert und im Detail ausgearbeitet. Darauf aufbauend wird analysiert, welche Information in den ausgetauschten Nachrichten der Anwendungsfälle enthalten sein muss. Für jede dieser Nachrichten wird bestimmt, welche zuvor identifizierten Standards dazu in der Lage sind, die Struktur und den Inhalt des Signals zu definieren. Die identifizierten Möglichkeiten werden miteinander verglichen und die geeignetste Option wird ausgewählt. Abschließend wird eine Proof of Concept Implementierung zur Demonstration der Anwendungsfälle präsentiert. Zum Austausch der Nachrichten wird das Extensible Messaging and Presence Protocol (XMPP) verwendet.

Diplomarbeitsposter Glanzer Harald

Harald Glanzer

Masterstudium Technische Informatik
Abstract:

Home and Building Automation Systems (HBAS) denominates systems for controlling building applications summarized under the terms Heating, Ventilation and Air Conditioning (HVAC). This allows to control room parameters in a centralized manner, promising lower maintenance and energy costs and higher comfort. Usually, only basic security mechanisms were implemented. The reasons were twofold: firstly, the used hardware platforms often lacked the needed processing power to implement them. Secondly, the potential impact of malicious attacks against such systems were considered negligible. Nevertheless, corporate buildings as well as private homes contain a great variety of additional applications, for example access controls, burglar alarms or fire detection systems. This group of applications has much higher demands regarding the underlying technical system. Obviously, access must be only granted to authenticated persons and fire detection systems must work reliable in case of emergency. The different requirements led to a separation of critical and uncritical systems. Unifying them into one system would allow to further decrease maintenance costs and re-use the existing infrastructure for both fields of applications. Therefore, this thesis proposes an extension to KNX which is suitable for critical environments. For this purpose, it is necessary to detect and guard against malicious attacks as well as to cope with randomly occurring hardware faults. The former can be achieved through cryptography, the latter by implementing redundancy. Both terms as well as the KNX standard are introduced in detail, followed by the proposed solution. The proposal divides KNX installations into an insecure and a secure part. The latter is protected against malicious attacks and is implemented in a redundant way. This allows to partially resist against transient hardware faults. Finally, the implementation of the prototype is illustrated.

Diplomarbeitsposter Inführ Thomas

Thomas Inführ

Masterstudium Business Informatics
Abstract:

Die Bankenindustrie hat in den letzten Jahren sehr viel Geld in die Verbesserung ihrer Sicherheits-systeme investiert. Dabei wurde jedoch die alte Magnetstreifentechnologie von der Industrie vernachlässigt und nicht mehr weiterentwickelt, da diese Technologie in Europa kaum mehr im Einsatz ist. Da aber in großen Teilen von Asien und Amerika diese Technologie sehr wohl noch eingesetzt wird, verfügt jede europäische Bankomatkartekarte über diesen Magnet-streifen. Zum Auslesen der Magnetstreifen werden sogenannte „Skimmer“ verwendet. Solche Geräte werden immer häufiger von der Polizei gefunden, nur können die Daten der aufgezeichneten Bankomaten nur unzureichend wie-derhergestellt werden. Ziel dieser Arbeit ist daher Methoden zu entwickeln die die Qualität der wiederhergestellten Daten verbessern. Dazu werden die Probleme, die bei der Rekonstruktion der Daten auftreten können analysiert und anschließend zwei mögliche Verfahren entwickelt welche das standardisierte Verfahren zum Auslesen von Magnetstreifen verbessern. Ziel ist es dabei zwei Verfahren mit möglichst verschiedenen Ansätzen zu wählen um zu ermitteln welcher Ansatz vielversprechender ist. Ein Verfahren verwendet ein gleitendes Mittelwertverfahren und das Andere k-means Clustering. Um diese beiden Ansätze zu testen wird eine Proof-of-Concept Implementierung entwickelt. Um geeignete Testdaten zu bekommen wird weiters ein Testdatengenerator für eine Versuchsreihe mit künstlich erzeugten Daten entwickelt und ein einfacher Skimmer gebaut, um für eine Versuchsreihe mit realen Datensätzen, Datensätze von verschiedenster Datenqualität zu erzeugen. Durch diese Testserien wird gezeigt, dass beide Konzepte eine wesentliche Verbesserung zum Ausgangsverfahren darstellen. Abschließend kann daher festgehalten werden, dass beide grundsätzlichen Ansätze wesentlich bessere Resultate liefern als das Ausgangsverfahren und dass die geskimmten Daten mit mehreren verschiedenen Ansätzen untersucht werden sollten.

Diplomarbeitsposter Jaros Michael

Michael Jaros

Unterrichtsfach Informatik/Informatikmanagement
Abstract:

Crowd simulation, especially the simulation of pedestrians, is used in traffic planning, architecture, building and transport safety, and computer animation in film and game industries. Major challenges are related to (1) realistic behavior of the agents, (2) realistic appearance and variety, and (3) a user-friendly definition of crowds. This work focuses on behavior in the field of architecture. Initially, the state-of-the-art in crowd simulation for virtual environments is summarized. Subsequently, pedestrian behavior is analyzed by observing pedestrians in the Westbahnhof, currently one of the two most important train stations in Vienna. Following a multi-agent-based approach, the observations are used to create a behavioral model which consists of 3 levels -- strategic, tactical and operational. A strategy specifies the reason a person visits a place (e.g. to go shopping) and consists of several activities on the tactical level. While the strategy is constant for an agent during its lifetime, activities (e.g. to buy food, to use a toilet, to buy a newspaper) and associated activity areas are chosen and prioritized dynamically by each agent. This results in a coarse route through the facility. The operational level consists of path planning and obstacle avoidance. The behavioral model is implemented using the Unity game engine and tested using a 3D model of the train station, looking into the most common strategies and their most typical combinations of activities. The implementation is distributed as a Unity package that can be reused and extended to simulate other environments. In addition, a tutorial is provided, which targets architecture students and professionals who use Unity as an integration platform for their work.

Diplomarbeitsposter Klein Markus

Markus Klein

Masterstudium Technische Informatik
Abstract:

Embedded systems are part of our daily life and they pervade almost all areas of living. Mobile phones, cars, debit cards, medical equipment, energy meters and the intelligent fridge are just a few examples. All these systems have one thing in common - some may call it even a requirement - they have to be able to communicate. Communication is the key-factor, no matter if this communication happens within a system or with other connected systems or even with the environment. Integration is getting tighter and tighter in any case and demand for even more integration is never ending. Another demand these systems share is the fact that those system are getting cheaper. Obviously, the manufacturers of these systems have to reduce costs, with the consequence that safety-margin in the production are reduced to save material. This results mostly in less lifetime of products and also error-proneness is rising. The overall reliability is therefore getting worse. A small part of those networked embedded systems though plays a special role. These are those systems which actually care about human safety. Typically those safety systems are not very visible to the average person as they work rather in the background. They are to be found in cars, airplanes, the processing-industry or the fire-safety domain. Clearly, this special role implies some additional requirements those systems have to fulfil. This thesis takes a closer look at communication and reliability of such safety-critical embedded systems, taking the fire-safety domain as a reference use case. System requirements within this domain are: frequent communication over longer distances, low-priced hardware, but high reliability demands. The thesis suggests a combined software- and hardware-framework, which improves reliability (and therefore also communication) of the devices in smaller embedded systems.

Diplomarbeitsposter Ludrovan Tomas

Tomas Ludrovan

Masterstudium Software Engineering & Internet Computing
Abstract:

Die Popularität von Mobilfunknetzen ist in den letzten Jahren rasch gestiegen und ihre Technologien haben auch Datendienste auf mobile Geräte gebracht. Diese sind für unterschiedliche Anwendungen eingesetzt, wobei jede davon andere Anforderungen an gute Qualität hat. Bandbreite und verwandte numerische Werte wie Ping können bereits mit bestehenden Tools ermittelt werden, wobei die Wahrnehmung der Dienstqualität anhand der gemessenen Daten interpretiert werden muss und im jetzigen Stand der Technologie nicht ohne Feedback von Benutzern geschätzt werden kann. Es gibt Studien, die die Verbindung zwischen dem Feedback von Benutzern und unterschiedlichen Netzwerkmerkmalen untersuchen, wobei subjektive Bewertungen über die wahrgenommene Qualität von teilnehmenden Benutzern gesammelt werden. Um die subjektiv wahrgenommene Qualität des gerade konsumierten Dienstes durch den Benutzer zu messen, wurden bereits feedbackbasierte Tools entwickelt. Ohne Testpersonen kann aber mit automatisierten Tools anhand von gegebener Netzwerkqualität keine Aussage über die erwartete wahrgenommene Dienstqualität getroffen werden. Diese Masterarbeit untersucht Quality of Experience in umgekehrter Richtung: von gemessenen Daten zur subjektiven Wahrnehmung des entsprechenden Dienstes, wobei keine Testpersonen mehr in der Beurteilung notwendig sind. Die Berechnung basiert auf dem mathematischen Modell Deterministic Quality of eXperience (DQX). Dieses Verfahren konvergiert berechnete Wahrnehmung der Dienste gegen eine reale Bewertung des Benutzers. Ziel ist ein automatisiertes Softwaretool zu entwickeln, welches die Aussagen über die Wahrnehmungsqualität anhand von gemessenen Quality of Service -Werten treffen kann. Das neue Verfahren, um Mobilfunknetze qualitativ zu beurteilen, wurde im Softwaretool BonaFide+ Provider implementiert und für Messungen eingesetzt.

Diplomarbeitsposter Mayerhofer Christoph

Christoph Mayerhofer

Masterstudium Informatikmanagement
Abstract:

Software-Entwicklung verlangt aufgrund der immer kürzeren Innovationszyklen vielseitige Qualifikationen und Kompetenzen. Zusätzlich werden Programmierer zunehmend mit kompetenzübergreifenden Arbeitstätigkeiten betraut, welche mit erhöhten Qualifikationsanforderungen und folglich einer notwendigen Wissenserweiterung verbunden sind. Um diese Schlüsselqualifikationen des beruflich begleitenden Lernens zu erlangen, ist es sinnvoll, arbeitspädagogische Maßnahmen im Betrieb anzuwenden. Hier hat sich in der Vergangenheit die Leittextmethode bewährt, welche vom Auszubildenden "einen hohen Grad an Eigeninitative und Selbstständigkeit" erfordert. Während es eine Vielzahl von Studien und Berichte zum Einsatz der Leittextmethode im metallisch-industriellen Umfeld gibt, ist der Einsatz dieser Lehr- und Weiterbildungs-Methode im Bereich des Software-Engineerings weniger bekannt bzw. dokumentiert. Im Zuge dieser Arbeit wird geklärt, inwieweit arbeitspädagogische Maßnahmen im Berufsleben zur Bildung von Schlüsselqualifikationen beitragen können. Hierzu wird zuerst der Einfluss der Pädagogik auf die betriebliche Weiterbildung gezeigt sowie der Begriff der Schlüsselqualifikation erläutert. Aufbauend auf diesen Erkenntissen wird ein Schulungskonzept erarbeitet. Ziel dieses Konzeptes ist es einerseits, für das Unternehmen eine effizientere und nachhaltigere Schulungs- und Weiterbildungsmöglichkeit der Mitarbeiter zu ermöglichen. Weiters sollen durch den Einsatz der Leittextmethode die Schlüsselqualifikationen der Mitarbeiter durch Anwendung von pädagogischen Methoden im Berufsleben verfeinert und erweitert werden. Zentrale Elemente der Leittextmethode sind die Leitfragen sowie der begleitende Leittext. Die Leitfragen werden dabei nicht durch den Lehrenden, sondern mittels Befragung der Projektmitarbeiter ermittelt. Darauf aufbauend wird der Leittext verfasst, welcher als Lehrunterlage dient.

Diplomarbeitsposter Meisel Marcus

Marcus Meisel

Masterstudium Software Engineering & Internet Computing
Abstract:

Die steigende Anzahl an verteilten Stromerzeugungsanlagen verlangt auch von Stromverbrauchern eine wachsende Flexibilität bei dem Zeitpunkt der Abnahme der zur Verfügung stehenden Energie, um die elektrische Netzfrequenz stabil zu halten. Diese Diplomarbeit beantwortet im Forschungsfeld Lastmanagement die Fragestellung, ob die notwendige Flexibilität durch unterschiedliche Kombinationen informations- und kommunikationstechnologischer Ansätze erreicht werden kann. Automatisierte Managementsysteme von elektrischen Lastflexibilitäten haben das Potential im Energiesystem der Zukunft, dem Smart Grid, durch den Einsatz von Kommunikations- und Informationstechnologie, mit einer hohen Dichte verteilter, volatiler, erneuerbarer Erzeugung umzugehen und damit die Balance von erzeugter und verbrauchter Energie kontinuierlich halten zu können. Diese Arbeit schafft mittels vorgestellter Methoden eine umfangreiche Basis für die Realisierung von bekannten und zukünftigen Lastmanagementszenarien. Anhand der Requirements-Engineering-kompatiblen Beschreibungen bis zu Domänen Modellen wurde ein wesentlicher Schritt in Richtung Implementierung dieser Szenarien umgesetzt. Nach einer Auswahl werden vier Szenarien detailliert in ihren organisatorischen, ökonomischen und technischen Aspekten analysiert und beschrieben. Ein aus den Szenarien entwickeltes System für das Management von Lastflexibilitäten im elektrischen Energiesystem, das in möglichst vielen Smart-Grid-Anwendungsfällen genutzt werden kann, ist das Endergebnis dieser Arbeit. Die durchgeführte Abbildung in dem breit anerkannten Smart Grid Architecture Model für Smart-Grid-Anwendungsfälle bietet damit maximale Umsetzungschancen. Dieses Ergebnis befindet sich genau innerhalb der Schnittmenge der Energie- und Informationstechnologie, die in einem cyber-physischen System, wie dem Smart Grid, gemeinsam agieren und von beiden Seiten aus eineindeutig verstanden werden müssen.

Diplomarbeitsposter Schober Jürgen

Jürgen Schober

Masterstudium Technische Informatik
Abstract:

The aim of Network Control System (NCS) is to eliminate discrete cabling. Hence, the complexity and the total cost for the development and implementation are reduced. As communication networks, classical fieldbus systems, Industrial Ethernet or wireless networks are used. The distance covered between two network devices is often larger than 100 meters. However, this distance equals the maximum possible distance between two Ethernet network devices. An existing platform solves this problem by using TIA/EIA-485. TIA/EIA-485 is a half-duplex differential network bus being able to reach a bus length of up to 1200 meters. Moreover, it is an efficient and robust solution. A micro-controller is utilized to realize an interface between an Ethernet network and TIA/EIA-485. This allows to build wide spread networks, which are often part of NCS. The difficulty still is to transmit Ethernet data transparently. Within the scope of this thesis, a more efficient protocol for the transmission of Ethernet frames via redundant TIA/EIA-485 interfaces is developed. Thereby, the data throughput is significantly improved compared to the existing protocol. A micro-controller receives data from an Ethernet endpoint and forwards it in the UART data format via two TIA/EIA-485 interfaces. If an error occurs during transmission or one of the two TIA/EIA-485 interfaces fails, it is detected and only a part of the Ethernet frame has to be retransmitted. This is achieved by splitting the Ethernet frames into smaller frames. Nevertheless, the system continues the operation with the remaining TIA/EIA-485 interface. The protocol is successfully implemented as a proof-of-concept on Microchip development boards Explorer 16. A sound evaluation shows the feasibility and efficiency of the proposed approach. At the end of the thesis, a detailed comparison with the initial approach is given to show the improvements concerning performance and reliability of the concept.

Diplomarbeitsposter Seifried Stefan

Stefan Seifried

Masterstudium Technische Informatik
Abstract:

Durch die historisch gewachsene Vielfalt an Feldbuslösungen nutzen Automatisierungsysteme oftmals ein heterogenes Konglomerat unterschiedlichster Kommunikationsprotokolle. Bisherige Anstrengungen in diese Richtung resultierten daher in Ansätzen die zusätzliche Abstraktionsebenen einführten. Auch die fortschreitende Automatisierung kritischer Systeme wurde nicht immer ausreichend mit Mechanismen zur Sicherung der Zuverlässigkeit berücksichtigt. Die vorliegende Diplomarbeit führt eine Gateway Lösung ein, die sowohl auf das Problem der horizontalen Integration als auch auf die zuverlässige Anbindung kritischer Systeme abzielt. Dafür wurde ein allgemeines Informationsmodell entwickelt. Die Zuverlässigkeit der eingeführten Gateway Lösung wird durch Replikation mehrerer Gatewaygeräte erreicht, die in einem redundanten Verbund zusammengeschlossen sind. Dabei müssen die einzelnen Gatewaygeräte untereinander synchronisiert werden, was über die bereits vorhandenen Feldbusverbindungen geschieht. Dies macht eine separate Backbone Verbindung überflüssig. Weiters werden zu besseren Verteilung der Synchronisationstelegramme Buslast- metriken erhoben und eine Ende-zu-Ende Verbindungssicherung zwischen den einzelnen Gate- waygeräten durchgeführt. Außerdem wurde eine Fehlerhypothese für den Gatewayverbund und für das gesamte, verbundene Automatisierungssystem aufgestellt und analysiert. Eine detaillierte Fehleranalyse wurde mittels vollständiger Enumeration aller möglichen Fehlerfälle durchgeführt. Weiters wurden die Fehleranalyseergebnisse in einer Testumgebung mit einer prototypischen Gatewayimplementierung für die Technologien KNX und ZigBee auf ihre Richtigkeit hin überprüft. Abschließend betrachtet ist der beschriebene Gateway Ansatz nicht nur eine mögliche, son- dern auch eine sinnvolle Lösung für das Integrationsproblem verschiedener Feldbusse.

Diplomarbeitsposter Thamm Eduard

Eduard Thamm

Masterstudium Software Engineering & Internet Computing
Abstract:

Mit der Einführung eines neuen Protokolls zur Regelung der Kommunikation zwischen Com- putern und Netzwerken ergibt sich die Notwendigkeit, die zugrundeliegenden Konzepte und deren Umsetzung zu analysieren. IPv6 wies ursprünglich eine große Zahl an Veränderungen im Vergleich zu IPv4 auf, zum Beispiel wurde IPSec verpflichtend für alle Umsetzungen vorge- schrieben. Einige dieser Änderungen konnten sich jedoch nicht durchsetzen. Diese Diplomarbeit evaluiert den aktuellen Stand der Technik im Hinblick auf Werkzeuge zur Überprüfung von Sys- temen auf Sicherheit im Bereich IPv6 und wendet diese Werkzeuge dann auf aktuelle Umsetzun- gen von IPv6 Kommunikationsschnittstellen an. Zu diesem Zweck wurde ein Versuchsnetzwerk aufgebaut. Die gewonnenen Daten wurden ausgewertet und geben wertvolle Hinweise zum ak- tuellen Entwicklungsstand von IPv6. Die Arbeit schließt mit dem Ergebnis, dass IPv6, obwohl noch einiges an Arbeit in diesem Feld vonnöten ist, vom Sicherheitsstandpunkt aus einsatzbereit ist. Zukünftige Forschung in diesem Bereich sollte eine Ergründung der Ursachen der gefunde- nen Schwachstellen und das Durchführen von Tests in komplexeren Umgebungen umfassen.

Diplomarbeitsposter Weichselbaum Lukas

Lukas Weichselbaum

Masterstudium Software Engineering & Internet Computing
Abstract:

Since its release in 2008, Android has gained an impressive marketshare of about 85% and the amount of Android devices is still growing in relative as well as in absolute numbers. Within the same time, not only benign users have been attracted by Android, but also cyber criminals who can reach many victims by developing malware for the Android platform. This led to an increase of malicious mobile applications by 614% in the last year, whereof 92% of malware were targeting the Android Platform. Malicious applications can turn a user's device into a bot-net node, steal sensitive or confidential information, cause financial damage, etc. Considering the popularity of smartphones and the amount of private data stored on them, it has become very important to detect these kinds of malicious applications. Unfortunately, dynamic analysis frameworks for analyzing Android applications, which can be used by security professionals and laymen, are sparse. To overcome this deficit, we present ANDRUBIS - a fully automated large-scale dynamic analysis framework for Android applications that combines static analysis techniques with dynamic analysis on both, Dalvik VM and on QEMU virtual machine introspection layer. Furthermore ANDRUBIS makes use of tainting to detect malicious applications leaking sensitive information and several stimulation techniques to increase code coverage. We opened ANDRUBIS for public submissions with a current capacity of analyzing around 3,500 samples per day. This lead to more than 1,000,000 analyzed Android applications submitted by researchers, security professionals and users. To evaluate ANDRUBIS, we analyzed Android applications from different sources like the official market, torrents, direct download sites, the Genome Project (a collection of known Android malware families) and malicious Android applications from Virus Total. Comparison with other analysis frameworks has shown that ANDRUBIS performs very well.

Arbeitsbereich Computer Vision

Diplomarbeitsposter Krenn Markus

Markus Krenn

Masterstudium Medizinische Informatik
Abstract:

Computerunterstützte Diangosesysteme (CAD) spielen eine wichtige Rolle während der Befundung von medizinischen Bilddaten. Typische Aufgaben eines CAD Systems umfassen die Lokalisierung von anatomischen Regionen (Segmentierung) und die Identifikation von pathologischem Gewebe (Klassifizierung). Ziel dieser Arbeit ist die Entwicklung von Methoden zur Segmentierung und Klassifizierung in medizinischen Bildern, die aus Daten lernen die im klinischen Alltag erzeugt werden. Der erste Teil dieser Arbeit stellt eine Methode zur Segmentierung von anatomischen Strukturen in medizinischen Bildern vor, die lediglich aus einer Menge von Bilddaten lernt (unüberwachtes Lernen). Diese besteht aus vier Komponenten: die Registrierung aller Bilder zu einem Atlas, das Erlernen von Prototypen von Bildmerkmalen, das Erlernen einer Segmentierung im Atlas und das Generieren von Segmentierungen in neuen Bildern durch Kombination der Atlassegmentierung und lokalen Bildmerkmalen. Im zweiten Teil wird eine Methode zu Klassifikation von pathologischen Regionen in einem Organ beschrieben. Diese lernt aus einer Menge von Bildern, wobei zu jedem Bild Textlabels zur Verfügung stehen welche die im Bild auftretenden Pathologien beschreiben. Diese besteht ebenfalls aus vier Komponenten: das Partitionieren von Bildmerkmalen, das Erlernen der Verteilung von Labels in diesen Partitionen, das Generieren einer Wahrscheinlichkeitstabelle die Partitionen einzelne Labels zuordnet und Klassifikation von Pathologien in neuen Bildern. Die Evaluierung der Methode zum Segmentieren zeigt, dass drei Organe identifiziert werden (Lunge, Herz, Leber). Die zweite Methode wurde auf einem Datensatz von 300 CT Scans mit Annotierungen von fünf pathologischen und gesunden Strukturen in der Lunge evaluiert. Hierbei wurden Sensitivitäts- und Spezifitätswerte von 0.9/0.98 für gesunde, 0.77/0.96 für Milchglas, 0.91/0.98 für Reticular, 0.37/0.99 für Honeycombing und 0.9/0.96 für Emphysem Regionen erreicht.

Diplomarbeitsposter Wolf Patrick

Patrick Wolf

Masterstudium Medieninformatik
Abstract:

Having exact 3D reconstructions indoor scenes is useful for numerous applications e.g. augmented reality furniture placement. Recent 3D reconstruction approaches obtain complex and highly detailed 3D models, which are difficult to handle, since the computational cost of manipulating models is directly related to its complexity. Consequently, it is also challenging to display and manipulate such detailed models on a mobile device because of limited resources. In order to keep the processing time low, simplified approximations of highly detailed models are desirable for mobile applications. Therefore, in this thesis we present a framework for simplifying indoor scenes using multi-modal RGBD video sequences. The framework consists of two parts – a 3D layout estimation pipeline as well as an object detection and pose estimation approach. Layout segments are represented by 3D planes and merged over time. After determining the 2D floor plan of the entire scene, a compact representation of the scene is generated by extruding the floor plan. In order to create semantically meaningful 3D layouts, objects are detected and replaced by synthetic CAD models using 2D object detection methods and 3D point cloud descriptors. In each frame semantic types and poses are determined. A Markov Random Field (MRF) is introduced over time, which exploits temporal coherence between consecutive frames in order to refine the pose results. The framework is trained with synthetically rendered point clouds obtained from CAD models. Qualitative and quantitative experiments on various indoor video sequences show that the resulting spatial layout results outperform monocular state-of-the-art algorithms when comparing with a variety of semantically labeled ground truth scenes. The MRF temporal optimization methods yield to improvements concerning the pose results and the accuracy of the scene dimensions. We achieve a data reduction rate of over 99% compared to the raw point-based representations.

Institut für InformationssystemeE184

Arbeitsbereich Distributed Systems

Diplomarbeitsposter Borkowski Michael

Michael Borkowski

Masterstudium Software Engineering & Internet Computing
Abstract:

In the field of mobile distributed computing, the term prefetching is used to describe the practice of retrieving data before its actual usage. Doing so results in several beneficial effects for the user, ranging from reduced perceived delay, the possibility to handling lower connection speeds to masking network outages completely. This thesis proposes a prefetch scheduling algorithm. The described algorithm is capable of scheduling requests so that, in a best-case scenario, the results are fetched exactly on-time and no delay at all is experienced by the user (or client code). After discussing some formal concepts necessary as a foundation for the proposed algorithm, a basic idea on how to approach a scenario of volatile network connectivity with a given context (predicted future network quality) is presented. The idea is first stated as a problem of mathematical analysis, and subsequently transformed into a concrete algorithm, of which a reference implementation stub in Java is shown. The second main section of this thesis is a simulation environment capable of reproducibly evaluating the prefetching scenarios by running simulations of mobile units with fluctuating network quality. This thesis presents the architecture of this simulation environment in detail. Following this description, a series of simulation configurations is shown and the resulting simulation outcomes are presented. The results show that the algorithm indeed increases the overall quality of user experience significantly, in the typical use case modelled after a real-world situation by up to 70 %, while maintaining context constraints like limited energy usage. Concluding, the algorithm is put into context of real-world applications and its feasibility is discussed, alongside with possible future fields of research and concepts of enhancement.

Diplomarbeitsposter Cik Juraj

Juraj Cik

Masterstudium Software Engineering & Internet Computing
Abstract:

Elastic systems are characterized by the ability to expand and contract in the cloud environment, through dynamic de/allocation of resources, based on their requirements. These requirements can be described, with respect to the internal structure of the elastic system, as a trade-off between resource, quality and cost. In order to make such systems feasible, a platform specialized on development and operation of elastic systems is needed. Within this platform, supporting services for deployment, monitoring, testing and elasticity control handle all the tasks for the additional aspect of elasticity, leaving the developer ’s hands free to deal with the system’s domain-specific logic. Moreover, extending such a platform over multiple existing clouds results in an integrated multi-cloud environment. The challenge is to manage elastic systems in this platform throughout their entire lifecycle. This includes coordination of elastic platform services, while providing traceability of actions executed by the services as well as by human users. Furthermore, it is necessary to support extensibility of the platform with new services and offer a uniform interface for interaction with the platform. This thesis proposes a framework for management of elastic systems in the above described platform. The resulting management system is based on loose coupling of elastic platform services through an observable event-driven communication. The exchange of events is centered around a lifecycle of an elastic system, which serves for coordination of the involved components. The lifecycle reflects platform’s use cases and characteristic relations between elastic platform services. The thesis further proposes components of the management framework, including management of dynamic elastic platform services, as well as, recording and analytics of events. Last but not least, a prototype is implemented for evaluation of the framework and of the introduced concepts.

Arbeitsbereich Database and Artificial Intelligence

Weitere ausgestellte AbsolventInnen dieses Arbeitsbereichs:
Sebastian Arming
Diplomarbeitsposter Kocabas Deniz

Deniz Kocabas

Masterstudium Software Engineering & Internet Computing
Abstract:

Shift design and break scheduling problems are important employee scheduling problems that have been investigated recently in the literature. The shift design problem arises in a variety of large organizations. It involves efficient usage of personnel resources to reduce costs as much as possible, while satisfying several constraints. Break scheduling problem is important in several organizations that needs a high level of concentration. Therefore, it is important that the workers have from time to time breaks to keep the concentration level high. The purpose of the shift design problem is to find a minimum number of legal shifts, that reduce the shortages and excesses of workers in every time slot during the planning period. In the break scheduling, the breaks are assigned within their shifts conveniently with respect to several constraints and also trying to keep the deviation of workforce for the time slots as minimal as possible. In this thesis, we introduced integer linear programming formulation explicitly for solving shift design and break scheduling problems. The explicit model is investigated based on enumeration of each shift or break from the possible shift or breaks starts and lengths. To solve the integer programming model for the shift design problems from the literature, we performed experiments with state-of-the-art solvers Cplex and Gurobi. The Cplex Solver shows better time performance compared to Gurobi Solver. Our results show that these solvers can be used successfully for the shift design problem. Indeed, new optimal solutions are obtained for several benchmark examples. Exact method shows also superior performance for break scheduling problem with using Cplex Solver. However, our formulation fails to run in the real life instances of break scheduling problem, due to introduced restrictions in our problem formulation. We improved the previous solutions for several randomly generated examples in break scheduling problem.

Arbeitsbereich Knowledge Based Systems

Diplomarbeitsposter Neumaier Sebastian

Sebastian Neumaier

Masterstudium Computational Intelligence
Abstract:

While the Open Data movement enjoys great popularity and enthusiasm among governments, public institutions and also increasingly in the private sector, first critical voices start addressing the emerging issue of low quality of metadata and data sources in Open Data portals with the risk of compromising searchability and discoverability of resources. However, there neither exists a comprehensive and objective report about the actual state and quality of Open Data portals, nor is there a framework to continuously monitor the evolution of these portals. The present thesis tries to fill this gap. More concretely, in this work we present our efforts to confirm – or refute – various quality issues in Open Data by monitoring and assessing the quality of 126 CKAN data portals. We define our quality metrics, introduce our automated assessment framework and report comprehensive findings by analyzing the data and the evolution of the portals. We confirm the fast evolution of Open Data, pinpoint certain quality issues prevalent across the portals, and include insights about heterogeneity in Open Data such as the diversity of file format descriptions and the licensing of datasets. Another contribution of this thesis is an approach towards the homogenization of metadata found on different data publishing frameworks: we propose a common mapping for metadata occurring on CKAN, Socrata and OpenDataSoft portal software frameworks in order to improve the comparability and interoperability of portals running these different software frameworks.

Arbeitsbereich Formal Methods in Systems Engineering

Diplomarbeitsposter Ehsani Anna Parisa

Anna Parisa Ehsani

Masterstudium Medieninformatik
Abstract:

Informationsdesign ist ein Teilbereich von Informationsvisualisierung. Nach den Erkenntnissen von Nathan Shedroff kann der Inhalt, der über eine repräsentative Visualisierung illustriert wird, als eine gleichwertige Kombination der drei Bereiche Visualisierung, Geschichte und Kommunikation definiert werden. In Summe können diese Bereiche als interaktiver Prozess verstanden werden, dessen Ziel die Vermittlung von neuem Wissen ist. Die grundlegende Fragestellung dieser Arbeit beschäftigt sich mit der Eignung von narrativem Animationsfilm zur Übermittlung von komplexen Inhalten. Zwei große Faktoren befürworten den Animationsfilm: Für audiovisuelle Medien zur geeigneten Informationsaufnahme des Rezipienten sprechen erstens Forschungsergebnisse zur menschlichen Wahrnehmung und zum Lernprozess des menschlichen Verstands. Zweitens ergänzen die kreativen Möglichkeiten von Charakterdesign und Geschichtserzählung im narrativen Animationsfilm die Grundthese dieser Masterarbeit, dass Animationsfilm sich als Medium für Informationsdesign eignet, da es technische Möglichkeiten für ästhetische Lösungen der Visualisierung hat und gleichzeitig den Lernprozess des Rezipienten unterstützt. Es wurde eine Reihe an Stop-Motion Animationsfilmen erstellt, die Themen aus Informatik, Mathematik und Logik visualisieren. Diese wurden aus drei Perspektiven betrachtet: aus der Sicht des Informationsdesigners, der die Übersetzung der Information in narrative Animationsfilme in den Fokus seiner Arbeit stellt. Zweitens aus Sicht des Rezipienten, der die Möglichkeit hat, durch die Animationsfilme schwierig verständliche Sachverhalte besser nachvollziehen und lernen zu können. Drittens kann man in Hinblick auf die erarbeiteten Filme Rückschlüsse auf Unterschiede oder Gemeinsamkeiten schließen. Im Fazit wurden die verschiedenen Filme verglichen und in Zusammenhang mit der Theorie untersucht.

Arbeitsbereich Parallel Computing

Diplomarbeitsposter Haselsteiner Lukas

Lukas Haselsteiner

Masterstudium Software Engineering & Internet Computing
Abstract:

Eine oft genutzte Technik für die Programmierung nebenläufiger Programme ist die Aufteilung der Arbeit in kleine Tasks, welche parallel ausgeführt werden können. Die Verteilung der Tasks zwischen den Threads ist nicht trivial, ein dafür oft genutzter Ansatz ist Work-Stealing. Beim Work-Stealing Algorithmus ist die Anzahl der Worker-Threads während der Ausführung der Tasks fixiert. In Situationen, wo nicht genug Tasks vorhanden sind um alle verfügbaren Prozessoren auszunutzen, verschwenden nicht genutzte Worker Prozessorressourcen und können die Ausführungszeit der Anwendung vergrößern. Ein Ansatz dieses Problem zu lösen ist adaptives Work-Stealing. Dieser Algorithmus passt die Anzahl der Threads, die für die Ausführung der Tasks genutzt werden, zur Laufzeit dynamisch an. Es wird versucht die Anzahl der Worker-Threads, die genutzt werden können, abzuschätzen. Darauf basierend können Threads, die nicht benötigt werden, in einen Schlafzustand versetzt. Existierende Ansätze zu adaptivem Work-Stealing teilen die Ausführung der Anwendung meist in so genannte Quanten auf. Zwischen 2 Quanten wird überprüft wieviel Zeit die Threads für das Stehlen von Tasks verwendet haben und wieviel für die Ausführung von Tasks. Anhand dieser Klassifikation werden Threads zur Anwendung hinzugefügt oder entfernt. Eine einfache Technik, um Worker-Threads, die gerade nicht genutzt werden, zu pausieren, ist der Einsatz von sogenannten Backoffs. In dieser Arbeit wird untersucht, inwiefern sich Backoffs auch in Work-Stealing Schedulern verwenden lassen. Daneben wird ein neuer adaptiver Work-Stealing Algorithmus entwickelt. Der Algorithmus verwendet ebenso das Konzept der Quanten, unterbricht Worker aber niemals, wenn sie selbst noch genug Tasks zum Ausführen haben. Deshalb verursacht dieser Ansatz nur einen sehr kleinen Mehraufwand, solange genug Arbeit vorhanden ist. Kleine Benchmarks werden genutzt, um die Performance der neuen Algorithmen zu testen und mit anderen Techniken zu vergleichen.

Diplomarbeitsposter Kalany Martin

Martin Kalany

Masterstudium Software Engineering & Internet Computing
Abstract:

Derived datatypes are an integral part of the Message Passing Interface (MPI), the de-facto standard for programming massively parallel, high performance applications. The mechanism is essential for efficient and portable implementations of programs working with complex data layouts. MPI defines several type constructors that are capable of describing arbitrarily complex, heterogeneous and non-contiguous data layouts. The type constructors may be applied recursively, leading to tree-like representations of data layouts, also called type trees. Typically, multiple different representations of a given data layout exist. MPI implementations require concise representations to process derived datatypes efficiently. It is not easy to see for users which representation is the best for a given data layout, since many non-obvious factors need to be considered, such as machine specific hardware capabilities and optimizations. The problem of computing the most concise (or optimal) type tree representation for a given data layout was coined the Type Reconstruction Problem. It has been an open question whether this problem can be solved to optimality in polynomial time (w.r.t. to the size of the represented data layout). So far, heuristics have been used to improve a given representation, without providing any guarantees about the quality of the result. In this master's thesis, we present an algorithm that solves the Type Reconstruction Problem for arbitrarily complex data layouts in order n to the fourth time, where n is the size of the data layout. A recent work showed that optimal representations can be computed in sub-quadratic time if the set of considered type constructors is reduced to those with only one sub-type, i.e., if the type trees are restricted to type paths. For this special case, called the Type Path Reconstruction Problem, we improve the currently best known asymptotic bound significantly.

Institut für ComputersprachenE185

Arbeitsbereich Programmiersprachen und Übersetzer

Diplomarbeitsposter Bitter Lukas

Lukas Bitter

Masterstudium Informatikmanagement
Abstract:

Das Peer Model ist ein Daten-getriebenes Peer-to-Peer basiertes Koordinationsmodell. Es ermöglicht die Erstellung von wiederverwendbaren Koordinationsvorlagen und davon entkoppelten Serviceaufrufen. Für die .NET-Implementierung des Peer Models (PeerSpace.NET) gibt es momentan keine Security-Mechanismen, die aber für den praktischen Einsatz wichtig wären. Diese Arbeit beschäftigt sich mit der Erstellung und Implementierung eines Security Models für den PeerSpace.NET. Dieses Security Model schützt den PeerSpace.NET vor unbefugten Zugriffen mithilfe von präzise definierbaren Regeln. Diese Zugriffsregelung basiert auf authentifizierten Security-Attributen, mit denen die Sender von Entries identifiziert werden. Es ist auch möglich Regeln für den Fall zu definieren, dass Entries im Auftrag eines anderen Users gesendet wurden. Diese Regeln benutzen dann die Identität des Auftraggebers (indirekter Sender) und die des direkten Senders, um Zugriffsrechte zu definieren. Regeln können auch Eigenschaften von Entries, deren Zugriff sie regeln, in die Definition der Zugriffsrechte miteinbeziehen. Weiteres kann auch der Zustand des PeerSpace.NET in die Entscheidung, ob ein Zugriff für Entries gewährt wird oder nicht, miteinbezogen werden. Die Zugriffsrechte zu einem Peer werden von dessen Eigentümer verwaltet. Der Eigentümer kann aber auch einen anderer Benutzer mit der Verwaltung der Zugriffsrechte beauftragen. Zusammengefasst wird in dieser Arbeit ein Security Model für den PeerSpace.NET entwickelt und implementiert, das inhalts- und zustandsabhängige Zugriffsentscheidungen definieren kann und auch die Identität von direkten und indirekten Sendern miteinbezieht.

Diplomarbeitsposter Bräutigam Klaus

Klaus Bräutigam

Masterstudium Software Engineering & Internet Computing
Abstract:

Seit den Anfängen der Programmierung erschwert die verborgene Ausführung von Programmen in miniaturisierten Recheneinheiten die Nachvollziehbarkeit durch den Menschen. Wachsende Größenordnungen und Komplexität von Applikationen, welche immer verteilter und nebenläufiger operieren erfordern immer mächtigere und fortschrittlichere Programmiersprachen und Konzepte wie „Reflection“. „Logging“ bzw. „Tracing“ entwickelte sich früh zu einem wichtigen Instrument, um mit Hilfe spezieller Werkzeuge relevante Informationen während der Programmausführung in menschenlesbarer Form zu extrahieren und hat bis heute große Bedeutung. Diese Arbeit beweist, dass die Erweiterung traditioneller „Logging“-Mechanismen für C++ mit Hilfe von „Reflection“ machbar ist. C++ unterstützt „Reflection“ nicht in ausreichender Form, wodurch der Einsatz externer Frameworks unumgänglich ist. Die Arbeit beginnt mit allgemeinen Studien über „Reflection“, sowie die notwendigen „Logging“ Grundlagen und Funktionen inklusive relevanter wissenschaftlicher Publikationen. Der nachfolgende Teil beschäftigt sich mit der Analyse und Evaluierung bereits verfügbarer C++ Werkzeuge für „Reflection“ und informiert über Funktionen und daraus resultierende Einsatzmöglichkeiten. Im Weiteren wird ein architekturelles Design vorgestellt, welches „Logging“ Funktionalitäten auf Basis von „Reflection“ bietet. Darauffolgend wird eine Implementierung in Form eines Prototyps präsentiert und die wichtigsten Charakteristika beschrieben. Eine Evaluierung der Laufzeiteigenschaften für die gezeigte Lösung und Vorschläge für zukünftige wissenschaftliche Arbeiten runden die Arbeit ab. Den Abschluss bildet eine Zusammenfassung der gewonnenen Erkenntnisse.

Diplomarbeitsposter Eizinger Benjamin

Benjamin Eizinger

Masterstudium Computational Intelligence
Abstract:

In real time systems every program has a time bound in which the execution has to be finished and therefore the worst case execution time (WCET) of such a program is a safety critical, non functional requirement as it obviously has to be below the time bound. To be sure of not violating the time bound usually a processor more powerful than necessary is employed. This is obviously a waste of resources and as such it is desirable to reduce the WCET. There is a vast array of available compiler program optimizations in modern compilers and it would be beneficial to harness their optimization potential. Those optimizations are usually developed with improvement of the average case execution time in mind and their effect on the WCET has not been studied yet in detail. This work aims to shed some light on the effects of classical compiler optimizations on the WCET of a selection of benchmark programs. To examine the effect of optimizations on the WCET of programs 33 different benchmarks have been selected from the well established Mälardalen Benchmark Suite and the WCET Tool Challenge 2014 Benchmark Suite. The WCET of the unoptimized programs have been compared to the WCET of the optimized cases. A safe optimization is one that guarantees to not degrade the WCET. The main results are: firstly, code motion in general is not safe, secondly, by replacing simple subexpressions (i.e. incrementing an index variable by one and constant expressions) the WCET usually cannot be improved and thirdly, function inlining appears to be a safe optimization as it never resulted in a degradation of the WCET.

Diplomarbeitsposter Hamböck Thomas

Thomas Hamböck

Masterstudium Technische Informatik
Abstract:

In den letzten Jahren setzen sich drahtlose Sensornetzwerke mehr durch und entsprechende Funkknoten werden immer günstiger. Dies ermöglicht auch den Einsatz von Sensornetzwerken für kleinere Projekte oder den Privatgebrauch. Nichtsdestotrotz ist die Toolchain Unterstützung für die Softwareentwicklung noch alles andere als optimal. Das Ziel dieser Arbeit liegt darin, Methodik und Unterstützung in Form einer Toolchain in die Programmierung von verteilten, eingebetteten Systemen zu bringen. Die zugrundeliegende Anwendung stammt aus dem Eisenbahnbereich, bei dem Kupferkabel entlang einer Eisenbahnstrecke durch intelligente Funkknoten ersetzt werden sollen. Hier soll das Signal eines Radsensors, der ankommende Züge erkennt, entlang der Strecke verlässlich zur Eisenbahnkreuzung übertragen werden. Das Peer Modell ist ein Programmiermodell welches die Entwicklung von Koordinationssoftware für verteilte und parallele Systeme vereinfacht. Es basiert auf Prinzipien von "shared spaces" und folgt einem asynchronen, ereignisgesteuerten Ansatz. Dieses Modell wird an die Anforderungen von drahtlosen Sensornetzwerke angepasst und eine domänenspezifische Sprache entwickelt, die als Grundlage für eine umfassende Toolchain dienen soll. Um die Programmierung zu vereinfachen wird außerdem ein Übersetzer für eine ANSI C Implementierung für eingebettete Systeme realisiert, der eine Arduino-basierte und eine eigens entwickelte energieoptimierte Plattform unterstützt. Abschließend werden die Vorteile der entwickelten Toolchain durch die Umsetzung verschiedener Einsatzszenarien, unter anderem der Eisenbahnanwendung, hinsichtlich dem benötigten Speicherplatz, der Energieeffizienz und der durch veränderte Anforderungen hervorgerufenen benötigen Änderungen im Quellcode analysiert. Für die Anwendung im Eisenbahnbereich werden außerdem Feldtests an einer Eisenbahnstrecke durchgeführt.

Diplomarbeitsposter Hernadi Gabor

Gabor Hernadi

Masterstudium Software Engineering & Internet Computing
Abstract:

Developing software systems depend on a good overview. Creating such an overview manually is a lengthy task and the resulting overview generated by tools often contains too much information, causing more confusion than clarity. In order to gain a more suitable view on the system, unnecessary information could be hidden using abstraction techniques. However, a static decision on which data the user desires to be visible or not is not trivial for a machine as it depends on the user’s current focus. In this thesis, we will discuss techniques of calculating a layout which takes the relation of classes into account, namely the force directed layout. The proposed prototype modifies the positioning algorithm in order to prevent node-overlapping. Furthermore, this thesis introduces structured elements, which are recursive, visual and logical containers for the basic class nodes. The prototype is interactive and has capabilities to increase visual clarity. These capabilities include collapsing, expanding, highlighting and temporarily removing a set of nodes in or from the current graph. On any structural change the positioning algorithm relayouts the graph, providing a layout as similar as possible to the old one.

Diplomarbeitsposter Kollarits Natalie

Natalie Kollarits

Masterstudium Software Engineering & Internet Computing
Abstract:

Mautsysteme sind für unsere Gesellschaft sehr wichtig, weil sie darauf abzielen, verschiedene Aufgaben zu erfüllen, die von der Refinanzierung der Errichtung und Wartung von Straßeninfrastruktur über die Reduktion von Staus, bis hin zur Einschränkung von verkehrsbedingten Emissionen, zum Schutz der Umwelt, reichen. Nachdem derzeitige Systeme allerdings einige schwerwiegende Nachteile, wie enormen finanziellen Aufwand oder das Fehlen von Interoperabilität zwischen europäischen Systemen, aufweisen, wird in der vorliegenden Arbeit ein Prototyp für ein System entwickelt, das diese Nachteile überwindet und außerdem auf “smart devices”, wie Smart Phones oder Tablets, lauffähig ist.

Diplomarbeitsposter Kühmayer Christian

Christian Kühmayer

Masterstudium Software Engineering & Internet Computing
Abstract:

Instruction selection is an important task of a compiler. It is responsible for selecting machine instructions that can perform the actions specified in a program. Machine instructions are specific to the target architecture, e.g. the machine instructions for x86 and ARM differ. Therefore, this task depends on knowledge about the target architecture and the available instruction set. In contrast to traditional compilers that translate source code to machine code, and interpreters that execute source code within one invocation, virtual machines take a mixed approach. Code written in the programming language Java is compiled to Java bytecode that can be executed in a virtual machine. This representation is comparatively low level, but not target specific. A virtual machine executes it by either interpreting it, or compiling it just-in-time (JIT) and executing the compiled version. The CACAO VM is a Java Virtual Machine that does not feature an interpreter. It uses a fast baseline compiler to generate machine code for program execution. Frequently used program parts can be recompiled by an optimizing compiler to speed up execution. This work aims to improve the instruction selection of the optimizing compiler. It applies pattern matching to find machine instructions that execute faster than the ones selected by the currently applied conservative approach. It adapts lburg - a code-generator generator - to produce the pattern matching code that is used in the optimizing compiler. This generator uses specifications in tree grammar format that contain target specific patterns for instruction selection. The algorithm implementation - partly generated - is kept platform agnostic. The code generated by the optimized version runs up to 76% faster. Compile time is increased by about 5% due to pattern matching, but due to less machine instructions and operands emitted lifetime analysis and register allocation are performed faster and require less memory.

Diplomarbeitsposter Mildner Rudolf

Rudolf Mildner

Masterstudium Software Engineering & Internet Computing
Abstract:

Diese Diplomarbeit beschreibt Design, Umsetzung und Analyse eines Prototyps, welcher die Definition eines Synchronisations-Protokolls zur Verifizierung der Reihenfolge von Nachrichten zwischen Aktoren erlaubt. Der Prototyp erweitert AKKA, ein etabliertes Aktoren-System und erlaubt es, mittels einer Domain-Specific-Language Regeln zu definieren. Der Prototyp stellt sicher, dass das das Aktoren-System diese Regeln einhält, indem er alle Nachrichten findet, die eine Regel verletzen. Zwei Versionen der Verifikation wurden implementiert. Beide verwenden dieselbe Verifikationslogik, unterscheiden sich aber in der Art und Weise, in der sie Interaktionen loggen und überprüfen, ob eine Regel feuert. History Logging Verification hält ein Log aller bisherigen Interaktionen mit einem Aktor, Automaton Verification erzeugt für jede Regel einen Automaten. Zur Evaluation des Prototyps wurde die Worst-Case Laufzeit der Verifikations-Algorithmen bestimmt, es wurden Tests mit Real-World Applikationen durchgeführt und ein Benchmark wurde durchgeführt. Für beide Verifikations-Algorithmen wurde die Worst-Case Laufzeit der Verifikation bestimmt. Für die Automaton Verification wurden zusätzlich die Worst-Case Laufzeiten für das Erzeugen sowie das Optimieren eines Automaten für eine Regel bestimmt. Um den Prototyp unter realen Bedingungen zu testen wurden zwei Applikationen implementiert: Die Erste realisiert das Chameneos Concurrency Game, die Zweite simuliert einen Token-Ring. Diese zweite Applikation wurde auch verwendet, um Benchmark-Tests mit dem Prototyp durchzuführen. Dazu wurde die Token-Ring-Applikation in verschiedenen Konfigurationen ohne Prototyp, mit der History Logging Verification und mit der Automaton Verification ausgeführt und die ermittelten Laufzeiten zusammengefasst sowie grafisch aufbereitet.

Diplomarbeitsposter Plangger Richard

Richard Plangger

Masterstudium Software Engineering & Internet Computing
Abstract:

PyPy ist eine weitbekannte virtuelle Machine für die Programmiersprache Python. Anstatt ausschließlich den Quellcode im Bytecode Format zu interpretieren, stellt PyPy einen Just-In-Time JIT Compiler zur Verfügung. In dieser Diplomarbeit wird der neue Auto-Vektorisier von PyPy vorgestellt, der Programfragmente automatisch transformiert um SIMD Instruktionen nützen. Die Optimierung ist weder an die NumPy Bibliothek gebunden, noch an eine spezifische Hardwareplattform. Außerdem kann jede VM, die in RPython geschrieben ist, diese Optimierung nützen. Eine empirische Evaulation zeigt wie gut der Vektorisierer auf der x86 Hardwarearchitektur Programgfragmente transformieren kann. Die Ergebnisse zeigen, dass es möglich ist, SIMD Instruktionen auch in einer Dynamischen Sprache zu nützen um Berechnungen zu beschleunigen. Die Komplexität der Transformation ist handhabbar und schnell genug um während der Laufzeit Schleifen zu optimieren.

Diplomarbeitsposter Pucher Michael

Michael Pucher

Masterstudium Computational Intelligence
Abstract:

In dieser Diplomarbeit wird ein Hidden-Markov-Modell (HMM) basiertes Operngesangssynthesesystem für Deutsch entwickelt, das auf einem japanischen Gesangssynthesesystem für Popsongs basiert. Die Entwicklung besteht aus der Integration einer deutschen Textanalyse, eines Lexikons mit Graphem-zu-Phonem Übersetzung, und eines Silbenvervielfältigungsalgorithmus. Außerdem werden synthetische Opernstimmen der vier wichtigsten Sängerkategorien Mezzo, Sopran, Tenor, und Bass entwickelt und die Methode mit der der Korpus erstellt wurde wird beschrieben. Darüber hinaus wird eine Methode entwickelt um die vorhandenen Daten (Waveforms und MusicXML Dateien) in ein für das Training der Modelle geeignetes Format umzuwandeln. Für das Training wird eine SängerInnenabhängige Methode für das Deutsche adaptiert. In einer objektiven und subjektiven Evaluation werden verschiedene Parameterkonfigurationen für das Training und die Synthese evaluiert. Mit der subjektiven Evaluation wird gezeigt dass Operngesangssynthese von moderater Qualität mit diesem System und den begrenzten vorhandenen Trainingsdaten möglich ist, und dass die Dauermodellierung der wichtigste Qualitätsparameter der Modelle ist. Für ein Synthesesystem von hoher Qualität sind mehr Trainingsdaten notwendig, da bekannt ist das die verwendeten Lernalgorithmen bessere Ergebnisse mit mehr Daten liefern. Das derzeitige System bildet die Basis für so ein zukünftiges System und kann auch für ein allgemeines Gesangssynthesesystem verwendet werden. Vor dieser Arbeit war ein derartiges Gesangssynthesesystem basierend auf HMMs nur für Japanisch und Englisch verfügbar.

Diplomarbeitsposter Riegler Gregor

Gregor Riegler

Masterstudium Software Engineering & Internet Computing
Abstract:

Typically, a type system influences the semantics of the programming language such that type checking is a mandatory process. In contrast, optional, pluggable typing introduces the possibility of running checkers for diverse semantic analyses and can be considered as an alternative to today's prevalent mandatory typing. This thesis aims at exploring the design of a Haskell prototype of optional, pluggable typing for the stack-based language Forth. This thesis addresses the question of how optional checkers, supporting varying degrees of static type consistency, can be designed and implemented for practical use in Forth considering the trade-offs of a potential loss of expressiveness and the need of necessary type annotations. A stack effect calculus is derived from a literature review on static analysis of Forth programs as a theoretical basis for type checking. Subsequently, language features as subtyping, control structures, reference types, assertions and casts are added to the implementation. It is the added value of this thesis to incorporate the above features together with a statically type consistent treatment of multiple stack effects, compile-time programming, object-oriented and higher-order programming into the same type checking algorithm. The prototype can deal with the majority of the words of the Core wordset and features a type checking algorithm of configurable static rigorousness, ranging from stack underflow checking to static type consistency. The checkers are evaluated using the example of a functionally correct Forth program. The evaluation shows that those checkers of varying static type safety aid the gradual evolution of the input program towards a static stack discipline. This benefit comes at the expense of only minimal type annotations. Type annotations of words defined in the program can often be omitted but they are always needed in supporting higher-order programming.

Diplomarbeitsposter Schröder Michael

Michael Schröder

Masterstudium Software Engineering & Internet Computing
Abstract:

Software Transactional Memory (STM) immensely simplifies concurrent programming by allowing memory operations to be grouped together into atomic blocks. Like database transactions, STM transactions provide atomicity, consistency and isolation. Unlike databases, they do not provide durability. I extend Haskell's STM implementation with a mechanism to add finalizers to atomic blocks. The new operation atomicallyWithIO allows the programmer to safely execute arbitrary I/O during the commit-phase of a transaction. This can be used to make STM durable, but it turns out to have even more applications. For example, a finalizer could ask the user to approve pending results, enabling interactive transactions. Another common problem with STM is contention. When used in a transactional setting, many standard data structures cause unreasonably high numbers of conflicts. I propose a new STM data structure, the transactional trie, a contention-free hash map. It is based on the lock-free concurrent trie, and uses localized side-effects to eliminate unnecessary conflicts while preserving transactional safety. Both finalizers and the transactional trie are examples of combining transactions with side-effects. Finalizers are a general top-down approach, while the transactional trie incorporates side effects on the micro-level. I demonstrate the effectiveness of both by building a full sample application that uses STM as a database language, providing durability and avoiding contention.

Diplomarbeitsposter Watzke Harald

Harald Watzke

Masterstudium Software Engineering & Internet Computing
Abstract:

Die Entwicklung von verteilten Systemen ist komplex und schwierig und wird daher oft durch Middleware unterstützt. Die Unterstützung die von Middleware geboten wird, kann sehr variieren und viele Features wie beispielsweise Security, Lifecycle Management oder Koordination umfassen. Middleware kann nach verschiedenen Mustern arbeiten, z.B. nachrichten-orientiert oder space-basiert. Der Nachrichtenaustausch in space-basierten Middlewares verläuft über sogenannte (Tuple) Spaces, einen gemeinsamen virtuellen Speicher. Teilnehmer an einem Tuple Space interagieren nur mit dem Space und wissen nichts von anderen Teilnehmern am Space, daher ist die Kommunikation via Tuple Spaces sehr lose gekoppelt. Ein mögliches Problem in verteilten Systemen ist Ressourcenzuwachs, d.h., Zuwachs von Daten, die nicht mehr benötigt werden oder nicht mehr aktuell sind und gelöscht werden könnten. Dies führt zu Performance-Einbußen und Ressourcenverschwendung. Diese Diplomarbeit beschäftigt sich mit der MozartSpaces, der Java Referenzimplementierung von eXtensible Virtual Shared Memory (XVSM), einer space-basierten Middleware Spezifikation die das Tuple Space-Konzept um mächtige Koordinationsmechanismen erweitert und hohe Erweiterbarkeit bietet. MozartSpaces soll in dieser Arbeit um folgende Features erweitert werden: eine neue, umfassende, Event-Architektur sowie ein weiterer Erweiterungsmechanismus (Jobs) welcher die Ausführung beliebigen Codes in Reaktion auf Events unterstützt. Mittels dieser Mechanismen wird ein Leasing-Mechanismus zum Verwalten der Lebenszeit/Gültigkeit von Daten im Space implementiert werden, sowie ein optionales Modul, welches Datenaggregation bietet. Dies kann auch von Jobs genutzt werden, um alternatives Verhalten für das Leasing-Modul für die Behandlung von Daten, deren Gültigkeit abgelaufen ist, zu bieten. Die Leistung wird mittels JUnit Benchmarks gemessen und die implementierten Mechanismen werden mit anderen relevanten space-basierten Systemen verglichen.

Diplomarbeitsposter Wilhelm Jakob

Jakob Wilhelm

Masterstudium Software Engineering & Internet Computing
Abstract:

Großrechner sind weiterhin im Betrieb, um das tägliche Geschäft von Organisationen mit Hilfe von bestehenden Softwarelösungen zu bewältigen. Sobald sie allerdings abgelöst werden sollen, muss eine Möglichkeit gefunden werden, die bestehenden Geschäftsanwendungen auf eine neue Plattform zu migrieren. Eine Neuentwicklung erlaubt den Einsatz von modernen Programmiersprachen, Frameworks und Techniken, ist allerdings in der Praxis oftmals nur schwer durchführbar bedingt durch das mögliche Fehlen von Dokumentation der Programme und Spezifikationen der Anforderungen sowie die enormen notwendigen Ressourcen zum Entwickeln und Testen der Anwendungen. Diese Arbeit beschäftigt sich mit der Migration von Geschäftsanwendungen, die für IBM Großrechner in Assembler geschrieben wurden (HLASM), durch automatisierte Übersetzung in portablen C/C++ Code. Es wird gezeigt, wie verschiedene Compilerund Analysetechniken eingesetzt werden können, um aus linearem Assemblercode eine strukturierte Darstellung der Programmlogik zu erreichen. Dadurch ist es nicht nur möglich, den Großrechner zu verlassen, sondern auch die Lesbarkeit der Programme und daraus folgend die Wartbarkeit eben dieser zu verbessern. Die beschriebene Implementierung wurde mit Hilfe von produktiven Assembler- Programmen von einer größeren Organisation evaluiert.

Arbeitsbereich Theoretische Informatik und Logik

Diplomarbeitsposter Borg Annemarie

Annemarie Borg

Masterstudium Computational Intelligence
Abstract:

Justification logic can be seen as an explicit counterpart of modal logic. Instead of saying "A is necessary", it is possible to say "A is necessarily true because of t", where the justification term t can even be constructed from more than one justification. The formal way of studying the connection between modal logic and justification logic is called realization, this is a procedure that replaces []'s in a modal formula with terms, to create a justification formula. S. Artemov proved that the modal logic S4 is realizable into the logic of proofs LP, using a cut-free sequent system for S4. At the moment, it is believed that there exists no cut-free sequent system for S5. Thus to be able to realize S5 into some justification logic syntactically, another method had to be searched. Using different realizations of the negative introspection axiom, S5 has been realized into some of its justification counterparts by using a hypersequent system or a nested sequent system. In this thesis it will be shown, using hypersequents, that S5 is realizable into the ten justification counterparts that can be constructed with these different realizations of the negative introspection axiom and can be found in the literature. In order to establish the same result using non-modular nested sequents as introduced by K. Brünnler, too many similar cases have to be considered and, therefore, only some of the less standard realizations will be shown. For the complete list of realizations using nested sequents, the nested sequent calculi introduced by L. Straßburger will be employed, these calculi are better suited for this purpose due to their modular nature. This modularity makes it possible to realize each rule independent of the other rules. Even though the focus lies on the realizations of S5, the modularity of Straßburger's calculi ensures that the given proofs imply fully modular realization theorems for all modal logics in the modal cube between K and S5.

Diplomarbeitsposter Guttenberger Thomas

Thomas Guttenberger

Masterstudium Medizinische Informatik
Abstract:

Medical informatics has evolved as a new field within information science and is combining information technology and clinical medicine. Mobile healthcare applications get more and more a topic for the field of medical informatics, as the use of mobile devices is already present in personal and social life, but has not yet reached the complete healthcare market. Companies are struggling to enter the mobile healthcare applications market, due to missing guidelines and strategies. In conclusion it can be said that the results of this thesis, support companies to perform the first step into the market, close the knowledge gap and provide a certain starter kit for mobile healthcare application development projects. The market analysis serves as a basis to understand needs, and in particular in the area of COPD and mechanical ventilation the thesis demonstrates starting points and insights.

Diplomarbeitsposter Lolic Anela

Anela Lolic

Masterstudium Computational Intelligence
Abstract:

Beweistheorie (ein Teilgebiet der mathematischen Logik) betrachtet Beweise als formale Objekte und untersucht deren Eigenschaften mit mathematischen Methoden. Ein wichtiger Satz der Beweistheorie ist der Satz der Schnittelimination. Er besagt, dass die sogenannte Schnittregel aus einem formalen Beweissystem (in der Art des Sequentialkaalküls) entfernt werden kann. Ein Ansatz zur Schnittelimination ist CERES (cut-elimination by resolution), welche mit Skolemisierten End-Sequenten arbeitet. Ziel dieser Arbeit war es, die CERES-Methode zu generalisieren, so dass sie auch mit Skolem-freien End-Sequenten arbeiten kann. Wir konzentrieren uns dabei auf die Extraktion der Herbrand-Sequente, und zeigen, dass man diese aus der Resolutionswiderlegung und den dazugehörigen Projektionen gewinnen kann, und somit keine ACNF (ein Beweis mit nur atomaren Schnitten, Ergebnis von CERES) generiern müssen. Außerdem zeigen wir, dass man die Extraktion von Herbrand-Sequenten mit unserer Methode exponentiell beschleunigen kann. Das Ergebnis ist eine CERES-Methode, welche den Schritt der Skolemisierung der End-Sequente überspringt und Herbrand-Sequente effizient extrahieren kann.

Diplomarbeitsposter Nasseri Dorna

Dorna Nasseri

Masterstudium Medizinische Informatik
Abstract:

Während viele größere Krankenhäuser im Iran ihre täglichen Kernprozesse in Bezug auf Patientenbehandlung und Leistungsdokumentation mithilfe von elektronischer Datenver-arbeitung und Krankenhausinformationssystemen abwickeln, erledigen dies speziell klei-nere und mittlere Krankenhäuser mit tendenziell geringeren finanziellen Mitteln, wie etwa mithilfe von Papierformularen. Da diese Vorgangsweise jedoch vergleichsweise umständ-lich und ineffizient ist, befasst sich diese Arbeit mit der Konzeption eines KIS, das speziell auf die Bedürfnisse kleinerer und mittlerer Krankenhäuser im Iran zugeschnitten ist. In-nerhalb dieser Arbeit wurden daher die Anforderungen, die ein repräsentatives Iranisches Krankenhaus an ein KIS stellt, über einen Fragebogen erhoben und mit Anforderungen in Österreich und Deutschland verglichen. Im Weiteren wurden diese aufbereitet und zu An-wendungsfällen verarbeitet. Als Ergebnis dieser Anwendungsfälle wurde ein KIS in seinem grundlegenden Design, seiner Architektur und seiner Funktionalität konzeptioniert, das die erhobenen Anforde-rungen erfüllt. Konkret handelt es sich dabei um ein kostenloses KIS, das auf Open Source, mit frei verfügbaren Java-Technologien basiert und sich aufgrund seiner Plattfor-munabhängigkeit auf nahezu jedem Server-Betriebssystem installieren lässt. Weiters ist die Architektur auf eine möglichst große Flexibilität und anwenderseitige Anpassbarkeit aus-gelegt, um in nahezu jeder Krankenhaus – IT-Infrastruktur integriert werden zu können.

Diplomarbeitsposter Oberhumer Dominik

Dominik Oberhumer

Masterstudium Software Engineering & Internet Computing
Abstract:

Die Beteiligung an traditionellen demokratischen Prozessen, vor allem an Wahlen, nimmt stetig ab. Besonders bei jungen Personen ist eine Änderung im politischen Verständnis erkennbar. Um auch vermehrt Jugendliche zur Ausübung ihres demokratischen Grundrechts zu wählen zu motivieren, wird untersucht, inwieweit die Einbindung von modernen sozialen Medien die Wahlbeteiligung wieder erhöhen könnte. Diese Arbeit untersucht im Besonderen, wie eine E-Partizipationsplattform in das soziale Netzwerk Facebook integriert werden kann. Dadurch können verschiedene Aspekte des Netzwerkes auch für die Plattform verwendet werden. Besonders deutlich ist dies beim Nutzerkonto, welches ident mit jenem von Facebook sein sollte. Ein besonderer Fokus liegt in dieser Arbeit auf der Fragestellung nach der Anwendbarkeit der Integration. Dazu wurde in dieser Arbeit zuerst theoretisches Grundwissen gesammelt und Beispielanwendungen aus den Domänen der sozialen Netzwerke und der E-Partizipation vorgestellt. Es wurden drei mögliche Szenarien für die E-Partizipation erarbeitet und verschiedene Integrationsmöglichkeiten diskutiert. Ein konkretes Fallbeispiel wurde prototypisch umgesetzt. Dieser Prototyp stellt eine einfache Partizipationsanwendung dar, welche sehr tiefgehend in das soziale Netzwerk integriert wurde. Zum Abschluss wird der Prototyp in diversen Fragestellungen diskutiert. Diese Arbeit dient als Basis für eine kritische Auseinandersetzung mit den Möglichkeiten der Integration und vermittelt, unter welchen Bedingungen diese anwendbar ist.

Diplomarbeitsposter Rossegger Dino

Dino Rossegger

Masterstudium Computational Intelligence
Abstract:

Die Arbeit befasst sich mit berechenbaren Transformationen von Strukturklassen. Wir geben einen Überblick über die vorhandenen berechenbaren Transformationen und deren Relationen. Der Fokus liegt hier auf effektiver Bi-Interpretierbarkeit. Wir zeigen, dass die Klassen der Graphen und partiellen Ordnungen bi-interpretierbar sind und befassen uns mit einem neuen Resultat über die Äquivalenz der effektiven Bi-Interpretierbarkeit von Klassen und berechenbaren Funktoren. Weiters untersuchen wir zwei kürzlich erforschte berechenbarkeitstheoretische Eigenschaften von Strukturen, Theorie spektra und Σ n - spectra im Kontext der effektiven Bi-Interpretierbarkeit. Wir zeigen, dass jedes mögliche Σ 1 - und Σ 2 -Spektrum in den Klassen der partiellen Ordnungen und Graphen existiert.

Diplomarbeitsposter Spörk Christoph Wolfgang

Christoph Wolfgang Spörk

Masterstudium Computational Intelligence
Abstract:

The possibility of quantified cut-introduction, which this thesis is dedicated to, offers the possiblity of compressing a proof in sequent calculus, to improve readability and provide interesting new insights into proof theory. The problem of introducing quantified cuts into a cut-free proof in sequent calculus is a quite complex procedure, which can be accomplished in various ways. The method described in this thesis realised this by applying several consecutive steps. First essential parts of the proof are extracted, namely the Herbrand sequent, from which a term language is generated. This term language represents all needed instantiations of quantified formulas and will be tried to be compressed by a minimal grammar. The problem of finding a minimal grammar for this language is achieved by reducing it to the MinCostSAT problem and thus generate it via the resulting interpretation. This grammar forms the base for the further construction of an extended Herbrand sequent, which again illustrates an intermediate step to build a proof with cuts. On the basis of [3] an algorithm was constructed performing this minimal grammar computation, which was tested via a large series of experiments. Although previously developed methods, capable of cut-introduction, were not outperformed by this new method, the methods were extended by the possibility of introducing not just one single-quantified cut, but multiple single-quantified cuts at once. Possible new insights may be gained by this implemented method, where simultaneously a small step towards cut-introduction for cuts with more complex cut-formulas was made.

Diplomarbeitsposter Wolfsteiner Simon Peter

Simon Peter Wolfsteiner

Masterstudium Computational Intelligence
Abstract:

Die Beweistheorie betrachtet Beweise als formale Objekte und untersucht deren Eigenschaften mit mathematischen Methoden. Der Schnitteliminationssatz besagt, dass die Schnittregel aus dem Sequentialkalkül entfernt werden kann. Eine wichtige Eigenschaft schnittfreier Beweise ist die Tatsache, dass solche Beweise nur Teilformeln jener Formeln enthalten, welche im zu beweisenden Satz enthalten sind (sogenannte Teilformel-Eigenschaft). In konkreten mathematischen Beweisen entspricht die Schnittelimination dem Entfernen von Hilfssätzen. Bei der Gentzenschen Schnitteliminationsmethode handelt es sich um eine reduktive Methode, da sie lokale Beweistransformationen durchführt. Die CERES-Methode (cut-elimination by resolution) stellt einen alternativen Ansatz dar, da sie durch die gleichzeitige Analyse aller Schnitte die globale Struktur eines Beweises berücksichtigt. CERES extrahiert eine widerlegbare Klauselmenge, welche die Struktur eines Beweises mit Schnitten darstellt. Eine Resolutionswiderlegung dieser Klauselmenge dient als Skelett für einen Beweis, welcher höchstens atomare Schnitte enthält. Baaz und Leitsch konnten zeigen, dass CERES die reduktiven Ansätze bis zu jenem Punkt simulieren kann, an dem nur noch atomare Schnitte im Beweis übrig sind. In der vorliegenden Arbeit wird ein neues Simulationsresultat bewiesen, welches die Simulation auf die atomare Schnittelimination ausweitet. Dazu wird eine indizierte Resolutionsmethode definiert (ähnlich zu „atomic cut-linkage“ von Woltzenlogel Paleo) und ihre Vollständigkeit für eine gewisse Klasse von charakteristischen Klauselmengen bewiesen. Das erzielte Resultat könnte eine wichtige Rolle im Beweis der Vollständigkeit von CERES für intuitionistische Logik einnehmen. Weiters kann damit eine Teilantwort auf die von Reis ausgesprochene Vermutung gegeben werden, ob CERES in Verbindung mit indizierter Resolution und der „joining projections“-Methode einen intuitionistischen Beweis liefert.

Diplomarbeitsposter Yasemi Behna

Behna Yasemi

Masterstudium Medizinische Informatik
Abstract:

Gamification ist eines der aktuellen Begriffe in der Forschungsbranche und erfreut sich immer stärkerer Neugier und Beliebtheit seitens der Forscher. Das Konzept wird in zahlreichen Bereichen eingesetzt: in Lehransätzen, im Marketing, im Rahmen von komplexen staatlichen sozialwissenschaftlichen Projekten und sogar auch im Gesundheitsbereich zum Einüben neuer Verhaltensmuster. Bei der Gamification werden die Spielmechanismen auf Alltagsaufgaben angewandt, um eine aktivere Teilnahme der User zu erreichen. Die Arbeit befasst sich mit möglichen Entwicklungsszenarien von Gamification und deren Anwendung im Gesundheits- bzw. Sportbereich und analysiert die in den genannten Bereichen vorhandenen Applikationen Fitbit One und Nike+ bezüglich der User-Motivation. Die Erkenntnisse dieser wissenschaftlichen Arbeit basieren auf einer Kombination von Literaturrecherche und der Auswertung einer empirischen Umfrage. Bisherige Forschungen und Experimente fließen in die Überprüfung der Hypothesen ein, ebenso wie die von mir durchgeführte Auswertung der Umfrage. Auf der Basis aller Ergebnisse aus Fachliteratur, bisheriger und eigener Forschung wird am Ende ein neues Konzept erstellt, das die Requirement Definitions für die Software vornimmt. Daneben soll diese Arbeit den Leserinnen und Lesern einen Überblick über neue Technologien, Verfahren und Arbeitsmethoden in dem noch ganz jungen Gebiet Gamification und seiner Anwendungsansätze im Gesundheitsbereich verschaffen.

Institut für Computergraphik und AlgorithmenE186

Arbeitsbereich Algorithms and Complexity

Diplomarbeitsposter Klocker Benedikt

Benedikt Klocker

Masterstudium Computational Intelligence
Abstract:

Körperliche Aktivität ist wichtig, um gesund zu bleiben. Deshalb entwickeln wir einen Algorithmus, um schöne Freizeit-Fahrradrouten zu berechnen, mit dem Ziel, das Fahrradfahren attraktiver zu machen. Wir formulieren die Aufgabe als ein mathematisches Optimierungsproblem, welches dem "arc orienteering problem" (AOP) ähnlich ist. Das Problem ist auf einem gerichteten Multigraphen definiert und hat als Ziel, die Attraktivität einer Route zu maximieren, während die Länge der Route beschränkt ist. Die mehrfache Verwendung einer Straße ist erlaubt, führt aber zu einer Verringerung der Gesamtattraktivität. Das Problem ist NP-schwer und daher ist die Entwicklung von Algorithmen, die in der Praxis in akzeptabler Zeit gute Lösungen liefern, besonders wichtig. Drei gemischt-ganzzahlige lineare Programme werden entwickelt, um das Problem exakt zu lösen. Das erste Programm verwendet als Subtour-Eliminationsbedingungen eine Schnittformulierung, das zweite einen Flussansatz und das dritte Programm die Kombination der ersten beiden Formulierungen. Das Testen der Implementierungen der drei gemischt-ganzzahligen linearen Programme unter der Benützung von CPLEX ergibt, dass die Flussformulierung für die meisten Testinstanzen schneller ist als die anderen zwei Formulierungen. Beim Vergleich unserer Implementierung der Flussformulierung mit anderen exakten Algorithmen, welche ähnliche Probleme wie zum Beispiel das AOP behandeln, war unsere Implementierung bis zu 1000 Mal schneller. Verglichen mit heuristischen Lösungsansätzen ähnlicher Probleme erhalten wir, dass für manche Instanzen unsere Implementierung in kurzer Zeit die optimale Lösung findet, während die Heuristiken nur suboptimale Lösungen finden. Allerdings skalieren die Heuristiken besser auf sehr große Instanzen. Unsere Implementierung ist in ländlichen Gegenden für Routen bis zu 60km und in städtischen Bereichen für Routen bis zu 13km gut anwendbar, was für die meisten praktischen Zwecke ausreichend erscheint.

Diplomarbeitsposter Wachter Christoph

Christoph Wachter

Masterstudium Software Engineering & Internet Computing
Abstract:

Optimization problems in real world scenarios often consist of different, interconnected NP-hard optimization problems. In this thesis the Travelling Thief Problem (TTP) is considered. It combines the well known knapsack problem (KP) and the travelling salesman problem (TSP). In the TTP a person called “thief” tries to collect as many items, on different nodes he is visiting during his tour, respecting the capacity of his knapsack, as possible. These items have associated a weight and a profit. Collecting an item increases the profit but also decreases the thief's travel speed on his remaining tour. As he has to pay a rent for his knapsack per time unit he tries to minimize his travel time for his tour and to maximize his profit by collecting items. A possible application for the TTP could be a delivery company which has to pick up packages at different locations which are combined in a route. Picking up packages leads to a profit gain but decreases travel speed and the delivery has a maximum cargo capacity. This thesis will provide a new state of the art hybrid genetic algorithm to solve the TTP heuristically. This algorithm consists of a genetic algorithm and additional local search operators. Most of these operators will focus on either the embedded TSP or the KP subproblem. For each partial candidate solution the other part is derived from this partial solution. Additionally, an approach where each subproblem will be solved on its own and combined in a solution for the TTP will be provided to examine the importance of the interconnection between the two subproblems. All algorithmic variants are compared to each other and to so far existing solution approaches from the literature. Computational results show that our hybrid genetic algorithm is competitive to these approaches and even outperforms them especially on smaller instances.

Arbeitsbereich Computergraphik

Diplomarbeitsposter Brenner Simon

Simon Brenner

Masterstudium Visual Computing
Abstract:

The now widely available 3D-printing technology enables structural molecular biologists to easily produce tangible models of large and complex molecules, which can aid them in understanding their spatial structure. Those models, however, are static and often monochrome, therefore their information content cannot compete with existing screen-based visualization solutions. Following the paradigm of spatial augmented reality, we present an approach to dynamically visualize molecular properties directly on the surface of 3D-printed tangible models, using a digital projector. We developed a prototype system consisting of hardware and software, that enables the tracking of the tangible model and the rendering of color-coded molecular properties, which are then projected onto the tangible surface. Using knowledge about the geometry of the molecular model, the optical properties of the digital projector and the exact spatial relation between projector and model, the rendered projections are updated in real-time, such that they stay registered with the tangible model during user interaction. We evaluated the usability and potential applicability of the developed system by collecting feedback from domain experts from the fields of biochemistry and molecular biology.

Diplomarbeitsposter Fleiss Felix

Felix Fleiss

Masterstudium Medieninformatik
Abstract:

Die vorliegende Diplomarbeit befasst sich mit automatisch generierten Explosionszeichnungen als Mittel der Visualisierung und wie diese verwendet werden können, um Architektur darzustellen. Dabei untersucht der Autor sowohl existierende Lösungen für deren Generierung, als auch die damit in Zusammenhang stehende theoretische Grundlage für Explosionszeichnungen, Montagevorgänge, Architektur und Visualisierung. Aus dem Resultat der Grundlagenrecherche werden brauchbare Erkenntnisse extrahiert, um daraus Design Prinzipien abzuleiten. Ein großer Teil der Arbeit ist das Entwerfen und Implementieren eines Visualisierungssystems, das den User dazu bemächtigen soll interaktiv ein architektonisches Gebäude zu erforschen und zu verstehen. Dabei wird untersucht, inwiefern Explosionszeichnungen dafür geeignet sind. Die vorliegende Arbeit umfasst viele verschiedene wissenschaftliche Bereiche. Sie kombiniert Architektur, Visualisierung und User-Interface Design. Der Hauptaspekt der Arbeit ist es, Information über ein Gebäude darzustellen. Dies betrifft nicht nur eine geometrische Darstellung, sondern auch Metainformation, wie Beziehungen und Zugehörigkeiten von Gebäudeteilen. All diese Information soll größtenteils implizit kommuniziert werden.

Diplomarbeitsposter Frühstück Anna

Anna Frühstück

Masterstudium Visual Computing
Abstract:

Often, users of visualization applications do not have access to high performance systems for computationally demanding visualization tasks. Employing remote rendering enables the users to access visualizations even on devices that do not target graphics processing. However, the flexibility to manipulate the data set interactively suffers in thin-client configurations. This makes a meaningful interaction with data sets that contain many objects difficult. This is especially true in in-situ visualization scenarios, where direct interaction with the data can be challenging. We solve this problem by proposing an approach that employs a deferred visualization pipeline to divide the visualization computation between a server and a client. Our thin client is built on web technologies to enable interactive data-driven visualizations. The server side carries out computationally expensive parts of the pipeline while the client retains flexibility by performing object modification tasks without requiring a re-rendering of the data. We introduce a novel Volume Object Model as an intermediate representation for deferred visualization. This model consists of metadata and pre-rendered visualizations of each object in a data set. In order to guarantee client-side interactivity even on large data sets, the client only receives the metadata for a pre-visualization step. A filtering using the metadata alone can reduce the complexity of the requested visualization from the client side before any streaming of images. Only when the user is satisfied, the object images are requested from the server. The final visualization can then be reconstructed from the individual images and the metadata. Moreover, all objects in the visualization can be programmed by the user via an integrated console. In summary, our system allows for fully interactive object-related visualization tasks in a web browser without triggering an expensive re-rendering from the server.

Diplomarbeitsposter Hirsch Christian

Christian Hirsch

Masterstudium Visual Computing
Abstract:

Breast cancer is the second most common cancer death among women in developed countries and the most common cancer death in less developed countries. It has been demonstrated that an early breast cancer diagnosis significantly reduces the mortality. In addition to mammography and breast ultrasound, dynamic contrast-enhanced magnetic resonance imaging is the modality with the highest sensitivity for breast cancer detection. However, systems for automatic lesion analysis are scarce. This thesis proposes a method for lesion evaluation without the necessity of tumor segmentation. The observer has to define a region of interest covering the lesion in question and the proposed system performs an automated lesion inspection by computing its Fourier transform. Using the Fourier transformed volume we compute the inertia tensor of its magnitude. Based on the gathered information, the Göttinger score, which is a common breast cancer analysis scheme, is computed and the features are presented in newly create plots. These plots are evaluated with a survey where radiologists participated. The Göttinger score assigns a numeric value for the following features: shape, boundary, internal enhancement characteristics, initial signal increase and post initial signal. We tested our method on 22 breast tumors. Subsequently, we compared our results to the classification of an experienced radiologist. The automatic boundary classification has an accuracy of 0.818, the shape 0.773 and the IEC 0.886 compared to the radiologist’s results. An evaluation of the accuracy of the benign vs. malignant classification shows that the method has an accuracy of 0.682 for all the Göttinger score features and 0.772 using only the shape, boundary and IEC. The evaluation of the plot shows that radiologist like the visual representation of the Göttinger score for single lesions, they, however, refuse the plots where multiple lesions are presented in one visual representation.

Diplomarbeitsposter Hochmayr Manuel

Manuel Hochmayr

Masterstudium Visual Computing
Abstract:

Parameter und das Setzen ihrer Werte spielen eine wichtige Rolle in der computerbasierten Visualisierung, egal ob es sich dabei um eine Informations- oder Volums-Visualisierung handelt. Die richtigen Einstellungswerte für die jeweiligen Parameter zu finden, gehört zu den zeitintensivsten Vorgängen während eines Visualisierungsprozesses. Parameter gehören, um das gewünschte Ergebnis zu erhalten, genau adjustiert. Diese Aufgabe muss von Benutzern/Benutzerinnen im Normalfall manuell gelöst werden. Der Prozess, Parameter Werte zu setzen, kann für diese sehr mühsam sein und ist außerdem abhängig von ihrer jeweiligen Erfahrung. Ziel dieser Masterarbeit ist es, einen neuen und schnelleren Ansatz zu finden, der es ermöglicht, die gewünschten Parameter Werte für verschiedenste Visualisierungsalgorithmen zu finden, ohne diese einzeln manuell setzen zu müssen. Um diese Ziele zu erreichen, wurde ein Prototyp entwickelt, der Benutzer/Benutzerinnen in einem halb-automatischen Prozess beim Setzen von Parameter Werten für eine Volums-Visualisierung unterstützt. Dabei werden vorberechnete Bilder mit kMeans++ oder DBScan in Kombination mit Locally Linear Embedding gruppiert und auf eine übersichtliche Weise präsentiert, woraus der Benutzer/die Benutzerin die passendsten auswählen kann. Bis das gewünschte Bild gefunden ist, werden neue Bilder mit ähnlichen Parameter Werten berechnet und zur Auswahl präsentiert. Unsere Tests zeigten, dass es mit unserem Prototypen möglich ist, viele verschiedene Parameter Werte in kürzester Zeit zu erkunden und Visualisierungen zu erzeugen, die denen mit manuell gesetzten Parameter Werten ähnlich sind. In einem kurzen Test war es zwei, im Bereich der Volums-Visualisierung eher unerfahrenen Benutzern mit Hilfe unseres Ansatzes möglich, ähnliche Visualisierungen in weniger Schritten zu erzeugen, als es ihnen mittels manuellen Setzens der Parameter Werte möglich war.

Diplomarbeitsposter May Michael

Michael May

Masterstudium Visual Computing
Abstract:

Die Programmierung der Grafikkarte ist wichtiger denn je, aber die Entwicklung für die dafür nötigen Shader Programme und deren Verwaltung ist eine schwierige Aufgabe. Es stellt sich die Frage ob dieser Prozess in die Programmiersprache C# eingebettet und dessen Entwicklungswerkzeuge unterstützend genutzt werden können? Um dieser Frage auf den Grund zu gehen, wurde in dieser Arbeit ein System entworfen und implementiert um Shader-Programmierung zu abstrahieren und mittels einer internal Domain Specific Language (kurz: iDSL) in C# zu integrieren. Das Back-end kann mittels Erweiterungen um beliebige weitere Optimierungen und unterschiedliche Shader-Programm-Dialekte ergänzt werden. Das implementierte Framework ermöglicht Shaderprogrammierern die Entwicklungswerkzeuge von C# zu nutzen, wie zB. automatische Textvorschläge und Vervollständigungen oder Typ-System-Fehlererkennung im Editor.

Diplomarbeitsposter Miao Haichao

Haichao Miao

Masterstudium Medizinische Informatik
Abstract:

This thesis presents a novel method for the visual quantification of cerebral arteries. The Circle of Willis (CoW) is an arterial structure that is responsible for the brain's blood supply. Dysfunctions of this arterial circle can lead to strokes. The diagnosis of stroke patients is complex and relies on the radiologist's expertise and the software tools used. These tools consist of very basic display methods of the volumetric data without support of state-of-the-art technologies in medical image processing and visualization. The goal of this thesis is to create an automated method for the standardized visualization of cerebral arteries in stroke patients in order to allow visual indications of problematic areas as well as straightforward inter-patient comparisons. Prior to the visualization, this work offers a solution for the extraction of the Circle of Willis from Time-of-Flight Magnetic Resonance Angiography (TOF-MRA) images. An enumeration technique for the labeling of the segments is therefore suggested. Furthermore, it proposes a method for the detection of the circle's supplying arteries by analyzing the coronal, sagittal and transverse image planes of the volume. This work gives a comprehensive account of the entire pipeline that is required to extract the arteries in the CoW and to build a model for the standardized visualization. The final goal of this thesis is to create an effective display of the arteries based on a radial tree layout. The feasibility of the visual quantification method is tested in a study of 63 TOF-MRAs. With the proposed methodology applied to the subjects, the results were compared to the findings from radiologists. The obtained results demonstrate that the proposed techniques are effective in detecting the arteries of the CoW. Finally, we focused our methods on the identification of the main arteries.

Diplomarbeitsposter Sippl Sebastian

Sebastian Sippl

Masterstudium Visual Computing
Abstract:

The Inductive Rotation Method, developed by the artist Hofstetter Kurt, is a strategy for generating elaborate artistic patterns by applying translations and rotations repeatedly to a copy of a so called prototile. The method has been inspired by aperiodic tilings such as the popular Penrose tilings. The Inductive Rotation Patterns and their nonperiodic structure is interesting from both a mathematical and from an artistic point of view. In the scope of a previous thesis different algorithms for the generation of such patterns were already implemented and researched which resulted in a program called the “Irrational Image Generator”. However, this software prototype provides only few features which support Hofstetter in designing patterns, and can only produce patterns with limited size. The limited size results from a property of the patterns: The number of tiles grows exponentially with each iteration. The Inductive Rotation Framework, a software framework for the generation of Inductive Rotation Patterns, was developed in the course of this thesis and unites new generation algorithms with an extended tool-set, like a graphical prototile editor which supports Hofstetter in his pattern design process. One of the existing algorithms was successfully parallelized and now allows the artist pattern generation via GPGPU methods. Depending on the implementation this can increase either pattern generation speed or the maximum pattern-size. In order to research the advantages and disadvantages of a recently developed tile substitution method for the creation of Inductive Rotation Patterns, the framework was extended by an algorithm which is based on this new discovery. Following the definition of the Inductive Rotation Method from Hofstetter, this tile-substitution method produces only a subset of Inductive Rotation Patterns.

Diplomarbeitsposter Wallner Simon

Simon Wallner

Masterstudium Visual Computing
Abstract:

This thesis proposes a formal model of interaction in games, to be used as tool for game analysis and game testing. The model allows a quantification of interaction by looking at the low-level structure and patterns in game-controller input. The game-controller input is modelled using discrete-time, discrete-space Markov chains, and information theory is used to quantify the mismatch between the model’s prediction and the actual user input. The model uses game-agnostic game controller data as its input, which is the lowest common denominator for a large class of games (almost all game console games, most PC games). The models are trained dynamically on-the-fly for each individual play session. This allows performing individual analyses of players’ interactions, while still retaining an approach that is very general and can be used with different games without modification. To adapt to new play situations quickly, the used models are only based on data from the last couple of seconds or minutes. This can lead to the problem that not enough samples may be available to confidently estimate all dynamic model parameters. This problem is mitigated by considering the full probability distribution of each parameter instead, using a beta distribution. This work contributes to the understanding of interaction in games, modelling of raw user input and quantifying the model output using information theory. The described approach has been implemented in software and preliminary results from a prestudy are available. In this exploratory prestudy, the post hoc analysis of nine different games from various genres revealed a number of interaction patterns. One of the observed patterns is routinization, a process in which an action is performed repeatedly until it is executed almost unconsciously.

Arbeitsbereich Bildverarbeitung und Mustererkennung

Diplomarbeitsposter Cerman Martin

Martin Cerman

Masterstudium Visual Computing
Abstract:

In this thesis we present a new image segmentation algorithm which is based on Local Binary Patterns and the Combinatorial Pyramid. Current Local Binary Pattern-based segmentation algorithms utilize statistical approaches in form of a histogram to describe and compare textured regions, and to subdivide an image into homogeneous regions. The novelty of our approach is that we omit the usage of histograms and perform a segmentation based directly on the local structure of the image, while at the same time preserving structural correctness and image topology. In our work we define five topological classes that are based on the Local Binary Patterns of regions and are invariant to the number and shifting of bits, namely local minima, slopes, singular slopes, saddles, and local maxima. Using these classes in combination with the dual graph we are able to identify and remove redundant structural information. This approach simplifies the image graph and enables a merging of connected regions without introducing structural errors. We compare our algorithm to five other algorithms using the Global Consistency Error and Probabilistic Rand Index error metrics. One of these algorithms is a pre-version of our proposed algorithm which does not take structural constraints into consideration, and the remaining four algorithms are existing algorithms based on internal- and external contrast, Minimum Spanning Trees, Mean-Shift, and superpixel approaches. The evaluation shows, that the proposed algorithm indicates comparably good results with the Global Consistency Error metric, and it beats all of the five algorithms in terms of a high Probability Rand Index score. This segmentation behavior suggests, that a refinement of segmentations takes place at regions where there is evidence of multiple levels of granularity of segmentations performed by human subjects, and thus an application in image compression can be found.

Institut für Gestaltungs- und WirkungsforschungE187

Arbeitsbereich Multidisciplinary Design

Diplomarbeitsposter Frohnwieser Jakob

Jakob Frohnwieser

Masterstudium Medieninformatik
Abstract:

Creating a media production is a highly divisioned process. From the first idea to the final product many people are involved who work with vast collections of both analogue and digital data. Despite the widespread use of specialised tools many of the thereby created artefacts, such as texts, images and video or sound files get lost during the production process since not all technologies used integrate seamless into the production cycle. Advancements in digital recordings and web based technologies try to overcome these problems. For this, Media Asset Management (MAM) systems are used to administer the thereby created digital multimedia content. However, incorporating the cooperative workflows between people with all the technologies used is still a challenge. Although high level programs which meet most of the needs of the users from the media industry are readily available, affordable and lightweight programs for small and medium-sized companies are still missing. Designing such a lightweight system is non-trivial since work processes that are going on in this sector are complex and vastly distributed in time and space. This thesis examines the social work processes that take place in the media business. It investigates what professionals working in the media industry require to perform their tasks and identifies the challenges users face while working in such a highly technologised environment. Compiling state-of-the-art literature and interviews with seven experts from different production companies a novel solution for a MAM system is proposed which is able cover key functionalities identified in the preliminary research. Based on the systems blueprint a prototype is implemented and evaluated with five users from the industry. The results of this process show how computer software has to be designed to meet the needs and expectations of users from the media industry.

Diplomarbeitsposter Janzek-Hawlat Stefan

Stefan Janzek-Hawlat

Masterstudium Business Informatics
Abstract:

Our public health care system faces the challenges of rapidly ageing population, technological costly progress and an increasing demand for a consumer friendly health care system. Due to limited resources, this will present a major challenge to maintain the quality of health care. Part of the problem lies in the waiting times at the hospital or resident physicians. This master thesis aims to evaluate and analyse the emergence of waiting times and tries to find IT-based solutions to decrease them. Furthermore, the loss of GDP due to waiting and therefore not working patients is calculated. The methodology bases on the grounded theory. Due to a use of a mixture of methods and an interwoven process of sampling and generating results, generated results are not taken for granted but tested again and again against new material. First, semi-structured expert interviews were used to get an impression of the problem space. Second, participant observation in combination with a quantitative patients’ survey were used to get deep information concerning waiting times and waiting behaviour of patients. Finally, validation expert interviews were used to verify the results. The median waiting time at resident physicians using appointment systems was 15 minutes, at physicians not using appointment systems 50 minutes. These results show that using an appointment system is able to reduce the median waiting time a lot. The median waiting time at the hospital was 90 minutes. Two solutions for reducing waiting times were analysed in detail: 1. visiting online doctors, 2. publishing waiting times. The majority of patients surveyed would like use both tools. The extrapolated loss of GDP is € 2,2 bn. at hospital ambulances and € 800 mio. at general practitioners (GP) which could be reduced to € 540 mio., if all GPs use appointment systems. The results show that there is plenty of potential for improvement when it comes to waiting times.

Arbeitsbereich Human Computer Interaction

Diplomarbeitsposter Adegeye Florence

Florence Adegeye

Masterstudium Medieninformatik
Abstract:

Als Vorzeigemodell des modernen und futuristischen Informationszeitalters werden immer häufiger große Displays in öffentlichen Räumen eingesetzt. Sie kommen nahezu überall in städtischen Gebieten vor, wie zum Beispiel in U-Bahnstationen, Einkaufszentren, auf öffentlichen Plätzen oder anderen Treffpunkten. Obwohl öffentliche Displays immer mehr an Bedeutung gewinnen, sind die meisten nicht für interaktive Anwendungen ausgelegt. Doch mit der Weiterentwicklung von mobilen Geräten kann man Information nicht nur passiv abrufen, sondern es werden auch neue Interaktionsmöglichkeiten geschaffen. Jedoch sind die meisten mobilen Anwendungen systemabhängig und setzen einen aufwendigen Download- und Installationsprozess voraus. Dies stellt eine große Hürde für Passanten dar, welche spontan eine interaktive Anwendung mit ihrem eigenen Gerät an einem öffentlichen Display nutzen wollen. Als Lösung für diese Herausforderungen wird im Rahmen dieser Diplomarbeit die Fähigkeit von Smartphones als web-basierende Eingabegeräte für interaktive Anwendungen auf öffentlichen Bildschirmen näher untersucht. Das Ziel ist die Realisierbarkeit von herkömmlichen Interaktionstechniken mit aktuellen mobilen Technologien zu erforschen und die User Experience und die Benutzerakzeptanz für den web-basierten Lösungsansatz zu evaluieren. Im Gegensatz zu bisherigen Forschungsarbeiten beschäftigt sich diese Diplomarbeit mit systemunabhängigen Ansätzen, um die Nachteile von nativen Apps zu umgehen. Die Ergebnisse dieser Arbeit zeigen, dass die Realisierung von bisherigen Interaktionstechniken mit Smartphones durch die Verwendung von aktuellen Webtechnologien effizient möglich ist und auch weitgehend akzeptiert wird. Die Verwendung von web-basierten Steuerungen für öffentliche Displays eröffnen uns somit neue Möglichkeiten in der urbanen Kommunikation.

Diplomarbeitsposter Eigner Thomas

Thomas Eigner

Masterstudium Business Informatics
Abstract:

Musik spielt in unserem Leben eine bedeutende Rolle und kann mittlerweile in vielen verschiedenen Varianten produziert werden. Mit dem neuen technischen und digitalen Zeitalter entwickelten sich neue Wege der Mensch-Computer Interaktion, um digitale und interaktive Musik zu schaffen. Es gibt mittlerweile eine Unzahl an Computer-und Softwaresystemen, die den Zugang zum kollaborativen Musikmachen unterstützen. Das Ziel dieser Arbeit war ein Farb-Musik-Interaktionssystem zu entwickeln und adaptieren, dass in einer kollaborativen Musik Performance mit einem Musiker an einem traditionellen Instrument und anderen musikalischen bzw. nicht musikalischen Teilnehmern mit herkömmlichen farbigen Objekten zum Einsatz kommt. Genauer gesagt sollte ein passendes System-Setting für die kollaborative Musikinteraktion gefunden werden. Zusätzlich sollte der Einfluss des Systems und auftretende Verhaltensweisen der Teilnehmer mit den farbigen Objekten analysiert werden. Zum Studienablauf gehörten eine Testphase des Systems und der Farb-Interaktionsobjekte beinhalten, sowie eine iterative Systemverbesserung und eine detaillierte Interaktion-und Verhaltensanalyse. Neben anderen Details brachte die Arbeit Ergebnisse über die unterschiedliche Anwendung der Farb-Interaktionsobjekte und verschiedene Verhaltensmuster während der Musikinteraktion. Ein weiterer Faktor waren die Auswirkungen des Systems und der Objekte auf die Teilnehmer und umgekehrt. Es gehen Vorschläge aus der Arbeit heraus, welche Farb-Objekt-System Einstellungen relevant sein können und was bei der Anwendung so eines Systems für eine kollaborative Musik Performance beachtet werden muss.

Diplomarbeitsposter Furm-Hazivar Andreas

Andreas Furm-Hazivar

Masterstudium Informatikmanagement
Abstract:

Die Diplomarbeit evaluiert die TrainerInnen-Ausbildung der Pfadfinder und Pfadfinderinnen Österreichs (PPÖ), welche seit der Neukonzeption eine Blended Learning-Ausbildung bestehend aus Präsenzseminaren, Praxisseminaren und einem E-Learning-System ist. Die Arbeit evaluiert die gesamte Blended Learning-Ausbildung und hat zum Ziel die TeilnehmerInnen, in die Evaluierung miteinzubeziehen. Ein spezieller Fokus soll dabei auch auf die Online-Betreuung durch E-TutorInnen und die Usability der E-Learning Plattform aus Sicht der BenutzerInnen gelegt werden. Ebenso ist das Zusammenspiel von Präsenzseminaren mit den Online-Aktivitäten der TeilnehmerInnen ein zentrales Thema. Im theoretischen Teil der Arbeit werden die Grundlagen für die Evaluierung, wie etwa gängige Lerntheorien, Grundlagen des Blended Learning und Konzepte des E-Tutorings dargestellt. Weitere wichtige Themen sind die theoretischen Hintergründe der Planung und Durchführung von Fokus-gruppen und Grundlagen der Interviewtechnik. Daran anschließend werden die Durchführung und die Ergebnisse der Fokusgruppen beschrieben. Die Evaluierung mittels Fokusgruppen erfolgt zweigeteilt: in einem ersten Schritt werden gemeinsam mit den TeilnehmerInnen die ausgewählten Guidelines hinsichtlich E-Learning und E-Tutoring erörtert. Zu jeder Guideline gibt es auf Basis der Evaluierung eine Empfehlung zur Verbesserung. Der zweite Teil jeder Fokusgruppe ist ein freier Teil, in dem die TeilnehmerInnen ihre positiven und negativen Erfahrungen mit der gesamten TrainerInnenausbildung der PPÖ diskutieren können. Für diesen Teil werden Impulsfragen vorbereitet, die vor allem die Vernetzung der einzelnen Blended Learning Ebenen und das E-Tutoring beleuchten sollen. Sowohl die Evaluierung mit Fokusgruppen als auch die Expertenevaluation zeigen klar, dass die E-Learning-Plattform im Speziellen und die TrainerInnenausbildung im Allgemeinen einem umfassenden Redesign unterzogen werden sollten.

Diplomarbeitsposter Gad-El-Hak Chalid

Chalid Gad-El-Hak

Masterstudium Medieninformatik
Abstract:

Die vorliegende Diplomarbeit umfasst eine Anforderungsanalyse in Kombination mit praktischen Design-Vorschlägen für Software-Konzepte zur Steigerung physischer Aktivität. In erster Linie wurde ein spezieller Schwerpunkt auf das umfassende Anwenden von User Research Methoden in Form von Interviews, Online-Umfragen, Cultural Probes sowie klassischer Literaturrecherche gelegt. Basierend auf den dadurch entstandenen, umfangreichen Ergebnissen von 288 Personen, wurden die praktischen Design-Vorschläge schließlich in einem iterativen Design- und Evaluierungsprozess bestehend aus Personas, Design-Workshops, Sketches, Mock-ups, Technology Probes und Prototypen entwickelt, woraus letztlich fünf unterschiedliche Konzept-Entwürfe resultierten und präsentiert wurden. Unter Berücksichtigung sämtlicher Ergebnisse wurde ein 4-stufiges Modell (bestehend aus Präsentation, Motivation, Antrieb und Bonus) als Grundschema für die Konzipierung von Software zur erhöhten physischen Aktivität konstruiert. Zuletzt wurden unterschiedliche Empfehlungen und Ideen zu möglichem zukünftigen Forschungspotential im vorliegenden Bereich erörtert.

Diplomarbeitsposter Haidenthaler Dominik

Dominik Haidenthaler

Masterstudium Software Engineering & Internet Computing
Abstract:

Allgemeine Informationen über Kuba sowie eine Einführung in die Geschichte des Landes sind für das Verständnis der Zusammenhänge und der Tragweite der folgenden Thematiken unerlässlich. Kapitel 1 vermittelt daher einen kurzen Überblick. Der zweite Abschnitt befasst sich mit der konkreten Einführung und dem Ausbau der Informations- und Kommunikationstechnologie in Kuba. Die Beschreibung ist chronologisch und in die wichtigsten historischen Etappen unterteilt, wobei das Hauptaugenmerk auf zeitnahe Ereignisse gelegt wird. In Kapitel 3 werden die damit zusammenhängenden politischen Strategien, sowie deren Umsetzungen und Folgen analysiert. Dabei werden auch die US-amerikanische Politik gegenüber Kuba und deren gravierende Auswirkungen berücksichtigt. Die Strategien innerhalb des Landes durchliefen verschiedene Phasen, worauf in einem eigenen Bereich des Kapitels genauer eingegangen wird. Eine detaillierte Beschreibung der aktuellen Situation sowie der Konzepte für die zukünftige Entwicklung der Informations- und Kommunikationstechnologie folgt im vierten Abschnitt. Das Kerngebiet der Untersuchung bilden dabei die derzeitige Offensive und die ambitionierten Programme beim Ausbau der Infrastruktur. Speziell in diesem Sektor konnte in Kuba ein enormes Humankapital entstehen, das an dieser Stelle ebenfalls näher behandelt wird. Eine Zusammenfassung der wichtigsten Erkenntnisse wird schließlich in Kapitel 5 präsentiert.

Diplomarbeitsposter Lahmer Jakob

Jakob Lahmer

Masterstudium Software Engineering & Internet Computing
Abstract:

Neue Technologien werden nur sehr langsam angenommen. Der Mensch ist ein Gewohnheitstier und neue Technologien erfordern oft eine Anpassung von alltäglichen Routinen. Im Bereich der Online-Kommunikation betreffen diese Anpassungen nicht nur einzelne Benutzer und Benutzerinnen sondern auch sein bzw. ihr soziales Umfeld. Dies führt zu einer hohen Hemmschwelle neue Technologien einzusetzen. Im Gegensatz dazu können neue Technologien sehr hilfreich sein und einen deutlichen Mehrwert zu gängigen Lösungen bieten. Aufgrund der hohen Zugangshemmnis birgt der Einsatz neuer Kommunikationslösungen das Risiko Personen mit weniger Computerkenntnissen auszugrenzen. Ziel dieser Arbeit ist es die Online-Gruppenkommunikation zu vereinfachen und gleichzeitig die Zugangshemmnis so gering wie möglich zu halten. Dazu wird eine Technik der Informationsvisualisierung auf die visuelle Struktur einer Computer-mediated Communication (CMC) Lösung angewandt. Die Informationsvisualisierung bietet Techniken um große Datensätze verständlich darzustellen, was ein Problem der Online-Kommunikation ist: Teilnehmer und Teilnehmerinnen einer Online-Diskussion beziehen sich üblicherweise auf eine vorherige Aussage, sollen aber auch einen Überblick über den generellen Verlauf der Diskussion haben. Die Hypothese ist, dass durch die Anwendung einer Informationsvisualisierungstechnik auf die visuelle Struktur einer Online-Kommunikationslösung einer Diskussion leichter gefolgt werden kann. Im Rahmen der Diplomarbeit werden dazu bestehende Techniken beider Bereiche analysiert und im gegebenen Kontext bewertet. Anschließend wird eine CMC Lösung mit einer geringen Zugangshemmnis (E-Mail) ausgewählt und eine Informationsvisualisierungstechnik (Fisheye View) auf die visuelle Struktur angewandt. Die Evaluierung hat ergeben, dass die entwickelte Lösung das Potential hat asynchrone Online-Kommunikation zu verbessern ohne die Zugangshemmnis zu erhöhen, aber nicht für die Echtzeitkommunikation anwendbar ist.

Diplomarbeitsposter Messany-Oberwandling Gustav

Gustav Messany-Oberwandling

Masterstudium Medieninformatik
Abstract:

Adaptive case management (ACM) arose as an agile concept to support knowledge workers in their unpredictable work. The focus is on the goal and the data, instead of tasks and processes. The objective of this thesis is to create a user interface concept for adaptive case management considering previous computer-supported cooperative work (CSCW) research and following the user-centered design principles. To understand the needs and requirements of such a concept the reader gets introduced into the concept of adaptive case management, their core principles and components. The computer-supported cooperative work research is mainly following related workflow management approaches and comparing them with adaptive case management. Based on generic use cases account creation and update account information and two personas a user interface has been created and tested through a usability study. Finally the results of the study are discussed and reflected in the context of adaptive case management and computer-supported cooperative work. The usability evaluation shows that the perceived ease of use and usefulness of the proposed approach is positively received by the users and they feel empowered by the system. Critical facets are also discussed for the user interface design as well for the adaptive case management approach in the specific domains.

Diplomarbeitsposter Pacher Christoph

Christoph Pacher

Masterstudium Medieninformatik
Abstract:

Diese Diplomarbeit dokumentiert die Entwicklung von einem Prototyp für eine in-teraktive Medienfassade: MassKerade. Eine Definition von Begriffen wie Urban Screen, Media Facade und Media Architecture, die manchmal fälschlicherweise wie Synonyme verwendet werden, liefert den Start für eine Analyse aktueller Fassaden und deren Interaktionskonzepte. Aus den gesammelten Erkenntnissen wurden charakteristi-sche Gestaltungskonzepte für Medienfassadeninhalte, sowie die Idee für MassKerade entwickelt. Als Atom, als kleinste Einheit eines großen Ganzen, haben PassantInnen die Möglichkeit, sich von den physikalischen Gesetzen zu emanzipieren und aus der Masse herauszustechen. Das Spiel beinhaltet sowohl kooperative als auch kompetitive Mecha-niken und verwendet ein Netzwerk aus Microsoft Kinect Kameras, das über dem Platz vor einer großen Medienfassade aufgespannt wird. Für die Umsetzung eines Prototyps implementierte ich unter anderem eine orthographische Reprojektion des Tiefenbilds unter Verwendung der Grafikkarte und die Identifizierung lokaler Extrema in diesem. Dadurch ist es mir möglich Personen aus der Vogelperspektive zu verfolgen, auch wenn ihre Konturen verschmelzen. Der Spielprototyp verwendet nur eine Kinect und erkennt eine von drei geplanten Handgesten. In einer Box2d Physikwelt können SpielerInnen mit dieser Geste eingesammelte Elektronen auf MitspielerInnen schleudern, um deren Protonen zu zerstören. Das Endprodukt wurde im Zemanek Saal der TU Wien von Stu-dentInnen evaluiert.

Diplomarbeitsposter Slijepcevic Djordje

Djordje Slijepcevic

Masterstudium Technische Informatik
Abstract:

Aufgrund ihrer Fähigkeit, die Unabhängigkeit von Senioren und Menschen mit Behinderungen zu steigern, haben Angewandte Assistierende Technologien (Active and Assisted Living) in den letzten Jahren zunehmend an Bedeutung gewonnen. Angesichts der globalen Alterung der Bevölkerung und der damit verbundenen Zunahme an altersbedingten Erkrankungen ist zu erwarten, dass die Nachfrage nach solchen Technologien auch in Zukunft weiter ansteigen wird. Demenz stellt als eine der häufigsten altersbedingten Erkrankungen eine besondere globale Herausforderung dar und wurde daher als Schwerpunkt dieser Arbeit gewählt. Das Ziel der Arbeit war der Vergleich moderner AAL Anwendungen für Menschen mit Demenz, und dabei insbesondere die Analyse von Geräten zur Standort- und Sturzerkennung, die entweder in Eigenheimen oder Pflegeanstalten genützt werden können. Für diese Analyse wurden verschiedene Kriterien herangezogen, wobei insbesondere der Schutz der Privatsphäre als sehr wichtig gewertet wurde. Nach eingehender Literaturrecherche wurde ein auf neun passiven Infrarotsensoren basierendes Gerät zur Standortbestimmung konzipiert. Zusätzlich wurde ein EnOcean Modul zur kabellosen Signalübertragung eingesetzt. Der Prototyp wurde in einem iterativen Entwicklungsprozess hinsichtlich Energie- und Kosteneffizienz sowie Genauigkeit optimiert. In einer Reihe von Testversuchen wurden sehr präzise Resultate für die Standortbestimmung und die Erkennung von demenztypischen Bewegungsmustern erzielt. Zusätzlich konnten relativ genaue Ergebnisse für Schlafüberwachung und Sturzerkennung erreicht werden. Durch den Einsatz eines Kalman Filters konnte die Genauigkeit der Bewegungserkennung und -Visualisierung weiter verbessert werden. Diese sehr positiven Testergebnisse, die hohe Energie- und Kosteneffizienz sowie der Respekt der Privatsphäre des Prototyps legen die Schlussfolgerung nahe, dass mit der vorliegenden Arbeit ein solider Ansatz für weitere Entwicklungen in diesem Bereich geschaffen wurde.

Institut für Softwaretechnik und Interaktive SystemeE188

Arbeitsbereich Information & Software Engineering

Diplomarbeitsposter Bacher Stefan

Stefan Bacher

Masterstudium Informatikdidaktik
Abstract:

Mobile Geräte sind in unserer Gesellschaft weit verbreitet. Betrachtet man die Verwendung von Smartphones oder Tablets seit 2010, so merkt man einen starken Anstieg. Vor allem bei der Altersgruppe 16-24 Jahre ist eine hohe Nutzungsrate vorhanden. In Anbetracht dessen, dass es sich um jene Altersgruppe handelt, die in berufsbildenden höheren Schulen anzutreffen ist, stellt sich die Frage, ob der Frontalunterricht durch neue Methoden, wie Mobiles Lernen, abgelöst werden kann. Im Rahmen dieser Arbeit werden Einsatzszenarien von Mobilem Lernen im Fach der Softwareentwicklung erstellt. Zu Beginn werden allgemeine Informationen zu Mobilem Lernen vorgestellt. Es werden sowohl Vor- und Nachteile dieser Methode sowie auch Chancen, Herausforderung und Risken, die der Einsatz von Mobilem Lernen im Unterricht mit sich bringt, verdeutlicht. Im Anschluss werden die didaktischen Grundlagen zu Mobilem Lernen dokumentiert. Im Softwareentwicklungsprozess bietet sich im Bereich des Entwurfes und Design bzw. Implementierung der Einsatz von mobilen Geräten an. Gemäß Lehrplan der Informationstechnologie werden im 2. Jahrgang im Fach Softwareentwicklung grafische Notationen geschult. Daher wurde bei der Suche nach geeigneten Apps vorrangig nach kostenlosen UML-Diagramm-Apps gesucht. Die Apps wurden daraufhin getestet und anhand eines Kataloges von Bewertungskriterien beurteilt. Während sich die Programmier-App für keinen Lehreinsatz eignet, ergab eine Bewertung der Diagramm-Apps unterschiedliche Ergebnisse in Hinblick auf Usability, Lernen und Bildung, Funktionalität, Vollständigkeit und Qualität. Basierend auf den zuvor festgehaltenen Grundlagen wurden mit den drei bestbewertesten Apps/Werkzeugen drei verschiedene Unterrichtseinheiten für das Fach der Softwareentwicklung erstellt, um den Lehrenden Vorschläge für die Gestaltung ihres Unterrichts mit mobilen Geräten zu liefern. Diese drei Unterrichtseinheiten wurde am Ende anhand der zehn Merkmale eines guten Unterrichts evaluiert.

Diplomarbeitsposter Frühwirt Dominik

Dominik Frühwirt

Masterstudium Software Engineering & Internet Computing
Abstract:

Since the large-scale surveillance programs of intelligence agencies like the NSA became known, privacy concerns got in focus of the general public. Many websites support encryption via the HTTPS protocol securing the data transmitted between browsers and webservers by using TLS. Unfortunately, there is no reliable possibility to find out whether a website is available via HTTPS as well. Therefore, the Electronic Frontier Foundation (EFF) developed the browser extension HTTPS Everywhere that automates upgrading HTTP connections to secured HTTPS connections if this is supported by the corresponding server. The extension uses manually created and maintained URL-rewriting rules that are shipped with the extension. This diploma thesis investigates the possibilities of automatic rule set generation. For this purpose, a software that checks a large set of domains on HTTPS support and generates the corresponding rules has been implemented. The websites reachable via HTTPS get compared to the versions available via HTTP in order to ensure their equality and correct rewriting rules. Therefore, we implemented and evaluated 15 different similarity matching methods. The large-scale crawl of the Alexa top million websites allowed the generation of about 190,000 single rules for nearly 129,000 different domains.

Diplomarbeitsposter Frühwirth Jürgen

Jürgen Frühwirth

Unterrichtsfach Informatik/Informatikmanagement
Abstract:

Im dieser Arbeit wird ein Konzept vorgestellt, welches als Orientierung für einen kompetenzorientierten Informatikunterricht dienen soll. Zunächst wird auf die historische Entwicklung des Kompetenzbegriffs und auf die Schwierigkeiten, welche sich bei der Kompetenzmessung ergeben, eingegangen. Anschließend werden internationale Reformströmungen hinsichtlich eines kompetenzorientierten Informatikunterrichts verglichen. Darauf aufbauend wurde ein Unterrichtskonzept für das Wahlpflichtfach Informatik einer 7. Klasse AHS entwickelt. Dieses beinhaltet u. a. eine Jahresplanung, in welcher erläutert wird, welche Lehrplaninhalte in welchem zeitlichen Umfang vermittelt werden sollen. Da klassische Wiederholungen und Tests nicht ausreichen, um festzustellen, ob die Schülerinnen/Schüler die entsprechenden Kompetenzniveaus erreicht haben, kommen alternative Instrumente zur Leistungsfeststellung zum Einsatz. Des Weiteren wird eine Unterrichtssequenz vorgestellt, welche sich über mehrere Unterrichtseinheiten erstreckt. Dieses thematisiert einen Teil der im österreichischen Kompetenzmodell geforderten Kompetenzen aus dem Bereich „Algorithmen, Datenstrukturen und Programmierung“. Für diese Thematik werden außerdem beispielhafte Maturafragen vorgestellt.

Diplomarbeitsposter Gadllah Adel

Adel Gadllah

Masterstudium Software Engineering & Internet Computing
Abstract:

Das Principle of the Least Privilege ist ein bekanntes und gängiges Prinzip für die Entwicklung von sicheren Anwendungen. Es besagt, dass Anwendungen nicht mehr Privilegien haben sollen als für deren Aufgabe notwendig ist. Das minimiert den Schaden, den ein erfolgreicher Angriff verursachen kann. Bestehende Sandboxing Techniken fokussieren jedoch darauf die Privilegien ganzer Anwendungen zu beschränken. Unterschiedliche Teile einer Anwendung benötigen jedoch unterschiedliche Privilegien. Diese Arbeit stellt Straightjacket vor, eine Sammlung von Werkzeugen für das Betriebssystem Linux, die erlauben die Privilegien von Anwendungen auf der Ebene einzelner Funktionen zu definieren. Entwickler können die Privilegien von Funktionen durch Anmerkungen im Quelltext der Applikation definieren ohne die Funktionen selbst umschreiben zu müssen. Darüber hinaus enthält Straightjacket einen statischen Analyzer, der dabei hilft die benötigten Privilegien einer Funktion zu ermitteln. Veränderungen am Betriebssystem sind nicht notwendig. Die Evaluierung zeigt das Straightjacket gängige Exploits blockiert ohne signifikante Auswirkungen auf die Anwendungsperformance zu haben, wenn die Anmerkungen nicht übermäßig eingesetzt werden. Das wäre der Fall wenn beispielsweise jede einzelne Funktion einer Anwendung mit Anmerkungen versehen wird. Straightjacket wird auch mit Fokus auf die Benutzbarkeit entwickelt und kann ohne großen Aufwand in bestehende Entwicklungsumgebungen und Arbeitsabläufe von Entwicklern integriert werden.

Diplomarbeitsposter Hernadi Tamas

Tamas Hernadi

Masterstudium Software Engineering & Internet Computing
Abstract:

Viele kleine und mittelständische Unternehmen beschäftigen oft nur eine Person, die für “die EDV” zuständig ist. Vorgesetzte teilen ihr daher vielfältige Aufgaben zu, wie z.B. die Erstellung einer Firmenwebseite. Die Person erhält kein Budget für Ausgaben - das Management will sparen. Kostenlose Open Source Lösungen zählen daher zu den wenigen verbleibenden Alternativen. Eine EDV-bedienstete Person ohne Erfahrung mit Sicherheitsprüfungen will aufgrund von Sicherheitseigenschaften zwischen zwei Open Source Webanwendungen entscheiden. Dafür benötigt sie geeignete Werkzeuge. Leider gibt es keine kostenlosen Optionen, die alle Anforderungen erfüllen. Artikel über die Sicherheit von Webanwendungen im Internet unterliegen oft voreingenommenen Ansichten der Autoren, oder sind für Unerfahrene unverständlich verfasst. Die Sicherheitsprüfung von Webanwendungen stellt daher eine Herausforderung dar. Diese Arbeit stellt eine Methode vor, die es EDV-Bediensteten ermöglicht, unter mehreren Alternativen die als am sichersten einzuschätzende Webanwendung zu finden. Die im Vorfeld ausgewählten Produkte entsprechen den Firmenanforderungen und die Person beherrscht die Grundlagen der Webentwicklung. Die Methode gliedert die vorgeschlagene Untersuchung der Sicherheit in nachvollziehbare Teilaufgaben und nutzt die zur Verfügung stehenden, kontextuellen Informationen. Für die Zeiteffizienz priorisiert sie die Aufgaben nach dem Kosten/Nutzen-Prinzip. Informatikstudenten, die nicht auf Web-Sicherheit spezialisiert sind, haben eine funktionsfähige Implementierung dieser Methode getestet. Ihr Security-Wissen gleicht jenem der EDV-Bediensteten, von denen diese Arbeit ausgeht. Die gefundenen Ergebnisse deuten darauf hin, dass die Methode für die Untersuchung und den Vergleich von Open Source Webanwendungen im Bezug auf ihre Sicherheitseigenschaften gut geeignet ist. Die akkurate Arbeitsweise der Untersuchenden beeinflusst die Qualität der Ergebnisse maßgeblich.

Diplomarbeitsposter Huber Philipp Michael

Philipp Michael Huber

Masterstudium Business Informatics
Abstract:

Im Rahmen dieser Diplomarbeit wird die Problematik der Zitierbarkeit von Subsets von XML Datensets in nativen XML Datenbanken analysiert und neue Ansätze entwickelt. Experimente wissenschaftlicher Publikationen basieren oft auf Subsets von Datensets. Diese Daten zu referenzieren wird zu einer Herausforderung sobald sich die Datenbank im Laufe der Zeit ändert, da somit auch identifizierte Subsets nicht gleich bleiben. Folglich werden weitere Experimente, die auf bereits durchgeführten Experimenten aufbauen, unmöglich gemacht. Basierend auf bereits bestehenden wissenschaftlichen Arbeiten auf dem Gebiet der Data Citation entwickeln wir zwei Ansätze, die eine Lösung für das beschriebene Problem im Kontext von nativen XML Datenbanken darstellen. Die beiden Ansätze definieren zwei verschiedene Wege Datensets zu versionieren und somit jegliche Änderungen zu erfassen, um frühere Versionen des Datensets wiederherstellen zu können. Wir präsentieren einen Parser als Schnittstelle zwischen BenutzerIn und Datenbank Management System. Dieser Parser empfängt alle Queries, die von BenutzerInnen abgeschickt werden und generiert dem gewählten Archivierungsansatz entsprechende Queries. Die Evaluierung beider präsentierter Ansätze wird mit Hilfe ausgewählter Testszenarios und Performancemessungen anhand zweier künstlich generierter Datensets, die sich durch ihre hierarchische Struktur unterscheiden, durchgeführt. Des Weiteren werden zwei Datenbank Management Systeme vorgestellt und verglichen und schließlich zwei Szenarios ausgewählt und durchlaufen um Unterschiede aufzuzeigen. Das erste Szenario wird lediglich neue Daten hinzufügen, wohingegen der Fokus des zweiten Szenarios auf dem Editieren bzw. dem Löschen bestehender Datensätze liegt. Im Zuge der Analyse der Performancemessungen erweist sich einer der beiden präsentierten Ansätze als praxistauglich, da sowohl der zusätzliche Speicheraufwand als auch die Laufzeiten der Queries in einem akzeptablen Rahmen bleiben.

Diplomarbeitsposter Mayer Wilfried

Wilfried Mayer

Masterstudium Software Engineering & Internet Computing
Abstract:

Transport Layer Security (TLS) is the most widely used cryptographic protocol on the Internet. Many studies analyzed it for its primary domain HTTPS. This thesis goes beyond that and takes a close look at another critical field: the e-mail ecosystem. E-mails are important for millions of users in their everyday life, also to communicate sensitive and confidential information. The protocols used are well-established, but were initially not invented with security in mind. Also, end-to-end encryption is not in common use, so the security of e-mails strongly relies on TLS. By conducting a large-scale, Internet-wide, in-depth scan of close to all e-mail related deployments, this study can draw a comprehensive picture of the current state of TLS. Technical, organizational and ethical issues are covered by a newly developed scanning methodology. From April to August 2015 over 10 billion TLS handshakes were conducted. It was possible to collect over 20 million host/port-related results for the protocols IMAP, POP3 and SMTP with either implicit TLS or explicit STARTTLS usage. This massive dataset identifies several weaknesses as well as secure features, but the current state of TLS in the e-mail ecosystem has to improve strongly.

Diplomarbeitsposter Nopp Clemens

Clemens Nopp

Masterstudium Business Informatics
Abstract:

In November 2014, the European Central Bank started to directly supervise the largest banks in the Eurozone via the Single Supervisory Mechanism. Supervisory risk assessments are primarily based on quantitative data and surveys, but textual disclosures by banks as another source of information have remained largely untapped so far. This work utilizes these data by exploring a novel application of sentiment analysis. It evaluates whether this popular approach in the field of text mining is capable of measuring a bank’s attitude and opinions towards risk. For realizing this study, a text corpus consisting of more than 500 CEO letters and outlook sections extracted from annual reports is built up. Based on these documents, two distinct experiments are conducted. The first one derives sentiment scores for measuring the degrees of uncertainty, negativity, and positivity in the documents. The scores are determined based on a finance-specific lexicon and term weighting techniques. Another experiment employs machine learning algorithms for risk classification. The results are evaluated both in a qualitative way and by comparison with Tier 1 capital ratios, which are quantitative risk indicators in the financial industry. The evaluations find promising opportunities, but also limitations for risk sentiment analysis in banking supervision. At the level of individual banks, it can only inaccurately predict whether the quantitative risk indicator will rise or fall within the following year. In contrast, the analysis of aggregated figures revealed strong and significant correlations between sentiment in textual disclosures and the Tier 1 capital ratio’s future evolution. Risk sentiment analysis should therefore rather be used for macroprudential analyses than for assessments of individual banks. Furthermore, the aggregated sentiment scores clearly reflect major economic events, for example the financial crisis. This facilitates the creation of risk sentiment indicators.

Diplomarbeitsposter Petz Georg

Georg Petz

Masterstudium Medizinische Informatik
Abstract:

Das Open Source Projekt „FindMeEvidence“ hat sich als Ziel die Schaffung einer Suchmaschine für die medizinische Praxis gesetzt. Im Rahmen dieser Diplomarbeit wurde an einer funktionellen Erweiterung einer bereits bestehenden Version gearbeitet. Abschließend wurde die aktuelle Version von FindMeEvidence einem Usability-Test unterzogen. Version 1.1 des Suchsystems findet sich auf http://FindMeEvidence.org/ mit aktuell 980 452 Apache Solr Dokumente, der Code ist unter https://github.com/matthiassamwald/find-me-evidence/ verfügbar. Auf der öffentlichen Docker Registry („DockerHub“) ist ein Image mit FindMeEvidence unter der Image ID msamwald/find-me-evidence erhältlich. Das Image beinhaltet alles um FindMeEvidence lokal laufen zu lassen. Der Index kann nun ganz nach den eigenen Bedürfnissen erzeugt werden. Zusätzlich bleibt bei einer lokalen Installation die Suchhistorie geschützt, weil sie schwerer in die Hände Dritter gelangen kann. Konkret wurde für die neue Version ein Service für die Übersetzung von deutscher und spanischer Begriffe entwickelt. Es wurde an der Informationsextraktion, dem Ranking und der Beurteilung der Vertrauenswürdigkeit von PubMed Artikeln gearbeitet. Zusätzlich werden jetzt auch Links zum Digital Object Identifier (DOI) und PubReader angezeigt. Außerdem werden Open Access (OA) Artikel dementsprechend in den Suchergebnissen markiert und Assessment Daten des Wikipedia Release Version Tools werden verwendet um Wikipedia Artikel mit schlechter Bewertung zu kennzeichnen. Der online durchgeführte Usability-Test lieferte durchwegs gute Ergebnisse. Ein Standard Usability Scale (SUS)-Score von 84 von 100 attestiert eine sehr gute Usability. Ebenso ist erwähnenswert, dass 73% aller an FindMeEvidence gestellten Fragen beantwortet werden konnten. Einige Probleme konnten wir allerdings bei dem Service für die Übersetzung ausfindig machen.

Diplomarbeitsposter Sierek Tawan

Tawan Sierek

Masterstudium Medizinische Informatik
Abstract:

Behandelnde Ärzte und Ärztinnen beziehen oft zusätzliche Informationen aus Information Retrieval (IR) Systemen. Aber die immer größer werdende Anzahl von wissenschaftlichen Texten in der Medizin machen das Auffinden von relevanter Information immer schwerer. Auch immer mehr Laien informieren sich selbständig im Internet über medizinische Themen und benutzen oft eine Suchmaschine als Ausgangspunkt. Beide Benutzertypen profitieren von der Effizienz von IR Techniken, welche das Kernstück von Suchmaschinen bilden. Ein wichtiger Schritt ist die Reihung von Suchergebnissen. Unser Ziel ist es, die Reihung bei medizinischen Suchanfragen zu verbessern, in dem Statistiken von diversen Krankheiten berücksichtigt werden. Wir nehmen an, dass ein medizinischer Artikel, welcher eine bestimmte Krankheit zum Thema hat, relevanter ist, wenn die Krankheit häufiger vorkommt. Aufbauend auf dieser Annahme, glauben wir auch, dass die Reihung von Suchergebnissen an ein Patientenprofil angepasst werden kann, in dem das Alter und Geschlecht berücksichtigt werden. Es ist allgemein bekannt, dass einige Krankheiten unterschiedlich oft bei Männern und Frauen, beziehungsweise jungen und älteren Personen, vorkommen. Nach unserem besten Wissen existieren keine wissenschaftlichen Arbeiten, die IR Techniken, basierend of Gesundheitsstatistiken, thematisieren. Wir entwickeln ein stochastisches Modell, welches ein epidemiologisches Maß und ein Patientenprofil einbeziehen. Aufbauend auf dem formalen Modell implementieren wir einen Prototyp. Der Prototyp ordnet das Ergebnis einer state-of-the-art Suchmaschine neu, in dem er die Suchergebnisse zu ICD-9-CM Codes zuordnet. Anhand der Wahrscheinlichkeit einer Diagnose mit dem selbem Code, im Bezug zu einem Patientenprofil, wird das Suchergebnis höher oder niedriger gereiht.

Diplomarbeitsposter Wieser Florian

Florian Wieser

Masterstudium Business Informatics
Abstract:

Sustainability topics have become increasingly popular in recent years due to a growing awareness in society regarding sustainability as well because of a stronger awareness about the long-term consequences of business activities. Nowadays, sustainability has a broader definition and concerns social and economic matters in addition to environmental ones. This thesis focuses on solving the problem of the identification of environmental sustainability incidents within text documents. The widespread availability of the World Wide Web has led to enormous growth in accessible and reported information all around the world and such possible relevant information could be published on online news portals, blogs, and social media streams. The challenge is to find and extract the important information from this enormous amount of data that increases every day. In order to automate the detection of sustainability incidents, a data mining approach was formulated. To enable the detection of environmental sustainability incidents, it was necessary to develop a formal definition of such incidents and map this definition to a natural language processing approach, which is suitable for an event identification within text. The system is developed by using the state of the art in natural language processing technologies. It gathers text sources from blog sites that publish in the environmental domain. The system works on a rule-based approach that identifies the presence of an environmental context and its possible relation to a company on a sentence level. Further, dependencies between words are examined and deep learning solutions are applied for sentiment classifications. Several set-ups are evaluated and the results are presented in this work. Finally, the thesis also concludes with a critical review of the ethical concerns in data mining

Arbeitsbereich Interactive Media Systems

Diplomarbeitsposter Broneder Elisabeth

Elisabeth Broneder

Masterstudium Visual Computing
Abstract:

This thesis describes the design, implementation and evaluation of a virtual reality (VR) adventure game for the Virtualizer, the PrioVR and the Oculus Rift. First an overview is given about the state-of-the art in terms of head-mounted displays (HMDs), motion capture suits, game motion controllers and technologies for walking in virtual reality. Further, an overview is given about already developed VR games. Cybersickness is a major problem in VR games. There are three theories that try to explain the process of becoming cybersick, which are described in this thesis. Further, factors that can influence the possibility of getting cybersick are mentioned and approaches that can reduce the occurrence of cybersickness are described. In VR it is necessary to be able to interact in the virtual world like in the real world as well as seeing your own virtual body that follows your real-world movements to create a feeling of presence in the virtual world. Recent technologies enable this kind of interaction for the casual player at home. Up to now, no game has been developed that uses the combination of the Oculus Rift, the PrioVR and the Virtualizer. Therefore this thesis describes the development of a VR game for these technologies. User tests were conducted to find out about how good the interaction with these technologies is working and if the participants get cybersick. Further, design guidelines are discussed and technical problems that occurred during the user tests are described.

Diplomarbeitsposter Froihofer Tobias

Tobias Froihofer

Masterstudium Medieninformatik
Abstract:

In den vergangenen Jahren haben Anwendungen im Bereich der virtuellen Realität einen starken Zuwachs erfahren. Dies ist vor allem durch die verstärkte Forschung im Bereich der 3D-Brillen und anderer Hardware bedingt und dieser Trend wird sich vermutlich in den nächsten Jahren fortsetzen. Ziel dieser Arbeit war es, ein geeignetes Werkzeug zu erstellen, mit dem virtuelle Simulationen effizient erzeugt werden können. Das in der vorliegenden Arbeit beschriebene System, wurde in der Entwicklungsumgebung Unity3D erstellt. Neben einem System zur Erzeugung eines abgerundeten Pfades werden von diesem Werkzeug Methoden bereit gestellt, um Objekte mit multimedialen Inhalten zu füllen und diese so auf dem Pfad zu positionieren, dass ein sich vorbei bewegender Benutzer alle Informationen aufsammeln kann, ohne dass es dabei zu Überlagerungen des multimedialen Inhaltes kommen kann. Zusätzlich können die Informationsträger mit Verhaltensweisen versehen werden, um diese für die Gegebenheiten der jeweiligen Simulation anzupassen. Das Werkzeug wurde im Verlauf mehrerer Monate erstellt und regelmäßig an einer bestehenden Simulation, in der virtuelle Fallschirmsprünge gemacht werden können, getestet und weiterentwickelt. Schließlich wurde das System an Unity-Entwickler weitergereicht, sowie auf Verwendbarkeit und Einfachheit überprüft. Die Entwickler konnten sich schnell in das System einarbeiten und innerhalb geringer Zeit eine virtuelle Simulation erstellen, in der sich vier Informationsträger befinden. Mit dem bestehenden System lassen sich viele verschiedene Simulationen, in denen sich der Benutzer auf einem vordefinierten Pfad bewegt und währenddessen Informationen präsentiert bekommt, schnell und einfach erzeugen.

Diplomarbeitsposter Hofmann-Wellenhof Johannes

Johannes Hofmann-Wellenhof

Masterstudium Visual Computing
Abstract:

Der schnelle Entwicklungsfortschritt im Bereich von Grafik- und Prozessorleistung bei eingebetteten Systemen ermöglicht Augmented Reality-Visualisierungen im Fahrzeug. Die Automobilbranche hat durch die vorhandenen finanziellen Mittel das Potenzial, die Entwicklung im Bereich von Augmented Reality voranzutreiben. Dieses Interesse besteht vor allem deswegen, weil laufend nach Weiterentwicklungen bei Fahrerassistenzsystemen gesucht wird. Das Ziel dieser Systeme ist es, den Fahrer bei der Fahraufgabe zu unterstützen, um die Sicherheit im Straßenverkehr zu steigern. Augmented Reality könnte hierbei in Zukunft eine wichtige Rolle spielen. Noch gibt es keine serienreife Umsetzung von Augmented Reality im Fahrzeug, jedoch haben viele Fahrzeughersteller das Potenzial schon erkannt. Augmented Reality bietet die Möglichkeit, Informationen für den Fahrer schnell und kontextsensitiv zu visualisieren indem die Realität mit virtuellen Elemente erweitert wird. In dieser Arbeit werden intuitiv verständliche Augmented Reality-Visualisierungen präsentiert, die für den Fahrer auf eine nicht-invasive Weise Informationen visuell aufbereiten. Das Hauptaugenmerk liegt dabei auf der Warnung vor unmittelbar drohenden Gefahren. Durch die kontaktanalogen visuellen Warnhinweise kann der Fahrer die vorliegende Situation schnell einschätzen und darauf reagieren. Es wird eine Augmented Reality-Visualisierung zur Abstandsindikation vorgestellt, die mit einer Adaptive Cruise Control-Anzeige erweitert werden kann. Des weiteren wird eine Warnung für auf die eigene Fahrspur einscherende Verkehrsteilnehmer und eine Geschwindigkeitsanzeige präsentiert. Bei all diesen Umsetzungen von Augmented Reality ist es eine Herausforderung, eine perspektivisch korrekte Überlagerung und eine perfekte Szenenintegration der virtuellen Elemente zu gewährleisten. Die präsentierten Konzepte werden in einem Benutzerakzeptanztest und einer anschließenden statistischen Auswertung untersucht.

Diplomarbeitsposter Paula Stefan

Stefan Paula

Masterstudium Medieninformatik
Abstract:

Die vorliegende Diplomarbeit nutzt die Möglichkeiten der Informatik um Lärmbelastung im Alltag sichtbar zu machen. Im Mittelpunkt der Arbeit steht ein Prototyp, welcher es ermöglicht, die individuelle Exposition aufzuzeichnen und auf einer Karte nachzuvollziehen. Dieser umfasst eine mobile Sensorkomponente (Noise-O-Meter), einen zentralen Server sowie eine kartografische Visualisierung (Noise Map) zur Präsentation. Die Noise Map ist eine Web Map, welche Lärmmessungen anhand grafischer Repräsentationen darstellt und Interaktionsmöglichkeiten zu deren Untersuchung bietet. Durch die Umsetzung dieses Prototyps wird die Realisierbarkeit einer durch Individuen befüllbaren Lärmkarte (Participatory Sensing) bewiesen. Es wird der Frage nachgegangen, ob mit Hilfe dieses Konzepts die Limitationen herkömmlicher Lärmvisualisierungen überwunden werden können. In einem iterativen Prozess wurde mittels umfangreicher Literaturrecherche sowie einer Analyse inhaltlich verwandter Projekte ein Softwareentwurf erstellt auf dessen Basis die Implementierung des Prototyps erfolgte. Diese umfasst Erweiterungen an der Noise-O-Meter Android Applikation, Entwurf und Entwicklung einer Java Web Applikation mit standardisierter REST Schnittstelle sowie Entwurf und Entwicklung der Noise Map. Wichtige Verbesserungen bezüglich Bedienbarkeit und Lesbarkeit konnten durch eine ausführliche Evaluation erzielt werden. Der realisierte Prototyp zeigt, dass Lärmvisualisierung aus der Fußgängerperspektive über Participatory Sensing möglich ist und das Potenzial birgt, individuelle Betroffenheit sichtbar zu machen.

Diplomarbeitsposter Sedlmayr Jan

Jan Sedlmayr

Masterstudium Software Engineering & Internet Computing
Abstract:

Die Anzahl von übergewichtigen und fettleibigen Kindern ist innerhalb der letzten Jahre dramatisch angestiegen. Körperliche Betätigung hilft Fett abzubauen und arbeitet gegen diesen Trend. Diese Diplomarbeit beschäftigt sich mit der Entwicklung einer Smartphone-App, die verschiedene Arten sportlicher Aktivitäten verifizieren kann und dafür Punkte verteilt. Diese Punkte können dann später verwendet werden, um etwa zusätzliche Funktionen in Smartphone-Spielen freizuschalten. Die App verwendet den GPS- und Beschleunigungssensor von Smartphones um Lauf- und Radsportaktivitäten aufzunehmen, extrahiert wichtige Kennzahlen aus diesen Daten und klassifiziert die Aufnahmen anschließend. Das Hauptaugenmerk der App liegt auf dem Unterscheiden zwischen echter und vorgetäuschter Durchführung von Aktivitäten, um den Wert der verteilten Punkte sicherzustellen. Da die Sensoren verschiedener Smartphone-Modelle oft unterschiedliche Werte messen, beschäftigte sich der Großteil des Entwicklungsprozesses mit dem Selektieren und Kalkulieren der wichtigsten Attribute sowie dem Finden des geeignetsten Klassifizierungsalgorithmus’ für unsere App, welches mittels Sammeln von Daten, Durchführen von Tests und Evaluierung der Ergebnisse erreicht wurde. Die durch die Fouriertransformation erhaltenen Spektralfeatures waren die aussagekräftigsten und die Anwendung des „Naive Bayes“-Classifiers lieferte die besten Ergebnisse mit einer richtigen Klassifizierung von 80% aller Testdaten. Durch die Implementierung einer Überprüfung, die für eine Lauf- oder Radsportaktivität nur dann Punkte vergibt, wenn die Durchschnittsgeschwindigkeit mehr als drei km/h betragen hat, kann die App nicht durch bloßes Schütteln des Smartphones getäuscht werden. Ein weiterer Test stellt sicher, dass die durchschnittliche Klassifikationsrate für aufgenommene Aktivitäten über 50% gelegen hat, was den Erhalt von Punkte durch Herumfahren in Fahrzeugen verhindert.

Diplomarbeitsposter Urbanek Michael

Michael Urbanek

Masterstudium Medieninformatik
Abstract:

Audio games are a subcategory of computer games that have spatialized audio as the only output that their players receive. In order to provide a compelling impression of the environment, sound in audio games has to be of superior quality in terms of immersion and realism. For improving the immersion and realism in audio games, complex sound models can be used to generate realistic sound effects, including reflections and reverberation. An implementation of a hybrid sound model similar to the ODEON approach is introduced and adapted for real-time sound calculations. This model is evaluated and compared to a baseline model usually used in audio games in a user study in a virtual reality environment. The results show that the implemented hybrid model allows players to adjust to the game faster and provides them more support in avoiding virtual obstacles in simple room geometries than the baseline model. Complex sound models are beneficial in audio games, provided that there is enough computational resources available to perform calculations in real time.

Diplomarbeitsposter Weilharter Manuela

Manuela Weilharter

Masterstudium Software Engineering & Internet Computing
Abstract:

Over the last years, smartphones have evolved to an important computing platform. Cities therefore offer mobile applications to provide visitors with guidance and support to boost the tourism industry. There are a lot of available tourist applications for Vienna, but they tend to focus on accommodation, navigation, social services or marketing instead of providing information for sightseeing. This master thesis focuses on the sightseeing aspect for tourists and presents an application for the Android platform which offers location-based information on sights in Austria, Germany, Switzerland and Liechtenstein. A back-end information retrieval application was created to gather the content automatically from Wikipedia and to provide an interface for the front-end to obtain the data with an update. This enables an offline usage of the Android application to avoid roaming charges. The main feature of the Automatic Tourist Guide (ATG) is the intuitive guide which makes it possible for the user to walk through the city enjoying the view while the application delivers the relevant information via text-to-speech whenever a point of interest (POI) is passed. This is achieved by determining the exact location of the user and then computing the nearby POIs using a distance calculation algorithm. Furthermore, the ATG provides a map with all available sights and the route to the nearest attraction. The user is also able to choose categories in which he is interested in and will be presented only with content regarding his preferred subjects. In addition, there are three different versions of the content available: the unabridged text, a summarization of the most valuable information and a brief overview with only one paragraph.

Arbeitsbereich Business Informatics

Diplomarbeitsposter Brunflicker Uwe

Uwe Brunflicker

Masterstudium Business Informatics
Abstract:

Die Verbreitung von Model Driven Development (MDD) hat zu einem erhöhten Interesse an der direkten Ausführung von Modellen geführt. Die vorherrschende Modellierungssprache im MDD-Bereich ist die Unified Modeling Language (UML). Jedoch verursaucht das Fehlen einer vollständigen und präzisen Definition des Ausführungsverhaltens von UML Modellen Inkompatibilitäten zwischen Ausführungswerkzeugen und -umgebungen für UML. Eine mögliche Lösung für dieses Problem ist der Foundational Subset For Executable UML Models (FUML) Standard der Object Management Group (OMG). Dieser Standard ist eine Erweiterung des UML Standards, die das Ausführungsverhalten einer Teilmenge von UML definiert. FUML findet bislang jedoch nur geringe Anwendung in kommerziellen UML Werkzeugen. Diese Diplomarbeit untersucht die Möglichkeit, FUML in ein existierendes UML Ausführungswerkzeug zu integrieren, um zur Verbreitung von FUML beizutragen. Insbesondere werden die Herausforderungen, die durch eine solche Integration entstehen, untersucht. Folgende wissenschaftliche Fragestellungen werden behandelt: 1. Ist es möglich, FUML in ein existierendes UML Ausführungswerkzeug zu integrieren? Welche Herausforderungen entstehen hierbei? 2. Stellt die standardisierte Ausführungsumgebung von FUML dieselbe Funktionalität wie eine proprietäre Ausführungsumgebung zur Verfügung? 3. Ist die Performanz der standardisierten Ausführungsumgebung von FUML vergleichbar mit jener einer proprietären Ausführungsumgebung? Um diese Fragen zu beantworten, wurde ein Prototyp entwickelt, der FUML in das UML Ausführungswerkzeug Enterprise Architect (EA) integriert. Das Ziel des Prototypen ist es, das Ausführen und Debuggen von UML Zustandsautomaten und Sequenzdiagrammen mittels der Ausführungsumgebung von EA zu ermöglichen, und zwar in Kombination mit der Ausführung von UML Aktivitätsdiagrammen mittels der Ausführungsumgebung von FUML.

Diplomarbeitsposter Eischer Bernhard

Bernhard Eischer

Masterstudium Business Informatics
Abstract:

Transformation is an important field of software migration and modernization. Although transformation is the purest form of migration, because the conversion takes place in a 1:1 form, there are also some strong arguments why a transformation could face a lot of difficulties and challenges. The superior problem is that a transformation, regardless of whether code, model or data has to be transformed, is only as good as the tool and the underlying transformation library is. So there are many challenges to overcome, like the deep understanding of the source and target technology, the mostly very complex task of the mapping between them, as well as the financial effort. This master thesis focuses on the architecture and techniques of a source code transformation with Java. Based on an simple transformation Library called SiTra and an already existing PL/1/Cobol to Java Transformer, improvement especially by adding new Java 8 features and adaption to the architecture, should lead to a better performance of the transformation and a better readability and maintainability of transformation code. The findings should result in a library called Java Transformation Library (jTL). To test and demonstrate parts of the jTL, a transformation of PL/I source code to Java source code should serve as examples. There is also a special interest in transforming legacy code to state-of-the-art programming language, since the challenge of migrating over decades growing legacy software application is a well-known problem since many years in industry. A well-designed transformation can be the answer to this problem or at least can act as a main element of source code migration.

Diplomarbeitsposter Hiesinger Martina Maria

Martina Maria Hiesinger

Masterstudium Informatikmanagement
Abstract:

Die Interdisziplinarität der Wirtschaftsinformatik zwischen Wirtschaftswissenschaften und Informatik und die damit verbundene Vielzahl an möglichen Lehr- und Forschungsgegenständen begründen vielfältige Gestaltungsmöglichkeiten für Studienplaninhalte, die, nicht zuletzt auch aufgrund der zunehmenden Universitätsautonomie notwendigen Positionierung im Wettbewerb, einen Vergleich von Lehrinhalten im Sinne eines Benchmarkings nahelegen. In der vorliegenden Magisterarbeit wird daher primär der Frage, welche Modulinhalte des Bachelorstudiums Wirtschaftsinformatik an der Technischen Universität von Studienplaninhalten anderer ausgewählter Universitäten in welchem Maße divergieren, nachgegangen. Die vergleichende Analyse von Studienplänen umfasst den Studienaufbau und Lehrinhalte und erfolgt qualitativ anhand vorab definierter Kategorien und eines Bewertungssystems für die inhaltliche Übereinstimmung. Die Analyseergebnisse wurden pro Prüfungsfach ausgewählten Experten der TU Wien präsentiert und deren Feedback eingearbeitet.

Diplomarbeitsposter Mätzler Emanuel

Emanuel Mätzler

Masterstudium Medizinische Informatik
Abstract:

Variabilität spielt in modernen Produkten eine zunehmende Rolle. Kunden erwarten sich individuelle Produkte, die ihre speziellen Anforderungen erfüllen. Daraus folgt eine zunehmende Herausforderung in der Produktentwicklung, geprägt durch die Vielzahl an Produktkonfigurationsmöglichkeiten und die daraus resultierende Komplexität. Aus diesem Grund ist zur Auswahl geeigneter Varianten eine adäquate methodische Unterstützung durch Informationssysteme unabdingbar. Besonders schwierig ist der Umgang mit Kundenanforderungen, wenn sie von denen eines durchschnittlichen Benutzers abweichen. Ein Problem, wie es vor allem bei der (Weiter-) Entwicklung von medizinischen Produkten oft der Fall ist. In dieser Domäne resultieren individuelle – vom Durchschnittsbenutzer oft stark abweichende – Anforderungen an ein Produkt meist aufgrund gesundheitlicher Einschränkungen des Endnutzers. Zurzeit ist es nicht möglich, diese individuellen Anforderungen bei der Konfiguration von Varianten zu berücksichtigen. Diese Arbeit beschreibt eine Methode, mittels der Produktvariabilität bewertet und evaluiert werden kann. Zu diesem Zweck werden das House of Quality und Feature Models kombiniert. Die Zusammenführung von Konzepten beider Techniken verwenden wir, um sie für eine benutzerorientierte Evaluierung von variablen Produkten zu adaptieren. Zur Veranschaulichung der Vorgehensweise und als Proof-of-Concept wird eine Fallstudie aus dem Bereich Health Care mit der vorgestellten Methode durchgeführt. Dadurch soll die praktische Durchführbarkeit und Relevanz der Methode geprüft werden. Im Anschluss an die Fallstudie wird diese evaluiert, wodurch zusätzliche Problemfelder und noch offene Fragen identifiziert werden. Zu diesem Zweck wurde die Arbeit bei einem internationalen Workshop für Variantenmodellierung vorgestellt. Zusätzlich wurden Interviews mit Experten aus dem Bereich Variantenmodellierung durchgeführt.

Arbeitsbereich E-Commerce

Diplomarbeitsposter Hareter Bernd

Bernd Hareter

Masterstudium Business Informatics
Abstract:

The life-cycle of a new wine year in Austria begins shortly after grape harvesting. A large part of the working steps in the vineyards are supported by technical device. In these early steps of work not much data has to be gathered. Only after the start of grape harvesting much information about the wines e.g. quantity and gradation has to be recorded. After harvesting the wine has to mature and to be tasted now and then to eliminate potential wine faults. During the process of maturing a huge amount of data arises. In the end, bottling is the last step in the wine production cycle. All of these steps are supported by ERP solutions for wineries and the information can easily be stored and accessed within them. After the production cycle the important process of marketing and sales begins. Sales processes in the wine industry can be either classical via retail stores or via e-commerce processes. They need on the one hand many information from production processes such as quantity, alcohol or residual sugar. On the other hand there also arise much new information such as quantity of bottles, sales data and many more. Although the ERP systems support some parts of sales processes they leak in data communication with other sales systems. Data gathered in those has to be maintained manually. Administrative data can also be forwarded to governmental departments online but the data exchange between ERP system and e-government tool happens manually this present day. For that reason the task of this Master Thesis is to develop a communication interface called WineDataXchng Interface for wine data. Because of complex and versatile data structures for storing wine information we divide the analysis of the Austrian wine market into three subparts: Survey on computer supported viticulture, analysis of cellar management applications and a web fitness analysis. The knowledge of these analyses are aggregated while developing the interface and a working prototype.

Diplomarbeitsposter König Peter

Peter König

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Eine der Hauptaufgaben des Service-Level-Management-Prozesses ist es, die Qualität der vom IT-Dienstleister gelieferten IT-Services zu messen. Jedoch haben die hierbei festgesetzten Messkriterien häufig keinen Bezug zu den Geschäftsprozessen, die diese IT-Services unterstützen. BDIM (Business-Driven IT-Management) versucht diese Lücke zu schließen, indem es Abhängigkeiten zwischen IT-Lösungen und Business-Leistungen abbildet, quantifiziert und die gewonnenen Ergebnisse zur Qualitätsverbesserung der IT-Lösung bzw. der daraus resultieren-den Business-Leistungen verwendet. Zunächst werden im Rahmen einer Literaturrecherche die Anforderungen an den Service-Level-Management-Prozess sowie relevante Methoden aus dem BDIM-Themenbereich recherchiert. Anschließend erfolgt die benutzerzentrierte Konzeption eines BDIM-Dashboards für den Service-Level-Management-Prozess. Hierbei werden zuerst die Anforderungen an eine BDIM-Lösung im Service-Level-Management mit Hilfe von Experteninterviews erhoben und klassifiziert. Zusätzlich wird mit Hilfe der Experten der Geschäftsprozess der Online-Kreditvergabe als potenzielles Szenario modelliert und die zuvor recherchierten BDIM-Methoden darauf angewandt. Ausgehend von dem Online-Kreditvergabe-Szenario wird in einer ersten Iteration ein papierbasierter Lo-Fi Prototyp gestaltet und von potenziellen Anwendern evaluiert. In einer zweiten Iteration werden zunächst Testdaten in Form von IT- und Business-KPIs simuliert, sowie eine Softwarearchitektur und ein Hi-Fi Prototyp entworfen. Abschließend erfolgt eine Evaluierung der im Prototyp umgesetzten Anforderungen mittels Usability-Test.

Diplomarbeitsposter Lorena Patricia Nisperuza

Nisperuza Lorena Patricia

Masterstudium Information & Knowledge Management
Abstract:

Due to the increasing use of internet in the last decades it has been more visible a considerable growth in the request of formal and informal virtual studies, with the main objective to facilitate to a wide range of people at the same time an education access. For this reason it has grown the quantity of educational institutions that participate in new learning options with high quality standards, as well as new options have emerged with the last goal to improve the students learning under the idea to motivate, to engage and to increase the students participation. Under this premise arose the digital badges concept in order to offer to lecturers and learners a new assessment system as complement to the already existing. The principal contribution is related to the student motivation into the learning environment by presenting her/him a clear path of the objectives to achieve: by giving a visual evolution, by facilitating the information sharing and by allowing the learner to show their own online and digital achievements to everybody. It was extracted the potential application of this tool through specific steps previously studied through the analyze of the existent research and literature in this area, with the purpose to evaluate their characteristics, efforts, procedures and results; in such way, the parts involved into the system were examined, the main motivations for its use and implementation, specifically in which way the learning process could be improved, which kind of skills as well as the academic effort have been awarded and the necessary technical consideration and changes to make. Based on this idea, four scenarios were suggested in which digital badges could be applied into a lecture at the university. The final part of this study contributed with the design of a prototype of a badging system as complement to the existing assessment system. This design have been simulated for one case scenario in order to present its functionality.

Diplomarbeitsposter Müllner Armin

Armin Müllner

Masterstudium Business Informatics
Abstract:

Social Media is a phenomenon which has increasing user numbers. One interesting platform to investigate is Twitter, as the usage is not that high as the usage of other platforms. But as the numbers are rising in the past, it is interesting how this platform is used within a specified area like Austria. Although Twitter is a microblogging platform there are only some characteristics of normal blogging valid for Twitter. In my thesis I crawled Twitter data from Austria and the surrounding border areas within two timeframes (April 2014, June 2014). To define trends and sentiments for the dataset I used several text mining methods. To get insights into the data, I performed several analyses: First, I performed an overall analysis on the dataset. I found out, that tweets are clustered around big cities. Another observation is, that most tweets are published in English or German, but overall many different languages are used to publish a tweet. I also analyzed sentiments and trends for the Twitter data. The overall sentiment is positive. The trends for the dataset mostly contain location terms but also represent real life events. To perform regional analysis the data was clustered into eight regions. The regions were defined as quadrants, each of equal size. One observation of the regional analysis is, that trends and sentiment differ in each region. Only a few trends are present in more regions, but also there no regularity can be observed. The results proof that the usage of Twitter is highly dependent on the region where the tweets are posted. In the end of the work I conclude the results and summarize the results from this work.

Diplomarbeitsposter Pitschadell Robert

Robert Pitschadell

Masterstudium Informatikmanagement
Abstract:

Probleme bei Projekten sind leider oft an der Tagesordnung. Damit erfolgreiche Lö-sungsvorschläge oder Auswege zu finden, ist nicht so einfach. Deshalb ist es umso wichtiger, Erfahrungen bei bereits gemachten Projekten zu sammeln und auch ein-fach in der richtigen Situation zum richtigen Zeitpunkt wiederzufinden. Fallbasiertes Schließen, aus dem Bereich der künstlichen Intelligenz, bietet ein rela-tiv einfaches und flexibles Konzept an, um in einem stark wissens- und erfahrungs-basiertem Bereich, sich erfolgreich anzunehmen. Wichtige Grundlage ist eine leistungsfähige Fallbasis, die im höchsten Level mit einer wissensbasierten Ontologie aufgebaut ist. Diese Kombination der 2 Themen, Projekt-Management mit deren Problemen und Lösungsansätze mit Hilfe von CBR sollen in einer Übung zu einer Bereicherung und Aufbereitung der gesamten Vorlesung darstellen. Es wurde ein Prototyp entwickelt, der Projekterfahrungen sammelt und während der Durchführung neuer Projekte wieder anbietet.

Diplomarbeitsposter Ramadani Vigan

Vigan Ramadani

Masterstudium Medieninformatik
Abstract:

Projektmanagement beinhaltet viele komplexe Faktoren, welche über den Erfolg eines Projektes entscheiden. Im Rahmen eines Projektes wird neues Wissen generiert und Erfahrungen werden gesammelt. Dabei dürfen das neu gewonnene Wissen und die Erfahrungen nach dem Projektabschluss nicht verloren gehen. Mitarbeiter müssen entsprechend motiviert werden dieses neu gewonnene Wissen und die gesammelten Erfahrungen zu dokumentieren. Innerhalb dieser Arbeit wurden Projektmanagement sowie Cased-Based Reasoning (CBR) Grundlagen behandelt, welche die theoretische Basis für einen CBR-Prototyp darstellen. Außerdem wurden in dieser Arbeit die wichtigsten Einflussfaktoren für die Bewertung des Projekterfolgs anhand verschiedener Studien erarbeitet. Diese Einflussfaktoren sind ausschlaggebend für die Umsetzung des Cased-Based Reasoning Prototyps, mit dessen Hilfe analysiert wurde, wie Wissen und Erfahrungen von Projekten verwaltet und anhand der Einflussfaktoren Projekte miteinander verglichen werden können. Zudem wurde analysiert, wie man Mitarbeiter zur Dokumentation von Projektwissen und Erfahrungen motivieren könnte. Mittels der prototypischen Umsetzung einer CBR-Applikation wurde versucht der Fragestellung Genüge zu tun. Der Prototyp ermöglicht das Anlegen von Projekten und den Vergleich mit Projekten aus der Vergangenheit. Zusätzlich wurde ein Punktesystem integriert, womit man Benutzer zu mehr Mitarbeit motivieren kann. Zum Abschluss wurde nach der Analyse der Ergebnisse erläutert, um welche Funktionalitäten der Prototyp sinnvoll erweitert werden könnte. Der Prototyp sowie die Erfahrungen in der Entwicklung der CBR-Applikation im Rahmen dieser Diplomarbeit sollen für Übungen im Bereich Wissensmanagement in der Lehre dienen.

Diplomarbeitsposter Rezaei Maryam

Maryam Rezaei

Masterstudium Information & Knowledge Management
Abstract:

Location Based Social Networks (LBSN) can be a huge benefit in education, since the majority of users are university students. They bring students and educators together through the collaboration, the ability to share innovative ideas, giving recommendations, blogging and online learning. In this thesis it shall be investigated how LBSNs can be used in higher educational environments such as university. The first part of this work deals with analyzing different LBSNs, extracting the nature, features and concerns of such systems. This is done through a brief literature study on this topic and existed approaches in this area. It is determined how these social networks have been used or implemented for the purpose of learning in different fields. The second challenge is to demonstrate how using a LBSN application on mobile phone would benefit various users in this domain and how it can motivate the entire stakeholder to implement, invest, and use such an application. It is discussed how this method along with gaming aspect of social networks, to compare with traditional learning methods, would higher students motivation and can influence their participation in learning environments. It is considered how awarding users with digital badges in social networks will make it possible to evaluate and recognize many skills and competencies which cannot be evaluated in classical learning methods. Therefore different scenarios are presented as use cases of adopting a LBSN for a lecture or exercise class at a university. Furthermore it is discussed if applying an already existing application would be convenient for implementation of mentioned scenarios. The later chapters of this thesis deal with providing a prototypical design of a LBSN application for mobile phones, including declaration of requirements, features, locations, possible badges and the data model. The proposed prototypical design is then implemented for a case scenario to show how the prototype works.

Andere Institute der Technischen Universität Wien

Institut für Diskrete Mathematik und Geometrie

Diplomarbeitsposter Baumhauer Thomas

Thomas Baumhauer

Masterstudium Computational Intelligence
Abstract:

Im ersten Kapitel zeigen wir, dass, wenn ZFC widerspruchsfrei ist, auch ZFC plus ZFC relativiert auf eine abzählbare, transitive Menge widerspruchsfrei ist. Um das zu beweisen zeigen wir, dass jede Formel in einer abzählbaren, transitiven Menge reflektiert wird und verwenden ein Kompaktheitsargument. Im zweiten Kapitel entwickeln wir die Forcing-Methode von Cohen. Wir benutzen dazu Boolsche Algebren. Wir zeigen wie man Halbordnungen in Boolsche Algebren einbettet, definieren Modelle von ZFC mit Boolschen Wahrheitswerten und zeigen wie aus solchen Modellen, durch Ausfaktorisieren nach einem generischen Filter, gewöhnliche Modelle mit binären Wahrheitswerten werden. Schließlich beweisen wir das Forcing-Theorem. In den folgenden Kapiteln zeigen wir die Unabhängigkeit verschiedener Aussagen von ZFC. Darunter sind die Kontinuumshypothese, die Suslin-Hypothese und das Karo-Prinzip. Weiters zeigen wir, wie man die Forcing-Methode transfinit wiederholt. Schließlich benutzen wir die wiederholte Forcing-Methode um die Widerspruchsfreiheit des Martinschen Axioms zu beweisen.

Institut für Wirtschaftsmathematik

Diplomarbeitsposter Kiennast Alexander

Alexander Kiennast

Masterstudium Business Informatics
Abstract:

This thesis explores the role of credit rating agencies (CRAs) on the financial market. The history, structure and business model of the rating industry will be examined, based on an extensive study of relevant literature, also including working papers and legislation by public authorities. Based on these overviews, it will be examined in how far external credit ratings of bad quality can have a destabilising influence on the markets and what might be the reasons for biased ratings. As a consequence it will be shown, that conflicts of interest, together with related dynamics, do indeed factor into the ratings released by CRAs, which in turn deteriorates market stability. Building on this, various possible ways to address these concerns will be presented and evaluated. The ideas of a changed remuneration system for rating agencies, of an European intermediary rating platform and of supplementing external ratings in legislatory frameworks with market measures will be specifically discussed. These topics will then form the basis of an agent-based model in NetLogo. This model will be used to simulate the dynamics that credit ratings induce in the financial market as well as the potential impact of the reform concepts described in the preceding chapter. The evaluation of this simulation model and its results in context of the theoretical part of the paper will then form the conclusion of the thesis.

Institut für Geoinformation und Kartographie

Diplomarbeitsposter Hinterberger Beate

Beate Hinterberger

Masterstudium Informatikmanagement
Abstract:

The idea of Open Government Data (OGD) is, to make government data available for the public, free of charge and with minimum constraints for reuse. This shall facilitate new business opportunities, enhance government transparency, encourage citizen engagement and distribute the costs of government data processing to communities. This thesis evaluates, if the Open Government Data offers of the municipalities of Vienna and London can be considered as a replacement for commercially available data. The value of the freely available data will be evaluated by applying two business scenarios of decision support based on spatial data. These are a store location planning and the positioning of mobile communication infrastructure. The thesis investigates, if the OGD portfolios offered by Vienna and London are comparable concerning this application although they follow different approaches for realisation. The thesis comes to the conclusion that Open Government Data like it is published in the data catalogues of Vienna and London can be used to get an overview on the situation in the two cities. Some of the datasets are suitable for detailed analysis as well, like for example the land use data in Vienna or the data on income in London that can replace the commercial dataset on spending capacity. For a detailed analysis, most of the published datasets are either not detailed enough in terms of spatial resolution, do not contain required attributes or are simply outdated.

Department für Raumplanung

Diplomarbeitsposter Jungwirth Michaela

Michaela Jungwirth

Masterstudium Business Informatics
Abstract:

The processing of personal data in numerous Web 2.0 platforms, mostly willingly divulged by users as well as the legal impacts on European level and especially in Austria were decisive for the choice of my topic. This paper aims to demonstrate legal and social impacts when losing control over personal information of private persons. As already enshrined in the title of my master thesis, the time period for my research starts at the era of Big Brother in the 1970¿s up to now, which is called the era of Big Data. The first two chapters include all definitions, which form the basis of my research. To understand the development and features of Big Data, these chapters include definitions of privacy, data protection and personal data. My thesis also covers the development of society in conjunction with the enactment of applicable Austrian laws, as well as regulations and directives of the European Union concerning data protection of personal information. Besides that, the existing data protection mechanisms and approaches are taken into account. In this context the Austrian Data Protection Act is an important source of information. However, since these legal conditions are partially outdated, I pointed out obsolete and insufficient parts. Furthermore, I paid particular attention to personal data used in cloud computing, web-tracking, video surveillance and Big Data. In order to establish a connection to the real life examples, I also concentrated on "Hot topics". Finally, I published my research results in a blog, to open the social development and the current legal situation in a clear and understandable way to the public.

Diplomarbeitsposter Strasser Patric

Patric Strasser

Masterstudium Medizinische Informatik
Abstract:

Das Aufkommen des Internets und die vollständige Durchdringung aller Bereiche durch Netzwerktechnologie und -kommunikation ist bis heute eine schwer zu erfassende Tatsache. Einen guten Teil für den unglaublichen Erfolg liefern die mobilen Geräte. Das „Tandem“ aus Internet und Smartphone ist aus dem täglichen Leben kaum noch wegzudenken. Das Sammeln von personenbezogenen Daten wurde über die Jahre zur Prämisse für alle modernen Unternehmen. Dadurch lassen sich noch genauere Personenprofile erstellen, um noch exaktere Werbung zu generieren. Dies ist ein großes Verkaufsargument, da zielgerichtete Werbung weniger Streuverlust bietet und somit effizienter ist. Doch auch abseits der Werbeindustrie sammeln die neuen Anbieter fleißig Daten. Angefangen von immer verfügbaren Datenspeichern im virtuellen Raum, der sogenannten Cloud, bis hin zu Fitness und Healthcare Applikationen für unterwegs ist alles verfügbar. Dies bietet allerdings speziell im Bereich des Datenschutzes erhebliche Risiken, da weder der Gesetzgeber noch der Bürger auf solche Situationen in jeglicher Form vorbereitet war und noch immer nicht ausreichend ist. Nachteilig für die Privatperson wirkt sich zusätzlich die Tatsache aus, dass Unternehmen oft wesentlich schneller auf neue Situationen und Möglichkeiten reagieren als der Gesetzgeber. Obendrein ist die derzeitige inhomogene Rechtslage im Bereich des Datenschutzes innerhalb der Europäischen Union äußest nachteilig für rechtliche Klarheit. Datenexporte in unsichere Drittländer, zu welchen auch die Vereinigten Staaten von Amerika gezählt werden müssen, sind darüber hinaus ein sehr heikles und komplexes Thema und bieten daher zusätzlichen Zündstoff. Daher ist es Ziel dieser Diplomarbeit, die aktuelle Rechtslage zu analysieren und danach auf dieser Grundlage eine Testanordnung zu schaffen, welche exemplarisch mobile Fitness-Anwendungen auf Datenschutzrisiken untersucht.

Institut für Managementwissenschaften

Diplomarbeitsposter Akbulut Gülhan

Gülhan Akbulut

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Am österreichischen IT-Arbeitsmarkt fällt der Mangel an technischem Fachpersonal auf. Aufgrund bevorstehender Pensionierungen und nachfolgender geburtenschwacher Jahrgänge wird sogar ein zunehmender Fachkräftemangel erwartet. Angesichts des postulierten Fachkräftemangels wird der Ruf nach mehr gut ausgebildeten Arbeitskräften lauter. Gleichzeitig absolvieren jedes Jahr ca. 600 Studentinnen ein Studium an der TU Wien, ein großer Teil davon sucht danach nach einem adäquaten Arbeitsplatz. In dieser Arbeit wird daher untersucht, inwiefern Studierende der Technischen Universität Wien in ihrem Studium auf implizite, versteckte Barrieren treffen, wobei der Fokus dabei auf Nicht-Mehrheitsösterreicherinnen liegt. Es wird untersucht, welche Probleme sie als Nicht-Mehrheitsösterreicherinnen haben, wenn sie eine technische Ausbildung machen und welche Maßnahmen auf der TU Wien getroffen werden können, um den Berufseinstieg für diese qualifizierten Studentinnen besser zu gestalten. Im Zentrum der Forschung stehen TU Studentinnen muslimischen Glaubens, die Migrationshintergrund aufweisen, da ihre Wurzeln im Ausland liegen. Beschränkt wurde die Untersuchung auf Frauen, die Kopftuch tragen. Der erste Teil der Arbeit umfasst wichtige Begrifflichkeiten und einen Literaturüberblick über den aktuellen Forschungsstand zum Thema. Um die Barrieren und Herausforderungen aus Sicht der Studentinnen mit Kopftuch einerseits im Studium und andererseits in der Arbeitswelt zu bestimmen, wurden im zweiten Teil der Arbeit acht semistrukturierte Interviews transkribiert. Anschließend erfolgte die Textanalyse mittels der Qualitativen Inhaltsanalyse nach Mayring. Die Ergebnisse zeigen, dass Studentinnen mit Kopftuch im Laufe ihres Studiums als auch im Laufe ihres berufliche Werdegangs diskriminiert werden. Im letzten Teil werden die zentralen Problemfelder zusammengefasst und Maßnahmen im Rahmen des Diversity Managements, welche bereits in der Unternehmenspraxis Realität sind, diskutiert.

Diplomarbeitsposter Haidenbauer Alfred

Alfred Haidenbauer

Masterstudium Business Informatics
Abstract:

Companies aim for a high usability of their products, as a higher usability increases profit, reduces costs, retains existing users and attracts new users. To reach this aim, it is necessary to include the needs and requirements of (already existing and prospective) end-users in the design process, this approach is also known as user-centered-design. This approach ensures that all users can use the system equally well and is therefore the central issue of this master thesis, which was be accomplished in the context of the project GE:MMaS at the department of Labour Science and Organization at the Institute of Management Science of the Vienna University of Technology. In this master thesis, the user requirements of computer-controlled laser engraving systems were evaluated. The data for this survey were collected in focus group discussions with users of Trotec Lasers systems. Altogether three group discussions took place, each with a different kind of user groups – female operators, male operators and supervisors. The aim of this analysis is to determine differences between the different user groups. To raise the grade of objectivity of the analysis, two investigators evaluated the collected data. The content of the focus group discussions were recorded by dictaphones and cameras and transcribed. This transcription provided the basis for a content analysis, where the data was evaluated systematically. The data was unitized into units of sense and allocated into a category system, which was developed theory-driven as well as according to the material.

Diplomarbeitsposter Moser Christoph

Christoph Moser

Masterstudium Business Informatics
Abstract:

For examining the factors that affect innovation in particular industries or sectors the sectoral system of innovation framework gained high significance. We applied the framework together with the triple helix model of university-industry-government relations on the Austrian software sector to investigate its characteristics and success factors. Therefore we analysed its innovation performance based on self-assessment as well as on the following innovation success measures: Number and share of new developed products and services, share of turnover through new developed products and services and share of profits through new developed products and services. Our results show that Austrian software companies generally achieve a high innovation performance and are also accordingly satisfied with their innovation success and capabilities. Regarding the effect of cooperation with universities and government institutions in innovation projects, we could show that cooperation has a positive effect on the innovation performance of Austrian software companies.

Diplomarbeitsposter Pfeffer Günther

Günther Pfeffer

Masterstudium Business Informatics
Abstract:

Die Arbeit behandelt das Thema der automatisierten Erkennung von Emotionen in text-basierten Verhandlungen. Entsprechende Möglichkeiten werden von theoretischem Standpunkt aus erörtert und im Anschluss exemplarisch implementiert. Hierfür wird ein Datensatz herangezogen, welcher textuelle Nachrichten von Verhandlungen zwischen zwei fiktiven Unternehmen beinhaltet. Jede Nachricht dieses Datensatzes ist mit mittels Multidimensional Scaling ermittelten Werten für Valence und Activation versehen, entsprechend dem sogenannten „Circumplex Model of Affect“ nach Russell. Basierend auf diesen Werten werden für sämtliche Nachrichten Klassen je nach Radius und Lage im bipolaren, zweidimensionalen Raum des Circumplex abgeleitet. Die notwendigen Schritte der Textanalyse werden in Anlehnung an das Textanalyse-Framework von Aggarwal und Zhai evaluiert, wobei die Repräsentierung der Nachrichten mittels gewichteter Bag-Of-Words Methode den Kern darstellt. Insgesamt ergeben sich 16 experimentelle Setups, welche mit ausgewählten Supervised Learning Methoden kombiniert werden. Dabei werden Algorithmen angewandt, welche auf den Konzepten von Decision Trees, Wahrscheinlichkeiten, Support Vector Machines und Ähnlichkeiten aufsetzen. Mittels 10-Fold Cross-Validation kann eine Performance von mehr als 50% Accuracy in Experimenten mit Algorithmen basierend auf Wahrscheinlichkeiten (Naive Bayes Multinomial) und Support Vector Machines (Sequential Minimal Optimization) beobachtet werden, wobei die Baseline bei 21,51% liegt, dem Anteil der am häufigsten vorkommenden Klasse im Trainingsset. Die Ergebnisse zeigen, dass die Aufnahme von Uni- und Bigrams in den Feature Space bei gleichzeitigem Stemming überdurchschnittlich gute Ergebnisse liefern kann. Das Filtern von Worten basierend auf Wortarten und Stopword-Listen ist hingegen nicht förderlich für die Emotionserkennung, da viele Wörter mit hohem Unterscheidungspotential (Information Gain) hinsichtlich der Emotionsklassen eliminiert werden.

Diplomarbeitsposter Schweighofer Manuel

Manuel Schweighofer

Masterstudium Business Informatics
Abstract:

Diese Arbeit beschäftigt sich mit den Total Return-Strategien Protective Put und Zero plus Call mit Statischer Asset Allokation sowie Best of Two und Constant Proportion Portfolio Insurance (CPPI) mit Dynamischer Asset Allokation. Nach der Definition von Total Return-Strategien werden die Funktionsweise sowie die theoretischen Eigenschaften der untersuchten Strategien beschrieben. Backtests werden mit einem eigens für diese Arbeit entwickelten Tool durchgeführt, um die Eigenschaften der Strategien zu untersuchen sowie herauszufinden, von welchen Parametern der Erfolg der Strategien abhängt. Außerdem wird ein Backtest der Best of Two-Strategie mit den erzielten Renditen von Best of Two-Fonds im deutschsprachigen Raum verglichen. Es wird gezeigt, dass viele dieser Fonds durch Spezialregeln nicht dem ei-gentlichen Best of Two-Konzept folgen bzw. diese zwar nachvollziehbar, aber nicht nachre-chenbar sind. In einer Sensitivitätsanalyse werden abschließen die Elastizität des Renditepro-fils bzgl. der Parameter Rendite, Volatilität und risikoloser Zinssatz untersucht und es wird gezeigt, dass sich die Best of Two-, CPPI- und buy and hold-Strategien sehr unterschiedlich verhalten.

Institut für Automatisierungs- und Regelungstechnik

Diplomarbeitsposter Svejda Alexander

Alexander Svejda

Masterstudium Software Engineering & Internet Computing
Abstract:

With the fast development of range cameras in recent years, also the number of applications using these sensors increased dramatically. However, besides some simple analysis of range data, there is also a need for detailed reconstruction of 3D scenes and objects in order to use the data provided by the camera in a simple way. The 3D objects can be directly used in various applications, e.g. in the field of robotics for object recognition and tracking or as input for 3D printers. The purpose of this thesis is to create a framework for reconstruction of 3D objects using range and image data provided by RGBD cameras. This thesis consists of three parts: First, different algorithms are reviewed and implemented for reconstructing and texturing 3D objects from range images. We examine algorithms for different parts in the process of reconstruction, starting with registration of point clouds from different views, optimizing the registered point clouds, generating a mesh from the aligned point clouds and finally texturing the resulting mesh using image data provided by the camera. Finally, we also investigate reconstruction of objects using multiple sequences from different object poses. The algorithms examined in the first part are combined into a single, highly configurable and extensible framework. It provides a simple and extensible solution for a great range of different reconstruction scenarios. A simple-to-use graphical user interface has been developed for configuring and running the framework on both recorded scenes and live camera streams. The last part of the thesis analyses the reconstruction results, the algorithms and their configurations. Because the reconstruction process consists of several steps, where each step uses the calculation results of the previous step, also the interaction between the algorithms and the impact of changing one algorithm in the pipeline is evaluated. The results are compared to other popular object reconstruction frameworks.

Institut für Computertechnik

Diplomarbeitsposter Himmelbauer Verena

Verena Himmelbauer

Masterstudium Software Engineering & Internet Computing
Abstract:

With growing capabilities of nowadays technical equipment the amount of data that has to be processed is constantly increasing. Conventional systems that are in use until now will be reaching their limits when it comes to handling the increasing flood of data in a reason-able amount of time. Therefore new approaches have to be explored in order to provide solu-tions for future systems. State of the art solutions with static programming flows are going to be less and less efficient while exponentially rising in complexity, whereas classical Artificial Intelligence has not yet provided sufficient solutions to the problem of vast amounts of data. Those systems that are currently successfully used are limited to very small application areas dealing with small and separated tasks and information. In contrast to artificial systems the human mind is perfectly able to comprehend complex situations and process vast amounts of data that is associated to them in almost no time. Therefore a new bionic model for human-like perception based on psychoanalytical theories is followed in this work. Like for a human mind it is necessary that the systems of the future adapt to newly arising situations and also to per-form better if the same situation arises again. The existing cognitive architecture is therefore supplemented by a new permanent store in order to enable the system to store and use experi-ences over several simulation runs. Furthermore the existing file-based declarative semantic memory was parsed into the new database. Finally a first episodic memorization process is implemented, which will allow the agent in the future to use prior experiences in its decision process.

Diplomarbeitsposter Hoch Ralph

Ralph Hoch

Masterstudium Software Engineering & Internet Computing
Abstract:

Modern software applications are often used in companies to organize tasks and support the business. Companies employ Enterprise Architectures, defined for a given business, which provide information about how they operate. An essential part of them are Business Processes. They are a means to specify how specific tasks are organized, who is responsible and with which partners the company collaborates. Traditional software solutions often do not reflect the Enterprise Architecture or, at most, directly implement it in the program code rather than using models. This makes the software inflexible and hard to adapt. Having a separate specification of workflows in the form of Business Process Models suitable for software applications, is one option to allow flexibility. BPMN 2.0 provides such a specification of Business Processes and enables embedding them into software applications. However, BPMN 2.0 does not account for additional information to be presented to the user. It only provides the means to execute a sequence of tasks and at the time of execution only information about the currently active task is available. This often results in task-driven software applications, where users only have limited information about the process and its environment. The context in which the Business Process is enacted, is not available and thus also not visible in the User Interface. We propose a software architecture including a BPMN 2.0 engine and a model of Business Artefacts for aligning the business, its supporting software and the User Interface. The resulting framework shows how Business Processes defined in BPMN can be enriched with additional context information. During execution of such processes, a coherent Graphical User Interface is presented to the user where not only information about the currently active task is displayed, but also information about the context in which it is executed. Utilizing these parts, we move towards a process-centric application.

In Zusammenarbeit mit anderen wissenschaftlichen Einrichtungen

Universität Wien

Diplomarbeitsposter Schuller Tamara

Tamara Schuller

Unterrichtsfach Informatik/Informatikmanagement
Abstract:

Die Diplomarbeit steht im Kontext des sich abzeichnenden Paradigmenwechsel im Bereich der Schulbildung in Richtung angepasster Lernformen, die der Lebensrealität der Schülerinnen und Schüler entsprechen. Eine Möglichkeit dafür ist den Unterricht zu gamifizieren, weswegen hier die Umsetzbarkeit von Gamification im österreichischen Schulsystem untersucht wird. In diesem Zusammenhang werden nicht nur relevante Lerntheorien und pädagogische Überlegungen auf ihre Anwendbarkeit untersucht, sondern auch ein spielerisches Lernszenario für den Informatikunterricht gestaltet und durchgeführt. Dieses versteht sich als Fallstudie und dient der Beantwortung der Frage ob es möglich und sinnvoll ist Gamification in den österreichischen Schulkontext zu integrieren. Dabei werden Problemfelder eruiert und Lösungsmöglichkeiten gesucht, um eine Umsetzung von Gamification in der Schule für zukünftige Unterfangen zu erleichtern. Zur Vorbereitung der Fallstudie wird ein ausgedehntes Literaturstudium durchgeführt, um eine theoretische Basis zu schaffen und lernförderliche Elemente von Spielen zu untersuchen. Zur Einführung des Lernszenarios in der Schule dient eine Gruppendiskussion der Schüler, welche aufgezeichnet, transkribiert und ausgewertet wird. Anhand dieser Ergebnisse wird eine Unterrichtsplanung entworfen und das Gamification basierte Lernszenario durchgeführt. Die Ergebnisse werden mithilfe von Unterrichtsbeobachtungen und Reflexionsbögen erarbeitet und von der Verfasserin zusammengefasst. Sie zeigen, dass viele Schülerinnen und Schüler gut mit einem gamifizierten Unterrichtskonzept lernen können, es aber auch dem personalen Unterricht bedarf, um jene Schüler zu unterstützten, die sich nicht so einfach auf ein selbstbestimmtes Lernen einstellen können.