EPILOG Wintersemester 2011

Auszeichnungen

Ausgestellte Arbeiten

Institut für (vor 2018) Technische InformatikE182

Arbeitsbereich (vor 2018) Cyber-Physical Systems

Diplomarbeitsposter Buchgraber Ulrich

Ulrich Buchgraber

Masterstudium Technische Informatik
Abstract:

Das Ziel dieser Diplomarbeit ist es, ein Visualisierungstool für parallel ablaufende Programme (Tasks) zu entwerfen. Diese Tasks sollen wie Prozesse eines Betriebssystems voneinander unabhängig laufen und über einen gemeinsamen Speicher und Synchronisationskonstrukte (Semaphore) kommunizieren können. Der Ablauf der Programme soll vom Benutzer gesteuert werden können und der Zustand der einzelnen Tasks, der Semaphore und des gemeinsamen Speichers geeignet visualisiert werden. Als Hilfsmittel für die Untersuchung eines Algorithmus, der Locks verwendet, soll das Tool um ein Analyseverfahren erweitert werden, das Deadlocksituationen erkennt und visualisiert. Das Tool soll für didaktische Zwecke, z.B. für Vorlesungen wie „Betriebssysteme“, geeignet sein. Das zentrale Ergebnis der Arbeit ist die Implementierung des Visualisierungstools, eine plattformübergreifende Desktopsoftware, die auf einer Open-Source-Hostingplattform veröffentlicht wurde. Taskprogramme werden darin mit der simpel aufgebauten Programmiersprache Lua beschrieben. Zugriffe auf den gemeinsamen Speicher und die Semaphore sind durch einfache Anweisungen im Programmcode möglich. Mit Debugging-Befehlen wie Run, Step und Stop bzw. mit Breakpoints im Codeeditor kann der Programmfluss, wie von Standard-IDEs bekannt, gesteuert werden. In der Benutzeroberfläche wird der gemeinsame Speicher mit den Semaphoren in einer Baumstruktur visualisiert und alle Taskprogramme nebeneinander dargestellt, um zu jedem Zeitpunkt den gesamten Zustand des untersuchten Algorithmus erfassen zu können. Für die Deadlockanalyse wurden zwei Laufzeitanalyseverfahren, die in dieser Arbeit ausführlich beschrieben werden, ausgewählt und implementiert. Die Verfahren zeichnen während der Ausführungszeit Lockgraphen auf und suchen innerhalb dieser Graphen nach Zyklen, die potenzielle Deadlocksituationen darstellen.

Diplomarbeitsposter Helpa Christopher

Christopher Helpa

Masterstudium Technische Informatik
Abstract:

Die Anwendung von Echtzeitsystemen reicht von der Steuerung von Ampeln bis zur selbstständigen Navigation von Raumschiffen. Bei Echtzeitsystemen hängt die Korrektheit des Systemverhaltens nicht nur von der logischen Korrektheit aller Berechnungen sondern auch von dem Zeitpunkt zu welcher die Resultate vorliegen ab. Resultate die nicht innerhalb einer gewissen Zeitspanne vorliegen können katastrophale Auswirkungen haben. Um dies zu verhindern ist die Bestimmung der maximalen Reaktionszeit eines Programms von entscheidener Bedeutung. Betriebssystemmechanismen, welche die zeitliche Isolation aller Anwendungen garantieren, vereinfachen die zeitliche Analyse von Anwendungen. Die Bestimmung der maximalen Ausführungszeit einer Anwendung ist ein wichtiger Schritt in der zeitlichen Analyse eines Systems. Aufgrund der Komplexität moderner Systeme stellt die Bestimmung der maximalen Ausführungszeit leider immer noch einen hohen Aufwand dar. Diese Diplomarbeit beschreibt die Entwicklung eines Betriebssystems das zeitliche Isolation aller Programme gewährleistet. Weiters weisen alle Betriebssystemfunktionen konstante Ausführungszeiten auf, welche durch eine geringe Anzahl an Messungen bestimmt werden können. Im weiteren Verlauf werden die verwendeten Programmieransätze und Betriebssystemkonzepte vorgestellt, sowie auf die Implementierung und die dabei gewonnen Erkenntnisse eingegangen. Die Evaluierung zeigt, dass eine geringe Anzahl an Messungen ausreicht um das zeitliche Verhalten aller Betriebssystemfunktionen zu bestimmen, sowie die Ausführungszeiten dieser konstant gehalten werden konnten.

Diplomarbeitsposter Isakovic Haris

Haris Isakovic

Masterstudium Technische Informatik
Abstract:

Zeitgesteuerte Protokolle bieten hohe Zuverlässigkeit und garantiertes zeitliches Verhalten und werden heutzutage in vielen verteilten Echtzeitanwendungen eingesetzt. Sie bieten verschiedene Dienste wie z.B. Uhrensynchronisation, Membership, Redundanz-Management etc. Der ständig steigende Bedarf nach zuverlässigen Echtzeitsystemen stellt neue Anforderungen an die Kommunikationsprotokolle. Eine der noch offenen Herausforderungen ist die Informationssicherheit (auf English \textit{Security}). Die aktuellen Implementierungen von zeitgesteuerten Kommunikationsprotokollen sind nicht auf Informationssicherheit ausgerichtet und ihr Schutz gegen bösartige Attacken ist nicht ausreichend. Zeitgesteuerte Systeme beruhen auf einer konsistenten Sicht der Zeit im gesamten System. Die Funktionalität aller essentiellen Dienste in diesen Systemen hängt von der Zeit ab. Deshalb ist es von entscheidender Bedeutung, dass die globale Zeit gegen bösartige Attacken gesichert ist. Die Hauptaufgabe dieser Diplomarbeit ist die Entwicklung einer Sicherheitsschicht für die Time-Triggered Architecture (TTA) mit dem Schwerpunkt auf einer sicheren und fehlertoleranten Uhrensynchronisation. Der Ansatz besteht aus einer plattformunabhängigen Sicherheitsschicht oberhalb des bestehenden Uhrensynchronisationsalgorithmus. In dieser Arbeit verwenden wir Time-Triggered Ethernet (TTE) als eine Implementierungsplattform. Unsere Sicherheitsschicht schützt die globale Zeitbasis vor verschiedenen bösartigen Angriffsarten, z.B. der Fälschung, der Modifikation, der Wiederholung, oder der Verzögerung oder der Beschleunigung der Uhrensynchronisationsnachrichten.

Arbeitsbereich (vor 2018) Embedded Computing Systems

Diplomarbeitsposter Burker Alexander

Alexander Burker

Masterstudium Technische Informatik
Abstract:

This master's thesis shows the results of implementing the TTP/A protocol on the SPEAR2 platform. The TTP/A protocol is a field bus protocol used in time triggered environments and the protocol meets real-time system requirements. The SPEAR2 platform comprises the processor and several extension modules. The processor can work in a 16 and 32 bit data mode. For the chosen implementation the 32 bit version is used. The processor provides real-time system capabilities on the hardware side. The main aim of this master's thesis is to implement the TTP/A protocol on the SPEAR2 platform and to provide a proof for the assumption that the processor in conjunction with the new eUART module and the TTP/A protocol is able to provide a system which complies to real-time requirements. A substantial part of this proof will be the development of WCET analyzable code using a coding style that is based on the Single-Path Programming Model. The Single-Path Programming Model was modified in some parts and this resulted in the Single or Shorten-Path Programming Model. Furthermore the realised implementation for static WCET analysis on the SPEAR2 platform will be introduced. An own section of the thesis provides the knowledge on how the resulting implementation can be used in own applications. The implementation created provides a comfortable development environment for the realisation of own TTP/A applications with multiple nodes.

Diplomarbeitsposter Najvirt Robert

Robert Najvirt

Masterstudium Technische Informatik
Abstract:

The advances of silicon manufacturing technology make it possible to integrate billion-transistor systems on a single die but the price to pay is higher parameter variability, resulting in problems with reliability, difficult clock distribution, high power consumption and more. Proponents of asynchronous circuits claim them to be a possible solution to most of these problems and they are indeed becoming an increasingly interesting design choice. The aim of this work is to describe the most established description methods for asynchronous circuits, compare them in respect to a number of parameters and list their advantages and disadvantages. To further illustrate the differences, a simple ring topology network interface controller is described with all the considered methods and the implications of their use for the description are indicated. Next, to demonstrate the use of each description method in its typical field of application, selected parts of the faculty developed SPEAR2 processor are implemented with the methods. As a result of this work a comparison of seven different description methods is now available that, unlike the existing literature so far, views these methods from the same angle, namely a carefully chosen set of criteria. This comparison, along with the selected demonstrative examples, could serve prospective designers of asynchronous circuits when choosing a description method for a project. At the same time, the extraction of the underlying concepts of the considered methods along with their comparison is also valuable for a didactic presentation of asynchronous design.

Institut für (vor 2018) Rechnergestützte AutomationE183

Arbeitsbereich (vor 2018) Automatisierungssysteme

Diplomarbeitsposter Adamer Jasmin

Jasmin Adamer

Masterstudium Software Engineering & Internet Computing
Abstract:

Testen von Software ist heutzutage essentiell, um den Sicherheitsgrad von Software-Produkten möglichst hoch zu halten. Dafür stehen bereits diverse automatisierte Testwerkzeuge zur Verfügung. Durch die Vielzahl an angebotenen Werkzeugen ist es schwierig, einen Überblick über die unterschiedlichen Funktionalitäten zu erhalten. Daher wurde ein Kriterienkatalog erarbeitet, der auf definierten und in der Community publizierten Auswahlkriterien für Sicherheitswerkzeuge aufbaut. Darauf basierend wird ein Auswahlverfahren erarbeitet, das den Tester bei der Auswahl eines optimal geeigneten Testwerkzeugs unterstützt, um Sicherheitslücken rasch und effizient aufzudecken. Der Schwerpunkt wurde auf Sicherheitswerkzeuge gesetzt, die auf fuzz testing spezialisiert sind. Beim fuzz testing werden ungültige, unerwartete oder falsche Eingabewerte verwendet um ein Fehlverhalten der Applikation beziehungsweise einen Systemabsturz zu verursachen und dadurch Sicherheitsschwachstellen aufzudecken. Der Punkt Automatisierung spielt eine wichtige Rolle, da die Werkezuge im Stande sein sollen, sowohl die Testfälle selbstständig zu erstellen und durchzuführen als auch die Ergebnisse zu analysieren und vergleichen. Die Evaluierungskriterien werden ausführlich beschrieben, um Nachvollziehbarkeit zu erreichen. Weiters wird für jedes Kriterium angegeben, wie auf dessen Erfüllbarkeit überprüft werden kann. Der Prozess wird an vier verschiedenen Werkzeugen angewandt, um beispielhaft dessen Verwendung darzustellen. Mit Hilfe der vorgestellten Kriterien soll es jedem Tester möglich sein, Sicherheitswerkzeuge zu vergleichen und ein für die bevorstehenden Tests geeignetes Werkzeug auszuwählen. Außerdem konnte gezeigt werden, dass keines der gewählten Sicherheitswerkzeuge vollautomatisiert ist, da stets manueller Eingriff notwendig ist, um die Testresultate mit den gewünschten Ergebnissen zu vergleichen.

Diplomarbeitsposter Bachl Stefan

Stefan Bachl

Masterstudium Business Informatics
Abstract:

Computerumgebungen mit mehreren Bildschirmen (Multi-display environments, MDE) bestehen aus ein oder mehreren gemeinsam verwendeten Displays und zusätzlichen Geräten mit Bildschirmen für jeden Kollaborator. Die zunehmende Verfügbarkeit von mobilen Geräten, wie zum Beispiel Mobiltelefone oder Tablet Computer (Tablets), bietet eine Möglichkeit deren Integration in MDEs zu untersuchen. Jedoch existieren kaum Informationen, wie digitale Dokumente zwischen mehreren multi-touch Geräten ausgetauscht werden können, sowie über die Bedeutung von persönlichen Geräten in digital unterstützten Computerumgebungen. In dieser Arbeit wird die Implementierung einer MDE mit multi-touch Eingabemöglichkeit auf sowohl der geteilten multi-touch Arbeitsfläche als auch auf den persönlichen Tablets präsentiert. Das entwickelte System wurde in Bezug auf Effizienz, Benutzerpräferenzen und Kollaborationsstrategien evaluiert und mit einem herkömmlichen multi-touch System verglichen. Eine Bedingung stellte ausschließlich die geteilte multi-touch Arbeitsfläche zur Verfügung, drei weitere Bedingungen inkludierten zusätzlich die persönlichen multi-touch Tablets. In den Bedingungen mit den Tablets konnten Teilnehmer digitale Dokumente mit je einer von drei spezifisch entwickelten Technik von der geteilten Arbeitsfläche auf ihre Tablets transferieren. Basierend auf der Analyse von Beobachtungen, Protokollen, Videoaufnahmen, Interviews und Fragebögen wurden vier unterschiedliche Kollaborationsstrategien im Bereich von MDEs identifiziert. Obwohl die Benutzer die Kollaboration mit den Tablets bevorzugten, ist die Effizienz und die Intensität der Zusammenarbeit höher in der Bedingung ohne Tablets. Die zusätzliche Verwendung von Tablets bewirkte keine Verschlechterung des Bewusstseins über die Aktivitäten der Arbeitspartner. Die Verwendung der Tablets ermöglichte den Benutzern, unterschiedliche Strategien zur Lösung der Aufgabe zu verfolgen.

Diplomarbeitsposter Bayrhammer Klaus

Klaus Bayrhammer

Masterstudium Software Engineering & Internet Computing
Abstract:

The purpose of this thesis was to design and implement an architecture for a hospital information system, which provides an infrastructure for easy integration of external systems. Because of the complexity of managing information in hospital environments, there are several specialized systems which may have different architectures as well as different scopes of functions and therefore incompatible interfaces. In order to allow those specialized systems to exchange data they have to be integrated into an information system. Therefore, the hospital's core information system has to provide an open architecture which supports integration on a system level. During the course of this thesis an integration framework for a hospital information system has been developed. The system uses persistent one-way messaging which supports loose coupling and complies with the style of service oriented architectures. In addition, the architecture is based on a complex rule based event system which is responsible for the distribution of the messages. This system has been connected to a data storage, which holds patient information based on the OpenEHR standard. Considering the low complexity that is required for integrating systems as well as the technical benefits which come along using this architecture, the usage of service oriented architectures in the health care context seems to be promising. In addition, a message distribution which is controlled by a rule engine enables the system to exchange or integrate new subsystems at runtime.

Diplomarbeitsposter Dikme Ufuk

Ufuk Dikme

Masterstudium Informatikmanagement
Abstract:

Das Hauptthema dieser Arbeit ist das Eruieren der Verwendungsmöglichkeiten von Web-2.0-Tools und –Anwendungen im Bereich der Sprachpräservierung. Die Arbeit gibt einen Überblick über die Relevanz der menschlichen Sprache in Hinsicht auf Kultur und Wissenschaft. Zudem wird der im Zuge der Arbeit entwi-ckelte Sprachpräservierungsprozess beschrieben. Die Resultate der Recherche über den Status Quo der Tools und Anwendungen im Web 2.0 werden präsentiert und ihre didaktische Bedeutung wird angeführt. Danach werden die herausgearbeiteten Web-2.0-Tools und –Anwendungen auf Verwendbarkeit für die Sprachpräservierung geprüft. Den Abschluss der Arbeit bildet die konzeptionelle Darstellung und Beschreibung der Lernplattform Zaza. Die Plattform dient als Beispiel für die Verwendung von Web 2.0 zur Sprachpräservierung anhand der bedrohten Sprache Zazaki. Sie beinhaltet multimediale Artikel in Form eines Blogs für Lehrende, Lernende und Interessierte. Des Weiteren beinhaltet die Plattform auch Inhalte für den Unterricht, wie z. B. Übungsbeispiele zum Erlernen der Sprache, ein einspra-chiges und ein mehrsprachiges Online-Wörterbuch.

Diplomarbeitsposter Gassner Markus

Markus Gassner

Masterstudium Informatikmanagement
Abstract:

Soziale Netzwerke wie Facebook, Xing oder LinkedIn fördern unter anderem die Vernetzung von einander unbekannten Menschen basierend auf geteilten Interessen und Aktivitäten. Es gibt allerdings heutzutage noch keine Plattform, die einen Austausch und Vernetzung hinsichtlich gemeinsamer Aufgabenstellungen ermöglicht. Die vorliegende Arbeit setzt sich als Ziel, die Anforderungen an eine solche Plattform zu erheben, die die bestehenden Netzwerke erweitert. Dabei wurde der Begriff Global Joint Artifacts (GJA) neu eingeführt. In der Software-Entwicklung werden un/fertige Arbeitspakete bzw. Projektteile häufig als Artefakte bezeichnet. GJAs sind somit global verteilte, aber miteinander verbundene Artefakte. Neben diesem abstrakten Konzept trägt auch die zu entwerfende Plattform den Namen "Global Joint Artifacts". Zunächst wurde eine theoretische Recherche durchgeführt, um unterschiedliche Trends, den State of the Art und technologische Möglichkeiten aufzuzeigen. Dabei fokussiert die vorliegende Arbeit den global verteilten Softwaretest, wenn Menschen mit ihren Artefakten, sowie die Artefakte miteinander verbunden werden. GJA soll im Software-Test verwendet werden können, um Arbeitspakete, Bestandteile der Software-Entwicklung, Software-Fehler und grundsätzlich das Wissen im Projekt zu verwalten. Zur praktischen Anwendung der theoretischen Erkenntnisse wurde ein Prototyp von GJA implementiert, der die erarbeiteten Anforderungen erfüllt. Er soll aufzeigen, dass der Wert ursprünglich alleinstehender Information durch die Verbindungen erhöht wird. Auch Benutzer an verteilten Standorten können so am Wissensaustausch und der Wissensverteilung teilnehmen. Als Ergebnis der Arbeit wurde der GJA Prototyp mit ausgewählten Systemen der Software-Entwicklung und -Test verglichen, wobei deutlich gezeigt werden konnte, dass GJA deutlich dazu beiträgt, rasch auf ähnliche Daten zuzugreifen und Wissensträger aufzufinden, Redundanzen vermeidbar und Synergien nutzbar gemacht.

Diplomarbeitsposter Grabner Johann

Johann Grabner

Masterstudium Software Engineering & Internet Computing
Abstract:

Das World Wide Web befindet sich im Übergang vom Web 2.0 zum Semantic Web, und die Berücksichtigung der Semantik von Informationen bei der Verarbeitung gewinnt zunehmend an Bedeutung. Im Rahmen der vorliegenden Arbeit werden die Grundlagen des Semantic Webs diskutiert und die aktuelle wissenschaftliche Auseinandersetzung mit dem Bereich des Dokumentenmanagements dargestellt. Im praktischen Teil dieser Arbeit wird für die Organisationseinheiten „Organisation und Koordination“ und „Gebäude und Technik“ der Technischen Universität Wien ein Dokumentenmanagementsystem in Form einer semantischen Web-Applikation entworfen und als Prototyp implementiert. Anhand der Bewältigung der Aufgabestellung aus der Praxis wird gezeigt, welche Möglichkeiten sich beim Einsatz semantischer Technologien im Dokumentenmanagement eröffnen. Das abgebildete Wissen aus dem Anwendungsbereich liefert die Basis und den Kontext für die automatisierte Verarbeitung von Daten. Die Arbeit resultiert in der Entwicklung eines Systems zur kollaborativen Beschlagwortung von Dokumenten, das den Benutzer bei der Ablage und Suche mit fachlichen Empfehlungen assistiert.

Diplomarbeitsposter Kail Ingrid

Ingrid Kail

Masterstudium Informatikmanagement
Abstract:

E-Learning ist heutzutage ein geläufiger Begriff und hat sich heute weitgehend in österreichischen Bildungsstätten etabliert. Eine Unterkategorie ist Digital Game Based Learning. Nach wie vor wird häufig unterschätzt, welche positive Auswirkungen Lernspiele auf Motivation und Lernbereitschaft haben können. Ein Problem vieler Lernender ist das Verständnis von Programmabläufen. Im Rahmen der Arbeit soll ein Konzept eines Lernspiels entwickelt werden. UserInnen sollen auf Basis des Spiels bzw. der Spielregeln zu einem besseren Verständnis für die Algorithmuslogik gelangen. Mit Hilfe der Theorieteile werden sie an die Programmiersprache Java herangeführt. Die Besonderheit dieses Konzepts ist der Vorrang der Freude am Spiel, wodurch das Lernen unterbewusst und intuitiv passiert. Das Konzept soll sich nicht nur durch einen schnelleren Fortschritt beim Erlernen eines neuen Programms bewähren, sondern auch ein besseres Verständnis für Programmierlogik zur Folge haben. Der aktuelle Wissensstand von psychologischen Erkenntnissen des menschlichen Lernprozesses wird analysiert. Vorhandene Definitionen, Grundlagen und Methoden des Game Based Learning werden untersucht und der Lehrplan des Informatikunterrichts in der 9. Schulstufe AHS, sowie häufig auftretende Barrieren von AnfängerInnen evaluiert. Auf Basis der zugrunde liegenden Erkenntnisse wird schließlich ein Spiel konzipiert und teilweise tatsächlich umgesetzt, welches die aus der Literaturanalyse gewonnenen Resultate bestmöglich berücksichtigt und integriert. Es gibt bereits zahlreiche Lernspiele für ProgrammieranfängerInnen, welche jedoch Grundkenntnisse über die jeweilige vorausgesetzen. Dadurch bleiben Verständnisfragen oft unbeantwortet. Das konzipierte Lernspiel unterscheidet sich von anderen Lernspielen durch die Herangehensweise. Die SpielerInnen benötigen keine Vorkenntnisse und erlernen erst durch das Spielen die Programmierlogik. Das Verständnis für die Vorgehensweise beim Programmieren soll intuitiv erfolgen.

Diplomarbeitsposter Köstinger Harald

Harald Köstinger

Masterstudium Medizinische Informatik
Abstract:

Im Bereich eines Krankenhausinformationssystems (KIS) sind verschiedene Einzelsysteme im Einsatz, die den Arbeitsalltag im Krankenhaus erleichtern sowie das Personal in ihrer Arbeit unterstützen. Ein wichtiger Bestandteil solcher KIS sind zentral gespeicherte elektronische Patientenakten (EPA). Zunächst werden im Rahmen der vorliegenden Arbeit die aktuellen Trends in diesem Forschungsbereich sowie verbreitete Standards und deren Eigenschaften beleuchtet und diskutiert. Für KIS existieren heute praktisch keine Open Source Software Pakete, die für den wissenschaftlichen Bereich geeignet sind. Das Ziel dieser Arbeit ist somit der Entwurf und die Entwicklung einer klinischen Anwendung eines Electronic Health Record (EHR)-basierten KIS auf Basis von openEHR, die auf eine existierende Integrationsarchitektur für openEHR aufbaut. Im Rahmen der Umsetzung wurde eine patientensynchronisierte Anwendung erstellt, die die Darstellung medizinischer Daten aus dem openEHR Backend ermöglicht. Der Fokus hierbei lag auf der Entwicklung einer Komponente, die dynamisch die Darstellung der archetypbasierten Patientenakten, wie sie im openEHR Standard definiert sind, übernimmt. Zugleich wurde aufbauend auf die existierende Integrationsarchitektur und deren Services eine serviceorientierte Komponente entwickelt, die exemplarisch einen Anonymisierungsservice für die medizinischen Daten anbietet, systemunabhängige Schnittstellen für eine patientensychronisierte Anwendung zur Verfügung stellt und einen Patienten Master-Index (PMI) implementiert. Das entwickelte Frontend für die medizinischen Daten implementiert einen Großteil der in openEHR vorgesehenen Eingabeelemente und unterstützt die Darstellung von Templates. Die implementierte serviceorientierte Architektur ermöglicht die systemunabhängige Verwaltung und Verarbeitung von patientensynchronisierten Anwendungen innerhalb eines KIS und stellt Methoden bereit, welche Anbindungen für webbasierte, Intra- und Internet basierte Software bieten.

Diplomarbeitsposter Lehotsky Andrej

Andrej Lehotsky

Masterstudium Software Engineering & Internet Computing
Abstract:

Mobile phones are emerging to personal mobile devices, which can already replace a personal computer in many use cases. But their overall security mechanisms are not sufficient. The data stored in today's devices are much more personal then data stored on any other device we use. The focus in this thesis are operating systems and additional installed applications. The mobile phone attack surface is examined and based on it, possible and by researchers documented examples of threats are summarized. Since the mobile and fixed environments have their differences, these are outlined as the consideration for improvement approaches. Because of the human factor, some results of awareness surveys are presented and discussed. Due to limited resources of mobile phones (mainly power supply and size and/or weight), the current research in this field mainly concentrates on off-device (cloud) security services. These off-device security services are now the only solution to save power supply consumption while inferring possible attacks. Another focus is the virtualization and problems interconnected with installation of new applications. Summing up, this thesis proposes a mobile phone attack surface including open problems, which have to be solved to improve the overall security of mobile phones.

Diplomarbeitsposter Lindorfer Martina

Martina Lindorfer

Masterstudium Software Engineering & Internet Computing
Abstract:

Malware poses one of the Internet’s major security threats today. Due to the vast amount of new malware samples emerging every day, researchers and Anti-Virus vendors rely on dynamic malware analysis sandboxes such as Anubis to automatically analyze malicious code in a controlled environment. In order to evade detection by these sandboxes, environment-sensitive malware aims to differentiate the analysis sandbox from a real user's environment. In the absence of an "undetectable", fully transparent analysis sandbox, defense against sandbox evasion is mostly reactive: Sandbox developers and operators tweak their systems to thwart individual evasion techniques as they become aware of them, leading to a never-ending arms race. In this thesis we present DISARM, a system that automates the screening of malware for evasive behavior using different analysis sandboxes. We present novel techniques that normalize malware behavior across these analysis sandboxes and detect malware samples that exhibit semantically different behavior. We further present a light-weight monitoring technology that is portable to any Windows XP environment. Nevertheless, our techniques are compatible with any monitoring technology that can be used for dynamic malware analysis and are completely agnostic to the way that malware achieves evasion. In a large-scale evaluation on real-world malware samples we demonstrate that DISARM can accurately detect evasive malware, leading to the discovery of previously unknown evasion techniques.

Diplomarbeitsposter Oberreiter Markus

Markus Oberreiter

Masterstudium Medieninformatik
Abstract:

Softwaretests kommt heutzutage bei den schnelllebigen Entwicklungszyklen von unterschiedlichen Softwareprodukten besonders große Bedeutung zu. Softwareprojektmanager sind heutzutage mit immer engeren Terminvorgaben konfrontiert und stehen unter dem Druck, Kosten zu reduzieren. Dadurch wird oft zu wenig Aufmerksamkeit auf das Testen von Software gelegt, sodass die nachträgliche Korrektur von Fehlern beim marktreifen Produkt häufig mit hohen Kosten verbunden ist. Im Rahmen der vorliegenden Arbeit wird nach einem Überblick zum aktuellen Forschungsstand im Bereich des Software Testens und einem Vergleich vorhandener State-of-the-Art Testwerkzeuge ein Kriterienkatalog erarbeitet und darauf basierend ein effizienter Testprozess definiert. Speziell bei einer inkrementellen Softwareentwicklung ist es notwendig, automatisierte Regressionstests mit einem Testwerkzeug durchzuführen. Die Vorteile automatisierter gegenüber manueller Regressionstests werden eingehend erläutert. Im Rahmen eines Fallbeispiels werden etablierte Softwaretestprozesse eines Unternehmens exemplarisch näher untersucht und Schwachstellen identifiziert. Basierend auf den Analysen wurde ein neu definierter Testprozess erarbeitet und prototypisch umgesetzt. Dabei konnte gezeigt werden, dass die Qualität des User-Acceptance-Tests durch den neuen Prozess deutlich gesteigert werden konnte, da durch die Einführung des Integrations- und Systemtests schon viele Fehler vor dem Abnahmetest beseitigt werden konnten. Eine wesentliche Verbesserung im Testprozess brachte der Regressionstest, wobei einige Testfälle mit dem Tool HP QuickTest Professional umgesetzt und Kernfunktionalitäten der betrachteten Businessprozesse abgedeckt wurden. Diese Regressionstests stehen nun für weitere Tests zur Verfügung, wodurch sich eine enorme Zeit- und somit Kostenersparnis ergibt.

Diplomarbeitsposter Popovic Daniela

Daniela Popovic

Masterstudium Business Informatics
Abstract:

Sicherheit in E-Voting Systemen bezieht sich nicht nur auf die verwendete Wahlsoftware, sondern auf die gesamte Infrastruktur, einschließlich organisatorischer und menschlicher Aspekte. Damit die Sicherheit bei elektronischen Wahlen garantiert werden kann, müssen Maßnahmen geschaffen werden, um die Schutzziele Vertraulichkeit, Integrität und Verfügbarkeit zu gewährleisten und in Folge mögliche Sicherheitsrisiken zu minimieren. Um diese Hypothese zu prüfen, wird der E-Voting Prozess der Österreichischen Hochschülerinnen- und Hochschülerschaft mit Hilfe des, vom Deutschen Bundesamt für Sicherheit in der Informationstechnik zur Verfügung gestellten Sicherheitsprozesses analysiert. Dabei wird zuerst eine Sicherheitsanalyse des IST-Zustands vorgenommen, die sich mit exemplarischen Bedrohungen und Risiken für sensible Daten im Kontext des E-Voting Systems (clientseitig, in der Übertragungsphase und serverseitig) beschäftigt, um schlussendlich aus den Ergebnissen der Analyse ausgewählte Sicherheitsmaßnahmen abzuleiten.

Diplomarbeitsposter Preier Cornelia

Cornelia Preier

Masterstudium Business Informatics
Abstract:

Ein Notrufsystem ist ein unterstützendes System, das Notrufe von Hilfsbedürftigen weiterleitet, sodass zuverlässig und rasch Hilfe geleistet werden kann. In diesem System erfolgt die Bereitstellung von Gesundheitsdaten mit Hilfe von Informations- und Telekommunikationstechnologien, die die Versorgung und Unterstützung des Patienten gewährleisten. Die Technik hat sich in den letzten 30 Jahren nicht grundsätzlich verändert. Dies stellt alle Beteiligten zunehmend vor Probleme. Es wird der Fokus auf das Fallbeispiel Caritas und Notruf 144 NÖ gelegt. Aufbauend auf einer Anforderungsanalyse wird die Gebrauchstauglichkeit analysiert. Ziel ist die Ermittlung von Mindestanforderungen, die erfüllt sein müssen, damit das System für alle Beteiligten benutzbar ist. Die vorgeschlagenen Verbesserungen sollen durch eine Erhebung bei den involvierten Akteuren auf Tauglichkeit überprüft werden. Die ermittelten Mindestanforderungen werden hinsichtlich Gebrauchstauglichkeit an den Usability-Kriterien Effektivität, Effizienz und Zufriedenheit gemessen. In Anlehnung an den DATech Leitfaden für Usability werden die Anforderungen auf Basis der Informationen, die aus der Analyse der Vor- und Nachteile stammen, überprüft. Der Nichterfüllungsgrad der Anforderungen wird ermittelt. Das derzeitige System baut auf eine rein subjektive Ablaufsteuerung, Einschätzung der Situations- und Informationsweitergabe, als auch auf der redundanten Ermittlung der Notfalldaten auf. Essentiell sind die ungenügend genutzte Möglichkeit des elektronischen Datenaustausches und die fehlende Integration von verfahrensunterstützenden Maßnahmen. Die Ergebnisse der Erhärtungsanalyse zeigen auf, dass dringender Handlungsbedarf hinsichtlich der Integration von GPS und Biosignalen in einem integrierten Systemablauf besteht. Ausgehend der Ergebnisse der Erhärtungsanalyse erfolgt die Skizzierung von Maßnahmen, welche eine Verbesserung der Prozessabläufe und somit schlussendlich der Gebrauchstauglichkeit bewirken.

Diplomarbeitsposter Raschbauer Reinhard

Reinhard Raschbauer

Masterstudium Technische Informatik
Abstract:

Autonome selbstfahrende Roboter, so genannte Automated Guided Vehicles (AGVs), finden in der heutigen Zeit immer weitere Verbreitung. Sie werden in vielen Bereichen der Wirtschaft und Industrie, aber auch zunehmend im städtischen Verkehr oder der Landwirtschaft eingesetzt. Damit ein AGV seine Aufgaben bestmöglich erfüllen kann, ist es fundamental, dass seine Position hochgenau bestimmt werden kann. Global Positioning System (GPS) ist die gegenwärtig am häufigsten verwendete Lösung zur Positionsbestimmung. Konventionelle GPS-Empfänger verfügen aber nicht über die notwendige Genauigkeit, um sie für AGVs verwenden zu können. Ziel der vorliegenden Diplomarbeit ist es, Methoden zu entwickeln, mit denen es möglich ist, die Position von AGVs hochgenau zu bestimmen. Dazu sollen konventionelle GPS-Empfänger sowie zusätzliche Sensordaten des AGVs zum Einsatz kommen. Durch die Verwendung spezieller Algorithmen soll diese Positionsgenauigkeit erreicht werden. Einleitend werden die Grundlagen Satelliten-basierter Positionsbestimmung anhand von GPS erläutert. Aufbauend darauf werden hochgenaue Positionierungssysteme diskutiert. Kernpunkt dieser Arbeit ist der Entwurf von neuen Methoden zur Realisierung solcher Systeme. Zur Steigerung der Genauigkeit der GPS-Messung werden Real Time Kinematic (RTK)-Algorithmen verwendet. Weiters wird die Geschwindigkeit des AGVs mittels der Dopplerfrequenz der GPS-Signale berechnet. Die so erzeugten Daten werden anschließend mit einem stochastischen Systemintegrationsfilter optimal mit den lokalen Sensordaten kombiniert. Zwei Ansätze wurden verfolgt, die sich darin unterscheiden, wie die Messwerte kombiniert werden. Einerseits werden die Subsysteme einzeln umgesetzt und anschließend ihre Ausgangswerte kombiniert. Andererseits werden alle Subsysteme direkt im stochastischen Filter integriert. Zur Evaluierung des entwickelten Konzepts wurden beide Algorithmen implementiert und mit einer kommerziellen RTK-basierten Positionierungslösung verglichen.

Diplomarbeitsposter Reiterer Martin

Martin Reiterer

Masterstudium Software Engineering & Internet Computing
Abstract:

This work presents a tool-based approach for making the concept of Java internationalization more convenient for practical development projects. Internationalization denotes a pervasive programming approach for building multilingual applications efficiently. However, dramatically often, the expected advantages get lost. Reasons for this fact are a lack of understanding of cultural, geographical and political differences as well as a missing overview of the concepts provided in the Java programming language. In addition, once a product is fully internationalized, it becomes tedious for developers to keep all the language-specific artifacts up to date and consistent. The theoretical part of this work addresses the topic of software internationalization and localization. Based on analyzing the state-of-the-art of Java internationalization and typical problems occurring in practice, the practical part focuses on the implementation of development tools for supporting the internationalization of software-artifacts. For assisting engineers in the day-to-day development work, the presented tooling is integrated into one of the most widely used open source development platforms for Java. The created reference implementation is named TapiJI (Tooling for agile and process integrated Java Internationalization) and can be seamlessly integrated into existing development processes. With the use of context-sensitive as well as general helps, which represent internationalization tasks transparent, TapiJI reduces both the effort and the problems due to improper handling of internationalization. Even engineers with little experience in writing multilingual applications are permanently advised to ensure high and uniform code quality. The resulting tool suite is successfully presented in special-interest magazines, published for free usage and receives a wide acceptance in the open source community.

Diplomarbeitsposter Reiterer Stefan

Stefan Reiterer

Masterstudium Software Engineering & Internet Computing
Abstract:

Software reviews are one of the most efficient quality assurance techniques in software engineering. They are used to find defects in early stages of a project’s progress and help team members to get a better understanding of the code. Undetected defects during the software development process can have significant consequences, such as reduced customer satisfaction, increased safety risk and decreased productivity of the users. In order to avoid them, development teams use software reviews to improve the quality of the product by reviewing interim deliverables during the development. In the last thirty years several formal and less formal approaches for the application of reviews were developed. Despite their advantages, they are not universally used because in many cases a review tool that assists a company’s review process does not exist. This is presented in a case study with the company Frequentis, whose task-based development process is not sufficiently supported by an existing review tool. The internationally acting company develops software in the field of civil air traffic management (ATM), and therefore has to fulfill the DO-278/ED-109 software standard. A significant part of the standard is devoted to the application of code reviews. This work describes a lightweight task-based review process which was developed based on theoretical analyses and company specific requirements. It is related to a peer deskcheck or passaround method and consists of four phases. A case study shows how the process can be used by Frequentis for the assurance of software quality. Based on this, a custom review plug-in for the popular Eclipse development environment was designed and implemented. This plug-in is used to apply the task-based review process. Furthermore, it supports the planning of reviews by suggesting qualified reviewers for parts of the source code. For the verification of the review results and the review coverage, it also allows the generation of reports.

Diplomarbeitsposter Schmöllerl Michael

Michael Schmöllerl

Masterstudium Business Informatics
Abstract:

Gerade die Finanzindustrie ist wegen der aktuellen Wirtschaftslage unter Druck geraten. Konfrontiert mit schrumpfenden Märkten, müssen Kosten gesenkt und die effiziente Nutzung der Ressourcen sichergestellt werden. Im Fokus dabei steht die IT, da diese eng mit den Geschäftsprozessen verflochten ist und einen wesentlichen Kostenfaktor darstellt. IT-Governance ermöglicht die effektive Ausrichtung der IT auf die Unternehmensstrategie. Kernaufgaben der IT-Governance sind die Generierung von Unternehmenswert sowie das Management von IT-Risiken. In diesem Zusammenhang stellt Cobit, als Vertreter der IT-Governance Frameworks, Messgrößen und Reifegradmodelle zur Verfügung, um die Wirksamkeit der Kontroll- und Steuerungsmaßnahmen zu erfassen. Im Rahmen dieser Arbeit soll die Anwendbarkeit von Cobit an zu prüfenden Geschäftsabläufen im Bankenbereich gezeigt werden. Der Fokus wird dabei auf den Prozess der Leistungsverrechnung gelegt. Ziel ist es, die Effektivität der eingesetzten Kontroll- und Steuerungsmaßnahmen zu messen. Dazu wird ein Vorgehensmodell erarbeitet, welches an einem Fallbeispiel angewandt wird. Das für die Analyse herangezogene Unternehmen ist ein österreichischer Finanzdienstleister mit Hauptsitz in Wien. Als Ergebnis der Analyse kann die Wirksamkeit der vorhandenen Kontroll- und Steuerungsmaßnahmen eingeschätzt werden. Infolgedessen wird eine Risikoeinschätzung getroffen und der Umsetzungsgrad der von Cobit definierten Kontroll- und Steuerungsmaßnahmen beurteilt. Anhand der Risikoanalyse werden resultierende Verbesserungsmaßnahmen identifiziert. Zusammenfassend soll die Anwendung von IT-Governance Frameworks, im speziellen Cobit, aufgezeigt werden. Die Vorgehensweise soll zeigen, ob die von Cobit definierten Ergebnis- und Leistungsmessungen universell anwendbar sind und eine durchgängige Prüfungsplanung und -durchführung unterstützen.

Diplomarbeitsposter Sentürk Handan

Handan Sentürk

Masterstudium Business Informatics
Abstract:

Eine Möglichkeit zur Bewertung des Erfolgs eines Vendor Managed Inventory (lieferantengesteuerte Bedarfsermittlung) Ansatzes in virtuellen Organisationen ist der Einsatz eines Business Activity Monitoring Systems. Ein solches System bewertet und überwacht Geschäftsprozesse unter Verwendung von definierten Kennzahlen. Damit verschafft das System der virtuellen Organisation einen Überblick über den aktuellen Stand der unternehmensübergreifenden Prozesse, identifiziert deren Schwachstellen und unterstützt die Entscheidungsfindung zur Optimierung der Prozesse. Die Integration wirtschaftlicher und technischer Anforderungen aller beteiligten Unternehmen stellt die besondere Herausforderung bei der Realisierung eines Business Activity Monitoring Systems innerhalb einer virtuellen Organisation dar. Wirtschaftliche Anforderungen umfassen primär die Überwachung unternehmensübergreifender Kennzahlen in Echtzeit. Dafür müssen einheitliche und aussagekräftige Kennzahlen definiert werden. Durch das regelmäßige Speichern der Daten sollen historische Abläufe abgebildet und analysiert werden. Das Ziel der Überwachung ist einerseits das Erkennen von Soll-Ist Abweichungen und andererseits die Unterstützung für Entscheidungsfindungen. Um Kennzahlen besser im Blick zu behalten, sollen in kritischen Fällen automatisch Benachrichtigungen über den Zustand der Kennzahlen versandt werden. Da virtuelle Organisationen dynamische Kooperationen sind, soll die Integration neuer Unternehmen in das System ohne großen Kostenaufwand realisiert werden können. Technischen Anforderungen wie automatisierter und manueller Datentransfer und Kennzahlenberechnung zu jedem Zeitpunkt, Definition von Berechnungsalgorithmen, automatisierte Datenspeicherung in regelmäßigen Abständen, Aufstellen von Grenzwerten, übersichtliche Darstellung der Kennzahlen, automatisches Versenden von Benachrichtigungen und Skalierbarkeit, um neue Unternehmen einbeziehen zu können, müssen ebenso erfüllt werden.

Diplomarbeitsposter Sohrabi-Moayd Fakhteh

Fakhteh Sohrabi-Moayd

Masterstudium Informatikmanagement
Abstract:

In der heutigen Zeit, in der sich die Gesellschaft auf dem Gebiet der digitalen Medien immer rasanter entwickelt, ist es wichtig den Jugendlichen Grundkenntnisse dieser Technologien zu vermitteln. Von entscheidender Bedeutung ist es auch, SchülerInnen auf eine medientechnische Arbeitswelt vorzubereiten. Im Rahmen dieser Diplomarbeit wird ein Unterrichtskonzept entwickelt, das Jugendlichen ein besseres Verständnis von Publishing Software und entsprechende Kompetenz bezüglich digitaler Medien vermittelt. Dadurch sollen die SchülerInnen in der Lage versetzt werden, die für das Publishing relevanten Medien entsprechend der gegebenen Anforderungen zu verstehen, zu nutzen und einzusetzen. Mittels Software-Evaluation werden drei DTP-Programme für den Einsatz im Schulunterricht einander gegenüber gestellt, um die am besten geeignete Software auszuwählen. In neun Lehreinheiten wird den SchülerInnen ermöglicht, ihr Basiswissen über Medien wie zum Beispiel Text, Grafik, Bild und Animation zu vertiefen, um diese zweckorientiert in DTP-Programmen anzuwenden. Für die Umsetzung werden didaktische Methoden ausgewählt, welche die SchülerInnen animieren sollen aktiv am Unterricht mitzuwirken. Ferner wird auch durch die eingesetzten Unterrichtsmethoden die soziale Kompetenz der SchülerInnen gestärkt.

Diplomarbeitsposter Thomas Christian

Christian Thomas

Masterstudium Software Engineering & Internet Computing
Abstract:

In recent years, the World Wide Web has emerged as a central part of our lives. Accordingly, Web Engineering nowadays is among the main activities in software development. However, due to their special characteristics, developing Web Applications is a complex task. Web Application Frameworks aim at easing this task. On the one hand, the proliferation of these software-tools has made the selection of a framework a challenging task. On the other hand, the competition also led to an ongoing equalization in the market. Today, the existing Web Frameworks hardly differ regarding their functional expressiveness, making it a insignificant criterion when choosing a framework. However, when Ruby on Rails was released in the end of 2005, it unmasked that Web development till then lacked an important factor: Productivity. Since that time, also Web Frameworks in the Java environment are increasingly facing rapid development. Five years after the first version of Rails, this thesis describes the current state-of-the-art in rapid Web development with Java. It analyzes the technical factors that altogether define a Web Application Framework’s productivity. The resulting catalog encompasses more than 120 criteria. This way, it can answer the question of which particular Web Framework to choose in an upcoming project. The catalog can also be used to base new comparisons on it and it may even foster further developments in the market.

Diplomarbeitsposter Vallon Raoul

Raoul Vallon

Masterstudium Business Informatics
Abstract:

Lean Development, auch bekannt als „Just in Time“ Produktion verwirklicht ein dynamisches „Pull“-System, das jedoch auch zahlreiche Gemeinsamkeiten zu agilen Prozessen aufweist. Ziel dieser Arbeit ist die Erarbeitung eines Konzepts, das Lean Development anhand des Vertreters „Kanban“ und den agilen Softwareprozess „Scrum“ verbindet, sodass die Stärken der beiden Prozesse vereint werden. Der erste Teil der Arbeit befasst sich mit der Erstellung eines Konzepts, in dem sowohl Kanban- als auch Scrum-Elemente enthalten sind. Den zweiten Teil stellt die praktische Erprobung des Konzepts dar. Als Fallbeispiel wurden Teile des Konzepts für eine Umsetzung im Rahmen einer Praxisphase ausgewählt. Diese Prüfung der Praxistauglichkeit bietet weiteres Feedback für eine abschließende Verbesserung des Konzepts. Die Ergebnisse aus der praktischen Erprobung zeigen, dass die Kombination von Kanban und Scrum einen sinnvollen Ansatz für ein effizientes Projektmanagement darstellt. Beispielsweise kommt es in Software Projekten aus verschiedensten Gründen zu Änderungen der Priorisierungen. Mit dem dynamischen Kanban Workflow wird den Projektmitarbeitern ein Werkzeug gegeben, das aufgrund seiner Flexibilität die Möglichkeit bietet, dennoch eine effiziente Umsetzung des Projekts zu gewährleisten. Auf der anderen Seite konnten die in der Praxis erprobten Scrum-Elemente des Konzepts, wie Retrospektive oder Review, Raum schaffen, auch im dynamischen Kanban-Prozess regelmäßig über den Prozess zu reflektieren und den Fortschritt zu überprüfen. Für den Einsatz dieser beiden Scrum-Elemente wurde ein im Rahmen des Konzepts entwickelter „Sprint ohne Commitment“ eingeführt, der sich als ideales Mittel herausstellte, um einen Zeitpunkt für Retrospektive und Review zu bestimmen und gleichzeitig jedoch vom Scrum-üblichen Commitment abzusehen, mit dem ein Kanban Workflow nicht durchführbar wäre.

Diplomarbeitsposter Vass Bence

Bence Vass

Masterstudium Business Informatics
Abstract:

Seit Unternehmen betriebliche Informationssysteme einsetzen, um ihre Geschäftsprozesse abzuwickeln, rückt die Ablauforganisation im Vergleich zur Aufbauorganisation immer mehr in den Mittelpunkt. Die Methoden zur Erfassung, Gestaltung, Optimierung und Etablierung dieser Prozesse werden durch Geschäftsprozessmanagement bzw. Business Process Management (BPM) unter einem Begriff vereint. Besonders bei der Einführung neuer Informationssysteme ist die Betrachtung der betroffenen Prozesse essentiell. Unter dem Titel „TU Informations-Systeme und Services“ (TISS) erfolgt derzeit an der Technischen Universität (TU) Wien die Etablierung einer neuen IT-Strategie, welche die Ablösung zahlreicher Insellösungen durch ein einheitliches Gesamtsystem vorsieht. Das Ziel dieser Arbeit ist zu zeigen, dass die Methoden und Paradigmen von BPM auch in einer großen, historisch gewachsenen Verwaltungsinstitution eingesetzt werden können und einen Mehrwert bringen. Dies erfolgt in der Form von drei Fallbeispielen, in denen Prozesse und IT-Systeme des TISS-Projekts analysiert, optimiert, spezifiziert und, falls durch die erhobenen Anforderungen möglich, als Workflows etabliert werden.

Diplomarbeitsposter Volcic Mark

Mark Volcic

Masterstudium Technische Informatik
Abstract:

Das Ziel dieser Diplomarbeit ist die Entwicklung einer sicheren und zuverlassigen Steuerung von Zügen in einem abgeschlossenen leissystem. Für die Implementierung und die Testphase wurde eine Modelleisenbahn gewählt, die den sicherheitskritischen Ansprüchen von realen Zügen und Gleisen entsprechen muss. Hard- und Software sind zum Teil schon vorhanden, allerdings müssen diese weiterentwickelt bzw. geändert werden. Die vorhandene Software der Microcontroller wurde in C geschrieben, die Lösung soll ausschließlich in Ada entwickelt werden. Bei der Hardware muss das Design der Controller geändert und ein neuer Prozessor gewählt werden, der den aktuellen Anforderungen entspricht. Für die Steuersoftware am Master-PC gibt es erste Testversionen, die allerdings nicht mehr dem aktuellen Stand der Technik entsprechen; diese muss ebenfalls überarbeitet werden.

Diplomarbeitsposter Wageneder Nikolas Johannes

Nikolas Johannes Wageneder

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

As the worldwide number of automotive vehicles grows the need for advanced traffic management increases every year. On this way, Intelligent Transport Systems address the problems of road safety and congestion. Situated at key decision points on road networks, Variable Message Signs come into play. They are used to manage the traffic by providing traffic information and warnings to traffic participants. Online configurators serve the purpose enabling a user to design an individual product based on his personal preferences. Besides positive marketing effects a configurator helps a manufacturer to follow the mass customization strategy. For the customer this means better comparability between different vendors. The goal of this master thesis was to design and implement an online configurator for Variable Message Signs based on current Web technologies. The Agile Unified Process was chosen as software development process. From the technological viewpoint, "Web 2.0" has been taken into account. Developing a stepwise wizard based online configurator with large degrees of freedom is not without challenges. Most important, a flexible graphical user interface is necessary allowing a customer to intuitively design the desired Variable Message Sign based on his preferences. XML configuration files provide a solid base for the dynamical structure. Within the configurator, a JavaScript based "Rule Engine" has been chose as core element to define complex dependencies, whereas within a "Plausibility Check Engine" mutually exclusive configurator’s attributes can be determined. Upon every user input a validation is performed to minimize the risk of wrong handling. Further challenges to be handled included the integration of a rudimentary E-commerce application following an editable electronic shopping cart. Besides the benefits for external users, the configurator can be used for corporate internal calculations based on daily updated pricing data from an ERP system.

Diplomarbeitsposter Wagner Alexander

Alexander Wagner

Masterstudium Informatikmanagement
Abstract:

Interaktive 3D-Anwendungen sind Programme, die unmittelbar auf die Eingaben ihres Benutzers reagieren und die Ergebnisse dieser Eingaben mittels dreidimensionaler Grafiken in Echtzeit darstellen können. Anwendungsgebiete von 3D-Programmen sind multimediale Spielsoftware, Software zur Erkundung architektureller Entwürfe oder interaktive Lernsoftware. Die Entwicklung von interaktiven 3D-Anwendungen ist ein besonders anspruchsvolles Gebiet der Softwareentwicklung. Das notwendige Vorwissen kann durch den Einsatz geeigneter Tools reduziert werden. Ein solches Tool zur Entwicklung interaktiver 3D-Anwendungen ist „Unity“. Es erlaubt die einfache Erstellung eines 3D-Projekts mittels graphischem Interface und enthält eine integrierte 3D-Engine, die die mathematischen Komplexitäten der Computergraphik vor dem Nutzer verbirgt. Aufgrund seiner leichten Zugänglichkeit und der enormen Geschwindigkeit, mit der man sichtbare Ergebnisse erzielen kann, eignet es sich hervorragend, um die Grundlagen von 3D-Anwendungs- und Spieleentwicklung zu lehren. Ziel dieser Arbeit war, sinnvolle Ressourcen zu erstellen, die Anfängern den Einstieg in den Umgang mit Unity erleichtern und diesen beschleunigen sollen. Die betreffende Zielgruppe bestand primär aus StudentInnen der Informatik und der Architektur. Die Erhebung der besonderen Ansprüche dieser Zielgruppen erfolgte mittels qualitativer Untersuchungen bei zwei universitären Lehrveranstaltungen. Auf dieser Basis wurden Anleitungen erstellt, die die verschiedenen Aspekte der Arbeit mit für Anfänger Unity beschreiben. Neben Beschreibungen des Tools an sich werden darin auch Aspekte der Zusammenarbeit im Team bei einem Entwicklungsprojekt im Universitätskontext erörtert. Alle erstellten und gesammelten Ressourcen sollten durch eine zentrale Sammelstelle schnell und einfach verfügbar gemacht werden. Eine Evaluierung wurde durchgeführt, um die günstigste Art und Weise zu bestimmen, auf die diese Sammelstelle umgesetzt werden soll.

Diplomarbeitsposter Wallerstorfer Dirk

Dirk Wallerstorfer

Masterstudium Software Engineering & Internet Computing
Abstract:

This thesis aims to provide additional insight into the effect of different development strategies on the maintainability of code. Maintainability is defined as the ease with which a software can be modified. Throughout a software development project a lot of time is spent on maintenance. Therefore code that is easy to maintain is desireable. To be able to detect differences between development strategies a case study with a development team of an Austrian company was conducted. The team changed its development strategy from the waterfall model to Scrum. The waterfall model is a sequential development process with emphasis on documentation. Scrum is an agile, iterative development process. The development of the code maintainability was analyzed when using the waterfall model and when using Scrum as development strategy. In order to quantify the maintainability of code the common approach of using static code analysis is used. Based on results in literature a set of software metrics was used to assess the code maintainbility. The statistical method used for validation is a non-parametric analysis of variance (Friedman's ANOVA) with post-hoc tests. The results indicate that Scrum does not decrease the code maintainability as much as the waterfall model over time. Scrum does a better job in preserving the level of code maintainability than the waterfall model. The possible reasons for this are discussed in the thesis.

Diplomarbeitsposter Wandl Conrad Stefan

Conrad Stefan Wandl

Masterstudium Software Engineering & Internet Computing
Abstract:

Durch die Verwendung von Near Field Communication (NFC) in durchaus sicherheitskritischen Projekten, wie etwa mobilen Bezahlsystemen und deren allgemein steigende Beliebtheit erhöht sich die Wahrscheinlichkeit von Angriffen auf NFC-basierte Infrastrukturen. Zur Sicherstellung der Informationssicherheit ist es daher notwendig, ein systematisches Vorgehen zur Sicherheitsanalyse der Infrastrukturen einzusetzen und davon ausgehend die Systeme gegen Angriffe zu härten. Diese Arbeit betrachtet Standards aus dem Bereich der Informationssicherheit, welche die Grundlage für die Durchführung von Sicherheitsanalysen liefern. Diese werden um die Eigenheiten der NFC-Technologie ergänzt. Daraus ergibt sich eine methodische Anleitung zur Erstellung eines Sicherheitskonzepts für NFC-basierte Infrastrukturen. Die Anwendbarkeit dieser Methodik wird anhand des Projekts Mobile Information Points (MIP) dokumentiert.

Arbeitsbereich (vor 2018) Computer Vision

Diplomarbeitsposter Garz Angelika

Angelika Garz

Masterstudium Medieninformatik
Abstract:

A binarization-free layout analysis method for ancient manuscripts is proposed, which identifies and localizes layout entities exploiting their structural similarities on the local level. Thus, the textual entities are disassembled into segments, and a part-based detection is done which employs local gradient features known from the field of object recognition, the Scale Invariant Feature Transform (SIFT), to describe these structures. As the whole entity cannot directly be inferred from the mere positions of the interest points, a localization algorithm is needed that expands the interest points according to their scales and the classification score to regions that encapsulate the whole entity. Hence, a cascading algorithm is proposed that successively rejects weak candidates applying voting schemes. Layout analysis is the first step in the process of document understanding; it identifies regions of interest and hence, serves as input for other algorithms such as Optical Character Recognition. Moreover, the document layout allows scholars to establish the spatio-temporal origin, authenticate, or index a document. The evaluation shows that the method is able to locate main body text in ancient manuscripts. The detection rate of decorative entities is not as high as for main body text but already yields to promising results.

Diplomarbeitsposter Nenning Karl-Heinz

Karl-Heinz Nenning

Masterstudium Medizinische Informatik
Abstract:

Mirror Visual Feedback Therapy (MVFT) offers efficient non-invasive treatment for patients suffering from phantom limb pain. It is hypothesized to cause functional remodeling of neural networks in the patient’s brain, what induces a relief in phantom pain. However, details about the functional remodeling of the brain are not yet fully understood and are a current topic of research. In this thesis, subject-specific parcellation of functional Magnetic Resonance Imaging (fMRI) data is utilized and subsequent model map analysis is employed to quantify changes of functional connectivity patterns related to MVFT success. Subject-specific functional parcellation is employed in order to form functionally homogeneous working regions of interest, which adapt to the functional and anatomical characteristics of every subject in the study population. Moreover, a dimensionality reduction of the datasets is achieved, facilitating further computationally intensive analysis. The functional connectivities between the obtained parcels are quantified by mapping their affinities in a new metric space of Euclidean distances. Thus, the functional relations between the fMRI signals are translated into spatial distances in the functional geometry. Applying subject-specific functional parcellation and furthermore the quantification of the parcel-wise functional connectivities on a group of interest, comprising pre- and post-MVFT data, allows to identify differentiating functional connectivity patterns related to MVFT success. The results obtained endorse the hypothesis of functional reorganization of the brain. The results show that brain regions, responsible for the movement of the amputated leg, are involved with the brain’s functioning during the movement of the healthy leg after the MVFT. However, due to the small dataset (a maximum of 5 pre- and 5 post-MVFT data for left leg amputees) the results can only be hypothesized.

Institut für (vor 2018) InformationssystemeE184

Arbeitsbereich (vor 2018) Distributed Systems

Diplomarbeitsposter Kittel Gabriel

Gabriel Kittel

Masterstudium Software Engineering & Internet Computing
Abstract:

In the area of distributed systems, several approaches have emerged with the objective to deliver computing power as a public utility like water, gas, electricity and telephony. Cloud computing is the latest of those approaches where virtual computing infrastructure, software development platforms and applications are provisioned on demand over the Internet. Autonomic computing is a computing paradigm that promises to deliver systems adapting themselves to environmental changes by employing self-management mechanisms guided by policies as an effort to address the management complexity that arises from the dynamics of resource availability and system load in large-scale computing systems. The Foundations of Self-governing ICT Infrastructures project (FoSII) at TU Vienna intends to enhance self-management support in existing service-oriented architectures. A survey of existing projects that introduce autonomic computing to large-scale computing systems like grids and clouds, and a taxonomy that provides classification criteria for that research field would allow to assess the current state of research by suggesting criteria to help identify application areas, subproblems and approaches within that field. However, such a survey and taxonomy have not yet been proposed to this day. The goal of this thesis is to systematically investigate the state of art of self-management by providing a taxonomy of autonomic large-scale computing. It presents a survey of projects and theoretical work in that field and proposes a taxonomy that classifies autonomic large-scale computing. Survey and taxonomy allow to assess the current state of research in autonomic large-scale distributed systems, thus supporting further advancements in the field of autonomic large-scale distributed computing.

Diplomarbeitsposter Krasnitzky Manfred

Manfred Krasnitzky

Masterstudium Informatikmanagement
Abstract:

Service Orientierte Architektur (SOA) hat ein neues Paradigma in die Geschichte der Softwareentwicklung eingebracht. Neue Services können leicht erstellt werden durch das Zusammenfügen von bestehenden Services. Dies nennt man Service Composition. Herkömmliche SOA Entwicklungstools sind aber weiterhin ausschließlich für den professionellen Softwareentwickler gestaltet und konzipiert. Hier setzt die Service Composition basierend auf Mashups an. Das Hauptaugenmerk bei der Entwicklung von Mashup Tools liegt darauf, dass vor allem Personen mit entsprechendem Fachwissen aber ohne irgendwelche IT-Kenntnisse in der Lage sind, neue Service Compositions zu erstellen. Einen Schritt weiter geht die Mashup Plattform, welche am Institut für Informationssysteme der TU-Wien entwickelt wurde. Zwei neue Aspekte wurden hier für die Entwicklung von Mashups zum ersten Mal berücksichtigt: Context Awareness und Socially Enrichment. Dies führt zu dem Namen „Socially Oriented Mashup“ (SOM). Context Awareness bedeutet, dass Kontext-Informationen berücksichtigt werden. Socially Enrichment bedeutet, dass menschliche Tätigkeiten in ein Service einbezogen werden. Die Diplomarbeit beschäftigt sich mit der Entwicklung einer graphischen Weboberfläche mit der Context Aware SOM Mashups modelliert werden können. Nach Fertigstellung des Mashup-Modells, kann auf Basis dieses Modells konkreter Programmcode generiert werden.

Diplomarbeitsposter Les Iwona

Iwona Les

Masterstudium Software Engineering & Internet Computing
Abstract:

Die Herausforderung bei kollaborativen Plattformen besteht heutzutage im Teilen von vertraulichen Informationen. Herkömmliche Lösungen für dieses Problem sind statisch definierte Zugriffsmechanismen, die einen Administrator benötigen, welcher erforderliche Berechtigungen manuell zuweist. In flexiblen kollaborativen Plattformen mit steigenden Anzahl von Benutzern werden durch ständig wechselnden Aufgaben auch die Zuständigkeitsbereiche verändert. Weiters erhöht sich die Anzahl von Interaktionen insbesondere die Datenmenge aufgrund des Informationsaustausches zwischen den Kollaborationspartnern und den service-orientierten Applikationen erheblich. Durch ständige Beobachtungen und Analysen der Interaktionen ist das System in der Lage einen vertrauenswürdigen Kollaborationspartnern aufgrund vorhergehender Handlungen zu erkennen. Die als zuverlässig eingestuften Kollaboratipartnern wird ein Zugang und Austausch von Dokumenten ermöglicht. Das in diesem dynamischen Vertrauensmodell verbundene Teilen von Informationen wird in dieser Diplomarbeit erläutert. Das Konzept bezüglich der Informationsverteilung basiert auf einem Regelwerk mit dessen Hilfe die Benutzer die Bedingungen für die selektive Offenlegung von Informationen definieren. In Kombination mit der Interaktionsanalyse und dieser vorhergehenden Bedingungen wird eine Abstufung des Zugriffslevels innerhalb der einzelnen Dokumenten erreicht. Diese Arbeit beschäftigt sich mit einem Konzept, welches die selektive Offenlegung von vertrauenswürdigen Informationen umfasst. Um die Funktionalität dieses Konzeptes dazulegen wurde eine Web Anwendung entwickelt, welche eine Definition der Zugriffsbedingungen durch den Benutzer ermöglicht. Verschiedene, vorstellbare Szenarien werden in dieser Arbeit simuliert und hinreichend dokumentiert. Des weiteren erfolgt eine ausführliche Darlegung der Funktionen, welche von den Benutzern in Bezug auf die einzelnen Datenabschnitte konfiguriert und angezeigt werden können.

Diplomarbeitsposter Mesetovic Boris

Boris Mesetovic

Masterstudium Software Engineering & Internet Computing
Abstract:

Modern Web applications increasingly rely on real-time server-initiated delivery of data to browsers. It increases the responsiveness of the application, improves the overall user experience and allows various real-time collaboration scenarios between users. This application model, in which the server delivers data to a browser via HTTP without the browser explicitly requesting it, is called Comet. Protocols and techniques defined by the Comet application model are essential for Web applications that need to asynchronously deliver events to clients. One of the recent developments in the domain of Comet Web applications is an opensource application protocol called Bayeux. It provides means of two-way and low-latency communication between the server and the client and is typically used to deliver notifications directly to Web browsers as soon as they occur. In this thesis, we present a native .NET implementation of a Bayeux server called Comet.NET. Comet.NET is a stand-alone, high-performance Bayeux server with support for both streaming and polling communication techniques. It offers synchronous and asynchronous application programming interfaces, is very scalable and robust and is designed to be easily embeddable in any .NET application. Features of Comet.NET are demonstrated by presenting Teletrader HTTP Push Service, a fully functional enterprise stock market ticker application built on top of it. Furthermore, the thesis provides a detailed evaluation of the performance and scalability of the presented solution and discusses how it compares with the reference Bayeux server implementation.

Diplomarbeitsposter Sehic Sanjin

Sanjin Sehic

Masterstudium Software Engineering & Internet Computing
Abstract:

Context-awareness is one of the cornerstones of mobile and ubiquitous computing. It refers to the idea that an application can understand its context to reason about its current situation and perform suitable operations based on this knowledge. Moreover, as the situation changes over time, the application should adapt its behavior according to new circumstances, which would increase its usability and effectiveness. This thesis introduces the COPAL (COntext Provisioning for ALl) middleware — an adaptive approach to context provisioning. The COPAL middleware is a flexible and scalable context-aware service platform that provides a new publish-process-listen programming model. Its loosely-coupled and modular implementation allows the system to be customized for different use-cases and deployed on different platforms. The COPAL programming model separates the task of context-awareness into three independent steps supported by three loosely-coupled components: publishers, processors, and listeners. This component design enables developers to progressively extend the system to support new types of context information and various context-aware applications. Furthermore, the thesis presents a customizable processing mechanism that dynamically couples context information with its processing. This mechanism is the key concepts in the COPAL middleware by which a wide range of operations can be carried out. Most importantly, it can be used to infer new context information and to provide some context information at different levels of granularity.

Arbeitsbereich (vor 2018) Database and Artificial Intelligence

Diplomarbeitsposter Kronegger Martin

Martin Kronegger

Masterstudium Computational Intelligence
Abstract:

Für alltägliche Probleme haben wir gute Lösungsmethoden entwickelt. Wird das Problem komplexer, so erkennen wir, wie schwer dessen Planung ist. Automatisches Planen mithilfe von Computerunterstützung soll genau da ansetzen, wo durchschnittliche Personen keine guten Lösungen mehr finden. Planen ist eine der klassischen Gebiete der Künstlichen Intelligenz. Prominente Anwendungsgebiete reichen vom “Remote Agent” in der “Deep Space One” Mission bis hin zu Entscheidungsunterstützungssytemen für Katastrofenhilfe. Planen ist die Aufgabe, eine Sequenz von Aktionen zu finden, die zu einem Zustand führen, in dem das Ziel erfüllt ist. Klassisches Planen mit vollständiger Information, deterministischen Aktionen, Pläne mit polynomieller Länge, etc. ist schon NP-vollständig. Diese Form wurde in den letzten Jahrzehnten sehr intensiv erforscht. In der Realität haben wir jedoch nur unvollständige Information, was die Komplexität auf die zweite Stufe der polynomiellen Hierarchie anhebt. In letzter Zeit wird auch diesem Gebiet in der Forschung mehr Aufmerksamkeit gewidmet. In dieser Arbeit zeigen wir, wie eine Planungssprache für klassisches Planen geschickt erweitert werden kann, um unvollständige Information auszudrücken. Zusätzlich werden wir eine schwache Form von Ungleichheit einführen und beweisen, dass Planen in dieser Sprache Sigma2P-vollständig ist. Weiters werden wir ein Planungstool entwickeln, welches das Planungsproblem auf das Erfüllbarkeitsproblem von quantifizierten, aussagenlogischen Formeln reduziert. Die Pläne von diesem Tool ist optimal bezüglich der Planlänge. Dieses Planungstool kann sowohl Planungsprobleme mit vollständiger als auch mit unvollständiger Information lösen. Wir werden einige Herausforderungen aufzeigen, um diesen exakten Ansatz wettbewerbsfähig zu machen. Hierfür werden wir eine Reihe von Optimierungen vorstellen, die diese Herausforderungen unter Kontrolle bringen. Zusätzlich werden wir einen Benchmark entwickeln, um unser Tool zu testen.

Diplomarbeitsposter Nguyen Lam Tung

Lam Tung Nguyen

Masterstudium Information & Knowledge Management
Abstract:

Understanding the evolutionary relationships among species has been of tremendous interest since Darwin published the “Origin of Species” (Darwin, 1859). The evolutionary history of species is typically represented as a phylogenetic tree. Nowadays, the reconstructing of the evolutionary history is still a major research topic. With the rise of molecular sequencing technologies, computational approaches have been proposed to reconstruct phylogenies. Maximum likelihood is a statistical approach for reconstructing phylogeny that gives better estimate of the true tree than other methods. However, the method is highly computational expensive. Therefore, different heuristics haven been proposed to solve this NP-hard problem. Among these IQPNNI (Vinh and von Haeseler, 2004) has been shown to have highly regarded results. Nevertheless, it requires a lot of computation time. In the present work we introduce an improved version of the IQPNNI algorithm called IQ-Tree. Here we focus on improving the run time performance of IQPNNI by proposing a fast and reliable search algorithm for phylogeny reconstruction. To this end, we used the metaheuristic Iterated Local Search (ILS) as our underlying search framework, from which the possibility of using the search history to improve performance has been identified. Based on the search history we propose a strategy that directs the search to move quickly through regions, in which better trees are unlikely found. Furthermore, we present a vectorization technique to speed up computations in the tree evaluation function. Our results showed that IQ-Tree runs two to four times faster than IQPNNI, while keeping the accuracy of the reconstructed phylogenies.

Arbeitsbereich (vor 2018) Knowledge Based Systems

Diplomarbeitsposter Haberl Peter

Peter Haberl

Masterstudium Computational Intelligence
Abstract:

Das Erfüllbarkeitsproblem für quantifizierte boolesche Formeln - das ist, zu entscheiden ob alle existentiell quantifizierten Variablen einer geschlossenen quantifizierten boolschen Formel in einer Form belegt werden können, so dass die Formel damit wahr wird - ist von besonderem beweistheoretischen und komplexitätstheoretischen Interesse. Es generalisiert das aussagenlogische Erfüllbarkeitsproblem und bietet für jede Stufe der polynomiellen Hierarchie prototypische Probleme. Weiters lassen sich viele Probleme der künstlichen Intelligenz und der Spieltheorie als Erfüllbarkeitsproblem für quantifizierte boolesche Formeln kodieren. Derzeit existieren mehrere Beweiser für dieses Problem, basierend auf einer Vielzahl unterschiedlicher Lösungsansätze. Ein kürzlich vorgestellter Beweiser konstruiert Beweise mit Hilfe eines Sequenzkalküls. In diesem Papier untersuchen wir die Fähigkeiten dieses Kalküls kurze Beweise erzeugen zu können und vergleichen verschiedene Konstruktionsmerkmale des Kalküls diesbezüglich. Wir vergleichen diesen Kalkül weiters mit einem weit verbreiteten Resolutionskalkül und untersuchen die Auswirkungen von Pränexierung auf die Länge von Beweisen. Wir zeigen, dass eine strenge Ordnung von Sequenzkalkülen existiert was ihre Fähigkeit betrifft, kurze Beweise erzeugen zu können. Manipulationen im Inneren von Formeln - zusätzlich zu Manipulationen die streng der Struktur von Formeln folgen - können Beweise exponentiell verkürzen. Beweise in Form eines gerichteten, azyklischen Graphen können expontiell kürzer sein als Beweise in Baumform. Weiters zeigen wir obere und untere Schranken für Fähigkeiten, die ein Sequenzkalkül besitzen muss, um ebenso kurze Beweise erzeugen zu können wie Resolutionskalküle. Das Papier beweist auch, dass eine gute Pränexierungsstrategie essentiell ist, um kurze Beweise erzeugen zu können.

Diplomarbeitsposter Stefanoni Giorgio

Giorgio Stefanoni

Masterstudium DDP Computational Logic (Erasmus-Mundus)
Abstract:

In order to meet usability requirements, most logic-based applications provide explanation facilities for reasoning services. This holds also for DLs, where research focused on the explanation of both TBox reasoning and, more recently, query answering. Besides explaining the presence of a tuple in a query answer (explanation of positive answer), it is important to explain also why a given tuple is missing (explanation of negative answer). We first address the problem of explaining positive query answers by providing an algorithmic solution to the procedure already outlined in the literature. Additionally, we employ the new algorithm to solve the explanation problem for inconsistency in DL-Lite ontologies. In solving the problem of explaining negative answers to (U)CQ over ontologies, we adopt abductive reasoning, that is, we look for additions to the ABox that force a given tuple to be in the result. As reasoning tasks, we consider existence and recognition of an explanation, and relevance and necessity of a certain assertion for an explanation. We characterize the computational complexity of these problems for subset minimal and cardinality minimal solutions.

Diplomarbeitsposter Tran Trung Kien

Trung Kien Tran

Masterstudium DDP Computational Logic (Erasmus-Mundus)
Abstract:

Ontologies can be used to formally represent knowledge of an application domain. This enables machines to make use of the knowledge, to discover new knowledge, or to exchange knowledge with others. In the context of database systems, an ontology can be seen as the conceptual view over data repositories, and data can be accessed by query answering services. To build such ontologies, we need ontology languages. Among formalisms for ontology languages, Description Logics (DLs) are the most prominent ones. DLs underlie the foundation for the current Web Ontology Language (OWL) standard recommended by World Wide Web Consortium (W3C). DLs are a family of knowledge representation languages with different expressive capabilities and computational complexities. It seems that only lightweight languages i.e., language with low complexity, are suitable for applications dealing with a large amount of data. The first family of lightweight DLs is DL-Lite, specially designed to capture data modeling formalism while keeping very low complexity. The second collection of lightweight languages is the EL family. Both of these families are subsumed by the Description Logic Horn-SHIQ. Horn-SHIQ is the Horn fragment of the expressive Description Logic SHIQ underlying the OWL-Lite standard. There exist practical algorithms for query answering in EL and DL-Lite but there is no such algorithms for Horn-SHIQ. In this thesis, we investigate this issue and propose a query rewriting-based approach for answering conjunctive queries over ontologies in Horn-SHIQ. Apart from providing a sound and complete algorithm, we have implemented a prototype system and performed experiments on well-known ontologies.

Diplomarbeitsposter Wijaya Tri Kurniawan

Tri Kurniawan Wijaya

Masterstudium DDP Computational Logic (Erasmus-Mundus)
Abstract:

Answer Set Programming (ASP) ist ein sehr nützliches Werkzeug für die Wissensrepräsentation und zum Lösen von deklarativen Problemstellungen. In letzter Zeit werden Modularitätsaspekte in ASP zunehmend interessant, bei dem es darum geht, (Sub-)Programme zu einem (kombinierten) Logikprogramm zusammenzusetzen. Modularität erlaubt nicht nur das gegebene Problem in seine Teilproblem zu zerlegen, sondern erleichtert auch die Wiederverwendbarkeit von logischen Programmen und bietet bessere Unterstützung für große Softwareprojekte. Zu den gegenwärtigen Ansätzen in diesem Bereich zählen Modular Nonmonotonic Logic Programs (MLP), welche einige Stärken aufweisen: Sie erlauben wechselseitige rekursive Aufrufe und nutzen Prädikatensymbole als Modul-Input, wodurch dynamischere Kodierungen der Probleme entstehen. MLPs sind sehr ausdrucksstark und haben eine hohe computationale Komplexität, deswegen ist es sehr anspruchsvoll, eine praktikable Implementierung für diesen Formalismus zu erstellen. In dieser Arbeit entwickeln wir TD-MLP, einen konkreten Algorithmus zur Berechnung von Modellen für MLPs. TD-MLP basiert auf Top-down-Auswertungstechniken, die nur relevante Modulaufrufe berücksichtigen. Wir integrieren eine Optimierungstechnik, die Modulinstanzen separiert und damit redundante Berechnungen vermieden werden. Wir haben diese Optimierungstechnik implementiert und Experimente auf Benchmark Instanzen zeigen vielversprechende Resultate. Darüber hinaus evaluieren wir auch unterschiedliche Kodierungen für Probleme, um modularen und mit einfachen logischen Programmen zu vergleichen. Experimente zeigen, dass in einigen Fällen die modulare Kodierung die gewöhnlichen Programme übertreffen können.

Institut für (vor 2018) Institut für ComputersprachenE185

Arbeitsbereich (vor 2018) Programmiersprachen und Übersetzer

Diplomarbeitsposter Blechmann Tim

Tim Blechmann

Individuelles Masterstudium aus Medieninformatik
Abstract:

These days, most computer systems are built with multi-core processors. However, most computer music systems use a single-threaded synthesis engine. While the single-core performance for current CPUs is sufficient for many computer music applications, some demanding applications benefit from using multiple processors simultaneously. Real-time audio synthesis imposes specific constraints regarding real-time safety, since the synthesis engine needs to be tuned for worst-case latencies below one millisecond. As a result, no blocking synchronization can be used and the signal processing graph needs to be split into reasonably sized parts, that provide enough parallelism without introducing a significant scheduling overhead. During the work on this master thesis, I developed Supernova as a multiprocessor aware synthesis engine for SuperCollider. SuperCollider is a computer music system based on a dynamic scripting language with a real-time garbage collector, that is used to control a separate audio synthesis server. Supernova replaces the original audio synthesis engine. It is not possible to automatically parallelize the synthesis graph of SuperCollider without fundamentally changing the semantics of the SuperCollider class library. Therefore a the programming model for the synthesis graph was extended, exposing parallelism explicitly to the user. To achieve this, I propose two simple concepts, `parallel groups' and `satellite nodes'.

Diplomarbeitsposter Dönz Tobias

Tobias Dönz

Masterstudium Software Engineering & Internet Computing
Abstract:

The development of software for distributed systems is often carried out with middleware that provides programming abstractions to ease the implementation. Space-based middleware systems are based on tuple spaces and allow loosely coupled components of a distributed system to coordinate over a shared data store. They provide synchronization, time and space decoupling. However, tuple spaces offer no order for the stored data objects which limits the coordination capabilities. eXtensible Virtual Shared Memory (XVSM) is a space-based middleware architecture that allows for more and flexible coordination and can be easily extended. Recently, it has been specified with a formal model in several layers, of which the lower ones have been implemented in Java as previous work. This thesis describes the design and implementation of the upper layers of the formal model in MozartSpaces 2.0, the Java implementation of XVSM. They comprise the runtime, remote communication and the API. The runtime supports blocking operations with timeouts and aspects to extend the middleware functionality. Important is the fast scheduling of requests and the efficient handling of internal events for blocking operations. As example for the extensibility of XVSM we implement publish/subscribe notifications with aspects. We also present an XML protocol for the interoperable remote access to XVSM spaces and a synchronous and asynchronous API. Benchmark results show that MozartSpaces 2.0 is considerably faster than the previous version 1.0 for all operations and scales better.

Diplomarbeitsposter Gelbmann Wolfgang

Wolfgang Gelbmann

Masterstudium Medizinische Informatik
Abstract:

Im .NET Umfeld hat sich LINQ (Language Integrated Query) als Komponente zur universalen Abfrage von Datenquellen durchgesetzt. Das Erzeugen der an SQL angelehnten Anfrage ist konsequent von der Ausführung und der Interpretation getrennt, was eine geeignete Basis für Erweiterungen darstellt. Das „Space Based Computing“ oder „Shared Data Spaces“ Paradigma dient als Grundlage für die XVSM (eXtensible Virtual Shared Memory) Middleware Lösung, welche durchgängig Koordinatoren einsetzt um Abfragelogik vom Anwendungscode in das Framework zu verschieben. Die einleitende Intention dieser Arbeit resultierte in den Bestrebungen XVSM LINQ-tauglich zu machen und folglich die Interaktionsschnittstelle um eine vielseitige und ausdruckstarke Abfragesprache zu erweitern. Ein Teilbereich dieser Arbeit präsentiert einen LINQ Adapter für die .NET Referenzimplementierung von XVSM (XcoSpaces). Dieser wandelt LINQ Abfragen, sogenannte Expression Trees, in den für XcoSpaces erfassbaren Linda-Koordinator um. Da dieser Koordinator auf Template-Matching basiert, sind die unterstützen LINQ Anweisungen stark eingeschränkt und umfassen im Wesentlichen Abfragen auf Gleichheit. Als Konsequenz der erlangten Einsichten richtet sich der Fokus dieser Arbeit auf die Neuimplementierung der XVSM Spezifikation (LinqSpace) mit LINQ als primärer Schnittstelle für Abfragen. Zur Datenspeicherung wäre prinzipiell jedes LINQ-fähige System geeignet, jedoch wurde im Sinne neuer Evaluierungsmöglichkeiten auf eine, im XVSM Umfeld eher unkonventionelle Speicherform zurückgegriffen: die relationale Datenbank. Abschließend wird der neue LinqSpace mit XcoSpaces verglichen und der Paradigmenwechsel von „Einträgen“ im Space zu einem Arbeiten direkt an einem Domain-Model erläutert. Ein Beispiel zeigt wie die Entitäten eines Entity-Relationship-Modells und deren Beziehungen ohne zusätzliche Adaptionen als Grundlage für verteilte Koordination genutzt werden kann.

Diplomarbeitsposter Leiter Christoph

Christoph Leiter

Masterstudium Software Engineering & Internet Computing
Abstract:

Diese Diplomarbeit befasst sich mit nebenläufiger Programmierung in objektorientierten Programmiersprachen. In aktuellen Sprachen wird Nebenläufigkeit oft nur zweitrangig und orthogonal zum Objektkonzept behandelt. Durch die unzureichende Integration ist die korrekte Implementierung von nebenläufigen Programmen kompliziert und fehleranfällig. Das Ziel dieser Arbeit ist die Frage zu klären, wie Konzepte der Nebenläufigkeit mit Methoden des Typestate Trackings besser in das objektorientierte Paradigma integriert werden können, und welche Vor- und Nachteile ein solches Modell mit sich bringt. Zur Untersuchung dieser Punkte wird eine Java-ähnliche Programmiersprache entworfen, die diesen Ansatz zum Ausdruck nebenläufiger Aspekte verfolgt. Es wird ein Prototyp eines Compilers für diese Sprache entwickelt. Dieser wird dazu benutzt, um die Machbarkeit zu demonstrieren und um das Konzept zu bewerten. Zur Evaluierung werden nebenläufige Programme mit der neu erstellten Sprache und mit Java erstellt. Die daraus resultierenden Implementierungen werden anhand vordefinierter Kriterien miteinander verglichen. Die Arbeit zeigt, dass durch eine bessere Integration von Nebenläufigkeit in objektorientierte Sprachen der Implementierungsaufwand von Programmen gesenkt werden kann. Ebenso kann die Fehleranfälligkeit verringert und die Ausdruckskraft erhöht werden. Die Ausführungszeit solcher Programme ist zur Zeit länger, aber es ist noch offen, wie effizient eine optimierte Implementierung wäre.

Diplomarbeitsposter Neumann Andreas

Andreas Neumann

Masterstudium Software Engineering & Internet Computing
Abstract:

eXtensible Virtual Shared Memory (XVSM) stellt für die Kommunikation und Zusammenarbeit von mehreren Prozessen einen gemeinsamen Datenraum bereit. Generell läuft ein XVSM Space innerhalb eines XVSM Cores. Das Team der Space Based Computing Gruppe der Technischen Universität Wiens ist daran interessiert XVSM Cores auf einfache Art und Weise zu konfigurieren bzw. zu visualisieren. Des Weiteren sollte eine einfache Monitoring Funktionalität integriert werden. In der vorliegenden Arbeit wird der XVSM-Editor vorgestellt. Mittels dieses XVSM-Editors kann eine XVSM Core Konfiguration zu einem oder mehreren XVSM Cores verteilt werden. Der Benutzer kann entweder die Konfiguration im XVSM-Editor erstellen, oder er kann auch einfach eine existierende Konfiguration von einem entfernten XVSM Core laden. Im letzteren Fall kann der Benutzer natürlich die Konfiguration anschließend seinen Bedürfnissen anpassen. Der XVSM-Editor zeigt die einzelnen Werte der Variablen innerhalb der Komponenten eines XVSM Cores an, und diese können auch geändert werden. Des Weiteren stellt der XVSM-Editor eine einfache Monitoringfunktion bereit. Auch auf die Erweiterbarkeit des XVSM wurde eingegangen und eine Technik integriert, mit der man den Inhalt von selbst geschriebenen Aspekten oder Koordinatoren anzeigen kann. Der entwickelte Prototyp wurde an Hand von Ergebnissen der untersuchten verwandten Arbeiten und einer Literaturrecherche kreiert. Mit Hilfe des Editors ist es sehr einfach eine Konfiguration von einem XVSM Core zu laden, zu bearbeiten, und diese auf weitere XVSM Cores zu verteilen. Das Erstellen einer Konfiguration ist in diesem Fall auch weniger fehleranfällig, da der Benutzer nur bestimmte vorgegebene Komponenten hinzufügen oder entfernen kann. Der besondere Nutzen dieser Lösung liegt darin, dass man die Visualisierung und die Verteilung der Konfiguration in einem einzigen Editor auf einfache Art und Weise erledigen kann.

Diplomarbeitsposter Sabin Patrick

Patrick Sabin

Masterstudium Software Engineering & Internet Computing
Abstract:

There are two different methods of implementing a reversible debugger, i.e., a debugger which can run the program forwards and backwards. The first one is the logging-based approach, which records the state of the program after every instruction and allows inspection after the program has finished running. The second one is the replay-based approach, where the debugger runs the debuggee interactively. For this purpose it makes periodic snapshots. The debugger runs the debuggee backwards by restoring a previous snapshot and then running the program forward until it reaches the desired position. In this thesis, I show that it is possible to implement a reversible debugger by continuous snapshotting of the program state. There are indeed some challenges with using such a feature. For example, there are non-deterministic instructions, which execute differently each instance the interpreter executes them, e.g., a function, which returns the system time. Therefore I present some methods of treating these problems. Accompanying this thesis, I have developed a proof-of-concept implementation of a reversible debugger called epdb for the Python programming language, which solves most of the problems of reversible debugging. In order to support reversible debugging of programs which have non-deterministic instructions in it, I introduce the new concept of timelines. With timelines, the user can decide which execution path he wants to take. I also introduce stateful resource management to support the management of the external state. This allows the user to investigate the environment corresponding to the actual position inside the program, when he executes the program backwards.

Diplomarbeitsposter Starzinger Michael

Michael Starzinger

Masterstudium Software Engineering & Internet Computing
Abstract:

Every virtual machine capable of executing Java byte-code needs to perform some sort of automatic memory management, commonly referred to as garbage collection. However, it is not specified how this garbage collection process actually has to be performed. So far the Cacao Virtual Machine (CacaoVM) used a conservative garbage collector that was designed for uncooperative environments, thus it has been unable to take full advantage of the information already present in the runtime infrastructure. This conservative garbage collector was replaced by an exact one, which has been tailored to the specific needs of a Java Runtime Environment. In the context of Java several different components of the virtual machine need to be orchestrated for exact garbage collection to work. The application threads act as mutators on the heap and need to be prevented from interfering with the collector. Another central aspect is identifying the actual references which point into the heap and prevent objects from being collected. These references are referred to as the root-set and keep objects alive. The actual collection algorithms are in charge of cleaning up dead objects and reorganizing the heap, so that free memory is made available again. Those algorithms have already been researched in depth over the past decades, exhibiting vastly different characteristics. All of the above aspects need to be considered from the perspective of a pure Just-In-Time compilation approach as taken by CacaoVM. Some crucial simplifications, which rely on fallbacks into an unoptimized interpreter mode, cannot be applied and need to be revisited in this setting. Special care was taken to allow future development towards a generational garbage collection approach by providing the necessary infrastructure.

Diplomarbeitsposter Vögler Michael

Michael Vögler

Masterstudium Software Engineering & Internet Computing
Abstract:

To handle the load of a service more efficiently load clustering can be used to cluster a set of loads into smaller subsets, where each of this so called clusters captures a specific aspect of the load. There exist many clustering algorithms reaching from unintelligent to intelligent ones. However most approaches are very problem oriented and therefore hard to compare. In this thesis we propose a generic architectural pattern for a load clustering framework that allows the plugging of different clustering and classification algorithms. Furthermore this pattern should ease the selection of the best algorithm for a certain problem scenario. The presented pattern assumes autonomous agents and a blackboard based communication mechanism to achieve a high software architecture agility. The pattern can be composed towards more complex network topologies which supports the combination of different algorithms. To prove the concept, the pattern and several clustering algorithms have been implemented and benchmarked, as part of this thesis.

Arbeitsbereich (vor 2018) Theoretische Informatik und Logik

Diplomarbeitsposter Krinninger Sebastian

Sebastian Krinninger

Masterstudium Computational Intelligence
Abstract:

Supervaluationismus ist eine von mehreren Theorien der Vagheit, die in der analytischen Philosophie diskutiert werden. Im Supervaluationismus werden alle Möglichkeiten berücksichtigt, eine vage Aussage vollständig präzise zu machen. In jeder Präzisierung werden Formeln wie in der klassischen Logik interpretiert. Vagheit wird durch Präzisierungsräume, d.h. durch Mengen verschiedener Präzisierungen, modelliert. Der supervaluationale Wahrheitsbegriff ist Superwahrheit, d.h. Wahrheit in allen Präzisierungen. Fuzzy-Logiken stammen ursprünglich aus der Kontrolltechnik und haben zwei Charakteristika: Das Einheitsintervall ist die Menge der möglichen Wahrheitswerte und der Wahrheitswert von Formeln ergibt sich durch Wahrheitsfunktionen. Wir betrachten jene Fuzzy-Logiken, bei denen die Wahrheitsfunktion der Konjunktion eine stetige T-Norm ist und auch die restlichen Wahrheitsfunktionen vollständig durch die Wahl der T-Norm bestimmt werden. Wir kombinieren Supervaluationismus und Fuzzy-Logik zu einer hybriden Logik, indem wir jeden Präzisierungsraum mit einem Maß auf seinen Präzisierungen ausstatten. Wir bestimmen den Wahrheitswert jeder propositionalen Variable durch das Maß jener Präzisierungen, in denen sie als wahr erachtet wird. Die Wahrheitsfunktionen der Konnektive werden, wie in der Fuzzy-Logik, durch eine stetige T-Norm bestimmt. Weiters fügen wir einen modalen Operator S hinzu, der angibt, ob eine Formel im Präzisierungsraum superwahr ist. Wir betrachten bestimmte Einschränkungen für Präzisierungsräume und zeigen Folgendes: Die hybride Łukasiewicz-Logik ist die einzige hybride Logik, in der Wahrheit in allen Präzisierungsräumen äquivalent ist zu Wahrheit in allen Präzisierungsräumen, bei denen das Maß einen strikt positiven Wertebereich hat. Sowohl in der hybriden Łukasiewicz-Logik als auch in der hybriden Gödel-Logik ist Wahrheit in allen Präzisierungsräumen mit einem strikt positiven Maß äquivalent zu Wahrheit in allen Präzisierungsräumen mit einem uniformen Maß.

Diplomarbeitsposter Seitz Georg

Georg Seitz

Masterstudium Computational Intelligence
Abstract:

Koalitions-Spiele (Coalitional games) dienen als Modell für Multi-Agenten-Systeme, in denen die Agenten die Möglichkeit haben, Koalitionen zu bilden um bestimmte Ziele zu erreichen. Alternating-Time Temporal Logic (ATL) ist eine etablierte Logik zur Formalisierung solcher Spiele für den Fall dass die Spieler durchgehend perfekte Information über den tatsächlichen Zustand des Spiels besitzen. Für Spiele mit imperfekter Information scheint keine derartige „Standard“-Logik zu existieren, aber in aktueller Literatur finden sich verschiedenste Ansätze. In dieser Arbeit diskutieren und vergleichen wir einige dieser Ansätze im Hinblick auf Ausdruckskraft, Komplexität und etwaige Probleme. Es stellt sich heraus, dass im Fall von gedächtnislosen Agenten sehr ausdrucksstarke Logiken existieren, die es erlauben, verschiedene Begriffe strategischer Fähigkeiten in Koalitions-Spielen zu beschreiben. Ganz im Gegenteil dazu führt die Annahme von perfektem Gedächtnis schnell zu dem Problem, dass einigermaßen aussagekräftige Logiken für solche Spiele unentscheidbar sind. Als unseren eigenen Beitrag zu der Thematik präsentieren wir einen Ansatz zur Entschärfung dieses Problems durch Approximation solch einer unentscheidbaren Logik durch entscheidbare.

Diplomarbeitsposter Spendier Lara Katharina

Lara Katharina Spendier

Masterstudium Computational Intelligence
Abstract:

Nichtklassische Logiken nahmen in den letzten Jahren in vielen Gebieten, vor allem in der Informatik, an Bedeutung zu. Mittlerweile existiert bereits eine große Anzahl nützlicher und interessanter nichtklassischer Logiken, wie beispielsweise Fuzzy-Logiken oder Substrukturelle Logiken. Zudem führen Wissenschaftler verschiedener Fachbereiche weiterhin neue Logiken ein, um ihre Anforderungen zu erfüllen. Nichtklassische Logiken definiert man üblicherweise, indem man Hilbert-Axiome zu bereits bekannten Systemen hinzufügt. Die Nützlichkeit dieser Logiken hängt jedoch stark von der Verfügbarkeit sogenannter analytischer Kalküle ab, in welchen Beweise durch schrittweises Zerlegen der Formeln geführt werden. Den analytischen Kalkül einer Logik definiert man durch die Wahl eines passenden Formalismus, sowie das Festlegen geeigneter Regeln zur Formalisierung der Logik. Zusätzlich müssen Korrektheit, Vollständigkeit und Schnittelimination des definierten Kalküls bewiesen werden. Mit der Definition neuer Logiken wächst daher auch die Anzahl solcher Beweise und eine automatisierte Prozedur zur Einführung analytischer Kalküle in systematischer Weise wäre somit erstrebenswert. In dieser Diplomarbeit erweiterten wir eine systematische Prozedur, die Hilbert-Axiome in äquivalente analytische Regeln umformt, auf die Familie der Axiome (Bdk) mit k ≥ 1. Um die Prozedur auf diese Axiome zu erweitern, definierten wir zunächst einen neuen Formalismus, den Nichtkommutativen Hypersequenzkalkül, und erstellten geeignete Regeln entsprechend den Axiomen (Bdk). Für diese Regeln bewiesen wir Korrektheit, Vollständigkeit und Schnittelimination. Zusätzlich entwickelten wir einen Algorithmus auf Basis der systematische Prozedur und implementierten diesen in PROLOG.

Institut für (vor 2018) Institut für Computergraphik und AlgorithmenE186

Arbeitsbereich (vor 2018) Algorithms and Complexity

Diplomarbeitsposter Bruckmayer Thomas

Thomas Bruckmayer

Masterstudium Informatikmanagement
Abstract:

Das Ziel des ReDSeeDS-Projekts mit Unterstützung der Europäischen Union, war die Schaffung einer auf Szenarien basierenden Software-Entwicklungsumgebung. Diese Umgebung ermöglicht Software-Entwicklern Informationen (Modelle und Code) zu ähnlichen Problemstellungen abzurufen, und die abgerufenen Informationen für die weitere Wiederverwendung anzupassen. Die Anwendung des ReDSeeDS-Projekts erweitert jede Entwicklungsphase um weitere Möglichkeiten, das wiederum bedeutet, dass zusätzliche Aktivitäten koordiniert werden müssen. Eine ausführliche Anleitung für die Abwicklung jeder Phase wird durch die ReDSeeDS-Methodik, die von mehreren Entwicklern aus verschiedenen europäischen Ländern erstellt wurde, zur Verfügung gestellt. Die Entwicklung einer solchen Methodik ist eine komplexe Aufgabe und daher beschreibt diese Magisterarbeit im Detail die ReDSeeDSArchitekturentwurfsphase und deren Dokumentation in der ReDSeeDS-Methodik. Darüber hinaus ist die ReDSeeDS-Methodik eng an das ReDSeeDS-Tool gekoppelt, um die Lücke zwischen der allgemeinen Beschreibung der Methodik und der detaillierten, toolspezifischen Beschreibung zu überbrücken. Zum Beispiel beschreibt die Methodik, dass ein bestimmtes Resultat innerhalb einer bestimmten Tätigkeit erstellt werden muss. Die allgemeine textuelle Beschreibung dieser Tätigkeit ist direkt mit dem Tool verknüpft, um die konkrete Vorgehensweise im Tool durch automatisierte Benutzeraktionen aufzuzeigen. Diese Arbeit befasst sich auch mit den theoretischen Grundlagen und der technischen Umsetzung dieses Methodik-Tool-Kopplungsansatzes.

Diplomarbeitsposter Edlinger Karl-Michael

Karl-Michael Edlinger

Masterstudium Computational Intelligence
Abstract:

Das Müllaufkommen in Österreich steigt stetig an. Den produzierten Müll zu entsorgen, stellt ein großes logistisches Problem dar. Viel Knowhow und Zeit werden in die Planung investiert, und trotzdem werden nicht immer zufriedenstellende Lösungen gefunden. In der Fachliteratur existieren einige Lösungsverfahren für die Müllsammlung, doch keines, das auch die vielen Voraussetzungen für den Praxiseinsatz erfüllen würde. Sollte es aber nicht doch möglich sein, die Planungsbeauftragten bei ihren Aufgaben zu unterstützen und dadurch die Kosten zu reduzieren? Geplant wird die regelmäßige Müllabholung für einen gewissen Zeitraum (z.B.: eine Arbeitswoche). In diesem Planungszeitraum müssen einige Behälter mehrmals entleert werden. Aus der Anzahl der notwendigen Entleerungen im Planungszeitraum ergeben sich Besuchsmuster. Für jeden Müllcontainer muss ein Besuchsmuster ausgewählt werden. Daraus ergibt sich für die Fahrzeuge jeden Tag eine Liste an Behältern, die sie entleeren. Hat ein Fahrzeug einige Müllbehälter entleert und seine maximale Ladekapazität fast erreicht, so muss das Fahrzeug zu einer Entladestation fahren. Modelliert werden kann die Müllsammlung als Multi-Depot Periodic Vehicle Routing Problem with Intermediate Facilities (MDPVRP-IF). Nach einer zufälligen Auswahl eines Besuchsmusters für alle Abfallbehälter wird mit der Savings-Heuristik eine Startlösung erstellt. Das Variable Neighborhood Search-Verfahren (VNS) hat schon bei ähnlichen Problemen seine Vorzüge bewiesen und wurde für die Müllsammlung adaptiert. Als lokale Suche kommt 2-Opt zum Einsatz und als Akzeptanzkriterium wird Simulated Annealing (SA) verwendet. Getestet wurde das VNS mit Echtdaten eines Entsorgungsunternehmens. In weniger als 60 Minuten lieferte das VNS-Verfahren für alle Testszenarien Lösungen, die von einem Disponenten als Verbesserungen im Vergleich zu den bisherigen Lösungen bezeichnet wurden. Ein Praxis-Einsatz des Lösungsverfahrens in der nächsten Planungsperiode ist angedacht.

Diplomarbeitsposter Fritz Gernot

Gernot Fritz

Masterstudium Computational Intelligence
Abstract:

In der vorliegenden Arbeit werden heuristische und metaheuristische Lösungsalgorithmen für das Hop Constrained Node Survivable Network Design Problem (HNSND) und das Hop Constrained Edge Survivable Network Design Problem (HESND) präsentiert und miteinander verglichen. Hop Constrained Survivable Network Design ist ein NP-schweres Problem. Nachdem die Lösung in der vorliegenden Arbeit als Subgraph repräsentiert wird, ist bereits der Test, ob eine Lösung gültig ist, NP-schwer. Daher liegt der erste Schwerpunkt der Arbeit auf der Entwicklung eines fortgeschrittenen Tests, welcher in polynomieller Zeit zumindest ungültige Lösungen ausschließen kann, dies am besten mit einer sehr kleinen Fehlerrate, um die Anwendungen des zeitintensiven exakten Gültigkeitstest zu minimieren. Die Ergebnisse auf den getesteten Instanzen zeigen, dass der polynomielle "Advanced Check" eine Fehlerrate von rund 1% in Bezug auf "False Positives" hat, mit anderen Worten rund 1% der durchgelassenen Lösungen keine gültige Lösung darstellen. Darüber hinaus liegt der Algorithmus insgesamt in rund 0,40% aller getesteten Instanzen mit seiner Bewertung falsch. Danach werden 27 verschiedene Lösungsalgorithmen entwickelt, darunter zehn Konstruktionsheuristiken, zehn Variable Neighborhood Descent (VND) Varianten, sechs Multi-Start VND Varianten, sowie ein Greedy Randomized Adaptive Search Procedure Ansatz. Weiters wird ein verbesserter exakter Gültigkeitstest präsentiert. Die Ergebnisse auf den getesteten Instanzen zeigen, dass einige Verfahren optimale Ergebnisse erzielen. Überblicksmäßig ergibt sich für das HESND im Schnitt eine Abweichung von 5-25% von der Optimallösung, für das HNSND gibt es keine Vergleichswerte auf den getesteten Instanzen. Zusammenfassend ist zu sagen, dass die vorliegende Arbeit eine große Toolbox an heuristischen Methoden für Hop Constrained Survivable Network Design Probleme präsentiert, welche gute Resultate in vernünftiger Zeit erzielen.

Diplomarbeitsposter Gruber Christian

Christian Gruber

Masterstudium Computational Intelligence
Abstract:

In dieser Arbeit wird ein Algorithmus für das Generalized Minimum Spanning Tree-Problem (GMST) entwickelt. Bei diesem Verfahren wird ein Evolutionärer Algorithmus (EA) mit zwei verschiedenen Lösungsarchiven verwendet. Die Lösungsarchive werden dazu benutzt Lösungen zu speichern, um Duplikate zu erkennen und diese in neue Lösungen umzuwandeln. Diese Archive werden in dieser Arbeit durch eine Bounding-Strategie basierend auf dem Branch and Bound Verfahren erweitert. Dabei wird versucht im Archiv an günstigen Positionen geeignete Bounds zu berechnen, die Auskunft darüber geben, wie gut die Lösungen in diesem Bereich des Archivs höchstens sein können. Wird eine Bound gefunden, die schlechter als die beste gefunden Lösung ist, sind diese Lösungen im weiteren Verlauf des Algorithmus uninteressant und erden nicht mehr berücksichtigt. Das führt dazu, dass mehrere Lösungen von vornherein als schlecht erkannt werden können und somit nur Lösungen verfolgt werden, die auch Verbesserungen bringen können.

Diplomarbeitsposter Krenek Thorsten

Thorsten Krenek

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Für ein Computermodell eines Hybridelektrokraftfahrzeugs (Hybrid Electric Vehicle, HEV) soll der Verbrauch im Neuen Europäischen Fahrzyklus (NEFZ) minimiert werden. Eine Besonderheit bei der Verbrauchsbestimmung von HEVs ist die Forderung eines nahezu gleichen Batterieladezustands am Beginn und am Ende des NEFZs. Es soll u.a. die Schaltstrategie, die rein elektrische Fahrt, Boosten und die Lastpunktanhebung optimiert werden. Dadurch ergeben sich in etwa zehn zu optimierende Parameter. Die Aufgabe besteht nun darin, eine Optimierungsstrategie zu finden, die es ermöglicht, in möglichst geringer Laufzeit ein Parameterset zu finden, das möglichst nahe am globalen Optimum liegt. Durch die hohe Komplexität des Modells können konkrete Parametersets nur durch relativ zeitaufwändige Simulationen des Modells bewertet werden. Ausgehend von bereits vorhandenen einfacheren Standardoptimierungsmethoden wurden unterschiedliche teils deutlich effizientere Algorithmen entwickelt, die spezielle Eigenschaften der Problemstellung ausnutzen. Es wurde zuerst ein Algorithmus entwickelt, der die Auswahl der zu optimierenden Parameter reduziert bzw. festlegt. Weiters wurde für die Erzeugung von Ausgangslösungen ein Monte-Carlo Suchverfahren entwickelt. In weiterer Folge wurden ein genetischer Algorithmus, ein Downhill-Simplex Verfahren und ein Algorithmus, der auf Schwarmintelligenz beruht (PSO), implementiert. Beim PSO wurde die beste Lösung mit einem Surface-Fitting Algorithmus verbessert. Schlussendlich wurden die einzelnen Metaheuristiken in einem gesamten Optimierungsprozess unter Berücksichtigung der Stärken und Schwächen der einzelnen Verfahren für die Problemstellung miteinander kombiniert. Für das Modell des zu optimierenden HEVs konnte eine Treibstoffersparnis von etwa 33 Prozent im Vergleich zu einem konventionell betriebenen vergleichbaren Kraftfahrzeug erzielt werden. Der Anteil unseres kombinierten Ansatzes liegt dabei etwa bei fünf Prozentpunkten.

Diplomarbeitsposter Seidl Thomas

Thomas Seidl

Masterstudium Software Engineering & Internet Computing
Abstract:

Das Rooted Delay-Constrained Steiner Tree Problem (RDCSTP) ist eine Variante des bekannten Steinerbaum-Problems auf einem Graphen in welcher die Pfade zu allen Zielknoten durch eine bestimmte maximale Verzögerung beschränkt sind. Das Problem tritt hauptsächlich im Bereich des Netzwerk-Routings auf. Da das RDCSTP zur Klasse der NP-schwierigen Probleme gehört ist es allgemein nicht möglich die exakte Lösung einer großen Probleminstanz in vertretbarer Zeit zu finden. Der Fokus der Forschung liegt daher großteils auf der Entwicklung guter Heuristiken. In dieser Arbeit wird hierfür die Multilevel-Refinement-Heuristik als Verbesserungsheuristik für das RDCSTP entwickelt. Grundsätzlich werden bei dieser Metaheuristik in einem ersten Schritt Knoten sukzessive zusammengefasst um den Graphen auf höheren „Levels“, mit weniger Knoten, darzustellen. Das so vereinfachte Problem kann dann auf der höchsten Abstraktionsebene in simpler Weise gelöst werden. Dann wird diese Lösung schrittweise wieder soweit verfeinert, bis eine Lösung für das ursprüngliche Problem erreicht wird. Der hier vorgestellte Algorithmus für das RDCSTP implementiert diesen Multilevel-Ansatz als Verbesserungsheuristik, die eine existierende Lösung iterativ verändert. Eine weitere Besonderheit ist, dass wegen der zusätzlichen Verzögerungs-Einschränkung weitere Datenstrukturen benötigt werden, um auf höheren Levels gültige Lösungen zu erzeugen. Außerdem wird während der Verfeinerung der Lösung auf jedem Level eine weitere Verbesserungsheuristik angewandt, das Key Path Improvement, welches die Lösungsqualität drastisch verbessert. Umfangreiche experimentelle Tests wurden durchgeführt um die Leistungsfähigkeit des Algorithmus bei großen Instanzen zu messen und ihn mit anderen Algorithmen aus der Literatur zu vergleichen. Die hierbei erhaltenen Ergebnisse sind durchwegs sehr positiv und weisen somit darauf hin, dass der verfolgte Ansatz tatsächlich eine konkurrenzfähige Heuristik für das RDCSTP darstellt.

Diplomarbeitsposter Sinnl Markus

Markus Sinnl

Masterstudium Computational Intelligence
Abstract:

Diese Diplomarbeit behandelt das Steiner tree problem with revenues, budget and hop constraints (STPRBH), ein NP-schweres kombinatorisches Optimierungsproblem mit Anwendungen unter anderem im Design von Telekommunikationsnetzen. Eine Instanz des STPRBH besteht aus einem ungerichteten Graphen mit einem Wurzelknoten, Terminalknoten, die positiven Ertrag generieren, falls sie in einer Lösung mit dem Wurzelknoten verbunden sind und Kanten mit positivem Gewicht. Weiters ist ein Budget B und ein Hoplimit H Teil einer Instanz. Erlaubte Lösungen sind alle Steiner-Bäume dieses Graphen, die den Wurzelknoten enthalten und in denen jeder Pfad vom Wurzelknoten bis zu einem anderen Knoten im Baum höchstens aus H Kanten besteht. Weiters darf die Summe der Gewichte der Kanten im Baum höchstens B betragen. Ziel ist es, eine gültige Lösung mit möglichst hohem Gewinn, der durch die Summe der Erträge der in der Lösung vorhandenen Knoten definiert ist, zu finden. Es werden mehrere Formulierungen für das STPRBH als ganzzahliges lineares Programm mit exponentiell vielen Variable vorgeschlagen. Außerdem werden branch-and-price Verfahren, die auf diesen Formulierungen basieren und das exakte Lösen von Instanzen des STPRBH erlauben, eingeführt. Die Anwendbarkeit verschiedener Möglichkeiten deren Effizienz zu verbessern wird analysiert. Tests auf schon existierenden Benchmark-Instanzen zeigen, dass die vorgeschlagenen branch-and-price Ansätze kompetitiv mit schon existierenden exakten Verfahren, die auf branch-and-price basieren, sind, falls das Hoplimit oder die Anzahl der Terminalknoten vergleichsweise klein ist. Für Instanzen mit großem Hoplimit oder einer großen Anzahl von Terminalknoten sind die vorgeschlagenen branch-and-price Verfahren noch nicht kompetitiv mit den branch-and-cut Verfahren. Durch die implementierten Beschleunigungsmethoden wurde aber eine signifikante Beschleunigung der branch-and-price Verfahren erreicht.

Diplomarbeitsposter Winkler Thomas

Thomas Winkler

Masterstudium Software Engineering & Internet Computing
Abstract:

Die Diplomarbeit behandelt das Thema der Rekonstruktion von in Streifen geschnittenen Textdokumenten. Das Wiederherstellen solcher Seiten wird als ein kombinatorisches Optimierungsproblem interpretiert, bei dem die einzelnen Streifen in die ursprüngliche Reihenfolge gebracht werden müssen. Zuerst werden einige Ansätze zur Behandlung des Problems der unbekannten Orientierung der einzelnen Streifen vorgestellt. Anhand des Bereichs zwischen den Textzeilen aber auch mit einer einfachen Erkennung von markanten Buchstaben wird versucht eine Zuordnung der Orientierung zu bewerkstelligen. Weiters wird eine Methode zur Erkennung der Randstücke - also jene beiden Streifen, die sich im Original links und rechts auf der Seite befunden haben - angewandt, um die Lesbarkeit und die Qualität der Lösung zu erhöhen. Im Zuge der Arbeit wird die Rekonstruktion mittels einer variablen Nachbarschaftssuche durchgeführt. Es werden zusätzlich unterschiedliche Methoden gezeigt, wie man bei der Rekonstruktion eine Verbesserung erhält, indem man die bereits richtig angeordneten Streifen zu Blöcken zusammenfasst. Drei unterschiedliche Ansätze werden beschrieben und getestet. Als Testinstanzen werden zehn Dokumente mit je vier verschiedenen Streifenbreiten zerschnitten und die drei Ansätze darauf getestet. Es zeigt sich, dass bei einem Viertel aller Testinstanzen eine vollständige und bei mehr als der Hälfte der Testinstanzen eine lesbare Rekonstruktion möglich ist.

Arbeitsbereich (vor 2018) Computergraphik

Diplomarbeitsposter Fechter Tobias

Tobias Fechter

Masterstudium Medizinische Informatik
Abstract:

Segmentation of medical image data has grown into one of the most important parts in medicine. The main fields of segmentation in the area of medicine are surgical planning, diagnosis, therapy planning and simulation. The focus was in the last years mainly on automatic and semi-automatic segmentation methods for 3D and 4D datasets. Most of them are highly specialized as they need a lot of prior knowledge and often the results have to be corrected manually. An alternative to automatic and semi-automatic methods is to perform the segmentation manually. The main drawbacks of this approach are that it is very tedious and time consuming, the user knowledge has a very high impact on the results and it is very hard to reproduce specific results. This work presents a tool that enables the user to enhance results of automatic and semi-automatic algorithms and to do fast manual segmentation of shapes of arbitrary topology from scratch. The tool can deal with three and four dimensional image datasets captured by different modalities. The segmentation is mesh based and performed with a 2D cut approach. To achieve a better alignment of the edges to a specific shape the edge class based Sticky Edges algorithm is introduced. Furthermore, well known mesh optimization algorithms were implemented to accomplish better results. To achieve a faster segmentation of 4D datasets two methods are presented. With the first one the user can record its interactions on one volume in the 4D dataset and apply them automatically to the other volumes. The other one enables the user set an already segmented mesh as start position for the segmentation of other volumes. The approach presented in this work is up to 25 times faster than the evaluation approach. Moreover, the mesh quality regarding smoothness, curvature and triangle quality are at eye level with the evaluation meshes. The geometric distance to the ground truth meshes is on average 2 mm and the normal deviation is between 0.3 and 0.4 degree.

Diplomarbeitsposter Goldmann Axel

Axel Goldmann

Masterstudium Medieninformatik
Abstract:

Speech transmission is the central service in many telecommunication infrastructures. The encoding of many channels according to modern standards requires a fair amount of processing capacity. With the recent GPU product lines, powerful platforms have become available as supplement to desktop CPUs. This thesis tries to leverage these developments and examines the possibilities of general purpose GPU employment in the context of speech coding. The speech codec used in the TETRA mobile radio system is implemented using the CUDA programming model. The main question is, how many channels can be encoded in real time on current GPUs. Results show that through careful implementation and with some effort, a substial number of channels can be processed. It seems however that modern multicore CPUs are much better qualified for the task. The presented optimizations are far from complete and further research directions are suggested.

Diplomarbeitsposter Grünauer Andreas

Andreas Grünauer

Masterstudium Medizinische Informatik
Abstract:

Coronary artery diseases are among the leading causes of death in the industrial countries. The high death rate leads to an increased demand of diagnosis and treatment of these diseases. Additional to the conventional coronary angiography, the CT angiography is mainly used in the extended diagnostics of coronary artery diseases. This modality allows a detailed assessment of the coronary vessels and potentially present stenoses. For supporting the radiologist during the evaluation of the coronary arteries by the help of computer-aided diagnostic methods, robust and efficient procedures for the tracking of coronary arteries are needed. The approach presented in this thesis unifies the strong points of existing methods delivering high accuracy with the strong points of methods achieving high overlap. Therefore the approach presented in this thesis aims at highly accurate results in combination with high overlap of the investigated coronary artery vessel tree. The approach is divided into three phases: 1) calculation of seed points, 2) tracking of vessel segments, and 3) construction of the coronary artery trees. Phase 1 & 2 are executed in an automatic manner. First potential seed points for the tracking of vessel segments are identified. During the second phase, vessel segments located at these seed points are tracked by use of a cylindrical shape model. By use of rule-based anatomical heuristics, the third and final phase combines vessel segments to form complete coronary artery trees. This phase requires minimal user interaction, as the location of the root of the left and right coronary artery tree needs to be specified. Beside the detailed description of the algorithm, the integration into a professional radiology workstation is demonstrated. The results obtained by the evaluation on 24 CTA datasets show a high overlap (OV) of 89.5\% in combination with very precise accuracy (AI) of 0.24 mm in comparison to an expert-annotated reference segmentation.

Diplomarbeitsposter Hanzl Michael

Michael Hanzl

Masterstudium Visual Computing
Abstract:

Soziale Netzwerke sind ein gut erforschtes Gebiet, mit entsprechend viel wissenschaftlicher Literatur. Soziale Netzwerke werden heutzutage für viele verschiedene Anwendungsfelder, wie z.B. im geschäftlichen Umfeld, für den Unterricht und die Lehre, in der Medizin und um andere Personen kennen zu lernen, verwendet. Diese Anwendungsgebiete machen Soziale Netzwerke sehr populär. Das zugrunde liegende Konzept eines Sozialen Netzwerks ist ein Graph, der aus Knoten und Kanten besteht. Personen werden als Knoten dargestellt und die sozialen Beziehungen zwischen diesen Personen als Kanten. Der soziale Graph ist semantisch sehr starr und mühsam zu verändern. Eine Verbindung zwischen zwei Personen muss normalerweise von beiden Personen akzeptiert werden und erfordert ein manuelles Eingreifen der Benutzer. Spontane Soziale Netzwerke - Spontaneous Social Networks (SSNs) - verwenden im Gegensatz zu Sozialen Netzwerken viel flexiblere Graphen, bei denen das Eingreifen des Benutzers auf ein Minimum reduziert wird. Kanten werden in Echtzeit von Geräten, wie z.B. Smartphones und Desktop PCs erzeugt und gelöscht. Auf den SSNs operieren Applikationen, die den Zweck und die Eigenschaften des Spontanen Sozialen Netzwerkes festlegen. Außerdem bieten sie dem Benutzer eine Schnittstelle zur Benutzung von SSNs. Das Ziel dieser Diplomarbeit ist das Design eines Standards und die Implementierung eines Frameworks für SSNs. Etliche Beispielapplikationen demonstrieren die Funktionen und Fähigkeiten des Frameworks. Für die Kommunikation in SSNs wird das Extensible Messaging and Presence Protocol (XMPP) und das Publish-Subscribe Modell verwendet. Die Eigenschaften und Ansätze für das Auffinden von SSNs werden behandelt. Die Implementierung wird mit Hilfe des System Usability Scale (SUS) in Bezug auf die Brauchbarkeit bzw. Benutzerfreundlichkeit evaluiert. Außerdem wird die Tauglichkeit von XMPP, die Skalierbarkeit sowie der Datenschutz in SSNs und der Beispielimplementierung diskutiert.

Diplomarbeitsposter Kinkelin Martin

Martin Kinkelin

Masterstudium Visual Computing
Abstract:

In this work, we focus on the problem of reconstructing a volume (scalar 3D field) based on non-uniform point samples and then rendering the volume by exploiting the processing power of GPUs. In the first part involving the reconstruction, we motivate our choice of tensor-product uniform B-splines for the discretized representation of the continuous volume. They allow for highly efficient, scalable and accurate reconstruction at multiple scales (resolution levels) at once. By subdividing the volume into blocks and reconstructing them independently, current desktop PCs are able to reconstruct large volumes and multiple CPU cores can be efficiently exploited. We focus on linear and cubic B-splines and on how to eliminate otherwise resulting block discontinuities. Once we have reconstructed the volume at multiple scales, we can derive different Levels of Detail (LoDs) by subdividing the volume into blocks and selecting a suitable scale for each block. We present a fusion scheme which guarantees global C^0 continuity for linear LoDs and C^2 continuity for cubic ones. The challenge here is to minimize visual block interscale discontinuities. A LoD, consisting of a hierarchical spatial subdivision into blocks and an autonomous B-spline coefficient grid for each block, is then rendered via a GPU ray-caster. We achieve interactive frame-rates for qualitative Direct Volume Renderings (DVRs) and real-time frame-rates for iso-surface renderings.

Diplomarbeitsposter Niederreiter Christian

Christian Niederreiter

Masterstudium Visual Computing
Abstract:

Full-spectral color rendering capability of global illumination renderers is still in need of improvement, particularly regarding performance, which is a reason why many modelling programs for global illumination are focused on three-component based color representation (e.g. RGB). Full-spectral color representations are the basis for realistic color appearance in realistic image synthesis. Currently, if compared to common three-component rendering, the major disadvantage of full-spectral rendering comes from higher computation costs because of the greater amount of processed information. This thesis investigates promising approaches of spectral color representation in the context of a multi-level color rendering model called Spectral Mipmapping, focused on the trade-off between time-efficiency and resulting image quality in terms of perceived color difference. A test implementation in a basic ray tracing renderer is used to evaluate results and make suggestions concerning appropriate code design optimizations and spectral sampling strategies. The influence of compiler optimization and vector instruction use (based on SSE instructions) is discussed.

Diplomarbeitsposter Nürnberg Marcel

Marcel Nürnberg

Masterstudium Visual Computing
Abstract:

Today's real-time applications, such as computer games or virtual environments, need to display more and more geometrically complex surfaces. Texturing mapping is insufficient to produce such high geometric complexity. This thesis proposes a cell-based approach to model and render repetitive fine scaled details with a high visual quality providing local parallax, correct occlusions and convincing silhouettes. Since cell-based objects are displayed with a ray tracing sophisticated effects such as specular self-reflection and refraction are also possible to render. Decomposition of the object into a low frequent geometry (the rough representation called the “basic mesh”) and high frequent surface details (stored in a 3D texture map called the “cell map”). A cell map contains voxel-based components the so-called “cells”. The idea is to tile these cells regularly over the 3D object space. Consequently the set of all inside cells make up the final cell-based object. The precomputed cell-based objects are displayed with ray tracing. By rendering the basic mesh, the object’s surface is the entry point for the ray tracing algorithm. Rays are shot in eye direction to hit an inside cell’s boundary by performing a linear search with a subsequent binary search.

Diplomarbeitsposter Stingl Martin

Martin Stingl

Masterstudium Visual Computing
Abstract:

Die Generierung von Schatten in großen virtuellen Umgebungen für Echtzeitrendering Anwendungen wie z.B. Videospielen ist nach wie eine große Herausforderung für die Computergraphik. In den letzten Jahren haben sich Shadowmapping und verschiedene Varianten davon in großem Umfang als geeignete Methode zur Schattenerzeugung durchgesetzt, was in letzter Zeit zur Einführung sehr vieler erweiterter Shadowmapping Techniken geführt hat. Aus diesem Grund ist es manchmal schwierig für Entwickler die passende Methode für bestimmte gegebene Szenarios auszuwählen. Diese Diplomarbeit konzentriert sich auf die Analyse von einigen gebräuchlichen komplett hardware-beschleunigten Shadowmapping Techniken und die Möglichkeit sie zu kombinieren. Wir präsentieren ein interaktives Framework, dass es dem Anwender erlaubt mit den gewählten Methoden zu experimentieren und fast alle interessanten Aspekte des Schattenerzeugungsprozesses für beliebige Szenen zu visualisieren. Es unterstützt die Möglichkeit der Schattengenerierung durch die Verwendung von mehreren Shadowmaps, durch Umverteilung der Samples oder beides gemeinsam, und bietet größt mögliche Flexibilität durch zahlreiche veränderbare Parameter. Außerdem enthält es die Möglichkeit die finalen Resultate aus unterschiedlichen Blickpunkten zu analysieren, was es Entwicklern ermöglichen sollte für die gegebenen Szene den am besten geeigneten Algorithmus zu finden.

Diplomarbeitsposter Zhang Le

Le Zhang

Masterstudium Visual Computing
Abstract:

Computerspiele sind zu einer der wichtigsten Branchen der Unterhaltungsindustrie geworden. Aber die intensive Interaktion des Benützers interferiert mit seiner Wahrnehmung und Aufmerksamkeit, da die Spieler primär auf die gegenwärtig auszuführende Aufgabe fokussiert sind. Daher werden Informationen, die nicht direkt mit der Aufgabe des Spiels zusammenhängen, wie z.B. Werbebanner, nicht bemerkt werden. Dieses Verhalten, bekannt als “inattentional blindness” (Blindheit durch Ablenkung) ist ein Hauptproblem für die optimale Platzierung von Informationen (insbesondere spielrelevante Nachrichten) oder Werbung in der virtüllen Umgebung des Spieles. Meine Diplomarbeit wird einen Rückblick auf die Entwicklungsgeschichte, einen Überblick über gegenwärtige Methoden und Themen von Werbung in Computerspielen geben, wobei inbesondere dieWahrnehmung von in die Spielumgebung eingebettetenWerbebannern diskutiert wird und eine Methode vorschlagen wird, um die “Inattentional Blindness” zu durchbrechen um solche Werbebanner im Spiel sichtbarer zu machen. Der zugrundeliegende Ansatz basiert aufWolfe’s Theorie der “Guided Search”, die eine relativ verlässliches Modell für top-down kontrollierte visuelle Aufmerksamkeit während visueller Suchaufgaben bietet. Da sich in Computerspielen häufig visuelle Suchaufgaben ergeben, ist unsere Hypothese dass dieses Modell auch in “umgekehrter Richtung” angewendet werden kann, so dass die Salienz einiger Werbebanner soweit erhöht wird dass sie vom Spieler gesehen werden, auch während dieser Aufgaben erledigt die seine Aufmerksamkeit besonders in Anspruch nehmen. Um diese Hypothese zu Testen, wurde ein Computerspiel implementiert und eine Benutzerstudie durchgeführt, wo der Effekt unsere Methode mit einem Gedächnistest überprüft wurde.

Institut für (vor 2018) Gestaltungs- und WirkungsforschungE187

Arbeitsbereich (vor 2018) Multidisciplinary Design

Diplomarbeitsposter Brugner Simon

Simon Brugner

Masterstudium Medieninformatik
Abstract:

Die digitale Bilderproduktion hat sich, so wie digitale Technologien überhaupt, gegenüber ihrem analogen Pendant durchgesetzt. Auf dem Siegeszug der digitalen Technik wurde die analoge Fotografie für obsolet erklärt. Die Relevanz der analogen Fotografie liegt heute nur mehr in ihrer kulturgeschichtlichen Bedeutung, nicht aber in ihrer im Alltag praktizierten Form. Mit dem Triumph der digitalen Bilder geht auch ein Vertrauensverlust fotografischen Bildern gegenüber einher. Das „objektive“ Bild der Wirklichkeit scheint gemeinsam mit der analogen Fotografie begraben worden zu sein. Die digitale Bildmanipulation ermöglicht den Einzug einer Virtualität in die fotografischen Bilder, welche die dort zuvor verortete Realität zu verdrängen scheint. Die vorliegende Arbeit untersucht den Wandel der Realität bzw. des Realitätsbegriffes, der sich durch die Verdrängung der analogen durch die digitale Bilderproduktion vollzogen hat. Das Hauptaugenmerk dieser kritischen, auf Materialien aus dem Überschneidungsfeld von Erkenntnis-, Fotografie- und Medientheorie zurückgreifenden, Literaturanalyse liegt in der Untersuchung des Realitätsbegriffs im Zeitalter der digitalen Fotografie. Die „Natürlichkeit“ des fotografischen Bildes wird widerlegt und das Bild als wissenschaftliche, industrielle und kulturelle Konstruktion ausgewiesen. Ebenso wie das fotografische Bild ist auch die dadurch vermittelte objektive Realität eine Konstruktion. Mit der Verbreitung der digitalen Bilderproduktion kommt das Bewusstsein über die Konstruiertheit der fotografisch vermittelten Realität in der breiten Öffentlichkeit an.

Diplomarbeitsposter Kahofer Agnes

Agnes Kahofer

Masterstudium Medieninformatik
Abstract:

Die Vermittlung von musiktheoretischen Grundlagen begleitend zum Instrumentalunterricht erweitert die Fähigkeiten und Kompetenzen von Musikschülerinnen und Musikschülern. Deshalb beschäftigt sich diese Arbeit mit dem Entwurf und der daraus folgenden Umsetzung eines Prototyps zur Unterstützung des Musikkundeunterrichts an Musikschulen, um eine kollaborative, intuitive Lernumgebung mit modernen Interaktionsmöglichkeiten aufzuzeigen. In einem iterativen Designprozess mit benutzerzentrierten Methoden wurde eine Anwendung mit einem Tangible User Interface konzipiert, welche mit einem optischen Trackingsystem, einer Projektion und einer akustischen Wiedergabe umgesetzt wurde. Daraus entstand der Prototyp MusicTheoryTable (MTT), der verschiedene Aufgabenstellungen generiert, die durch Schreiben von Noten und Vorzeichen mittels optischer Marker gelöst werden können. Zudem wurden Evaluierungen mit Musikschülerinnen und Musikschülern des Musikkundeunterrichts einer niederösterreichischen Musikschule mittels Videobeobachtungen, offenen Interviews und einem teilstandardisierten Fragebogen durchgeführt, um Anforderungen und Bedürfnisse zu identifizieren und Erkenntnisse über Verbesserungs- und Einsatzmöglichkeiten zu gewinnen. Diese Erkenntnisse bilden die Basis für mögliche Weiterentwicklungen und zeigen die Potenziale einer derartigen Anwendung auf.

Diplomarbeitsposter Smejkal Peter

Peter Smejkal

Masterstudium Medieninformatik
Abstract:

Instant Messaging ist in den letzen Jahren ein fixer Bestandteil der zwischenmenschlichen Kommunikation geworden. Bei der Kommunikation über dieses Medium werden Textnachrichten mittels eines Client-Programms über ein Netzwerk zwischen mehreren Personen versandt. Diese Diplomarbeit geht der Frage nach, wie diese neue Kommunikationsweise des Instant Messagings in den Alltag der Benutzer eingebaut wird, welche Bedeutung sie für die handelnden Individuen hat und wie sich das Alltagshandeln durch die Nutzung verändert. Da es in Bezug auf Studierende bislang vorwiegend quantitative Studien gibt, wurde zur Beantwortung der Forschungsfrage dieser Diplomarbeit die Methode des qualitativen Interviews gewählt, um der Frage nach der Bedeutung der neuen Kommunikationsmöglichkeit des Instant Messagings für die Nutzer nachzugehen. Es wurden hierfür mit Hilfe des problemzentrierten Interviews nach Witzel elf Studierende interviewt. Zur Datenerfassung wurden die Interviews mittels Aufnahmegerät aufgezeichnet. Nach vollständiger Transkription dieser Aufnahmen erfolgte die Analyse und Interpretation des Datenmaterials nach dem Grundsatz der sozialwissenschaftlichen Hermeneutik, wobei die Methode der Kernsatzfindung nach Leithäuser und Volmerg und das theoretische Modell des Symbolischen Interaktionismus nach Blumer und Mead verwendet wurde. Die zentralen Ergebnisse dieser Arbeit zeigen, dass Instant Messaging mittlerweile eine wichtige Rolle im Alltag von Studierenden eingenommen hat. Die Vorteile von Instant Messengern helfen den Kontakt mit Freunden und Bekannten aufrecht zu erhalten und zu intensivieren. Es zeigt sich, dass durch die Kommunikation über Instant Messenger eine Anpassung des Nutzungsverhaltens stattfindet. Auch im Vergleich mit den anderen technischen Kommunikationsmöglichkeiten zeigt sich das die Wahl des Mediums an die jeweilige Situation und Dringlichkeit angepasst wird.

Arbeitsbereich (vor 2018) Human Computer Interaction

Diplomarbeitsposter Holzkorn Peter

Peter Holzkorn

Masterstudium Medieninformatik
Abstract:

Diskussion und Argumentation im Lehrveranstaltungskontext sind in allen akademischen Disziplinen essentiell. Im Rahmen dieser Arbeit wurde spezifisch für den Einsatz mit dem bestehenden E-Learning Framework am Institut für Gestaltungs- und Wirkungsforschung der TU Wien (HCI group) ein asynchrones Online-Diskussionssystem namens discuss entwickelt, in dem die Qualität der Partizipation, die Höhe des Lernertrags und die benutzerfreundliche Handhabung im Vordergrund stehen. Die Hypothese ist, dass Verbesserungen an Diskussionssystemen im E- Learning-Kontext gegenüber etablierten Designs durch Veränderungen der visuellen Struktur und der Interaktionsmuster möglich sind. Im Rahmen der Diplomarbeit wurde ein Repertoire an Designstrategien erarbeitet und in Zusammenhang mit dem Designprozess des zu entwickelnden Systems gstellt. Der vorliegende Text gibt einerseits die Verknüpfung sozialwissenschaftlicher Grundlagen, Studien und Analysen bestehender Systemen wieder. Andererseits werden Konsequenzen für das Design gezogen und der Entwicklungsprozess des neuen Systems geschildert. Schließlich wird das System im Lichte der erarbeiteten Prinzipien evaluiert.

Diplomarbeitsposter Knotek Anatol

Anatol Knotek

Masterstudium Informatikmanagement
Abstract:

Speziell in der heutigen Zeit, nachdem das Internet seinen Siegeszug angetreten hat und die Computertechnologie bereits weit fortgeschritten ist, bieten sich neue Möglichkeiten für Kunstschaffende, aber auch für Professoren und Lehrer im Bereich der Didaktik. Das Ziel der Arbeit ist es, computerunterstützten Unterricht aus einem anderen Blickpunkt zu betrachten. Neue Möglichkeiten werden anhand von Hypertexten, Konkreter und Digitaler Poesie aufgezeigt, um Einsichten in mehrere Wissensgebiete wie die Informatik, die experimentelle Dichtung bzw. Literatur und die bildende Kunst zu geben. Der Schwerpunkt liegt auf der Herausarbeitung der unterschiedlichen Potentiale verschiedenster Disziplinen für die Didaktik und stellt somit eine Art Bausteinsystem für einen modernen Unterricht dar. Es werden gegenwärtige Beispiele Digitaler Poesie und Medienkunst vorgestellt und Parallelen zu Neuen Medien in der Didaktik und aktuellen Unterrichtspraxis gezogen. Zur Evaluierung wurden international tätige Professoren und Medien-Künstler zu ihren Erfahrungen befragt, um einen Einblick in die derzeitige didaktische und künstlerische Praxis, aber auch einen Ausblick in die Zukunft zu geben.

Diplomarbeitsposter Makaruk Eliza

Eliza Makaruk

Masterstudium Informatikmanagement
Abstract:

In this work e-learning methods have been discussed on the example of a computer language course. After short discussion of the e-learning characteristic and advantages, the work focuses on the psychological and pedagogical aspects of learning as also on the didactic learning theory. The technical realisation of the e-learning methods is reviewed. The issue of the interactivity in e-learning programs is tackled. Subsequently, e-learning software evaluation methods were analysed. The work finishes with an evaluation of an e-learning application for foreign language course in the context of interactivity. For the evaluation, opinions of software users were investigated As far as the results of the evaluation are concerned, it was found out that not every level of interactivity was implemented in the investigated application. The guidelines for the interactivity were realised in a reasonable way. The features like graphical navigation, ”clickability” and simulation are well-implemented, however the feedback signals could be optimised.

Diplomarbeitsposter Mautner Markhof Clemens

Clemens Mautner Markhof

Masterstudium Medieninformatik
Abstract:

The recent success of video games that focus on creating content, rules and new solutions instead of just playing-through them reveal that the current research on game design and theory needs to be adapted. The mechanics behind these games are yet unknown territory. In our thesis we identify and analyse game features, mechanics and dynamics that transform the process of creating the content and rules of a game into a series of player's challenges. We provide an overview and insight how game design elements can be used as gameplay by comparing traditional game literature, discussing the influence and impact of social interaction features, and reviewing game design as gameplay games while developing an explorative game prototype. Finally we propose some first theorems and rules about games and mechanics that focus on creating rather than consuming.

Diplomarbeitsposter Moshki Hanieh

Hanieh Moshki

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

This thesis explores a rarely addressed topic in IT adoption literature, namely the adoption and use of public social networking websites (SNS) in small and medium sized enterprises (SME). Eight different SMEs located in Vienna which are using Facebook as their main SNS were studied. Apart from semi-structured interviews, the content of the organizational posts are analysed to understand why and how these organizations are using SNS. The analysis of the interviews showed that six factors influence the adoption of SNS in studied SMEs which are; the attitude of manager’s real-life social network toward SNS, relative perceived ease of use and maintenance simplicity, understanding customer’s needs, willingness to define and share organizational identity, perceived social approval of SNS among target customers and dynamic nature of the business and regular changes. Posts which inform the customers about new products, services or events are the most popular message type among the studied cases. Based on the findings, this study debates the capability of rational adoption models for explaining this phenomenon and recommends the adoption models and theories with social constructs as models which can be adapted to answer why SMEs are using SNS.

Diplomarbeitsposter Pichler Katharina

Katharina Pichler

Masterstudium Information & Knowledge Management
Abstract:

Moni ist ein medizinisches Expertensystem, das zum frühzeitigen Erkennen von nosokomialen Infektionen am AKH Wien auf der Intensivstation eingesetzt wird. Entwickelt wurde Moni von der Medizinischen Universität Wien und Medexter Healthcare GmbH. Die vorliegende Arbeit befasst sich mit den Fragen ob sich Moni in den Routinebetrieb eines Krankenhauses übernehmen lässt und damit eine Unterstützung der Ärzte erwirken kann. Wie gut können Ärzte mit dem System arbeiten, genügen die Usability Anforderungen den heutigen Standards? Wie umgeht Moni die bekannten Probleme der Diagnosesysteme, Wissen formal darzustellen. Der erste Teil der Arbeit umfasst eine Literaturrecherche über den aktuellen Forschungsstand zum Themenbereich Expertensysteme in der Medizin. Es folgt die Erarbeitung der Grundstruktur für den Kriterienkatalog anhand der Literatur von Ben Shneiderman und Jakob Nielsen. Durch die Analyse der Systembenutzung mit Unterstützung von Dr. Harald Mandl und einer Vorführung des Routine Systemeinsatzes durch Dr. Alexander Blacky vom AKH Wien wurden die praktischen Analysen durchgeführt. Am Ende wird der Kriterienkatalog ausgewertet. Das Ergebnis der Arbeit zeigt, dass Moni in Bezug auf Usability noch vereinzelt Schwächen aufweist, auf die in der Studie noch näher eingegangen wird. Hinsichtlich der Utility ist Moni jedoch bereits ausgereift. Die formale Darstellung der Regeln wird durch die Arden Syntax und deren Erweiterung Fuzzy Arden Syntax realisiert. Dadurch können Ergebnisse in Wertbereichen angegeben werden, was ein exakteres Resultat zulässt.

Diplomarbeitsposter Spiteller Verena

Verena Spiteller

Masterstudium Informatikmanagement
Abstract:

Gegenstand der Arbeit ist die Evaluation eines kommerziellen Sprachlern-Softwareprodukts zum selbstständigen Lernen von Französisch. Die Bewertungskategorien sind Usability, pädagogische Gestaltung, Spracherkennung und Akzeptanz. Dazu wurde eine zweiteilige empirische Studie durchgeführt. Sechs Testpersonen nahmen an einem Usability-Test teil, der auch Ausspracheübungen enthielt. Durch einen Pretest wurden die möglichen Testszenarien eingeschränkt. Zur Beurteilung der pädagogischen Gestaltung lernte eine Testperson einen Monat lang selbstständig mit dem Lernmaterial, wobei Lernprotokolle geführt wurden. Der Lernfortschritt wurde anhand eines Tests zu Beginn und am Ende der Lernphase ermittelt. Mit allen Testpersonen wurden Abschluss-Interviews durchgeführt. Die Resultate in den Kategorien Usability und pädagogische Gestaltung wurden anhand von Guidelines analysiert und dargestellt. Das evaluierte Produkt weist Mängel in Bezug auf Spracherkennung, Usability und pädagogische Gestaltung auf. Vor allem die Unzuverlässigkeit der Spracherkennung, die nicht-intuitive Benutzerschnittstelle, das mangelhafte Feedback und die Unübersichtlichkeit des Lernmaterials beeinträchtigen die Akzeptanz. Dennoch werden die Möglichkeiten, die das getestete Sprachlernprogramm für das Erlernen einer Sprache bietet, von den Testpersonen positiv bewertet. Die Ergebnisse der empirischen Studie bestätigen die Bedeutung von Guidelines und Usability-Tests für die Entwicklung von Sprachlernprogrammen.

Diplomarbeitsposter Stachl Claus

Claus Stachl

Masterstudium Medieninformatik
Abstract:

Auch die Informationsvisualisierung (InfoVis) bemüht sich nunmehr um richtungsweisende Fortschritte auf dem Gebiet der Ästhetik. Zum einen sollen hier allgemein gültige Gesetze einer objektiven Ästhetik zu gleichsam schönen wie effektiv wahrnehmbaren Visualisierungstechniken führen. Zum anderen bieten die jüngst zahlreich im Internet kursierenden Datenvisualisierungen viel Zündstoff für Diskussion innerhalb einer pragmatisch-analytisch orientierten InfoVis. Neue Taxonomien und adäquate Evaluationsmodelle bezüglich der Effekte von Ästhetik in der InfoVis sind gefordert. Es soll somit Aufgabe dieser Arbeit sein, wesentliche Aspekte der Ästhetik zusammenzuführen und für eine Betrachtung innerhalb der InfoVis zu erörtern. Das zentrale Erkenntnisinteresse liegt dabei ganz klar auf Entwürfen eines modernen Schönheitsbegriffes zwischen rationaler Analytik und emotionaler Subjektivität. Ein umfassender Literaturvergleich bietet hierfür breite theoretische Grundlagen. Schließlich werden letztere anhand einer umfassenden Evaluation eines Casual-InfoVis-Prototypen empirisch erfasst. Der erste Teil der Studie umfasst einen Reihungstest nach ästhetischen Präferenzen. Das Resultat bestätigt dabei weitgehend die auf Basis der Theorie gestützten Hypothesen. Nicht nur Ordnungsstrukturen, auch Komplexität wirkt sich zugunsten eines ästhetischen Maximums aus. Der zweite Teil der Studie beinhaltet eine eingehende Betrachtung von 5 Thinking-Aloud-Sitzungen in Bezug auf die Beobachtungskriterien Motivation und Nutzungsverhalten sowie Usability und Vielseitigkeit. Die Aufgabe der Ästhetik in der InfoVis darf demnach nicht bloß darauf beschränkt werden, ein visuell schönes Erscheinungsbild zu prägen.Vielmehr dient Ästhetik als initialer Motivationsfaktor, als emotionales Bindeglied zwischen Publikum und Anwendung, als Medium von Aufforderungscharakter und Funktion, als metaphorischer Rahmen für Storytelling und Interpretation und nicht zuletzt der effektiven und effizienten Wahrnehmung.

Institut für (vor 2018) Softwaretechnik und Interaktive SystemeE188

Arbeitsbereich (vor 2018) Information & Software Engineering

Diplomarbeitsposter Baumann Thomas

Thomas Baumann

Masterstudium Business Informatics
Abstract:

Presently a higher and higher value is attached to data security. Companies become aware of the importance of protecting their data against illegal third-party access. One area that is often overlooked or underestimated is the one of the security of backups. They must also be protected from unauthorized access. One approach to achieve this level of security is to encrypt the backups. A particularly promising approach in this area is the encryption using Trusted Computing. Data is tied to a hardware chip of a specific physical hardware and can only be restored on this very platform on which it was previously made. Despite the number of backup programs that can be found on the market, there are none that fulfil this security requirement satisfactorily. Therefore this thesis describes scenarios that were developed in order to represent the basic use cases for the procedure of backup. The backup systems already on the market as well as the use cases are analysed. Based on the obtained findings, basic requirements for a backup program that is optimal in terms of trustworthiness are developed. Using these criteria, a concept for a prototype of an ideal backup program is created. The paper discusses the problems which arise in the development of such a program and describes the solutions to overcome these problems. The solutions lead to the creation of specifications and the choice of technologies in order to use them for the backup prototype. Furthermore, the prototype is implemented and this paper describes which tools are used for this implementation and what operations are performed. The reader should thus be enabled to understand this program as well as to adjust it to his own needs. After the implementation of the prototype extensive tests of this program and the abstract concept of trusted backups are conducted. In order to do so, abuse cases were developed and applied to the previously created scenarios.

Diplomarbeitsposter Berchtold Dominik Manfred

Dominik Manfred Berchtold

Masterstudium Software Engineering & Internet Computing
Abstract:

Die Menge an digital gespeicherten Daten steigt rasant an, dadurch werden Möglichkeiten zur effizienten Suche nach Informationen immer wichtiger. An der Präsentation von Suchergebnissen als Liste von Treffern in Textform hat sich in den letzten Jahren kaum etwas geändert. Eine graphische Aufbereitung könnte den Suchprozess oft entscheidend unterstützen. Ein möglicher Ansatz bietet die ikonisierte Darstellung der Ergebnisse mit Hilfe von graphischen Metaphern. Dabei werden die in den Treffern enthaltenen Metadaten verwendet, um das Aussehen einzelner Ausprägungen der Metapher zu beeinflussen. Eine der Schwierigkeiten bei dieser Methode besteht in der Auswahl einer passenden Metapher sowie dem Festlegen der Regeln die den Einfluss der Metadaten auf deren Aussehen steuern. Dieses Problem wird noch verschärft, durch den oft nicht unerheblichen Aufwand der getrieben werden muss, um eine graphische Darstellung konkret umzusetzen. Um diesen Prozess der Metapher-Auswahl zu unterstützen, aber vor allem, um eine Möglichkeit zu schaffen, Erkenntnisse darüber zu erlangen, welche Kriterien bei der Wahl der Metapher von Bedeutung sind, wurde der metaViewer entwickelt. Mit seiner Hilfe können mit relativ wenig Aufwand unterschiedliche Visualisierungen ausprobiert werden. Dabei bietet er die Möglichkeit, Daten aus verschiedenen Quellen einzubinden. Außerdem stellt er mehrere Schnittstellen zur Verfügung die für weitere Untersuchengen die Entwicklung zusätzlicher Visualisierungsmöglichkeiten unterstützen. Somit können die beim Umgang mit dem metaViewer gesammelten Erfahrungen sofort genutzt und beim Entwurf neuer Metaphern angewendet werden. Der metaViewer bildet somit die ideale Basis, um eine Vielzahl an Visualisierungen auszuprobieren und deren Tauglichkeit zur Präsentation von Suchergebnissen bewerten zu können.

Diplomarbeitsposter Bernauer Andreas

Andreas Bernauer

Masterstudium Software Engineering & Internet Computing
Abstract:

Üblicherweise nutzt schadhafte Software eine oder mehrere Techniken zum Verschleiern von ausführbaren Dateien, um den eigenen Code zu verstecken. Es ist schwierig, für eine solche Art von Programmen Signaturen für statische Virenscanner zu erstellen, da die Eindeutigkeit nicht mehr mithilfe vom Programmcode auf dem Speichermedium ermittelt werden kann, sondern vorrangig durch den Code im Speicher oder durch das dynamische Verhalten gegeben ist. Diese Arbeit gibt einen Einblick in aktuelle Verschleierungstechniken und deren Gegenmaßnahmen. Weiters wird gezeigt, dass effektive Verschleierungstechnologien, die auf nativen Programmcode angewendet werden, auch auf die Java-Umgebung übertragen werden können. Neben einer Zusammenfassung und Besprechung von aktuellen Verschleierungstechniken, wird im Rahmen dieser Arbeit ein neuartiger "Runtime-Packer", vorgestellt. Dieser implementiert eine effektive Technik zum Verschleiern von Java-Programmen. Der Packer basiert auf polymorpher Verschleierung, die eine Hülle, einen "Wrapper", um das originale Programm legt, und so dessen Eigenschaften vor Virenscannern versteckt. Um die Effektivität unseres Packers zu testen, wurde ein Prototyp entwickelt. Als Ziel sollten die implementierten Techniken so geschaffen sein, dass sie die Ausführungsgeschwindigkeit des gepackten Programms nicht signifikant verlangsamen. Trotzdem soll eine signatur-basierte Überprüfung für ein gepacktes Programm sehr schwierig werden oder sich die Analyse desselben durch einen menschlichen "Reverse Engineer" erheblich zeitaufwändig gestalten. Letztendlich soll der Packer die Funktionalität des originalen Programms nicht verändern. In einer Evaluierungsphase konnte gezeigt werden, dass unser Packer alle drei dieser Anforderungen erfüllt. Die Effektivität des Packers wurde mit Hilfe eines definierten Schemas evaluiert, welches den Grad der Verschleierung, die Ausführungsgeschwindingkeit und die Bewahrung der originalen Funktionalität berücksichtigt.

Diplomarbeitsposter Fuchs Alexander

Alexander Fuchs

Masterstudium Software Engineering & Internet Computing
Abstract:

Die Funktionen von IT-Systemen müssen in zahlreichen Fällen anderen IT-Systemen zur Verfügung gestellt werden. Nach wie vor erfolgt dies oft über spezifische Integrationslösung. Dies führt zu einer hohen Anzahl an individuellen Lösungen und erschwert die Wartung einer gesamtheitlichen Integration wesentlich. Auch Anpassungen existierender Lösungen gestalten sich dadurch komplexer und risikoreicher. Aus diesem Grund sollte ein Ansatz verfolgt um gekapselte Integrationslogik, strukturierter und unabhängig vom Client zur Verfügung zu stellen. Eine ähnliche Problemstellung wurde auch im Forschungsprojekt "FFF-DMS-EAI" vorgefunden, bei dem es für das Document Management System (DMS) "InStruct" und die Business Process Management (BPM) Plattform "InSpire" einen Integration Layer zu entwickeln galt, um gezielt auf Informationen oder Funktionen spezifischer IT-Systeme zugreifen zu können. Daraus entstand die Anforderung an einen vom Integration Client unabhängigen und gleichzeitig Service-orientierten Ansatz und in weiterer Folge das Konzept der "Service-Oriented Adapter Architecture" (SOAA). Diese bisher rein konzeptionelle Architektur galt es exemplarisch umzusetzen. Einerseits um ihre Relevanz und Praxistauglichkeit zu bestimmen und andererseits um den Produkten "InSpire" und "InStruct" einen initialen Integration Layer zur Verfügung zu stellen. Dazu wurden zunächst grundlegende Anforderungen und Ziele definiert und darauf aufbauend eine Vorgehensweise, in Form eines iterativen Entwicklungsprozesses, erarbeitet. Anschließend fand eine Darstellung der Umsetzung allgemeiner Architekturkomponenten, sowie spezifischer Komponenten zur Integration von SAP Systemen und Datenbanken, statt. Eine kritische Betrachtung der Ergebnisse und Erkenntnisse der Umsetzung, das Aufzeigen möglicher Etablierungsstrategien, die Diskussion der Relevanz für Produkt Hersteller und die Darstellung von zukünftigen sinnvollen Erweiterungen bilden den Abschluss der Arbeit.

Diplomarbeitsposter Fuchs Alexander

Alexander Fuchs

Masterstudium Business Informatics
Abstract:

Die Integration von IT-Systemen ist vor allem im Unternehmensumfeld von enormer Bedeutung. Der Informationsaustausch zwischen den Kernsystemen eines Unternehmens kann dabei mit dem Nervensystem des menschlichen Körpers verglichen werden. Ähnlich wie der menschliche Organismus bei einer Störung seiner natürlichen Steuerungs- und Informationswege sehr empfindlich reagiert, bringt auch eine Störung der Informationswege, zwischen den wichtigsten Systemen eines Unternehmens, oft immense Schäden mit sich, sowohl finanzieller Natur, als auch für das Ansehen und die Reputation. Im Laufe der Zeit haben sich Konzepte etabliert um IT-Systemintegrationen möglichst einfach, verlässlich und reibungsfrei durchzuführen. Diese Konzepte und deren Umsetzungen sind jedoch oft nicht ausreichend flexibel genug und meist tief in den jeweiligen Losungen verwurzelt. Dies führt zur Fragestellung nach möglichen neuen Konzepten und Architekturen, die die Integration von IT-Systemen strukturiert, losgelöst vom Integration Client und Service-orientiert ermöglichen. Im Rahmen dieser Arbeit werden existierende Konzepte und Ansätze evaluiert und darauf aufbauend eine neuartige Architektur entworfen, die sich der bewährtesten Teilbereiche bedient. Als eines der grundlegendsten Ziele der "Service-Oriented Adapter Architecture" (SOAA) kann dabei die Trennung der Integrationsprozesse von deren Einzelaktivitäten angesehen werden, um so Flexibilität und Wiederverwendbarkeit zu erhöhen. Die vorliegende Arbeit erläutert zunächst allgemeine Konzepte der IT-Systemintegration, um anschließend auf die Zielsetzungen der konzipierten Architektur einzugehen. Darauf aufbauend werden Details des architekturellen Aufbaus und des Zusammenspiels der Komponenten dargestellt. Weiters wird die entwickelte Architektur mit der Integrationsarchitektur einer etablierten EAI und BPM Plattform verglichen um relevante Unterschiede zu diskutierten. Abschließend erfolgt eine kritische Betrachtung der Ergebnisse.

Diplomarbeitsposter Hamm Markus

Markus Hamm

Masterstudium Software Engineering & Internet Computing
Abstract:

Decision making is a complex issue. Although we all have a lot of practice we are not good at it. Multi Criteria Decision Analysis faces this issue and supports decision makers by specifying decision problems in a formal model which guides the way to the optimal decision. This formal problem specification adds transparency to the whole decision process. Digital preservation is the active management of digital content over time to sustain its accessibility. Active management means that preservation decision have to be taken. The process of finding optimal preservation decisions for a set of digital objects is called Preservation Planning. Digital content to preserve contains most of the time sensitive information like cultural heritage, business contracts or historical images. Thus preservation decisions are always critical which requires a trustworthy and therefore transparent decision finding process. Bringing this together Multiple Criteria Decision Analysis can be used to make preservation decisions in a transparent and therefore trustworthy way. The Preservation Planning tool Plato uses this approach to support the responsible planner at making the optimal decision in his scenario. Its decision finding process evaluates several possible preservation actions by a set of given criteria to identify the best action to take. Several institutions use Plato to take real world preservation decisions. Even though we have a lot of case study data we currently do not know a lot about the criteria used to make these decisions. The goal of this thesis is to identify the criteria used to take preservation decisions in detail and assess their quantitative impact on final decisions. This gained knowledge about decision criteria is aimed to help us improving the overall Preservation Planning process. To achieve this goal we present a method for criteria impact assessment based on analysing empirical collected case study data.

Diplomarbeitsposter Kern Thomas

Thomas Kern

Masterstudium Computational Intelligence
Abstract:

In this thesis a framework for auto classification of patents is developed. Emphasize lies on a comparison between several linear classifiers including an SVM and an L2-regularized linear classifier. Furthermore, a feature selection is implemented to reduce the cost of training albeit keeping the level of precision and recall steady on the level of classification with all the features intact. The number of features was reduced by 4%. In 2010 Montemurro and Zanette proposed a method to identify important words in a text. On this method a feature selection metric was built to distinguish between valuable and negative features. Furthermore a new filter selection algorithm based on the new metric is proposed.

Diplomarbeitsposter Marchart Andreas

Andreas Marchart

Masterstudium Business Informatics
Abstract:

Die Diplomarbeit beschäftigt sich mit der Fragestellung, wie Business Continuity Management Systeme in der Industrie eingesetzt werden können, um zu einer Steigerung der Resilienz eines Unternehmens beitragen zu können. Aus diesem Grund wurden zuerst die verschiedenen Begriffe, sowie die Teilbereiche des BCM abgegrenzt. Anschließend wurde untersucht, wie weit Business Continuity Management im Allgemeinen bzw. Krisenmanagement im Speziellen bereits bei Industrieunternehmen verbreitet ist. Hier hat sich gezeigt, dass bei der Verbreitung ein Zusammenhang mit der Unternehmensgröße besteht und dass dies mit unterschiedlichen Anforderungen zu begründen ist. Neben der Analyse von Krisensituationen aus der Vergangenheit wurde auch untersucht, ob es durch neue gesetzliche Anforderungen und Vorschriften zu einer erhöhten Nachfrage nach BCM Systemen kommen könnte. Ein weiterer Teil der Diplomarbeit war es außerdem, konzeptuelle Erweiterungs-möglichkeiten vorzustellen. Hier hat sich vor allem gezeigt, dass der Bedarf besteht, weg von einem Stand-Alone Ansatz zu gehen und das BCM in die zentralen Unternehmenssysteme zu integrieren. Darüber hinaus wurde vorgestellt, wie Software as a Service für BCM – Systeme genutzt werden könnte. Dazu wird das traditionelle Softwaremodell mit dem Softwaremodell Software as a Service verglichen, bei dem die Software als Service genutzt wird, welches durch einen externen Dienstanbieter zur Verfügung gestellt wird. Der letzte Teil der Diplomarbeit zeigt anhand einer Referenz Use-Case Implementierung, wie Workflows für das Krisenmanagement aussehen könnten, sowie einen möglichen typischen Ablauf im Falle einer Krise. Darüber hinaus wurde eine prototyptische Erweiterung eines Krisenmanagementsystems um BCM Funktionalitäten vorgenommen, die anhand der Umsetzung einer Risikoanalyse beschrieben wird.

Diplomarbeitsposter Purer Klaus

Klaus Purer

Masterstudium Software Engineering & Internet Computing
Abstract:

Das Erstellen von Webapplikationen ist mittlerweile eine komplexe Aufgabe und erfordert oftmals die Integration mit anderen Webapplikationen, im speziellen mit Webservices. Drupal ist ein freies Open Source Content Management System und Framework, das eine umfassende Plattform für schnelle Web-Entwicklung bereitstellt. Die modulare und erweiterbare Charakteristik von Drupal erlaubt EntwicklerInnen die Kernfunktionalität anzupassen und auszunutzen, um neue Funktionalitäten zu erstellen. Diese Diplomarbeit beschäftigt sich mit der Erforschung und Implementierung eines Webservice Client Moduls für Drupal, welches in der Lage ist, sowohl klassische WS* Webservices als auch RESTful Webservices zu konsumieren. Wir werden ein Abstraktionsmodell für Webservices präsentieren, das verschiedene Webservice-Typen unterstützt und welches die Integration von Webservice-Daten in Drupal Workflows ermöglicht. Diese Workflows werden mit Hilfe eines regelbasierten Moduls (“Rules”) konstruiert, mit dem Event-Condition-Action Regeln erstellt werden können. Wir werden eine Lösung diskutieren, die eine Webservice-Operation als Rules Action zur Verfügung stellt und die damit die Komposition von Webservices erreicht, indem mehrere Webservices in einem Rules Workflow aufgerufen werden. Das ist wichtig für Webapplikationen, die mit vielen externen Webservices kommunizieren müssen und den Datenfluss zwischen diesen orchestrieren müssen. Zusätzlich wurde eine Benutzeroberfläche implementiert, womit Webservices auf Drupal Adminstrationsseiten beschrieben und benutzt werden können. Dadurch werden keine Programmierkenntnisse benötigt, wenn Webservices angesprochen werden sollen. Die Implementierung wurde mit einem Anwendungsfall zur automatischen Übersetzung evaluiert, der aus einem Workflow mit mehreren Webservice Aufrufen besteht.

Diplomarbeitsposter Rest Günther

Günther Rest

Masterstudium Software Engineering & Internet Computing
Abstract:

Die lückenlose Überwachung von Umgebungsparametern (z.B. Temperatur) über die gesamte Logistikkette dient heute meist nicht mehr nur der Erfüllung gesetzl. Vorschriften sondern auch als wichtige Informationsquelle für QM-Maßnahmen. Die Tatsache, dass die Mehrzahl der produz. Unternehmen Logistik sehr oft an externe Spediteure auslagern und zumeist auch keine Informationsschnittstellen zum Austausch der Messdaten zwischen den Beteiligten vorhanden sind, erschweren diese Bemühungen erheblich. Nicht selten kommt es daher vor, dass ohne Wissen des jeweils anderen gleich mehrere verschiedene Systeme parallel eingesetzt werden. Die Bandbreite reicht dabei von teuren Onlinesystemen über integrierte Aufzeichnungsgeräte der Kühlaggregatehersteller, Datenlogger, bis hin zu einfachsten Stechthermometern. Immer häufiger findet man auf den Websites führender Logistik-Dienstleister in diesem Zusammenhang bereits viel versprechende RFID basierte Systeme. Auch die Umsatzprognosen für RFID-Technologie (jährl. Steigerungsraten von 19%-25%) machen deutlich welch hohe Erwartungen in diese Technologie gesetzt werden. Nach einem kurzen geschichtl. Einblick in das Themengebiet und einer grundlegenden Einführung in die RFID-Technologie hinterfragt diese Arbeit, was heutige RFID Sensoriksysteme bereits zu leisten im Stande sind, wie die Anforderungen in den versch. Branchen aussehen und welche Hürden einem breiten Einsatz noch im Weg stehen. Bezüglich der techn. Probleme werden jeweils mögliche Lösungsansätze sowie wissenschaftl. Auseinandersetzungen präsentiert. Weiters wurden 2 konkrete Systeme ausgewählt, in der Lebensmittellogistik einem Praxistest unterzogen und in weiterer Folge ein Prototyp eines möglichen Temp.-Monitoring Systems erarbeitet und in Grundzügen umgesetzt. Zuletzt geht die Arbeit noch auf weitere Anwendungsmöglichkeiten von RFID Sensorik für Condition Monitoring anderer Zustands- und Umgebungsparameter ein und gibt einen kurzen Ausblick auf zukünftige Entwicklungen.

Diplomarbeitsposter Rezaie Homa

Homa Rezaie

Masterstudium Software Engineering & Internet Computing
Abstract:

This thesis introduces the concept of Semantic GeoRSS as an information integration approach that is based on and combines Semantic Web and GeoRss. The creation of a Semantic GeoRss requires the presentation of GeoRss with a formal semantics. For this purpose, appropriate domain ontologies provide a formal vocabulary for describing the GeoRss information. By means of these GeoRss ontologies, complex queries can be formally described and run on semantically described resources. In this case, ontologies are used for representing the annotations and the domain of interest. Meshing the two approaches to create a Semantic GeoRss increases the potential uses of Geospatial information for more serious use-cases. The thesis will explore this potential by discussing four use cases of Semantic GeoRss in order to clarify the relation between the Semantic Web and GeoRss information.

Diplomarbeitsposter Schakmann Rene

Rene Schakmann

Masterstudium Business Informatics
Abstract:

Im Gegensatz zu früher sind Geschäftsprozesse, die durch IT unterstützt werden, nicht mehr an lokale oder unternehmerische Grenzen gebunden. Zahlreiche Partnerschaften, Auslagerung von Systemen oder die Verteilung von Standorten führen dazu, dass sich heterogene Systemlandschaften bilden, die durch unterschiedlichste Schnittstellen miteinander verbunden werden müssen. Nicht nur die Entwicklung solcher Systeme stellt Herausforderungen, auch der Test dieser verteilten Anwendungen beinhaltet sowohl organisatorische als auch technische Aspekte. Bei Tests, die Schnittstellen betreffen, welche Daten in mehreren Schritten über unterschiedliche Systeme transportieren, sind Fehler oft nur schwer nachzuvollziehen, da sich das System für den meist fachlichen Tester ohne technisches Hintergrundwissen als Blackbox darstellt. Das Auffinden des Fehlers ist oft nur mit hohem zeitlichem und organisatorischem Aufwand möglich. Unterschiedliche Systeme können unter unterschiedlichen organisatorischen Verantwortungen stehen oder unterschiedliche Technologien verwenden. Diese Arbeit zeigt einen Ansatz wie diese Integrationstests sowohl organisatorisch als auch technisch durch ein Framework unterstützt werden können um eine Beschleunigung und Vereinfachung des Testvorgangs zu erreichen und die Tests von verteilten Systemen transparenter zu gestalten.

Diplomarbeitsposter Tinkl Bernhard

Bernhard Tinkl

Masterstudium Business Informatics
Abstract:

Business Continuity Management (BCM) ist eine der zentralen und zukunftsträchtigsten Managementstrategien. Spätestens seit den Ereignissen vom 11. September 2001 gibt es wenig große Unternehmen, die nicht die eine oder andere Art von betrieblichem Kontinuitätsmanagement in Ihrem Unternehmen implementiert haben. Auch bei kleinen Unternehmen wird dieses Thema aktueller. Eine längere Unterbrechung kann möglicherweise eine Gefährdung für den Fortbestand des Unternehmens bedeuten. Das Problem welches sich Experten stellt, die ein BCM in ihr Unternehmen einführen wollen ist, dass es dafür eine große Anzahl an verschiedenen Standards gibt. Es sind Kriterien zu erarbeiten, welche einen Vergleich der einzelnen Standards ermöglichen. Diese Kriterien werden erstellt. Da sich die Standards mit der Zeit ändern, soll es neben dem eigentlichen Vergleich der Standards zusätzlich als Ziel dieser Arbeit gesehen werden, neue Standards mit einem in der gegeben Arbeit zu vergleichen. Die Kriterien sind so ausgewählt, dass sie auch in den nächsten Jahren einen Großteil der Bedürfnisse abdecken und damit auch einen Vergleich von neuen Standards vereinfachen. Es werden einige der derzeit wichtigsten Standards ausgewählt. Diese Auswahl wurde vom Autor so getroffen, dass eine möglichst breite Auswahl verfügbar ist. Anschließend wurden diese miteinander verglichen. Dafür werden zuerst diese Standards allgemein beschrieben, daran anschließend werden die erwähnten Kriterien herangezogen. Zuerst werden die Werke einzeln bewertet, im Anschluss daran werden sie in den zentralen Punkten miteinander verglichen. Damit wird entweder ein kompletter Überblick über die Werke gewährleistet oder der Nutzer kann die für sich selber relevanten Kriterien entnehmen. Als abschließendes Resultat wird eine Übersicht präsentiert, in welcher auf einen Blick die für die ausgewählten Kriterien passendsten Standards gezeigt werden.

Diplomarbeitsposter Weigl Elisabeth

Elisabeth Weigl

Masterstudium Information & Knowledge Management
Abstract:

Typical information retrieval systems retrieve a low number of documents that are preferably close to the query. In contrast to that stands the patent domain as a recall oriented field where missing one single document in the patentability process can lead to costly law suits afterwards if a granted patent is invalidated. However, research showed that retrieval engines cannot find certain documents because they show a bias towards other document characteristics. Thus the goal of this work is to look further into one approach that deals with retrievability of documents and splits a single corpus in two corpora, one containing high, the other low findable documents. For this, the experimental setup has to be provided and the split done again. Afterwards merging strategies that combine the low and high result sets in different ways are tested with the presumption that low retrievable documents are now higher ranked and thus improve recall. This is tested with several models of three different retrieval engines, namely Terrier, Lemur and Solr. Evaluation shows that in most cases the models do not seem to be suitable for this merging, regarding recall and MAP values. Only precision at high rank seems to improve in general. The few models that perform better and which attributes make them more suitable are explained.

Diplomarbeitsposter Zvizdic Edin

Edin Zvizdic

Masterstudium Business Informatics
Abstract:

Ever since the software quality assurance cleared its path to become a significant discipline in the software development, experienced software professionals have been making an effort to research new possibilities for improvement of software quality. One shift importance between various aspects of software quality, but one is definite: a prerequisite for a high quality product is a low number of defects. There are many techniques developed which lead to reduction of defects, but namely defect prediction has gained a very significant role in the previous decade. By building complex models with numerous software measures and metrics, researchers were aiming to develop a baseline and draw conclusions which would set rules and increase accuracy of defect prediction. In this thesis we analyze the state of the art in the area of defect prediction, and discuss various aspects which are represented in the literature. We discover that traditional defect prediction models concentrate on the simple binary predictions or the prediction of defect counts, but neglect the impact of defects, namely their severities. We see these models as simplification of reality since all defects are treated the same. We recognize further that this is possible threat to the benefits of the predictions since they may provide information about defectiveness which is not accurate. For these reasons we introduce a new prediction measure: defect risk. Defect risk encapsulates information on number of defects and their severities. The model handles the cases where number of defects does not necessarily imply the level of the quality of the system. We set up the hypothetical NASA Test Management Scenario where we predict defect severities and calculate resource allocation coefficients for testing. The results show that altogether resource allocation was better if we used defect risks as basis for prediction.

Arbeitsbereich (vor 2018) Interactive Media Systems

Diplomarbeitsposter Arnberger Simone

Simone Arnberger

Masterstudium Medieninformatik
Abstract:

Ziel der Arbeit war es zu untersuchen, inwieweit Alpha-Matting-Information die Qualität der Bilddarstellung auf 3D Bildschirmen beeinflusst. Um diese Frage zu beantworten, wurde im Zuge dieser Arbeit eine Benutzerstudie durchgeführt. In der Studie wurden mehrere Stereobildpaare, welche sowohl mit als auch ohne Alpha-Matting erstellt wurden, auf einem 3D-Monitor dargestellt. Die Betrachter wurden befragt, ob sichtbare Unterschiede in der Bildqualität zwischen den 3D-Bildern erkennbar sind. Ein weiteres Ziel der Untersu-chung war die Feststellung, ob die wahrgenommenen Unterschiede mit speziellen Hinter-gründen oder einzelnen Motiven in Verbindung gebracht werden können. Die Analyse der Ergebnisse hat gezeigt, dass die Probanden eine bessere Bildqualität bei den mit Alpha-Matting erstellten Bildpaaren gegenüber den ohne Alpha-Matting erstellten Stereobildpaa-ren feststellen konnten. Das Ergebnis der Studie spricht somit eindeutig für einen Einsatz von Alpha-Matting bei der Generierung von synthetischen Ansichten, da eine korrekte Darstellung der transparenten Regionen Grundvoraussetzung für qualitativ hochwertige 3D-Bilder ist.

Diplomarbeitsposter Bogner Anita

Anita Bogner

Masterstudium Medieninformatik
Abstract:

Epipolarrektifizierung ist ein Verfahren, das häufig im Zuge der Stereo Vision eingesetzt wird. Das zentrale Problem der Stereo Vision - das Korrespondenzproblem - ist das Finden zusammengehörender Punktpaare in einem Stereobildpaar. Epipolarrektifizierung ist ein Verfahren, dessen Ziel es ist, Stereobildpaare so zu transformieren, dass demselben Objektpunkt entsprechende Bildpunkte in den rektifizierten Bildern auf derselben horizontalen Linie liegen. Unter dieser Voraussetzung wird das Korrespondenzproblem wesentlich vereinfacht. Da die Epipolarrektifizierung keine eindeutige Lösung besitzt, liegt die Schwierigkeit darin, eine Lösung zu finden, die möglichst keine unnötigen Verzerrungen in den rektifizierten Bildern verursacht. Ausgangspunkt dieser Diplomarbeit ist ein Stereo Vision Framework, das alle Arbeitsschritte umfasst, die notwendig sind, um Tiefeninformation aus unkalibrierten Stereobilddaten zu gewinnen. Inhalt des praktischen Teils der Arbeit ist die Nachimplementierung der Quasi-Euclidean Uncalibrated Epipolar Rectification von Fusiello und Irsara. Die Qualität der Rektifizierungsergebnisse dieses Verfahrens wird evaluiert und mit jenen des weit verbreiteten Rektifizierungsverfahrens von Hartley verglichen. Anhand von generierten Testmatches wird zunächst untersucht, welchen Einfluss das Ausmaß der Transformationen zwischen den Inputbildern oder Ungenauigkeiten in den Punktkorrespondenzen auf die Qualität der Rektifizierung haben. In einem weiteren Schritt werden gängige Feature-Detektoren in die Evaluierung einbezogen, um zu untersuchen, welche dieser Verfahren am besten zur Bestimmung der als Input für die Rektifizierung benötigten Punktkorrespondenzen geeignet sind. Ziel der Evaluierung ist es herauszufinden, wie die Rezeptur für ein Rektifizierungsverfahren aussehen muss, um möglichst optimale Ergebnisse zu erzielen. Die aus der Evaluierung gewonnenen Erkenntnisse werden soweit als möglich in das Stereo Vision Framework integriert.

Diplomarbeitsposter Gerstweiler Georg

Georg Gerstweiler

Masterstudium Medieninformatik
Abstract:

Die multimediale Unterstützung für das Lehren und Ausüben von motorischen Fähigkeiten ist oft auf Videos oder Grafiken beschränkt. Vor allem in Bereichen wie Rehabilitation oder Sport könnte der Einsatz von Virtual Reality Anwendungen für pädagogische Zwecke beachtliche Vorteile eröffnen, wie detailliertes Feedback über Trainingsfortschritte. Aber unverzichtbar für Virtual Reality ist eine Möglichkeit zum Erfassen der Bewegungsdaten. Die meisten Motion Capture Systeme sind entweder auf eine bestimmte Anwendung zugeschnitten oder aus verschiedenen Gründen für Sport ungeeignet. Gerade bei sportlichen Anwendungen treten spezielle Anforderungen auf. Zum Beispiel können Methoden bei denen der Anwender mit relativ großen Vorrichtungen ausgestattet ist, zu Schmerzen bei Kontakt mit harten Oberflächen führen. Des Weiteren müssen auch mögliche schnelle Bewegungen, ausreichende Bewegungsfreiheit und hygienische Aspekte bedacht werden. Die Autoren werden im Rahmen dieser Arbeit zeigen, dass ein Anzug für Motion Capture mit aktiven infraroten Markern gebaut werden kann, der den speziellen Herausforderungen gerecht wird. Zu diesem Zweck werden Anforderungen zusammengestellt und Konzepte entwickelt welche beim Bau eines voll funktionsfähigen Prototyp angewendet werden. Um die Leistung des aktiven Motion Capture Anzugs in einem pädagogischen Kontext einschätzen zu können und das Potential des Einsatzes von Virtual Reality zu demonstrieren, wurde der konstruierte Anzug in einer tatsächlichen Virtual Reality Anwendung für das Lehren von motorischen Fähigkeiten verwendet. Es zeigt sich, dass der entwickelte Motion Capture Anzug, für Sport und Rehabilitation geeignet ist, sich aber nicht auf diese spezifischen Anwendungsbereiche beschränkt. Den Autoren ist es vor allem gelungen die nötigen elektronischen Komponenten unscheinbar zu integrieren. Außerdem kann das Layout aufgrund der individuell steuerbaren Marker für unterschiedliche Systeme und Algorithmen optimiert werden.

Diplomarbeitsposter Gneiss Birgit

Birgit Gneiss

Masterstudium Medizinische Informatik
Abstract:

Stereo-Matching-Algorithmen verfolgen das Ziel, Tiefeninformationen aus Stereobildpaaren anhand übereinstimmender Merkmale zu gewinnen. Durch die leicht voneinander abweichenden Blickwinkel (Views) der Stereobilder wird derselbe Szenenpunkt in den einzelnen Views an unterschiedlichen Pixelkoordinaten abgebildet. Das Ausmaß dieser Verschiebung wird als Disparität bezeichnet und stellt die Grundlage für die Gewinnung von Tiefeninformationen dar. Zur quantitativen Evaluierung von Stereo-Matching-Algorithmen, ist die Verfügbarkeit von Referenzlösungen (Ground Truth) unerlässlich. Trotz aktiver Forschungstätigkeit im Bereich Stereo Matching existieren nur relativ wenige frei verfügbare Referenzlösungen, da ihre Erstellung ein sehr aufwändiger Prozess ist. Die Hauptanforderungen an Ground-Truth-Tiefenkarten sind eine hohe Exaktheit sowie eine hohe Dichte. In dieser Arbeit wird ein System zur Erstellung von Referenzdatensätzen für Stereo-Matching-Algorithmen vorgestellt, welches diesen Kriterien gerecht wird. Um die Komplexität der Zuordnung korrespondierender Merkmale zu erleichtern, wird die Methode der strukturierten Beleuchtung eingesetzt. Mit Hilfe einer Beleuchtungsquelle werden dabei für jede View nacheinander verschiedene Streifenmuster auf die Szene projiziert, wodurch eindeutige Pixelkodierungen erzeugt werden und Korrespondenzen zwischen den Views leichter zugeordnet werden können. Um die Verlässlichkeit und Exaktheit des Gesamtergebnisses zu erhöhen, werden zusätzliche Korrespondenzen zwischen der Geometrie der Beleuchtungsquelle und den beiden Views berechnet. Die Evaluierung der auf diese Weise gewonnenen Tiefenkarten anhand von manuell ermittelten Disparitäten zeigt, dass mit dem vorgestellten System subpixelgenaue Tiefenkarten erzielt werden können, die verlässliche Ground-Truth-Informationen darstellen.

Diplomarbeitsposter Grünling Manfred

Manfred Grünling

Masterstudium Visual Computing
Abstract:

In der vorliegenden Arbeit wird ein Hard- und Softwaresetup präsentiert, mit dem es möglich ist, beliebige Schaufenster mit Multitouch-Funktionalität auszustatten. Die Arbeit fasst zunächst die theoretischen Grundlagen im Bereich optischer Sensorik und Lichtquellen zusammen. Danach wird ein Überblick über die zur Verfügung stehenden Multitouch-Technologien geschaffen. Kamera-basierte Technologien, die für den Eigenbau und zur Realisierung von großformatigen Multitouch-Displays geeignet sind, liegen dabei im Fokus. Weiters werden verschiedenste Software-Komponenten beschrieben, die zur Umsetzung von Multitouch-Anwendungen eingesetzt werden können. Daraufhin wird das implementierte Hardwaresetup, sowie die verwendete und entwickelte Software, vorgestellt.

Diplomarbeitsposter Hahn Thomas

Thomas Hahn

Masterstudium Medieninformatik
Abstract:

Over the last years many implementations concerning the recognition of human motion have been developed. Systems that are designed for elderly people are becoming more important, especially in the physical training application area. In this thesis a system for recognition of human motion in the area of dance and fitness training for elderly people is introduced. This module within the EU project Silvergame is thereby intended to help elderly people to keep their level of health as well as to gain a higher fitness level so that they can stay healthy to an older age. With the system the users can then be encouraged to move more by performing the dance which they see on their home TV screen. In doing so such a dance consists of different human activities which the system recognizes. Furthermore, it also provides some sort of feedback via the given output device. As the input device, a novel event-driven 3D vision sensor, developed at the AIT Austrian Institute of Technology is used in this approach. What is special in this case is that only data is transferred if an intensity change in the field of view is detected. Therefore, less data then with ordinary video systems is generated as the information is communicated not frame-based but pixel wise. Through a detailed research of the literature about the up-to-date classification methods, the most promising technique and features for the motion detection system were chosen. This thesis thereby shows the performance of the designed application and points out the opportunity for further employments. Though it was significant how the chosen classification method can be used for the obtained features from the received data. Additionally first performance measurements were done. To obtain representative experimentation results a cross validation was applied and different settings were used to compare the results. The best results thereby reached an average correct recognition rate of around 96%.

Diplomarbeitsposter Kloibhofer Richard

Richard Kloibhofer

Masterstudium Medieninformatik
Abstract:

Die Entfernung störender Rauschartefakte in Bildern ist ein wichtiger Vorverarbeitungsschritt für viele Aufgabenstellungen in der digitalen Bildverarbeitung. Die meisten Rauschunterdrückungsverfahren arbeiten auf Einzelbildern. Stehen jedoch mehrere Aufnahmen derselben Szene zur Verfügung, können Redundanzen in dieser Bildfolge dazu verwendet werden, um bessere Resultate zu erzielen. Ein Problem bei der Aufnahme solcher Bildsequenzen stellt die durch Kamerabewegungen bedingte Verschiebung der Einzelbilder dar. Bestehende Methoden zur Rauschunterdrückung in Bildsequenzen sind daher auf eine aufwändige und oft fehleranfällige Registrierung der verschobenen Einzelbilder angewiesen. Folglich besteht das Ziel dieser Arbeit darin, Bildrauschen in einer Bildsequenz zu unterdrücken ohne eine Bildregistrierung durchzuführen. Die in dieser Arbeit vorgestellte Methode berechnet die Farbe eines Pixels im rauschfreien Bild als eine gewichtete Mittelung aller Pixel der Bildfolge. Um die Gewichtung zu berechnen wird ein Referenzbild aus der Sequenz ausgewählt. Der Einfluss (Gewichtung) eines Bildpunktes der Bildsequenz auf die Mittelung wird durch dessen Farbähnlichkeit zum jeweiligen Pixel des Referenzbildes bestimmt. Pixel mit hohem Einfluss können auch an Stellen im Bild auftreten, welche nicht mit den Pixelkoordinaten im Referenzbild übereinstimmen. Dadurch werden Verschiebungen im Bild toleriert.Im Kontext dieser Arbeit wurde des Weiteren das Problem von atmosphärisch bedingten Trübungen behandelt. Solche Eintrübungen entstehen durch die Streuung des einfallenden Lichtes durch Staub- oder Nebelpartikel. Dadurch erreicht das Licht die Kamera nur in abgeschwächter Form.

Diplomarbeitsposter Schiffl Katharina

Katharina Schiffl

Masterstudium Medieninformatik
Abstract:

Models of the human body are used to analyze and simulate body movements in a variety of fields, including sports science and computer games. These models vary in detail and accuracy, depending on their field of application. In this work, we focus on the hominoid of Hatze, which was originally developed in the context of biomechanical applications. This thesis investigates the utility of a 3D body scanner for the automatic segmentation of scan data into the 17 segments of Hatze’s anthropomorphic model. We propose a scan procedure and a set of data processing algorithms that ease the process of measuring a body and speed up the calculation of the related segment parameters. These parameter values can be employed afterwards for the simulation of human movements in areas such as sports, orthopedics or medicine. As part of our investigations, we assess the accuracy of the used scanner (Vitronic VITUS smart 3D Bodyscanner). Basic sources of error such as the distance between scan lines, scan holes and geometric distortions are discussed, and their influence on the body measurements is further explored. We finally demonstrate the performance and repeatability of our automatic measurements in xperiments with several test persons and compare the results with manual reference measurements.

Diplomarbeitsposter Vonach Emanuel

Emanuel Vonach

Masterstudium Medieninformatik
Abstract:

Die multimediale Unterstützung für das Lehren und Ausüben von motorischen Fähigkeiten ist oft auf Videos oder Grafiken beschränkt. Vor allem in Bereichen wie Rehabilitation oder Sport könnte der Einsatz von Virtual Reality Anwendungen für pädagogische Zwecke beachtliche Vorteile eröffnen, wie detailliertes Feedback über Trainingsfortschritte. Aber unverzichtbar für Virtual Reality ist eine Möglichkeit zum Erfassen der Bewegungsdaten. Die meisten Motion Capture Systeme sind entweder auf eine bestimmte Anwendung zugeschnitten oder aus verschiedenen Gründen für Sport ungeeignet. Gerade bei sportlichen Anwendungen treten spezielle Anforderungen auf. Zum Beispiel können Methoden bei denen der Anwender mit relativ großen Vorrichtungen ausgestattet ist, zu Schmerzen bei Kontakt mit harten Oberflächen führen. Des Weiteren müssen auch mögliche schnelle Bewegungen, ausreichende Bewegungsfreiheit und hygienische Aspekte bedacht werden. Die Autoren werden im Rahmen dieser Arbeit zeigen, dass ein Anzug für Motion Capture mit aktiven infraroten Markern gebaut werden kann, der den speziellen Herausforderungen gerecht wird. Zu diesem Zweck werden Anforderungen zusammengestellt und Konzepte entwickelt welche beim Bau eines voll funktionsfähigen Prototyp angewendet werden. Um die Leistung des aktiven Motion Capture Anzugs in einem pädagogischen Kontext einschätzen zu können und das Potential des Einsatzes von Virtual Reality zu demonstrieren, wurde der konstruierte Anzug in einer tatsächlichen Virtual Reality Anwendung für das Lehren von motorischen Fähigkeiten verwendet. Es zeigt sich, dass der entwickelte Motion Capture Anzug, für Sport und Rehabilitation geeignet ist, sich aber nicht auf diese spezifischen Anwendungsbereiche beschränkt. Den Autoren ist es vor allem gelungen die nötigen elektronischen Komponenten unscheinbar zu integrieren. Außerdem kann das Layout aufgrund der individuell steuerbaren Marker für unterschiedliche Systeme und Algorithmen optimiert werden.

Arbeitsbereich (vor 2018) Business Informatics

Diplomarbeitsposter Halmetschlager Thomas

Thomas Halmetschlager

Masterstudium Medizinische Informatik
Abstract:

The high complexity of modern software makes it unavoidable to develop software with the help of graphical, model based editors. Software models serve not only as documentation or as a rough system overview. They are also the fundament to generate a executable system. The larger the application the more persons are involved in the design and development process. Simultaneous changes on a model are very common. With these concurrent changes conflicts can occur. There is a need of interpersonal communication to solve appearing questions and avoid misunderstandings. Specially in the early stage of software development diversities in interpretation can occur easily because the semantics of models can be interpreted different. To avoid such problems the communication channels within the team should be supported as much as possible. With good communication it should be possible to conclude a consolidated solution of the problem in a collaborative way. Within this thesis ways and means are sought to enable interactive model-driven software development with the Eclipse Modeling Framework. It turned out that there are already several approach for this interactive development method. These budding candidates where reviewed and analyzed. Unfortunately each of the tested systems had some disadvantages or they were not mainly designed for model-driven software development. When the analysis of various existing approaches was finished, a list of requirements was created. The search for a tool that matches the requirements as good as possible and that can be extended easily was started and finished with an acceptable result. Therefore the implementation part consists of a extension of a existing tool. The chosen tool is CDO, ”Connected Data Objects“, a plugin for Eclipse. CDO was selected because it is the best match to our requirements. We think we found the optimal candidate to develop a sustainable solution.

Diplomarbeitsposter Mayerhofer Tanja

Tanja Mayerhofer

Masterstudium Business Informatics
Abstract:

Over the past years Model-Driven Development (MDD) gained significant popularity. With the usage of this paradigm the software engineering process becomes more model-centric, i.e., models become the main artifact and therewith the whole software development process relies on these models and their correctness. For this reason the need for executable models that can be tested and validated arose. The de facto standard for modeling software systems is OMG’s Unified Modeling Language (UML). The problem is that UML models are not executable because UML has no precise and completely specified semantics. Because of this situation, ambiguities arise and models can be interpreted and executed in different ways. OMG has recognized the need for executable models in an unambiguous way and has developed a new standard called Semantics of a Foundational Subset for Executable UML Models or foundational UML (fUML) that was released in February 2011. This standard defines the precise execution semantics of a subset of UML 2. The research question of this thesis is as follows. Is the semantics definition of the fUML standard sound and applicable for building tools that enable the execution of UML activity diagrams? To answer this question, a prototype of a model interpreter has been developed in this thesis that is able to execute and debug UML activity diagrams according to the execution semantics defined in the fUML standard. The experiences gained during the implementation of the model interpreter prototype led to the following conclusion. The fUML standard is applicable for implementing tools that support the execution of UML activity diagrams, however, high efforts are necessary to develop a user-friendly and efficiently usable tool supporting features like the debugging of models or the execution of incomplete models.

Diplomarbeitsposter Randak Andrea

Andrea Randak

Masterstudium Business Informatics
Abstract:

Whereas in the past models were only used for communication and brainstorming purposes, this philosophy has shifted drastically. Model-Driven Engineering (MDE) is the keyword that is guiding the current engineering direction. Models are the key artifact and all development steps are aligned to these models. The Unified Modeling Language (UML) was introduced by the Object Management Group (OMG) to standardize and support different modeling aspects like structural, behavioral, and architectural models. The huge success of UML is not only due to the versatility of the language but also because of the highly-developed language extension mechanism in form of UML profiles. UML profiles may be defined for tailoring UML to specific domains and technological platforms. Apart from modeling languages, the technique of model transformation plays a crucial role for the model-driven approach. Model transformations aim at transforming an existing source model into some desired target model. The ATLAS Transformation Language (ATL) is currently one of the most widely used transformation languages. While modeling languages defined by metamodels are directly supported in an ATL transformation, the use of UML profiles demands for a complex work-around. It would be desirable, however, to simplify the handling of UML profiles in such a way that profiles are, like metamodels, represented as language definitions. The contribution of this master's thesis is to extend ATL for a native UML profile support. New language constructs are integrated into the abstract and concrete syntax of ATL to ease the use of profile-specific information within a model transformation. Apart from the extension of the ATL syntax, also an operational semantics for the new constructs is defined by translating the extended ATL to standard ATL. The goal of this work is to enrich the ATL language with new language-inherent constructs and keywords.

Arbeitsbereich (vor 2018) E-Commerce

Diplomarbeitsposter Daxböck Johannes

Johannes Daxböck

Masterstudium Informatikmanagement
Abstract:

Competences management plays an important role in efforts to achieve certain goals and nowadays overlaps with related domains like knowledge management and learning management. But often it does not take into account that everyday actions can provide valuable resources for competence management processes. These actions need to be formalized and made actionable through different measurement and aggregation methods. Competence Cockpit, a framework to support different resources and methods for competence management processes is presented in this thesis. The framework is based on the content management system Drupal and fulfills requirements for openness, customizability and modularity to ensure the carrying out of four core competence management processes: (1) competence identification, (2) competence measurement, (3) competence development and (4) competence usage. It can be used to build specific competence management systems for certain domains, allowing to focus their development on intrinsically domain specificities. To achieve this, Competence Cockpit can tap into different internal and external resources for either competence measurement, development or usage. These resources, managed by the underlying content management system, are used to build evidences, which subsequently can be used for competence profile calculations. The methods for competence measurement from different resources and profile calculation are exchangeable. Further the framework allows concepts of already existing competence ontologies to be imported and reused. The customizability and modularity of term{Competence Cockpit} was evaluated by setting up an example system in the university domain, with domain specific resources and measurement methods as well as by implementing additional modules using the interface opportunities provided by the framework. Finally ideas and approaches for additional enhancements and future development of Competence Cockpit are discussed.

Diplomarbeitsposter Fodor Igor

Igor Fodor

Masterstudium Software Engineering & Internet Computing
Abstract:

In der SOA Suite 11.1.1.3.0 wurde erstmals der SOA Composer veröffentlicht - ein Webinterface für die Überwachung und Bearbeitung von Oracle Business Rules. Dieses Interface ist besonders interessant, da es Modifikationen der Business Rules beim laufenden Prozess ermöglichen soll. Business Rules sind Entscheidungspunkte bzw. In dieser Arbeit wird die Nutzbarkeit von Oracle Business Rules und des SOA Composers anhand eines praktischen Beispiels evaluiert. Im speziellen soll herausgefunden werden, ob Oracle Business Rules auch von nicht IT-Profis während der Laufzeit mit Hilfe des SOA Composers bearbeitet werden können. Für diesen Zweck wird ein Geschäftsprozess aus der Printmedienbranche formalisiert und anschließend mit Hilfe der Implementierungs- und Laufzeittools aus der Oracle SOA Suite implementiert. Der Geschäftsprozess ist aus einer Sitzung mit Vertretern eines Zeitungsverlags entstanden. Der gesamte Implementierungsprozess wird ausführlich diskutiert und einzelne Implementierungsdetails herausgegriffen. Besonderes Augenmerk wird auf die Implementierung der Business Rules gerichtet. Nach der Implementierung eines lauffähigen Prototyps werden die Begriffe Usability und Usability Engineering untersucht und passende Evaluierungsmethoden für die Usability- Analyse des SOA Composers ausgesucht. Um die Schwachstellen im Userinterface des SOA Composers aufzudecken, werden zwei realitätsnahe Szenarios und eine Persona entworfen. Danach wird der SOA Composer mit Hilfe von Cognitive Walkthrough und Heuristic Evaluation analysiert. Die Resultate aus diesen Analysen werden in einer tabellarischen Form präsentiert und mit Severity Ratings bewertet. Die Analyse deckt viele Problembereiche im Userinterface des SOA Composers auf und zeigt, dass sich die Usability-Schwachstellen des Composers negativ auf die Bedienung durch nicht IT-Personal auswirken können.

Diplomarbeitsposter Heil Erich

Erich Heil

Masterstudium Information & Knowledge Management
Abstract:

Durch die rasante technische Entwicklung der letzten Jahre und den Umstand, dass heutzutage fast jede Handlung durch ein elektronisches Gerät erfasst und als Eintrag in einer Datenbank gespeichert wird, gibt es in unserer Zeit eine Vielzahl an elektronischen Informationen über jede Person. Mit der Arbeitsmarktdatenbank (AMDB) des bmask1/AMS2 steht wissenschaftlichen Institutionen in Österreich eine äußerst umfangreiche und detaillierte Datenquelle für Analysen und zur Visualisierung des österreichischen Arbeitsmarktes zur Verfügung. In der AMDB sind die sozialversicherungsrechtlich relevanten Arbeitsmarktpositionen der Österreicherinnen und Österreicher verzeichnet. Dadurch ist es möglich den Verlauf von Arbeitsmarktkarrieren auf Individualebene nachzuvollziehen. Es kann zum Beispiel der Wechsel von Arbeitslosigkeit in Beschäftigung, der Wechsel von einer Branche in die andere oder auch das erzielte Einkommen eines Individuums ausgemacht und analysiert werden. In dieser Arbeit wird der KDD3 Prozess auf einen Ausschnitt dieser Daten angewandt, um die Beschäftigung im Tourismus zu beleuchten. Schrittweise werden relevante Daten aus der Datenbank selektiert, Datenfehler und Ausreißer bereinigt und die Rohdaten in ein, für Data Mining Algorithmen nutzbares Format aggregiert und transformiert. Als letzer Punkt wird ein K-Means Algorithmus verwendet, um Gruppen in den Neueinsteigern und den Beschäftigten der Tourismusbranche eines Kalenderjahres zu finden.

Diplomarbeitsposter Hutterer Matthias

Matthias Hutterer

Masterstudium Business Informatics
Abstract:

Recommender systems assist individual users in finding the right items in large option space. Absolventen.at, an Austrian job board for graduates, uses such a system for recommending appropriate jobs to applicants. So far, this system has only considered the resume as input for the user profile, which is compared with the available jobs. However, only around half of the registered job seekers fill out the resume, for the other half no personalized recommendations can be generated. To improve this, the recommender system has been enhanced with implicit relevance feedback and the impacts of this approach have been examined in this thesis. Implicit feedback can be captured in an unobtrusive way and allows the system to infer user preferences. Four different user actions for implicit feedback have been identified on Absolventen.at, including reading of a job description, bookmarking, applying and searching for jobs. All of them provide different levels of evidence for interest, as an application is a more reliable indicator for interest than just reading a job description, which is taken into account with individual weighting parameters. In addition to that, gradual forgetting factors are used for adapting the profile over time. All of this information is included in the hybrid user profile, which is represented as hyperdimensional vector and calculated by a linear combination of the resume and the preferred jobs. To evaluate the new approach, the preferred jobs of 46 job seekers were compared with the recommendations. The results show that including implicit feedback helps to increase the user coverage, as well as the accuracy of the recommendations.

Diplomarbeitsposter Neuböck Thomas

Thomas Neuböck

Masterstudium Software Engineering & Internet Computing
Abstract:

Enterprise information systems store information about executed processes in log structures. These event logs can be used for discovering business processes. Process Mining techniques extract process information out of the existing event logs, analyze and interpret the data and use it in corresponding algorithms for deriving models. The resulting models are visualized and presented to the decision makers, which are able to make further decisions. The process mining algorithms deliver the process model in three different perspectives: (1) process perspective, (2) organizational perspective and (3) case-perspective. Existing Process Mining techniques perform the extraction based on historical process information. These traditional Process mining application scenarios typically require manual extraction and transferring of the process data, which is usually complex and expensive. Such a proceeding is inapplicable, if the take-over of data shall be done frequently. Moreover, a real time monitoring of running processes isn’t realizable. A real time or near-real time integration of event-logs in existing Process Mining techniques would require to solve supplementary challenges. This master thesis discusses two approaches for using Process Mining in real time: (1) Real time Process Mining as operational support and (2) Using traditional process mining algorithms in a near-real time manner (the work is focused on this aspect). Furthermore, the work introduces an implementation for using traditional scenarios in a near-real time manner. The implemented architecture includes a Plugin for the ProM Framework, which converts and imports event-logs into ProM. The second implementation artifact is a mechanism for recording occurring events. The resulting implementation of the designed architecture shows, whether a near-real time integration of event-logs for traditional process mining could be achieved and which further challenges have to be solved.

Diplomarbeitsposter Schuldt Hauke

Hauke Schuldt

Masterstudium Information & Knowledge Management
Abstract:

This thesis evaluates how the operative processes of IT service management (ITSM) can be supported and optimized by the introduction of selected knowledge management methods. For this reason, the applicability and usefulness of existing recommendations for knowledge management within ITSM are evaluated against the requirements of the individual ITSM processes and the theoretical findings of knowledge management. After the evaluation, these general recommendations are subsequently modified where appropriate to be able to actually increase the efficiency and effectiveness of the ITSM processes. As ITSM organizations can differ considerably, these generally applicable knowledge management methods have to be adopted for any specific ITSM organization. This is done for the specific case of DeLaval Information Services.

Diplomarbeitsposter Staud Philip

Philip Staud

Masterstudium Business Informatics
Abstract:

Personen haben oft Probleme persönliche Ziele zu verwirklichen, wie z.B. Neujahrsvorsätzen treu zu bleiben. Eine Möglichkeit diesem Trend entgegenzuwirken ist die Verwendung von sozialen Netzwerken. Das Ziel dieser Arbeit besteht darin, Design-Richtungen zu konzipieren, die das Mitteilen von persönlichen Zielen in sozialen Netzwerken verbessern soll um Zielerreichung zu unterstützen. Basierend auf einer Hintergrundrecherche wurden Interviews mit sechs Benutzern durchgeführt. Als nächster Schritt wurde eine Webapplikation entwickelt, die es Benutzern erlaubt ihre eigenen Ziele anderen zu zeigen sowie Ziele anderer zu beobachten. Daraufhin wurde ein neuartiges Experiment mit 32 Teilnehmern unter drei Bedingungen durchgeführt: Ziele sind gegenseitig einsichtig unter unbekannten Benutzern, unter Freunden und Ziele sind nicht einsichtig. Es wurden vier persönliche Ziele im Bereich Gesundheit von jedem Benutzer gesetzt. Gemessen wurden die persönliche Verpflichtung, das Selbstvertrauen sowie der Fortschritt bezüglich den Zielen. Das Experiment hat keine substantiellen Unterschiede bezüglich Verpflichtung zum Ziel, Selbstvertrauen oder der Erreichung der kurzfristigen Ziele gezeigt, egal ob die Ziele anderen über eine Webseite kommuniziert wurden oder nicht. Durch den Wegfall von fast der Hälfte der Teilnehmer, können die Ergebnisse nur als indikativ betrachtet werden. Zusammenfassend aus den Interviews und dem Experiment wurden folgende Design-Richtungen entwickelt: Benutzern Kontrolle über Information geben; Mitteilen von Zielen kann einen scheinbar positiven Effekt haben; Kreative Interaktion und Repräsentation der Ziele sollte unterstützt werden; Ermöglichen des Heraushebens von Information, auf die der Benutzer stolz ist; Kreative Darstellung von Erfolglosigkeit oder langsamen Fortschritt ermöglichen; Ähnliche Tendenzen beobachtbar bezüglich Fortschritt; Zufriedenheit und Leichtigkeit der Zielerreichung unabhängig davon ob Ziele mitgeteilt werden oder nicht.

Andere Institute der Technischen Universität Wien

(vor 2018) Institut für Analysis und Scientific Computing

Diplomarbeitsposter Bauer Pavol

Pavol Bauer

Masterstudium Medizinische Informatik
Abstract:

Mathematische Modellierung und Simulation sind wichtige Hilfsmittel in der Analyse von Epidemieausbreitungen, welche Entscheidungsträgern die Möglichkeit bieten zukünftige Infektionswellen schneller erkennen und vorbeugen zu können. Im Rahmen dieser Diplomarbeit wird ein Epidemiemodell vorgestellt welches eine synthetische Bevölkerung - sogenannte “Agenten” - kreiert, welche einem virtuellen Krankheitserreger ausgesetzt werden. Die Agenten können mit diesem Erreger angesteckt werden, die Infektion auf andere Agenten übertragen und nach einer gewissen Zeitspanne wieder genesen. Die Basis für dieses Verhalten stellt ein Teil des Models dar, welches Agenten einander zuweist und einem möglichen Kontakt berechnet. Dieses Modul stellt den Hauptaugenmerk der Arbeit dar: es wird untersucht ob die Kontaktfindung mit statistischen Methoden oder mit Hilfe eines abstrakten Raumes auf welchem sich die Agenten frei bewegen und treffen können, simuliert werden kann. Die Struktur des Raumes und die Bewegung der Agenten sind an den Lattice Gas Cellular Automaton (LGCA) angelehnt, einer diskreten mathematischen Methode zur Simulation von natürlicher Bewegung wie sie in unkomprimierten Gasen oder Flüssigkeiten vorkommt. Da die Simulation einer grossen Bevölkerung mit Hilfe des LGCA sehr rechenaufwendig ist, ist im Rahmen der Diplomarbeit ebenfalls ein paralleler Algorithmus entwickelt worden welcher auf der GPU, dem Hauptprozessor der Grafikkarte, ausgeführt werden kann. Es hat sich gezeigt, dass diese Rechenarchitektur die vorgestellte Aufgabe bis zu 100-mal schneller als die CPU verarbeiten kann. Während die Analyse der Kontaktfindung mögliche Anwendungsfälle der Methoden beleuchtet stellt die parallele Implementierung eine Möglichkeit dar, zukünftige räumlich basierte Epidemiesimulationen preisgünstig und zeiteffizient auf gewöhnlichen Grafikkarten ausführen zu können.

Diplomarbeitsposter Boyko Kateryna

Kateryna Boyko

Masterstudium Medizinische Informatik
Abstract:

Solche rhythmischen Bewegungen wie Laufen, Gehen und Schwimmen werden von neuronalen Netzwerken im Rückenmark generiert. Diese Netzwerke sind als zentrale Mustergeneratoren (ZMG) (engl. central pattern generators; CPG) bekannt. Zentrale Mustergeneratoren sind fähig, die lokomotorischen Bewegungen sogar ohne supraspinale Kontrolle als auch ohne sensorischen Input zu produzieren. Das Vorhandensein des ZMGs bei Wirbeltieren ist längst bewiesen und die Information über die Generierung des lokomotorischen Muster ist umfangreich. Aufgrund der Komplexität des menschlichen lokomotorischen Zyklus so wie aus ethischen Gründen ist der Beweis über die Existenz des ZMG bei Menschen implizit. Die Erforschung der Funktionsweise der zentralen Mustergeneratoren hat eine große klinische Bedeutung, vor allem bei der Behandlung der Patienten mit einer Rückenmarkverletzung. Es wurde festgestellt, dass eine elektrische Stimulation bestimmter Areale des Hirnstammes (sog. lokomotorischen Regionen) sowie die epidurale oder intraspinale Stimulation des Rückenmarkes ein lokomotorisches Muster evozieren kann und nach entsprechender Optimierung der Stimulationsparameter sogar eine schrittähnliche Bewegung auslösen kann. Der Schwerpunkt der vorliegenden Arbeit ist die Beschreibung der Funktionsweise des zentralen Mustergenerators, so wie der Vergleich der lokomotorischen Bewegungen, evoziert durch verschiedene Arten der elektrischen Stimulation bei unterschiedlichen Spezies - Ratten, Katzen und Menschen.

(vor 2018) Institut für Wirtschaftsmathematik

Diplomarbeitsposter Kratochvila Michael

Michael Kratochvila

Masterstudium Business Informatics
Abstract:

In various markets customers behave loyal to specific sellers. The purpose of this thesis is to replicate an agent-based model that explains the emergence of loyalty between buyers and sellers, where buyers learn to become loyal and sellers learn to offer advantages to loyal buyers. Both, sellers and buyers, use reinforcement learning to adapt their behaviour towards an optimal one for them. Furthermore, different network structures as well as mechanisms for modelling endogenous interactions are described and an overview of agent-based modelling is provided. Finally, this thesis examines how information spread between buyers affects the formation of loyalty. First, the agent-based model about loyalty was implemented in NetLogo to verify its results with the findings of the original model. Afterwards, the model was extended by allowing the buyers to spread and receive information about sellers, which influenced the seller-choosing process of the buyers. Therefore buyers were endowed with ‘temporal spatial’ social networks, which were formed by their actual neighbours of the sellers queue. Furthermore, buyers had the possibility to learn the importance of received information to incorporate them accordingly into their sellers-choosing process. The replicated model successfully reproduced the outcomes about loyalty. The results of the extended model showed that positive information about other sellers reduced the loyalty, whereas negative information about other sellers had no effects on the emerged level of loyalty. Moreover, buyers learned to put high attention to received positive information.

Diplomarbeitsposter Sawerthal Carl

Carl Sawerthal

Masterstudium Business Informatics
Abstract:

Die Beurteilung bzw. Analyse der Geschäftstätigkeit von Banken stellt ein relativ junges Fach- bzw. Forschungsgebiet dar. Trotzdem stellen diese Institute die Finanzdrehscheibe vieler Länder bzw. der ganzen Welt dar. In den Jahren 2007 bis 2009 konnte man sehen, in welchem Ausmaß Probleme im Bereich dieser Institute Einfluss auf die Weltwirtschaft haben können. Aus diesen Überlegungen resultiert die Frage, wie sich der österreichische Bankensektor über die Jahre vor der Krise, in der Krise und über die Zeit danach entwickelt hat. Daraus resultierten die Jahre 2005 bis 2010. Eine Betrachtung der Banken macht jedoch nur durch einen Vergleich mit anderen Instituten Sinn. Auf Grund des großen Osteuropa-Exposures der österreichischen Institute werden in der Arbeit eine Bank aus Polen und eine Bank aus Ungarn als Vergleich herangezogen. Die Arbeit befasst sich theoretisch mit dem Finanzmarkt bzw. dem Finanzsektor und anschließend mit dem Finanzinstitut Bank. Danach werden ein Kennzahlensystem, sowie Markt- und Ratingdaten definiert und erarbeitet, durch die in weiterer Folge die fraglichen Institute beurteilt bzw. eine Aussage über diese getroffen wird. Auf Basis dieses Vergleichs wird deutlich, dass der österreichische Bankensektor vergleichsweise gut etabliert ist. Die polnische Bank kann unter ihren Bedingungen in vielen Bewertungskriterien sogar Schritt halten. Das ungarische Institut muss sich entsprechend der Wirtschaftslage geschlagen geben. Im Rahmen der Ausarbeitung, stößt die Arbeit auf viele regulatorische Schwächen bzw. auf, durch das System nicht vorteilhaft etablierte Bedingungen. Hierzu zählen die Aussagen von Markt- und Ratinginformationen.

(vor 2018) Institut für Geoinformation und Kartographie

Diplomarbeitsposter Lessiak Michael

Michael Lessiak

Masterstudium Business Informatics
Abstract:

Der Softwaremarkt wurde signifikant durch das Aufkommen von freier Software, beziehungsweise Software die unter der GNU-GPL oder vergleichbaren Lizenzen veröffentlicht wird, und einen ähnlichen Funktionsumfang wie proprietäre Software preiswerter oder gratis zur Verfügung stellt, beeinflusst. Etablierte Marktgrößen und teilweise Monopolisten wie Microsoft, IBM oder Sun mussten ihre Marktstrategien überdenken und den neuen Herausforderern anpassen, die ähnliche Produkte wesentlich kostengünstiger anbieten. Im Verlauf dieser Arbeit soll untersucht werden ob im Rahmen eines Agenten basierten Haskell-Modells folgende Fragen beantwortet werden können: wie die Anbieter eines gleichwertigen Produktes auf einem Markt interagieren und von diesem beeinflusst werden, beziehungsweise welche Strategie sie wählen um ihren eigenen Nutzen zu maximieren, wenn beide ein ähnliches Produkt anbieten, einer von beiden sein Produkt aber gratis abgibt. Es soll untersucht werden warum viele Nutzer bereit sind für ein Produkt zu zahlen, wenn sie ein ähnliches oder gleichwertiges Produkt auch gratis erhalten können und welche Auswirkungen Schwarzkopien auf den Markt und die Anbieter haben. Ebenso soll evaluiert werden ob und wie es möglich ist, jenes Modell in der Programmiersprache Haskell umzusetzen. Um diese Fragestellung zu betrachten wird zuerst eine Modell entwickelt, dass es ermöglicht die realenn Gegebenheiten vereinfacht abzubilden. Dieses Modell wird in Haskell implementiert um anhand der in einer Simulation mit diesem Modell gewonnenen Daten Rückschlüsse auf die Fragestellungen zu ziehen. Im Rahmen in der Arbeit ist zu sehen, das die Implementierung eines ökonomischen Modells in Haskell möglich ist und mit diesem auch realitätsnahe Daten in einer Simulation gewonnen werden können.

(vor 2018) Department für Raumplanung

Diplomarbeitsposter Gröss Patrick

Patrick Gröss

Masterstudium Business Informatics
Abstract:

Diese Arbeit behandelt Software-Produktlinien mit Mixins am Beispiel des elektronischen Akts“. Die Verwendung von Mixins eröffnet nicht nur neue Möglichkeiten, sondern bringt auch zusätzliche Komplexität mit sich. Das Ziel ist daher, eine Anwendung zu entwickeln, die den Umgang mit Mixins erleichtert. Ausgehend von der historische Entwicklung, über die angebotenen Dienstleistungen und den dafür notwendigen, behördeninternen Anwendungen, werden die Grundlagen von E-Government betrachtet. Danach wird am Beispiel von „Acta Nova“, einem Open-Source-Produkt zur elektronischen Aktenverwaltung im Bereich der öffentlichen Verwaltung, darauf eingegangen, wie die Anforderungen an den elektronischen Akts durch die Entwicklung von Software-Produktlinien mit Mixins adressiert werden können. Auch die Evaluierung des Prototyps, des „Mixin-Cross-Referencer“, dessen Implementierung im Zentrum dieser Arbeit steht, erfolgt am Beispiel von Acta Nova. Der Mixin-Cross-Referencer analysiert Softwareprojekte, die auf Mixins basieren und generiert daraus eine Mixin-Dokumentation, die alle Mixin-relevanten Informationen in einer einfach nutzbaren und übersichtlichen Form zur Verfügung stellt. Damit kann man die Zusammehänge zwischen Zielklassen und Mixins auf einen Blick erkennen. Diese Informationen könnte sonst nur mühevoll durch Lesen des Quelltextes nachvollzogen werden. Die Anwendung des Mixin-Cross-Referencers am Beispiel von Acta Nova liefert folgende Ergebnisse: In Acta Nova werden 229 Mixins auf 720 Zielklassen angewendet. Der Spitzenwert bei Mixins liegt bei der Anwendung eines einzelnen Mixins auf 250 Zielklassen, währenddessen bei den Zielklassen der Spitzenwert 13 Mixins pro Zielklasse beträgt. Man sieht also, welch komplexe Strukturen mit Mixins entstehen können. Der Einsatz des Mixin-Cross-Referencers kann diese Strukturen zwar nicht vereinfachen, er kann jedoch die Zusammenhänge so aufbereiten, dass diese leichter verständlich und besser überschaubar sind.

Diplomarbeitsposter Spolwind Ingomar

Ingomar Spolwind

Masterstudium Business Informatics
Abstract:

Mit 1.1.2005 hat die EU eine Richtlinie erlassen, welche Grenzwerte für Feinstaub definiert. Seitdem sind in vielen europäischen Großstädten Übertretungen der Grenzwerte aufgetreten. Daher sind z. B. in einigen deutschen Städten (Berlin bzw. Hannover) per 1.1.2008 Umweltzonen eingerichtet worden. Auch in Österreich ist eine Einführung nach deutschem Vorbild diskutiert worden. Allerdings ist der Beitrag von Umweltzonen bei der Reduzierung von Feinstaub von Anfang an umstritten gewesen. Daraus hat sich die folgende Forschungsfrage entwickelt: „Welchen Beitrag kann die Ausweisung von Umweltzonen bei der Reduzierung der verkehrsinduzierten Feinstaubbelastung leisten - am Beispiel Wien?“. Zur ihrer Beantwortung ist folgende sechsstufige Vorgehensweise gewählt worden: Erstens, Aufzeigen der Relevanz des Themas, dh. der möglichen Konsequenzen für die Gesundheit und Umwelt infolge erhöhter Feinstaubwerte. Zweitens, Behandlung von quantitativen Aspekten von Einflussfaktoren (natürliche und anthropogene) auf die Höhe der Feinstaubbelastung. Drittens, Vergleich (Stärken-Schwächen-Analyse) des Instruments Umweltzone mit anderen (City-Maut, Parkraummanagement, Tempolimit, LKW-Durchfahrtsverbot und Straßenreinigung). Viertens, qualitative Analyse der Gestaltung europäischer Umweltzonen und Darstellung ihres Beitrags bei der Feinstaubreduzierung in abgestufter Form. Fünftens, Diskussion der Einschätzung des Feinstaub-Beitrags von deutschen Umweltzonen aus dem Blickwinkel verschiedener Akteure (Bereiche: Kommunalpolitik, Wirtschaft, Umwelt, Zeitungen, Automobilindustrie und Autoclubs). Sechstens, Vorschlag für die Ausweisung einer Umweltzone an der Wiener Taborstraße. Dabei wird zuerst die Feinstaubsituation in Wien beleuchtet und im Anschluss ein Vorgehen mittels des Handbuch für Emissionsfaktoren 3.1 und des Emissionsfaktorenansatzes nach Gehrig bei der Abschätzung der Feinstaubemissionen vor/nach Umweltzonen-Einführung skizziert.

Diplomarbeitsposter Steger Christian Johannes

Christian Johannes Steger

Masterstudium Business Informatics
Abstract:

Google stellt seinen Nutzer/inne/n verschiedene Dienste wie Google Street View, Google Analytics und Google Docs unentgeltlich ("gratis") zur Verfügung. Im Rahmen der zugrundeliegenden Businessmodelle werden jedoch zahlreiche Daten über die Nutzer/innen gesammelt und unter anderem für zielgerichtete Werbung oder Business Intelligence-Auswertungen genutzt. Die Diplomarbeit wendet sich der daraus entstehenden Datenschutzproblematik zu, welche gerade in jüngerer Zeit in Deutschland und Österreich, aber auch darüber hinaus mediale Aufmerksamkeit erfahren hat. Es zeigt sich, dass Googles Services in einem Spannungsverhältnis zu jenen Gewährleistungen stehen, die das EU-Datenschutzrecht – und in Umsetzung dessen das österreichischen Datenschutzgesetz 2000 – vorsehen. Ferner wird dargelegt, wie das US-Datenschutzrecht strukturiert ist und warum derart große Unterschiede im Datenschutzniveau zwischen der EU und den USA bestehen.

Diplomarbeitsposter Wagner Markus

Markus Wagner

Masterstudium Medizinische Informatik
Abstract:

Im Zeitalter des Internet, vor allem seit dem Aufkommen der Web 2.0 Technologien, werden personenbezogene Daten sehr leichtfertig preisgegeben und rasant an Dritte übertragen. Dadurch können Dienstbetreiber relativ einfach Personendaten sammeln und austauschen, wodurch über Personen mehr Informationen akquiriert werden können, als von diesen eigentlich gewollt. Um Konsumenten zu schützen, wurde bereits 1995 die Richtlinie 95/46/EG erlassen, welche unter anderem den Transfer personenbezogener Daten in Drittstaaten verbietet, wenn diese kein angemessenes Schutzniveau bieten. Die Datenschutzbestimmungen der USA werden von der Europäischen Kommission als unsicher eingestuft, daher dürften grundsätzlich keine personenbezogenen Daten aus der EU in die USA übermittelt werden. Um eine folgenschwere Datenblockade zu verhindern, wurde im Jahr 2000 mit der Kommissionsentscheidung 2000/520/EG das Safe-Harbor Modell kreiert. Safe-Harbor gestattet den Transfer personenbezogener Daten an Unternehmen in den USA, die sich den Safe-Harbor Grundsätzen unterworfen und sich selbst zertifiziert haben. Das Modell ist nun mehr als 10 Jahre in Kraft und es muss eine erschütternde Bilanz gezogen werden: Der Großteil der Unternehmen hat sich selbst als Safe-Harbor-Teilnehmer zertifiziert, ohne jedoch die vorgeschriebenen Richtlinien einzuhalten. Da Datenschutzsünder de facto nicht mit Konsequenzen zu rechnen haben, stellt das Safe-Harbor Modell einen Freibrief für willkürlichen Umgang mit importierten personenbezogenen Daten dar. Diese Arbeit befasst sich mit der Analyse der Safe-Harbor-Problematik und der Suche nach Verbesserungsansätzen. Es werden die Anforderungen an eine funktionierende Selbstregulierung erörtert, sowie bestehende Lösungsansätze und deren Schwächen begutachtet und daraus Verbesserungsmöglichkeiten erarbeitet. Dabei wird vor allem aufgezeigt, dass andere Prüfmechanismen als die bloße Selbstkontrolle notwendig sind, um eine nachhaltige Änderung erwirken zu können.

(vor 2018) Institut für Managementwissenschaften

Diplomarbeitsposter Fantoni Andreas

Andreas Fantoni

Masterstudium Informatikmanagement
Abstract:

Das Paradigma der klassischen Finanztheorie ist die Annahme eines sich rational verhaltenden und im Hinblick auf die Informationsverarbeitung effizient und allumfassend handelnden „homo oeconomicus“. Die Aktienkurse sollen die zugrunde liegenden Fundamentaldaten korrekt widergeben, denn auftretende Fehlbewertungen werden in kürzester Zeit von rational agierenden Investoren ausgenutzt und daher auf das fundamental gerechtfertigte Niveau korrigiert. An den Kapitalmärkten genauso wie im individuellen Verhalten von Anlegern und Investoren sind jedoch immer wieder Phänomene zu beobachten die durch diese traditionell geprägte, neoklassische Finanztheorie nicht erklärt werden können und teilweise sogar im krassen Widerspruch zu ihr stehen. Aufbauend darauf widmet sich der zweite Hauptteil der Arbeit der Fragestellung wie die Informations- und Kommunikationstechnologie diesen modernen, reflexiven Finanzmarkt in den vergangenen Jahren mitgestaltet hat. Die prägende Rolle von Computer- und Informationssystemen steht dabei außer Frage, denn keine Technologie hat sich in dem vergangenen Jahrhundert so schnell entwickelt wie die Informations- und Kommunikationstechnologie und dabei die gesamte Wirtschaft so nachhaltig beeinflusst.

Diplomarbeitsposter Fedorovskaia Karina

Karina Fedorovskaia

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Aufgrund des gesättigten Marktes und der geringen Gewinnspanne beim Absatz von Fahrzeugen setzen immer mehr Automobilhersteller ihren Profitabilitätsfokus verstärkt auf produktbegleitende Dienstleistungen. Aus dieser Thematik heraus wurde die forschungsleitende Frage aufgestellt: „Nutzen Automobilhersteller das Potential entgeltlicher produktbegleitender Dienstleistungen für private Endkunden vollständig aus?“. Zur Beantwortung dieser Frage wurden anhand einer Analyse der drei Bereiche „Dienstleistungen“, „Produktbegleitende Dienstleistungen“ und „Automobilindustrie“ Merkmale ermittelt, welche gemeinsam, innerhalb eines morphologischen Kastens, ein Merkmalsschema bilden. Dieses beschreibt den derzeitigen Raum der produktbegleitenden Dienstleistungen in der Automobilindustrie. Im Rahmen einer empirischen Untersuchung wurde eine Datenerhebung von produktbegleitenden Dienstleistungen der Automobilindustrie durchgeführt. Diese Daten wurden mittels des Merkmalsschemas bewertet und anhand eines Typologisierungsverfahrens segmentiert. Für das Verfahren wurden die Analysemethoden „Clusteranalyse“ und „Clusterzentrenanalyse“ verwendet. Das Ergebnis dieses Verfahrens ist eine, aus neun Typen bestehende Typologie, welche den produktbegleitenden Dienstleistungsraum der Automobilindustrie segmentiert. Das zentrale Ergebnis dieser Arbeit, ist das Aufzeigen von Handlungsfeldern, in denen Potential für das Angebot neuer produktbegleitender Dienstleistungen vorhanden ist. Diese werden anhand einer Analyse der ermittelten Typologie, sowie des dazugehörigen Merkmalsschemas aufgezeigt. Im Rahmen dieser Arbeit werden die Handlungsfelder für ausgewählte Automobilmarken im Vergleich zum Gesamtangebot, sowie für die gesamte Automobilindustrie angegeben.

Diplomarbeitsposter Goralczyk Monika

Monika Goralczyk

Masterstudium Business Informatics
Abstract:

Seit 2005 müssen börsennotierte Unternehmen ihren Konzernabschluss nach IFRS erstellen. Dieser sieht vor, dass Immobilien mit der Fair-Value-Methode bewertet werden. Die Grundidee der Fair-Value-Bewertung ist, den Investoren ein möglichst getreues und realistisches Abbild der Vermögenswerte zu geben und ihnen entscheidungsnützliche Informationen zu liefern. Die vorliegende Arbeit befasst sich mit der Analyse der Auswirkungen von Fehlbewertungen im Immobilienbereich und der Auswirkung der Blasenbildungen auf den Erfolg und das Eigenkapital bei Immobilienunternehmen bei Verwendung der Fair-Value-Methode. Fair Value ist ein wichtiger Maßstab für die Bewertung von Immobilien. Durch die Fair-Value-Bewertung soll die Unternehmensabbildung verbessert werden. Der Informationsgehalt der Bilanz sollte zudem für mehr Transparenz sorgen. Der Fair Value spiegelt die aktuelle Marktsituation wider. Für den Fair Value kann ein Aktienkurs herangezogen werden. Wenn man einen steigenden Aktienkurs als Fair Value verwendet, muss diese Steigerung in der Bilanz anhand einer Aufwertung abgebildet und erfolgswirksam gebucht werden. Somit fließt die Marktdynamik in die Bilanz ein und die Bilanz wird künstlich aufgeblasen. Der Fair-Value-Bewertungsansatz ist im Grunde nach oben nicht gedeckelt und kann beliebige Werte annehmen. Wenn andererseits der Aktienkurs sinkt, werden die Immobilien in der Bilanz abgewertet. Diese Abwertungen müssen in der Bilanz abgebildet und erfolgswirksam gebucht werden. Mit einer derartigen Abwertung wird die Substanz eines Unternehmens gefährdet. Hier kann das Eigenkapital ausgeschöpft und eine Verschuldung verursacht werden. Zusammenfassend lässt sich sagen, dass es an einem konsistenten Gesamtkonzept der Fair-Value-Bewertung mangelt, welches die Schwankungen des Fair Value abfedert, um die Unternehmensabbildung nicht zu verzerren.

Diplomarbeitsposter Hinn Roland

Roland Hinn

Masterstudium Informatikmanagement
Abstract:

Qualitätsmanagement (QM) ist in Produktionsbetrieben – im Gegensatz zu Informationstechnologie- und Telekommunikationsunternehmen (ITK) – weit verbreitet und stellt vielfach einen Wettbewerbsvorteil, in einigen Fällen sogar eine wirtschaftliche Überlebensfrage dar. Steigender Wettbewerbsdruck hat im ITK-Bereich eine Abwärtsspirale bei der Qualität der Dienstleistungen ausgelöst. Um diesem Trend entgegenzuwirken, könnten QM-Systeme in ITK-Unternehmen eingeführt werden. Parallel dazu würde es sich anbieten, den Umgang mit Umwelt- sowie Arbeits- und Gesundheitsschutz (A&G) auf ein entsprechendes Niveau zu heben. Im Rahmen dieser Arbeit wurden folgende Fragen anhand eines Referenzmodells erörtert: Wie können die Normen für Qualitäts-, Umwelt- sowie A&G-Management auf ein ITK-Unternehmen umgelegt werden? Wie kann man diese 3 Normen in Einklang bringen? Welche Maßnahmen sind erforderlich, um ein kombiniertes Managementsystem für Qualität, Umwelt sowie A&G in einem ITK-Unternehmen einzuführen? In welcher Form sollen Schulungen für Mitarbeiter/-innen eines ITK-Unternehmens gesetzt werden? Zentrale Ergebnisse: Die betrachteten Normen (ISO 9001, ISO 14001 und OHSAS 18001) sind auch für ein ITK-Unternehmen geeignet, da sie in ihren aktuellen Fassungen Dienstleistungsunternehmen inkludieren. Um diese 3 Normen in Einklang zu bringen, ist eine sorgfältige Planung erforderlich, da sie strukturell unterschiedlich aufgebaut sind. Im laufenden Betrieb ist der Mehraufwand für die Administration aller 3 Normen gering, da viele Forderungen grundlegend übereinstimmen (z.B. geordnete Prozesse, Dokumentation, Weiterbildung,…). Für die Einführung und den Betrieb eines kombinierten Managementsystems sind entsprechende Ressourcen, die Motivation der Mitarbeiter/-innen sowie der Rückhalt der Unternehmensleitung erforderlich. Schulungen und Weiterbildung sind ein wesentlicher Bestandteil, um die entsprechende Qualität und eine kontinuierliche Verbesserung zu erreichen.

Diplomarbeitsposter Königsmayr Michael

Michael Königsmayr

Masterstudium Business Informatics
Abstract:

Verkehrssysteme werden in Zukunft durch das tendenziell steigende Verkehrsaufkommen immer stärkeren Belastungen ausgesetzt sein, was, ebenso wie die zunehmende Bedeutung von Umweltzielen, umfangreichere Maßnahmen zur Verkehrsoptimierung notwendig macht. Dafür werden aktuelle und historische Daten zur Verkehrssituation benötigt, welche durch Verkehrssensoren, am häufigsten durch Induktionsschleifendetektoren, erhoben werden. Um die Verfügbarkeit und den erforderlichen Qualitätsgrad der Verkehrsdaten gewährleisten zu können, sind adäquate Instandhaltungsstrategien erforderlich, die zum heutigen Zeitpunkt in dieser Ausprägung noch nicht existieren. Um herauszufinden wie die aktuelle Situation in der Instandhaltungspraxis von Verkehrssensornetzwerken aussieht, wurde im Rahmen dieser Diplomarbeit eine Expertenbefragung durchgeführt, deren Ergebnisse unter anderem für eine Fehlermöglichkeits- und Einflussanalyse (FMEA) zum Prozess der Verkehrsdatenerhebung mittels Schleifendetektoren verwendet wurden. Durch die Analyse konnten die wichtigsten Aspekte für die Instandhaltung von Schleifendetektornetzwerken identifiziert und Verbesserungsmöglichkeiten zur heutigen Situation abgeleitet werden. Dies bildet die Grundlage für ein Instandhaltungskonzept, welches die heute verfolgte Ausfallbehebung um zusätzliche Maßnahmen erweitert und auf die Minimierung der Ausfallzeiten der Verkehrsdetektoren abzielt. Erreicht werden soll dies durch periodische Maßnahmen zur Reduktion von Schleifendefekten und ein Monitoring System, welches Methoden zur automatisierten Erkennung fehlerhafter Datensätze integriert. Voraussetzung für die Umsetzung dieser Strategie ist der Aufbau einer Wissensbasis mit gesammelten Informationen zu den Störungen und Fehlern von Verkehrsdetektoren.