EPILOG Sommersemester 2010

Auszeichnungen

Ausgestellte Arbeiten

Institut für (vor 2018) Technische InformatikE182

Arbeitsbereich (vor 2018) Cyber-Physical Systems

Diplomarbeitsposter Höftberger Oliver

Oliver Höftberger

Masterstudium Technische Informatik
Abstract:

Temporal and spatial partitioning ensure that one component cannot interfere with the correct behavior of other components in the value and time domain. The time-triggered system-on-chip (TTSoC) architecture provides a framework for the design and implementation of systems-on-chip (SoCs) with inherent temporal and spatial partitioning. Multiple heterogeneous IP-cores are interconnected by a time-triggered network-on-chip (TTNoC), which uses a precise interface specification to encapsulate the communication activities of components. To dynamically adjust the system to changing communication and power requirements, integrated resource management is provided. Within this thesis, the effectiveness of temporal and spatial partitioning in the TTSoC architecture is investigated. Therefore, an experimental FPGA-based setup is designed using the TTSoC execution platform. This setup allows the injection of faults in the system, while monitoring the behavior of components. The system is exposed to different load scenarios, bit flips that simulate transient and permanent faults, and reconfiguration scenarios, to observe the system behavior in the presence of faults. The results of the experiments provide evidence for the correctness of temporal and spatial partitioning and demonstrate the suitability of the TTSoC architecture as an execution platform for component-based design.

Diplomarbeitsposter Leidenfrost Robert

Robert Leidenfrost

Masterstudium Technische Informatik
Abstract:

Tremendous advance in technology requires and allows us to build complex architectures by decomposing it into smaller manageable and loosely coupled components. The meaningful exchange and comparison of observations among these components then requires a system wide agreement on a common notion of time. This is, for example, an important issue in the case fault tolerance is implemented by replication. Whereas many wired distributed systems provide enough capabilities in order to achieve agreement, Wireless Sensor Networks demand much higher standards of the available energy resources and consequently necessitate an energy-efficient communication protocol. This is usually achieved by synchronized sleep-wakeup schedules. As a consequence, clock synchronization in complex distributed systems is inevitable to provide composability, dependability, and temporal coordination. This thesis presents a well-studied and simple fault-tolerant distributed clock synchronization algorithm which was modified for the use in sensor networks and extended in order to be self-stabilizing, i.e., independent of the initial configuration, all devices eventually become synchronized. In other words, the presented approach combines the advantage of two different synchronization algorithms. In detail, whereas the convergence to a synchronized system state is ensured in the fault-free case, synchronicity is maintained even in the presence of at most f<n/5 Byzantine nodes. The algorithm also works in unstructured multi-hop networks by exploiting the existence of redundant communication links. Several simulation results with respect to different network topologies are presented and promise an improved network-wide synchronization precision, an acceptable convergence time, energy efficiency through a low message complexity, and robustness against different kinds of faults.

Diplomarbeitsposter Manojlovic Nikolaus Alexander

Nikolaus Alexander Manojlovic

Masterstudium Technische Informatik
Abstract:

Hard real-time computing systems play a crucial role in our society since a considerable number of complex systems rely on processor control that must satisfy specific safety conditions. The program code of such hard real-time systems has to meet specific demands with respect to worst-case performance, its so-called execution time (WCET) and, moreover, requires specific properties in order to enable an efficient Worst-Case Execution-time Analysis (WCET Analysis). Despite these demands on the temporal behaviour of hard real-time code, it is still common to operate with traditional algorithms and programming structures which are usually applied to non real-time applications. The objective of these traditional approaches is to obtain high temporal performance for the average case, whereas the worst-case performance is considered to be of less importance. As a matter of fact, however, the WCET of hard real-time code is one of the most important time constants and represents a temporal basic parameter of a real-time system. In my thesis I want to contribute to the insights into an unconventional progamming strategy that supports the construction of code that is well suited for hard real-time systems, swapping the traditional priorities between Average Execution Time (AVG) and WCET. The thesis demonstrates how to apply a single-path progamming strategy that provides a single execution paths by exploring several pieces of code, respectively algorithms. Furthermore, the results and comparisons of the different variants of algorithms will be presented and evaluated.The thesis also explores how the concepts mentioned above can be applied to other classes of algorithms. By doing so it presents new strategies obtaining single-path code with constant execution time for a wide range of programming problems.

Arbeitsbereich (vor 2018) Embedded Computing Systems

Diplomarbeitsposter Hofer Martin

Martin Hofer

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Testen nimmt eine wichtige Stellung in der Entwicklung und auch im Betrieb elektronischer Schaltungen ein. In der vorliegenden Arbeit soll ein Testsystem für komplette elektronische Funktionseinheiten auf einer Platine entwickelt und aufgebaut werden. Ziel ist eine generische, kompakte und portable Lösung in Hard- und Software, die einfach für einen Anwendungsfall zu konfigurieren ist. Es ist sowohl Stimulus/Response-Betrieb als auch reiner "Monitoring" Betrieb vorzusehen, wobei trotz limitierter Hardware möglichst viele Anwendungsfälle abgedeckt werden sollen. Daher ist die Erreichung hoher Effizienz bezüglich der Anzahl von verwendeten Pins sowie der Geschwindigkeit maßgeblich. Als konkreter Anwendungsfall dient die Überprüfung der Target-Boards der LU Digitales Design. Ausgehend von existierenden Black-Box Testkonzepten für komplexe Komponenten und deren Interconnects, wurde eine geeignete Systemarchitektur erarbeitet. Ein wesentlicher Schritt war auch die Definition der Konfigurationssprache, die alle integrierten Komponenten bedienen kann. Nach einer Analyse existierender Sprachen fiel hier die Wahl auf XML. Nach dem Design erfolgte der Aufbau der Hardware, anschließend die Implementierung der Software für das Testgerät. Der Nachweis der Funktion wurde, u.a. durch absichtliches "Einpflanzen" von ausgewählten Fehlern am Übungsboard erbracht. Das Ergebnis der Arbeit ist ein Mikroprozessor-gesteuertes Testgerät, das verschiedene analoge und digitale Ein- und Ausgabemöglichkeiten auf einem dafür erstellten PCB, sowie die geforderten Betriebsmodi zur Verfügung stellt. Das Gerät ist über einen PC via USB-Verbindung als Massenspeichergerät ansprechbar, wodurch Konfigurationen und Protokolle auf vielen aktuellen Betriebssystemen übertragen werden können.

Diplomarbeitsposter Nowak Thomas

Thomas Nowak

Masterstudium Technische Informatik
Abstract:

Topology is the general mathematical theory of convergence. Distributed computing is the formal investigation of communicating concurrent processes. We explore applications of topology to distributed computing in two directions: (1) Point-set topology and (2) algebraic topology. We use the former to study the topological structure of infinite execution trees. This enables us to unify a number of impossibility proofs, in particular, the impossibility of distributed consensus—the task of all processes in a system agreeing on a single value—in various (close to) asynchronous systems with crash failures. The latter is used to look into the combinatorial structure of configurations, i.e., the collection of current process states in the system. Configurations are regarded as simplices in a simplicial complex, and topological incompatibility of such complexes is utilized to prove the impossibility of a generalization of distributed consensus in certain systems. The particular problem considered is k-set agreement, which is the task of letting all processes agree to values within a set of at most k elements.

Institut für (vor 2018) Rechnergestützte AutomationE183

Arbeitsbereich (vor 2018) Automatisierungssysteme

Weitere ausgestellte AbsolventInnen dieses Arbeitsbereichs:
Markus Meixner, Thomas Raffetseder, Junyun Yang
Diplomarbeitsposter Andres Martina

Martina Andres

Masterstudium Business Informatics
Abstract:

In small software companies the achievement of the strategic goal „increasing customer satisfaction“ is compromised by limited resources. Nevertheless there is a chance to increase cutomer satisfaction with improving software processes and therefore increasing product quality. Software process improvement (SPI) considering the limited resources starts with an lightweighted assessment, to collect the current status of the processes in the company. If the company starts to be engaged with SPI, they need support on the execution of the first assessment. The scope of this work is to highlight the problems of small enterprises in executing the first assessment when they initiate SPI. Resulting, a lightweighted assessment method, which is intended for the first assessment in a small company, is designed. This assessment method is based on Capability Maturity Model Integration (CMMI) – Continuous Representation to increase process and product quality and to structure the processes to have the abilitiy of measuring them in the future. A case study illustrates the implementation of the designed assessment method. The assessment method is implemented in a relative autonomous division of an international software enterprise. The aim is to identify the current software processes, to analyze them with the assessment method and finally to define concrete activities to improve the processes.

Diplomarbeitsposter Berger Klaus

Klaus Berger

Masterstudium Informatikmanagement
Abstract:

Die vorliegende Arbeit befasst sich mit dem Thema Lego Mindstorms und deren Eignung für den Einsatz zur Förderung hochbegabter Volksschüler. Sowohl bei Lego Mindstorms und auch bei der Hochbegabtenförderung konnte auf viele Studien zurückgegriffen werden und der Stand des Wissens ist als sehr fortgeschritten zu bezeichnen. Die Kombination beider Gebiete wurde bisher jedoch nicht weiter untersucht. Es wird zunächst auf die beiden Gebiete, Hochbegabung und Lego Mindstorms eingegangen, um eine Basis für die weiterführende Arbeit zu bilden. Weiters wurden aktuelle Arbeiten zum Thema Lego in der Schule auf ihre Fördermöglichkeiten für Hochbegabte untersucht. Darauf aufbauend wurde ein Kurs für hochbegabte Volksschüler konzipiert, der im Rahmen eines Sommerkurses mit Unterstützung der Begabtenakademie Niederösterreich abgehalten wurde und der den eigentlichen Mehrwert der Arbeit darstellt.

Diplomarbeitsposter Bösch Christoph

Christoph Bösch

Masterstudium Medieninformatik
Abstract:

Informationsvisualisierung (IV) ist eine Schlüsseltechnologie des Informationszeitalters. Mit dem Vordringen von datenbasierten Systemen in allen Bereichen des modernen Lebens treten IV Techniken vermehrt außerhalb des wissenschaftlichen Kontextes auf. Besonders Künstler und Designer verwenden die neuen Methoden, was Ästhetik zu einem wichtigen Faktor in der Praxis macht. Eine adäquate Taxonomie, die Ästhetik mit einbeziehen, ist im Entstehen. Ein Beispiel ist das Konzept Information Aesthetics (IA) als Kompromiss zwischen IV und Visualization Art (VA). Um Ästhetik als Ergänzung für traditionelle IV zu etablieren und um Ängsten vor einer Trivialisierung dieses Feldes entgegenzuwirken, sind empirische Resultate über den Nutzen der IA Technologie nötig. Daher wird hier ein umfassendes Konzept für eine nutzerbasierte Evaluierung vorgeschlagen. Den Kern bilden drei Visualisierungsprototypen, die darauf zugeschnitten sind, die Spezifika der Felder IV, IA und VA abzubilden. Somit werden kontrollierte Bedingungen für aussagekräftige Ergebnisse geschaffen. Ein substantieller Teil dieser Arbeit ist der Designprozess für die Prototypen, der auf der Analyse verwandter Arbeiten sowie theoretischen Überlegungen fußt. User Engagement und Insight Generation wurden als Größen für die Studienmethodologie verwendet um den unterschiedlichen Effekt von Ästhetik in den drei Domänen zu messen. Die Schaffung eines Verständnisses für die kognitiven Auswirkungen von IV, über das effektive und effiziente Lösen von vorgegebenen Aufgaben hinaus, ist für den systematischen Einsatz von IV Technologie in neuen Anwendungsgebieten essenziell. Das Ergebnis dieser Arbeit, drei Testapplikationen mit maßgeschneiderter Evaluierungsmethodologie, bildet ein exemplarisches Setup für das Messen eines breiten Spektrums von Benutzerreaktionen in der IV Domäne, mit besonderem Fokus auf den Faktor Ästhetik.

Diplomarbeitsposter Eisenbarth Mattias

Mattias Eisenbarth

Masterstudium Informatikmanagement
Abstract:

Die Arbeit beschäftigt sich mit dem Einsatz von Ton-, Bild- und Videomaterial im interdisziplinären Informatikunterricht und konzentriert sich dabei vor allem auf elektronische Audio- und Videodaten und deren Aufarbeitung für den zielgerichteten Einsatz im Bildungswesen. Der Inhalt der Ausführungen richtet sich nach der Frage, welche Konzepte der digitalen Audio- und Videoverarbeitung Schülerinnen und Schüler besonders interessieren, welche Themen sich zur Weitergabe an diese eignen und wie jene Konzepte anschaulich vermittelt werden können. Das Ziel der Arbeit ist es, Schülerinnen und Schülern ein breites Hintergrundwissen zur Erzeugung von digitalen Ton- und Videodaten zu vermitteln. Dies soll durch die Erörterung theoretischer Basiskonzepte der technischen Verarbeitung von digitalem Ton und Video geschehen. Außerdem sollen Schülerinnen und Schüler unter Verwendung geeigneter, kostenloser Multimedia-Tools an die Materie herangeführt werden. Den Lehrerinnen und Lehrern soll die Arbeit dabei helfen, mit dem technischen Hintergrund von digitaler Audio, Bild- und Videoverarbeitung vertraut zu werden, um den Schülerinnen und Schülern die Grundideen von digitalem Ton und Video vermitteln zu können. Dazu werden interessante Fragen zu den technischen Hintergründen der digitalen Audio- und Videoaufzeichnung aufgeworfen und der Zusammenhang zwischen den verwendeten Digitalisierungsmethoden und der psychologischen Wahrnehmung des Menschen hergestellt. Die Ausführungen richten sich nach den typischen Fragen, die interessierte Schülerinnen und Schüler zu den Verfahren der digitalen Audio-, Bild- und Videoverarbeitung haben können. Anschließend werden kostenlose Multimedia-Tools auf ihre Anwendbarkeit im Unterricht untersucht. Dabei werden sowohl Audio- als auch Video-Tools auf ihre Fähigkeit zur Vermittlung der Konzepte von digitalem Ton und Video geprüft und Beispiele zur Anwendung der Tools im interdisziplinären Informatikunterricht angeführt.

Diplomarbeitsposter Fallmann Hanno

Hanno Fallmann

Masterstudium Software Engineering & Internet Computing
Abstract:

Cyber-criminals around the world are increasingly using Internet-based communication channels to establish trade relationships and complete fraudulent transactions. Furthermore, they control and operate publicly accessible information channels that serve as marketplaces for the underground economy. Researchers who study online crime or law enforcement agencies have a vital interest in acquiring data from these trading activities. In this work, a novel system for automatically monitoring these channels and their participants is introduced. The approach is focused on creating a stealthy system, which allows staying largely undetected by both marketplace operators and participants. The concept aims at the development of a prototype that is capable of monitoring IRC (Internet Relay Chat) and web forum marketplaces. To this end, the underground marketplaces including the offered goods and services, the different roles of the participants along with their favored payment-systems are exposed. Moreover, the features of the system as well as the different views on the architecture of the software are elaborated. The data that has been gathered via experimental evaluation over a period of 11 months is presented and the findings about the captured underground information channels as well as their characteristics are elucidated. For the purpose of evaluating the performance of the prototype, the results of an extensive benchmark test are analysed.

Diplomarbeitsposter Gruber Wolfgang

Wolfgang Gruber

Masterstudium Software Engineering & Internet Computing
Abstract:

Unter einem Location-Based Service (LBS) versteht man einen Service, der Informationen unter Einbeziehung der aktuellen geographischen Position des Anwenders bereitstellt. Als Client fungieren dabei zumeist mobile Geräte wie Mobiltelefone oder PDAs. Im Rahmen des "LBScult-Projekts" wurde ein Prototyp für einen Location-Based Service für kulturelle Daten entwickelt, bei dem verschiedenste Datenquellen -angefangen vom "Kulturgüterkataster" der Stadt Wien bis hin zur "Wien Kartei" der Österreichischen Nationalbibliothek- integriert wurden. Die ursprünglich vorgesehene monolithische Architektur näherte sich mit fortschreitender Entwicklung immer mehr einer Service-Orientierten Architektur (SOA) an. Unter Service-Orientierter Architektur wird ein Architekturstil verstanden, bei dem komplexe Systeme durch Kombination von einfachen Services entwickelt werden. Nachdem sich ein Location-Based Service normalerweise bereits aus mehreren Services zusammensetzt, lässt er sich auch in einer SOA realisieren. Diese Diplomarbeit beinhaltet eine detaillierte Einführung in die beiden Themengebiete der "Location-Based Services" und der "Service-Orientierten Architektur", aber auch eine Beschreibung des LBScult-Projekts, in der die Entwicklung in Richtung einer SOA gezeigt wird. Als Ergebnis dieser Arbeit wird schließlich der SOAfied Location-Based Service präsentiert. Dabei handelt sich um ein generisches Konzept, wie ein Location-Based Service in einer Service-Orientierten Architektur umgesetzt werden kann. Dieses Konzept umfasst ein Architekturmodell, Service Beschreibungen sowie verschiedene Anbindungen von mobilen Geräten an diese Services.

Diplomarbeitsposter Hofleitner Andreas Martin

Andreas Martin Hofleitner

Masterstudium Informatikmanagement
Abstract:

Im Zeitalter der Wissensgesellschaft verspricht der unternehmensinterne Einsatz von E-Learning die Lösung für so manches betriebsorganisatorische Problem, welches mit der laufenden Aus- und Weiterbildung von Mitarbeitern verbunden ist. So kann der Bedarf nach selbstgesteuertem, zeit- und ortsunabhängigem Lernen durch den Einsatz von Lernmanagementsystemen je nach Ausbildungskonzept zumindest teilweise gedeckt werden. Die Erstellung und flexible Verteilung von arbeitsprozessorientierten Lerneinheiten ist einer der großen Vorteile von computerunterstützten Lehr- bzw. Lernmethoden und im Kontext der unternehmensinternen Weiterbildung von zentraler Bedeutung. Die gegenständliche Arbeit untersucht anhand eines praktischen Feldversuchs, ob sich das Open Source Lernmanagementsystem moodle für die arbeitsplatznahe Weiterbildung von IT-Fachkräften eignet, wie es um die diesbezügliche Akzeptanz steht und welche Funktionen das Framework dieses Systems bietet, um die täglichen Arbeitsprozesse und die Wissensarbeit der Zielgruppe gewinnbringend zu unterstützen. Zu diesem Zweck wurde ein Referenzsystem entwickelt, welches den IT-Mitarbeitern eines Unternehmens an verteilten Standorten geeignete arbeitsprozessorientierte E-Learning Inhalte zur selbstgesteuerten Weiterbildung sowie weitere nützliche Funktionen zur Verfügung stellte. Das zentrale Ergebnis der Studie ist, dass sich moodle als äußerst flexibles Werkzeug zur computerunterstützten Weiterbildung sowie durch eine Reihe an im unternehmerischen Kontext gewinnbringend einsetzbaren Kollaborationsfunktionen absult sinnvoll als elektronische Unterstützung für innerbetrieblicher Bildungs- und Arbeitsprozesse eignet. Die überwiegende Mehrheit der befragten IT-Mitarbeiter beurteilte die zur Verfügung gestellten Lerninhalte sowie die neuen Funktionen zur standortübergreifenden Zusammenarbeit als äußerst nützlich und würde das LMS bei entsprechender Weiterentwicklung der Inhalte jedenfalls weiterhin nutzen.

Diplomarbeitsposter Lajic Suzana

Suzana Lajic

Masterstudium Informatikmanagement
Abstract:

Durch die Verschmelzung der Europäischen Union und den zunehmenden Zuwanderungsbedarf steht Österreich, wie auch andere westliche Einwanderungsgesellschaften vor der Herausforderung, Kinder und Jugendliche aus Einwanderungsfamilien erfolgreich in das Bildungssystem zu integrieren. Im Schuljahr 2007/08 betrug der Anteil der 15-16 jährigen Schüler mit Migrationshintergrund rund 16%. [StaA08] Den Angaben der Pisa-Studie zufolge erreicht diese Schülergruppe, vergleichsweise mit einheimischen Schülern, deutlich geringere Schulkompetenzen. [Schr09] Als Ursache für schlechte Schulleistungen werden häufig mangelnden Deutschkompetenzen ausländischer Schüler genannt. Neue Lernkulturen, die die individuellen Lebenserfahrungen und Wissenshintergründe des Kindes berücksichtigen und schätzen und dem Kind dadurch die Möglichkeit einräumen angstfrei zu wachsen und sich zu entfalten, bieten eine gute Grundlage für eine effiziente Sprachförderung. Speziell beim Spielen kann das Kind wertvolle Erfahrungen sammeln. Ein Spiel, das die Interessen und Wünsche des Kindes anspricht und seinen Erwartungen gerecht wird, kann das Kind stundenlang in seinen Bann ziehen. Häufig kann beobachtet werden, dass sich das Kind mit enormer Hingabe mit einem Spiel auseinandersetzt. Diese Arbeit beschäftigt sich primär mit der Fragestellung, ob der Einsatz von Edutainment-Produkten zur Sprachförderung von Kindern mit Migrationshintergrund geeignet ist. Der PC-Spielmarkt bietet jedoch eine unüberschaubare Zahl an Computerspielen. Viele dieser Spiele werden als „Edutainment“- oder „Lernspiele“ deklariert, erreichen jedoch bei weitem nicht die geforderten Qualitätsstandards. Mit dem Entwurf eines geeigneten Kriterienkataloges soll eine Bewertung, der am Markt vorhandenen Edutainment-Software vorgenommen werden. Zu den Bewertungskategorien zählen Software-ergonomische und pädagogisch-didaktische Gestaltungsgrundlagen unter besonderer Berücksichtigung der Aspekte der Zweisprachigkeit.

Diplomarbeitsposter Lang Patrick

Patrick Lang

Masterstudium Informatikmanagement
Abstract:

Die aktuellen Entwicklungen im Internet führen zu einer stetigen Veränderung und Erweiterung des Angebots an Webanwendungen. Da Bildungseinrichtungen meist das nötige Budget oder das erforderliche Fortschrittsbewusstsein fehlt, beschränkt sich das IT-Angebot in Schulen meist auf Altbekanntes. Google Apps ist ein Paket, das verschiedene Kollaborations- und Kommunikationstools vereint und von Bildungseinrichtungen unter einer eigenen Domain kostenfrei genutzt werden kann. Die zahlreichen Services bieten viele interessante Möglichkeiten zur Kommunikation und Planung über das Internet (zB GMail, Google Calendar), aber auch Anwendungen, die gerade in Schulen neue Möglichkeiten bieten (wie etwa Google Docs). Neben der Erweiterung des IT-Angebots kann das Paket zu Kosteneinsparungen führen, da Anschaffungskosten von entsprechenden Servern entfallen bzw. Instandhaltungs- und Wartungskosten wesentlich geringer sind als bei eigenen Servern. Die damit einhergehende Delegierung von Verantwortung erfordert jedoch auch ein gewisses Maß an Grundvertrauen in das Unternehmen. Googles Vormachstellung im Internet führt jedoch dazu, dass relativ wenige objektive Informationen zum Paket auffindbar sind. Diese Arbeit soll Google Apps genauer betrachten und mittels einer Analyse, Fallstudien, einer eigenen Studie und einem Testzugang eine objektive Aussage darüber ermöglichen, ob das Paket für den Einsatz im Bildungsbereich sinnvoll ist oder nicht.

Diplomarbeitsposter Lukavsky Florian

Florian Lukavsky

Masterstudium Software Engineering & Internet Computing
Abstract:

Heutzutage stellt Schadsoftware die größte Bedrohung im Internet dar. Die Hersteller von Antivirensoftware sehen sich täglich mit tausenden neuen Viren konfrontiert. Diese Datenmengen sind manuell kaum noch zu bewältigen. Daher kommen dynamische und automatisierte Analysesysteme zum Einsatz. Anubis ist ein solches Analysesystem und beobachtet das Verhalten eines zu untersuchenden Programms und generiert einen Bericht dieser Beobachtungen. Seit der Lancierung von Anubis Anfang 2007 wurden mehr als 1.5 Millionen Programme analysiert. Aber die automatisierte Analyse führt nun zu einem weiteren Problem. Es gibt zu viele Analyseresultate um das Verhalten von Schadsoftware im Ganzen zu betrachten. Eine weitere Schicht der Abstraktion ist notwendig, eine statistische Analyse von high-level Verhalten, die Trends des Verhaltens von Schadsoftware aufzeigt. In dieser Diplomarbeit präsentieren wir ein Datenbankschema, das es uns erlaubt die Berichte von Anubis effizient zu speichern um in weiterer Folge mittels Abfragen auf diesen Daten detaillierte Einblicke in das Verhalten von Schadsoftware zu erhalten. Dafür entwickeln wir ein Framework zur Erzeugung von Statistiken über bösartiges Verhalten. Diese Statistiken werden täglich aktualisiert, was nahezu eine Echtzeitsicht auf das Verhalten zulässt. Dadurch wird es möglich, Trends des bösartigen Verhaltens von Schadsoftware abzulesen und Korrelationen zwischen unterschiedlichen Verhaltensmustern zu identifizieren. Um bösartiges Verhalten festzustellen, identifizieren wir Verhaltensmerkmale wie beispielsweise die Installation von BHOs für den Internet Explorer oder das Ändern von Sicherheitseinstellungen der Windows Firewall. Dieses abstrahierte Verhalten müssen wir auf low-level Events, die von Anubis aufgezeichnet werden, zurück führen. Insgesamt beobachten wir nun 31 Verhaltensmerkmale. Zusätzlich generieren wir Statistiken, die den Zustand von Anubis beschreiben und die Qualität der eingeschickten Dateien widerspiegeln.

Diplomarbeitsposter Löwenstein Bernhard

Bernhard Löwenstein

Masterstudium Informatikmanagement
Abstract:

Glaubt man dem Slogan eines der führenden Süßwarenhersteller Europas, dann bedarf es lediglich "Spiel, Spaß und was zum Naschen", um Kinder glücklich zu machen. In Anlehnung an diesen Werbespruch lässt sich ein wünschenswertes Motto für den modernen Schulunterricht ableiten. Und zwar sollte den Schülern dort "Spiel, Spaß und was zum Lernen" geboten werden. LEGO Mindstorms folgt ganz dieser Devise – es eignet sich zum Spielen, macht den Kindern Spaß und sie lernen dabei auch etwas. Weiters unterstützt es den Unterrichtenden dabei, seine Schüler für den zu vermittelten Lernstoff zu begeistern. So ist es wenig verwunderlich, dass die unterschiedlichen Roboterbaukästen dieser Serie immer öfter in den Klassenzimmern anzutreffen sind, um während der Unterrichtseinheit als Lernhilfe zu fungieren. Die Einführung einer neuen Technologie geht oft mit der Hoffnung einher, dass jene die Branche revolutionieren wird. Auch das Paradigma der Objektorientierung ließ eine solche Zuversicht aufkommen. Es dauerte dann allerdings Jahrzehnte, bis diese in der Industrie weite Verbreitung fand und noch länger, bis deren Vermittlung ein Thema in den Bildungsanstalten wurde. Mittlerweile wird jedoch an vielen Schulen der Versuch unternommen, den Schülern auf mehr oder weniger kreative Art und Weise die grundlegenden Prinzipien der Objektorientierung näherzubringen. Diese Arbeit erforscht das Potential von LEGO Mindstorms im Bereich der Vermittlung der objektorientierten Konzepte. Dazu werden unterschiedliche konkrete Lehransätze betrachtet und hinsichtlich ihrer Eignung für den Schulunterricht analysiert. Untersucht wird auch, welche der Basiskonzepte sich mit Hilfe von LEGO Mindstorms besonders gut einführen lassen und welche Vorteile sich gegenüber anderen Ansätzen durch dessen Verwendung ergeben. Weiters wird nach einer passenden Sprache und Umgebung für die Roboterprogrammierung Ausschau gehalten.

Diplomarbeitsposter Malinowsky Boris

Boris Malinowsky

Masterstudium Technische Informatik
Abstract:

Moderne Automationsnetzwerke für Gebäude erlauben eine flexible Infrastruktur zur Kommunikation zwischen intelligenten Sensoren, Aktuatoren und Controllern. Sie ermöglichen die Interaktion für Mess-, Steuerungs-, Regelungs- und Managementaufgaben, und sind ein wichtiger Bestandteil der technischen Prozessabläufe eines Gebäudes. Eine hohe Interoperabilität verschiedener Geräte und Netzwerke soll die Abhängigkeiten zu Herstellern und einzelnen Netzwerktechnologien überwinden, sowie eine Systemlaufzeit über Jahrzehnte gewährleisten. Eine Möglichkeit ist die Erfassung und Abbildung von Information durch computerverarbeitbare Gebäudemodelle, welche den Datenbestand über einzelne Technologien abstrahieren. Building information modeling (BIM) ist ein fortschrittlicher Ansatz zur Modellierung von Gebäudeinformation. Das Modell umfasst den gesamten Lebenszyklus eines Gebäudes, von der Planung, Errichtung, hin zum Betrieb und zur Instandhaltung. Diese Diplomarbeit gibt einen Überblick über BIM, einer Auswahl an Formaten und im Besonderen der Industry Foundation Classes (IFC), und zeigt die Anwendbarkeit für Gebäudeautomationssysteme auf. Der praktische Teil der Diplomarbeit befasst sich mit der Erweiterung eines bestehenden Gebäude-Systemmodells, welches in der Praxis als Plattform zur Operation von Gebäuden eingesetzt wird und die Interaktion mit verschiedenen Gebäudeautomationssystemen ermöglicht. Die Plattform wurde in Zusammenarbeit mit einem Industriepartner um eine Schnittstelle für das Local Operating Network (LON) erweitert, eine Anbindung über LonWorks Network Services HMI erarbeitet, und als proof-of-concept implementiert. Ein Ausblick zeigt mögliche zukünftige Erweiterungen für diese Schnittstelle.

Diplomarbeitsposter Mörz Christian

Christian Mörz

Masterstudium Software Engineering & Internet Computing
Abstract:

Eines der vorrangigen Probleme in der Messtechnik ist die bei jeder Form von Messung üblicherweise auftretende Unschärfe. Die mit Mengen arbeitende Fuzzy-Logik, die daran anknüpfenden unscharfen Zahlen und die jeweils darauf aufbauenden Methoden machen sich diese Eigenschaft zu Nutze. Im Rahmen dieser Arbeit wird anfangs eine Übersicht über die Grundlagen unscharfer Zahlen gegeben und die dafür existierenden statistischen Auswertungsmethoden beleuchtet. Danach wird das Softwareprogramm „FuzzyData“ vorgestellt, welches als praktisches Anwendungsbeispiel der definierten statistischen Methoden dient. Bei der Implementierung von FuzzyData lag ein starker Fokus auf einer effizienten Speicher- und Ressourcennutzung; daher wurde – auch wegen der relativ guten Portabilität – als Implementierungssprache C/C++ gewählt. Das Programm bietet die typischen statistischen Auswertungsmethoden wie z.B. Berechnung von • Minimum, • Durchschnitt, • Maximum, • Empirische Verteilungsfunktion • Streuung, • Varianz und • Histogramm-Aufbereitung einer Stichprobe zwecks 3D-Visualisierung Zusätzlich gestattet das Programm die Erzeugung von auf Zufallszahlen beruhenden, normalverteilten Stichproben.

Diplomarbeitsposter Pehn Markus Leopold

Markus Leopold Pehn

Masterstudium Informatikmanagement
Abstract:

Im betrachteten Unternehmen, das sich durch eine komplexe Struktur und weitgehende Autonomität der einzelnen Unternehmensteile kennzeichnet, ist derzeit die Umgestaltung der Systemlandschaft weg von Hostsystemen und hin zu modernen Techologien (Web, Client-Server) im Gange. Durch diese Autonomität der Subunternehmen sind die Prozesse teilweise sehr unterschiedlich mittels IT implementiert. Im Rahmen der Entwicklung der Neusystem muss mit sich ständig ändernden Anforderungen und Change Requests von den beteiligen Subunternehmen, umgegangen werden. Es muss somit sichergestellt werden, dass nach Einsatz aller geplaneten Softwaresysteme keine Applikationen am Host zurückbleiben, weil deren Funktionalität durch die neuen Programme nicht abgedeckt wurde. Diese Arbeit präsentiert einen Workshop, in dem erarbeitet wird, wie der Fortschritt der Hostabschaltung am besten überwacht werden kann. Dabei werden Wissen zu Workshopgestaltung, Moderation, Psychologie, Gruppenstrukturen sowie bestehende Systemlandschaften als Inputs herangezogen, um möglichst gut auf die Zielgruppe eingehen zu können.

Diplomarbeitsposter Planinc Rainer

Rainer Planinc

Masterstudium Informatikmanagement
Abstract:

Diese Arbeit beschäftigt sich mit der didaktischen Aufbereitung von Verfahren der Videokompression aus einem neuen, historischen Blickwinkel. Auf diese Weise werden die Zusammenhänge und die Bedeutung der Videokompression im alltäglichen Leben der Schüler verdeutlicht. Schüler sollen in der Lage sein, Begriffe welche ständig in ihrem Leben vorkommen, richtig zu verwenden und deren Bedeutung zu kennen. Daher ist es wichtig, die Verbindung zwischen theoretischem Wissen und der Praxis herzustellen, damit die Schüler dieses Wissen auch anwenden können. Dies wird in dieser Ar-beit auf Grund der praktischen Herangehensweise an die Inhalte und durch das aktive Erarbeiten der selbigen durch die Schüler erreicht. Dabei soll der Lernprozess in das private Internetverhalten der Schüler integriert werden, wodurch das Interesse am Erarbeiten der Inhalte gesteigert wird. Das selbstständige, aktive Lernen der Schüler wird einerseits durch geeignete Methoden im Unterricht selbst, aber auch durch die Plattform Facebook unterstützt. Diese Diplomarbeit bietet daher eine umfassende Aufarbeitung theoretischer Inhalte, aber auch Ideen zu einer neuen, aktiveren Umsetzung mittels geeigneter Methoden. Schüler sollen die Inhalte von verschiedenen Videokompressionsverfahren vermittelt bekommen, da sie mit diesen im Alltag ständig konfrontiert werden – allerdings soll dabei der Spaß am Lernen im Vordergrund stehen.

Diplomarbeitsposter Pöltner Paul

Paul Pöltner

Masterstudium Informatikmanagement
Abstract:

Wissen gilt in der modernen Gesellschaft, in der Organisation und für jeden Einzelnen als eine der wichtigsten Ressourcen. Dieser Wichtigkeit wurde unter anderem mit den Begriffen „Informationsgesellschaft“ und in weiterer Folge „Wissensgesellschaft“ Rechnung getragen. Darauf aufbauend stehen wir einer neuen bzw. parallelen Gesellschaftsentwicklung gegenüber, bei der die Vernetzung eines der Kernthemen ist. Dies wird unter anderem als „Netzwerkgesellschaft“ postuliert. In diesem Gesellschaftsbild sehen sich Organisationen mit der Anforderung konfrontiert neue Kompetenzen aufzubauend, um schnell auf ändernde Marktbedürfnisse reagieren zu können. Diese Kompetenzen können jedoch nicht autonom entwickelt werden, sondern müssen durch Interaktion mit sämtlichen relevanten Marktteilnehmern durchge-führt werden, um der benötigten Geschwindigkeit zu entsprechen. Es wird verlangt, sich schnell mit anderen Markteilnehmern zu vernetzen und virtuelle Organisationen aufzubauen. Darüber hinaus muss ein Austausch von Informationen zwischen der Gesellschaft und ihrer Umgebung erfolgen, um das benötigte Wissen zu entwickeln. Aus technischer Sicht bietet das Digitale Business Ecosystem (DBE) eine Umgebung, bei der auf der Transaktionsebene Organisationen effizient miteinander verbunden werden können. Um ein derartiges System in einer Region Centrope umzusetzen, bedarf es eines weitereichenden Wissensaustausches und Wissensschaffungsprozesses. Diese Arbeit stellt aufbauend auf einer allgemeinen Einführung in das Thema Wissen und Wissensmanagement die Anforderungen an eine Art virtuelle Organisation für die Entwicklung eines DBE Projektes dar und beschreibt, wie ein möglicher Wissensschaffungs- und Wissenstransferprozess in der Region Centrope implementiert werden kann.

Diplomarbeitsposter Rameder Stefan

Stefan Rameder

Masterstudium Business Informatics
Abstract:

Many software and web projects underestimate the importance of the requirement analysis process. These projects often fail either due to inaccurately specified requirements or because of an inefficient requirement engineering process.The signifance of this process lies in a reduction in costs as well as in a foundation for abiding both a financial scope and a certain schedule. A main function is its responsibility for the important groundwork for an efficient implementation afterwards.This master thesis deals with the question how functional and non functional requirements can be found efficiently and what certain techniques can be used for defining them. It is also investigated what criteria are responsible for choosing certain reporting techniques and how risks and changes in requirements can be taken into account.As a case study a procedure model of an Austrian insurance company was analysed. This insurance defines the status quo and identifies the stakeholders, IT business processes, functionalities and use cases roughly in socalled R-Modules. Afterwards a review with all involved stakeholders takes place. After this review these R-Modules are specified in socalled A-Modules and evalvuated in a second review. This proceeding enables a certain standard in quality management, an equal documation standard and a regulated predetermined procedure. An internet survey was aimed at IT professionals to examine the main issues and most important criteria in the requirement engineering process. The result of this survey was the deduction of key factors in these major issues of the requirement analysis process. Finally, the outcome is a procedure model in three different levels. It shows how the requirement analysis can be carried out efficiently under certain circumstances. By using three different levels of the procedure model it is ensured that a broad spectrum of projects with distinctive size and structure is covered in the field of software engineering.

Diplomarbeitsposter Rybnicek Marlies

Marlies Rybnicek

Masterstudium Informatikmanagement
Abstract:

Ziel dieser Diplomarbeit ist die Entwicklung eines gendergerechten und interdisziplinären Unterrichtsmodells mit Hilfe von LEGO® MINDSTORMS NXT Roboter auf Grundlage von Roberta®. Roberta® ist ein Projekt, das vom Fraunhofer Institut für Intelligente Analyse- und Informationssysteme entwickelt wurde, um SchülerInnen technische Gebiete näher zu bringen und gleichzeitig das Selbstvertrauen von speziell weiblichen Lernenden in ihre technischen Fähigkeiten zu stärken. Das Konzept, das in dieser Arbeit vorgestellt wird, ist kein Roberta®-Kurs. Nur die Erkenntnisse, die in den Roberta®-Kursen gewonnen werden konnten, fließen in das Unterrichtsmodell ein. In drei Einheiten wird versucht, Lernende schrittweise durch das Lösen von Aufgaben mit LEGO® MINDSTORMS NXT Roboter an die Informatik heranzuführen. Das Unterrichtskonzept richtet sich an keine bestimmte Altersgruppe, Lernende ohne Vorkenntnisse der Informatik sollen sich angesprochen fühlen. Dabei werden die Unterschiede zwischen dem weiblichen und dem männlichen Lernverhalten berücksichtigt. In den unterschiedlichen Aufgaben werden Roboter modelliert, die im Verlauf der Unterrichtseinheiten die Hauptrolle in einer Abenteuergeschichte spielen. Bei der Gestaltung der Roboter sind der Kreativität keine Grenzen gesetzt. Das Unterrichtsmodell verfolgt den narrativen Ansatz, eine konstruktivistische Lerntheorie, bei der es zur Einbettung von Aufgaben- und Problemstellungen in eine Geschichte kommt, um so Wissen zu vermitteln und den Ansatz des Entdeckenden Lernens. Am Ende der Geschichte sollen die Lernenden gute und solide Grundkenntnisse der Informatik erworben haben. Durch den Geschichtscharakter der Aufgabenstellung wird die Abenteuerlust sowie der Spaß gefördert und die Motivation der Lernenden aufrecht erhalten.

Diplomarbeitsposter Wimleitner Wolfgang

Wolfgang Wimleitner

Masterstudium Business Informatics
Abstract:

Das Thema Green IT beschäftigt sich mit der effizienten Nutzung von Computerressourcen zur Erhöhung der Umweltverträglichkeit und dient als Beitrag zum Klimaschutz. Neben Umweltschutzaspekten (social responsibility) machen zusätzlich die dabei entstehenden Kosteneinsparungen die Umsetzung von energieeffizienten Maßnahmen attraktiv. Aufgrund des weltweit steigenden Stromverbrauchs sind Metriken (PUE, DCE) notwendig geworden, mithilfe derer sich Energieeffizienz im Rechenzentrum messen lässt. Da die Kosten für Kühlung im Rechenzentrum bis zu 50 Prozent der Gesamtkosten ausmachen können, wird ein Schwerpunkt der Untersuchungen auf unterschiedliche Kühlszenarien und -modelle gelegt. Die Empfehlung für das Anheben der maximalen Ansaugtemperatur bis zu 27 °C ist nur ein erkennbarer Trend zur Energieeinsparung. Im Sinne des grünen Rechenzentrums kann durch Konsolidierung und Virtualisierung einerseits eine Kostensenkung erreicht und gleichzeitig der CO2 Ausstoß reduziert werden. Bei der thermischen Analyse (CFD) von raum- und reihenorientierten Rechenzentren geht es darum, die Kühlleistung im Rechenzentrum zu verbessern, “hot spots” zu erkennen und eine definierte Ansaugtemperatur nicht zu überschreiten. Im Rahmen eines Fallbeispiels wird eine praxisnahe Standardarchitektur eines Rechenzentrums herangezogen, um eine thermische Analyse mittels Computational Fluid Dynamics (CFD) zu erstellen. Dabei wird diese Standardarchitektur untersucht und mittels der im Theorieteil erarbeiteten Erkenntnisse soweit angepasst, dass eine möglichst hohe Effizienz im Rechenzentrum erreicht werden kann.

Diplomarbeitsposter Zhu Lei

Lei Zhu

Masterstudium Business Informatics
Abstract:

Diese Diplomarbeit befasst sich mit dem Einsatz genetischer Algorithmen im Rahmen von Trading Tools. Genetische Algorithmen sind stochastische Optimierungsverfahren, die von John H. Holland entwickelt wurden. In der modernen Investment Finanz werden genetische Algorithmen in Trading Tools integriert um die Pro tmaximierung zu unterstützen. Ziel dieser Arbeit ist es, die Arbeitsweise der genetischen Algorithmen im Detail zu beschreiben und die technisch-strategischen Vorteile der genetischen Algorithmen im Rahmen von Trading Tools zu beleuchten. Zwei Fallbeispiele - "Merchant of Venice" und "MultiCharts" werden herangezogen und auf allgemeine Eigenschaften wie Funktionsumfang, Lizenz, Kostenpunkt und Systemanforderungen untersucht und miteinander verglichen. In Merchant of Venice werden genetische Algorithmen zur Parameter Optimierung in Kauf/Verkauf Regel und zur Kauf/Verkauf Regel Generierung eingesetzt. In MultiCharts werden genetische Algorithmen zur Parameter Optimierung und zur Portfolio Optimierung eingesetzt. Es werden empirische Versuche und Analysen mit unterschiedlichen Parameterkon gurationen durchgeführt, um die Performanz des Einsatzes von genetischen Algorithmen in Trading Tools zu untersuchen. Von speziellem Interesse ist die Performanz der genetischen Algorithmen in unterschiedlichen Wirtschaftsbedingungen wie zum Beispiel in einem wachsenden bzw. in einem turbulenten Markt. Die Ergebnisse aus den Untersuchungen zeigen signi kante Potentiale der genetischen Algorithmen.

Diplomarbeitsposter Zimmermann Bernhard

Bernhard Zimmermann

Masterstudium Informatikmanagement
Abstract:

Das Bewusstsein für die Wichtigkeit der Informations-Sicherheit in Unternehmen ist nicht zuletzt durch die steigende Anzahl von gesetzlichen und regulatorischen Anforderungen in den letzten Jahren gestiegen. Dies spiegelt auch die steigende Zahl der Unternehmens-Zertifizierungen im Bereich der Informations-Sicherheit wieder. Somit steigt auch der Bedarf an qualifiziertem Fachpersonal zur Umsetzung eines Informations-Sicherheits-Management-Systems. Für die Ausbildung des Fachpersonals wird im Rahmen dieser Arbeit ein E-Learning Kurs für die Wissensvermittlung von Informations-Sicherheit erstellt. Dieser Kurs basiert auf der E-Learning Plattform Moodle und beinhaltet 17 Kapitel wie z.B. Einführung in Informations-Sicherheit und das Informations-Sicherheits-Management-System. Für die Wissensvermittlung werden sowohl Web 1.0 als auch Web 2.0 Technologien verwendet. Die Informations-Sicherheits-Themengebiete werden in Lernmodule zusammengefasst. Diese Lernmodule beinhalten für das Themengebiet relevante Dokumente und haben entweder Einzel- oder Gruppenaufgaben zur Vertiefung bzw. Anwendung der Theorie. Am Ende jedes Moduls stehen Fragen zur Überprüfung des Wissens zur Verfügung. Für die Kommunikation zwischen den Kursteilnehmern und dem Trainer finden Foren und Chaträume Anwendung. Die gemeinsam erstellten Gruppenaufgaben werden auch in Wiki’s dokumentiert. Ein Informations-Sicherheits-Glossar bietet Unterstützung bei der Aufklärung von Begrifflichkeiten. Da Feedback ein entscheidender Faktor für die Weiterentwicklung ist, wird am Ende des Kurses eine Umfrage unter den Teilnehmern durchgeführt. Diese Arbeit gibt auch einen kurzen Einblick über bereits verfügbare, internationale Universitätslehrgänge und Personenzertifizierungen im Bereich der Informationssicherheit.

Arbeitsbereich (vor 2018) Computer Vision

Diplomarbeitsposter Diem Markus

Markus Diem

Masterstudium Visual Computing
Abstract:

In this thesis a character recognition system is proposed that can handle degraded manuscript documents which were discovered at the St. Catherine's Monastery. In contrast to state of the art OCR systems, no early decision namely the image binarization needs to be performed. Thus, an object recognition methodology is adapted for the recognition of ancient manuscripts. Therefore interest points are extracted which allow for the computation of local descriptors. These are directly classified using a SVM with one against all tests. In order to localize characters interest points that represent characters are found by means of a scale distribution histogram. Then the remaining interest points are clustered using a k-Means which is initialized with the previously selected interest points. Finally a voting scheme is applied where the local descriptors' class probabilities which were assigned after the classification are accumulated to a single class probability histogram of each character cluster. This histogram does not solely allow for a hard decision, but can be presented to human experts who can decide the character class for hardly readable characters according to the probabilities obtained. The system was evaluated on three different dataset namely a synthetic with Latin script, degraded characters and real world data. The system achieves a F-score of 0.77 on the last dataset mentioned.

Diplomarbeitsposter Fischer Lukas

Lukas Fischer

Masterstudium Medizinische Informatik
Abstract:

In recent years segmentation approaches based on sequential Monte Carlo Methods delivered promising results for the localization and delineation of anatomical structures in medical images. Also known as Shape Particle Filters, they are used for the segmentation of human vertebrae, lungs and hearts, being especially well suited to cope with the high levels of noise encountered in MR data and overlapping structures with ambiguous appearance in radiographs. Shape Particle Filters rely on a region template or map based on a shape models’ mean shape, which is defined manually in existing approaches. During search, a classification step based on appearance features yields the probabilities for each pixel to belong to a certain region within the template. This forms the basis for the actual segmentation process. This thesis aims to optimize Shape Particle Filters in terms of computational performance as well as segmentation accuracy. Two novel approaches for the generation of the region map are proposed, namely automatic region maps and per-pixel region maps. The automatic region map approach, where the optimal distribution and number of template regions is derived from a set of training images, adapts to complex data and finds consistent features in the training examples without manual interaction. Using appearance features based on the Monogenic Signal the per-pixel region map approach eliminates both the need for the region estimation as well as the classification step, resulting in considerably faster segmentation while retaining the same level of accuracy. The proposed methods are evaluated on four different data sets, synthetic rectangles, metacarpal bone radiographs, MRI slices of the heart and CT slices of the lung. Experimental results show a major gain in computational performance as well as better or at least equal segmentation results when compared to current approaches.

Diplomarbeitsposter Zweng Andreas

Andreas Zweng

Masterstudium Visual Computing
Abstract:

This master thesis discusses image processing methods for detecting abnormal and unexpected behavior within human crowds and the drawbacks of existing methods. Currently abnormal behavior recognition is treated as a high-level image processing task relying on existing visual surveillance methods such as object-tracking or event detection. Therefore, the result of behavior recognition depends on the quality of the output of these methods and is affected by their weaknesses. This thesis discusses a new approach which is independent from high-level methods like event detection or object-tracking and is therefore more robust in complex scenarios. This approach uses features including the spatio-temporal movement of crowds, the pace of the included persons and the density of the crowds. Training sequences are used to detect values for these features under normal circumstances, which are then used to detect deviations during an unexpected event. The results of the proposed approach are discussed and compared with existing methods.

Institut für (vor 2018) InformationssystemeE184

Arbeitsbereich (vor 2018) Distributed Systems

Diplomarbeitsposter Avci Serkan

Serkan Avci

Masterstudium Informatikmanagement
Abstract:

Für Unternehmen und Organisationen, die Informationssysteme entwickeln und verwenden, ist es sehr kritisch, Web-Applikationen und Web-Informationssysteme ungetestet zu veröffentlichen. Die Komplexität und Fülle an Daten sorgen oft dafür, dass Webseiten nicht die gewünschte Funktionalität oder Performance liefern, die an sie gestellt werden. Die automatisierten Webtests sollen garantieren, dass Web-Applikationen und Informationssysteme richtig arbeiten und auch unter verschiedenen Browser die gleiche Funktionalität und Performance liefern sowie Plattformunabhängig verwendet werden können. Diese Tests sollen dem Betreiber der Web- Applikation auch Auskunft über die Skalierbarkeit ihrer Web-Applikation geben, und ob diese auch unter starker Last, Resultate in annehmbarer Zeit liefern. Die vorliegende Arbeit setzt sich mit den Grundlagen des automatisierten Testens von Web-Applikationen auseinander. Das Hauptziel dieser Arbeit ist es, die Selenium Tests mit Hilfe von Linux Shell-Skripts zu automatisieren und somit präzise Testergebnisse in kürzeren Testläufen zu erreichen. Außerdem zeigt die Arbeit das Zusammenspiel von Selenium Framework und Linux Shell-Skripts bei automatisierten Webtest. Selenium HQ WATS ist ein Test-Framework zum Erstellen und Ausführen automatischer Tests für „Web-Applikation“. Das Selenium Framework wird oft mit Selenium IDE gleichgesetzt, jedoch ist die IDE nur eine Anwendung in einem großen Paket. Dieses Paket beinhaltet Selenium Core, Selenium IDE und Selenium Remote Control, das sogenannte RC. Diese Produkte können entweder alleine oder gemeinsam eingesetzt werden. Die Kern-Einheit dieses Frameworks bildet Selenium Core.

Diplomarbeitsposter Böhm Roman

Roman Böhm

Masterstudium Software Engineering & Internet Computing
Abstract:

Infinica ist ein System zur Dokumentgenerierung. In einer Designerkomponente erstellt der Benutzer eine Vorlage, die anschließend in einem benutzerdefinierten Prozess automatisiert mit Daten befüllt wird. Im Gegensatz zu anderen Dokumentelementen, wie Textfeld oder Bild, stellt die Unterstützung von dynamischen Diagrammen eine weit größere Herausforderung dar. Die vorliegende Arbeit beschreibt, wie diese Aufgabe mit Hilfe der BIRT Chart Engine realisiert wurde. Zuvor setzt sie sich allgemein mit dem Thema des variablen Datendrucks auseinander. Im zweiten Teil wird ein Modell für die Einbindung unterschiedlicher Datenquellen vorgestellt und implementiert.

Diplomarbeitsposter Celikovic Predrag

Predrag Celikovic

Masterstudium Software Engineering & Internet Computing
Abstract:

Software as a Service is a software deployment and distribution model that has grown in the last few years. Companies can build software systems out of internal services or software components and use external services offered by third-party companies. Composition of these services is an important topic because of the rapid increase of involved Web services in enterprise software systems. Composition languages such as BPEL and others have been developed in the last few years. This masters thesis presents a CaaS (Composition as a Service) approach for Web service compositions. The VCL (Vienna Composition Language) domain-specific language is introduced. The main focus of VCL and this thesis lies on microflows. Microflows are simple service compositions without support of user interaction at execution time. The VCL is used to specify microflows. A composition services takes the VCL composition and transforms it to a Microsoft Windows Workflow which will be hosted as a own Web service in the IIS (Internet Information Server). In VCL, dependencies between services are defined implicitly based on the input and output parameter of those. However, by adding control structures it is possible to override the dataflow dependencies and modify the resulting composition. To fulfill the SOA „Publish-Find-Bind“ principal, VRESCo is used as a service registry. in addition, to a classical service registry like UDDI, VRESCo supports an abstraction layer for Web services that is used to map different service implementation from the same domain to a common interface definition. VCL specifies the composition on this abstract layer and allows to add, unlike other composition languages, QoS constraints. The composition service takes the given VCL composition description, resolve the functional requirements (e.g., input, output requirements) and choose the best solution based on the given QoS constraints.

Diplomarbeitsposter Graf Christian

Christian Graf

Masterstudium Medizinische Informatik
Abstract:

Die Diplomarbeit umfasst die Weiterentwicklung eines webbasierten Tumordokumentationssystems für den HNO-Fachbereich am AKH Wien um eine noch nicht existierende Statistikkomponente. Zu Beginn der Diplomarbeit wird das bestehende Tumordokumentationssystem HNOOncoNet vorgestellt und die bisher implementierten Funktionalitäten näher erläutert. Im Anschluss werden technische Grundlagen zur Entwicklungsumgebung, der Datenbank, den realisierten Konzepten, sowie theoretische Grundlagen zur Statistik, erörtert. Es wird sowohl die theoretische Planung, wie auch die praktische Umsetzung der Statistikkomponente vorgestellt. Die Statistikkomponente umfasst dabei im Wesentlichen deskriptive Statistiken, Korrelationsanalysen und Überlebenswahrscheinlichkeiten, welche aufgrund von individuell ausgewählten Kriterien berechnet werden können. Um die Ergebnisse der berechneten Statistiken dem User anschaulicher zu machen, wird das System um eine grafische Komponente erweitert. Mit Hilfe dieser werden aus den Ergebnissen der statistischen Berechnungen Diagramme erzeugt. Diese umfassen Kreis- und Balkendiagramme, sowie Regressionsgeraden und Kaplan-Meier Kurven. Um korrekte und aussagekräftige Ergebnisse der statistischen Berechnungen zu erhalten, muss die Dateneingabe der User auf Richtigkeit geprüft werden. Diese Überprüfung wurde durch Validatoren realisiert, welche die Konsistenz der Daten des Gesamtsystems gewährleisten und die Abhängigkeiten zwischen den Daten überprüfen. Die schriftliche Arbeit beschreibt die angewendeten Technologien und gibt einen detaillierten Überblick der implementierten Lösungen. Als technische Grundlage dienen dabei die Technologien der Java Enterprise Edition. Als Anwendungsserver wird JBoss AS 4.2 verwendet. Das System baut im Weiteren auf den Technologien JBoss Seam und Hibernate auf. Der Schluss der Arbeit widmet sich der Problematik der Reproduzierbarkeit der statistischen Berechnungen und gibt einen Ausblick auf mögliche Lösungsansätze wieder.

Diplomarbeitsposter Graf Martin

Martin Graf

Masterstudium Medizinische Informatik
Abstract:

Die Kernfunktionalität von Informationssystemen ist im Normalfall das Anzeigen, Anlegen, Bearbeiten und Löschen von Daten. Die Realisierung kann durch passend ausgewählte Softwarearchitekturen und den Einsatz von Frameworks stark vereinfacht und verkürzt werden. Werkzeuge können Teile der Anwendung automatisiert erstellen und Entwicklern ermöglichen, sich auf die eigentliche domänenspezifische Logik zu konzentrieren. Es wird gezeigt, dass JBoss Seam diese Aufgabe für webbasierte Informationssysteme erfüllt. JBoss Seam ist ein Framework, das mehrere Technologien und Services im Umfeld der Java Enterprise Edition integriert, vor allem Hibernate für die Persistenz und Java Server Faces für die Präsentation. Nach einem Diskurs über die theoretischen Grundlagen der wichtigsten Komponenten wird jeweils auf die Spezifikation eingegangen und anschließend gezeigt, wie die Implementierung zur Erreichung der Ziele beiträgt. Diese werden anhand von Anforderungen und Modellen für ein webbasiertes Tumordokumentationssystem noch weiter mit praktischen Beispielen verdeutlicht.

Diplomarbeitsposter Happe Andreas

Andreas Happe

Masterstudium Software Engineering & Internet Computing
Abstract:

Provenance describes how objects came into their current state, e.g. it describes different contributions to a document. This information provides detailed audit trails, verification of existing objects as well as reenactment of recorded activities. Provenance solutions consist of data gathering, storage and analysis, its implementation is delegated to domain application developers. This leads to custom provenance solutions that do not adhere to standards and are expensive to maintain. The domain developers’ productivity also suffers. We propose a generic provenance system that can be adapted for different systems. It employs advanced data unobtrusive data capturing techniques to minimize overhead imposed upon domain developers. Provenance data is refined and results are provided to developers through an easily usable interface. This allows domain developers to focus upon their domain tasks. To prove the feasability of our approach a prototype system has been implemented within Ruby on Rails. As domain application an existing experiment management solution was chosen and made provenance-aware.

Diplomarbeitsposter Huber Stefan Manfred

Stefan Manfred Huber

Masterstudium Medizinische Informatik
Abstract:

Die vorliegende Arbeit beschäftigt sich mit Methoden zum Erstellen von Benutzerschnittstellen für Webanwendungen. Konkret wird im Rahmen des webbasierten Tumordokumentationssystems HNOOncoNet die Entwicklung einer eigenständigen Eingabekomponente für Tumorstatusinformationen vorgestellt. Die im Projekt eingesetzte Plattform ist der JavaEE-Applikationsserver JBoss mit den darauf aufgesetzten Technologien Seam und Hibernate. Für die Umsetzung der Benutzerschnittstelle wird die RichFaces Komponentensammlung verwendet. Sie bietet neben Quelloffenheit und einer aktiven Entwicklergemeinde den großen Vorteil, dass Anwendungsprogrammierer mit Hilfe des RichFaces CDK (Component Development Kit) eigene Komponenten entwerfen können. Ausgehend von einer mit einfachen Mitteln erstellten JSF-Seite zur Eingabe von TNM-Tumorstatusinformationen werden die notwendigen Konzepte von JavaServer Faces vorgestellt. Später wird mit den Mitteln des CDK aus diesem Entwurf die eingenständige Komponente "inputTNM" entwickelt.

Diplomarbeitsposter Kux Michael

Michael Kux

Masterstudium Software Engineering & Internet Computing
Abstract:

Heutzutage setzen viele Unternehmen auf SOA um häufige Änderungen besser kontrollieren zu können und Dienste von Drittanbietern einfacher integrieren zu können. SOA kann mit BPEL Prozessen und Web Services realisiert werden. Diese Arbeit beschäftigt sich mit der sichtenbasierten und modellgetriebenen Erzeugung von Web Services. Um den Entwicklungsaufwand reduzieren zu können, wird der BPEL Prozess mit dem View based Modeling Frameworks (VbMF) abgebildet. Das VbMF ist eine Sammlung von Modellen, welche einen BPEL Prozess aus verschiedenen Sichten (u.A. Prozessablauf, verwendete Services) betrachten. So kann der Prozessablauf durch einen Spezialisten erstellt werden. Die für den Betrieb notwendigen technischen Details werden durch einen IT Spezialisten aufgefüllt. Für die automatische Web Service Erzeugung wird das VbMF um die Fähigkeit erweitert auch die beteiligten Web Services abzubilden. Damit wird nun der gesamte Prozess mit allen beteiligten Services betrachtet. Die modellgetriebene Architektur erlaubt es aus dem Modell unter Zuhilfenahme einer Modell-zu-Text Transformation Web Services mit bestimmten Eigenschaften zu erzeugen: - Empty Stub: Für Neuentwicklungen. - Test Stub: Es wird ein Web Service erstellt, welches Informationen während der Ausführung ausgibt und Antwortnachrichten erzeugt, welche die Prozesssimulationen ermöglichen. - Adapter Stub: Oft existiert eine Lösung, welche nicht verworfen werden kann. Dieser Typ ermöglicht es, Teile der Lösung weiter zu verwenden indem ein Adapter die Legacy Applikationen dem Prozess zur Verfügung stellt. Die Transformationen ermöglichen es ohne Änderungen am Modell das Web Service für verschiedene Systeme und Frameworks zu erstellen (Interoperabilität). Der Prototyp dieser Arbeit vereinfacht die Erstellung und Handhabung von BPEL Arbeitsprozessen mit Web Services. Weiteres kann es für automatisierte Tests von BPEL Prozessen und für stufenweise Software Migrationen verwendet werden.

Diplomarbeitsposter Matous Florian

Florian Matous

Masterstudium Software Engineering & Internet Computing
Abstract:

Die Ziele dieser Arbeit sind der Entwurf und die Implementierung eines Prozess Designers für dokumentorientierte Prozesse im Rahmen des Infinica Projektes. Das Infinica Projekt beschäftigt sich mit der Entwicklung von Softwarekomponenten für prozessorientierte Dokumenttransformation und -verwaltung basierend auf den W3C Standards XSL-FO und XForms. Die relevanten Komponenten im Rahmen dieser Arbeit sind die Prozess Engine für die Ausführung von Infinica Prozessen und der Prozess Designer zur Modellierung und Speicherung von Infinica Prozessen. Ein Infinica Prozess ist eine Anordnung von modularen Aktivitäten, welche Arbeiten wie Transformationen oder Rendering von Dokumenten durchführen. Infinica Prozesse werden mit Hilfe der domänenspezifischen Sprache IPDL (Infinica Process Definition Language) definiert. Die Ziele dieser Arbeit sind nun der Entwurf und die Implementierung eines Prozess Designers welcher den Entwurf und die Speicherung von Infinica Prozessen basierend auf der IPDL ermöglicht. Der Entwurfsabschnitt beinhaltet unter anderem den Entwurf eines BPMN konformen Anwendungsmodells. BPMN wurde im Rahmen einer Evaluierung von Prozessmodellierungssprachen ermittelt. Die Anwendung wird als Eclipse Rich Client Platform (RCP) Anwendung unter Verwendung des Graphical Modeling Frameworks (GMF) umgesetzt. Neben der grafischen Modellierung werden Modellvalidierung und die Erweiterbarkeit durch eigene Aktivitäten unterstützt. Außerdem kann der modellierte Prozess als IPDL konforme Prozessdefinition geladen und gespeichert werden. Die resultierende Anwendung wird in Bezug auf die Unterstützung von Workflow Patterns untersucht. Außerdem werden die Konformität zu BPMN sowie alternative Lösungen und Ansätze diskutiert.

Diplomarbeitsposter Partmann Reinhard

Reinhard Partmann

Masterstudium Medizinische Informatik
Abstract:

The thesis at hand is concerned with methods to create user interfaces for web applications. Concretely, the develpment of a self-contained input component for tumor status information in the context of the web based documentation system HNOOncoNet is presented. The platform used for the project is the well established Java EE application server JBoss with Seam and Hibernate technologies on top. The component collection RichFaces is used for implementing the user interface. Apart from being open source and having an active developer community, RichFaces has the big advantage of offering a CDK (component development kit) to application developers so they can design and implement custom components. Starting with a simple JSF page to enter TNM tumor status information, the necessary concepts of JavaServer (tm) Faces are introduced. Later on, the CDK is used to develop the self-contained component inputTNM.

Diplomarbeitsposter Redlein Andreas

Andreas Redlein

Masterstudium Software Engineering & Internet Computing
Abstract:

This thesis addresses the optimization of a Java code generator in the fields of Model-Driven Architecture (MDA) and dependable distributed systems. The generated Java code represents integrity constraint validation code, which is generated from OCL constraints that are defined on a UML model. This Java code generator does not always produce the most efficient code with respect to its run-time performance, because of deep nested loops. For this purpose, a OCL to SQL transformer was implemented that generates SQL code validating constraints on the database layer. Furthermore, this work introduces a transformation algorithm that allows to split OCL constraints into their incoherent parts and to transform these parts separately. Hence, it is possible to validate one constraint using Java and SQL. Finally, an evaluation of the run-time performance of the generated Java constraint validation code shows that the performance is considerably increased.

Diplomarbeitsposter Rozsenich Benjamin

Benjamin Rozsenich

Masterstudium Medizinische Informatik
Abstract:

Die Diplomarbeit umfasst die Weiterentwicklung eines webbasierten Tumordokumentationssystems für den HNO-Fachbereich am AKH Wien um eine noch nicht existierende Statistikkomponente. Zu Beginn der Diplomarbeit wird das bestehende Tumordokumentationssystem HNOOncoNet vorgestellt und die bisher implementierten Funktionalitäten näher erläutert. Im Anschluss werden technische Grundlagen zur Entwicklungsumgebung, der Datenbank, den realisierten Konzepten, sowie theoretische Grundlagen zur Statistik, erörtert. Es wird sowohl die theoretische Planung, wie auch die praktische Umsetzung der Statistikkomponente vorgestellt. Die Statistikkomponente umfasst dabei im Wesentlichen deskriptive Statistiken, Korrelationsanalysen und Überlebenswahrscheinlichkeiten, welche aufgrund von individuell ausgewählten Kriterien berechnet werden können. Um die Ergebnisse der berechneten Statistiken dem User anschaulicher zu machen, wird das System um eine grafische Komponente erweitert. Mit Hilfe dieser werden aus den Ergebnissen der statistischen Berechnungen Diagramme erzeugt. Diese umfassen Kreis- und Balkendiagramme, sowie Regressionsgeraden und Kaplan-Meier Kurven. Um korrekte und aussagekräftige Ergebnisse der statistischen Berechnungen zu erhalten, muss die Dateneingabe der User auf Richtigkeit geprüft werden. Diese Überprüfung wurde durch Validatoren realisiert, welche die Konsistenz der Daten des Gesamtsystems gewährleisten und die Abhängigkeiten zwischen den Daten überprüfen. Die schriftliche Arbeit beschreibt die angewendeten Technologien und gibt einen detaillierten Überblick der implementierten Lösungen. Als technische Grundlage dienen dabei die Technologien der Java Enterprise Edition. Als Anwendungsserver wird JBoss AS 4.2 verwendet. Das System baut im Weiteren auf den Technologien JBoss Seam und Hibernate auf. Der Schluss der Arbeit widmet sich der Problematik der Reproduzierbarkeit der statistischen Berechnungen und gibt einen Ausblick auf mögliche Lösungsansätze wieder.

Diplomarbeitsposter Schakmann Rene

Rene Schakmann

Masterstudium Software Engineering & Internet Computing
Abstract:

Service orientierte Architekturen (SOA) sind mittlerweile der De-facto-Standard für verteilte Systeme in den Unternehmenslandschaften. SOA bietet zahlreiche Vorteile wie die lose Kopplung von verteilten Anwendungen und die dadurch gewonnene Flexibilität. Die Verwendung von SOA führt allerdings auch zu neuen Herausforderungen. Eine der wohl wichtigsten ist die Zusammensetzung der verteilten Anwendungen zu einem funktionierenden (Geschäfts-)Prozess. BPEL ermöglicht es diese verteilt angebotenen Services zu einer funktionierend Einheit zusammenzufügen. Wie bei jeder anderen Softwareentwicklung auch muss bei diesen Kompositionen die Qualität stets sicher gestellt werden. Während für das Testen von lokalen Anwendungen schon Konzepte wie Mockup Objekte bereitstehen, ist im Bereich der verteilten Systeme noch Nachholbedarf vorhanden. Diese Arbeit behandelt die automatische Generierung von Testbeds für BPEL Prozesse um eine Umgebung für Tests bereitzustellen und so die Qualität sicherzustellen.

Arbeitsbereich (vor 2018) Database and Artificial Intelligence

Diplomarbeitsposter Akar Mehmet

Mehmet Akar

Masterstudium Business Informatics
Abstract:

Im Rahmen dieser Arbeit soll untersucht werden, inwieweit Computerspiele zur Entwicklung von sozialen Kompetenzen verwendet werden können und inwieweit deren Entwicklung ge-messen werden kann. Der Schwerpunkt der Arbeit konzentriert sich auf das „Serious Game Design“. Dabei geht es darum ernste Themen spielerisch zu erarbeiten, unterhaltsam zu vertiefen und eine größere Gruppe von Menschen zu erreichen als mit einem gewöhnlichen Buch. Serious Games eignen sich dafür in bestimmten Bereichen, wie die psychotherapeutische Behandlung von Kindern und Jugendlichen, als Unterstützung eingesetzt zu werden. Da dieser Ansatz erst in den Kinderschuhen steckt, wird anhand von ausgewählten Spielen der jetzige Stand der Technik erläutert. Aufgrund eines Experiments wird untersucht, inwieweit man bestimmte persönliche Eigen-schaften anhand von Spielaspekten beobachten und bewerten kann. Um das Experiment mit der Hilfe des Spieles „Sims 2“ durchführen zu können, werden Kinder im Alter von 12-16 Jahren ausgewählt. Während des Spielens werden die Kinder beobachtet und bewertet. Nach dem Spielen werden die erreichten Punkte mit den Eltern und Kindern besprochen. Die Eltern und Kinder werden aufgefordert die Ergebnisse zu kommentieren und anhand eines Bewertungsschemas in prozentuellen Angaben auszudrücken. Um eine klare Aussage treffen zu können, ob sich das Spiel dafür eignet die definierten Eigenschaften zu bewerten, werden sta-tistische Methoden angewendet. Das Ergebnis des Experiments zeigt, dass das Spiel sich nicht dafür eignet, die definierten Eigenschaften zu bewerten. Bei den unterschiedlichen Modellen ist es möglich jeweils eine einzige Eigenschaft zu bewerten.

Diplomarbeitsposter Heinisch Martin Stefan

Martin Stefan Heinisch

Masterstudium Informatikmanagement
Abstract:

Training and continuing education are necessary. Today’s rapid changes in society and in economy require “constant learning”. In addition to federal expenditures, the private sector spends more and more money on (continuing) education of their employees. Besides several influencing factors, the fluctuation of employees is increasing this tendency. Companies have to fill certain jobs more often which involves training these new members of staff. Typically for this situation are salesmen. But also bigger rearrangements within companies are more frequently necessary. One example is the implementation of new software. At the beginning, all employees are trained. But later on new employees have to be trained too. This situation in combination with a typical fluctuation job like salesman makes it quite clear why continuous training is inevitable. As education needs time and money it is important, whether these factors can be influenced, or not. Often the trainings are standardized. An adjustment to individual requirements is most likely not possible. But there is another starting point. People who do the same job may have common and typical characteristics. To be more precisely: They may share characteristics in terms of competences, learning behavior, educational background, etc. If they do, is it possible to create a standardized and perseverative training on them? Prior of a real training, competences, knowledge and addiction of the participants are collected, measured and analyzed. Out of it, certain personal attributes of the tested persons are filtered in order to determine which learning or training method would theoretically be most suitable. A predefined time period after the training, evaluating data is collected. The analysis of that in combination with the previously received data shall bring up information about optimization possibilities which will be discussed in detail within this study.

Diplomarbeitsposter Pfandler Andreas

Andreas Pfandler

Masterstudium Computational Intelligence
Abstract:

Diagnosis is an important field of Artificial Intelligence. Recently, Console et al. proposed a framework for decentralized qualitative model-based diagnosis. The basic idea is to decompose a complex system into subsystems, each of which gets a local diagnoser assigned. The global diagnosis is computed by “asking” the local diagnosers, while some information may be private. However, some problems remained open, in particular a detailed complexity analysis and an implementation are missing. The goal of this work is to resolve some of these open problems. To this end, we introduce extended definitions, based upon which we will define several related problems and analyze their complexity. For each defined problem, an upper bound is presented. Furthermore, we discuss slight modifications which allow us to prove the completeness of some problems. Using these theoretical results from the complexity analysis, we propose datalog encodings of the previously defined problems that match the complexity. Finally, the encodings are evaluated using the datalog system DLV.

Diplomarbeitsposter Rettinger Silke

Silke Rettinger

Masterstudium Information & Knowledge Management
Abstract:

Unter Datenintegration versteht man das Aufbereiten von unabhängigen und heterogenen Datenquellen, sodass sie sich dem Benutzer als eine einzige Datenquelle präsentieren. Es wird versucht dies zu erreichen, ohne dabei die Datenquellen zu ändern oder Daten zu kopieren. Die Bedeutung von Datenintegration ist in den letzten 15 Jahren gestiegen. Nicht nur Unternehmen, die mit einer Vielzahl an unterschiedlichen Datenquellen arbeiten, haben einen Bedarf an Datenintegration, sondern auch Regierungen benötigen diese zur Verbesserung der Zusammenarbeit der Ministerien, des Gesundheitswesens und der Forschung. Ein weiteres Anwendungsgebiet für Datenintegration ist das World Wide Web, das mehrere Millionen Datenquellen beherbergt, die kombiniert werden können, um für spezielle Themen gute Suchergebnisse zu liefern. Im Laufe der Forschung zum Thema Datenintegration haben sich verschiedene Konzepte herauskristallisiert. Unterschiedliche Architekturen für Datenintegrationssysteme sind entstanden. Bahnbrechend war die Entwicklung eines Ansatzes, der auf einem globalen Schema, das die virtuelle Sicht der User auf das System wiederspiegelt, und einer Menge von Datenquellen, die die echten Daten beinhalten, beruht. In diesem Zusammenhang haben sich verschiedene Herangehensweisen entwickelt, die unterschiedlichen Datenquellen mit dem globalen Schema zu verbinden. Einer dieser Ansätze, der “Local As View” Ansatz, ist eng mit dem datenbanktheoretischen Problem “Answering Queries Using Views” verbunden. Diese Arbeit, die auf einer ausführlichen Literaturrecherche zum Thema beruht, hat das Ziel, die unterschiedlichen Herausforderungen und Ansätze von Datenintegration als einen Einstiegspunkt für weitere Beschäftigung mit der Thematik zu bieten. Die grundlegenden Probleme von und Herangehensweisen an Datenintegration werden vorgestellt, um einen Überblick, ein Grundverständnis und Hintergrundwissen zu vermitteln, um sich selbständig weiter mit dem Thema auseinander setzen zu können.

Diplomarbeitsposter Roubickova Anna

Anna Roubickova

Masterstudium DDP Computational Logic (Erasmus-Mundus)
Abstract:

Die abstrakte Argumentation ist ein Versuch, den Prozess der menschlichen Argumentation zu formalisieren. Die Menschen verwenden Argumentation im täglichen Leben sowohl für das Argumentieren über Kenntnisse und Ansichten als auch für den Informationsaustausch. Diese Technik lässt sich auch für das Lösen zahlreicher Probleme verwenden: im Bereich der künstlichen Intelligenz aber auch in anderen Bereichen wie der Dialogspieltheorie. Außerdem kann sie auch als Werkzeug für das Vergleichen von verschiedenen nicht-monotonen Logiken eingesetzt werden. Die Argumentationstheorie versucht unterschiedliche Fragen zu beantworten. Dabei beschäftigt sie sich mit der Zulässigkeit eines einzelnen Arguments unter Berücksichtigung der restlichen Argumente, mit der Identifi kation von gemeinsam akzeptierbaren Argumenten und mit der Entdeckung von Beziehungen und Verbindungen zwischen Eigenschaften von solchen gemeinsam akzeptierbaren Argumenten. Außerdem spielen Komplexitätsanalysen eine wichtige Rolle in der Argumentationstheorie. Für die meisten algorithmischen Probleme in diesem Bereich sind keine effizienten Rechenverfahren bekannt. Daher ist auch die Suche nach geeigneten Generalisierungen und Einschränkungen von Argumentationsrahmen zu einem wichtigen Teil der Argumentationstheorie geworden. Diese Diplomarbeit präsentiert eine einheitliche Darstellung der wichtigsten Komplexitätsresultate der Argumentationstheorie unter Verwendung einer einheitlicher Notation. Anhand von zahlreichen Beispielen werden die verschiedenen Eigenschaften und Fakten illustriert und diskutiert.

Diplomarbeitsposter Sallinger Emanuel

Emanuel Sallinger

Masterstudium Computational Intelligence
Abstract:

Schema mappings play an important role in several areas of database research -- above all in data integration and data exchange. The foundation of optimizing schema mappings has been laid in a recent paper by Fagin et al., where new concepts of "equivalence" between two schema mappings have been introduced, namely data exchange equivalence and conjunctive query equivalence. These are natural relaxations of logical equivalence. Fagin et al. proved several important properties of these relaxed notions of equivalence, which clearly demonstrated the potential of these notions in optimizing various kinds of schema mappings. In this work, we investigate the potential of the relaxed notions of equivalence in optimizing schema mappings that consist of source-to-target tuple-generating dependencies (s-t tgds) and target equality-generating dependencies (target egds). On the one hand, we want to clarify if the relaxed notions of equivalence allow for additional optimization possibilities compared with logical equivalence. On the other hand, we also analyze several decidability questions. In particular, we prove that both data-exchange equivalence and conjunctive-query equivalence are undecidable for schema mappings based on s-t tgds and target egds. We also show that for a broad class of optimality criteria, optimizing the s-t tgds does not give us additional power compared to logical equivalence. In contrast, we do gain power for optimizing the target egds by using the relaxed notions of equivalence, but the most common optimization tasks are undecidable.

Diplomarbeitsposter Zalcmanis Martins

Martins Zalcmanis

Masterstudium DDP Computational Logic (Erasmus-Mundus)
Abstract:

Conjunctive queries (or, in SQL terminology, SELECT-PROJECT-JOIN queries) have extremely wide application in data management. It is usually assumed that the typical query is several orders of magnitude smaller in size than the database, and thus the typical query optimizations are concerned with tackling huge datasets. There are applications, however, where the query size can become especially important: in particular, the data integration algorithms often rely on automatic query rewritings, and can potentially generate quite large queries. Other important applications of query rewriting include optimization of queries under schema constraints, and optimization of schema mappings. In contrast to the data querying, in such scenarios the usual assumption of the database size by far exceeding the query size does not hold. The goal of this thesis is to address the issues of evaluating large conjunctive queries (CQ), that is, the queries comparable in size with the database. Our focus is placed on the acyclicity property of CQs: Acyclic CQs are known to have polynomial query complexity, while in the general case the problem of boolean query evaluation is NP-complete. To this end, we implemented the traditional Semi-join algorithm by Yannakakis and the DB-Shunt algorithm by Gottlob et al. For the case of cyclic queries, we made use of such techniques as Hypertree decomposition and Query decomposition. As a result of this thesis, a conjunctive query engine has been implemented, which by far outperforms the available open-source databases (in particular, the Java-based H2 database in the in-memory mode). Based on the experiments with this implementation we formulated recommendations concerning the choice of query evaluation strategy for different classes of CQs.

Institut für (vor 2018) Institut für ComputersprachenE185

Arbeitsbereich (vor 2018) Programmiersprachen und Übersetzer

Diplomarbeitsposter Crass Stefan

Stefan Crass

Masterstudium Software Engineering & Internet Computing
Abstract:

The development of distributed applications is a complex task that requires efficient communication and coordination between all participants. The space-based computing paradigm (SBC) enables simple collaboration between different peers due to a data-driven interaction style. This thesis describes the formal specification of XVSM (eXtensible Virtual Shared Memory), which represents a flexible and extensible SBC middleware that allows loosely coupled systems to coordinate themselves efficiently. Based on a simple algebraic foundation and an expressive query language, the semantics of the middleware's core functionality are defined via the specification of modules for basic data access, transactions, coordination and the runtime machine. A meta model is defined for XVSM to bootstrap the behavior of the space with own mechanisms. It is also shown how the middleware can be adapted to support arbitrary coordination laws that exceed the default semantics. The XVSM specification has been used to implement an executable prototype with the functional programming language Haskell. The feasibility of the formal model is proven with this XVSM prototype, for which the architecture and implementation are described in this thesis.

Diplomarbeitsposter Fischer Alexander

Alexander Fischer

Masterstudium Software Engineering & Internet Computing
Abstract:

A numerous amount of data to be processed arises in application areas such as intelligent transportation and urban mobility. A service plattform crafted for these demands has to enable pervasive gathering, processing and provisioning of content. Due to the widespread distribution of data access points, an architectural solution based on peer to peer systems seems natural. Furthermore, to support large datasets of short lived, locality aware data while providing equitable dependability, an architecture that unies the exibility and dependability of the peer to peer based distributed hash table (DHT) approach with the query expressiveness and coordination support of the tuple space based computing paradigm may enable complex query processing and fault tolerance. This thesis examines the feasibility of such a network service overlay by implementing and measuring a prototype, using state of the art software components publicly available.

Diplomarbeitsposter Karolus Markus

Markus Karolus

Masterstudium Software Engineering & Internet Computing
Abstract:

We live in the era of the internet which makes it possible to connect more and more people to each other. For this large amount of users suitable technologies are needed, so users can collaborate with each other efficiently. The solution should be able to cover the complex details and problems which can occur in large systems, like concurrent access to data. The newly developed middleware XVSM (eXtensible Virtual Shared Memory) that is based on shared data structures enables an efficient solution for many real-world problems. The XVSM model allows an intuitive collaboration between different partners on a peer-to-peer infrastructure. For coordination the model supports flexible data structures that can easily be customized. Another strength of this lightweight system is that the middleware can also be used on mobile devices. The biggest advantage of XVSM is the extensibility of the module structure. New functionalities can be included very quickly to the core system. As a basis for the descriptions in this thesis the XcoSpaces, the .NET reference implementation of XVSM, is used. The focus in this thesis lies on three main issues, which are the coordination concept, transactions and communication. First of all, many possibilities for the whole coordination mechanism are shown. The transaction and locking management allows concurrent access to data without inconsistencies. The middleware is able to communicate across machine boundaries via communication services.

Diplomarbeitsposter Kruse Florian

Florian Kruse

Masterstudium Software Engineering & Internet Computing
Abstract:

Datenbanken stellen heutzutage einen sehr wichtigen Teil jeder Unternehmensinfrastruktur dar. Beinahe jedes Unternehmen nützt zumindest eine für die alltägliche Arbeit unverzichtbare Datenbank. Deshalb werden Lösungen benötigt, die sowohl hoch verfügbar und ausfallsicher sind als auch konsistente Daten liefern. Es gibt eine Vielzahl von Lösungen für große Unternehmen, jedoch kaum kostengünstige, einfache Lösungen, die für kleine Organisationen leistbar sind. In dieser Arbeit wird eine Lösung vorgestellt, die diese Lücke schließt. Es wird ein hoch verfügbares, zuverlässiges, selbstheilendes System präsentiert, das als Middleware Software sowohl auf kommerziellen als auch auf open source Datenbanklösungen aufbaut. Dieser heterogene Datenbankcluster verwendet als zentrale Koordinations- und Kommunikationsstruktur "eXtensible Virtual Shared Memory" (XVSM), das den "Space Based Computing" Ansatz verfolgt. Am Anfang dieser Arbeit werden verschiedene Aspekte von Datenbanken im Allgemeinen, sowie Hoch-Verfügbarkeitslösungen für Datenbanksysteme und "Space Based Computing" erörtert. Als Teil dieser Arbeit wurde das Datenbankcluster System HCSQL (Heterogeneous Clustered SQL – Database Management System) entwickelt. Zunächst werden die Konzepte hinter HCSQL aus theoretischer Sichtweise skizziert. Dieser Teil der Arbeit beinhaltet sowohl die zu Grunde liegende Strategie, die Architektur, Beispiele für Einsatzmöglichkeiten als auch die System- und Funktionsbeschreibung. Auf diesen theoretischen Teil folgt eine detaillierte Beschreibung des entwickelten Prototyps. Zum Abschluss wird eine verallgemeinerte Variante des von HCSQL verwendeten Ansatzes, parallele konsistenzgeprüfte Verarbeitung, vorgestellt.

Diplomarbeitsposter Lozhkin Yevhen

Yevhen Lozhkin

Masterstudium Software Engineering & Internet Computing
Abstract:

In dieser Diplomarbeit werden vier gängige Technologien für die Entwicklung von Verteilten Systemen untersucht. Es handelt sich dabei um die Technologien XVSM, .NET Remoting, WCF (Windows Communication Foundation) und ASP.NET. Das Beispielsystem eines Verteilten Systems – ein System zur Parkplatzreservierung in Parkhäusern – erlaubt es, Einblick in die Arbeit der vier Middlewares zu erhalten und mit den Prinzipien des Systemaufbaus mit Hilfe jeder einzelnen dieser Technologien vertraut zu werden. Des Weiteren ermöglicht das entwickelte Beispielsystem die Analyse der einzelnen Middlewares nach Schlüsselkriterien. Als Grundlage bei der Ausarbeitung der Schlüsselkriterien dienten die Praktikumsarbeit von Ayse Cicek „The use of middleware technologies“, die zum Zeitpunkt der Erstellung dieser Arbeit noch nicht abgeschlossen war, und der Artikel „How do J2EE and Microsoft's .Net compare in enterprise environments?“. Es werden die Schlüsselkriterien Notifikation, Synchronisation, Plattformunabhängigkeit, Verbindungsaufbau, Skalierbarkeit Wartung und Evolution, Komplexität und Transparenz der Technologie, Ausfallssicherheit, Installation und Konfiguration der Plattform sowie die Anzahl der Lines of Code betrachtet. Am Ende der Arbeit wird jede der vier Technologien bewertet. Die Bewertung findet auf Basis der gesammelten Erfahrungen bei der Entwicklung des Parkplatzreservierungssystems sowie einer Code-Analyse statt. Das Ergebnis dieser Diplomarbeit stellt einen Vergleich der Technologien untereinander dar.

Diplomarbeitsposter Marek Alexander

Alexander Marek

Masterstudium Software Engineering & Internet Computing
Abstract:

Until today developing software for embedded devices has been a tedious task with the main problem that those applications interface directly with the hardware they are run on. This causes a strong coupling between hardware and software, thus making it hard to impossible to reuse code. Furthermore there is a continuously growing number of networked embedded devices which need to collaborate with each other using different communication protocols like TCP/IP, ZigBee, Bluetooth et cetera. For that reason the need for a common middleware to connect those devices increases, but the tight software-hardware coupling makes it hard to write such a system for different devices. There already exist some middlewares like emORB [1], which is based on CORBA (Common Object Request Broker Architecture). However CORBA does not allow for P2P (Peer-to-Peer) communication and is thus limited for the usage in mobile networked embedded systems. Back in 2001 Microsoft started the Smart Personal Object Technology (SPOT) initiative and the .NET Micro Framework was born, which made it possible to write managed, hardware-independent code for embedded devices. Even though this framework is only supported on 32 bit devices, it supports a wide range of those and allows for developing a platform independent prototype of a slimmed XVSM middleware....

Diplomarbeitsposter Neustifter Andreas

Andreas Neustifter

Masterstudium Computational Intelligence
Abstract:

In computer science profiling is the process of determining the execution frequencies of parts of a program. This can be done by adding counters to the code, each time a part of the program is executed the counter is incremented. At the end of the execution the counters are written to a file for later use. Currently the LLVM Compiler Infrastructure supports the profiling of programs by placing counters in the code and reading the resulting profiling data during consecutive compilations. But these counters are placed with a naïve and inefficient algorithm that uses more counters than necessary. Also the recorded profiling information is not used in the compiler during optimisation or in the code generating backend when recompiling the program. This work tries to improve the existing profiling support in LLVM in two ways. First, the number of counters placed in the code is reduced as presented by Ball and Larus in 1994. Counters are placed only at the leaves of a spanning tree of a function's control flow graph (CFG), which gives an incomplete profile after the program execution. This incomplete profile can be completed by propagating the values of the leaves back into the tree. Secondly, the profiling information is made available to the code generating backend. The CFG modifications and instruction selection passes are modified where necessary to preserve the profiling information so that backend passes and code generation can benefit from it. For example the register allocator is one such backend pass that could benefit since the spilling decisions are based on the execution frequency information. The efficiency of the implemented counter placing algorithm is evaluated by measuring profiling overhead for the naïve and for the improved counter placement. Also several techniques to further improve the counter placement are evaluated, additionally the effects of the profiling being available for the code generator are measured.

Diplomarbeitsposter Pitschadell Robert

Robert Pitschadell

Masterstudium Software Engineering & Internet Computing
Abstract:

Enterprise Application Integration (EAI) connects different independent systems, distributed in different divisions and departments of a company, to build a large, integrated solution. Message oriented Middlewares (MOM) are applicable for such distributed systems with high demand on data transfer, reliability and scalability. The great advantage compared to remote procedure calls (RPC) is the asynchronous communication. This offers a loosely coupled communication in time, space and synchronisation between sender and receiver. The communication participants do not need to work at the same time. They neither need to know of each other nor to wait for synchronisation results. It is possible to provide a reliable business system even if sometimes parts have been dropped out. Besides many proprietary systems, JMS (Java Message Service), a standard developed by Sun Microsystems, established in the Java segment over the years. Most JMS implementations run in a client server architecture. Objective of this master thesis is to analyse existing JMS providers and to develop a serverless JMS Java API implementation. The release is constructed on top of an extensible virtual shared memory XVSM system. XVSM provides a shared data space for communication and collaboration of several autonomous software components. It offers reliability and high scalability with a serverless approach. The objective of this thesis is to develop adequate data structures for different message types (publish/subscribe, point to point), to integrate transaction techniques and to perform benchmark tests. Further additional features, like message selection, priority control or queue monitoring shall be analysed in order to extend the JMS API.

Arbeitsbereich (vor 2018) Theoretische Informatik und Logik

Diplomarbeitsposter Mönks Konrad

Konrad Mönks

Masterstudium Computational Intelligence
Abstract:

Molekular-biologische Forschung hat sich durch die Entstehung von Hochdurchsatz Verfahren grundlegend verändert. Die parallele Messung einer Vielzahl zellulärer Komponenten ist möglich geworden und das Ziel ist nun, durch eine erfolgreiche Integration der Daten funktionalen Modellen abzuleiten, die den Zusammenhang von phänotypischen Observablen und molekulare Zustände der Zelle erklären. Der gegenwärtige Standard zur Darstellung funktionaler Modelle sind Interaktions Netzwerke. In dieser Arbeit werden zwei Schwächen gängiger Methoden zur Ableitung funktionaler molekular-biologischer Netzwerke adressiert. Die meisten Ansätze ermöglichen es nicht verschiedenen Typen funktionaler Interaktionen zu unterschieden, was die Interpretation der abgeleiteten Netzwerke erschwert. Desweiteren leiden diese Netzwerke an erhöhten Falsch Positiv (FP) und Falsch Negativ (FN) Raten. Um die erste Schwäche zu adressieren wendete ich Machine-Learning Methoden auf omics-Daten an und war so im Stande drei Typen von funktionalen Interaktionen vorherzusagen. Um FP/FN zu reduzieren wurden zwei Algorithmen entworfen mit dem Ziel, Netzwerk-Vorhersagen zu verbesseren basierend auf einer Abschätzung der Topolgie des zu rekonstruierenden Netzwerkes. Desweiteren wurde die Eignung von P-Systems zur Rekonstruktion von Netzwerken untersucht. Das Ergebnis dieser Arbeit besteht in einem Überblick über die Integration von omics-Daten, der Evaluierung unterschiedlicher Machine-Learning Methoden und einer Machbarkeits-Studie für die Topologie basierten Algorithmen. Es konnte gezeigt werden, dass die Vorhersage eines spezifischen Kantentyps möglich ist bei der Verwendung geeigneter Machine-Learning Verfahren, und auch die Machbarkeit der Topologie basierten Ansätze wurde deutlich. Abschliessend werden die praktischen Implikationen der Egebnisse im Kontext der Analyse von B-Zellen Lymphoma diskutiert.

Diplomarbeitsposter Pollak David Dominik

David Dominik Pollak

Masterstudium Informatikmanagement
Abstract:

Schwerpunkt dieser Diplomarbeit sollen Schulungen für unterschiedliche Gruppen sein. Es sollen die verschiedenen Ansätze und Modelle der Wissensvermittlung, sowie die didaktischen Unterschiede und technischen Lösungen besprochen und miteinander verglichen werden. Die Zielgruppen sind Klein- bis Großunternehmen und Schulungszentren (AMS, Trainingcenter,..). Schulungen sind heute fester Bestandteil der Unternehmen geworden. Es werden die verschiedensten Mittel und Strategien verwendet. Allerdings bestehen große Unterschiede in der Wissensvermittlung bei den unterschiedlichsten Zielgruppen. Schulungen im Businessbereich werden ganz anders abgehalten, als Schulungen vor einem Publikum, welches weniger (technisches) Know How besitzt. Es gilt diese didaktischen und technischen Unterschiede herauszuarbeiten, gegenüberzustellen und eventuell zu bewerten.

Institut für (vor 2018) Institut für Computergraphik und AlgorithmenE186

Arbeitsbereich (vor 2018) Algorithms and Complexity

Diplomarbeitsposter Pagacz Anna

Anna Pagacz

Masterstudium Software Engineering & Internet Computing
Abstract:

Diese Arbeit setzt sich mit zwei kombinatorischen Optimierungsproblemen auseinander: das Problem des generalisierten minimalen knotenzweifachzusammenhängenden Netzwerks (GMVBCNP) und das Problem des generalisierten minimalen Spannbaums mit Gradbeschränkung (d-GMSTP). Beide Optimierungsprobleme sind NP-vollständig. Gegeben sind Graphen, deren Knoten in Cluster unterteilt sind. Das Ziel besteht jeweils darin, einen Teilgraphen mit minimalen Kosten zu finden, der genau einen Knoten von jedem Cluster verbindet und andere Zusatzbedingungen berücksichtigt. Beim d-GMSTP ist die Zusatzbedingung die Gradbeschränkung der Knoten. In der Praxis findet sich diese Problemstellung in der Telekommunikation wieder, wo Netzwerkknoten in mehrere Cluster unterteilt sind und auf Basis einer Baumarchitektur miteinander verbunden sind. Von jedem Cluster wird genau ein Knoten zum Rückgrat verbunden und durch die Gradbeschränkung wird die Transferqualität gewährleistet. Das GMVBCNP hingegen wird bei fehlertoleranten Backbone-Netzen angewendet. Um sicherzustellen, dass durch den Ausfall einer einzelnen Komponente andere Dienste nicht beeinflusst werden, müssen die Verbindungen redundant sein. Diese Arbeit stellt zwei Lösungsansätze für das d-GMSTP vor. Ein Ansatz basiert auf variable Nachbarschaftssuche (VNS), bei der verschiedene Arten von Nachbarschaftsstrukturen komplementär arbeiten und dadurch die Effizienz bei der Zusammenarbeit maximiert wird. Ein anderer Ansatz basiert auf einen memetischen Algorithmus (MA). Das GMVBCNP wird in dieser Arbeit ebenfalls mit einem memetischen Algorithmus (MA) gelöst. Dabei werden für die Zusammensetzung der Knoten zwei verschiedene Ansätze betrachtet. Ausserdem werden mit Hilfe von Graph-Reduzierungstechniken, die den Suchraum signifikant verkleinern, lokale Verbesserungen erzielt. Beide Problemstellungen wurden auf euklidischen Instanzen mit bis zu 442 Knoten getestet.

Diplomarbeitsposter Thöni Corinna

Corinna Thöni

Masterstudium Software Engineering & Internet Computing
Abstract:

This thesis deals with new exact algorithms for the compression of fingerprint minutiae templates. Basis is a novel approach to the compression of small unordered set of points by means of combinatorial optimization developed beforehand within an ongoing research project. Thereby these points are encoded by a spanning tree which arcs are finally represented by a reference to a dictionary and a small correction. The resulting optimization model is an extension of the well known minimum label spanning tree problem. The application background is the embedding of fingerprint minutiae data into passport images by watermarking techniques as an additional security feature. The particular goal of this thesis was to develop improved exact algorithms based on mathematical programming techniques to solve the given problem. In particular, the existing branch-and-cut algorithm required a time-consuming preprocessing step, which has now been directly integrated into the solution process of the mixed integer model. More precisely, the generation of new variables is embedded into the branch-and-bound procedure to solve the flow-based tree model. Such procedures are called branch-and-price and the recurrent subproblem of creating new variables is called the pricing problem. The determination of a new variable which is potentially improving the current objective function value requires a fast algorithm as this step is performed frequently. The given pricing problem is solved by means of a k-d tree data structure which enables to exploit geometric properties of the input data. Each time this tree is traversed according to the information given by numeric values provided by the linear programming relaxation of the optimization model. The resulting branch-and-price method clearly outperforms the existing branch-and-cut algorithm. This enables to obtain provably optimal results for the considered input instances for the first time.

Arbeitsbereich (vor 2018) Computergraphik

Diplomarbeitsposter Folie Christian

Christian Folie

Masterstudium Visual Computing
Abstract:

In this thesis a new scene graph system is introduced as a new concept, the dynamic scene graph. With this method it is possible to generate scene nodes on demand and use them within the application. It can be understood as a translation of the model-view-controller concept used in the desktop application development to computer graphics. The dynamic scene graph consists of two scene graphs, the first one is the semantic scene graph which holds nodes with a direct meaning to the user. Components placed in this scene graph are interpreted by rules and translated into the representation or rendering scene graph. This translation could also be interpreted as a just in time compiler for scene graphs. As a concrete application of the scene graph procedural generated tree models are used. The models are configured by parameters stored within semantic components. These components are then interpreted by the dynamic scene graph rules to create the rendering scene graph. Interaction methods with the scene graph in form of dynamic traversals are presented.

Diplomarbeitsposter Grosse Karl

Karl Grosse

Masterstudium Visual Computing
Abstract:

Interactive virtual environments (VEs) are gaining more and more fidelity. Their high quality stimuli undoubtedly increase the feeling of presence and immersion as “being in the world”, but maybe they also affect user’s performance on specific tasks. Vision and spatial hearing are the main contributors of our perception. Sight dominates clearly and has been in the focus of research for a long time, but maybe it is the audio-visual combination which facilitates the user in his decision making and in completing a task. Mere identification of the task is not enough. Of course one could find dozens of problems where spatial sound reproduction has a practical relevance. More interesting are those which reside on a high cognitive level. Tasks that combine visual stimuli and auditive perception with movement provide a wide field of activity like for example crossing a busy road, an every day task that contains a high information density and demands fast processing by the brain. But how does hearing have an impact on this? Does spatial audio lead to better performance? Can one adjust naturalistic, spatialized hearing virtually? This diploma thesis asseses the effect of spatial sound reproduction compared to conventional stereo sound or no sound at all. Within the scope of the practical part, a simulator was implemented to produce a virtual street crossing experiment. It was later used to perform a study with volunteer participants. The results give evidence that there is a statistically significant difference between spatialized sound rendering compared to stereo sound or no sound. In the future this can not be used solely to boost the naturalistic fidelity and authenticity of a virtual environment but also as a user supportive measure.

Diplomarbeitsposter Opitz Andreas

Andreas Opitz

Masterstudium Visual Computing
Abstract:

Mit der zunehmenden Verbreitung und Weiterentwicklung von bildgebenden Verfahren, wie zum Beispiel der Computertomographie oder der Magnetresonanztomographie in den Gebieten der Medizin und der Industrie, steigen nicht nur die Auflösung und somit die Datenmenge, sondern auch die Anforderungen an eine möglichst effiziente Auswertung der gesuchten Informationen. Da in einem Volumendatensatz verschiedenste Objekte und Materialien enthalten sein können, wird eine sogenannte Transferfunktion verwendet um Sichtbarkeit und Farbe der verschiedenen Strukturen zu kontrollieren. Eine einfache, nur auf Skalarwerten basierende Transferfunktion stößt aufgrund ihrer groben Selektivität und Anfälligkeit gegenüber fehlerhaften Messwerten schnell an ihre Grenzen. Bei ausgefeilteren und komplexeren Methoden steigen jedoch die Anforderungen an den Benutzer, erfordern zumindest Grundkenntnisse der Thematik und einiges an Übung um gute Ergebnisse erzielen zu können. Diese Arbeit gibt einen Überblick über die Materie der Volumenvisualisierung und der Transferfunktionen. Ebenso werden verschiedene Ansätze von Clustering betrachtet und ein möglichst intuitive Methode zum Entwurf von Transferfunktionen basierend auf Mean Shift Clustering und LH-Histogrammen präsentiert.

Diplomarbeitsposter Piskernik Alexander

Alexander Piskernik

Masterstudium Informatikmanagement
Abstract:

Das Thema IT-Sicherheit gewinnt in der heutigen Zeit zunehmend an Bedeutung. Viele Menschen haben aber nach wie vor keine oder kaum Ahnung von der Materie und das Problembewusstsein steigt bei weitem nicht in dem Ausmaß, wie die Anzahl der Internetnutzer bzw. der möglichen Gefahrenquellen. Das Ziel dieser Arbeit war es ein didaktisches Konzept zu erarbeiten, um das Wissen über diese Gefahren und mögliche Schutzmaßnahmen, Menschen möglichst vieler Altersgruppen näher bringen zu können. Es wurde damit begonnen eine detaillierte Analyse der häufigsten Bedrohungen im IT-Bereich für Durchschnittsbenutzer zu erstellen. Dazu wurden entsprechende Gegenmaßnahmen erörtert welche die Gefahren entweder völlig eliminieren, oder zumindest minimieren. Aufbauend auf dieser Analyse wurden dann mögliche didaktische Konzepte auf ihre Tauglichkeit untersucht, um das Wissen über diese Gefahren und die entsprechenden Gegenmaßnahmen gut vermitteln zu können. Als beste didaktische Variante wurde das spielerische Lernen ermittelt. Daraus entstand der Prototyp eines Brettspiels namens „Damn IT!“, welches dabei helfen soll das Wissen an eine möglichst große Zielgruppe zu vermitteln.

Diplomarbeitsposter Recheis Meinrad Leon

Meinrad Leon Recheis

Masterstudium Visual Computing
Abstract:

Gebäudefassaden bestehen üblicherweise aus einer regelmäßigen gitterförmigen Anordnung von ähnlichen Elementen. Diese Eigenschaft, nämlich die Translationssymmetrie von Fenstern auf Fassaden, wird von der vorgeschlagenen Segmentierungsmethode ausgenutzt um ohne aufwändige Analyse des Bildinhalts Rückschlüsse auf die Anordnung der Fenster zu ziehen und diese anschließend in ähnliche Stücke aufzuteilen, sofern sie sich horizontal oder vertikal wiederholen. Um diese relativ komplexe Aufgabenstellung der Computer Vision effizient umzusetzen wird ein Monte-Carlo-Ansatz präsentiert, welcher aus einer Menge von speziell ausgewählten Features im Bild zufällige Stichproben nimmt. Die präsentierte Segmentationsmethode, die als Vorverarbeitungsschritt für andere Algorithmen zur Erkennung von Fassadengeometrie für Stadt-Rekonstruktionsprozesse dienen soll, ist äußerst robust bei der Identifikation von sich wiederholenden Bildmustern in rektifizierten Fassadenaufnahmen, selbst wenn diese von Gegenständen verdeckt, beschattet, verschwommen oder anders beeinträchtigt sind. Außerdem sind die Algorithmen äußerst Laufzeiteffizient ausgestaltet, da weder die Qualität der Ergebnisse noch die Rechenkomplexität wesentlich von der Bildgröße beeinflusst werden.

Diplomarbeitsposter Reinalter Stefan

Stefan Reinalter

Masterstudium Visual Computing
Abstract:

Aufgrund der immer besseren Hardwarefähigkeiten und steigenden Kundenerwartung, die jede neue Spielkonsolen-Generation mit sich bringt, spielen effiziente Sichtbarkeitsalgorithmen eine immer größere Rolle in der Entwicklung einer modernen Rendering Engine. Obwohl die in die Konsolen integrierten Grafikkarten mit jeder Generation besser werden, streben Spiele-Entwickler immer danach, mehr Performance und bessere Qualität aus der Hardware herauszuholen. Deshalb ist es notwendig, leistungsfähige Sichtbarkeitsalgorithmen zu verwenden, die es erlauben, noch komplexere Szenen bei gleichbleibender Bildwiederholrate zu rendern. Diese Diplomarbeit erforscht, ob die derzeit modernsten Sichtbarkeitsalgorithmen auch auf Spielkonsolen verwendet werden können, und beschreibt dabei die dafür nötigen Abstraktionen in Bezug auf die Entwicklung einer Multi-Plattform Rendering Engine. Demzufolge konzentriert sich der erste Teil dieser Arbeit auf das Design und die Implementierung einer Rendering Engine für bedeutende "Current-Gen"-Plattformen, wie Windows, XBox360, PlayStation 3 und Wii, und behandelt die erheblichen Unterschiede in der Architektur dieser Plattformen. Darüber hinaus werden Lösungen zu Design-Problemen untersucht, sowohl in Bezug auf die unterschiedlichen Leistungsmerkmale, als auch in Bezug auf die verwendeten Praktiken der Software-Entwicklung. Abschliessend werden Grundvoraussetzungen und Bausteine für die Implementierung von Sichtbarkeitsalgorithmen entwickelt. Der zweite Teil der Arbeit konzentriert sich auf die Entwicklung und Integration von Sichtbarkeitsalgorithmen in die zuvor genannte Engine. Die dabei verwendeten Sichtbarkeitsalgorithmen werden erweitert und speziell auf die Hardware der Konsolen zugeschnitten, sodass ein größtmöglicher Performancegewinn erzielt werden kann. Den Abschluss dieser Diplomarbeit bilden die erzielten Resultate, sowie Vorschläge zur Erweiterung und künftigen Weiterentwicklung derzeitiger, hochmoderner Sichtbarkeitsalgorithmen.

Diplomarbeitsposter Spörk Jakob

Jakob Spörk

Masterstudium Software Engineering & Internet Computing
Abstract:

This thesis presents a comparison of high-speed rendering algorithms for the application in 2D/3D-image registration in radiation oncology. Image guided radiation therapy (IGRT) is a technique for improving the treatment of cancer with ionizing radiation by adapting the treatment plan to the current situation using 2D/3D-image registration. To accelerate this procedure, also rendering of Digitally Rendered Radiographs (DRR), as a part of it, has to be performed faster. In the context of this thesis, a GPU based wobbled splat rendering algorithm based on the work of Spoerk et al. (2007) is further improved and compared to a newly developed GPU based ray casting implementation. For comparison, rendering quality and performance as well as the influence on the quality and performance of the overall registration process are measured and analyzed in detail. These results show that both methods are competitive although ray casting has in its current implementation several advantages over wobbled splat rendering.

Diplomarbeitsposter Weiner Andreas

Andreas Weiner

Masterstudium Informatikmanagement
Abstract:

Das Thema IT-Sicherheit gewinnt in der heutigen Zeit zunehmend an Bedeutung. Viele Menschen haben aber nach wie vor keine oder kaum Ahnung von der Materie und das Problembewusstsein steigt bei weitem nicht in dem Ausmaß, wie die Anzahl der Internetnutzer bzw. der möglichen Gefahrenquellen. Das Ziel dieser Arbeit war es ein didaktisches Konzept zu erarbeiten, um das Wissen über diese Gefahren und mögliche Schutzmaßnahmen, Menschen möglichst vieler Altersgruppen näher bringen zu können. Es wurde damit begonnen eine detaillierte Analyse der häufigsten Bedrohungen im IT-Bereich für Durchschnittsbenutzer zu erstellen. Dazu wurden entsprechende Gegenmaßnahmen erörtert welche die Gefahren entweder völlig eliminieren, oder zumindest minimieren. Aufbauend auf dieser Analyse wurden dann mögliche didaktische Konzepte auf ihre Tauglichkeit untersucht, um das Wissen über diese Gefahren und die entsprechenden Gegenmaßnahmen gut vermitteln zu können. Als beste didaktische Variante wurde das spielerische Lernen ermittelt. Daraus entstand der Prototyp eines Brettspiels namens „Damn IT!“, welches dabei helfen soll das Wissen an eine möglichst große Zielgruppe zu vermitteln.

Institut für (vor 2018) Gestaltungs- und WirkungsforschungE187

Arbeitsbereich (vor 2018) Multidisciplinary Design

Diplomarbeitsposter Schaubach Birgit

Birgit Schaubach

Masterstudium Medieninformatik
Abstract:

Changes in common communication structures affect political communication as well. Established as a mass medium the Internet offers politicians possibilities to revise traditional concepts of public relations through new forms of social web applications. For political players diverse means of on-line communication facilitate to get in touch with the public. This research gives an outline of forms and styles of web based political communication in Austria and Germany. The paper offers a survey of the crucial criteria for successful productions on the Internet as well as possible effects on classical political communication. Furthermore the research examines the differences of public relations on the Internet between different generations of politicians. The study is based on a theoretical part consisting of literature research and an empirical research. The empirical part consists of interviews with politicians as well as analyses of Internet presences of political actors in Austria and Germany. Results show major differences between the investigated countries. Politics of Austria and Germany try to adapt new structures of communications. There is no internalized handling of the Internet among politicians and parties and an intuitional inclusion of new forms into structures of classical communications policies turned out to be difficult.

Diplomarbeitsposter Spreicer Wolfgang

Wolfgang Spreicer

Masterstudium Medieninformatik
Abstract:

Diese Diplomarbeit befasst sich mit dem benutzerInnenzentrierten Designprozess von intuitiven Technologien mit Tangible User Interfaces (TUIs), die die Alltagskommunikation von älteren Menschen unterstützen bzw. diese erleichtern. In den letzten Jahren ging die technische Entwicklung von Computersystemen bzw. Mobilfunkgeräten zwar rasch voran, das Interface jedoch, mit dem die Geräte bedient werden, blieb meist unverändert. Vor allem ältere Menschen stellt die klassische Bedienung von Computern mittels Maus und Tastatur oder der Umgang mit kleinen Handytasten immer wieder vor große Herausforderungen. In dieser Arbeit soll nun untersucht werden, wie die Verwendung von TUIs dazu beitragen kann, die Vorteile der neuen Kommunikationsmittel auch für ältere NutzerInnen zugänglich zu machen. Neben einer theoretischen Auseinandersetzung mit den zugrunde liegenden Konzepten von TUIs beschäftigt sich diese Arbeit mit den Voraussetzungen, die ein intuitives Interface bzw. das Design eines intuitiven Interfaces für ältere Menschen erfüllen muss. Der Schwerpunkt dieser Arbeit liegt auf der praktischen Analyse von Userinteraktion mit einem TUI Prototypen mittels Videobeobachtung. Abschließend werden die Ergebnisse der Untersuchung ausgewertet und Empfehlungen für die Entwicklung von intuitiven Technologien mit Tangible User Interfaces für ältere Menschen gegeben.

Arbeitsbereich (vor 2018) Human Computer Interaction

Diplomarbeitsposter Huber Christoph

Christoph Huber

Masterstudium Medieninformatik
Abstract:

Der drahtlose Internetzugang im täglichen Leben ist bereits für viele selbstverständlich. Die Technologie mobiler Endgeräte entwickelt sich rasend schnell. Der Fokus dieser Arbeit liegt auf der User Experience mobiler Webapplikationen und auf deren Zugänglichkeit für Menschen mit Sehbehinderungen. Die User Experience im mobilen Web wird von vielen verschiedene Faktoren beeinflusst. Hardware, Software, Interaktionskonzepte sowie der mobile Kontext in dem eine Interaktion stattfindet, sind verantwortlich für die User Experience. Der XHTML MP Standard bietet ein solides Fundament für die Entwicklung einer mobilen Webapplikation. Software Architekturen wie SOA sind auch im mobilen Bereich unumgänglich, um komplexe Prozesse abarbeiten zu können. Die barrierefreie Konzeption mobiler Webapplikationen lässt sich nicht alleinig mit dem WAI Modell bewerkstelligen. Eine spezifische Untersuchung der Bedürfnisse der Zielgruppe und eine drauf abgestimmte Verwendung von Standards und Guidelines, führen zu einem sinnvollem Ergebnis. Eine Alternative zum WAI Ansatz ist das Tangram Modell. Basierend auf User-Interviews, den Recherchen und Evaluierungen von bestehenden Webressourcen, werden in dieser Arbeit Designguidelines zur Konzeption einer mobilen, barrierefreien Webapplikation erarbeitet. Mithilfe dieser Guidelines entsteht weiters ein Konzept für eine mobile Fahrplanauskunft, optimiert für Menschen mit Sehbehinderung.

Diplomarbeitsposter Kovar Stefan

Stefan Kovar

Masterstudium Informatikmanagement
Abstract:

Die akustische Darstellung von Daten ermöglicht nicht nur Menschen mit eingeschränktem Sehvermögen barrierefreien Zugang zu Informationen. Sie ist auch eine bisher, nicht nur im wissenschaftlichen Kontext, viel zu wenig beachtete Chance, dass volle Potenzial menschlicher Kognition auszuschöpfen. Eine zentrale Fragestellung dieser Arbeit ist daher, welche Parameter eines Klanges eigenen sich besser oder schlechter um bestimmte Daten darzustellen. Neben einer theoretischen Einführung, die die interdisziplinäre Aspekte des Themas zu adressieren versucht, wird großer Wert auf die praktische Arbeit der Implementierung, einem Vergleich mit verwandten Arbeiten, sowie auf die empirische Untersuchung durch Tests an Benutzern gelegt.

Diplomarbeitsposter Schneglberger Gabriele

Gabriele Schneglberger

Masterstudium Medieninformatik
Abstract:

Privatsphäre ist ein wandelbarer, historisch und kulturell relativer Begriff. Es handelt sich um einen weit gefassten Begriff, es gibt keine klare (rechtliche) Definition. Die bisherigen Konzepte von Privatsphäre werden besprochen um zu zeigen, dass sie einander nicht ausschließen können und daher Veränderungen an der Konzeption von Privatsphäre notwendig sind. Es wird der Wert von Privatsphäre in unterschiedlichen Aspekten beleuchtet und der Frage nachgegangen, wie unterschiedlich der Begriff der Privatsphäre abgegrenzt wird und welche Gefahren diese Abgrenzung mit sich bringt. Die Verletzung der Privatsphäre erfolgt häufig unbemerkt. Plötzlich wird ein Kredit verweigert, es kommen ungebetene Anrufe von Telemarketingunternehmen, es erfolgt eine nicht angekündigte Steuerprüfung, eine zweite Sicherheitsprüfung am Flughafen usw. Die Ursache dieser Vorkommnisse ist unklar und wird verborgen gehalten, daher werden sie nicht als Eindringen in die Privatsphäre gewertet. Zum anderen kommt immer wieder der Gedanke „wenn man nichts zu verbergen hat, hat man nichts zu fürchten“. Die Auseinandersetzung mit Wissensentwicklung, Social Media, Datenschutz, Identitätsnachweis und Überwachung hat zum Ziel, die umfassende Problematik von Privatsphäre in ihren unterschiedlichsten Aspekten begreifbar zu machen. Die Prozesse der Informationsbeschaffung, der Verarbeitung von Information und der mögliche Datenmissbrauch in Zusammenhang mit Privatsphäre werden grundlegend besprochen und anhand von Beispielen im Rahmen der Themenschwerpunkte Wissensentwicklung, Social Media, Datenschutz, Identitätsnachweis und Überwachung aufgegriffen um so die übergreifende Problematik von Privatsphäre zu verdeutlichen. Angesichts der kritischen Situation der Privatsphäre jedes Einzelnen werden Möglichkeiten aufgezeigt, wie sich der völligen Überwachung, der Identifizierung und Nachverfolgung ansatzweise entzogen werden kann und wie das Bewusstsein gegenüber Privatsphäre geschärft werden kann.

Institut für (vor 2018) Softwaretechnik und Interaktive SystemeE188

Arbeitsbereich (vor 2018) Information & Software Engineering

Diplomarbeitsposter Ayaz Gürsel

Gürsel Ayaz

Masterstudium Software Engineering & Internet Computing
Abstract:

Die Arbeit beschäftigt sich mit der Integration von mobilen Endgeräten in eine bestehende Software Architektur. Gleichzeitig wurde versucht ein Problem aus der Gruppenorganisation zu lösen. Die Terminvereinbarungsplattform Quappo (Quick Appointment) ermöglicht es Gruppen, Termine mit geringstem organisatorischem Aufwand zu vereinbaren. Die Quappo-Plattform wurde im Rahmen der Arbeit durch die Verwendung von Smartphones erweitert um erstens die Integrationsmöglichkeiten von mobilen Endgeräten in bestehende Software Architekturen zu analysieren und zweitens Smartphones als erweiterte Problemlösung für die Terminvereinbarung zu verwenden. Dabei wurden auf die Technologien für die Integration von mobilen Endgeräten, die Sicherheitsaspekte und die Skalierbarkeit der Architektur eingegangen. Die Sicherheit ist nicht nur im Fall von Quappo relevant, sondern spielt bei mobilen Endgeräten aufgrund der Luftschnittstelle generell eine wichtige Rolle. Deshalb wurden gängige mobile Kommunikationssysteme hinsichtlich Sicherheit untersucht. Für die Integration von mobilen Endgeräten wurde eine REST Schnittstelle implementiert, die von beliebigen Clients implementiert werden kann. Das World Wide Web kann als Vorgänger der RESTful Architektur betrachtet werden und demonstriert wie gut REST Architekturen skalieren können. Um bei Quappo die Skalierbarkeit zusätzlich zu verbessern, wurde Nginx als Reverse Proxy in Kombination mit Haproxy eingesetzt. Diese nehmen eingehende Anfragen entgegen und verteilen diese Anfragen lastabhängig an verarbeitende Serverinstanzen. Die Vereinbarung von Gruppenterminen über das Smartphone mit Hilfe einer nativen Anwendung war zum Zeitpunkt der Erstellung der Arbeit neuartig.

Diplomarbeitsposter Banovic Slaven

Slaven Banovic

Intelligente Systeme
Abstract:

Ontologies play an important role in the Semantic Web in providing an annotated knowledge base and promoting interoperability of applications. The alignment of di erent ontologies remains to be a major problem in this research field, which has concentrated on the development of automated mapping tools. Whereas the mapping algorithms show promising results it is evident, that a human supervisor is still necessary to attend the process. In this thesis we implement a novel approach to ontology alignment by adopting techniques from information visualisation (InfoVis) to support the cognitive process and alleviate the human work load. We discuss the task description of visual ontology alignment and identify crucial requirements for the successful implementation of the methodology. A vital subtask of the methodology of visual ontology alignment is the verification of ontology alignment results. We present a prototype tool that implements a multi-view visualisation to enable ontology verification and discuss the development of future versions. The ultimate goal of AlViz is to fully implement the task description of visual ontology alignment. To evaluate our research a comprehensive evaluation strategy is outlined.

Diplomarbeitsposter Dürr Gregor

Gregor Dürr

Masterstudium Business Informatics
Abstract:

Bei komplexen automatisierten Produktionssystemen kann meist nicht vom Verhalten der Teilsysteme auf das Verhalten des Gesamtsystems geschlossen werden. Die zur Ermittlung des Gesamtverhaltens eines Systems notwendigen Erkenntnisse können aus Simulationen gewonnen werden. Neben der Güte der Simulationsergebnisse ist die Effizienz eines Systems ein ausschlaggebendes Qualitätskriterium. Das Ziel der Arbeit ist es, eine effiziente Methode zum Testen von Testfall-Generatoren aufzuzeigen. Als Testmetrik wird das Verhältnis der Testabdeckung zum hierfür notwendigen Aufwand festgelegt. Unter Testabdeckung bei einer gegebenen Parametermenge wird in der Arbeit das Verhältnis zwischen den erzeugten Testfällen und den möglichen Testfällen verstanden. Alle verfügbaren Parameter eines Testfalls sind in einer GUI durch den User auswählbar. Zur Erzeugung der Testfälle werden zwei unterschiedliche Ansätze betrachtet. Ein statisch spezifischer Ansatz welcher den Nachteil aufweist, dass zusätzliche Parameter nur mit erhöhtem Aufwand hinzugefügt werden können. Der zweite Ansatz verwendet ein dynamisch generisches Skript welches auf einer Ontologie als Datenmodell basiert und die Testfälle abhängig vom gewählten Parameter-Setting generiert. Anschließend werden die erzeugten Testfälle in eine XML-Datei exportiert, welche als Input-Daten für die Simulation herangezogen werden. Durch die Verwendung einer Ontologie können Parameter mittels Werkzeugunterstützung ohne Programmierkenntnisse erweitert werden. Ein weiterer Vorteil des dynamisch generischen Ansatzes ist, dass Änderungen an der Ontologie keine Änderungen am dynamisch generischen Skript nach sich ziehen. Neben der zur Laufzeit dynamisch generierten GUI, der Ontologie und dem dynamisch generischen Skript, wurden auch Produktions- und Fehlertoleranzstrategien implementiert. Der Evaluierungsteil der Arbeit zeigt auf, dass der neue Ansatz mit einer High-Level Testbeschreibung auskommt und eine festlegbare Testabdeckung erreicht.

Diplomarbeitsposter Ebner Thomas

Thomas Ebner

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Design eines integrierten, entscheidungsunterstützenden Systems für eine transparente und effektive IT-Projektportfolioauswahl mit besonderem Augenmerk auf die Bedürfnisse öffentlicher Institutionen unter Verwendung des Fallbeispiels Abteilung Informationstechnik der Südtiroler Landesverwaltung. Bei steigender Größe, Komplexität, und zunehmendem Öffentlichkeitscharakter vieler Unternehmen und Organisationen gewinnt die Notwendigkeit klarer, konsistenter Entscheidungsprozesse und -methoden auch bei der IT-Projektauswahl stetig an Bedeutung. Für die vorliegende Studie wurden nun erstmals die in der wissenschaftlichen Literatur für Teilbereiche des Problems bereits bekannten Lösungsansätze zusammengetragen, untersucht, im Lichte der Aufgabenstellung bewertet und zu einem gesamtheitlichen Lösungsansatz integriert. Es wurde ein entscheidungsunterstützendes System erarbeitet, welches es ermöglicht angedachte und geplante Projekte und deren Auswirkungen nach einheitlichen und möglichst weit gefächerten Kriterien zu bewerten, zu vergleichen und zu reihen um dem Vorstand / der Politik so eine transparente und verständliche Handreichung für Entscheidungen zu geben. Im Rahmen dieser Studie konnten insbesondere zwei Dinge gezeigt werden: 1. Es ist möglich den Projektportfolioauswahlprozess so zu strukturieren, dass die Teilprobleme überschaubar und weitgehend mit gängigen Methoden lösbar werden. Diese Methoden lassen sich so orchestrieren, dass daraus ein durchgängiges Gesamtsystem entstehen kann, das in der Lage ist alle relevanten Aspekte angemessen zu berücksichtigen. 2. Jeder Projektauswahl geht zwangsläufig eine Projektbewertung voraus, wenn man den Auswahlprozess objektivieren und sich auf Auswahlkriterien stützen will. Damit stellt sich die Frage nach dem Referenzrahmen. Dieser konnte klar in den Zielen der Organisation oder des Unternehmens identifiziert werden. In diesem Zusammenhang wurde ein Vorschlag für eine neue Methode der Projektevaluation entwickelt.

Diplomarbeitsposter Frank Jakob

Jakob Frank

Masterstudium Software Engineering & Internet Computing
Abstract:

The immersive growth of digitally available audio files calls for novel forms of interaction and consumption. There are many different approaches how to navigate and organize audio collections, but most of them do not offer much more than some kind of scrolling through lists, sometimes fancier, often not. A novel form of playlist creation is possible through Music Maps, which provide a interactive and intuitive interface to large music collections by creating a musical space where playlists are created by selecting regions on a map or by drawing trajectories on a map. This thesis discusses this theme from four different points of view: First, the Path-Metaphor will be investigated to identify strengths and weaknesses of the underlying techniques used to create the above mentioned Music Maps. To achieve this, user generated playlists will be compared to playlists created with the metaphor and outstanding differences and common properties are calculated. This analysis is then used to identify the weaknesses of the Path-Metaphor. The information gained in this analysis process will further help to understand, how, and based on which principles human users create playlists. This will again help to improve the quality of automated created playlist. Based on the Path-Metaphor, different approaches to enable collaborative Music Consumption will be presented. Suggestions and wishes from different users must be considered when creating a collaborative playlist. There are many ways how to do this – some of them will be presented with their pros and cons. To bring these, so far theoretical, ideas on a practical basis a prototype application for portable devices is then presented. This application will allow to use Music Maps on mobile devices by individual users and, to add the cooperative and multi-user aspect, provide different approaches of Collaborative Music Consumption.

Diplomarbeitsposter Fruhwirth Michaela

Michaela Fruhwirth

Masterstudium Visual Computing
Abstract:

Music itself and its richness on features inspire scientists to develop novel software systems that deal with music in a wide variety. This master thesis focuses on modern music visualization systems which go beyond traditional directory structures to represent music and provide users with a novel interface in music browsing in a 2- or 3-dimensional fashion. The practical part presents a virtual music world called MeXX which offers both an aural and a visual presentation of music pieces inside a virtual environment – the 3D world. It has been realized as a Java3D implementation with the options to consume music in a virtual environment and to train a user’s sense of music in an entertaining way by a game. The foundation for the 3D world is formed by four particular features; the genre, the mood, the tempo and the year of publication. A database stores those features including the music pieces as well as information about artists and album. The music pieces are visualized as they are displayed as objects in the 3D world. This world is formed by two selectable features being mapped to the two base axes of the 3D world. As a result the music pieces are unambiguously positioned in the 3D world by these two features. The implementation of a 3D sound system enables the playback of the music pieces as spatial sound. Depending on the information a music repository contains, a variety of perceptions of and insights into music can be entertainingly obtained. This can be for instance the development of genres over the years as well as monitoring the distribution of several artworks of a single artist inside the 3D world. The game option presents a subset of music pieces that need to be assigned at correct positions within the 3D world. Since the features of those music pieces need to be identified by listening to conclude their position, the game challenges the appreciation for music again in an entertaining way.

Diplomarbeitsposter Gschwandtner Theresia

Theresia Gschwandtner

Masterstudium Informatikmanagement
Abstract:

One indispensable precondition for designing a functional software product is to gather knowledge about (1) who is going to use the software, (2) which tasks does he/she want to perform with its help, and consequently, (3) which information is necessary to best support these tasks. Since the modeling and execution of a computerized clinical practice guideline is composed of numerous tasks and because a range of different stakeholders are involved -- knowledge engineers, medical experts, nurses, and patients --, the design of a tool to support the whole life cycle of a computerized clinical guideline, i.e., from modeling the medical knowledge into a computer-interpretable representation to its actual execution in clinical care, is still a challenging issue. To this end, a comprehensive investigation of the user groups and the issues they encounter is a prerequisite to decide about the information and features that should be provided by the software. In the context of this thesis we have conducted a comprehensive literature study about the different tasks involved in modeling a clinical practice guideline into a formal representation as well as about the information needs of caregivers, i.e., physicians and nurses, and last but not least the information needs of patients. We have assessed and categorized the above mentioned information required for each task and user group in order to create a reliable starting point for the development of a functional software tool for the modeling process and execution of a computerized clinical practice guideline.

Diplomarbeitsposter Huber Stefan

Stefan Huber

Masterstudium Business Informatics
Abstract:

Software metrics have become an important tool in modern software development, particularly for managing projects. They measure characteristics, properties or attributes of an application or project with categories or numerical ratings. There are many metrics available for measuring a variety of software characteristics, such as software complexity, quality, usability and testability. However, there are just a few metrics that cover communication aspects during the development process. This thesis aims at software engineers and project managers who are interested in monitoring the communication effort during the life-span of their software projects. Since vital communication between members of a development team is crucial to the success of the project, the primary goal of this thesis is to introduce software metrics which indicate how healthy the level of communication within the team is. These metrics expose potential communication problems during the development lifecycle and help to monitor communication behaviour within the project team. In the course of the diploma thesis, a tool was implemented which automatically generates and visualizes communication metrics. The relevant communication data for generating and evaluating these metrics are collected from several Apache projects. The information can be extracted from mailing lists, SVN repositories, and Bugzilla databases and stored in an ontology. All implemented metrics are verified in terms of their informative value and relevancy to practice. The evaluation showed that team members that are involved in the project management have a central position in the communication network of a project. In addition, they have a greater influence on the flow of information within the team than a member that participates only peripherally in the inner team communication. Furthermore, a significant correlation between the communication effort and the amount of bug tracking activity has been discovered.

Diplomarbeitsposter Ilic Boris

Boris Ilic

Masterstudium Business Informatics
Abstract:

Project and quality managers in software engineering projects have to face high cost, time constraints and quality pressure owing to late changes in requirements regarding the underlying system architecture. Thus, it seems reasonable to focus on software architecture early in the development process. The implementation and execution of scenario based software architecture evaluations are an effort-consuming activity and are therefore expensive. Methods are needed to optimize these tasks. Scenarios are well-established approaches to address possible changes in the architecture. Scenarios spot critical and probable changes in the future, either in later development stages or during maintenance. How to elicit critical scenarios is an important research questions. It seems a reasonable idea to help lower qualified reviewers to increase their brainstorming efficiency and effectiveness by providing appropriate methodological guidance. One goal of this work is to investigate the impact of guiding reviewers through the scenario brainstorming process compared to a non- guided process (ad-hoc approach). Additionally we propose a combination of brainstorming guidance and an ad-hoc approach, which is the second major topic. The analysis shows a trend for brainstorming guidance to lead to better results, but not on a significant level, and there are negative effects, too. Nevertheless, in the light of the results, brainstorming guidance cannot be rejected. The combination of both methods leads to the best results by far.

Diplomarbeitsposter Kainz Christian

Christian Kainz

Masterstudium Business Informatics
Abstract:

This master thesis explores various comparison methods for multivariate time series in the application area of stock markets. The data is usually compared by juxtaposition or by superimposition. But even a large enough difference between the price ranges can make a simple comparison of the data difficult. To compare heterogeneous data by superimposition multiple y-axes are often used. But in most cases the arrangement of the axes makes comparisons between different variables completely arbitrary and comparisons are often misleading. The visualization pioneer Jacques Bertin has studied this problem and suggested to index the values. Indexed values show the percent change based on the indexing point. The first part of the research is concerned with the identification of relevant comparison methods for multivariate time series. The research is mainly based on the evaluation of the indexing method. Another important part is the investigation of the used axis scale. The major part of this work is a comparative study about three visual comparison methods. The three tested comparison methods are juxtaposition, superimposition and indexing. 24 test persons participated in the study. Each participant had to complete 42 tasks. The task completion time and the task correctness for every task were measured. The usability test results support the assumption that the indexing method enables the user to perform comparison tasks with much less estimation errors. The task completion time is not significantly different. The free selection of the indexing point makes comparisons for a certain time period more effective and delivers more precise results. A post-test survey showed that the majority of the participants favor the indexing method. The test results for the usage of different scales indicate that tasks were faster completed when using logarithmic scales. The task correctness rate was not significantly different between linear and logarithmic scales.

Diplomarbeitsposter Koren Thomas

Thomas Koren

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Natural and cultural cycles, like day and night, weekday and weekend, years and seasons, define our life and become perceivable in every analysis of human behavior. This work documents reimplementation and extension of Groove (granular overview overlay), a visualization technique to gain insights on several levels of detail in complex, time-oriented data at a single glance. A powerful framework was implemented, dealing with common data-related tasks and providing an extensible visualization and interaction pipeline. Based on that framework, a visualization adapting the calendar-analogy was implemented to show the frameworks benefits and resulting easements for future studies. In the conclusion we sketch possible future extensions and the usability of the Groove-Framework.

Diplomarbeitsposter Krupic Sanel

Sanel Krupic

Masterstudium Informatikmanagement
Abstract:

Das Thema dieser Diplomarbeit befasst sich mit der Problematik der SchülerInnen bezüglich der Einschränkung von persönlichen Lernaktivitäten. Wie kann eine unabhängige Programmierumgebung für den Schulunterricht realisiert werden, die nicht nur auf bestimmten Schulcomputern, sondern zu jeder Zeit, an beliebigen Orten und an den meisten PCs und Notebooks betrieben werden kann? Es wurde eine Literaturrecherche über die Bedeutung von Computern im Schulunterricht und die unabhängigen Lernaktivitäten bezüglich Discovery Learning durchgeführt. Im Bezug auf diese Recherchen wurde ein UPU Kernel gebaut und die Auswahl und Installation geeigneter und benötigter Softwarepakete für den Programmierunterricht durchgeführt. So entstand eine Unabhängige Programmierumgebung für den Schulunterricht (UPU) mit welcher die Minimierung des Installations-, Konfigurations- und Wartungsaufwandes der Lernsoftware erreicht wurde.

Diplomarbeitsposter Lechner Sebastian

Sebastian Lechner

Masterstudium Business Informatics
Abstract:

„Compliance for information security for the highest institutions of the Austrian federal adminstration“ is the topic of this present master thesis. The intention of writing this thesis was to show the reader which national laws and selected standards have relavant regulations concerning information security and what the correct measures are in order to comply to these regulations. A collection of all laws regarding the information security issue is the outcome of the thesis. To avoid a direct and subjective mapping from measures to laws and parts of standards a neutral layer was introduced: „Technical security requirements“. They can be derived from laws in an objective way and they will be connected to the security measures that help to achieve these requirement. The results of my work are tables that show the coherences between laws and, requirements and measures and they are the base for interpretation and conclusion.

Diplomarbeitsposter Ma Rui

Rui Ma

Masterstudium Business Informatics
Abstract:

This master thesis explores key requirements for the design of interactive visualization methods for comparing multivariate stock market data. Superimposed line charts are commonly used for comparison of stocks. A problem is appearing, when the differences between the price ranges are large. These differences result in distortion and a display of flattened curves, which make comparisons very difficult. Another problem is that stocks and stock indices do not have the same unit. In this case juxtaposed line charts are often used to compare the data. However the data does not share the same y-axis. Other than that, superimposed charts with multiple y-axes might be used. Relationships are then depending on the ranges of the involved y-axes, which makes the visual appearance often completely arbitrary. The third problem is that stock market visualizations often use linear scales. Unfortunately this scale can lead to false conclusion of comparisons with percent estimations. A user & task analysis with six domain experts was conducted to find common user tasks and requirements for the design of a stock market visualization prototype. The main subjects are user tasks, visualizations & interactions and related economic data. After the development of the prototype, a user study with five domain experts was conducted. The purpose is to gain feedback about the usability and the applicability of the prototype from expert users. All participants of the user study have agreed that a comparison of multiple stocks by superimposition is more effective than by juxtaposition. The domain experts also think that indexed line charts are an excellent method to compare percent changes. The indexing method can display various stock market data with different units using only one chart. This makes relative comparison tasks of stock market data very effective. The ability to select the indexing point freely is considered by all participants as an important and useful function.

Diplomarbeitsposter Parapatics Peter

Peter Parapatics

Masterstudium Software Engineering & Internet Computing
Abstract:

Natural language processing algorithms and information extraction methods have proven to be valuable tools supporting humans in structuring, aggregating and managing large amounts of information available as text in several domains. Patent claims, although subject to a number of rigid constraints and therefore pressed into foreseeable structures, are written in a very domain-specific and almost artificial language, common information extraction and retrieval methods tend to show poor performance on. This work presents a rule-based approach for decomposing patent claims into smaller parts for providing a basis for further analysis. As claims are drafted according to very precise syntactic and semantic rules they contain a high number of reoccurring grammatical patterns. A set of rules based on linguistic analysis is used to identify and extract these patterns. The extracted claim parts are organized in a tree structure in order to retain the information on how they are related to each other. An algorithm is proposed for automatically reorganizing and then visualizing this tree structure for improving readability of claims. The evaluation of the method shows that rule-based patent claim decomposition is feasible and provides promising results in terms of reduction of length and complexity of patent claims. It shows that the decomposition method can be used to ease the application and raise the performance of existing information extraction tools.

Diplomarbeitsposter Pehaim Markus Karl

Markus Karl Pehaim

Masterstudium Software Engineering & Internet Computing
Abstract:

Der Einzug der Digitalisierung im Gesundheitswesen erfolgt mit großen Schritten da diese die Administration und Verwaltung enorm vereinfacht. Weiters hilft die Digitalisierung auf diese Weise in weiterer Folge Kosten zu sparen. Die Digitalisierung bringt jedoch nicht nur Vorteile mit sich, sondern rückt die Thematik der Privatsphäre eines Patienten in ein neues Licht. Da mittels Computernetzwerken auf digitale Patientenakten zugegriffen wird, erhöht dies die Gefahr eines Missbrauches beziehungsweise eines unautorisierten Zugriffs drastisch.Diese Diplomarbeit beschäftigt sich mit dem auf Health Level Seven (HL7) basierenden Arztbrief. Der Arztbrief dient zum Austausch von Patienteninformationen zwischen verschiedenen Gesundheitsdienstanbietern beziehungsweise von Forschungseinrichtungen. Es werden die Daten eines Arztbriefes analysiert und entsprechend ihrer Vertraulichkeit eingestuft. Auf Basis dieser Einstufung wird in weiterer Folge das Konzept von PIPE (Pseudonymization of Information for Privacy in e-Health) dahingehend erweitert, dass eine Anwendung dieses Services auf HL7-Dokumente ermöglicht wird. Aus diesem Grund werden neue Abläufe definiert und die Datenstruktur erweitert, um diesen neuen Anforderungen gerecht zu werden. Mit Hilfe dieser Diplomarbeit entsteht eine Richtlinie für zukünftige Entwicklungen im Bereich des Gesundheitswesens, um eine sichere Speicherung beziehungsweise einen sicheren Austausch von Dokumenten auf Basis von HL7 zu gewährleisten. Weiters wird ein unautorisierter Zugriff auf sensible Daten verhindert und so die Privatsphäre von Patienten gewahrt.

Diplomarbeitsposter Schmidt Christian

Christian Schmidt

Masterstudium Business Informatics
Abstract:

Offene Proxies stellen für das Internet eine große Gefahr dar. Praktisch jeder Internet User kann sich die Identität eines offenen Proxies aneignen, um so anonym zu surfen oder im schlechtesten Fall gegen andere Internet Nutzer auftreten. In dieser Arbeit wird zuerst versucht, die Grundfunktionalitäten eines Proxies zu erläutern und wie Proxies konfiguriert werden, sodass sie ohne Authentifizierung genutzt werden können. Neben einer Aufstellung von Erklärungsversuchen, warum es dieses Phänomen von offenen Proxies überhaupt gibt, wird anhand diverser Konfigurationen gezeigt, wie sie arbeiten und wie man sie generell auf Verfügbarkeit, Performance und Klassifikationabfragen kann. Nach diesen eher theoretischen Erläuterungen konzentriert sich die Arbeit auf drei Forschungsfragen. Die erste Frage geht auf die im Internet zu findenden Proxylisten ein. Wie lassen sich diese Proxylisten stören bzw. täuschen, um so die Qualität dieser Listen ernsthaft in Frage zu stellen? Wir starten den Versuch nicht-funktionierende Proxies in eine Proxyliste einzuschleusen, um sie die Integrität der Liste zu verletzen. Die zweite Forschungsfrage behandelt die Analyse eines mitgeloggten Internetverkehrs, der über einen offenen Proxy geführt wird. Welche Beweggründe haben Internet Nutzer, dass sie mit offene Proxies im Internet surfen? Durch ein Experiment wird versucht herauszufinden, welche Aktivitäten durchgeführt werden, ob Web-Attacken gestartet werden, und welche vertrauenswürdigen, personenbezogenen Daten über einen offenen Proxy übertragen werden. Die dritte Forschungsfrage untersucht, wie gut man mit offene Proxies Malware verbreiten kann. Wenn ein Nutzer eines offenen Proxies eine ausführbare Datei anfordert, dann obliegt es dem Proxybetreiber, welche Datei wirklich weiterleitet wird. In diesen Punkt wird evaluiert, welches Vertrauen diese Anwender einer eigentlich nicht vertrauenswürdigen Quelle schenken.

Diplomarbeitsposter Schneglberger Gabriele

Gabriele Schneglberger

Masterstudium Informatikmanagement
Abstract:

Digitale Bildsynthese bezeichnet digitalisierte Verfahren der Bilderzeugung. In dieser Arbeit wird der Frage nachgegangen, welche Rolle die Digitalisierung der Bildproduktion für den wissenschaftlichen Erkenntnis- und Kommunikationsprozess hat, und welche Effekte sie dahingehend verursacht. Der erste Teil der Arbeit behandelt die systematische Nutzung von Bildern in der Wissenschaft und stellt mit der Definition des Bildbegriffs in der Wissenschaft eine Eingrenzung der Arbeit vor. „eigentlich gibt es nichts zu sehen“ meint Bilder als „external memory“, das heißt als visuelle Repräsentationen von (konkreten oder abstrakten) Ideen durch bildliche Artefakte im Dienst kognitiver Prozesse („Forschung“). Bilder („Imaginationen“) können in diesem Sinn als – bewusst gewählte – diskursive Instrumente gesehen werden (Visual Invention). Der zweite Teil der Arbeit beschreibt unterschiedliche Einsatzmöglichkeiten der digitalen Bildsynthese. Einerseits müssen wissenschaftliche Bilder den Kriterien (innere Konsistenz, experimentelle Nachprüfbarkeit) der Zunft entsprechen, um als wissenschaftliche Aussagen gelten zu können und die Tätigkeit der ForscherInnen als „wissenschaftlich“ auszuweisen. Daher wird in der Arbeit auf die Bildpraxis in der Astronomie näher eingegangen, um zu zeigen, dass insbesondere in Bildwissenschaften der Tätigkeitsnachweis und Forschungserfolg gerade im bildhaften Beleg liegt. Andererseits soll durch Veranschaulichung (kognitiver Strukturen und Argumente) Verständnis (oder: Einsicht, Erkenntnis) erzeugt werden, zur Popularisierung und, in bilddidaktischer Perspektive, zum Wissenstransfer. Digitalisierte Verfahren der Bilderzeugung dienen einer Operationalisierung diskursiver Bildlichkeit, prägen dadurch aber auch die Strategien visuellen Handelns und Rezeption. Bildgenerative und ästhetische Kompetenzen beeinflussen den Gestaltungsprozess „visueller Erfindung“ im Dienst bildgeleiteter Erkenntnisproduktion und wissenschaftlicher Legitimationsarbeit.

Diplomarbeitsposter Schrittwieser Sebastian

Sebastian Schrittwieser

Masterstudium Business Informatics
Abstract:

Die zunehmende Digitalisierung von Unternehmensabläufen führt zu einem rasanten Anstieg digital gespeicherter Daten. Der Schutz dieser mitunter sensiblen Informationen vor sowohl beabsichtigter als auch unbeabsichtigter Verbreitung durch Mitarbeiter und Angriffen von außen kann durch bisherige Verfahren wie Datenverschlüsselung nicht zufriedenstellend gewährleistet werden. Enterprise Rights Management (ERM) ist die Adaptierung von DRM-Technologien (digitale Rechteverwaltung) für den Einsatz in Unternehmen. Basierend auf einer Anforderungsanalyse und einem Vergleich formaler Rechtebeschreibungssprachen (wie XrML, ODRL und PDRL) gibt diese Arbeit einen Einblick in ERM-Technologien und stellt diese traditionellen DRM-Systemen, die primär zum Schutz digitaler Medien der Unterhaltungsindustrie verwendet werden, gegenüber. Wir wollen demonstrieren, dass die Marktbarrieren für ERM nicht identisch mit den Kritikpunkten an DRM sind, sondern in anderen Bereichen liegen. Der Schutz eines geheimen Schlüssels in der ClientAnwendung ist eine der größten Herausforderungen bei der Entwicklung von (E)DRMSystemen. Mit Software-Obfuscation und White-Box-Cryptography beschreiben wir zwei software-basierte Konzepte, die das Auslesen des Schlüssels erschweren. Der zweite Teil der Arbeit behandelt sicheres Drucken in Unternehmen. Beim Druck eines Dokuments werden die umfassenden Schutzmechanismen des ERM-Systems außer Kraft gesetzt, da die Übertragung von Daten zu einem Netzwerkdrucker in der Regel unverschlüsselt erfolgt. Aufbauend auf einer Analyse von Netzwerkdruckprotokollen stellen wir einen neuartigen Ansatz für eine protokollunabhängige Druckdatenverschlüsselung vor. Dieser basiert auf einem modifizierten CUPS-Druckertreiber und einem Postscript-Programm, das sowohl die verschlüsselten Druckdaten als auch einen Entschlüsselungsalgorithmus enthält.

Diplomarbeitsposter Zöchling Thomas

Thomas Zöchling

Masterstudium Medieninformatik
Abstract:

Automatic Audio Segmentation is used to decompose recorded audio material into distinct parts. A robust segmentation algorithm can find the start of a new song, the transition from music to spoken text or the change of different speakers in broadcast content. This thesis aims to introduce a new method, which is especially suited to segment long running content. In the first step, self-similarity analysis is used to calculate a novelty score, which reveals the structure of the audio material. To enhance the resulting score, a new approach to eliminate wrong boundary predictions is introduced. A custom built software prototype makes it possible to experiment with all free parameters of the presented method. Finally an evaluation concept – based on a manually created ground truth – is discussed.

Arbeitsbereich (vor 2018) Interactive Media Systems

Diplomarbeitsposter Frey Lambert

Lambert Frey

Masterstudium Medieninformatik
Abstract:

Um Bewegungsmuster, wie etwa jene von Fahrzeugen auf einer Kreuzung oder in Menschenmassen bei Sportveranstaltungen, in Videoaufzeichnungen analysieren zu können, ist es notwendig viele Einzelbewegungen, die Trajektorien, zu untersuchen. Dabei fallen große Menge an raum-zeitlichen Daten an, die in einer geeigneten Form gespeichert werden müssen. Die üblicherweise verwendete Speicherung dieser Informationen in Textdateien bietet keine Möglichkeit gezielt auf bestimmte Inhalte zuzugreifen. In dieser Arbeit wird ein Datenbankmodell zur Verwaltung von Bewegungsinformation vorgestellt, das diesen Mangel umgehen soll. Neben der Speicherung von Bewegungsdaten bietet die Datenbank Abfragemöglichkeiten nach bestimmten Vorgaben, die sowohl die zeitliche als auch die räumliche Dimension betreffen können. Es ist beispielsweise möglich, Trajektorien zu selektieren, die sich innerhalb einer gewissen Distanz zu einem vorgegeben Pfad befinden. Dazu ist es notwendig eine Methode zur Berechnung der Distanz zwischen Trajektorien zu definieren. Verschiedene Ansätze zu dieser Berechnung werden in dieser Arbeit besprochen. Eine Laufzeitevaluierung zeigt den Performancevorteil dieser Datenbank gegenüber der Speicherung in Textdateien und es werden weitere Vorteile, die dieser Ansatz bietet, demonstriert.

Diplomarbeitsposter Hartlieb Stefan Andreas

Stefan Andreas Hartlieb

Masterstudium Medieninformatik
Abstract:

Szenensegmentierung beschäftigt sich mit der Unterteilung eines Films in getrennte Einheiten. Gängige Algorithmen zur Segmentierung eines Films in Szenen verwenden Eigenschaften, die in historischen Dokumentarfilmen entweder aus künstlerischen oder aus technischen Gründen nicht vorhanden sind. Die Arbeit stellt eine Methode vor, die speziell für dieses Filmmaterial entwickelt wurde. Bei der Szenensegmentierung wird als Erstes eine Schnitterkennung durchgeführt. Die dabei gefundenen Shots werden anhand eines Keyframes und Bildmerkmalen miteinander verglichen. Zwei Shots, die innerhalb einer gewissen Zeitspanne liegen und einen Schwellwert an Ähnlichkeit übersteigen, gehören, sowie auch die dazwischen liegenden Shots, zu einer Szene. Die Merkmale, die im Algorithmus für den Vergleich verwendet werden, sind SIFT Keypoints, die Edge Change Ratio und blockbasierte Histogramme. Durch das Finden von ähnlichen Shots entstehen Kernszenen mit dazwischen liegenden losen Bereichen (d.h. Shots, die noch keiner Szene zugeordnet wurden). Die losen Bereiche werden durch das rekursive Herabsetzen der Schwellwerte für die einzelnen Ähnlichkeitsmerkmale bestimmten Szenen zugewiesen. Ein weiterer Teil der Arbeit ist die Überprüfung der Merkmale mit verschiedenen Schwellwerten zur Feststellung ihrer Güte. Die Güte ergibt sich aus dem Verhältnis zwischen fälschlich und korrekt als ähnlich klassifizierten Shots. Zusätzlich wird überprüft, wie weit die Auswahl der Keyframes Einfluss auf das Ergebnis hat. Die Implementation der gewählten Methode wurde außer mit historischen Dokumentarfilmen auch mit modernen Filmen getestet. Dies ermöglicht einerseits die Überprüfung der Implementation nach der Aufgabenstellung und anderseits einen Vergleich mit den in der Literatur vorgestellten Methoden.

Diplomarbeitsposter Pucher Jürgen

Jürgen Pucher

Masterstudium Informatikmanagement
Abstract:

Das Forschungsgebiet Image Matting befasst sich mit der Trennung von Vorder- und Hintergründen in digitalen Bildern. Um die Resultate von Matting-Algorithmen quantitativ vergleichen zu können, ist ein Benchmark-Test, basierend auf einem Bilddatensatz mit korrespondierenden Referenzlösungen (Ground Truth), nötig. Ein umfangreicher Benchmark-Test sollte idealerweise auf einer großen Anzahl von Testbildern basieren. Allerdings sind unoptimierte Forschungsimplementierungen von neu entwickelten Matting-Algorithmen oftmals nicht in der Lage, solch große Datenmengen in kurzer Zeit zu bewältigen. Daher ist eine der wesentlichen Herausforderungen bei der Erstellung eines Web-basierten Benchmark-Tests die Wahl einer geeigneten Bilddatenbank von handhabbarer Größe. Das Ziel dieser Magisterarbeit ist es nun, aus einem kürzlich vorgestellten „Ground Truth“ Datensatz, welcher aus 61 Bildern besteht, repräsentative Bilder auszuwählen, die für den Vergleich von Matting-Algorithmen verwendet werden können. Die Schwierigkeit besteht darin, eine Teilmenge auszuwählen und dabei die Variation und Charakteristika des gesamten Datensatzes beizubehalten. Ein weiteres Ziel der Arbeit ist es, die gewonnenen Erkenntnisse für didaktische Anwendungen aufzubereiten. Deshalb wurde im Rahmen dieser Magisterarbeit ein Online-Kurs für eine E-Learning Plattform unter Zuhilfenahme moderner Lerntheorien erstellt.

Diplomarbeitsposter Regner Andreas

Andreas Regner

Masterstudium Medieninformatik
Abstract:

Diese Diplomarbeit befasst sich mit der Frage, wie man TV-Sportübertragungen für den Zuseher noch attraktiver gestalten und ihm das Geschehen näher bringen könnte. Film und Fernsehen schaffen es, durch Verwendung geeigneter Kamerapositionen und Kamerawinkel dem Beobachter Spannung und Dramatik zu vermitteln. Es stellt sich die Frage, inwieweit die Erfahrungen und Techniken aus den in der Literatur relativ gut dokumentierten Bereichen Film und Fernsehen auf den Fall von TV-Sportsendungen übertragbar sind.  Im Rahmen der Arbeit wird zunächst mittels Literaturrecherche und an Hand von exemplarischen Beispielen aus bekannten Film- und Fernsehsendungen veranschaulicht, welche Kameraeinstellungen die Gebiete Film, Fernsehen und Sportübertragungen üblicherweise auszeichnen. Danach wird insbesondere der Frage nachgegangen, welche der in den Bereichen Film und Fernsehen eingesetzten Kameraeinstellungen auf den Sportbereich übertragen werden könnten, um dem Betrachter ein verstärktes immersives und/oder interaktives Erleben der TV-Sportinhalte zu ermöglichen.  In dem nachfolgenden experimentellen Teil werden Versuche mit Miniatur-Funkkameras, welche an Sportlern während der Ausübung einer Mannschaftssportart befestigt sind, durchgeführt. Dabei sollen Erkenntnisse über die Möglichkeiten neuer Kameraperspektiven, insbesondere aus der individuellen Sicht des einzelnen Sportlers, gewonnen werden. Weiters wird der Frage nachgegangen, wie Mehrfachansichten dem Zuseher zur interaktiven Auswahl sinnvoll zur Verfügung gestellt werden können. Abschließend werden die Ergebnisse der Untersuchungen diskutiert und Empfehlungen für eine mögliche Weiterentwicklung der Aufzeichnungstechnik für Sportübertragungen abgegeben.

Diplomarbeitsposter Seidl Markus

Markus Seidl

Masterstudium Medieninformatik
Abstract:

This master thesis deals with the problem of the detection of gradual transitions in historic movies. The historic material is different from contemporary material in technical quality (degraded contrast, flickering, scratches, fungus etc.) and in editing (different styles and lengths of transitions etc.). The knowledge of the temporal location of the shot boundaries in a movie is important for the analysis of the style of filmmaking of a certain director. Furthermore, the first step in automated content-based analysis of video or film material is the detection of shot boundaries. This is an active research topic, and is seen as solved for cuts. The detection of gradual transitions still is a field for many different approaches. These approaches aim at the detection of gradual transitions in contemporary material. To our knowledge no research about the detection of gradual transitions in historic material has been published so far. Research focuses on two types of approaches: Unified approaches, i.e. one detector for all gradual transition types, and approaches that use specialized detectors for each gradual transition type. In this master thesis we give an extensive literature research and propose a unified approach for the detection of gradual transitions in historic material. In the experimental study we evaluate our approach against annotated Vertov footage as well as annotated contemporary material from the shot boundary detection task of the TRECVid evaluation. Our experiments show, that our approach is valid for historic material as well as contemporary material. We observe that the historic material requires the use of texture features in contrast to the contemporary material that in most of the cases requires the use of colour and luminance features. We verify that the main problem for gradual transition detection is motion which causes a continuity signal comparable to that of a gradual transition.

Diplomarbeitsposter Spreitzer Johannes

Johannes Spreitzer

Masterstudium Medieninformatik
Abstract:

This thesis deals with software development and media processing on mobile handsets running the Android operating system. It is centered round a practical project, which aims to develop a program that continually tracks and saves the device's location. Furthermore the program should implement a stepcounter and make it possible to create panoramaphotos. Additionally it should display all the collected data in an appropriate manner. At the outset the Android system with its basic concepts is introduced and the additional technologies drawn upon in the project are elaborated. These technologies include GPS-tracking, accelerometer-sensors, panorama-stitching and visualizationtechniques as they come into operation on the mobile handset as well as on the web. Finally the practical project is modeled using graphical UML-diagrams and implemented, with the results achieved being discussed.

Arbeitsbereich (vor 2018) Business Informatics

Diplomarbeitsposter Bruckmayer Thomas

Thomas Bruckmayer

Masterstudium Business Informatics
Abstract:

Within an extremely wide range of tools, Web applications gain more and more importance to meet the constantly increasing requirements. Outstanding benefits are worldwide accessibility and interoperability on a very large scale. These factors lead to reduced costs for the information infrastructure and support the employees to do their work. For example, a constructor of fire-fighting trucks can query the headquarter's database on the other side of the world to find out which CAN data (Controller Area Network) is needed to configure a specific vehicle. This master's thesis describes in detail the solution for a specific problem in the industry, namely a Web application called CORA (CAN Bus Organization – Rosenbauer Assistant) to manage the CAN data for Rosenbauer International AG. According to the company's IT-infrastructure MSSQL Server, IIS, and ASP.NET were chosen as core technologies. On one hand the .NET framework provides the possibility to develop applications in a rather short time, also known as Rapid Application Development (RAD). On the other hand many RAD-techniques are not applicable on large enterprise solutions where the complexity has to be broken down into several layers. This work presents approaches, patterns and techniques for each layer. Furthermore, the database schema of the sample application has been constantly renewed and improved to cover additional requirements like multiple CAN bus systems, multilingualism, user administration, and a history of important entities. Therefore, schema evolution and data migration play an additional important role in this thesis. All these aspects are elaborated theoretically and explained practically with the help of CORA.

Diplomarbeitsposter Murth Johannes

Johannes Murth

Masterstudium Informatikmanagement
Abstract:

The ability of software engineers to develop clear and comprehensive models according to a specific problem domain has become an essential factor for the success of software projects. The trend of Model Driven Software Engineering (MDSE) even increases this factor. Universities have to qualitatively educate their students in this field to prepare them for those challenges. At the Vienna University of Technology (VUT), the course "Object Oriented Modeling" teaches the basics of modeling and the Unified Modeling Language (UML). Due to the high number of students, various e-Learning elements have already been established, primarily in the part of theoretical basics. The goal of this thesis is to develop a web-based modeling tool, that is integrated into the learning platform of the VUT using Rich Internet Application technologies. Thus, students can solve practical modeling exercises comfortable direct on the e-Learning platform. Therefore, a generic approach shall be used by utilizing metamodeling: Visualization and manipulation of two-dimensional diagrams is based on certain patterns. A framework shall allow creating complete diagram editors with drag-and-drop functionality, by specifying the structure of the diagram elements (abstract syntax) and the visual notation elements (concrete syntax). This enables to easily create various UML editors and to align the notation elements with those of the course. In the course of this thesis, three editors (class diagram, state diagram, and sequence diagram) are created with the aid of the framework and integrated into the e-Learning platform.

Diplomarbeitsposter Pessenlehner Martin

Martin Pessenlehner

Masterstudium Software Engineering & Internet Computing
Abstract:

Modellgetriebene Softwareentwicklung rückt Modelle ins Zentrum des Software Lebenszyklus. Dabei stellen Modelltransformationen einen entscheidenden Bestandteil dar, wobei verschiedene Transformationssprachen und Arten von Modelltransformationen zur Verfügung stehen. Transformationssprachen sind meist nicht einfach zu verstehen bzw. nachvollziehbar und sind somit nur schwer zu debuggen und zu analysieren. Bedingt wird dies durch die Ausführung der Transformation in Form einer Black-Box, die die operationale Semantik versteckt. Informationen über den Transformationsprozess stehen daher nur sehr bedingt zur Verfügung. Eine umfassende Analyse ist aber von großer Bedeutung, da Fehler in der Modelltransformation an verschiedenen Stellen etwa beim Quell- bzw. Ziel-Metamodell, Quell- bzw. Ziel-Modell und der Transformationslogik auftreten können. Damit verbunden sind die Auswirkungen auf die Korrektheit der Transformation und aller darauf aufbauender Schritte im Software Lebenszyklus. Die bisher nur unbefriedigend beantwortete Frage der Analysemöglichkeiten von Modelltransformationen stellt ein wesentliches Problem in der modellgetriebenen Softwareentwicklung dar. Diese Arbeit greift daher die beschriebenen Probleme in der Analyse von Modelltransformationen auf und versucht anhand von Transformationsnetzen auf die Analyse einzugehen. Der Transformationsnetz Formalismus basiert auf färbigen Petri Netzen, die eine Reihe von Analysemöglichkeiten anbieten. Es wird daher untersucht in wie weit sich durch die Rückführung von Transformationsnetzen auf färbige Petri Netze Eigenschaften berechnen lassen und in welcher Weise sich Transformationsnetz Spezifi ka darauf auswirken. Untersucht wird weiters auch eine mögliche Unterstützung durch weit verbreitete und bereits im industriellen Umfeld eingesetzte Tools für färbige Petri Netze. Als letzter Schritt wird der "Transformations On Petri Nets In Color" Prototyp für Transformationsnetze um Analyseeigenschaften erweitert.

Diplomarbeitsposter Rieder Max Philipp

Max Philipp Rieder

Masterstudium Business Informatics
Abstract:

In the last decade the adoption of web applications instead of desktop applications has grown rapidly. The World Wide Web has evolved from a collection of linked static documents to a space of countless dynamic applications. One of the oldest and most popular languages for developing dynamic web applications is PHP. Many older PHP web applications are written without the notion of applying well-defined design patterns. Those web applications are hard to understand, maintain, extend as well as hard to migrate to new web platforms. Nowadays many web applications are developed using Model Driven Engineering (MDE) techniques. But often the requirement is not to develop a completely new web application but to capture the functionality of an existing legacy application. It can be helpful for humans to have a tool that analyzes the source artifacts and transforms them into a model on a higher level of abstraction. This is called reverse engineering. The requirements for such a tool to work is the existence of well-known patterns in the source code, which is typically found in Model-View-Controller (MVC) web applications. In this thesis a reverse engineering process from a legacy PHP web shop application into a model of the Web Modeling Language (WebML), based on static code analysis, is presented. First of all the requirements for the source code are analyzed and the application is refactored to fulfill these requirements, which leads to a MVC web application. The next step is a code to model transformation into an intermediate model of the MVC web application. The last step is a model to model transformation from the the MVC model into a WebML model. The result is a WebML model that shows the most important structural and behavioral aspects of the example application. This model provides a realistic documentation of the current state of the application and it can be used to support refactoring activities or the migration to another platform.

Arbeitsbereich (vor 2018) E-Commerce

Diplomarbeitsposter Kholafaei Mohammadali

Mohammadali Kholafaei

Masterstudium Informatikmanagement
Abstract:

Kompetenzmessung ist heute nicht nur in den Wirtschaftswissenschaften, sondern auch in anderen Bereichen wie z.B. Pädagogik, Psychologie und Unternehmensbereich eine aktuelle Thematik. Das Problem der Messung von nicht formell erworbenen Kompetenzen ist schon seit mehreren Jahrzehnten bekannt. Daher geht diese Arbeit der Frage nach, wie Kompetenzen im Allgemeinen sinnvoll gemessen werden können. Überdies werden folgende Teilfragen geklärt: Was versteht man unter einer lernenden Organisation? Was ist Wissens- und Kompetenzmanagement? Wer hat schon zu diesen Themen im Forschungskontext gearbeitet? Welche Messverfahren sind heute aktuell? Viele Autoren finden sieben unterstützende Kompetenzen sehr bedeutend für lernende Organisationen. Diese Arbeit stellt zunächst die sieben unterstützenden Kompetenzen vor: Vision (Glaube), Voraussicht (Systemdenken), Kommunikation (Offenheit), Empathie (Einfühlungsvermögen), Charisma (Überzeugungskraft), Leidenschaft (Begeisterungsfähigkeit) und Selbstvertrauen (Selbstsicherheit). Das Ziel dieser Arbeit ist zu klären, ob ein Messverfahren für diese unterstützenden Kompetenzen ermittelt werden kann. Hierfür wird als Evaluierung, ein kreatives Messverfahren (Prototyp) zur Messung der sieben Kompetenzen vorgeschlagen. Um die Effizienz dieses Prototyps zu überprüfen, wird ein „datenbankbasierte Web-Interface“ realisiert. Hiermit werden auch die Messdaten verwaltet.

Diplomarbeitsposter Labitzke Stefan

Stefan Labitzke

Masterstudium Medizinische Informatik
Abstract:

Diese Diplomarbeit befasst sich mit der Problemstellung, wie man Beziehungen in sozialen Netzwerken erkennen kann. Dies teilt sich in Untergebiete auf. Zuerst muss festgelegt werden, wie Beziehungen in sozialen Software Systemen auftreten. Daher wird auf die Grundlagen von Beziehungen eingegangen. Dies ist notwendig, um die Grundbausteine von Beziehungen zu verstehen, woraus sich ein Rahmen für die Analyse der Beziehung herauskristallisiert. Diese übergeordneten Aspekte werden in Zusammenhang mit sozialen Software Systemen gebracht, sodass man die Eigenschaften von Beziehungen, welche in solchen Systemen weitergelebt werden, analysieren kann. Zusätzlich werden noch Eigenschaften von Beziehungen benannt, welche es in weiterer Folge ermöglichen, beispielhafte Beziehungen auszuwählen, welche in der Arbeit näher mit dem vorgestellten Rahmen analysiert werden. Auf diese dyadischen Beziehungen aufbauend ermöglicht die Netzwerkanalyse die Erkennung von Cliquen u.a. Nach dieser konzeptionellen Arbeit wird auch die Analyse einer konkreten Beziehung in die Praxis umgesetzt. Dabei werden eben in einem sozialen Software System mit der erläuterten Methode die Beziehungen erkannt. Ob diese mit der Realität übereinstimmen, muss empirisch getestet werden. Nach der Evaluation folgt noch ein Abschnitt mit der kritischen Reflexion, sowie ein Ausblick, auf welche Daten das System noch angewendet werden kann. Das Ergebnis der Evaluation zeigt, dass bestimmte Voraussetzungen gegeben sein müssen, um Fehler in der Analyse zu vermeiden. Es wird also eine neuartige Methode aufgezeigt, wie man die Gesamtheit der Daten in einem sozialen Software System verwendet, um die in diesem System ausgetragenen Beziehungen zu analysieren.

Diplomarbeitsposter Marinov Emil

Emil Marinov

Masterstudium Informatikmanagement
Abstract:

Das Internet hat in den letzten Jahren ein enormes Wachstum erlebt: so verbringen die Österreicher in ihrer Freizeit 17 Prozent der Mediennutzung mit diesem neuen Medium. Trotz dieser enormen Reichweite und den interaktiven Möglichkeiten findet Onlinemarketing in der Medienplanung nur eine schwache Berücksichtigung: Im Durchschnitt werden nur 5 Prozent der Werbebudgets dafür ausgegeben. Der Großteil der Internetnutzer startet die Suche nach Informationen bei einer Suchmaschine. Rund neun von zehn Suchanfragen werden in Österreich über die Suchmaschine Google abwickelt. Da die Suchmaschinennutzer bei der Suchworteingabe bereits einen bestimmten Wunsch oder ein Interesse äußern, eignet sich Suchmaschinen-Marketing ganz besonders als Performance Marketing Instrument im Internet. Bei diesem Performance Marketing Tool unterscheidet man zwei Formen: Suchmaschinen-Optimierung (SEO) und Suchmaschinen-Marketing (SEM). Die Suchmaschinen-Optimierung setzt dabei im Wesentlichen bei der Optimierung der Webseite für bestimmte Suchworte und deren externe Verlinkung an, hingegen werden bei Keyword-Advertising-Kampagnen Anzeigen geschaltet, die bei den jeweiligen Suchworten je nach Suchdienst neben den regulären, nicht käuflichen Suchergebnissen angezeigt werden. Um mit Suchmaschinen-Marketing erfolgreich zu sein, muss man es auf die anderen Maßnahmen des Marketing Mix abstimmen und mit entsprechendem Fachwissen, entweder selbst angeeignet oder bei einer Agentur zugekauft, durchführen. Will ein Unternehmen im Bereich des Suchmaschinen-Marketings aktiv werden, so empfiehlt sich eine Herangehensweise, die einem typischen Managementprozesses ähnelt. Zuerst müssen messbare Ziele definiert werden, dann werden daraus strategische Entscheidungen abgeleitet und operativ durchgeführt. Einen wichtigen Teil stellt schlussendlich die Erfolgsmessung durch das Webcontrolling dar. Daraus werden Handlungsschritte für die weiteren Optimierungsmaßnahmen abgeleitet.

Diplomarbeitsposter Rauchwerger Thomas

Thomas Rauchwerger

Masterstudium Business Informatics
Abstract:

Am 6. Dezember 2007 wurde im Nationalrat die Novelle zum Sicherheitspolizeigesetz beschlossen. Durch diese Novelle sind die Sicherheitsbehörden berechtigt, von Providern von öffentlichen Telekommunikationsdiensten Auskunft über IP-Adressen zu einer bestimmten Nachricht und den genauen Zeitpunkt der Übermittlung zu verlangen. Durch die Novelle des Sicherheitspolizeigesetzes ist die Kontrolle durch die Instanz der Justiz aufgehoben worden. Ohne richterlichen Befehl können Standortabfragen des Handy-Benutzers durchgeführt werden. Die einzige Kontrollinstanz ist seit dieser Novelle nur mehr der Rechtsschutzbeauftragte des Bundesministeriums für Inneres. Eine weitere Problematik der Novelle zum Sicherheitspolizeigesetz besteht darin, dass statische als auch dynamische IP-Adressen bei einer konkreten Gefahrensituation beim Provider ohne richterlichen Beschluss verlangt werden können. Weiters inkludiert diese Diplomarbeit eine generelle Übersicht der Gesetze in Österreich, in denen der Datenschutz eine Rolle spielt. Zusätzlich beinhaltet diese Arbeit einen Überblick über den Begriff der Online-Durchsuchung. Hierbei wird einerseits untersucht die Charakteristika einer Online-Durchsuchung und anderseits eine Zusammenfassung wie Sicherheitsbehörden sich zum Computersysteme Zugang verschaffen. In einem weiteren Kapitel werden noch die dahinter steckenden Technologien, wie z.B. IMSI-Catcher usw., beleuchtet, mit denen die Sicherheitsbehörden die Überwachungen durchführen Als weiteren Aspekt dieser Arbeit wird auch ein Ausblick in anderen Ländern bezüglich Überwachungsmaßnahmen bzw. -methoden gewährt. Abschließend folgt ein Resümee der Arbeit, indem die Ergebnisse sowie eine persönliche Stellungnahme präsentiert werden. Die methodische Vorgehensweise wurde mittels Internet- bzw. Literaturrecherche vollzogen. Für einzelne Kapitel ist auch eine Zusammenarbeit mit Datenschutzexperten der grünen Parlamentspartei vollzogen worden.

Diplomarbeitsposter Sirka Marko

Marko Sirka

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

In den letzten Jahrzehnten hat die Information gegenüber der Produktion in der gesamten Wirtschaft an Bedeutung gewonnen, sodass sich viele Länder bereits zu einer sogenannten Informations- und Dienstleistungsgesellschaft entwickelt haben. Im ökonomischen Umfeld kam es somit auch zu einer wachsenden Servicewirtschaft, was auch auf die fortschreitende technologische Entwicklung zurückzuführen ist. Servicetechnologien, wie serviceorientierte Architekturen, sind Entwicklungen der vergangen Jahre, denen immer mehr Aufmerksamkeit geschenkt wird; dieser Komplex wird speziell in dieser Arbeit behandelt. Ausführlich werden demnach auch einige service-nahe Themen besprochen und ergiebig darüber diskutiert, welchen Einfluss diese auf die Forschung und Unternehmenswelt haben. Innerhalb der Arbeit wird analysiert, ob durch den Einsatz serviceorientierter Architekturen die Innovationen unterstützt werden sowie ob dadurch neue Geschäftsideen und -modelle sehr flexibel umgesetzt und später erweitert werden können. Außerdem wird erörtert, was neben der Implementierung einer SOA noch behandelt werden muss, um eine Geschäftsidee realisieren zu können. Durch die prototypische Umsetzung eines Service-Systems mittels Web Services wurde versucht, dieser Fragestellung Genüge zu tun. Das dabei entwickelte Service-System ermöglicht auch eine anbieterübergreifende Suche, Auswahl und Buchung von Räumlichkeiten. Mittels serviceorientierter Architekturen können einzelne Services zu Kompositionen zusammengestellt werden und dadurch eine neue Funktionalität kreiert werden. Dies wird als innovativ und flexibel betrachtet, weil dadurch die Umsetzung neuer Geschäftsmodelle und eine agile Anpassungsfähigkeit ermöglicht werden. Außerdem wurden auch Konzepte vorgestellt, wie zusätzlich eine Geschäftsautomatisierung erreicht werden kann.

Andere Institute der Technischen Universität Wien

(vor 2018) Institut für Analysis und Scientific Computing

Diplomarbeitsposter Adelsberger Stephan

Stephan Adelsberger

Masterstudium Medizinische Informatik
Abstract:

In der vorliegenden Diplomarbeit werden Daten von Patienten mit Rücken­marks­verletzungen analysiert. Die Ergebnisse der Untersuchung sollen dazu beitragen, die Situation von Patienten mit derartigen Verletzungen zu verbessern. Als Basis dient die Muskelableitung (Elektromyografie) von Patienten mit einer Rückenmarksverletzung. Diese Daten wurden über die letzten zehn Jahre von insgesamt 85 Patienten erhoben und nach dem BMCA-Protokoll (Brain Motor Control Assess­ment) aufgezeichnet. Dieser Datensatz enthält des Weiteren die wichtigsten klinischen Daten (wie Höhe der Verletzung, Alter bei Unfall, etc.) sowie demografische Angaben. Für die Auswahl der Analysemethode wurde der aktuelle Forschungsstand recherchiert. Zwei Methoden werden im Detail vorgestellt: Wavelet-Transformation und Empirical-Mode-Decomposition mit anschließender Hilbert-Transformation. In dieser Arbeit wurde für die Analyse der Muskelmessungen die Methode der Wavelet-Transformation ausgewählt. Die Analyseergebnisse wurden mit den klinischen Daten der Patienten in Beziehung gesetzt. Das Hauptergebnis der vorliegenden Arbeit ist das Folgende: Es besteht ein signifikanter Unterschied bei der gemessenen Muskelkontraktion in Zusammenhang mit der Verletzungshöhe. Auffallend ist, dass die Kombination aus oberstem und unterstem verletzten Wirbel stark mit den Ergebnissen der EMG-Messungen korreliert (P-Wert < 0,001). Bei der Analyse dieses Ergebnisses wurde ersichtlich, dass sich Brust- und Halswirbelsäulenverletzungen während der Dorsalflexion bezüglich der Muskelmessung des Musculus tibialis anterior unterscheiden.

Diplomarbeitsposter Danner Simon Michael

Simon Michael Danner

Masterstudium Medizinische Informatik
Abstract:

There are pattern generators in the human lower spinal cord that produce stepping-like movements. It has been shown that these pattern generators can be activated by epidural and transcutaneous spinal cord stimulation. This work mainly focuses on improving previous simulations by using the axon model of McIntyre, Richardson, and Grill (2002). In contrast to models used before, this new approach produces threshold values that are in accor- dance with experimental results. The fibers responsible for the activation are identified. For the simulation it was necessary to reimplement the axon model. Two different fiber classes are simulated, the root fibers (afferent and efferent) and the dorsal column fibers. The simulation demonstrates that both, the root fibers and the dorsal column fibers are involved in the stimulation and that this new simulation produces threshold values that are comparable with experimental results.

Diplomarbeitsposter Güldenpfennig Florian Michael

Florian Michael Güldenpfennig

Masterstudium Informatikmanagement
Abstract:

In der physiologischen Psychologie und in der Neurowissenschaft sowie in der klinischen Diagnostik sind seit einigen Jahren sogenannte Schreckreflex-Experimente (engl. "startle experiments") relativ stark verbreitet. Bei diesem Versuchsdesign wird an der Testperson mittels zweier unterhalb des Auges applizierter Elektroden ein Elektromyogramm (EMG) abgleitet. Während des Experimentes werden der Testperson Schreckstimuli (lautes Geräusch, Luftstoß, etc.) dargeboten. Je nach Versuchsbedingung und/oder Erkrankung lassen sich unterschiedliche Schreck-Reaktionen im EMG nachweisen (Das EMG wird durch kognitive und emotionale Prozesse moduliert). Aufgabenstellung dieser Masterarbeit ist es, für unerfahrene NeurowissenschafterInnen und DiplomandInnen eine Software-Arbeitsumgebung (EMG-Signalverarbeitung, Verwaltung von Testpersonen/Versuchsbedingungen) bereitzustellen, um Schreckreflex Experimente durchführen zu können. Neben der Herstellung und Installation der Arbeitsumgebung erhalten die zukünftigen AnwenderInnen eine gründliche Unterweisung in ebendiese. Diese Unterweisung umfasst unter anderem eine Einschulung in Matlab, denn in dieser Sprache ist die EMG-Toolbox implementiert. EMG-Signale werden für Schreckreflex Experimente derzeit nach mehreren unterschiedlichen Methoden vorverarbeitet. Die Bestrebungen laufen jedoch dahin, die Prozeduren zu standardisieren. Die implementierte Toolbox will dazu einen Beitrag leisten, indem der gegenwärtige wissenschaftliche Konsens (insbesondere Filtertechniken) herausgearbeitet und in der Software umgesetzt wird.

Diplomarbeitsposter Hönig Ernst

Ernst Hönig

Masterstudium Informatikmanagement
Abstract:

Information Technology has an integral part in our modern society. With the emerging of the new technology, especially the Internet, comes a new type of crime. This new type of crime is referred as Cyber Crime. In certain types of Cyber Crime, the successful manipulation, respectively “Social Engineering” of people plays an important role. In order to prevent Social Engineering attacks this master theses contains an universal trainings concept. The trainings concept is based on three main pillars: The Analyses of the Psychological Factors, The Cyber Crime Aspects and The Analysis of the Didactics. The Cyber Crime Aspects chapter reveals the need for such training concept and show the dimension of the issue in statistics. In the Analyses of the Psychological Factors part, dual processing information models are used to represent the mental processes involved in the manipulation. Furthermore it shows how the different manipulation techniques are used in the context of Cyber Crime. In the Analysis of the Didactics it is discussed how the Instructional System Design (ISD), respectively the Analysis, Design, Development, Implementation and Evaluation (ADDIE) training development approach fits to the requirements of the trainings concept. The output of all three analytical steps are resulting in the trainings concept, that consists of three key elements to prevent Social Engineering attacks. These key elements are: awareness about “Simple Cues”, higher motivation to process information more carefully as well as a greater ability to process information. In order to make the trainings concept more visual and to give examples for the key elements (training methods), the concept is applied on a fictive company. This company works in the field of Biomedical Engineering.

(vor 2018) Institut für Wirtschaftsmathematik

Diplomarbeitsposter Leitner Maria

Maria Leitner

Masterstudium Business Informatics
Abstract:

Die hedonischen Preisfunktionen beschäftigen sich mit dem Einfluss von Qualitätsmerkmalen eines Gutes auf dessen Preis. Es wird angenommen, dass ein Gut aus einem Bündel von Merkmalen, besteht. Jeder Eigenschaft kann ein eigener Preis zugeordnet werden. Besonders bei Gütern mit rasanter technologischer Entwicklung, wie beispielsweise Computern, ist die Anwendung von hedonischen Preisfunktionen üblich. Basierend auf der hedonischen Methode kann ein hedonischer Preisindex berechnet werden. Ziel der Arbeit war es die hedonische Preisfunktion für Computer zu modellieren und empirisch zu schätzen. Die Basis für die Analyse bilden Daten des Jahres 2008, die von einer Preisvergleich-Internetseite für Computer erhoben wurden. In der Diplomarbeit wurde eine hedonische Preisfunktion für Dezember 2008 und eine für das gesamte Jahr (2008) entwickelt. Die Preisfunktionen wurden als Mehrfachregression unter den klassischen Annahmen der Regressionsanalyse geschätzt und mit statistischen Verfahren untersucht. In den Modellen wurde der Einfluss von Eigenschaften auf den Computerpreis analysiert. Die Modelle zeigten, dass Computermarken, Prozessortypen, Arbeitsspeicher, Grafikspeicher, Windows-Betriebssysteme, Blu-ray-Laufwerke oder ein mitgelieferter Monitor preissteigernde Effekte auf den Computerpreis haben. Die Erhöhung des Festplattenspeichers, integrierte DVD-Brenner-Laufwerke oder zu Windows alternative Betriebssysteme haben preismindernde Auswirkungen. Aufbauend auf dem Modell des Jahres 2008 wurde ein hedonischer Preisindex berechnet. Der hedonische Index zeigte, dass die Computerpreise um etwa 15 Prozent im Jahr 2008 fallen.

(vor 2018) Institut für Statistik und Wahrscheinlichkeitstheorie

Diplomarbeitsposter Elmaz Orhan

Orhan Elmaz

Masterstudium Informatikmanagement
Abstract:

Lehrwerke für die arabische Mediensprache, die sich nicht zuletzt auf Grund der Popularität des Senders al-Jazeera und der modernen Notwendigkeit, die arabische Perspektive zu reflektieren, in universitären Curricula einnistet, sind kaum vorhanden und wenn doch, so sind sie proprietär und auf das Heimatinstitut der Verfasser zugeschnitten, was deren Verwendung in Hinsicht auf Vorkenntnisse deutlich einschränkt. Hinzu kommt, dass die durch die arabische Multiglossie bedingte Problematik der gesprochenen Mediensprache bisher fast keine Erwähnung fand. Die vorliegende Arbeit versteht sich als Versuch, eine korpusbasierte Methode zur Lehrmaterialienerstellung für die arabische Mediensprache einzusetzen. Dafür wurden schriftliche und orale Korpora im mit dem der Routledge Frequency Dictionaries vergleichbaren Umfang von ca. 25 Millionen Wörtern aus den Zeitungen al-Quds al-ʿArabī, al-Šarq sowie al-Jazeera-Transkripten erstellt. Daraus wurde unter Zuhilfenahme von Buckwalters Arabic Morphological Analyzer und den Worthäufigkeiten in Google News ein Häufigkeitswortschatz von knapp über 3500 Lemmata extrahiert und nach Wurzeln bzw. Wortfamilien sortiert, der wie gezeigt werden konnte 95% von nicht-trivialen zeitgenössischen Medientexten deckt. Um dem Charakter der Mediensprache gerecht zu werden, wurden Neologismen (Wortlänge, Wortformen) sowie multi word items (N-Gramm Suche, Kollokationen) eigens behandelt und verschiedenen Themenbereichen zugeordnet als auch ein diskursives Konversations- und Moderationsvokabular erarbeitet. Auf Grund seiner Güte lässt sich diese Unterlage besonders in Lektürekursen nach einem Grundkurs einsetzen, in denen Studenten verschiedener Niveaus und Vorbildung zusammenkommen, um Unterschiede im Vokabular auszugleichen. Ebenso könnten Lernende Konkordanzen gewisser Wörter und Wortverbindungen erstellen, welche der Vokabelakquisition eine explorative Dimension verleihen bzw. dem idiomatischen Feinschliff bei der Textproduktion dienen.

(vor 2018) Institut für Verfahrenstechnik, Umwelttechnik und Technische Biowissenschaften

Diplomarbeitsposter Eder Thomas

Thomas Eder

Masterstudium Medizinische Informatik
Abstract:

Die Trichoderma Spezies sind die am weitesten verbreiteten mitosporen Pilze (Teleomorphe Hypocrea, Hypocreales, Ascomycota, Dykaria). Keine Daten über die Vielfalt von Hypocrea/Trichoderma in natürlicher Umgebung (in situ) sind bis heute verfügbar. Das Ziel dieser Arbeit war es, die in silico Grundlage für die Anwendbarkeit von Hochdurchsatz-Sequenzierungsverfahren auf die in situ Vielfalt von Hypocrea/Trichoderma und verwandten Pilzen zu legen. Die größte Herausforderung lag darin, die Eignung von rpb2 phylogenetischen Marker, entsprechend dem Teil des Gens, das die RNA Polymerase Untereinheit B II kodiert, zu bestimmen. Da Pyrosequenzierung einer Längenbeschränkung von 220-250 Basenpaaren unterliegt, muss das Zielgebiet kurz und aussagekräftig sein. Hierfür durchsuchten wir öffentliche Datenbanken, nach relevanten Hypocrea/Trichoderma rpb2 Sequenzen und entwarfen 27 potentielle Primerpaare, welche Fragmente der gewünschten Länge vervielfältigen. Dann verwendeten wir phylogenetische Rückschlüsse um die Fragmente gemäß ihrer Aussagekraft zu reihen. Die besten Primerpaare wurden dann in vitro, in Hinsicht auf deren Anwendbarkeit auf DNA Extrakte, von reinen Kulturen und auf Umweltproben hin verifiziert. Im letzen Schritt entwickelten wir ein in silico Hilfsprogramm, womit Sequenzen virtuell mutiert werden können, um festzustellen, wo der Grenzbereich der Sequenzpolymorphie liegt, in dem man noch aussagekräftige Werte über den ausgewählten Zielbereich erzielen kann. Das 220 Basenpaar lange Fragment in dem 5' Bereich des phylogenetischen Standardmarkers für Pilze wird für die Verwendung von Pyrosequenzierung auf Umweltproben empfohlen. Die Primer trpb2-1.5 und grpb2-7frev wurden entwickelt um Hypocrea/Trichoderma und nah verwandte Pilze zu vervielfältigen. Die Aussagekraft eines Fragmentes bleibt bis hin zu einer Sequenzpolymorphie von 10% erhalten.

(vor 2018) Institut für Verkehrswissenschaften

Diplomarbeitsposter Zrno Mario

Mario Zrno

Masterstudium Business Informatics
Abstract:

Während der Spitzenzeiten im öffentlichen Personennahverkehr kann es zur Verlängerung der Haltezeit kommen, die durch die größte Zeitkomponente der Haltezeit, die Fahrgastwechselzeit, maßgeblich beeinflusst wird. Im Rahmen dieser Diplomarbeit werden alle relevanten Einflussparameter auf die Fahrgastwechselzeit ermittelt, diese sowohl qualitativ als auch quantitativ analysiert und Verbesserungsmaßnahmen erörtert, deren Umsetzung die Fahrgastwechselzeit verkürzen können. Zu diesem Zweck wurden in den Sommermonaten 2009 Datenerhebungen in mehreren Städten in Österreich durchgeführt, um ein breites Spektrum an verschiedenen Fahrzeugtypen, Bahnsteighöhen und Fahrgastverhaltensweisen abzudecken. Erfasst wurden über 7000 Datensätze, die Ein- beziehungsweise Ausstiegsvorgänge von Fahrgästen von Straßenbahnen, Zughaltezeiten und Türoffenzeiten enthalten. Alle fahrgast- und fahrzeugbezogenen Einflussfaktoren werden anhand von signifikanten Auswertungen quantifiziert. Jeder Fahrgast wird vor allem durch den Zeitbedarf für den Ein- bzw. Ausstieg und sein Alter beschrieben, um altersbedingte Auswirkungen auf die Mobilität beim Fahrgastwechsel zu untersuchen. Die ausgewerteten Daten zeigen, wie stark sich die Niederflur- im Vergleich zur Hochflurbauweise auf die Dauer des Fahrgastwechsels auswirkt. Weitere Ergebnisse geben Aufschluss über die Leistungsfähigkeit verschiedener Türbreiten. Dabei spielen die Anzahl und Anordnung der Türen eine große Rolle. In diesem Zusammenhang zeigt die Untersuchung von verschiedenen Bewegungsmustern von Fahrgästen beim Fahrgastwechsel Verbesserungspotenziale auf. Außerdem zeigen die Daten, wie stark sich Mobilitätseinschränkungen, wie zum Beispiel Gepäck, auf die Fahrgastwechselzeit auswirken. Das Alter des Fahrgastes erweist sich als größter fahrgastbezogener Einflussfaktor.

(vor 2018) Institut für Fertigungstechnik und Hochleistungslasertechnik

Diplomarbeitsposter Öztürk Öznur

Öznur Öztürk

Masterstudium Informatikmanagement
Abstract:

E-Learning ist ein Lernprozess, dass Aktivitäten, Abläufe, Menschen, Techniken umfasst und durch die Entwicklung der Informations- und Kommunikationstechnologien unterstützt wird. E-Learning wird heutzutage in verschiedenen Bereichen eingesetzt, wie im Bildungsbereich, für einen noch User-freundlichen Umgang mit den Lernprozessen. Die folgende Arbeit behandelt das Thema e-Learning, wo eine Definition der Grundlagen von e-Learning und Didaktik erfolgen wird. Daran anschließend werden einige Evaluationsmethoden und Kriterien angegeben, die das Konzept der „Qualität“ näher beschrieben werden und die Fragen nach den Ansätzen und Instrumenten des Qualitätsmanagements, sowie nach den Besonderheiten bei ihrer Übertragung auf den Bereich des e-Learnings, beantwortet werden.

(vor 2018) Institut für Managementwissenschaften

Diplomarbeitsposter Babry Martin

Martin Babry

Masterstudium Business Informatics
Abstract:

Die Masterarbeit befasst sich mit der Geschichte, Gegenwart und Zukunft der österreichischen Industriepolitik. Dabei werden die allgemeinen theoretischen Grundlagen der Industriepolitik, die Akteure und Instrumente einer österreichischen Industriepolitik, und schließlich aktuelle und absehbare zukünftige Herausforderungen diskutiert. Neben der Aufarbeitung von Fachliteratur bilden Interviews mit fünf Vertretern von wichtigen Trägern der österreichischen Industriepolitik das Fundament dieser Arbeit. Die Schlussfolgerungen aus diesen Interviews mit den Experten werden im Rahmen der Arbeit mit der bestehenden Theorie kombiniert. Die Arbeit zeigt, dass der jahrzehntelange zentrale Diskurs, ob horizontale oder sektorale Maßnahmen ein erfolgreicherer Ansatz für Industriepolitik darstellten, um die Jahrtausendwende weitgehend von einem neuen Ansatz, dem „matrixorientierten Ansatz der Industriepolitik“, abgelöst wurde. Dieser kombiniert, ausgehend vom horizontalen Ansatz, die beiden Ansätze. Ebenso wird die Bedeutung von Industriepolitik in der heutigen Zeit unterstrichen. Trotz eines Rückganges des Anteils der Industrie am BIP in den reichsten Ländern der Welt wurde die Wichtigkeit nicht geschmälert, auch wegen eines neuen weiteren Verständnisses des Begriffs „Industrie“ und somit auch von „Industriepolitik“. Während sich die Akteure der österreichischen Industriepolitik in den letzten Jahrzehnten kaum verändert haben, waren die Instrumente der Industriepolitik einem starken Wandel unterzogen. Der Wandel der Instrumente hängt natürlich stark mit einer Veränderung der Ziele und Herausforderungen zusammen. Die wohl wichtigste Herausforderung aus österreichischer Sicht betrifft den endgültigen Vollzug des Schritts vom Technologienehmer zum Technologieentwickler. Dabei wird speziell eine Verbesserung des Ausbildungssystems eine wichtige Rolle spielen.

Diplomarbeitsposter Fantoni Andreas

Andreas Fantoni

Masterstudium Business Informatics
Abstract:

The main purpose of this master thesis is the analysis of financial crises. For this reason, the paper draws a comparison between the Great Depression of the thirties, the Dot-Com Bubble around 2000 and the Subprime-Crisis of 2008. These different crises will be taken as examples for typical states of crisis over the last hundred years. It is not the primary aim of this master thesis to explain financial instruments or offer an exhaustive examination of intrinsic financial processes. Rather, this paper analyzes the relations between neo-classical as well as alternative models and incidents on the financial market. Important for this analysis was giving a clear structure of the financial market itself, at the beginning of the thesis, followed by a differentiation of financial positions into ‘risky-‘ and ‘fixed-income’ segments. The differentiation is the basis to examine the pricing models in a more precise manner as well as to work out the reasons for major historic financial crises later on. The second part of the paper mainly consists of a comparison of investor behavior with the basic theory of financial dynamics through neo-classical and alternative valuation models. The approach should become apparent from the structure of the work. By choosing said structure and knowledge, the mechanics of financial crises are investigated from a practical point of view. Consequently, an identification of how crises in the financial market appears and how those responsible react becomes feasible. To facilitate dealings with future crises, this paper highlights differences and similarities of the growth and course of above mentioned crises.

Diplomarbeitsposter Hergetz Thomas

Thomas Hergetz

Masterstudium Business Informatics
Abstract:

„Die KMU Gründer sind in die Jahre gekommen.“ – so oder so ähnlich titelt die österreichische Wirtschaftspresse in den letzten Jahren häufiger. Die Diskussion über die Vielzahl der im österreichischen Klein- und Mittelstand anstehenden Unternehmens-nachfolgen genießt mittlerweile eine große öffentliche Aufmerksamkeit.Als einen möglichen Lösungsansatz für diese Nachfolgeproblematik untersucht diese Arbeit die familienexterne Unternehmensübernahme. Das Problem der Finanzierung des Kaufpreises für den Erwerb des Unternehmens steht dabei im Mittelpunkt des Interesses. Die Diplomarbeit basiert auf einer theoretischen und praktischen Analyse, geht aber auch auf die institutionellen Rahmenbedingungen der Unternehmensfinanzierung in Österreich ein. Differenziert wird hierbei zwischen unterschiedliche Typen von Unternehmensnachfolgen, die bspw. sowohl die Übernahme von Kleinstbetrieben als auch die Übernahme von mittelständischen Unternehmen im Wege eines Management Buyouts umfassen können. Die formulierten typenspezifischen theoretischen und praktischen Empfehlungen können den Nachfolger bei der Erarbeitung einer Finanzierungslösung unterstützen.

Diplomarbeitsposter Karlovits Michael Josef

Michael Josef Karlovits

Masterstudium Medizinische Informatik
Abstract:

Im Krankenhaus Hietzing mit Neurologischem Zentrum Rosenhügel, speziell im Institut für Labormedizin mit Serologie und Infektionsdiagnostik ist man sich der Verantwortung gegenüber ihren Patienten bewusst. Daher ist man ständig bemüht, mit höchster Qualität zu arbeiten und sich ständig zu verbessern. Eine optimale Grundlage dafür bieten unterschiedliche Qualitätsmanagement- Systeme, wie zum Beispiel das Konzept der ISO 9001:2008. Im Zuge dieser Diplomarbeit soll die Bedeutung von Qualität für den Krankenhausbetrieb, speziell für den Laborbetrieb aber auch für Patienten dargestellt werden. Weiters soll die ISO 9001:2008 im Bezug zum medizinischen Labor kritisch hinterfragt und auf Benefits untersucht werden. Ebenso sollen auf Basis der Forderung nach ständiger Verbesserung, mögliche Verbesserungspotentiale bei der Arbeit mit Patientenproben ausgearbeitet werden. Das Ergebnis dieser Arbeit ist, dass das Institut für Labormedizin ein gut organisierter Arbeitsbereich mit hoher Qualität ist, aber dennoch Verbesserungsmöglichkeiten bestehen. Wie diese Arbeit eindeutig zeigt, wird die Einführung eines QM- Systems sowie einer anschließenden Zertifizierung in Benefits für das Labor resultieren.

Diplomarbeitsposter Ladengruber Roland

Roland Ladengruber

Masterstudium Business Informatics
Abstract:

Zu Beginn dieser Diplomarbeit werden einige didaktische Konzepte kurz umrissen, um zu vermitteln, wie die im weiteren Verlauf der Arbeit vorgestellten komplexen Prozesse und Technologien bestmöglich gelehrt werden können. Ein weiteres zentrales Ziel der Arbeit ist die Verbesserung von Instandhaltungsprozessen dahingehend, dass mit Hilfe der IT unter Verwendung von mobilen Endgeräten, sowie einem ERP System und modernen Kommunikationstechnologien, die Instandhaltungsabwicklung in komplexen Organisationen verbessert werden kann. Durch den Einsatz der mobilen Erfassung von Instandhaltungsmeldungen, müssen nach der Wartung bzw. Inspektion die Daten eines Objektes nicht noch einmal manuell im ERP System erfasst werden. Die Vorteile der mobilen Instandhaltung erzielen außerdem Arbeitserleichterungen, sowie die elektronische Erfassung der instand zu haltenden Objekte, wodurch entsprechende Auswertungen (z.B. für das Management oder Controlling) automatisch erstellt werden können. Im Theorieteil wird die Thematik der Instandhaltung basierend auf aktueller Literatur erläutert. Es wird außerdem der im praktischen Teil der Arbeit implementierte Prozess zur mobilen Erfassung von SAP Instandhaltungsmeldungen detailliert beschrieben. Im praktischen Teil wird der im theoretischen Teil abgebildete Prozess realisiert. Dazu muss analysiert werden, welche Vorbereitungen bzw. Vorbedingungen zur Umsetzung des Prozesses gegeben sein müssen. Einige Vorteile der selbstentwickelten Lösung zur mobilen Erfassung von SAP Instandhaltungsmeldungen sind zum Beispiel die Lauffähigkeit der Applikation auf allen mobilen Geräten mit Internetzugang, oder die einfache und flexible Erweiterbarkeit dieser Lösung. Abgerundet wird die Arbeit mit einem Zukunftsausblick zur Lösung der Eingabeproblematik auf mobilen Geräten mittels Data Matrix Barcodes und der RFID Technologie.

Diplomarbeitsposter Löschenbrand Stefan

Stefan Löschenbrand

Masterstudium Business Informatics
Abstract:

Schwerpunkt der vorliegenden Arbeit ist die Untersuchung der Auswirkungen der Finanzmarktkrise (Höhepunkt im Oktober 2008) auf die Bonitätseinschätzung der Bankenbranche in Österreich. Als zu untersuchender Zeitraum wurde Oktober 2007 - Oktober 2009 gewählt. Um eine aussagekräftige Analyse des österreichischen Banksektors für die Diplomarbeit zu gewährleisten, wurden als zu untersuchende Institute die vier bilanzsummenstärksten Banken selektiert. Dies sind neben der Ersten Bank die UniCredit Bank Austria, die Raiffeisen Zentralbank und die Österreichische Volksbanken AG. Für die Bonitätsanalyse der Banken werden Informationen von Ratingsystemen herangezogen. Dem gegenüber steht die Berechnung der Credit Spreads einzelner Finanzinstitute, welche aus den Anleihenkursen mittels „Schnürsenkelverfahren“ (Bootstrapping) hergeleitet werden. Diese beiden Bewertungsinformationen, die Ratings und die Credit Spreads, werden anschließend miteinander verglichen, wodurch institutionelle Einschätzungen der Entwicklung von Marktparametern gegenüber stehen. Ein weiterer Aufgabenpunkt der Diplomarbeit liegt darin, die strukturellen Unterschiede im Bankenaufbau der einzelnen Institute zu untersuchen, um unterschiedliche Bonitätsbewertungen beziehungsweise Entwicklungen der Credit Spreads am Markt erklären zu können. Die Ergebnisse liefern interessante Aspekte. Der Credit Spread der Banken hat sich schon vor dem Höhepunkt der Finanzmarktkrise ausgedehnt und nicht erst schlagartig zum Zeitpunkt Oktober 2008. Da sich die Bonität der einzelnen Banken im Preisaufschlag, also im Credit Spread, widerspiegelt, wäre diese Informationsgewinnung bezüglich Bonitätseinschätzung akkurater gewesen als jene von Ratingagenturen. Die Sektoranalyse der heimischen Bankenbranche zeigt, dass diese Bewertungsinformationen mit dem Bankenaufbau der einzelnen Institute nur sehr wenig korrelieren.

Diplomarbeitsposter Steindl Christian

Christian Steindl

Masterstudium Business Informatics
Abstract:

In dieser Arbeit wird ein Einblick auf die Konzepte des Projektmanagements und des Multiprojektmanagements gegeben. Aufbauend auf diesen Grundlagen wurde ein Projektmanagementleitfaden erarbeitet, der es ermöglicht mehrere Projekte gleichzeitig und sowie ein Projekt von Anfang bis Ende zu managen. Dazu wurden Templates definiert, die die wichtigsten Informationen für die durchzuführenden Projekte erfasst. Des Weiteren werden Verbesserungsvorschläge gegeben, um das vorhandene Projektmanagement-Tool den veränderten Bedingungen anzupassen.

(vor 2018) Institut für Automatisierungs- und Regelungstechnik

Diplomarbeitsposter Luckner Werner

Werner Luckner

Masterstudium Technische Informatik
Abstract:

Um die Energiekosten eines Gebäudes effektiv zu senken, ist eine hochwertige Energieberatung notwendig. Damit hierbei das bestmögliche Ergebnis erreicht werden kann, sind möglichst genaue Verbrauchsmessdaten erforderlich. Dies ist allerdings mit den aktuellen Ableseintervallen nicht zu erreichen. Daher beschäftigt sich die vorliegende Diplomarbeit mit der automatisierten Datenerfassung und Datenhaltung von Energieverbrauchsdaten (z.B. Strom-, Gas-, Wasserzählerständen). Dadurch kann erstens sehr viel häufiger der aktuelle Verbrauchswert ermittelt werden und zweitens muss der Energielieferant kein Personal mehr beschäftigen, welches in jedem Haushalt die Zähler händisch abliest. Um unerlaubten Zugriff auf die Daten zu verhindern, findet die Speicherung der Daten verschlüsselt statt. Weiters wurde die Möglichkeit geschaffen, durch Gewährung des Zugriffs auf die entsprechenden Datensatzschlüssel des Kunden, einem bestimmten Energieberater den Zugriff auf ausgewählte Datensätze zu gewähren. Diese Daten können nun vom Berater dazu genutzt werden, ein Konzept für die Einsparung des Energieverbrauchs auszuarbeiten. Damit das bestmöglich durchgeführt werden kann, hat der Kunde die Möglichkeit, eine Beschreibung seiner Immobilien zu speichern und Dokumente zu diesen Immobilien hochzuladen. Auch diese Informationen kann der Kunde, durch Freigabe der entsprechenden Schlüssel, dem Berater zukommen lassen. Diese Arbeit stellt ein Softwarekonzept für das eben beschriebene System dar. Dazu wird zuerst das gegebene Problem analysiert und allgemeine Designkonzepte vorgestellt. Danach werden die Abläufe der einzelnen Systemprozesse detailliert beschrieben. Weiters wird die Demo-Applikation vorgestellt, welche alle Interfaces zwischen den Komponenten und alle Systemprozesse implementiert. Anschließend wird die beschriebene Lösung aus verschiedenen Blickwinkeln diskutiert und ein Vergleich mit dem Google PowerMeter angestellt.

(vor 2018) Institut für Computertechnik

Diplomarbeitsposter Fauster Loris

Loris Fauster

Masterstudium Technische Informatik
Abstract:

Tritt während des Betriebes eines sicherheitskritischen Systems ein Design-Fehler auf, so muss es möglich sein, diesen Fehler zu erkennen und tolerieren. Werden seriengefertigte Komponenten (so genannte COTS) verwendet, so sind derartige Mechanismen noch wichtiger, da diese häufig fehleranfälliger sind. So können etwa moderne Mikroprozessoren mehrere Dutzend Fehler (so genannte Errata) enthalten. Diese Arbeit beschäftigt sich zuerst mit der Erstellung einer Klassifizierung dieser, in CPUs vorhandenen, Errata und der Anwendung dieser Einteilung an zwei aktuellen Mikroprozessor-Serien aus dem Desktop-Bereich. Anschließend wird die Frage behandelt, inwieweit Softwarediversität – welche durch unterschiedliche Compiler bzw. unterschiedlichen Compileroptionen entsteht – es erlaubt, diese Fehler zu erkennen und tolerieren. Dazu wurde ein Programm erstellt, welches es ermöglicht, diese Art von Diversität anhand unterschiedlicher Faktoren, wie etwa die Reihenfolge von CPU-Instruktionen, zu quantifizieren und somit Rückschlüsse auf die Wirksamkeit zu ermöglichen. Es konnte unter anderem festgestellt werden, dass eine Vielzahl der Errata an teilweise sehr stringente Bedingungen gebunden sind, d. h. eine kleine Veränderung bereits das Eintreten eines Erratums verhindern kann. Zusammen mit den Ergebnissen aus der Anwendung des erstellten Programmes an fünf verschiedenen Testprogrammen, konnte gezeigt werden, dass – abhängig von den verwendeten Compileroptionen und Programmen – teilweise deutliche Diversität (durchschnittlich 29%) erzeugt wird, die sich hinsichtlich der Erkennung von potenziell vorhandenen Errata positiv auswirkt.

Diplomarbeitsposter Gartner Roswitha Edith

Roswitha Edith Gartner

Masterstudium Informatikmanagement
Abstract:

The Bubble Family Game (BFG) in the project ARS is applying neuro-psychoanalytic-inspired approaches to autonomous agents. The BFG is a simulation environment for agents, who are embedded in a simplified virtual environment. Agents are provided with a neuro-psychoanalytic inspired decision unit, perception, and actions for their decisions. This thesis introduces a framework for pathplanning of an agent. The planning algorithm first finds the agent´s desired destination, and secondly plans the way to go there. A module for planning was developed, which uses the agent´s abilities, emotions and de-sires to figure out which kind of destiny should be achieved. In a next step, the developed algorithm calculates the cost to reach each possible position for the selected type and returns the best path. The planning module is a separate part of the BFG, with a well-defined interface, and for optional use. Per-formance and accuracy of the planning module is adjustable. Embedded in BFG, the planning module extends the agents abilities and enables them to reach every desired destination if possible. Prospective upgrading in the area of better algorithms or extensions is enabled by the framework. The framework allows later changes of the neuro-psychoanalytic inspired host system and additional implementation of further planning algorithms due to its modularity.

Diplomarbeitsposter Poisel Rainer

Rainer Poisel

Masterstudium Informatikmanagement
Abstract:

'Digital Rights Management' (DRM) versucht die mit dem Vertrieb und der Generierung analoger Medien verbundenen Rechte auf digitale Medien umzulegen. Der Verwendungskontext digitaler Medien steht dabei im Kontrast zu jenem von analogen Medien. So kann selbst beim Einsatz effektiver Verschlüsselungstechnologien der digitale Datenstrom oft problemlos in brauchbarer Form verbreitet werden. Einmal in ein analoges Format umgewandelt wird nahezu jeder Kopierschutzmechanismus unwirksam. Seitens der Medienindustrie erhofft man sich durch den Einsatz von 'Digital Rights Management' eine Eindämmung der durch die illegale Vervielfältigung von rechtlich geschützten Werken verursachten finanziellen Verluste. Dem gegenüber steht die Nutzerschaft, die sich in ihren Nutzungsrechten eingschränkt sieht. Die zuvor dargestellte Thematik soll an postsekundäre Bildungseinrichtungen gelehrt werden. Die Vermittlung des Wissens erfolgt dabei unter Berücksichtigung der persönlichen Meinungsbildung der Kursteilnehmer. Forschungsleitende Fragestellung für das vorliegende Dokument war die Ermittlung der didaktischen Konzepte, sowie deren Einsatzmöglichkeiten, um die angeführten Lehrinhalte erfolgreich zu vermitteln. Zur Beantwortung der Forschungsfrage wurde eine Literaturrecherche durchgeführt, um geeignete Studienpläne, Lehrinhalte und Lehrmethoden zu eruieren. Ergebnis dieser Diplomarbeit sind die zum Einsatz kommenden Lehrkonzepte, sowie die entsprechend aufbereiteten Inhalte. Die Praxistauglichkeit wurde in Form einer Lehrveranstaltung an der Fachhochschule St. Pölten im fünften Semester des Studienganges 'IT Security' erprobt. Das Feedback seitens der Teilnehmer war durchwegs positiv. Daraus lässt sich schlieÿen, dass die im Unterricht angewandten didaktischen Konzepte für die Vermittlung dieser Lehrinhalte geeignet sind.

Diplomarbeitsposter Schuster Alexandra

Alexandra Schuster

Masterstudium Technische Informatik
Abstract:

Die Sicherheit auf öffentlichen Straßen war schon vor der Einführung von Autos, während das Hauptverkehrsmittel noch aus Pferdekutschen bestand, ein wichtiger Forschungsbereich weltweit. Vor etwa 30 Jahren entdeckten Wissenschaftler zusätzlich zu Sensor- und Kameratechniken das Potential von drahtloser Kommunikation für private und öffentliche Verkehrsmittel. Seitdem entstehen jährlich zahlreiche neue Projekte, die sich intensiv an der Verwirklichung von Kommunikation zwischen Fahrzeugen und zwischen Fahrzeugen und fixen Standpunkten. Das gemeinsame Hauptziel ist dabei die Verringerung der jährlichen Verkehrsunfälle um circa 60% in den nächsten zehn Jahren. Diese Diplomarbeit listet nennenswerte Organisationen und Projekte weltweit auf und beschreibt sie. Des weiteren beschaeftigt sich die Arbeit mit drahtlosen Kommunikationstechnologien, welche derzeit auf Anwendbarkeit fuer Kommunikation auf den Straßen überprüft werden. Zwei nennenswerte neue Technologien sind dabei der amerikanische IEEE 802.11p Standard und die in Europa entwickelte Kommunikationsarchitektur CALM. Beide werden in der Literatur als sehr vielversprechend tituliert und in dieser Arbeit genauer beschrieben. Es wird auf Vorzüge und Schwachstellen und auf mögliche Verbesserungen hingewiesen. Anschließend wird auf Probleme bei der Einführung der Fahrzeugkommunikation am Markt eingegangen und es werden mehrere Lösungsvorschläge eingebracht. Es wird mit dieser Arbeit gezeigt, dass in den nächsten zehn Jahren die Verkehrssicherheit hauptsächtlich durch Kommunikation zwischen fixen Standpunkten und Fahrzeugen verbessert wird. Direkte Kommunikation zwischen Fahrzeugen ist jedoch sehr vielversprechend und wird Fahrzeiten und Unfälle nach der Einführung mehr und mehr verringern. Zusätzlich wird auch detaillierter auf die Security und Privacy Aspekte der Fahrzeugkommunikation eingegangen und Probleme werden erläutert.

In Zusammenarbeit mit anderen wissenschaftlichen Einrichtungen

(vor 2012) E029 - Institut "integriert studieren"

Diplomarbeitsposter Ortner Wolfgang Andreas

Wolfgang Andreas Ortner

Masterstudium Medizinische Informatik
Abstract:

Unsere Gesellschaft befindet sich derzeit in einem Umbruch. Die Lebenserwartung steigt ständig, wohingegen die Geburtenrate zurückgeht. Diese Entwicklung wird in naher Zukunft zu einer größeren Alterung der Gesellschaft führen. Einher gehen damit die Probleme, die Betreuung von älteren Menschen sicherzustellen. Um dieses Problem zu verringern ist es notwendig, Technologien zu entwickeln, die es älteren Personen ermöglicht länger und unabhängiger in den eigenen vier Wänden zu wohnen. Diese Arbeit beschäftigt sich dabei mit der Entwicklung einer Steuerungseinheit, zur Bedienung verschiedener Geräte im Haushalt. So soll etwa die Steuerung des Fernsehers aber auch von Smart Home Anwendungen (wie die Fernsteuerung des Lichtes) ermöglicht werden bzw. das Gerät auch als Telefon einsetzbar sein. Die Steuerung erfolgt dabei mit Hilfe von Gesten, was verhindert, dass die Benutzer durch eine Vielzahl an Knöpfen/Tasten verwirrt werden. Um die Auswahl der Anwendungen zu vereinfachen, werden Sensorleisten an den zu steuernden Geräten angebracht. Die zukünftigen Benutzer müssen somit nur auf das gewünschte Gerät zeigen und benötigen keine komplizierten Auswahlmechanismen. Diese Steuerungseinheit soll die angesprochene Zielgruppe jedoch nicht überfordern. Um die Akzeptanz in der Zielgruppe zu garantieren, wurde in dieser Arbeit gemeinsam mit den zukünftigen Benutzern, ein Modell für eine Steuerung entwickelt. Diese Steuerung ähnelt dabei einer Fernseher-Fernbedienung, lässt sich aber im Gegensatz dazu leichter über verschiedene Gesten steuern. Mit Hilfe unterschiedlicher Forschungsmethoden (Interview, Befragung, Fragebogen etc.) konnten die Wünsche und Anforderungen definiert werden. Gemeinsam mit den Teilnehmern wurden mehrere Mock-Ups entwickelt, die die zukünftige Anwendung abbilden.

Universität Wien