EPILOG Sommersemester 2011

Auszeichnungen

Ausgestellte Arbeiten

Institut für (vor 2018) Technische InformatikE182

Arbeitsbereich (vor 2018) Cyber-Physical Systems

Diplomarbeitsposter Fischer Bernhard

Bernhard Fischer

Masterstudium Informatikmanagement
Abstract:

Model-based development (MBD) approaches design challenges with ever increasing demands on embedded products by abstraction with models. The concepts of MBD separate concerns by providing just the necessary details for each activity in the development process. Literature about model-based development for embedded systems is widely scattered and its contents are either devoted to a small sub-set of specific modeling topics or approach the subject from a rather general/conceptual viewpoint. Drawing a big-picture of the current state of the art in modeling of embedded systems is a very demanding task due to all the different involved and mixed topics. This thesis comprises an exhaustive literature research investigating modeling concepts for embedded systems. Several modeling techniques, tools and system development methods are presented and modeling challenges are discussed.

Diplomarbeitsposter Haas Walter

Walter Haas

Masterstudium Technische Informatik
Abstract:

Beim Testen von Software und für die Measurement Based Timing Analysis wird oft das Einhalten bestimmter Code Coverage Kriterien verlangt. Vorzugsweise werden die Testdaten aus einer höheren Repräsentationsform des getesteten Programms abgeleitet, beispielsweise aus dem Source Code. Moderne Compiler nehmen beim Erzeugen des Maschinencodes jedoch zahlreiche Optimierungen vor, um die Eigenschaften der verwendeten Zielplattform, beispielsweise durch Parallelverarbeitung oder hierarchisch organisierte Zwischenspeicher (Cache), so gut wie möglich auszunutzen. Solche Optimierungen können jedoch die strukturelle Code Coverage zerstören, die in der höheren Repräsentationsform bereits erzielt wurde. Eine Möglichkeit dieses Problem zu umgehen ist, Code Optimierungen vorab zu analysieren, ob sie eine bestimmte Art der strukturellen Code Coverage bewahren oder nicht. So kann für jede Code Optimierung ein Coverage Profil erstellt werden. Ein Compiler kann die vorhandenen Profile dann benutzen, um entweder beim Übersetzungsvorgang nur Optimierungen vorzunehmen, welche die entsprechende Code Coverage erhalten, oder um eine Warnung auszugeben falls eine angewendete Optimierung die Erhaltung einer bestimmten Code Coverage nicht sicherstellt. Diese Diplomarbeit entwickelt ein System zur automatischen Analyse von Code Transformationen in Hinblick auf die Erhaltung struktureller Code Coverage Kriterien. Die Analyse basiert auf einer bereits vorhandenen, formalen Theorie der Code Coverage Erhaltung. Der erste Teil der Arbeit führt eine formale Beschreibung von Code-Transformationen ein. Der zweite Teil überträgt den zuvor eingeführten Formalismus in ein mathematisches Software-System, um eine automatische Analyse von Code Transformationen bezüglich der Erhaltung bestimmter Arten von Code Coverage durchzuführen und daraus ein Coverage Profil zu erstellen. Die Anwendbarkeit des Lösungsansatzes wird schließlich im dritten Teil anhand mehrerer Analyse Beispiele gezeigt.

Diplomarbeitsposter Hilber Peter

Peter Hilber

Masterstudium Technische Informatik
Abstract:

Transactional memory is an alternative to conventional lock-based synchronization. Locks are difficult to use and not composable; transactional memory offers a simple programming model and the high concurrency desired for future multiprocessors. While actually multiple threads concurrently access shared data, the results look as if code sections (transactions) had been executed sequentially. Conflicts among concurrent transactions are automatically resolved. To our knowledge, there is currently no transactional memory system suitable for hard real-time systems on multiprocessors. Real-time transactional memory (RTTM) is a proposal of a time-predictable transactional memory for chip multiprocessors. The main goals of RTTM are a simple programming model and analyzable timing properties. Static analysis detects non-conflicting transactions, which lowers the worst-case execution time bounds. In this master's thesis, RTTM was implemented on an FPGA and the viability of the implementation was evaluated. For time-predictable execution, RTTM is hardware-based. Each core gets a small, fully associative cache which tracks the memory accesses in a transaction. RTTM was implemented on JOP, a time-predictable chip multiprocessor directly executing Java bytecode. The basic programming interface is the @atomic method annotation. The FPGA-based implementation supports small transactions suitable for synchronization in embedded real-time applications. Up to 12 cores fit on a low-cost Cyclone II FPGA running at 90 MHz with a device utilization of more than 90%. The RTTM hardware is costly due to the fully associative cache, but does not dominate the hardware resource consumption. The close relationship of the processor to the Java Virtual Machine enables some resource-saving optimizations. A part of RTTM was implemented in software. As a preparation for tool-based worst-case execution time analysis, the execution time of individual RTTM operations was bounded.

Diplomarbeitsposter Mair Thomas

Thomas Mair

Masterstudium Technische Informatik
Abstract:

This thesis investigates on the secure sharing of information in a mixed-criticality system. Our approach to fulfil these safety and security requirements is to establish a set of strict rules for the communication between the tasks of the different integrity levels. These rules implement an integrity model and have to guarantee that the information flow between the criticality levels happens appropriately. In many applications it also might be required to use a piece of unreliable information from a low criticality level in a higher one. Communication in this direction is considered as illegal in many integrity models. This thesis introduces a mechanism called "Validation Middleware" which upgrades the reliability of data from diverse redundant sources. For this, inexact voting techniques are realised which produce a trusted output and define a criteria for determining correct and incorrect. These mechanisms were developed and studied in context of the Time-Triggered System-On-Chip architecture. This architecture provides a spatial and temporal firewall between each task by partitioning the system into single autonomous subsystems called the micro components. These subsystems are connected through a deterministic Network-on-Chip which uses so-called encapsulated communication channels to prevent the messages from interfering with each other. We tested the fault tolerance mechanisms inside the "Validation Middleware", by creating an application from the automotive context which compasses ABS and odometer subsystems. Our results show that the deterministic behaviour of the Network-on-Chip and the temporal and spatial partitioning of the encapsulated communication channels, combined with the use of Totel's integrity policies, provides a suitable environment for the use in a mixed-criticality application. In addition, we point out the existence of a middleware in the Time-Triggered System-on-Chip architecture, which enables upstream communication flows.

Diplomarbeitsposter Martinek Christoph

Christoph Martinek

Masterstudium Technische Informatik
Abstract:

Bei Echtzeitsystemen ist die Analyse der Worst-Case-Execution-Time (WCET) von entscheidender Bedeutung. Die Kenntnis über diese maximale Ausführungszeit führt zu einer notwendigen Vorhersage des Zeitverhaltens bei zeitkritischen Systemen. Um eine detaillierte Untersuchung des Zeitverhaltens eines Programms durchzuführen, ist in modernen Echtzeitsystemen, in denen unterschiedliche Cache- und Pipeline-Architekturen vorkommen, das Wissen über den Verlauf einer Ausführung von Wichtigkeit. Mit diesen Informationen können Besonderheiten, nämlich sogenannte Zeitanomalien, analysiert und notwendige Bedingungen dafür hergeleitet werden. Beim Auftreten von Zeitanomalien wird im Verlauf einer Ausführung die Eigenschaft Proportionalität im zeitlichen Verhalten verletzt. In dieser Diplomarbeit werden die wichtigsten Zeitanomalien charakterisiert und Methoden vorgestellt, mit denen sich gewisse Anomalien bezüglich der Berechnung der WCET berechnen lassen. Darunter fallen serielle Zeitanomalien, welche über eine Anzahl von unterschiedlichen Pfaden auftreten können, und parallele Anomalien, bei denen der timing-relevant dynamic computer state (TRDCS) in unterschiedliche Hardwarekomponenten aufgeteilt wird. Für eine aussagekräftige Analyse ist eine genaue Erforschung von Zeitanomalien in verschiedenen Cache- sowie in Pipeline-Architekturen erforderlich. Es werden hier die Cache-Ersetzungsstrategien FIFO, Pseudo Round Robin und Pseudo LRU genauer betrachtet. Bei Pipeline-Architekturen werden Simple Scalar-, Scalar-, Superscalar In-Order und Super-scalar Out-of-Order-Pipelines untersucht. Es werden Vorbedingungen für Zeitanomalien ausgearbeitet, die in diesen Architekturen auftreten können. Darüber hinaus wird gewissermaßen eine Checkliste erarbeitet, mit der Prozessoren betreffend der eintretenden Zeitanomalien eingestuft werden können.

Diplomarbeitsposter Prokesch Daniel

Daniel Prokesch

Masterstudium Technische Informatik
Abstract:

In den letzten Jahren haben sich zunehmend Mehrkernprozessoren im Bereich der Universalrechner etabliert. Um die Vorteile der zunehmend ansteigenden Anzahl von Rechenkernen nutzen zu können, sind Programmierparadigmen notwendig, welche die Ableitung von Nebenläufigkeiten erleichtern bzw. erst ermöglichen. S-Net ist eine deklarative Koordinationssprache, deren Ziel es ist, die Programmierung von Nebenläufigkeit und Programmlogik zu trennen. Dabei wird die Koordination von Netzen bestehend aus asynchronen, zustandslosen und mittels typisierter Datenströmen verbundener Komponenten definiert. Netzwerke werden in S-Net durch algebraische Formeln ausgedrückt, bestehend aus vier Kombinatoren, nämlich serieller und paralleler Komposition, sowie serieller und paralleler Replikation. Das Ziel dieser Arbeit ist es, das bestehende Laufzeitsystem dahingehend zu erweitern, dass es zwei Anforderungen genügt. Erstens soll es ermöglicht werden, Informationen über die Ausführungszeiten der Laufzeitkomponenten oder die Auslastung der Kommunikationskanäle zu sammeln. Zweitens soll es die Möglichkeit zur Kontrolle des Schedulings der Komponenten geben. Durch Recherche von bestehenden, auf Datenstromverarbeitung basierenden (Laufzeit-)Systemen wurden Konzepte für eine leichtgewichtige parallele Ausführungsschicht erarbeitet, welche Komponenten, die mittels gerichteter und gepufferter Datenströme kommunizieren, auf User-Ebene verwaltet, wobei besonderes Augenmerk auf die Anforderungen des S-Net Modells und effiziente Synchronisationsmechanismen gelegt werden musste. Experimente mit dem S-Net Laufzeitsystem und der neuen Ausführungsschicht zeigen eine effiziente Ressourcennutzung selbst bei vielen zu verwaltenden Komponenten. Die zur Laufzeit gewonnene Information kann erfolgreich genutzt werden, um den erforderlichen Rechenaufwand der Komponenten zu ermitteln, sowie um anwendungsspezifische Scheduling- und Platzierungsstrategien abzuleiten.

Diplomarbeitsposter Rosensteiner Sebastian

Sebastian Rosensteiner

Masterstudium Information & Knowledge Management
Abstract:

Die modellbasierte Softwareentwicklung für sicherheitskritische Systeme ist in der Automobilindustrie mittlerweile gut etabliert. Immer mehr sicherheitsrelevante Funktionen im Fahrzeug werden von Software gesteuert, wie beispielsweise geregelte Bremssysteme oder Fahrerassistenzsysteme. Die für die Entwicklung solcher Systeme geltenden Standards der funktionalen Sicherheit, wie der zukünftige Standard ISO 26262, verlangen eine Qualifizierung der Entwurfswerkzeuge und auch unterstützender Werkzeuge, um ausschließen zu können, dass diese Fehler in den Entwicklungs- und Codegenerierungsprozess einbringen. Die Anforderungen für die Qualifizierung sind dabei von dem konkreten sicherheitskritischen System und dem ermittelten ASIL Level (Automotive Safety Integrity Level) abhängig. Im Rahmen dieser Diplomarbeit wurden – in Zusammenarbeit mit der Firma Magna Steyr Fahrzeugtechnik – die Anforderungen des Standards ISO 26262 genau betrachtet. Im Speziellen wurden die Anforderungen an die Qualifizierung der Toolkette für modellbasierte Softwareentwicklung evaluiert, ein Vergleich der in der Literatur dazu präsentierten Konzepte vorgenommen und ein unter-stützendes Tool für die Qualifizierung der bei MSF verwendeten Toolkette (TargetLink basierend auf Matlab/Simulink) evaluiert. Dabei wurde ein Test Algorithmus zur Durchführung von Back-to-back Tests entwickelt, der dem Standard ISO 26262 genügt.

Arbeitsbereich (vor 2018) Embedded Computing Systems

Diplomarbeitsposter Walter Martin

Martin Walter

Masterstudium Technische Informatik
Abstract:

Das Hardware/Software Interface einer Rechnerarchitektur umfasst all jene Möglichkeiten mittels derer Informationen über die Grenze zwischen Hardware und Software hinweg übermittelt werden können. Die Bestandteile des Hardware/Software Interfaces finden sich daher in einer Vielzahl von Systemprogrammen, allen voran Compiler, Assembler und Linker wieder, in denen sie die Regeln für die Übersetzung von Quellcode einer Hochsprache in ein ausführbares Programm in der jeweiligen Maschinensprache vorgeben. Durch die kollektive Einhaltung dieser Regeln für eine bestimmte Architektur wird es ermöglicht, Anwendungen einmalig zu kompilieren und auf einem beliebigen Prozessor ausführen zu lassen, der eben diese Architektur implementiert. Im Rahmen dieser Diplomarbeit wird das Hardware/Software Interface des SPEAR2, einer am Institut für Technische Informatik der Technischen Universität Wien entwickelten soft-core Architektur, von Grund auf erarbeitet. Die Erkenntnisse werden dabei sowohl von einer bestehenden Sammlung mittlerweile nicht mehr zeitgemäßer Systemprogramme, als auch von den Quellcodes der Architektur selbst, gewonnen. Schlussendlich werden sich diese als unverzichtbar erweisen, wenn die Portierung und Integration einer Sammlung aktueller Entwicklungs-Tools, vorwiegend aus dem GNU Projekt, in eine funktionsfähige, wohl aufeinander abgestimmte, Toolchain vorgenommen werden soll.

Institut für (vor 2018) Rechnergestützte AutomationE183

Arbeitsbereich (vor 2018) Automatisierungssysteme

Diplomarbeitsposter Abinger Thomas

Thomas Abinger

Masterstudium Medizinische Informatik
Abstract:

Diese Arbeit verfolgt die Idee, ein Haus oder Gebäude zu schaffen, das sich automatisch an die Bedürfnisse und Wünsche der Bewohner anpasst. Damit sich ein Bewohner bei einer bestimmten Tätigkeit wohlfühlt, sind oft mehrere Betriebsparameter aus technischen Systemen unterschiedlicher Gewerke aufeinander abzustimmen. Weiters sollen individuelle Eigenschaften des Gebäudes in die Steuerung und Regelung mit einbezogen werden. Stehen unterschiedliche Alternativen für eine Steuerung/Regelung zur Verfügung, soll die kostengünstigste Option gewählt werden, ohne dabei den Komfort der Bewohner zu schmälern. In dieser Arbeit werden in zwei Schwerpunkten Mittel untersucht, selbstlernendes Systemverhalten in der Heimautomation umzusetzen. Der erste Schwerpunkt liegt auf der Frage, wie mit Hilfe künstlich neuronaler Netze die komplexen Einflussfaktoren Mensch, Gebäude, Gebäudetechnik und Umgebung in einem intelligenten Heizungsregelkreis gefasst werden können. Die für diesen Zweck erstellten künstlich neuronalen Netze sind vom Typ der Feed Forward-Netze, Jordan-Netze und Simple Recurrent Networks und verändern nach einem zeitlichen Raumbelegungsplan, den Raum- und Außentemperaturen sowie der aktuellen Uhrzeit den Sollwert eines herkömmlichen Heizungsreglers. Die so gegenüber einer herkömmlichen, rein uhrzeitabhängigen Strategie erzielbare Effizienzsteigerung wird in einer physikbasierten Simulation bestimmt. Der zweite Schwerpunkt liegt auf der Strukturierung der komplexen Steuerungsaufgaben im Rahmen eines selbstlernenden Softwaresystems. Die Lern- sowie Steuerungs- und Regelungsaufgaben werden dazu als Multiagentensystem abgebildet. Verschiedene, an diesen Aufgaben orientierte Agententypen werden modelliert und deren dynamisches Zusammenspiel betrachtet.

Diplomarbeitsposter Ansari Rana

Rana Ansari

Masterstudium Informatikmanagement
Abstract:

Im Bereich der Netzwerktechnik sind bei potenziellen Arbeitgebern Praxiskenntnisse sehr gefragt. Allerdings sind dedizierte Netzwerklabore teuer und müssen, zusätzlich zu den Anschaffungskosten, laufend technischem Support und Wartung unterzogen werden. Daher wird der schulische Netzwerkunterricht großteils theoretisch gehalten. Durch die mangelhafte Ausstattung der Schullabors ist die Dimension, in der Konzepte vermittelt werden können, sehr beschränkt, d.h. in den Labornetzwerken können nur Netzwerke mit geringer Teilnehmerzahl simuliert werden. Diese Arbeit setzt sich mit möglichen Lösungen für dieses Ressourcenbzw. Kostenproblem bei der Verwendung von dedizierten (echten) Netzwerklabors auseinander. Das Problem wird durch den Einsatz interaktiver Lehr- und Lernmittel (Netzwerksimulatoren) für die Verbesserung der Unterrichtsqualität im Fach Netzwerktechnik des 3. Jahrgangs einer HTL für Informationstechnologie gelöst. Es wurde nach passenden Werkzeugen für den Unterricht gesucht und die drei am besten geeigneten miteinander verglichen. Dem folgen Vorschläge für die Umsetzung in den jeweiligen Jahrgängen 3 bis 5, wie beispielsweise in Form von praktischen Unterrichteinheiten (Labors) für die Umsetzung im Netzwerkunterricht laut Lehrplan des 3. Jahrgangs der HTL Informationstechnologie mit dem iNetwork-Simulator.

Diplomarbeitsposter Arzberger Markus

Markus Arzberger

Masterstudium Informatikmanagement
Abstract:

To develop a “learning processes to create an awareness according to the usage of energy” means, first of all, to get information about energy flows and to learn who is causing it. After looking into the figures, it turns out that this is not sustainable at all and therefore will not work for long. Another challenge is to find out what are the key elements when it comes to the creation of awareness towards a more sustainable way of life. It is a major task to achieve this goal primary through self-awareness. It follows a change which is done voluntarily and not caused by forcing people through laws, interdictions and fines. For the scope of this paper only the energy interplay (input, output) within Austria has been taken into account and was compared to other countries. A simulation, which is executed in Consideo Modeler, shows the models behaviour until 2100; in this paper the model is Austria. Another element is the questionnaire with the intention to build a connection between awareness and creation of knowledge. Keywords describe its content as: actual condition (Austria); ability of transformation (CO2); maximum; population (responsible for CO2 output due to: mobility, heating, consumption...); driver (cars, planes, whats their output?); allocation of CO2 emissions. In a pedagogic approach of discovering, cognition and discussion the target groups become motivated, to voluntarily change habits in the fields of mobility and housing. The surveys results affect the learning platforms concept, which was created in order to increase awareness about energy consumption.

Diplomarbeitsposter Brauner Andreas

Andreas Brauner

Masterstudium Business Informatics
Abstract:

Mit der steigenden Durchdringung von IT Systemen in Unternehmen wuchsen sowohl die Anforderungen bezüglich Stabilität, Zuverlässigkeit, Wartbarkeit als auch die Erwartungshaltung bezüglich kontinuierlicher Verbesserung. Durch die historische Entwicklung in den letzten Jahrzehnten sind IT Systeme zerklüftet und Redundanzen herrschen vor. Es ist eine Herausforderung komplexe, unabhängige Systeme miteinander zu verknüpfen und gleichzeitig die Benutzerfreundlichkeit, Zuverlässigkeit, Sicherheit, Verfügbarkeit, Fehlerausfallsicherheit und Wartbarkeit zu erhöhen. Das Ziel dieser Studie ist die Recherche der Anforderungen eines vereinheitlichten und vereinten Marktdatensystems in einer komplexen IT Umgebung als Fallstudie und die Analyse von Implementierungsmöglichkeiten in einer Bank. Die Motivation kommt aus der erwarteten Qualitätsverbesserung der Kennzahlen und der Möglichkeit Kennzahlen von unabhängigen System miteinander vergleichen zu können, da sie auf den selben Daten basieren. Die Anwendbarkeit von Mustern wird anhand eines Prototyps gezeigt. Gesetzesänderungen, aufsichtsrechtliche Behörden und die interne Revision tragen zu wachsenden Anforderungen von IT Systemen bei. Der gewählte Ansatz besteht aus dem Verstehen der historischen Entwicklung, der Analyse des aktuellen Status, der Festlegung von Anforderungen für das neue System und dem Ausloten von Implementierungsmöglichkeiten. Abschließend zeigt ein allgemeiner Implementierungsplan, dass eine tiefgehende Analyse des aktuellen Status und die Anwendung von Standardverfahren ein nachhaltiger Weg zur Vereinheitlichung von IT Systemen sind.

Diplomarbeitsposter Buchwalder Stefan

Stefan Buchwalder

Masterstudium Business Informatics
Abstract:

Durch den Anstieg der Informations- und Kommunikationstechnologie entstehen immer mehr Computerarbeitsplätze, die eine Auseinandersetzung und Interaktion mit Softwareapplikationen, Computersystemen und im Speziellen Enterprise Ressource Planning (ERP) Systemen erfordern. Um blinde und sehbehinderte Menschen erfolgreich in den Arbeitsmarkt integrieren zu können, ist die Accessibility der ERP-Systeme Grundvoraussetzung. Aufgrund der Komplexität dieser Systeme ist eine effiziente und zufriedenstellende Zugänglichkeit jedoch nur schwer zu erreichen und es treten unterschiedliche Barrieren bei der Interaktion auf. Im Rahmen dieser Arbeit wird durch eine Kombination und Anpassung von bereits bestehenden Web Accessibility Richtlinien, individuellen Richtlinien von Geschäftssoftwareherstellern und aufbauend auf den Erkenntnissen aus einer eingehenden Literaturrecherche ein Leitfaden für die Accessibility von ERP-Systemen erstellt. Ausgehend von diesem literaturbasierten Leitfaden und der Literaturrecherche wird eine qualitative Studie durchgeführt um bestehende Probleme und Anforderungen von der Zielgruppe der blinden und sehbehinderten Benutzer zu erheben und Schwachstellen in den bereits existierenden Accessibility Lösungen aufzuzeigen. Diese gewonnenen Informationen werden in einem weiteren Schritt einer strukturierten Datenauswertung unterzogen und in den literaturbasierten Accessibility Leitfaden eingearbeitet. Das Ergebnis dieser Arbeit stellt schlussendlich ein umfassender Accessibility Leitfaden dar, der in der Entwicklungsphase eines ERP-Systems eingesetzt werden sollte um die Zugänglichkeit und Bedienbarkeit von ERP-Systemen für blinde und sehbehinderte Benutzer effizienter und barrierefreier zu gestalten.

Diplomarbeitsposter Dannhauser Sandra

Sandra Dannhauser

Masterstudium Informatikmanagement
Abstract:

Besides its focus on the adoption of a content management system (CMS), this paper also discusses the development processes and future extensions of CMS, including different scopes of functionality. In this regard, the various fields of MOSS 2007 are tested with two test groups, A and B, representing the future target group of the new system. This test proved the organization and preparation of content in MOSS 2007 to be satisfactory, despite certain drawbacks: the manipulation of the new system is still not intuitive enough for users. Analysis in this paper is based upon a usability test. The theoretical basis of this test is the usability engineering theories of Jakob Nielsen, as well as the Criteria Check List promulgated by Baumgartner, Häfele und Maier-Häfele. Moreover, the test is structured according to the common industry format (CIF) for standardization purposes. The theoretical bases for understanding user interaction with the new system are usability, human-computer-interaction, and user-centered-design. Universal usability also plays a prominent role in the analysis because users are still restricted in using different functions or even products. Apart from this, simple failure of communication and violation of company guidelines contributed greatly to user frustration. This paper focuses on a multinational company’s transition to a new intranet system, Microsoft Office SharePoint Server 2007 (MOSS 2007). It examines the problems encountered during the transition period, as well as user satisfaction and certain recurring problems during the adoption of the new system.

Diplomarbeitsposter Drienovsky Vladimir

Vladimir Drienovsky

Masterstudium Information & Knowledge Management
Abstract:

Spam e-mails often contain URLs that redirect users to another website in order to sell goods or steal user information. This redirection technique is used commonly among spammers to evade spam filters that match URLs against a blacklist. In the context of this thesis, the most prominent redirection techniques were classified and described with real-world examples to evaluate the findings. Additionally, a system for parsing and evaluating URL addresses has been developed and deployed. It has been subsequently applied to extract, crawl, and analyze the URL addresses found in a spam feed, focusing on redirection behavior. Finally, results were evaluated and the conclusion was reached that client-side redirection had been used predominantly in situations where spammers were not in total control of the hosting environment (e.g. compromised web sites). Server-side redirection, on the other hand, had been put to use above all by URL shortening services. These have become a popular tool among spammers.

Diplomarbeitsposter Freudenthaler Markus

Markus Freudenthaler

Masterstudium Business Informatics
Abstract:

In the year 2003, the German Federal Government made the decision to establish a nationwide electronic health card. This chip card was planed to be the successor of the health insurance card used until then. Aside from her characteristic as an electronic identification card, the eGK offers a lot more functionalities. At the same time, besides the optional electronic prescription, it is possible to save sensitive health information like emergency information on the chip. On one side, advantages and new possibilities for the patients are created, on the other side, it is important to minimize the risks of unauthorised access to this data. That way, the data protection becomes especially important. This diploma thesis aspires to develop appropriate safety requirements for a medical practice based on the architecture of the eGK. At the beginning, the necessary basic principles are defined. On one hand, the main points are the particular components of electronic data transmission infrastructure and on the other hand, it is important not to forged about IT-security in general. Afterwards, an example for a medical practice in the environment of the eGK will be defined as well as possible safety risks will be explained. With the help of the definition of these risks, the particular safety requirements and the resulting technical and organizational solutions will be determined.

Diplomarbeitsposter Glettler Martin

Martin Glettler

Masterstudium Information & Knowledge Management
Abstract:

Aus der zunehmenden Konvergenz von Leistung und Leistungsbedarf aktueller Systeme resultiert seit einigen Jahren eine Tendenz hin zu mehr Qualität in der Softwareentwicklung. Der Grad an Qualität beeinflusst Performance, wobei diese für stark frequentierte Systeme immer häufiger ein Problem darstellt. Im Rahmen der vorliegenden Arbeit werden im System ZMR - Zentrales Melderegister Österreich des Bundesministerium für Inneres (BM.I) mittels Methoden der Performancemessung akkurate Benchmarks erzeugt, um eine Optimierung des Systems hinsichtlich Leistung und Performance vorzunehmen. Mit hohen Anforderungen an Verfügbarkeit und Performance mit über 6.5 Mio. aufgerufenen Geschäftsfällen pro Monat und über 9 Mio. verwalteten Personen stellt das ZMR System ein geeignetes Fallbeispiel für ein Optimierungsprojekt dar. Die Tatsache dass Leistungsgrenzen moderner JEE Architekturen im Bezug auf Durchsatz und Datenhaltung ausgereizt werden ist ein weiterer wichtiger Aspekt. Die Architektur des Systems unterliegt einem kontinuierlichen Wachstumsprozess, wie er häufig bei inkrementellen Systemen, welche kontinuierlich weiterentwickelt werden, auftritt. Im Zuge der Arbeit werden dadurch unterschiedliche Ansatzpunkte mit Fokus auf reelle Optimierungspotenziale beispielsweise durch Datenbanktunings oder den Einsatz effizienterer Methoden und Bibliotheken zur XML Transformation behandelt.

Diplomarbeitsposter Gruber Markus

Markus Gruber

Masterstudium Software Engineering & Internet Computing
Abstract:

Die steigende Anzahl an Benutzern und die mangelhaften Sicherheitsmechanismen machen Voice over IP (VoIP)-Systeme bei Angreifern immer beliebter. Um sich gegen die Flut an Angriffen schützen zu können, ist es erforderlich, so viele Informationen wie möglich über VoIP-Angriffe zu sammeln, um geeignete Sicherheitsmaßnahmen treffen zu können. In dieser Arbeit werden aufgezeichnete VoIP-Angriffe analysiert und ausgewertet. Die Auswertungen zeigen Häufigkeiten der Angriffe, örtliche und zeitliche Eigenschaften von Angriffen, verwendete Angriffsmuster sowie Verhaltenseigenschaften von Angreifern auf. In korrelierenden Auswertungen werden Unterschiede zwischen den Angriffen in einem ungesicherten Bereich und einer universitären Einrichtungen aufgezeigt.

Diplomarbeitsposter Grössing Markus

Markus Grössing

Masterstudium Technische Informatik
Abstract:

Modern automotive applications are highly distributed systems with a large number of electronic control units involved. Together they improve the vehicles fuel economy, minimize malicious exhaust gases, reach a higher level of safety for the passengers and provide a number of comfort and entertainment functions. Some of the subsystems are highly safety critical and need to meet hard deadlines. An essential factor for a safety critical, distributed real-time system is the communication medium connecting all participating nodes. The communication system should support fault tolerance and provide real-time functionality as e.g. a common time base. Another requirement for the communication system is flexibility while still being understandable and easy to design. Therefore, the automotive industry agreed to specify a communication protocol to be used as an industry standard. The name of this ommunication protocol is FlexRay. The context of this thesis is a project at Elektrobit Austria GmbH in cooperation with Vienna University of Technology. A FlexRay-to-FlexRay router was implemented to forward communication between two FlexRay clusters with different configurations. The objective of this thesis was to design a tool to merge the schedules of both clusters and generate a dispatch table for the router node to schedule communication tasks. The generated schedule should minimize communication delay across the router as far as feasible and still be flexible and adjustable. The phase shift between both clusters is configurable by the user. Additionally to the communication tasks, also user tasks running in the router can be scheduled.

Diplomarbeitsposter Huber Markus

Markus Huber

Masterstudium Business Informatics
Abstract:

Software Repositories stellen einen Fundus an Meta-Information uber die Entwicklungs- und Wartungstätigkeiten eines Software-Projekts dar. Eine Form dieser Meta-Information, die einen hohen Informationsgehalt bietet, ist die textuelle Beschreibung von Quell-Code-Änderungen, die ein Entwickler während des Einspielens dieser Änderungen in ein Repository verfasst - die sogenannte Commit-Message. Im Zuge dieser Arbeit wird versucht, basierend auf einer sprachlichen Analyse von Commit-Messages, eine Kategorisierung der atomaren Tätigkeiten der Entwickler vorzunehmen. Durch das Identi fizieren von Gemeinsamkeiten in verschiedenen Open-Source-Software- Projekten wird ein Wörterbuch erstellt, das als Wissensbasis fur die Kategorisierung herangezogen wird und Allgemeingültigkeit fur die Domäne der Open-Source-Software besitzt. Die vorgestellte Kategorisierungs-Methode wird an verschiedenen Open-Source-Software-Projekten angewandt und die Ergebnisse evaluiert. Das im Zuge dieser Arbeit entwickelte Eclipse Plug-in automatisiert die vorgestellte Kategorisierungs-Methode und stellt diese allen Eclipse-Anwendern zur Verfügung. Mit Hilfe des Plug-ins können Analysen über die Wartungs-Historie von Software-Projekten direkt aus der Eclipse-Programmierumgebung durchgeführt werden.

Diplomarbeitsposter Markowitschka Christine

Christine Markowitschka

Masterstudium Informatikmanagement
Abstract:

Lua is a scripting language which became popular through computer games. This language is used to write addons for different games such as "World of Warcraft" published by Blizzard Entertainment. WoW like most people call it, is a role-playing game which many play together over the internet. Blizzard allows its users to customize the user interface through an OpenAPI. All around the world millions of people play "World of Warcraft" and most of them use addons because they are exchanged for free. But there are only a few people who are able to write them because most of the gamers don't have the knowledge of programming. It is the target of this work to develop a course which gives enthusiastic players the opportunity to learn lua in order to create their own addons and implement their ideas. There is also a focus on didactics within the work. Both the programming language and the development environment are tested for their suitability for people who are not used to programming. The course consists of 20 lessons à 45 minutes and is built-on different teaching methods to keep the students interested and motivated. Another focus is on Blended Learning so there won't be just face-to-face instructions but also a virtual learning environment which will help the students to repeat the learning matters and to practise them.

Diplomarbeitsposter Pourkalbasi Zheela

Zheela Pourkalbasi

Masterstudium Informatikmanagement
Abstract:

Für Kinder mit Migrationshintergrund gestaltet sich der Erwerb der Sprache des Gastlandes oft als schwierig. Das ist auch darauf zurückzuführen, dass der Erwerb einer Zweitsprache besser gelingt, wenn die eigene Muttersprache gut beherrscht wird. Zumeist jedoch wird die Entwicklung der Muttersprache dieser Kinder mit dem Schuleintritt abrupt abgebrochen. Der Erwerb der Muttersprache in einem fremden Land bringt verschiedene Probleme mit sich. Eine Lernplattform kann solche Schwierigkeiten verringern: Die SchülerInnen werden motiviert, nicht nur an Wochenenden in der Sprachschule, sondern kontinuierlich auch von zu Hause aus mitzulernen. Da der Iran die höchste Emigrationsquote unter den Entwicklungsländern hat, wird im Rahmen dieser Arbeit eine Lernplattform für Persisch implementiert. Aufgrund der Eigenheiten der persischen Sprache (Rechtsschreibweise) und des persischen Kalenders ergeben sich besondere Anforderungen an die Lernplattform. Diese Anforderungen und weitere Aspekte des Sprachlernens werden in einem Kriterienkatalog zusammengefasst, um danach Lernplattformen auf ihre Tauglichkeit für den Sprachunterricht allgemein, und für Persisch im Speziellen evaluieren zu können. Die am besten geeignete Lernplattform wird dann für den Sprachunterricht vorbereitet, d.h. notwendige Änderungen werden durchgeführt bzw. implementiert. Danach wird der eigentliche Persisch-Kurs umgesetzt, der letztendlich in einer Sprachschule oder auch als e-Learning-Plattform für selbstgesteuertes Lernen eingesetzt werden soll.

Diplomarbeitsposter Smejkal Peter

Peter Smejkal

Masterstudium Informatikmanagement
Abstract:

Informatikunterricht wird derzeit im Lehrplan für Österreichs Allgemeinbildenden Höheren Schulen (AHS) nur in der neunten Schulstufe als zweistündiges Fach verpflichtend geführt. In der heutigen Gesellschaft ist der Computer ein nicht wegzudenkendes Standardinstrument, was sich in den Lehrplänen kaum widerspiegelt. Es gibt zwar ausgearbeitete Standards für den Informatikunterricht, welche jedoch derzeit weder in der AHS noch im Pflichtschulbereich bindend sind. Diese Situation führte dazu, dass sich auch außerhalb des Lehrplans an vielen Schulen Angebote für Informatikunterricht etablierten, die durch die autonome Lehrplanbestimmungen der jeweiligen Schulen selbst entworfen wurden. Diese Gründe stellen die Motivation für die vorliegende Arbeit dar, welche das aktuelle Informatikangebot und dessen Form an Österreichs Schulen in der Sekundarstufe I ermittelt und erörtert. Im ersten Schritt wurden zur Datenerfassung der Angebote des Informatikunterrichts in Österreichs Schulen der Sekundarstufe I E-Mails an die Gymnasien und Hauptschulen aus ganz Österreich verschickt. Zusätzlich wurde eine Recherche nach Stundentafeln und eventuellen freiwilligen Angeboten für Informatik basierend auf den Websites aller Schulen durchgeführt. Zur Ergänzung der erhobenen Daten wurden schließlich einige Schulen telefonisch kontaktiert. Nach der Erhebung der Daten erfolgte die Auswertung anhand verschiedener Kriterien. Die Ergebnisse dieser Studie zeigen, dass es österreichweit bereits schulautonome Angebote an Gymnasien sowie in Hauptschulen gibt. Im Bundesländervergleich dieser Angebote liegen vor allem Kärnten, die Steiermark, Oberösterreich und Vorarlberg im Spitzenfeld. Die Bundeshauptstadt Wien rangiert am hinteren Teil der Statistik und scheint den anderen Bundesländern hinterherzuhinken. Hervorzuheben ist, dass sich in den letzten zehn Jahren eine große Anzahl an unterschiedlichen Freifächern zum Thema Informatik entwickelt hat.

Diplomarbeitsposter Srndic Edin

Edin Srndic

Masterstudium Medizinische Informatik
Abstract:

Many medical areas such as diagnose, treatment and patient care benefited from the application of IT-infrastructure ranging from complex architectures to small monitoring devices providing better access to information, more efficient data exchange and increased data processing. The goal of this thesis is to bring these benefits to the field of emergency care. Triage is a process during emergency care which aims at maximizing the provided care in a situation where the available resources are limited by diagnosing injuries and categorizing patients into groups to determine the priority for treatment and transport. Our intent is to increase the quality and amount of medical care for patients in such situations by introducing electronic Triage Tags to increase the efficiency of the entire triage process. Hence, this thesis evaluates the core requirements and deduces a framework for an electronic Triage Tag, utilizing RFID tags and a client/server approach based on wireless communication. Information gathering is performed by the mobile triage devices with integrated RFID reader. Finally, the thesis presents a simple proof of concept application.

Diplomarbeitsposter Suljagic Alen

Alen Suljagic

Masterstudium Informatikmanagement
Abstract:

Es ist beinahe nicht mehr möglich, sich Bildung ohne den Einsatz des Internets vorzustellen. In diesem Kontext gewinnt E-Learning auch in beruflichen Aus- und Weiterbildung immer mehr Bedeutung. Das große und bis jetzt nicht vollständig ausgeschöpfte Potenzial des Internets wurde in letzten Jahren auch im Ausbildungssektor der Systemgastronomie spürbar. Dies wird durch bereits vorhandene Statistiken und zahlreiche Beispielen aus der Praxis belegt. In dieser Arbeit wird analysiert, in wie weit der Einsatz von E-Learning Technologie in der systemgastronomischen Lehrlingsausbildung auf Akzeptanz stößt und ob die technische Möglichkeiten einer Lernplattform Verbesserungen im bisherigen Unterricht mit sich bringen. Es erfolgt eine grundlegende Einführung in E-Learning, Lerntheorien, Blended Learning und die Lernplattform Moodle. Anhand eines erstellten Moodle- Kurses für die Lehrlingsausbildung werden die Möglichkeiten dieser Lernplattform dargestellt. Den Schwerpunkt dieser Arbeit stellt eine Untersuchung der Akzeptanz von E-Learning, bzw. Blendend Learning seitens der systemgastronomischen Lehrlinge dar. Die Akzeptanz an dieser Art des Lernens wird mittels qualitativen und quantitativer Methoden geprüft.

Diplomarbeitsposter Unterberger Heinz

Heinz Unterberger

Masterstudium Business Informatics
Abstract:

Durch die fortschreitende Vernetzung verschiedenster Gesundheitsdienstanbieter (GDA) und die geplante flächendeckende Einführung einer elektronischen Gesundheitsakte (ELGA) in Österreich, wird das Thema Datenhaltung und Datensicherheit besonders schützenswerter (medizinischer) Daten immer wichtiger. Das Ziel der vorliegenden Arbeit ist es, mit Hilfe eines exemplarischen Beispiels eines Anforderungskataloges, in dem die durchzuführenden Arbeiten bei Sicherheitsproblemen grafisch und schriftlich aufgearbeitet werden, die sichere Datenhaltung und Datenverarbeitung von besonders schützenswerten (medizinischen) Daten in einem e-Health-Rechenzentrum zu verbessern. Um einen Überblick über den aktuellen gesetzlichen Datenschutz in Österreich zu geben, werden die für die Verarbeitung von besonders schützenswerten Daten relevanten Gesetzestexte zusammenfassend dargestellt. Durch die Beschreibung und Vorstellung von Schutzzielen, die Erläuterung eines Informationssicherheitsmanagement (ISMS) Prozesses, inklusive einer kurzen Erläuterung der im ISMS durchgeführten Schritte und die Darstellung von verschiedensten IT-Dokumentationen, werden die für den Entwurf, die Implementierung und Umsetzung des in der vorliegenden Arbeit konzipierten Anforderungskatalogs essentiellen Grundbausteine definiert.

Diplomarbeitsposter Walch Andreas

Andreas Walch

Masterstudium Medieninformatik
Abstract:

Based on the theoretical basics of Graphic- and Web-Design, four design drafts for „TU-Wien Informations-Systeme und Services“ (TISS) are presented in this work. TISS is a development project hosted by the Vienna University of Technology which seeks to implement information and communication systems for teaching, research and business. For the web channel, the design of an interface is needed that, on the one hand enables to model all functions of the system beneath, and on the other hand gives the user the ability to achieve his tasks with efficiency and effectiveness. To accomplish a rich visual communication, practices, experience and techniques from the print-design are mapped to the medium of web. Thus the inherent aspects of the latter are enriched. With this goal in mind, the theoretical basics of graphical modeling are described from the viewpoint of Web-Design. The human visual recognition is shaped by the knowledge of space and form as well as by certain design principles, color and pictures. For web designing tasks it is crucial to know the typical structure of a website, navigation elements, typical web layouts, grid systems and wireframes. Typographical elements such as letters, words, lines visualized in a practical context are the basis of nearly every communication. With user centered design and usability methods the user steps into the focus of attention. No design decisions happen without considering the user. On the basis of these theoretical aspects, four Designs are presented. With references to the theory the chosen design approach is described and the requirements are presented. The central part however is the presentation of the achieved results with special focus on the finally chosen design work. A connection between theory and implementation is drawn, and the importance and benefit of rich visual communication elucidated.

Diplomarbeitsposter Wallek Christian

Christian Wallek

Masterstudium Business Informatics
Abstract:

Aktuell können in Österreich Anwendungen auf Antrag mit dem E-Government-Gütesiegel ausgezeichnet werden, wenn sie bestimmte Anforderungen erfüllen. Das Gütesiegel soll als Qualitätsmerkmal für Bürger, Unternehmen und Behörden gelten. Ziel dieser Arbeit ist es zu untersuchen, ob das österreichische E-Government-Gütesiegel den aktuellen technischen Standards entspricht. Identifizierte Erneuerungsmöglichkeiten (Anpassungs- bzw. Erweiterungspotentiale) von Anforderungen an das E-Government-Gütesiegel, werden in dem, im Zuge dieser Arbeit, ergänzten Anforderungskatalog reflektiert. Im ersten Teil der Arbeit wird der Aufbau des E-Government-Gütesiegels anhand bestimmter Kriterien untersucht und beschrieben. Bereits an dieser Stelle sollen Erneuerungsmöglichkeiten bzgl. Strukturierung und Inhalt des E-Government-Gütesiegels identifiziert werden. In weiterer Folge wird ein Vorgehen erarbeitet und dargestellt, welches die Analyse der einzelnen Anforderungsgruppen (so genannte „Labels“) auf deren Aktualität und Vollständigkeit ermöglichen soll. Bei diesem Vorgehen werden die aktuell eingesetzten Technologien und Standards auf ihre Aktualität hin untersucht. Weiters werden Technologien, Standards und Anforderungen aus den Referenzländern Deutschland und Schweiz mit den österreichischen Anforderungen verglichen, um neue bzw. ergänzende Aspekte für die untersuchten Anforderungsgruppen in Österreich zu identifizieren. Zur Verdeutlichung und Validierung des entwickelten Vorgehens werden in weiterer Folge unter dessen Anwendung die Anforderungsgruppen Formular und Infrastuktur, untersucht. Das Label Formular behandelt Kriterien für die Erfassung und den Austausch von Daten über elektronische Formulare. Das Label Infrastruktur wiederum umfasst Kriterien, welche die Sicherheit und das korrekte Verhalten von E-Government-Anwendungen sicherstellen sollen. Abschließend werden Empfehlungen für die Erneuerung der untersuchten Labels gegeben.

Diplomarbeitsposter Weishapl Peter

Peter Weishapl

Masterstudium Software Engineering & Internet Computing
Abstract:

This diploma thesis explores how physical behavior of virtual objects affects the per- ceived pragmatic and hedonic quality of interactive products as well as peoples’ judgements of its goodness and aesthetics. The thesis proposes a model of user experience (UX) to explain how users’ perceptions and judgements of a product are influenced by its features. It does so by incorporating theories about aesthetics and emotions into the hedonic/pragmatic model of UX. It argues that physical behavior of virtual objects can be considered aesthetic, and thus result in a better user experience. To verify the impact of physical behavior, I built a prototype for conducting card sorting tasks on an Apple iPad. Two variations of this prototype were used in an explorative study. Participants conducted card sorting tasks with a physical and a non-physical variation of the prototype and assessed their perceptions and judgements using an extended version of the AttrakDiff2 questionnaire. The analysis of the experiment confirmed that physical behavior can indeed improve the user experience. Physical behavior is, however, not applicable in all circumstances and seems to be most valuable in conjunction with touch screens and natural user interfaces (NUIs). The thesis concludes by discussing potential implications and possible limitations of this study, that is, circumstances in which physical behavior can be used and the expected impact on UX.

Diplomarbeitsposter Wetzinger Elisabeth Reingard

Elisabeth Reingard Wetzinger

Masterstudium Informatikmanagement
Abstract:

Vor dem Hintergrund der rasanten technologischen Entwicklungen und der Tatsache, dass Kinder und Jugendliche mit den neuen Medien aufwachsen (digital natives) präsentiert diese Arbeit ein Unterrichtskonzept zum Thema Bilddateiformate sowie Bildkompressionsverfahren. In fünf Modulen wird inhaltlich ein Bogen von der Einführung in die Welt digitaler Bilder, deren Aspekte und Beschreibungsmethoden über Grundlagen und Methoden der Bilddatenkompression bis hin zu Dateiformaten und Anwendungen digitaler Bilder im Alltag der Jugendlichen gespannt. Es soll das bereits bestehende oberflächliche Wissen der Jugendlichen vertieft werden und auch auf einer formaleren Ebene (insbesondere Bilddatenkompression) aufgearbeitet werden. Die Umsetzung erfolgt im Wesentlichen mit Methoden der konstruktivistischen Lerntheorie sowie Methoden aus dem Seminaralltag mit dem Ziel der Förderung des eigenverantwortlichen, selbständigen und sozialen Lernens im Team sowie der Softskills der Schüler. Dies geschieht durch den Einsatz alternativer Methoden zum derzeit immer noch vorherrschenden Frontalunterricht und mit Implementierungsvorschlägen anhand der Thematik.

Arbeitsbereich (vor 2018) Computer Vision

Diplomarbeitsposter Dorn Florian

Florian Dorn

Masterstudium Visual Computing
Abstract:

This thesis discusses the use of computer vision for assisting elderly in the field of Ambient Assisted Living with Aging-in-place. Falling has been identified as a major health issue for elderly, especially for those that live independently. Therefore an abnormal activity recognition system for detecting falls is presented. Activity or event recognition has been gaining much interest in the computer vision community in recent years. The application area covers a wide range, from video surveillance and monitoring, human-computer interaction to augmented reality. The fundamental problem lies within the detection and modeling of Video events, the semantic concepts that humans perceive when observing a scene. When emulating this process with computer vision, the semantic content of the low-level input has to be abstracted with meaningful features. Finding reliable models for describing and recognizing events given these abstractions is the key part in event understanding. In order to detect falls reliably a multi-camera vision system is proposed. The image evidence is fused early and fall detection is performed in 3D space. This allows the computation of reliable, view invariant features. Fuzzy logic is used to estimate the membership of the currently observed features to different human motion models. Using a novel feature, which is presented in this work, the unexpectedness of a fall incident is modeled reliably. The evaluation shows, that the proposed approach is a reliable and computationally efficient fall detector.

Diplomarbeitsposter Fiel Stefan

Stefan Fiel

Masterstudium Visual Computing
Abstract:

In this thesis a method for the automated identification of tree species from images of leaves, needles and bark is presented. In contrast to the current state of the art for the identification from leaf images, no segmentation of the leaves is necessary. Furthermore the proposed method is able to handle damaged and overlapping leaves. This is done by extracting keypoints in the image which allow the computation of local descriptors. With the help of a trained set of descriptors, a histogram of the occurrence of these descriptors is generated which is then classified using a one-vs-all SVM. For images of the bark the same method is used which allows to build a system which can automatically distinguish between images of bark and leaves without calculating new features. Detected features within the needle images can be used for a classification. The needle endings are used to distinguish between fir and spruce needles. The proposed method is evaluated on three datasets which were provided by “Österreichische Bundesforste AG” (“Austrian federal forests”). The first dataset consists of 134 images of the leaves of the 5 most common Austrian broad leaf trees, the second dataset containing 275 images of the needles of the 6 most common Austrian conifers. The last dataset is containing images of the 1183 bark of these 11 trees. The classification rate for the leaf dataset was 93.6% and the classification rate of the bark dataset was 69.7%.

Diplomarbeitsposter Steiner Helmut

Helmut Steiner

Masterstudium Medizinische Informatik
Abstract:

Da ein stetiger Anstieg der Benutzung von Computertomographie und Magnetresonanz bei der medizinischen Befundung und in Studien zu bemerken ist, müssen auch existierende Segmentierungsmethoden, wie Sparse MRF Appearance Models und Active Shape Models (ASMs), an die nun dreidimensionalen Daten angepasst werden, um zu funktionieren. Diese Diplomarbeit schlägt folgende Segmentierungspipeline für die Handhabung von dreidimensionalen Bilddaten vor: Für das Finden von Punktkorrespondenzen wird Minimum Description Length und Coherent Point Drift eingesetzt, um Point Distribution Models zu bilden. Die Lokalisierung von anatomischen Strukturen wird mit Random Forests und Discrete Optimisation bewerkstelligt, welche einen Startpunkt für die finale ASM Segmentierung liefern. Die vorgeschlagenen Methoden werden auf zwei unterschiedlichen Datentypen evaluiert. Einerseits werden CT Volumen von Händen von Patienten, die unter rheumatoider Arthritis leiden, für die Lokalisierung von Gelenksspalten und die Segmentierung der Daumenknochen Os Metacarpale I, Phalanx Proximalis Pollicis und Phalanx Distalis Pollicis benutzt. Andererseits werden zusätzlich synthetische Daten für Experimente zur Segmentierungsgenauigkeit generiert. Eine individuelle Analyse aller Methoden wird vollzogen, um von einander unabhängige Resultate zu erhalten. Die Lokalisierung anatomischer Strukturen ist hinreichend genau um die Knochensegmentierung mittels ASMs zu initialisieren. Falls das Objekt im ungesehenen Bild sich innerhalb des Suchbereichs des ASM befindet, werden präzise Segmentierungsresultate erzielt. Fälle in denen die ASM Suche nicht erfolgreich ist, werden analysiert, um die Ursachen des Scheiterns zu finden. Diese und andere Probleme, die sich beim Testen der Methoden ergaben, werden aufgezeigt und Lösungsvorschläge zu deren Bewältigung gegeben.

Institut für (vor 2018) InformationssystemeE184

Arbeitsbereich (vor 2018) Distributed Systems

Diplomarbeitsposter Czedik-Eysenberg Hermann

Hermann Czedik-Eysenberg

Masterstudium Software Engineering & Internet Computing
Abstract:

During the development of Web services and their deployment to a specific target system, organizations need to evaluate if the Web service implementation and the hardware can meet the Quality of Service attributes specified in a Service Level Agreement. One important aspect are performance-related attributes, such as response time, throughput or scalability of the Web service. Typically tests which simulate client behavior are used to evaluate these attributes. In this thesis the domain-specific language QoSTIL (Quality of Service Test Instrumentation Language) is introduced. It allows for the definition of tests and the composition of these tests to create complex test plans which can be used to simulate Web service client behavior and evaluate performance-related quality of service attributes of Web services. Language instances are automatically transformed to executable Java code and result presentation views. These can be used to run the defined tests and visually display the test results. The implementation of the domain-specific language follows the Model-Driven Development approach. Both the language model (abstract syntax), which is based on the meta-model defined by the Frag modeling framework, the concrete syntax, as well as the transformation to executable code are explained in detail in the thesis. To evaluate the utility and usability of the language a number of tests which are based on realistic business use cases for assessing certain performance-related quality of service attributes are defined and implemented. After the automatic transformation to executable code, the tests are run for specific Web services and the results are presented and discussed.

Diplomarbeitsposter Fida Ursula

Ursula Fida

Masterstudium Software Engineering & Internet Computing
Abstract:

Mobile devices and wireless networks give us the possibility to use the Web where ever we go, in all situations, at all times. But devices like PDAs have small displays and limited or even no keyboards. Enabling speech as an additional input and output mode will help to overcome these physical limitations. In a multimodal application the user may use his preferred mode or the most appropriate mode for the situation or he may use voice, keyboard, mouse and pen in a synergistic way. Moreover multimodal applications allow one-handed and hands-free operations. Mobile collaboration systems handle a lot of information so it is important for the user to get the right information at the right time and at the right place. Making the speech output and input context sensitive will prevent overloading the user with unwanted information and leads to better speech recognition rates.

Diplomarbeitsposter Jung Markus

Markus Jung

Masterstudium Software Engineering & Internet Computing
Abstract:

Diese Diplomarbeit entwirft, implementiert und evaluiert (i) ein System für die adaptive Regelung von Client-Requests basierend auf einem PID Controller, (ii) ein verteiltes Zeitstempel Service auf P2P Basis, und (iii) einen JXTA-basierenden P2P Layer, der in den beiden erstgenannten Teilen die Kommunikation verschiedener Nodes untereinander ermöglicht. Für die Evaluierung der einzelnen Teile wurde darüber hinaus eine Simulationsumgebung erstellt, mittels welcher das Verhalten der implementierten Protokolle für verschieden Parameter automatisiert getestet und ausgewertet werden kann. Die Simulationsumgebung erlaubt das direkte testen der Software in einer Testumgebung, sowie die Simulation der implementierten Protokolle im PeerSim P2P Simulator.

Diplomarbeitsposter Korosec Anton

Anton Korosec

Masterstudium Software Engineering & Internet Computing
Abstract:

Diese Diplomarbeit untersucht die Vor- und Nachteile des Einsatzes eines kommerziellen Cloud-Computing Angebots bei einer bestehenden Server-Anwendung. Das `Vienna Runtime Environment for Service-oriented Computing' (VRESCo) wird auf dem Institut für Informationssysteme der Technischen Universität Wien entwickelt und ist eine Web-Service-Laufzeitumgebung, die sich einigen der aktuellen Herausforderungen im Bereich der service-orientierten Architekturen (z.B. dynamisches Binden/Aufrufen, Metadaten-Unterstützung) annimmt. Das Ziel ist es, VRESCo mit Hilfe der 'Amazon Web Services' (AWS), die eine Reihe von Diensten für eine Rechenarchitektur in der Cloud bereitstellen, anzubieten. Die Anwendung soll nicht nur auf einer virtuellen Maschinen-Instanz innerhalb der Amazon-Cloud laufen, sondern es soll auch die aktuelle Datenbank durch einen der von Amazon angebotenen Cloud-Datenbank-Dienste ersetzt werden. Neben einigen Nachteilen (z.B. Latenz, Datenbank-Einschränkungen) wird erwartet, dass VRESCo insgesamt von den Vorteilen, die eine Cloud-Architektur mit sich bringt (Skalierbarkeit, keine Verwaltung, geringe Kosten, etc.), profitiert. Nach einer Einführung in die verwendeten AWS Dienste und deren zugrunde liegenden Konzepte werden die Schritte, die unternommen wurden, um VRESCo innerhalb Amazons Cloud-Architektur bereitzustellen, vorgestellt. Der Fokus liegt dabei vor allem auf dem Vergleich und der Bewertung der von Amazon angeboten Cloud-Datenbanken, sowie auf den Techniken (Caching, Lazy-Loading, etc.), die eingesetzt wurden, um eine möglichst optimale Leistung zu erzielen. Insgesamt zeigen die Ergebnisse, dass AWS für den Aufbau von Cloud-Architekturen, die es ermöglichen auf lokale Ressourcen zu verzichten, geeignet ist. Die Dienste sind nicht nur einfach zu bedienen, sondern lassen sich auch flexibel an die Bedürfnisse der Anwendung anpassen.

Diplomarbeitsposter Leibrecht Michael

Michael Leibrecht

Masterstudium Software Engineering & Internet Computing
Abstract:

In the past few years social networks and social enhanced media applications have experienced an enormous growth in popularity and gain in users that are registered to the respective platform. People can easily participate in global collaborations focused on content creation and content exchange. In order to have the necessary means for structuring and classification of the data, users often fall back on a technique known as tagging. Tagging allows the user to describe any kind of resource with any keyword, to specify the resources content, its behavior and give a simplified description of its properties. In comparison to social networks that are gaining more and more momentum, the evolution of Service Oriented Architectures precedes in a slower pace, mainly resulting from the complex requirements to establishing a general applicable work flow, and the economical obstacles that have to be considered when integrating third party services. Apart from these drawbacks there is room for improvement in other aspects as well, like the discovery and integration of published services. Applying collaborative concepts of social networks to Service Oriented Architectures and web service centered environments might result in a benefit for the producer, as well as for the consumer of a resource, since they can actively exchange about a services behavior and its properties. Experimental approaches of recommending similar services, that exploit the contextual and semantic relation of tags, extend common techniques and add an supplementary level of abstraction to the discovery of services.

Diplomarbeitsposter Prennschütz-Schützenau Stefan

Stefan Prennschütz-Schützenau

Masterstudium Medizinische Informatik
Abstract:

A common goal of policy-based/policy-driven management approaches is to enable practitioners to define high level directives for the enforcement of business policies and objectives, instead of manually configuring and auditing services. This thesis proposes a guided model-driven policy authoring method that leverages the Schematron standard for an XML Mediation between architectural and operational policies on the one, and, to different models, domains, and types in operational policies on the other hand.

Arbeitsbereich (vor 2018) Database and Artificial Intelligence

Diplomarbeitsposter Morak Michael

Michael Morak

Masterstudium Computational Intelligence
Abstract:

Answer Set Programming (ASP) is nowadays a well known and well acknowledged paradigm for declarative problem solving as can be seen by many successful applications in the areas of artificial intelligence and knowledge-based reasoning. Evaluating logic programs that follow the ASP paradigm is usually implemented as a two-step procedure: First, the grounding step (i.e. the instantiation of variables occurring in the program) and second, the actual solving process which works on ground logic programs. In this thesis we introduce a novel approach for dealing with the latter. Solving ground logic programs is, in general, still an intractable problem. Therefore most standard ASP solvers rely on techniques originating in SAT solving or constraint satisfaction problem solving. In contrast, the algorithm presented in this thesis was developed with techniques that stem from parameterized complexity theory. The idea here is to consider a certain problem parameter as bounded by a constant and thereby obtain a tractability result for the given problem. One such parameter which has lead to many interesting results is treewidth which represents the “tree-likeness” of a graph. Treewidth is defined in terms of tree decompositions which in turn can be used by dynamic programming algorithms to solve the problem under consideration. We introduce a novel dynamic programming algorithm based on the above approach that is specifically tailored for solving head-cycle free logic programs. Using a purpose-built framework for algorithms on tree decompositions, an actual implementation of the algorithm is presented, carefully evaluated and compared to existing ASP solvers. Experimental results show significant potential for problem instances of low treewidth.

Arbeitsbereich (vor 2018) Knowledge Based Systems

Diplomarbeitsposter Bairakdar Seif El-Din

Seif El-Din Bairakdar

Masterstudium DDP Computational Logic (Erasmus-Mundus)
Abstract:

Multi-Context Systems (MCS) are formalisms that enable the inter-linkage of single knowledge bases called contexts, via bridge rules. In this thesis, we focus on Brewka and Eiter-style heterogeneous nonmonotonic MCS and develop a novel distributed algorithm for computing the equilibria of such MCS. We examine previous approaches for distributed MCS evaluation that have been implemented as part of the DMCS system. Moreover, the notion of association rules and the process of association rule extraction from the data mining field are recalled. None of the available techniques addressed the issue of local optimization within a distributed evaluation, which is the motivation behind our work. Our approach for local constraint pushing (DMCS-SLIM), relies on the coupling of some optimization techniques for distributed MCS evaluation with local association rules extraction. We prove DMCS-SLIM to be sound and complete. Furthermore, we present a prototypical implementation, which is used for empirical evaluation. We performed exhaustive set of experiments against several runtime parameters of our system as well as comparisons with existing approaches. We observed that our approach has potential to surpass the current approaches.

Diplomarbeitsposter Bischof Stefan

Stefan Bischof

Masterstudium Information & Knowledge Management
Abstract:

XSPARQL is a language for transforming data between XML and RDF. XML is a widely used format for data exchange. RDF is a data format based on directed graphs, primarily used to represent Semantic Web data. XSPARQL is built by combining the strengths of the two corresponding query languages XQuery for XML, and SPARQL for RDF. In this thesis we present two XSPARQL enhancements called Constructed Dataset and Dataset Scoping, the XDEP dependent join optimisation, and a new XSPARQL implementation. Constructed Dataset allows to create and query intermediary RDF graphs. The Dataset Scoping enhancement provides an optional fix for unintended results which may occur when evaluating complex XSPARQL queries containing nested SPARQL query parts. The XSPARQL implementation works by first rewriting an XSPARQL query to XQuery expressions containing interleaved calls to a SPARQL engine for processing RDF data. The resulting query is then evaluated by standard XQuery and SPARQL engines. The dependent join optimisation XDEP is designed to reduce query evaluation time for queries demanding repeated evaluation of embedded SPARQL query parts. XDEP minimises the number of interactions between the XQuery and SPARQL engines by bundling similar queries and let the XQuery engine select relevant data on its own. We did an experimental evaluation of our approach using an adapted version of the XQuery benchmark suite XMark. We will show that the XDEP optimisation reduces the evaluation time of all compatible benchmark queries. Using this optimisation we could evaluate certain XSPARQL queries by two orders of magnitude faster than with unoptimised XSPARQL.

Diplomarbeitsposter Koziarkiewicz Mikolaj

Mikolaj Koziarkiewicz

Masterstudium Computational Intelligence
Abstract:

The focus of this thesis is the examination of the practicality of applying known formal transformations of answer-set programs. Answer-set programming (ASP) is a formalism for declarative problem solving, based on the principles of non-monotonic reasoning. The research is started by constructing an overview of well-defined transformations existing in the scientific literature. We consider two systems of transformations -- one composed of certain syntactic transformations; the other of the semantic removal of rules and literals. This work then discusses algorithms for implementing applicability checking within the two systems, either existing ones from the literature, or new ones. Next, it is shown how to effectively process input data within the defined frameworks, utilizing properties related to the interactions between the transformations. With the help of a Python implementation, several data sets composed of answer-set programs are checked for transformation applicability, including: student-written programs, randomly-generated programs, and programs created by various front-ends for declarative problem solving. The results obtained show that the utility of applying the considered program transformations is quite low. Barring random input, only a small number of applicable transformation instances is found. Moreover, sequences of transformation applications are almost non-existent. Hence, there is little gain in using the considered transformation for online or offline optimization.

Diplomarbeitsposter Schneider Patrik

Patrik Schneider

Masterstudium Computational Intelligence
Abstract:

We propose a novel approach to evaluate description logic programs (dl-programs) using a Relational Database Management System (RDBMS). Such dl-programs are a state-of- the-art Semantic Web formalism of combining rules and ontologies, whereby rules are expressed as logic programs and ontologies are expressed in Description Logics (DL). In dl-programs a modular concept of plug-ins was introduced, which allows to combine dl-programs with different DL reasoner. Grounding in dl-programs is still considered a performance bottleneck, caused by having exponentially many rules to process. But for the success of the Semantic Web technologies, it is crucial to efficiently process vast amounts of data. The goal of this work is to show, that dl-programs can be efficiently evaluated by using RDBMSs. For this purpose we report on a prototype implementation, where SQL is generated by an existing DL-Lite reasoner, which is incorporated into a Datalog rewriter. For testing the prototype, we develop a benchmark suite with pure Datalog and Datalog/DL tests. Based on the benchmark suite, we produce experimental results. These results are used to compare the prototype with the reasoners of the DLV family.

Diplomarbeitsposter Solomakhin Dmitriy

Dmitriy Solomakhin

Masterstudium DDP Computational Logic (Erasmus-Mundus)
Abstract:

Artifacts such as laws, regulations and policies, use deontic constructs expressed in natural language to articulate human behavior, as well as alethic rules, describing what the organization takes things to be. In most cases such artifacts have a rather ambiguous semantics, which can hardly be formalized. But sometimes a logical framework can be built to provide automated tools for validation and verification of the artifacts. The most promising candidate for such a framework is a recently approved Semantics of Business Vocabulary and Business Rules (SBVR) standard. Despite existence of formally grounded notations, e.g. ORM2 specification language, up to now SBVR still lacks a sound and consistent logical formalization which allows developing solutions able to automatically test business models for consistency of regulations. This work reports on the attempt to provide logical foundations for the SBVR standard by means of defining a specific first-order deontic-alethic logic (FODAL) designed to capture the desired semantics of business rules. We also report on logical properties of the aforementioned formalization, such as completeness and soundness. Moreover, we studied its connections with other logical formalisms, including satisfiability reduction to the first-order logic and the description logic ALCQI, which allows to obtain decidability results for a certain fragment of FODAL logic. As a result, a special tool providing automated support for consistency checks of a set of ALCQI-expressible deontic and alethic business rules was implemented. This tool was developed in the context of the ONTORULE FP7 project and became a part of the public deliverable. Addressing the objective of the project to combine rules and ontologies, we also implemented a translation of the aforementioned class of business rules into an OWL2 ontology, which facilitates integration with other modeling tools and fulfilment of the demand for automated solutions with reasoning support.

Institut für (vor 2018) Institut für ComputersprachenE185

Arbeitsbereich (vor 2018) Programmiersprachen und Übersetzer

Diplomarbeitsposter Khyo Günter

Günter Khyo

Masterstudium Software Engineering & Internet Computing
Abstract:

The success of any operating system is determined by the quality of device driver support. About 52% of the Linux kernel code is comprised by device drivers, accounting for app. 7.4 million lines of code. While managing such a huge code base is a challenge on its own, Linux device driver developers have to overcome additional obstacles.The complex,multithreaded programming model of the kernel creates a high potential for bugs and many of them result into kernel crashes.Drivers constitute the largest and most unreliable component of the kernel. This thesis analyses the root causes of the device driver reliability problem, and demonstrates how the current driver programming model can be improved to assist programmers in creating better driver code.To examine and test feasible improvements, a prototype language based on a subset of C was designed with the requirements on Linux driver development. CiD features additions for three essential device driver code aspects: concurrency, synchronization and hardware I/O. The compiler is programmed with basic rules of the concurrency model and is able to detect common mistakes that lead to deadlocks. Additional consistency checks support the programmer in generating correct hardware I/O code.Two device drivers have been converted into CiD code to test the language extensions and the compiler. The results for concurrency and synchronization are satisfying: race conditions in the data-flow are reported with a false positive rate of 6 to 21%.The compiler generates correct concurrency and synchronization code, thus mitigating the potential for deadlocks. The results show that hardware I/O generator leaves room for improvement, since it generates 1.5 times more I/O operations than the original driver. Related approaches show that further optimizations can reduce the gap.In conclusion, the device driver programming can be made more robust with only minor alterations to the existing programming model and little compiler complexity.

Diplomarbeitsposter Priewasser Daniel

Daniel Priewasser

Masterstudium Software Engineering & Internet Computing
Abstract:

I propose Managed Scribe as extension of the Scribe Application Layer Multicast (ALM) protocol to enable dynamic multicast delivery in constrained network topologies. Such topologies are available in the Internet Service Provider (ISP) domains for content distribution. Especially, in the domain of Internet backbone networks, the rise of new transmission techniques allows tremendous resource savings. Managed Scribe offers the opportunity to replace the legacy client/server-infrastructure by state of the art peer-to-peer technology. Moreover, the dynamic nature allows a plug and play placement of additional peer nodes. In scenarios of unpredictable user behavior, minimal configuration effort leads to easy bottleneck removal. As a result, it offers minimized resource usage during the transmission process. The implemented Managed Scribe system uses a role-based model to categorize participating nodes as source, proxy or client. The role of each participant is configurable and, therefore, in flexible scenarios a node is even able to change its role during the runtime. Furthermore, the dynamic load balancing implementation allows the administration to regulate the bandwidth distribution within the network. This flexibility makes Managed Scribe feasible for a wide range of target applications, ranging from push-video on demand services, towards multi-user conference applications. A discrete event simulator is used to show the correct operation of the prototype, the efficient multicast pathway creation and the efficient operation of the load-balancing algorithm. Manages Scribe has high potential to decrement the overall bandwidth consumption of the Internet. This thesis proves the feasibility of using the combination of Pastry and Scribe to achieve scalable and efficient multicast communication. This work is the basis for the implementation of applications that are based on multicast communication with the need of certain control over the tree structures.

Diplomarbeitsposter Punzengruber Clemens

Clemens Punzengruber

Masterstudium Software Engineering & Internet Computing
Abstract:

This master thesis investigates how to generate control programs by means of Genetic Programming for the ’RoboCup Standard Platform League’. In this league two teams of humanoid, autonomous NAO robots are competing in a game of soccer against each other. Instead of programming the whole skill set manually it is possible to use machine learning techniques to let the robots learn these skills by themselves. One such technique is called ’Genetic Programming’, which allows to optimize a population of programs according to a defined fitness function. The goal of this thesis is to use Genetic Programming to generate programs which can position the robot to the ball as fast as possible and precise enough so that the robot is still able to play the ball. The thesis shows how the manufacturer built-in movement functions of the robot can be applied in a direct and natural way by the terminal and function set of the genetic program and can therefore be encoded into the genomes of the solutions. The actual evolution of the programs was realized by using a simulator to prevent the expensive robot hardware to suffer from wear and tear. This also made it possible to conduct the experiments without the need of supervision. A software framework was created to connect the simulator, the robot middleware and the used framework for evolutionary computation. The resulting infrastructure was then used with a genetic algorithm to find a stable walking parameter set for the simulator. This was a prerequisite for being able to successfully position the robot. The conducted experiments successfully generated programs which could position the robot to the ball. Compared to the manually coded reference solution the best evolved program conducted its task faster and still enabled the robot to play the ball. This held true both when using the simulator as well as when trying out the generated solution on a real robot.

Arbeitsbereich (vor 2018) Theoretische Informatik und Logik

Diplomarbeitsposter Hammer Christian

Christian Hammer

Masterstudium Informatikmanagement
Abstract:

In den letzten Jahren hat sich der Markt für mobile Kommunikation und Te-lekommunikation zu einem der erfolgreichsten Zukunfts- und Wachstums-branchen entwickelt. Einhergehend mit der zunehmenden Verbreitung und Entwicklung von mobilen Geräten und daraus resultierenden, stetig wach-senden Möglichkeit an neuen mobilen Services, werden laufend Anwendun-gen und Einsatzmöglichkeiten für mobile Geräte entwickelt und realisiert. Dabei gewinnen die Begriffe Mobilität und Flexibilität eine immer wichtigere Bedeutung. In der vorliegenden Arbeit werden funktionsfähige Prototypen einer Spiele-Applikation für eine Großveranstaltung, die sich durch eine nahezu echtzeit-basierte Ansteuerung der Spielfigur über ein Mobiltelefon charakterisiert erarbeitet. Beginnend mit einem Überblick über in Frage kommender Signalübertra-gungs- und Signalempfangsmöglichkeiten werden diese analysiert und un-tereinander verglichen. Hierbei werden aufgrund verschiedener – für den Anwendungsfall erstellter – Kriterien unterschiedliche Signalübertragungs-technologien (GSM-Sprache/DTMF, GPRS, Bluetooth, WLAN) und Signal-empfangseinrichtungen (DTMF–Hardware, DTMF-Software, Bluetooth-Empfänger, Applikationsserver) auf ihre Eignung hin evaluiert. Aus diesen Erkenntnissen werden in Folge zwei funktionsfähige Prototypen – die eine Softwareapplikation durch DTMF-Töne bzw. mittels Bluetooth steu-ern - verschiedener Technologien konzipiert, implementiert und abschlie-ßend auf ihre Eigenschaften hin getestet. Ein weiterer Bestandteil dieser Arbeit ist aufzuzeigen mit welchen Hilfsmitteln und Methoden Anwender in die Nutzung des Systems eingeschult werden.

Diplomarbeitsposter Niederbrucker Gerhard

Gerhard Niederbrucker

Masterstudium Computational Intelligence
Abstract:

Nowadays the Unified Modeling Language is the standard formalism people use to specify the structure as well as the behavior of object oriented systems. Since UML is not limited to any specific domain we will use a subset of UML class diagrams as formal base for describing functional units like hardware components and their relationships among each other. So we will use UML class diagrams to set up specifications and want to create concrete configurations satisfying those specifications. We will present how to define the precise semantics of UML class diagrams by transforming diagram related questions to problems of integer linear programming. The definition of a precise semantics makes it possible to reason about diagram related questions formally and in our case even automated. For this purpose we will present a system called Clews which was developed in the context of this thesis. Clews offers the theory and reasoning tasks presented in this thesis in a fully automated way. So users of Clews do not need any knowledge about the formal background and just benefit from the formal reasoning done in the background. One of the principles of Clews is that it offers the reasoning tasks in an interactive way. For example the systems checks the consistency of specifications after each change by the user and immediately shows whether and where there are inconsistencies. Our semantics directly delivers partial configurations where all objects but no links are known. Therefore we will present novel techniques to solve a couple of important problems related to the creation of links. Because of the conceptual separation of creating objects and creating links we are also able to solve problems like extending or repairing given partial configurations with respect to given specifications.

Diplomarbeitsposter Riener Martin

Martin Riener

Masterstudium Computational Intelligence
Abstract:

The axiomatization of arithmetical properties in theorem proving creates many straightforward inference steps. In analyzing mathematical proofs with the CERES (Cut-Elimination by Resolution) system, it is convenient to hide these inferences. The central topic of the thesis is the extension of the CERES method to allow reasoning modulo equational theories. For this, the inference systems of Sequent Calculus modulo and Extended Narrowing and Resolution replace their non-equational counterparts in CERES. The method is illustrated by examples comparing inference modulo the theory of associativity and commutativity with unit element to inference in the empty theory.

Diplomarbeitsposter Srndic Edin

Edin Srndic

Masterstudium Informatikmanagement
Abstract:

Training and education have long been accepted as integrant to disaster readiness, but many currently taught practices are neither evidence-based nor standardized. The need for effective disaster training of emergency personnel at all levels has been designated by the disaster response community as a high priority. Triage is a process during emer-gency care which aims at maximizing the provided care in a situation where the availa-ble resources are limited by diagnosing injuries and categorizing patients into groups to determine the priority for treatment and transport. The electronic triage tag framework increases the quality and amount of medical care for patients in such situations and in-creases the efficiency of the entire triage process. This thesis evaluates the main charac-teristics and differences of a conventional triage system and an electronic triage system, utilizing RFID tags and a client/server approach based on wireless communication. In-formation gathering is performed by the mobile triage devices with integrated RFID reader. Adoption of mobile computing technology can potentially improve information access, enhance workflow, and promote evidence-based practice to make informed and effective decisions in the triage process. Handheld computers or personal digital assis-tants (PDAs) offer portable and unobtrusive access to clinical data and relevant infor-mation at the point of care. The education of emergency personnel during the chan-geover from the conventional triage system to the electronic triage system using mobile triage devices is the central part of this thesis.

Institut für (vor 2018) Institut für Computergraphik und AlgorithmenE186

Arbeitsbereich (vor 2018) Algorithms and Complexity

Diplomarbeitsposter Oberlechner Karin

Karin Oberlechner

Masterstudium Computational Intelligence
Abstract:

In this thesis, exact and heuristic methods for solving the k-node minimum label spanning arborescence (k-MLSA) problem are developed. The k-MLSA problem is a combination of the minimum label spanning tree problem and the k-cardinality tree problem, which are both NP-complete. Given a complete, directed graph in which one or more labels are associated with each arc, the goal is to derive a minimum cardinality subset of labels such that their corresponding arcs contain a directed tree connecting at least k nodes of the graph. In addition to exact and heuristic methods for solving the k-MLSA problem, this thesis contributes a new preprocessing algorithm for constructing the initial labels. The heuristic method is a memetic algorithm (MA). The exact algorithm is based on mathematical programming. It solves the underlying integer programming formulation by combining branch-and-cut with column generation in a branch-and-cut-and-price (BCP) approach. In this approach, new (label) variables and constraints are added dynamically to an incomplete initial model during the branch-and-bound process. The new variables are generated by solving the pricing problem, which is based on the values of the dual variables of the current solution. Hence, the label variables no longer need to be constructed in a preprocessing step. As the pricing problem needs to be solved frequently as part of the overall BCP process, efficient algorithms are required. For this purpose, a method based on non-dominated interval search is proposed. It provides an efficient solution to the pricing problem as well as to the preprocessing step. The BCP approach proposed in this thesis can solve larger instances than previously developed branch-and-cut and branch-and-price algorithms. The new preprocessing method significantly reduces computational complexity compared to the previous method, which has been the bottleneck in the overall procedure.

Diplomarbeitsposter Pimmer Michael

Michael Pimmer

Masterstudium Computational Intelligence
Abstract:

This master thesis describes an algorithm for creating high-school timetables. We are going to use the instances of the School Benchmarking project. This project, started in 2007, provides an XML format, an evaluation function and several real-world instances from various countries. Our approach is to pick a non-full timeslot. We grade the favorability of all meetings that can be held in this timeslot: All hard constraints and the goal of completely filling the timetable have to be considered, as well as the soft-constraints, to obtain valid solutions with low penalties. This information - the meetings and their grades, as well as which meetings can be held simultaneously - is represented as a weighted graph. We perform a heuristic maximum weight clique search on this graph. If there are meetings with open roles, one out of a certain set of resources shall be assigned, e.g. any english teacher. This introduces an additional constraint to the maximum-weight clique search. Before assigning the found clique to the respective timeslot, all open roles are closed with a maximum-cardinalty maximum weight matching. On top of this basic procedure, we are going to implement higher-level solving strategies. We try to improve the quality of the timteable by partly refilling it or by reassigning resources and meetings that cause penalty. There are various parameters that influence the grading of constraints to construct the weighted graph for the clique search. We will use a hill climbing procedure to search for appropriate parameter-values. This work describes the given approach in detail. The advantages and disadvantages of this timeslot-based algorithm will be discussed by evaluating it using the before-mentioned instances. We are also going to present and discuss the results, which are the first results published based on the School Benchmarking Project, as well as specifics of the format and instances.

Arbeitsbereich (vor 2018) Computergraphik

Diplomarbeitsposter Hehr Stefan

Stefan Hehr

Masterstudium Visual Computing
Abstract:

Diese Arbeit thematisiert den Umgang, im Konkreten die Speicherung, die GPU-Handhabung, aber vor allem die Darstellung und Visualisierung von komplexen Volumendatensätzen. Diese können aus unterschiedlichen Primitiven zusammengesetzt sein wie zum Beispiel aus Dreiecken, Voxel oder Partikel. Die vorliegenden Daten müssen dabei nicht räumlich voneinander getrennt sein, sie können sich auch überlappen, gegebenenfalls auch miteinander interagieren. Ein vorstellbares Szenario wäre eine überflutete Landschaft, wobei das Gelände in Form eines Dreiecksnetzes, das Wasser als Volumen und eventueller Niederschlag als Partikel vorliegen. Nach umfassender Recherche im Bereich der Datenstrukturen (vornehmlich Bäumen) soll eine geeignete Struktur gewählt und praktisch umgesetzt werden. Diese Struktur soll nicht nur ermöglichen, große Datenmengen zu beinhalten, sondern diese auch nach Bedarf schnell und mit möglichst wenig Aufwand in den Speicher der Grafikkarte schieben zu können. Die Verwaltung und Zurverfügungstellung der Daten ist der eine Teil, der andere ist die Auswertung und die abschließende Ausgabe, d.h. das Traversieren durch die Baumstruktur der Daten. Diese Visualisierung erfolgt durch Ray-Tracing. Die Umsetzung eines erweiterbaren Ray-Tracers auf der Grafikkarte ist ebenfalls Bestandteil dieser Arbeit. Aufgabe dieser Arbeit ist es, verschiedene Ideen zu sammeln, wie die verschiedenen Datensätze gehandhabt werden können, um eine möglichst schnelle Anzeige zu ermöglichen. Die Ansteuerung des hybriden Ray-Tracers ist vor allem in der Handhabung des Datenartwechsels herausfordernd. Zu diesem Zweck wurden drei Methoden angedacht und die Vielversprechenste implementiert.

Diplomarbeitsposter Kment Thomas

Thomas Kment

Masterstudium Visual Computing
Abstract:

Digitale Bildsynthese wird in vielen industriellen Anwendungen eingesetzt. Ein Teilbereich dieser Disziplin ist die physikalisch korrekte Darstellung natürlicher Phänomene wie beispielsweise die Farbe des blauen Himmels, oder korrekte Lichtbrechung. Die diesen Phänomenen zugrundeliegenden physikalischen Effekte erfordern, dass bei der Verarbeitung von Farbinformationen deren spektrale Eigenschaften berücksichtigt werden. Hierfür wurden über die Jahre einige Methoden entwickelt. Diese stehen vor der gemeinsamen Herausforderung, komplexe Daten (z.B. fluoreszierende Lichtquellen) möglichst genau darzustellen. Meine Arbeit vergleicht diese Verfahren mithilfe der Farbdistanzformel CIEDE2000 und eines großen Testdatensatzes (NCS Farbatlas) und geht der Frage nach, welchen Einfluss Tiefpassfilter bei der Veränderung der Abtastrate der Daten haben.

Diplomarbeitsposter Marek Stefan

Stefan Marek

Masterstudium Visual Computing
Abstract:

This diploma thesis introduces methods for external sorting and fast k nearest neighbor searching for very large point clouds. Very large point clouds are datasets that can not be processed in main memory. This leads to certain requirements for any used reconstruction technique. The most important ones are out-of-core memory management and sequential data handling algorithms. The paper ``Stream-Processing Points'' by Renato Pajarola shows a way to design a framework which allows to process a subset of very large point clouds. A subset is defined as a spatially continuous region holding a predefined number of points. This diploma thesis is based on the aforementioned paper and improves on the stream processing pipeline presented therein. The proposed algorithm for searching the k nearest neighbors has a complexity of O(N * log(M)), where N are all points in the point cloud and M are all points in main memory, which is similar to current state of the art algorithms for in-core processed data sets.

Institut für (vor 2018) Gestaltungs- und WirkungsforschungE187

Arbeitsbereich (vor 2018) Multidisciplinary Design

Diplomarbeitsposter Chlebecek Helmut

Helmut Chlebecek

Masterstudium Medieninformatik
Abstract:

Digitale Lernspiele sind eine neue Form des elektronisch unterstützten Lernens. Der Fokus bei diesen Lernspielen ist primär auf die Motivation der Lernenden gerichtet. Das zu vermittelnde Wissen wird dabei eher indirekt transferiert. Formen der Vermitt- lung bestehen aus Interaktion von Computer und Mensch und erfolgen multimedial. Die vorliegende Arbeit beschreibt zunächst die Grundlage von digitalen Lernspielen, das Lernen. Dabei werden Lernparadigmen und diverse wissensvermittelnde Grundlagen er- örtert. Das Spiel soll im darauf folgenden Artikel ins Zentrum der Betrachtung gerückt werden. Dabei werden Definitionen von Spiel sowie die Natur und Hintergrund des Spiels beschrieben. Des weiteren werden didaktische und motivationale Aspekte des spielba- sierten Lernens ausführlich behandelt. Den Theorieteil schließt eine Zusammenfassung und ein Ausblick in die Zukunft von digitalen Lernspielen ab. Im praktischen Teil der Ar- beit werden relevante Teile der Umsetzung und Implementierung vom Rechtschreibspiel „Kängurules“ auf Grund des erworbenen Wissens dokumentiert. Dieses Rechtschreib- spiel wird evaluiert und getestet. Die Ergebnisse der Evaluation brachten interessante Erkentnisse zum Vorschein. Aufgrund der Beobachtungen war eine Tendenz zu erken- nen, die vermuten lässt, dass durch das vorliegende Rechtschreibspiel nicht besser oder schneller gelernt werden kann, aber es scheint sichtlich mehr Spaß zu machen.

Diplomarbeitsposter Ollram Petra

Petra Ollram

Masterstudium Medieninformatik
Abstract:

The focus of this diploma thesis is the analysis of presentation software and alternative possibilities of presentation support, especially in a combination with gestural interfaces. The gesture controlled prototype of an alternative presentation support software, which is developed in the course of this thesis, is analysed and evaluated in this regard. The numerousness of presentations held and heard make is necessary to design the presentation software in an effective way so both the audience and the presenter can profit from it. Presentation navigation, features for highlighting important parts of the content as well as the now popular use of gestural interfaces are emphasized in the development and analysis of the prototype. The points at issue are the construction of an easy to build and easy to use data glove as well as the creation of an effective gesture controlled software for interaction with slideshows. The prototype is evaluated by conducting video observed user tests where the users have to perform specified tasks with the prototype, interviews with the six test users as well as with consideration of usability aspects. The collected data from the observations and the survey afterwards, allow drawing conclusions about the usage of presentation support features and navigation, the necessary simplicity of presentation software and data glove use.

Diplomarbeitsposter Radits Markus

Markus Radits

Masterstudium Medieninformatik
Abstract:

Beim Affective PDF Reader handelt es sich um einen PDF Reader, der in Echtzeit den Gesichtsausdruck des Users interpretiert um daraus Rückschlüsse auf den emotionalen Zustand des Lesers zu ziehen. Aus den dadurch gewonnen Informationen wird visuelles Feedback im Texthintergrund generiert um dadurch die Möglichkeit einer positiven Beeinflussung des Leseprozesses zu untersuchen. Die Motivation zum Affective PDF Reader entstand einerseits durch die großen Fortschritte in den Bereichen Affective Computing, Signal Processing und Pattern Recognition. Andererseits aus der Erkenntnis, dass unsere oftmals regungslosen Gesichter bei der Arbeit mit Computern von keiner positiven Interaktion zeugen. Der Prototyp des Affective PDF Readers verwendet zur Visualisierung Fußabdrücke, deren Farbe sich aus dem detektierten Gesichtsausdruck ergibt. Diese Fußabdrücke dienen dazu die affektiven Reaktionen gemeinsam mit dem Text darzustellen um dadurch in einer Interaktionsschleife das Lesen positiv zu beeinflussen. Die Positionen dieser graphischen Objekte werden mit der Maus bestimmt. Nachdem ein Fußabdruck gezeichnet wurde, wird er langsam ausgeblendet, um ein Überladen zu vermeiden. Zukünftig soll die Positionierung mit einem Eyetracker erfolgen. Es hat sich gezeigt, dass visuelles Feedback in solch einer Anwendung großes Potential in sich birgt und viele neue, interessante Fragen aufwirft. Wenn die Visualisierung schlicht und nicht aufdringlich ist, kann der Leseprozess positiv beeinflusst werden.

Diplomarbeitsposter Sackl Andreas

Andreas Sackl

Masterstudium Medieninformatik
Abstract:

Die Durchdringung des Alltags mit modernen Computertechnologien wie zum Beispiel Online Social Networks, Onlinestores oder Kundenkarten führt zu einem massiven Anstieg der erfassten und verarbeiteten persönlichen Daten. Die sich daraus ergebenden, mannigfaltigen Risiken hinsichtlich der Privatsphäre führen zu der Frage, warum betroffene Personen sorglos mit ihren Daten umgehen und warum es zu einer verzerrten Wahrnehmung hinsichtlich möglicher Eingriffe in die Privatsphäre und zu einem geringen Risikobewusstsein kommt. Theoretische Überlegungen bezogen auf den diffusen Begriff Privatsphäre, kombiniert mit Erkenntnissen der aktuellen Risikoforschung und sozialpsychologischer Theorien, wie etwa der Begriff „Alltagsbewusstsein“, lieferten die Grundlage für die anschließende, empirische Untersuchung. Als Erhebungsmethode kam das qualitative Verfahren der Gruppendiskussion zum Einsatz, die Auswertung des erhobenen Materials erfolgte anhand einer sozialwissen-schaftlichen Hermeneutik, welche die relevanten Aussagen der Teilnehmer mit den zuvor erarbeiteten theoretischen Konzepten in Verbindung brachte. Es wurden 5 Diskussionen mit je 8 TeilnehmerInnen durchgeführt. Es zeigte sich, dass diese fundiertes Wissen über die Risiken von ICTs bezogen auf die Privatsphäre vorweisen, jedoch nicht in ihr alltägliches Handeln einbringen konnten. Die betroffenen Personen wendeten diverse Mechanismen an, um ihr Handeln zu rechtfertigen, beispielsweise die Betonung der eigenen Handlungskompetenz oder Hervorhebung der eigenen Stellung als Experten hinsichtlich der Risiken. Zahlreiche Aussagen deuteten auf eine gewisse Ohnmacht und Hilflosigkeit gegenüber ICTs hin, die Mechanismen der Datenverarbeitung können anscheinend weder verstanden noch beeinflusst werden. Dies äußert sich unter anderem dadurch, dass dem Staat als rechtliche Instanz viel Vertrauen und Handlungskompetenz entgegengebracht wird.

Arbeitsbereich (vor 2018) Human Computer Interaction

Diplomarbeitsposter Bazalka Stephan

Stephan Bazalka

Masterstudium Medieninformatik
Abstract:

This diploma thesis investigates the role of information technology to support meetings of a group of people in a meeting room. Although research projects show that there is a need for improvement in the usage of technology in meetings, very few tools actually support presenting and sharing digital content, which is an important part of today’s meetings. Preed, the setup accompanying this work, consists of two parts: The software provides a web based user interface for the participants of a meeting. Using this interface, the participants are able to share digital artefacts like websites, images, notes and documents with each other. They are also able to present these artefacts on the presentation screen, without any action of the presenter. The hardware setup of Preed provides an HDMI-interface to the presenter, allowing him/her to connect their laptop and show a presentation or other digital content. The use of Preed does not require any installation on the hardware of the meeting participants. During the design and development of Preed, ethnographic research and sketching played an important role. It was shown that thorough research and user involvement help in the understanding of the actual usage scenario as well as in making design decisions.

Diplomarbeitsposter Mihalik Peter

Peter Mihalik

Masterstudium Medieninformatik
Abstract:

Diese Diplomarbeit befasst sich mit der praktischen Anwendung der Prinzipien, die den Begriff „Web 2.0“ geprägt haben. Im Zuge der Arbeit wurde eine Bibliotheksanwendung entwickelt, obwohl (oder gerade weil) diese in „Web 2.0“-Umgebungen bisher eher untypischen waren. Bei der Konzeptionierung der Anwendung wurde besonderes Augenmerk darauf gelegt, welche „Web 2.0“-Technologien vernünftig einsetzbar sind und vor allem wie einzelne „Web 2.0“-Konzepte am Besten implementiert werden können. Hinter dem Begriff „Web 2.0“ verbirgt sich eine Vielzahl von Konzepten, Technologien und Richtlinien, die in dieser Arbeit evaluiert werden. Die Prinzipien des „Web 2.0“, sowie der Begriff selbst, werden im ersten Teil dieser Diplomarbeit definiert und erklärt. Es wird auch auf die geschichtlichen Aspekte des Begriffs eingegangen. In weiterer Folge werden die theoretischen Ansätze der Verbindung der Konzepte von „Web 2.0“ mit den Bibliothekssystemen evaluiert. Der zweite Teil der Arbeit beschreibt das praktische Anwenden der im ersten Teil beschriebenen Prinzipien anhand der Entwicklung der Bibliotheksanwendung des Instituts für Gestaltungs- und Wirkungsforschung der Technischen Universität Wien.

Diplomarbeitsposter Nägele Thomas

Thomas Nägele

Masterstudium Medieninformatik
Abstract:

Kollaboratives Arbeiten bedeutet das Teilen von Materialien, Dokumenten und Werkzeugen. Herkömmliche, greifbare Medien schaffen eine Kommunikationsebene zwischen den Personen, auf der es möglich ist, Gedanken, Ideen und Konzepte rasch und zugänglich aufzubereiten. In der Vergangenheit sind schon einige Versuche unternommen worden, diese Art des Arbeitens auf digitalen Medien umzusetzen. So gibt es bereits Ansätze, die die Zusammenarbeit auf einem gemeinsamen großen Display ermöglichen sollen. Jedoch stößt man bei der Arbeit mit diesen kollaborativen Systemen immer wieder auf Barrieren, da es bisher noch nicht gelungen ist, eine effiziente und transparente Schnittstelle zwischen analogen und digitalen Objekten zu schaffen. Anhand theoretischer und praktischer Ansätze beschreibt die folgende Arbeit die Unterstützung traditioneller Arbeitsweisen von Designern auf digitalen Objekten. Das kollaborative System Scribbler setzt auf die wohl wichtigste Designmethode, das Skizzieren, und versucht eine barrierefreie Schnittstelle zwischen realen und digitalen Objekten zu schaffen.

Diplomarbeitsposter Sagmeister Clemens

Clemens Sagmeister

Masterstudium Medieninformatik
Abstract:

Kollaboratives Arbeiten bedeutet das Teilen von Materialien, Dokumenten und Werkzeugen. Herkömmliche, greifbare Medien schaffen eine Kommunikationsebene zwischen den Personen, auf der es möglich ist, Gedanken, Ideen und Konzepte rasch und zugänglich aufzubereiten. In der Vergangenheit sind schon einige Versuche unternommen worden, diese Art des Arbeitens auf digitalen Medien umzusetzen. So gibt es bereits Ansätze, die die Zusammenarbeit auf einem gemeinsamen großen Display ermöglichen sollen. Jedoch stößt man bei der Arbeit mit diesen kollaborativen Systemen immer wieder auf Barrieren, da es bisher noch nicht gelungen ist, eine effiziente und transparente Schnittstelle zwischen analogen und digitalen Objekten zu schaffen. Anhand theoretischer und praktischer Ansätze beschreibt die folgende Arbeit die Unterstützung traditioneller Arbeitsweisen von Designern auf digitalen Objekten. Das kollaborative System Scribbler setzt auf die wohl wichtigste Designmethode, das Skizzieren, und versucht eine barrierefreie Schnittstelle zwischen realen und digitalen Objekten zu schaffen.

Diplomarbeitsposter Schekulin Mario

Mario Schekulin

Masterstudium Informatikmanagement
Abstract:

Es wurde bald nach der Veröffentlichung des ersten Films klar, dass dieses Medium sich gut dafür eignet Wissen zu vermitteln. Mit der Einführung des Fernsehers und Videorecordern wurde das Lernen mit Videos massiv gefördert. Die hohen Erwartungen bezüglich Lernerfolg und Lernzufriedenheit konnten jedoch nicht wirklich erfüllt werden. Durch die Möglichkeiten der Computertechnologie, besonders durch das Internet und das Web 2.0 entstehen didaktische als auch technologische Trends welche die Anforderungen der Lernforschung besser erfüllen können. In dieser Arbeit wurden real genutzte Umgebungen im Internet untersucht und Testpersonen wurden dann mit diesen konfrontiert. Mittels Thinking-aloud Methode und qualitativen Interviews wurden danach die Erkenntnisse erhoben. Es wird gezeigt welche Erwartungen des Lerners erfüllt und welche Richtlinien eingehalten werden müssen. Besonders die Möglichkeit der Interaktivität und wie diese eingesetzt werden kann oder sollte spielt eine große Rolle.

Diplomarbeitsposter Wallner Johannes

Johannes Wallner

Masterstudium Medieninformatik
Abstract:

Fotografien sind Darstellungen einer Szene zu einem bestimmten Zeitpunkt. Im Laufe der Zeit verändern sich jedoch unweigerlich die zu einem bestimmten Zeitpunkt aufgenommenen Begebenheiten in der Szene. Aufgrund der umfangreichen Menge an digitalisierten Fotos unterschiedlicher Zeitpunkte, welche über das Internet zu finden sind, bietet sich die Darstellung und die Vereinigung der Fotos in einem interaktiven IT-System an. Dadurch sollen die Veränderungen der Aufnahmen über die Zeit zielgerichtet dargestellt und mit weiterführenden Informationen wie zum Beispiel dem Standort, dem Datum und persönlichen Eindrücken zu jener Aufnahme versehen werden können. Das Resultat dieses computergestützten Vorgangs soll ein neues, zeitloses Foto aus verschiedenen Bestandteilen existierender Refotografien darstellen. Diese Arbeit enthält die Konzeption, Implementierung sowie Anwendertests eines möglichen interaktiven und sozialen Systems, welches eine kollaborative, selektive Bildsynthese durch die Anwender des Systems ermöglichen soll. Ein zentrales Element dieses sozialen Systems stellt die gemeinsame Verwendung einer geografischen Navigationskomponente in Form einer interaktiven Landkarte dar. Das Methodische Vorgehen dieser Arbeit umfasst die Konzeption eines interaktiven Systems basierend auf einer Projektidee, die prototypische Umsetzung als grafische und interaktive Prototypen sowie die Implementierung des Systems. Weiters wurden Anwendertests mit einer ausgewählten Zielgruppe durchgeführt, die neben der Interaktion mit dem sozialen System auch über die mögliche Nutzung in einem aufgabenorientierten Kontext Aufschluss geben. Hierbei wurden die Anwender mit Mockups durch die Innenstadt von Wien geführt um Refotografien durchzuführen. Die Anwendertests wurden anhand Beobachtungen, Fragebögen und Einzel- sowie Gruppenbefragungen durchgeführt. Die Benutzbarkeit des interaktiven Systems und seine Praxistauglichkeit konnte anhand der Anwendertests gezeigt werden.

Institut für (vor 2018) Softwaretechnik und Interaktive SystemeE188

Arbeitsbereich (vor 2018) Information & Software Engineering

Diplomarbeitsposter Bründl Daniel

Daniel Bründl

Masterstudium Business Informatics
Abstract:

Projektmanagement derzeit ein beliebtes Schlagwort in verschiedenen Bereichen der Wirtschaft gewinnt speziell in der Softwareentwicklung immer mehr an Bedeutung. Kaum ein Vorhaben, und sei es vermeintlich ein noch so kleines, wird heutzutage ohne ein zumindest rudimentäres Projektmanagement abgewickelt. Einen der Hauptgründe für diese Tatsache kann man in der Globalisierung orten. Arbeitsverhältnisse werden kontinuierlich aufgeweicht und hierar-chische Strukturen gleichzeitig flexibler gestaltet, um den neuen Anforde-rungen schneller und effizienter begegnen zu können. Diese Strömungen sind grundsätzlich richtig und wichtig; allerdings wird etwaigen Risiken, welche mit einem derartigen Umstrukturierungsprozess verbunden sein können, zu wenig Beachtung geschenkt beziehungsweise verfügt das klassische Projektmanagement über zu wenig brauchbare Vorgehensweisen. Genau diese Risiken werden jedoch gegebenenfalls über Erfolg oder Misserfolg eines Projekts entscheiden. Der zeitigen Status quo im (IT) Projektmanagement legt daher den Schluss nahe, dass etwaige auftretende Risiken nicht in geeigneter Art und Weise behandelt werden. In dieser Arbeit wird ein möglicher Lösungsvorschlag für dieses Problem erarbeitet. Ein neues Vorgehensmodell - „Risk Driven Process“- enthält Elemente der Prozessmodellierung, mit dem ein neues Risikomanagement im Projektmanagement installieren werden kann. „Risk oriented process evaluation“ nach Jakoubi und Tjoa wird dabei als Grundlage für den neuen Ansatz verwendet und um die Anwendung im Projektmanagement erwei-tert. Schließlich wird das neue Modell mittels Abarbeitung eines Fallbeispiels untermauert.

Diplomarbeitsposter Duggleby Alexander

Alexander Duggleby

Masterstudium Software Engineering & Internet Computing
Abstract:

Due to the complex world we live the outcome and consequences of the decisions we make cannot be fully understood. We have evolved to cope with this uncertainty in our daily lives. It becomes a challenge when multiple stakeholders are involved and we are held responsible by others for our actions. The field of risk research has occupied researches for decades and produced numerous methods for managing these risks. Even so they are often incompatible with each other and the results are highly subjective causing low adoption rates by organisations. These methods seldom define details in process implementation and a lack of tooling support makes the actual risk assessment phase very cost intensive. The expert sources required are often interviewed personally and the data processed by hand. This ultimately leads to less assets being surveyed. This thesis attempts to automate large parts of the aforementioned process with the help of software tools. The cost of the whole process can be reduced by designing an integrated and automated software solution for risk assessment which in turn allows more assets to be assessed. The basis for the automation is a systematic assessment of the assets state and hierarchical aggregation of the resulting risk levels. Common risk management methodologies were examined, commonalities identified and a generic risk assessment approach defined. A data model was developed to describe processes based on this approach. A software prototype based on the derived technical data model was used to test the validity and aggregation capabilities of the concept based upon a common risk management methodology for IT security. The main results of this work are the generic risk assessment process, the design of a technical model for describing and documenting it and the software prototype application that supports it.

Diplomarbeitsposter Gottardi Riccardo

Riccardo Gottardi

Masterstudium Software Engineering & Internet Computing
Abstract:

Diese Arbeit analysiert die Problematik der langfristigen Bewahrung von elektronischen Dokumenten. Eine neue Herausforderung im Bereich der digitalen Langzeitarchivierung betrifft komplexen Objekte, die aus mehrerem einzelnen Objekten bestehen. Um die Erhaltung und Verwendung dieser Objekte sicherzustellen, müssen deren einzelne Teile analysiert und falls erforderlich behandelt werden. Das Problem der langfristigen Bewahrung von digitalen Objekten ist, den Zugriff auf diese unbegrenzt zu sichern. Alle Teile im Dokument, die sich in obsoleten oder proprietären Formaten befinden, werden für die langfristige Verwendung in bevorzugte und geeignetere Formate migriert. Im ersten Teil dieser Arbeit wird der Prozess der extrahierung der einzelnen Elementen des komplexen Objektes beschrieben. Danach werden die Objekte migriert und in ein neues komplexes Objekt des gleichen Formats wie das Ausgangsobjekt zusammengesetzt. Der zweite Teil der Arbeit zeigt einen Musterfall, wo unterschiedliche Dokumente in ODF oder ooXML Format mit verschiedenen Alternativen, einschließlich der Migration mit dem COP Plug-in, migriert werden. Das COP Plug-in ist ein selbst implementiertes Plug-in für jHove, das die Standard-Features wie die jHove Identifizierung, Validierung und Charakterisierung der digitalen Dokumente auf ODF oder ooXML Format einschliesst. Außerdem ermöglicht die Software die Extraktion der Struktur der Formate und die Herauslösung kritischer Objekte aus dem komplexen Objekt. Die Ergebnisse dieses Experimentes zeigen, dass wenn das digitale Dokument als ein komplexes Element behandelt wird, die Qualität der Migration für eine lang-zeit Archivierung erhöht wird. Dies ist möglich, weil das originale Format bewahrt bleibt und die Probleme der Unterlemente individuell gelöst werden oder in einen neuen Format unmgewandelt werden können.

Diplomarbeitsposter Handler Michael

Michael Handler

Masterstudium Software Engineering & Internet Computing
Abstract:

The major problem that arises, when complex systems have to be engineered, is weak interoperability of tools in one engineering domain and especially between tools of different engineering domains. Incompatible syntactical representations of the same semantic concepts make efficient integration of engineering tools especially difficult. In addition high quality standards and rapidly changing requirements for large engineering projects create the need for advanced project management and quality assurance applications, like end-to-end tests across tool and domain boundaries. To solve the integration problem often costly and hard to maintain point to point integration between the tools is done. But these systems are not capable of fulfilling the requirements of a modern engineering environment, like robustness, flexibility and usability. The Engineering Knowledge Base (EKB) is a framework for semantic engineering environment integration. In this thesis a semantic data integration solution for (software+) engineering is developed based on the EKB concept. A prototype of the EKB is developed and integrated into the Open Engineering Service Bus (OpenEngSB). The prototype is evaluated against the current technical-only integration provided by the OpenEngSB with the help of two use cases: (1) Definition Of Quality Criteria Across Tool Data Models in Electrical Engineering and (2) Change Impact Analysis for Requirement Changes. The empirical evaluation shows that the EKB is an effective and efficient way to provide the necessary infrastructure for advanced applications like end-to-end tests across tool boundaries. Nevertheless additional configuration and maintenance effort is needed to manage the semantic knowledge. Yet if applications like those described in the real world use cases have to be performed, the additional features of the proposed semantic integration framework outbalance these disadvantages.

Diplomarbeitsposter Imber Mario

Mario Imber

Masterstudium Software Engineering & Internet Computing
Abstract:

Mathematical models of walking behaviour of pedestrians find application in numerous areas including architecture, panic analysis, traffic control, urban design, retail industry or entertainment. Pedestrian modelling evolved into a broad field of research with approaches following various different base concepts. Commercial and prototypical software tools exist to enable analysis and simulation of pedestrians in a given environment. Existing software solutions provide highly integrated components used to design simulation scenarios, run simulations or calculations and visualize or analyse the results. Though this application structure supports a consistent user experience, it prohibits the reuse of scenario definitions with different simulation models due to proprietary interfaces or tightly coupled implementations. This thesis follows an alternative approach of decoupled scenario creation, attempting to develop a more flexible tooling framework for unified definition of pedestrian scenarios. The framework consists of two parts, first the specification of a generic interface used to describe the parameterization of scenarios expected by a simulation model and to specify scenario instances following that parameterization, and second a software tool supporting the creation of simulation scenarios conforming to that interface. The interface specification is developed based on a generic model of scenario input data, which is derived from an analysis of existing models. A categorization of modelling approaches is given, followed by reviews of selected proposals in literature providing a broad coverage of the problem field. The technical realization of the interface in XML is discussed using UML class diagrams. A Java implementation, the Scenario Builder, is presented as the second framework part, a software tool realizing user interface concepts that enable practical adoption of the proposed interface.

Diplomarbeitsposter Leonhartsberger-Schrott Martin

Martin Leonhartsberger-Schrott

Masterstudium Informatikmanagement
Abstract:

Der 1974 von Ernő Rubik erfundene "Zauberwürfel" ist für Kinder und Erwachsene gleichermaßen eines der beliebtesten Puzzlespiele. Diese Arbeit beantwortet die folgenden Frage: Wie kann eine Implementierung einer interaktiven, sensorenbasierenden Version des Rubik-Würfels und deren Einbettung in eine didaktisch wertvolle Software aussehen? Ein würfelförmiges Eingabegerät wurde gebaut und dokumentiert, welches im Inneren einen Mikrocontroller und diverse Sensoren verbirgt. Deren Messergebnisse werden zu einem Computer übertragen, auf welchem der zweite Teil der Arbeit zum Einsatz kommt: Ein Programm, das diese Werte interpretiert und einen virtuellen Rubik-Würfel rendert. Dieser folgt dem Eingabegerät sowohl in Konfiguration als auch bezüglich der Orientierung im Raum. Diese Arbeit beschreibt die technischen und mathematischen Grundlagen des Prototyps und argumentiert die didaktischen Prinzipien der Lernsoftware. Zusätzlich werden konkrete Unterrichtsszenarien präsentiert, die das entwickelte System inkorporieren. Außerdem wird die entwickelte Hard- und Software in Bezug auf ihre Einsetzbarkeit auf älteren Systemen einer Evaluation unterzogen. Abschließend werden mögliche zukünftige Weiterentwicklungen diskutiert.

Diplomarbeitsposter Meyer Ludwig

Ludwig Meyer

Masterstudium Software Engineering & Internet Computing
Abstract:

UML ist ein industrieweit anerkannter Modellieungs-Standard mit 13 Diagrammtypen und einfacher Notation. Obwohl es breite Tool-Unterstützung gibt, sind viele dieser Tools nur schwer bedienbar. Sie leiden unter nicht optimal entworfenen Benutzeroberflächen mit schwer entzifferbaren Icons, Pop-Up Fenstern, verschachtelten Menüs und Tab-Panes, etc. Text-basierte Benutzereingabe bietet eine Alternative zu bekannten grafischen Metaphern. Das open-source Tool UMLet integriert den text-basierten Ansatz beim Modellieren, um Elemente und Diagramme mittels einfacher Grammatik zu erstellen. Diese Arbeit vergleicht die Effizienz herkömmlicher GUIs mit UMLets textbasiertem Interface im Kontext des explorativen UML Modellierens auf Basis repräsentativer Use-Cases. Die Evaluierung beruht auf einer vereinfachten Methode zur quantifizierten Messung von Benutzeroberflächen. Sie betrachtet die Anzahl der durch den Nutzer erforderlichen Interaktionen zur Erfüllung einer Aufgabe. UMLet ist ein leichtgewichtiges Werkzeug zur UML Modellierung. Der Fokus liegt auf einem einfachen und verständlichen Bedienungskonzept. Die Erstellung von Diagrammen so einfach und schnell wie mit Papier und Bleistift, aber mit den Vorteilen bei der Modifikation und Verfeinerung am Bildschirm. Ein text-basiertes Interface erhöht die Bedienungsgeschwindigkeit bei der Erstellung von Diagrammen. Einfache aber zugleich mächtige Syntax erlaubt die Modifikation einzelner Elemente, und sogar ganzer Diagrammtypen. Eines der Schlüsselfeatures UMLets ist seine erweiterbare, modulare Struktur mithilfe eines integrierten Java-Compilers. Die Benutzer können anhand eines einfachen Templates, das bereits alle notwendige Basisfunktionalität aufweist, einfach und schnell mittels Java ihre eigenen Elemente erstellen. UMLet bietet eine fast komplette Unterstützung für UML 2.0 und ist nicht zuletzt durch die Erweiterbarkeit mit Hilfe der genannten Custom-Elements an die jeweiligen Anforderungen leicht anpassbar.

Diplomarbeitsposter Pucher Alexander

Alexander Pucher

Masterstudium Software Engineering & Internet Computing
Abstract:

Internet scale services like Google Search and Cloud services operate on massive amounts of information. Timely processing of this data at the scale of Tera- and Petabytes requires the use of DISC systems, orchestrating large assets of hardware with frameworks such as Apache Hadoop. Annually, DISC system performance is compared by Sort Benchmark. Recent results show significant gains in performance, but a substantial loss in resource efficiency too. The Tritonsort case study is set up to create a top-performing and cost-effective system for large-scale Sort Benchmark by emphasizing resource efficiency over sheer scalability. This paper systematically evaluates resource efficiency of the Tritonsort prototype and contributes two improved software components. Objective. Systematic evaluation of resource efficiency of Tritonsort by comparison to state-of-the-art systems and development of well-performing components for intermediate data storage and internal sorting. The solution is deemed effective if Tritonsort is capable of performing 100TB Gray Sort Indy and Minute Sort Indy benchmarks and provides competitive performance and cost efficiency. Method. Survey in literature about existing approaches to distributed parallel sort, design and implementation of internal sorting and disk I/O components, and evaluation by systematic comparison to existing systems in terms of performance and resource efficiency. Result. Tritonsort outperforms state-of-the-art systems in the 2010 “Gray Sort Indy” and “Minute Sort Indy” challenge by a factor of four per cluster node. It improves upon average throughput per CPU core and disk and achieves higher cost efficiency. Literature. Anderson and Tucek emphasize the potential of resource efficient systems and provide a systematic listing of different aspects of efficiency. Vitter creates the foundation for efficient disk I/O in external sorting while different Sort Benchmark systems inspire design and optimization of internal sort.

Diplomarbeitsposter Schnitzhofer Florian

Florian Schnitzhofer

Masterstudium Informatikmanagement
Abstract:

Das Erstellen von Requirements Traceability ist ein ressourcen- und zeitintensiver Vorgang der schwer automatisierbar ist. Diese Arbeit untersucht den Einsatz von Information Retrieval Algorithmen zur automatisierten Erkennung von Beziehungen zwischen Anforderungen. Es wird angenommen, dass der Beziehungstyp Einfluss auf die Analyseergebnisse hat. Dafür werden folgende drei Beziehungstypen eingeführt: strukturelle Abhängigkeiten, beschränkende Abhängigkeiten und kosten- und wertrelevante Abhängigkeiten. Zur Überprüfung der These werden ein Vector-Space-Model und ein Latent-Semantic-Indexing Algorithmus auf zwei Fallstudien mit schablonenartigen Anforderungen angewendet. Die Auswertung der Ergebnisse zeigt, dass trotz der generell geringen Erkennungsrate die strukturellen Abhängigkeiten besser erkannt werden als andere Beziehungstypen.

Diplomarbeitsposter Tintel Martin

Martin Tintel

Masterstudium Informatikmanagement
Abstract:

Projektbezogenes Lernen ist eine praxisorientierte Methode, sich Wissen anzueignen. In einem interdisziplinären Umfeld können nicht nur interessante Projekte entstehen, sondern auch das Interesse für andere Fächer geweckt beziehungsweise entdeckt werden. Die Magisterarbeit begleitet in verschiedenen Schulklassen und –stufen Projekte von Anfang bis Ende und dokumentiert deren Entstehung sowie Umsetzung. Die dabei auftretenden Herausforderungen werden wie deren Lösung erläutert. Ferner wird erörtert, wie aufgetretene Probleme bei weiteren Projekten vermieden werden können. Die Arbeit gibt Einblicke in das Schulleben, die dort verwendeten Unterrichtsmethoden und die Bündelung verschiedener Lehrmethoden bei Projekten.

Diplomarbeitsposter Zumpf Reinhard

Reinhard Zumpf

Masterstudium Business Informatics
Abstract:

Distributed Denial of Service attacks are a major threat on the Internet that could not be completely fixed until today because we have to deal with a systematic problem, due to the inherent weaknesses and the principle of openness of the World Wide Web. This makes it difficult to issue an efficient solution that provides a strong economic model and deployment incentive for those responsible and participants in order to make that solution viable globally. The final goal of my thesis is to bring the different solution attempts to DDoS defense closer to each other by introducing, comparing, and evaluating them in the context of the state-of-the-art background about the DDoS threat which is provided in my thesis, to accomplish a homogenous and enclosed overview about the current circumstances and difficulties at the frontline against DDoS attacks. Aggregated state-of-the-art information and latest research results about the DDoS threat itself are a major part of my thesis and provide a broad basis to outline the DDoS threat from different points of view. A novel approach to attack the DDoS business concludes this thesis.

Diplomarbeitsposter Österle Christian

Christian Österle

Masterstudium Business Informatics
Abstract:

WS-BPEL provides a language for describing the behavior of a business process based on interactions between the process and its partners. The interactions of partners occurs through web service interfaces which ensure interoperability between applications by using web standards. Time management and temporal conformance is an important criteria for business processes. It ensures that activities are performed in a timely manner and that the right information is delivered to the right activities at the right time, such that overall temporal restrictions are satisfied and no deadline is violated. Deadline violations increase the execution time and cost of business processes because they require some type of exception handling. The contribution of this diploma thesis will be the implementation of a tool that enables users to augment WS-BPEL-processes with temporal information in design time and a run time component for checking the temporal behavior of the processes at run time. In design time a valid temporal interval for (activities of) each process is calculated with consideration for the structure of each process and the interactions between different processes and then checked if the model is temporally feasible, i.e. there is a solution satisfying all temporal constraints. Calculating the temporal intervals and checking the temporal conformance will be performed for two cenarios. The interval-based scenario, which allows a variable duration of activities within an interval. The stochastic scenario, that allows the definition of different activity durations with different probabilities and also takes the conditional branching behavior into account. In run time, it is checked if the activities are executed within the valid calculated intervals at design time. Therefore the time points of all processes are mapped to a calendar with current dates and times. Then, the temporal status of each process instance can be monitored.

Arbeitsbereich (vor 2018) Interactive Media Systems

Diplomarbeitsposter Autengruber Markus

Markus Autengruber

Masterstudium Medieninformatik
Abstract:

Multi-touch sensing on interactive tabletops and other flat surfaces has become a major trend in the field of human-computer interaction over the past years. The main objective is to provide a touch interface for the direct manipulation of digital content by multiple users at the same time. Within these terms the appropriate design of the interactive surface as well as the automatic detection and tracking of fingertips are crucial. Popular techniques for fingertip and touch detection use specific contact-sensitive computer hardware that is either relying on optical sensing in a controlled environment or capacitive surface technology. Since such hardware is usually custom-made, those interaction systems are mostly expensive, inconvenient to move, install and operate and not scalable. To overcome these drawbacks, a number of multi-touch researchers strive for alternative techniques to provide more adjustable interfaces. Here, everyday surfaces shall be augmented with the functionality of touch-based user interfaces, while using none but off-the-shelf and affordable vision hardware and relying on state-of-the-art computer vision methods and algorithms. This work starts off with the description, discussion and evaluation of common surface hardware technologies as well as existing techniques based on simple video hardware. After that, a set of straightforward computer vision algorithms is selected in order to develop a stand-alone software application. The application is capable of continuously tracking a rectangular surface as well as detecting multiple fingertips that hover above its top. This work is concluded by providing relevant empirical results on computer vision-based rectangle and fingertip detection in natural indoor environments.

Diplomarbeitsposter Jordan Harald

Harald Jordan

Masterstudium Informatikmanagement
Abstract:

H.264 is a powerful video compression standard using advanced spatial and temporal encoding techniques. Compared to the MPEG4 Part 2 standard, H.264 achieves the same visual quality at half of the bitrate. The coding efficiency of H.264 makes it well suitable for quality- and time-critical video applications such as low-latency video transmission. This work concentrates on a part of the H.264 coding process that is used in many of these applications - the spatial (Intra) prediction. This coding tool propagates pixels in a frame for predicting unknown neighbouring pixel regions. H.264 supports multiple propagation patterns which are referred to as coding modes. The challenge of most realtime video encoders is to choose an efficient coding mode in a reasonable amount of time. This process is called coding mode selection (CMS) and involves the computation of all possible coding modes and choosing the best one. This thesis focuses on reducing the computational complexity of the CMS. First, we investigate the behaviour of the CMS on a set of test sequences. The impact on the coding efficiency when using only a reduced number of coding modes is analyzed. Second, we develop two methods for speeding up the CMS. Both methods skip the computation of coding modes that are unlikely to improve the coding efficiency. This results in a significant reduction in the computational complexity of the encoder.

Diplomarbeitsposter Knecht Wolfgang

Wolfgang Knecht

Masterstudium Visual Computing
Abstract:

In der Computergrafik spielen Schatten eine bedeutende Rolle und tragen wesentlich zur Atmosphäre in einer drei dimensionalen Szene bei. Das Zusammenspiel von Schatten volumetrischer Objekte, wie etwa Wolken oder Rauch, als auch Schatten von polygonaler Geometrie stellt in der Echtzeitgrafik eine besondere Herausforderung dar. Ziel dieser Diplomarbeit ist es, qualitativ hochwertige Schatten in Szene mit mehreren volumetrischen sowie lichtdurchlässigen polygonalen Objekten zu berechnen. Schatten werden dabei auf Objekte vom selben Typ als auch auf Objekte von unterschiedlichem Typ geworfen. Dazu wird die Implementierung von Deep Shadow Maps auf Basis eines Polyhedral Volume Renderers beschrieben. Die Implementierung unterstützt neben Spot-Lichtquellen auch omnidirektionale Lichtquellen. Des Weiteren werden zwei verschiedene Methoden beschrieben wie Deep Shadow Maps abgespeichert werden. Um qualitativ bessere Ergebnisse zu erzielen, werden Objekte der Szene in Gruppen zusammengefasst und für jede Gruppe eine separate Deep Shadow Map berechnet. Auf aktueller Hardware können Schatten in Szenen, bestehend aus mehreren volumetrischen Objekten sowie polygonaler Geometrie, mit interaktiven Frameraten berechnet werden.

Diplomarbeitsposter Morgenbesser Wolfgang

Wolfgang Morgenbesser

Masterstudium Medieninformatik
Abstract:

In dieser Arbeit wird ein Spracherkennungssystem mit einfacher Wortübersetzung für mobile Endgeräte wie Mobiltelefone und PDAs geplant und auf einem Zielgerät umgesetzt. Dazu werden im ersten Teil die theoretischen Grundlagen von Sprache und Spracherkennung beleuchtet. Im Anschluss wird auf prominente Verfahren im Verlauf des Spracherkennungsprozesses eingegangen. Auch werden potentielle Störquellen und Restriktionen im mobilen Einsatz untersucht. Im zweiten Teil wird die Java ME-Plattform vorgestellt, welche als Basis für die praktische Umsetzung des Spracherkennungssystems dient. Der eigentliche Entwicklungsprozess wird von der Technologieauswahl, über die tatsächliche Umsetzung bis hin zu Optimierungen und Schwierigkeiten im Rahmen der praktischen Arbeit ausgeführt. Die experimentelle Validierung liefert schließlich Informationen und Aufschlüsse über das eingesetzte System.

Arbeitsbereich (vor 2018) Business Informatics

Diplomarbeitsposter Gabmeyer Sebastian

Sebastian Gabmeyer

Masterstudium Business Informatics
Abstract:

With the advent of model-driven development, which places models at the center of all development efforts, some of the existing deficiencies of code-centric software development approaches have been addressed. However, at the same time new problems arose, which require, e.g., techniques to describe, control and verify the evolution of models. Drawing from past findings in the field of code-centric software evolution is only partly feasible due to the graph-based nature of models, which renders the porting of solutions for text-based software development impractical. The graph-based nature of models suggests the application of graph transformation-theoretic concepts to models, to formally describe their manipulation by means of graph-rewriting rules. Though the concepts provided by the theory of graph transformation may seem intuitive, the specification of rewriting rules is a non-trivial task, which requires adequate tool support and knowledge of the underlying theory. Due to the heterogeneity of the employed approaches, a tool's capability to specify graph rewriting rules and the degree of assistance offered is hard to determine without prior investigation. Thus, a survey of existing tools was conducted, which revealed the Operation Recorder as a suitable tooling environment. In contrast to all other surveyed tools, it offers a by-demonstration environment, which allows to showcase the intended transformation instead of requiring its manual construction. The Operation Recorder, however, lacks a formal basis which prevents the verification of its transformations. Therefore, a framework to describe attributed graphs with inheritance, composition and multiplicities is presented with the aim to embed the Operation Recorder into this framework. For this purpose, a conceptual alignment is pursued which demonstrates the equivalence and interchangeability of the concepts provided by the Operation Recorder and those provided by the theory of graph transformation.

Diplomarbeitsposter Zwickl Patrick

Patrick Zwickl

Masterstudium Information & Knowledge Management
Abstract:

In the last decade, logic programming experienced new impetus by the growth of Answer Set Programming (ASP) as one of the key drivers in the academic world. However, ASP could not attract the same interest as other declarative programming languages in practice so far. This lack of interest in ASP may be explained by the absence of a sufficiently supported software engineering methodology resulting in a difficulty of designing and developing ASP programs. No tools supporting the development of ASP programs are available. So far, no modeling environment has been introduced in the context of software development based on the ASP paradigm, which offers valuable abstraction and visualization support during the development process. This thesis aims at establishing a novel method for visually designing and analyzing ASP programs. Therefore, a graphical approach for the visualization of ASP is proposed, which is based on concepts presented in literature for other declarative approaches. Moreover, concepts of model engineering are combined with the field of logic programming. Following a Model-Driven Engineering approach, an ASP-specific modeling language is established which is able to visualize important facets of ASP. The modeling language is applied within a graphical editor for the model creation. The resulting models are transformed to textual ASP programs by a code generator. The model engineering approaches are used to define the metamodel, a graphical editor, and to generate the ASP program code from models. Therefore, the link between the formalism of ASP and the graphical representation has to be established. Due to the close connection between ASP and deductive databases---databases with logical reasoning capabilities---the widely used Entity Relationship diagram is applied as initial visualization method for ASP programs.

Arbeitsbereich (vor 2018) E-Commerce

Diplomarbeitsposter Kögl Stefan

Stefan Kögl

Masterstudium Business Informatics
Abstract:

Twitter, die derzeit wohl bekannteste aller Microblogging Plattformen, war der Begründer einer neuen Form der Kommunikation. Anfangs per SMS, mittlerweile über Webseiten und Clients von Drittanbietern ermöglicht es den Austausch von Kurznachrichten zwischen Benutzern, die asynchrone Beziehungen eingehen. Ursprünglich für den privaten Gebrauch gedacht, gewinnt es immer mehr an Bedeutung für eine kommerzielle Verwendung und die rasche Verbreitung von Nachrichten. Diese Diplomarbeit beschäftigt sich mit der Entstehungsgeschichte sowie aktuellen Entwicklungen der Plattform. Außerdem werden Motive zur Nutzung und die Bedeutung von Twitter in der heutigen Zeit erläutert. Im praktischen Teil wurde mit Hilfe der von Twitter zur Verfügung gestellten Programmierschnittstelle eine Datenbasis mit rund 230.000 Tweets und 90.000 Benutzern angelegt. Auf Grundlage dieser werden Kennzahlen berechnet, Auswertungen über Retweets sowie die Herkunft und den Zeitpunkt der Erstellung von Tweets gezeigt. Außerdem werden Charakteristika der Twitterer analysiert. Eine Webanwendung, die auf Basis einer Google Map eine geografische Aufbereitung der geocodierten Daten ermöglicht, wurde ebenfalls erstellt. Sie erlaubt es, die Ausbreitung von Retweets auf einer Karte zu visualisieren.

Diplomarbeitsposter Leitner Michael

Michael Leitner

Masterstudium Informatikmanagement
Abstract:

Die vorliegende Diplomarbeit beleuchtet das Thema des Lernens im virtuellen Raum am Beispiel des Open Source-Projekts SLOODLE. Im Zuge des stetigen Wandels zur Informationsgesellschaft lässt sich beobachten, dass sich Lern- und Wissensvermittlungsprozesse zunehmend in den virtuellen Raum verlagern und neue Lernformen wie E-Learning es Institutionen ermöglichen, ihr Bildungsangebot bzw. ihre Bildungsaktivitäten online abzubilden. Den potentiell nächsten Schritt stellt die Gestaltung von immersiven dreidimensionalen Lernumgebungen als Verbindung von Virtual Learning Environments (VLEs) mit Multi User Virtual Environments (MUVEs) zur Schaffung eines neuen Lernerlebnisses dar. Das im Zuge dieser Diplomarbeit einer kritischen Betrachtung unterzogene SLOODLE-Projekt versteht sich als Integration des Moodle Kursmanagementsystems in die Onlinewelt von Second Life. Ausgehend von einer jeweils separaten Betrachtung führt diese Diplomarbeit die beiden Themenkomplexe "`Neue Lernformen"' und "`Virtuelle Welten"' zu einer Behandlung des Lernprozesses im virtuellen Raum zusammen. Im darauffolgenden Kapitel soll ein Einblick in das Prinzip und die Funktionsweise von SLOODLE gegeben sowie Möglichkeiten und Einschränkungen beleuchtet werden. Als praktisches Beispiel wird im nächsten Kapitel ein im Zuge dieser Arbeit erstellter Prototyp vorgestellt, der als kurzer Showcase einer möglichen SLOODLE-Unterrichtssequenz dient. Abschliessend soll, basierend auf den Erfahrungen mit dem Prototyp, ein Ausblick auf die mögliche Entwicklung zukünftiger Lernformen dargelegt werden.

Diplomarbeitsposter Piazzi Roland

Roland Piazzi

Masterstudium Business Informatics
Abstract:

In dieser Arbeit wird eine Analyse der Netzwerkstruktur des österreichischen E-Tourismus-Marktes durchgeführt und die zentralen Knoten dieses Netzwerks werden mit Hilfe der wichtigsten Zentralitätskennzahlen (Grad-basierte Zentralität, Nähe-basierte Zentralität, Zwischenzentralität) der sozialen Netzwerkanalyse bestimmt. Das Netzwerk besteht aus den Websites der Tourismusanbieter Österreichs, die durch Links miteinander verbunden sind. In den Kapiteln 2 und 3 wird eine theoretische Einführung in die Themengebiete E-Tourismus und Netzwerkanalyse gegeben. Danach folgt in Kapitel 4 die Beschreibung des Crawlers, mit dem die Daten für die Analyse gesammelt werden. In Kapitel 5 wird die methodische Vorgehensweise beim Sammeln der Daten und der Analyse der Ergebnisse dargelegt. Schließlich werden in Kapitel 6 die Ergebnisse präsentiert, wobei das Netzwerk zuerst graphisch dargestellt wird und die berechneten Zentralitätskennzahlen für die Knoten des Netzwerks angeführt werden. Auch wird das Netzwerk mit einem ähnlichen Netzwerk aus dem Tourismusbereich und mit dem Netzwerk des World Wide Webs anhand wichtiger Eigenschaften von Netzwerkmodellen verglichen. In der Folge wird die Grad-basierte Zentralität allgemein und die Zentralitätskennzahl des Eingangsgrads speziell, als relevanteste Kennzahl für die Ermittlung der zentralen Knoten eines Netzwerks des World Wide Webs ermittelt, und die zentralen Knoten werden anhand dieser Kennzahl bestimmt und beschrieben. Insgesamt ergab diese Untersuchung, dass die zentralsten Websites im Netzwerk die sozialen Medien (Facebook, Youtube und Twitter), das Tourismusportal Tiscover, das Portal der ÖBB sowie ein Destinationsmanagement-Portal aus Oberösterreich sind.

Andere Institute der Technischen Universität Wien

(vor 2018) Institut für Analysis und Scientific Computing

Diplomarbeitsposter Danner Simon Michael

Simon Michael Danner

Masterstudium Informatikmanagement
Abstract:

Electrical stimulation of the nervous system plays a major role in todays medical research and practice. Muscles can be stimulated to avoid disuse, impaired function can be improved by targeted stimulation of certain nerves, and brain and spinal cord function can be researched. To appropriately apply these techniques, it is essential to understand the underlying mechanisms involved in the artificial activation of the central and peripheral nervous system by electrical stimulation. Complex nerve fiber models exist that describe the influence of the applied electrical field on the neurons. These models can be used to calculate, for example, excitation thresholds and action potential propagation and thus offer the possibility to study the electrical stimulation without complicated experiments. In this work, the theory of neuron and axon models and the mode of their artificial electrical activation are explained. An application is presented that allows to experiment with two commonly used axon models. Parameters can be varied and thresholds can be calculated. The goal is to provide an application with which students and interested people can learn the properties of electrical stimulation and the differences between commonly used axon models. The application is designed to offer as much freedom to the user as possible, in order to enable a learning by experimenting approach.

Diplomarbeitsposter Denk Christian

Christian Denk

Masterstudium Medizinische Informatik
Abstract:

One of the most successful imaging tools is magnetic resonance imaging (MRI). One new window is ”Susceptibility Weighted Imaging” (SWI) which produces an enhanced contrast based on susceptibility differences between substances. Susceptibility is defined as the magnetic response of substances. SWI additionally uses the MRI signal’s phase in contrast to most other MRI techniques. Phase offers important information about the underlying tissue structure and chemical composition. Due to the phase’s limited domain [−π, π] artifacts or phase wraps arise. In this master thesis the standard SWI sequenceis extended to acquire multiple echoes (ME-SWI). To evaluate the newly developed sequence against the state of the art sequence the signal to noise and contrast to noise are calculated in different brain regions. Using multiple echoes 50% more signal and 34 to 80% more contrast can be achieved. With the ME-SWI method the MRI phase and signal decay is extracted simultaneously. The post processing to eliminate phase wraps is adapted using a greater homodyne filter kernel with increasing echo time. The signal decay or tissue relaxation time R∗2 is calculated including a correction for background field inhomogeneities. Signal decay variation due to voxel geometry and spatial smoothing are investigated too. Larger voxel decrease the signal decay, while the decay with spatial smoothing up to an region volume of 16 mm3 increases. A scan-rescan experiment was performed to investigate the variability of the phase and signal decay. The coefficient of variation was calculated for all acquired data types (phase, magnitude, SWI, and R∗2) to determine reproducibility. Phase showed a significant better reproducibility than the signal decay. The result of this sequence are sharper images, where venous vessels up to 0.1 mm are visualized and maps in form of the signal decay and MRI phase of brain iron content can be computed within one scan.

Diplomarbeitsposter Güldenpfennig Florian Michael

Florian Michael Güldenpfennig

Masterstudium Medizinische Informatik
Abstract:

This thesis deals with the identification of objects and application areas for object recognition. Labeling technologies such as barcodes and radio- frequency identification (RFID) are used to assign unique identifiers. Non technical objects as well as living beings can be tagged. The “Internet of Things” is based on these technologies. Here, the basic concept is to create a comprehensive network between computers and objects (for example trading goods). One primary concern is the optimization of business processes. The described labeling technologies can be interpreted as a bridge between physical and digital objects as well. By means of a label, life can be breathed into an everyday thing. Optimization of business processes is not topic to the thesis on hand. Focal point is the digital life of tagged everyday objects. Various labeling technologies are explored creatively to design user interfaces for computing systems. For example, a shell, that has been tagged with RFID, can serve as a link to an online photo album. The photo album will be opened automatically as soon as the shell reaches the operating distance of the RFID-reader. The correct identification of the shell is the basic challenge of that application. Within this master thesis three techniques are implemented for object identification. First, a solution using RFID is developed. Afterwards, optical codes (Quick Response Codes) are applied. A third application abdicates the attachment of physical tags. Here, optical features of the object are consulted and object classification is accomplished by means of image understanding methods. Main focus to this thesis is the technical implementation of these applications. The thesis concludes with an outlook on how labeling technologies can be employed in healthcare in a traditional as well as in an innovative way.

Diplomarbeitsposter Lehner Andreas

Andreas Lehner

Masterstudium Medizinische Informatik
Abstract:

Die Computersimulation findet auch in der Medizin immer mehr Bedeutung in verschiedensten Anwendungsbereichen. Unter Anderem kann die Ausbreitung von Nervenimpulsen im menschlichen Körper über Modelle dargestellt und simuliert werden. Eine detailgetreue Modellierung ist dabei genau so wichtig wie eine kurze Berechnungszeit verschiedener Versuchsaufbaue. Im Laufe der Jahre, beginnend bei Hodgkin und Huxley 1952 bis hin zum McIntyre Modell von 2002 (MRG Modell), wurde eine Vielzahl solcher Modelle entwickelt. Einige dieser Modelle ähneln sich, jedoch werden in fast allen die elektrischen Parameter der Membran sowie die vorhandenen Ionenströme angepasst. In nachfolgender Arbeit wird das zur Zeit akkurateste MRG Modell zur Simulation menschlicher Nervenfasern beschrieben. Der Nachteil des großen Rechenaufwands wurde dabei ausgemerzt und es entstand ein neues Modell, das eine wesentlich kürzere Berechnungszeit aufweist ohne dabei große Abweichungen in punkto AP-Form zu zeigen. Die einzelnen Schritte (von Analyse bis hin zur Implementierung des neuen Modelles) werden in dieser Arbeit beschrieben. Realisiert wurden alle Modelle in der freien Software NEURON.

Diplomarbeitsposter Walser Andreas

Andreas Walser

Masterstudium Medizinische Informatik
Abstract:

Auf Grund der bisher einfachen Auswertung der Zellaktivität in menschlichen Hirntumoren existiert von Seiten eines Ärzteteams des Allgemeinen Krankenhauses der Stadt Wien (AKH) die Anfrage nach einer technischen Unterstützung. Die Diplomarbeit setzt sich mit der Erstellung eines Programmes für Ärzte und Forscher im Bereich der Histopathologie auseinander, das eine einfache, reproduzierbare und konsistente Auswertung der zu Grunde liegenden Daten ermöglicht. Ziel ist es, auf Basis eines histologischen Gewebescans eines Hirntumors, Zellen, welche sich in Teilung befinden und durch einen Marker eingefärbt wurden, von den restlichen Zellen zu unterscheiden. Neben dem Unterscheiden der beiden Zellzustandstypen ist auch deren jeweilige Anzahl für weitere statistische Auswertungen gefragt. Zu Beginn der Arbeit werden medizinische Grundlagen zu diesem Thema erläutert, um das Verständnis und den Sinn der Diplomarbeit zu verdeutlichen. Weiters wird das zu Grunde liegende Datenmaterial dargestellt und die darauf basierenden Stärken und Schwächen der geeignetsten Entwicklungsumgebungen beschrieben. Nach dem Festlegen der verwendeten Entwicklungsumgebung folgen die Evaluierung passender Bildbearbeitungsbibliotheken und deren Methoden. Die Methoden, die zur Realisierung der Fragestellung unumgänglich sind, werden im Laufe der Diplomarbeit detailliert behandelt. Im letzten Teil der Arbeit werden die aus dem Programm resultierenden Ergebnisse mit dem Forschungsteam des AKH Wien analysiert und besprochen, bevor sie mit den Ergebnissen der herkömmlichen Methode verglichen werden. Am Ende folgt ein kurzer Ausblick darüber, welche Erweiterungsmöglichkeiten für dieses Programm bestehen.

(vor 2018) Institut für Wirtschaftsmathematik

Diplomarbeitsposter Haas Alexander

Alexander Haas

Masterstudium Informatikmanagement
Abstract:

In der Ökonomie gibt es zwei stärker werdende Einflüsse: einerseits kommt es häufiger zum Einsatz numerischer Verfahren bei der ökonomischen Modellierung und damit zu einem höheren Stellenwert der Informatik in der Ökonomie. Andererseits kommt es vermehrt zu einer regen interdisziplinären Zusammenarbeit, welche dazu führt, dass sich Konzepte anderer Disziplinen in ökonomischen Modellen wieder finden. Die Lehre steht nun vor dem Problem diese beiden Einflüsse in den universitären Unterricht zu integrieren. Diese Arbeit nimmt sich dieser Problemstellung an und versucht eine Brücke zwischen der Informatik und der Ökonomie zu schlagen. Es wird nicht nur eine didaktische Methodik für den Unterricht aufgezeigt, sondern auch anhand dreier sehr aktueller Themenbereiche vorgeführt, wie diese Methodik in der Praxis umsetzbar ist. Diese drei Themen sind im Bereich der Rohölmarktmodellierung angesiedelt. In der Diplomarbeit werden die Hotelling Regel, Wavelet- Analyse und Log Periodic Power Law ausführlich erklärt, in einem Modell wiedergegeben und schließlich in einem Programm implementiert.

(vor 2018) Institut für Statistik und Wahrscheinlichkeitstheorie

Diplomarbeitsposter Majlessi Maryam

Maryam Majlessi

Masterstudium Software Engineering & Internet Computing
Abstract:

Diese Diplomarbeit ist die Fortsetzung der epidemiologischen Forschung “Long-term Sequels of War and Mental Health in Kosovo” – Kosovo, August 2006, mit dem Ziel ,die psychische Auswirkung des Kosovokrieges zu analysieren. Aufgrund der hohen Inzidenz von PTBS (posttraumatische Belastungsstörungen), Depressionen und akuten Belastungsstörungen erschien eine weitere vertiefte Analyse dieser Faktoren für angebracht, nämlich die Prognose über die PTBS aus vier Fragebögen (HTQ, GHQ -28, MOS-20 und HSCL-25) und Bestimmung der Beziehung zwischen PTBS- und Depressions-Symptomatik sowie Angst als unsere Hauptziele. Die Resultate stellen signifikante Prädiktoren psychischer Störungen wie PTBS, Depression und Angst im Zusammenhang mit dem Kosovokrieg bei 1116 Teilnehmern im Alter ab 15 Jahren dar. 256 der insgesamt 1159 (22%) Untersuchten weisen PTBS-Symptome (CDC-Criteria) vor. Anhand der Regressionsanalyse angewendet an Fragebögen wie HTQ (Harvard Trauma Questionnaire) und Mental Health Questionnaire. Durch die Auswertung der Fragebögen (HTQ -Harvard Trauma Questionair- und Mental Questionnaire) mit Regressionsanalyse konnte gezeigt werden, dass die an der Studie teilnehmenden Personen ohne Möglichkeit einer medizinischen Versorgung (als ein Prädiktor) drei Mal häufiger an psychischen Erkrankungen bzw. PTBS litten. Des Weiteren wiesen Personen, denen ihr Gut und Besitz durch Gewalt bzw. Erpressung weggenommen war (als ein weiterer Prädiktor), vermehrt psychische Erkrankungen mit einer14% höheren Wahrscheinlichkeit auf. Das Vorhandensein von PTBS-Symptomen war bei den Arbeitslosen um 35% höher. Die Auswertung der MOS-Fragebögen zeigte die Zunahme des Risikos von psychischen Erkrankungen bei Teilnehmern mit positivem Wert von ‚Roll functioning‘ um 39%. Die Analyse des Zusammenhangs zwischen Depression und PTBS zeigte, dass 99% der Personen mit PTBS ebenfalls an Depression und Angst litten.

(vor 2018) Institut für Geoinformation und Kartographie

Diplomarbeitsposter Kiesler Rene C.

Rene C. Kiesler

Masterstudium Information & Knowledge Management
Abstract:

More and more people switch to digital photography. Big camera companies, like for example Canon, stopped producing new film cameras, focusing solely on digital solutions. As it is much cheaper and more feasible to make digital pictures, the number of pictures made explodes. But how can you categorize and sort pictures with little manual effort?

Diplomarbeitsposter Maczejka Lukas

Lukas Maczejka

Masterstudium Software Engineering & Internet Computing
Abstract:

Representation of time-specific data is a widely discussed issue in modern database management systems. After a brief introduction to database basics, this work explains the currently accepted concepts related to time-specific terminology, differences in representation of time, and the storage of temporal data in detail. Furthermore, the basics behind functional programming in general and Haskell in particular are briefly discussed. Using both technologies mentioned above, a native temporal database management system for Haskell is introduced. The prototype developed from these specifications is described both from the developer’s and the user’s point of view. Finally, a critical evaluation of the proposed system and the prototype is given, and possible further work is discussed.

(vor 2018) Department für Raumplanung

Diplomarbeitsposter Auer Gerald

Gerald Auer

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Im Fokus dieser Diplomarbeit stehen die Breitbandanbindung des ländlichen Raums und die “Digitale Kluft“ zwischen städtischen und ländlichen Lebensräumen. Es werden verschiedene Maßnahmen und Initiativen der Europäischen Union und des nationalen Gesetzgebers aufgezeigt, die gegen die „Digitale Kluft“ wirken und eine europäische Informationsgesellschaft fördern sollen. Die darauf basierenden EU-Rechtsvorschriften waren auf nationaler Ebene umzusetzen. Im Fall der Kommunikationsinfrastruktur wurde das Telekommunikationsgesetz 2003 erlassen und fortlaufend angepasst. Es wird weiters versucht, Investitionsvorhaben und Strategien zweier hoch marktrelevanter Kommunikationsunternehmen, Telekom Austria Group und UPC Telekabel, aufzuzeigen. Hierbei spielen die Glasfaserprojekte der Telekom Austria Group eine wesentliche Rolle, da sie den flächendeckendsten Teil der nationalen Telekommunikations-Infrastruktur besitzt. Des Weiteren wird gezeigt, wie Fiber-to-the-Home Lösungen über bestehende Kanalnetze umgesetzt werden können, wie es auch in Wien durch das Infrastrukturunternehmen CableRunner Austria GmbH realisiert wird. Ein wichtiger Teil der Diplomarbeit behandelt das oberösterreichische Telekabelnetz und das Investitionsvorhaben bzw. den Aufkauf von regionalen Kabelanlagen durch UPC Telekabel.

(vor 2018) Institut für Managementwissenschaften

Diplomarbeitsposter Azesberger Christian

Christian Azesberger

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Die vorliegende Arbeit geht der Frage nach, ob es Synergien zwischen klassischem Qualitätsmanagement (QM) und operationellem Risikomanagement (OpRM) gibt und welche Methoden und Werkzeuge sinnvoll angewendet werden können. Ziel dabei ist dabei nicht die vollständige Abdeckung der Aufgaben des OpRM mittels Qualitätsmanagementtechniken, sondern das Aufzeigen von sinnvollen Anwendungsmöglichkeiten zur Verbesserung des OpRM-Prozesses. Der erste Teil besteht in der Abgrenzung und Aufbereitung des Begriffs „Operationelles Risikomanagement“. Dabei wird der operationelle Risikomanagementprozess analysiert und strukturiert dargestellt. Anschließend sind die wichtigsten Begriffe zum Thema Qualitätsmanagement erläutert. In Folge werden ausgewählte Konzepte und Werkzeuge des Qualitätsmanagements vorgestellt. Diese Werkzeuge und Konzepte werden dann den Erfordernissen des operationellen Risikomanagementprozesses gegenübergestellt. Dabei werden sinnvolle Einsatzmöglichkeiten evaluiert und den einzelnen Aufgaben und Prozessen des OpRM zugeteilt. In einem praktischen Beispiel wird abschließend ein Geschäftsprozess auf mit Hilfe einer der vorgestellten Methoden und Werkzeuge auf operationelle Risiken hin analysiert. Als Methode wird dabei die FMEA ausgewählt, da sie mit dem klassischen Risikomanagementprozess die größte Synergie aufweist. Als wesentliches Ergebnis wird festgehalten, dass die FMEA eine geeignete Methode zur Durchführung des OpRisk-Prozesses darstellt. Des Weiteren hat sich gezeigt, dass es insbesondere im Bereich der Risikoanalyse viele Einsatzmöglichkeiten für QM-Werkzeuge gibt, mit denen ein vertiefendes Ursache-Wirkungsverständnis gewonnen werden kann, welches als Erfolgsfaktor für erfolgreiches Risikomanagement entscheidend ist.

Diplomarbeitsposter Crestin Victor

Victor Crestin

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Das Management Information System, genannt "ERPControl System" umfasst das gesamte Spektrum von Prozessen und Wechselwirkungen welche zwischen drei Komponenten, „Resources, Events and Agents“ auftreten, die in vielen wirtschaftlichen Studienrichtungen der TU Wien behandelt werden. Das Hauptziel der vorliegenden Arbeit ist das Design und Implementierung einer Web-basierten "E-Learning-Plattform" für Studierende, die als Navigation Tool durch den gesamten "ERPControl System" führen soll. Das ermöglicht die Durchführung von Übungs-und Online-Tests für die Lehrveranstaltungen „Investition und Finanzierung“, „Controlling“, „Kosten- und Leistungsrechnung“ und „Praxisorientierte BWL“. Der Web-E-Learning-Plattform ist für Bachelor und Master Studierende der Technischen Universität Wien (Wirtschaftsinformatik, Wirtschaftsingenieurwesen - Maschinenbau, Wirtschaftsingenieurwesen Informatik, Wirtschaftsmathematik, Information & Knowledge Management) auf jeden Fall signifikant. Die Studenten sollen in der Lage sein, durch das System navigieren zu können, wirtschaftliche Konzepte abzuspielen, erweiterte Modelle anschauen und die Ergebnisse des Online-Tests abzulegen.

Diplomarbeitsposter Divoky Bernd

Bernd Divoky

Masterstudium Business Informatics
Abstract:

Finanzrisiken, und hier vor allem Marktpreisrisiken, haben für viele Unternehmungen eine immer größere Bedeutung. Sei es, weil die eigenen Produkte auf fremden Märkten vertrieben werden oder weil die Preise der benötigten Rohstoffe vom Weltmarkt abhängig sind. Um langfristig erfolgreich agieren zu können, müssen diese Risiken in der unternehmerischen Planung berücksichtigt werden. Dazu zählen auch Maßnahmen zur Absicherung gegen diese Risiken. Die Arbeit hat das Ziel, ein Modell zu entwickeln, welches einem produzierenden Unternehmen erlaubt, die Auswirkungen von Marktpreisrisiken und Absicherungsmaßnahmen auf Unternehmenskennzahlen wie Gewinn und Cashflow zu analysieren. Außerdem wird das Modell als Softwaretool implementiert werden. Als Risikofaktoren werden Fremdwährungen und Rohstoffe betrachtet. Die Entwicklung dieser Risikofaktoren wird mit dem Random Walk Modell abgebildet. Durch den Einsatz einer Monte-Carlo-Simulation werden zukünftige Szenarien für die Entwicklung der Marktpreise erarbeitet. Durch die Einbeziehung der Risikofaktoren in Umsatz- und Kostenfunktionen lassen sich in Folge Verteilungen von Unternehmenskennzahlen wie Gewinn und Cashflow berechnen. Als Absicherungsmaßnahmen werden im Modell Forwards und Optionen berücksichtigt. Zuletzt erlaubt das Modell einen Vergleich der Kennzahlen mit und ohne Absicherungsmaßnahmen. Das Softwaretool stellt eine Referenzimplementierung des Modells dar. Es stellt ein graphisches Benutzerinterface zur einfachen Erfassung der Modell Parameter sowie zur übersichtlichen Darstellung des Ergebnisses zur Verfügung. Das erarbeitete Modell gibt einen allgemeinen Ansatz für die Risikoanalyse vor. Für einen konkreten Anwendungsfall muss das Modell auf die spezifischen Gegebenheiten angepasst werden.

Diplomarbeitsposter Dogan Hilal

Hilal Dogan

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

The focus of this master thesis is the investigation of a fictitious investment of an automobile company in a foreign market within the framework of control framework. The main task of this framework is the integration of a performance system with a management system, which is depicted in a PDCA-Circle. The phases of intended investment are equated with the phases of PDCA cycle and each of phases is executed once within the initial planning. PDCA cycle operates according to the principle of cybernetics and consists of four components; Plan-Do-Check-Act. The results of the demonstration example are implemented in a software documentation programme to obtain a better overview of the planned investment process. This software solution illustrates the phases of investment integrated in PDCA cycle from the main down to the detailed process and supplies a perfect manual for the company.

Diplomarbeitsposter Meusburger Harald

Harald Meusburger

Masterstudium Informatikmanagement
Abstract:

Im Rahmen dieser Arbeit wird der innovative Einsatz von Informationstechnologie in der universitären Lehre sowie in der anwendungsorientierten Forschung untersucht. Dazu teilt sich das Dokument in zwei Bereiche. Im ersten Abschnitt wird das Lehrkonzept, das der Bereich Betriebstechnik und Systemplanung vom Institut für Managementwissenschaften an der Technischen Universität Wien zur Ausbildung von Wirtschaftsingenieuren im Fachbereich Maschinenbau heranzieht, untersucht. Ausgehend von einer umfassenden Anforderungsanalyse für zukünftige Wirtschaftsingenieure, wird das Lehrkonzept des Studiendekanats untersucht und auf ein theoretisches Gerüst gestellt. Besonders beleuchtet werden dabei verschiedenen eLearning Ansätze sowie Handlungs- und Problemorientiertes Lernen im Rahmen von virtuellen und physischen Planspielen. Der zweite Abschnitt behandelt den Einsatz diverser Web 2.0 Technologien in der anwendungsorientierten Forschung. Es wird dabei ausgehend von den technischen und sozialen Grundlagen ein Konzept für den Social Media Einsatz bei der Fraunhofer Austria Research GmbH erarbeitet. Der Fokus dabei erstreckt sich von der Verbesserung der internen Zusammenarbeit über neue Kommunikationsmöglichkeiten mit allen Stakeholdern bis hin zur Unterstützung von Open Innovation Ansätzen.

Diplomarbeitsposter Rodler Christoph

Christoph Rodler

Masterstudium Business Informatics
Abstract:

Enterprise resource planning systems can be found in most enterprises and they are used to manage the resources. But the exchanging, holding and using of these resources is always done under uncertainty. The huge ERP systems in the market were developed decades ago, therefore new approaches, e.g. in risk management, cannot be efficiently integrated. The term Business Informatics describes exactly the subject of this thesis: the introduction of concepts for enterprise risk management and their implementation in an ERP system. The establishment of enterprise risk management in an organisation shall assist to identify, assess and manage various risks, which may arise in the daily business. Two concrete risk models are discussed to illustrate the whole development process. The reliability model helps to estimate the probability of default of an equipment and the duration model evaluates a financial ratio, which enables to rate the risk of a financial instrument. To put the introduced concepts into action a prototypical ERP system is the appropriate framework for the implementation of the risk models. The Department of Corporate Finance, Planning and Control as part of the Institute of Management Sciences at the Vienna University of Technology has developed a next-generation ERP system named ERPControl, in which the assessment and evaluation of both risk models have been incorporated. The outcome is the integration of risk management in ERPControl, which can assist a risk manager to create, reevaluate and monitor considered risks in an enterprise.

Diplomarbeitsposter Simon Lenz

Lenz Simon

Masterstudium Business Informatics
Abstract:

Die Finanz- und Automobilbranche sind die von der Finanzkrise der letzten Jahre am meisten betroffenen Wirtschaftssektoren. Besonders im Finanzsektor sind durch Fusionen und Profitgier die Institute immer weiter gewachsen, bis am Ende in vielen Fällen nur durch staatliche Intervention ein Zusammenbruch der gesamten Volkswirtschaft verhindert werden konnte. Sind die Unternehmen also „zu groß“ geworden? Und vor allem, wie gingen die Wettbewerbsbehörden vor und während der Krise mit diesem Thema um? Wie reagiert die Politik nun nach der Krise? Die großen Finanzintermediäre und auch die größten Automobilhersteller sind ohne Zweifel in den letzten Jahren stärker als der Rest gewachsen, was Gegenstand einer empirischen Analyse in der Arbeit ist. Seitens der Politik hat es vor der Krise wenig Anzeichen gegeben, dieses überdimensionale Wachstum beziehungsweise Fusionen und Übernahmen in irgendeiner Art zu stoppen. Diese Arbeit befasst sich vor allem auch mit der Frage, wie der Gesetzgeber künftig mit Unternehmen umgehen wird, die „too big to fail“ sind. Die Schaffung neuer Aufsichtsbehörden in der EU, Basel III und die Einführung einer Bankensteuer sind ein erster Ansatz, der jedoch auch zukünftige Krisen und die Notwendigkeit zur Rettung von Unternehmen oder sogar ganzer Staaten nicht ganz ausschließen kann.

Diplomarbeitsposter Sundic Milica

Milica Sundic

Masterstudium Business Informatics
Abstract:

Wer heutzutage erfolgreich sein will, sollte auf Innovationen setzen, und diese in den Kern der Unternehmenstätigkeiten einbinden, etwa in Form eines strukturierten und definierten Innovationsprozesses, der eine Innovation von der Ideengenerierung bis hin zur Produktumsetzung steuert. Traditionell wurden Innovationsprozesse in den internen Forschungs- und Entwicklungsabteilungen durchgeführt. Henry Chesbrough appelliert an die Unternehmen, den Innovationsprozess jedoch nicht ausschließlich Unternehmensintern durchzuführen, sondern auch externe Akteure heranzuziehen, oder den Prozess auszulagern (engl. „outsourcing“). Eine solche „offene“ Gestaltung des Innovationsprozesses mit Einbindung von externen Arbeitskräften zum gegenseitigen Wissens- und Ideenaustausch definierte Chesbrough 2003 unter dem Begriff „Open Innovation“. Durch eine solche Kooperation können neue, kreative Ideen entstehen und den Produktentwicklungsprozess bereichern. Im Rahmen dieser Diplomarbeit werden wesentliche Eigenschaften von Open Innovation erläutert, um aufkommende Trends im Innovationsmanagement, respektive bei benutzerzentrierten Innovationsmethoden zu forschen. Es werden Motive und Anreiz-Systeme, die dem Ideen-Insourcing bzw. Crowdsourcing - welches eine spezifische Form von Open Innovation darstellt - zugrunde liegen, sowohl aus Konsumenten-, als auch aus Unternehmenssicht hinterfragt. Weiters werden Risiken von Crowdsourcing, so wie die Bedeutung des geistigen Eigentums im Zeitalter der Ideen-Verbreitung diskutiert.

Diplomarbeitsposter Örün Ismail

Ismail Örün

Masterstudium Informatikmanagement
Abstract:

Das Ziel dieser Magisterarbeit ist die Vermittlung der Vorgangsweise bei der Einführung der RFID (Radio Frequency Identification) - Technologie in einem Lebensmittelproduktionsunternehmen. Dazu gehört auch die methodische Einschulung der Mitarbeiter, die im Rahmen dieser Arbeit auch näher gebracht werden soll. Mit dieser Arbeit soll ein Beitrag in Richtung der Einsetzbarkeit von RFID -Systemen zur Identifikation von Lebensmittelprodukten innerhalb und außerhalb des Unternehmens geleistet werden. Diese Arbeit soll in Anlehnung an die Wertschöpfungskette eines Referenzfalles aus der Praxis (Lebensmittelunternehmen mit Produktion und Logistik) aufgebaut werden. Die auf dem Markt befindlichen RFID - Systeme bieten für die Anwender einen gefächerten Einsatzbereich. Um diese Technologie in der Lebensmittelindustrie gezielt einführen zu können sind sowohl gezielte Analysen als auch spezielle Schulungsmaßnahmen der Mitarbeiter erforderlich. Zur Lösung der gestellten Aufgabenstellung werden die Grundlagen der RFID – Technologie beschrieben. Dann wird die Wertschöpfungskette (Abläufe und Prozesse) des gewählten Untersuchungsort, sprich dem Unternehmen, analysiert. Im nächsten Schritt wird eine Konzeption inklusive einer gezielten Schulungsmethode erarbeitet und das Ergebnis diskutiert. Es handelt sich um ein anonymes lebensmittelerzeugendes Unternehmen, welches haltbare, und frische Produkte für den Lebensmitteleinzelhandel und soziale Einrichtungen herstellt. Das österreichische Unternehmen mit Sitz in Wien agiert österreichweit und besitzt eine eigene Logistiklösung. Die Tagestonnage aller hergestellten Produkte beträgt ca. 30 Tonnen, was ungefähr 50.000 Portionen entspricht.

(vor 2018) Institut für Automatisierungs- und Regelungstechnik

Diplomarbeitsposter Hinterhofer Thomas

Thomas Hinterhofer

Masterstudium Technische Informatik
Abstract:

This thesis is about the design and implementation of a trinocular census transform-based stereo vision system for real-time applications. The extension of an existing binocular stereo matching engine by one additional camera addresses some inherently occurring problems of such systems. At first, a calibration tool based on a modification of the OpenCV 2.1 library was developed to undistort and rectify three (L-shaped configuration) or more (inline configuration) input images. After rectification, corresponding object points are located in the same row or column, respectively. The stereo engine for binocular stereo vision (S3E), developed by the AIT, is modified and extended to support the new trinocular camera configurations. The algorithm is based on a census transform and it performs a consistency check and subpixel refinement. Because of the extensive usage of SIMD instruction sets and the support of state-of-the-art multi-core CPUs, dense depth maps are produced with high frame rates. A method of fusing the results of two stereo matching processes is developed in order to obtain disparity maps, which are more dense and which contain less false positive matches. Beside of various other possible applications, the output of the system can be used to display live scenes on an autostereoscopic multi-user display. Finally, the inline and L-shaped camera configurations are tested and verified to analyse the benefits and drawbacks of the specific alignments. The quality enhancements of adding a third camera are verified by the stereo vision evaluation system of the Middlebury college. The number of false matches can be reduced by up to 40% compared to the binocular results. In the field of local optimizing, real-time capable algorithms, our approach achieves a top result in the Middlebury ranking. Frame rates of more than 10fps at 640x480 with 80 disparities each camera pair or over 70fps at 320x240 with 40 disparities are achieved on standard multi-core CPUs.

Diplomarbeitsposter Pirker Simon

Simon Pirker

Masterstudium Technische Informatik
Abstract:

Eine neue Fabrik zu bauen, oder auch nur den Produktionsablauf zu ändern ist ein sehr kostspieliges Unterfangen. Deshalb wird in kostenreduzierende Maßnahmen viel investiert. Ein Ansatz, um die Kosten schon während der Entwurfsphase zu senken, bietet die Digitale Fabrik. Dabei werden die Abläufe in der geplanten Fabrik realitätsgetreu simuliert, und ausgewertet. Durch frühe Tests werden spätere teure Änderungen an der Fabrik verhindert, und durch die flexible Planung wird die Planungsphase verkürzt, wodurch die Fabrik früher realisiert werden kann. In dieser Arbeit wird die Frage behandelt, ob sich 3d Spiele Engines dazu eignen, ein Framework für verteilte Simulationen nach dem Konzept der Digitalen Fabrik zu entwicklen. Für die Darstellung der Digitalen Fabrik werden 3d Modelle der LEGO® Mindstorms NXT Sensoren und Aktuatoren verwendet. Die Steuerungsprogramme werden IEC 61499 konform mit der 4DIAC-IDE entwickelt, und in der FORTE Laufzeitumgebung ausgeführt. Das entwickelte Framework bietet die Möglichkeit, über eine Schnittstelle eigene Steuerungsprogramme zu entwerfen, die mit dem Simulationsteil interagieren. Diese Möglichkeit ist vor allem für den Lehrbetrieb interessant, da es Studenten die Möglichkeit bietet, früh mit dem Konzept der Digitalen Fabrik, und des Soft-Commissioning® vertraut zu werden. Zum Test des Frameworks werden in der Arbeit zwei Experimente entwickelt. Diese sind die Simulationen einer Autowaschanlage, und eines Roboters, der einer Linie folgt. Neben den Ergebnissen zu den Experimenten und zum Framework, wird auch der Umgang mit der 3d Engine selbst exemplarisch erläutert. Die Resultate zeigen, dass sich eine 3d Spiele Engine sehr gut dazu eignet, ein Framework zu entwickeln, das alle Anforderungen einer Digitale Fabrik erfüllt, und sich auch für den Einsatz im Lehrbetrieb eignet.

Diplomarbeitsposter Windhab Dominik

Dominik Windhab

Masterstudium Technische Informatik
Abstract:

Erzeuger von Produkten müssen auf einen sich ständig wechselnden Markt sehr schnell reagieren um wettbewerbsfähig zu bleiben. Einer schnelle Reaktion steht allerdings die zunehmende Komplexität von verteilten Systemen wie sie in modernen Industrieanlagen gefunden werden können entgegen. Der noch relativ junge Standard IEC61499 wurde entwickelt um genau diese Probleme in den Griff zu bekommen. Die „Fordiac Runtime Environment'“ (FORTE) ist eine solche Implementierung mit offenem Quellcode. Sie ist sowohl auf einem PC als auch auf weniger leistungsfähigen eingebetteten Systemen lauffähig. Eine Hardware Plattform die von FORTE unterstützt wird ist der Lego Mindstorms NXT. Derzeit ist es möglich Programme für lokale Anwendungen zu entwickeln. In dieser Diplomarbeit werden die Kommunikationsschnittstellen des NXT analysiert und die Laufzeitumgebung FORTE wird erweitert um Kommunikation zwischen NXT Bausteinen zu ermöglichen. Der Lego Mindstroms NXT bietet die Möglichkeiten drahtlos via Bluetooth oder kabelgebunden via RS485 Schnittstelle Daten auszutauschen. Die erarbeitete Lösung basiert auf einer Mischform der beiden Möglichkeiten. Die kabelgebunden Teilnehmer sind in der Lage ein Netzwerk basierend auf dem Token-Bus Protokoll zu erstellen und verwalten. Weiters gibt es die Möglichkeit, dass Geräte die nicht an den Bus angeschlossen sind dennoch über Bluetooth an der Kommunikation teilnehmen können. Die erstellte Software stellt die Verwaltung des Netzwerkes sicher, bleibt dabei aber transparent für den Entwickler auf eines IEC61499 basierenden Systems. Es ist möglich ein Funktionsblocknetzwerk zu modellieren ohne genaues Wissen über die Kommunikationsmechanismen zu haben. Der große Vorteil liegt darin, dass verteilte Systeme sehr schnell modelliert und aufgebaut werden können ohne präzise Kenntnisse über die verwendete Hardware. Das System kann dann auch für Lehr- und Anschauungszwecke verwendet werden um Studenten den Standard IEC61499 näher zu bringen.

(vor 2018) Institut für Computertechnik

Diplomarbeitsposter Wenzl Matthias

Matthias Wenzl

Masterstudium Technische Informatik
Abstract:

Dank einer breiteren Verfügbarkeit von Internetanschlüssen mit entsprechender Bandbreite erfreut sich VOIP Kommunikation in industrialisierten Ländern immer größerer Beliebtheit. Die meisten VOIP-fähigen Endgeräte sind jedoch nicht auf die speziellen Bedürfnisse einiger Einrichtungen, wie z.B. der Luftraumüberwachung abgestimmt. Um diese speziellen Anforderungen besser zu erfüllen wurde im Rahmen eines Forschungsprojektes ein spezielles Modul entwickelt, welches den Sprachdatenaustausch einer VOIP Verbindung in Hardware realisiert. Dieser IP-Core (RTP-Engine), wird in einer statischen Konfiguration in einem Xilinx Virtex4 FPGA auf einer Prototypingplattform betrieben. Ziel der Arbeit ist die Implementierung eines kompletten VOIP-Stacks bestehend aus einem Signalisierungsprotokoll, einem Verbindungsqualitätssicherungsprotokoll, und der RTP-Engine inklusive einer Konfigurationsschnittstelle. Als Randbedingungen treten hierbei Embedded System spezifische Beschränkungen wie limitierte Rechenleistung und eingeschränkte FPGA Resourcen auf. Des weiteren müssen Auflagen betreffend der HW/SW Schnittstelle der RTP-Engine, welche durch die vorgegeben VOIP-Stack Funktionalität induziert sind, eingehalten werden. Zur Umsetzung wird eine Evaluierung des grundlegenden Aufbaus eines VOIP-Stacks durchgeführt und die Anforderungen an das Design eines Basis-Systems und der HW/SW Schnittstelle der RTP-Engine erhoben. Außerdem werden unterschiedliche Software-Stacks, Schnittstellendesigns und User/Kernel -Space Separierungen diskutiert. Schließlich wird ein Prototyp implementiert, welcher in der Lage ist, einen VOIP-Sitzung direkt zwischen zwei FPGAs oder einem PC zu realisieren. Es wird gezeigt, dass das realisierte System eine geringere Belastung eines Prozessors mit sich bringt und somit entsprechende Echtzeitanforderungen leichter erfüllt werden können. Deshalb wäre es möglich, eine Erweiterung des Prototypen durchzuführen, um Konferenzschaltungen zu unterstützen.

In Zusammenarbeit mit anderen wissenschaftlichen Einrichtungen

(vor 2012) E029 - Institut "integriert studieren"

Diplomarbeitsposter Schmid Sebastian

Sebastian Schmid

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

The chance to fall grows with increasing age. As life expectancy increases further and further, the research area of automated fall detection is becoming more relevant. One approach to detect falls and to trigger an alarm is to carry sensors such as accelerometers on the body. The biggest problem with this type of crash detection is that it is very dependent on the wearing of these sensors: the best fall detection is worthless if the user has just forgotten to put on the wristband with the sensor on the day of a fall. Another approach is not to wear the sensors on the body but to distribute them in the apartment. Falls are detected with the aid of appropriate algorithms from vibration data, collected by about three to four sensors per room. Then, packets of data are sent by radio to a computer which determines whether a crash has happened or not. This work is based on an existing prototype of such a sensor network and tries to develop an algorithm that can detect if a fall has occurred.

Universität Wien

Diplomarbeitsposter Bauer Christine

Christine Bauer

Masterstudium Business Informatics
Abstract:

Eine Big Band zu managen, ist eine Herausforderung, die mit dem Management von Klein- und Mittleren Unternehmen vergleichbar ist. Aufgrund ihrer Komplexität besonders schwierig zu managen ist die sogenannte Telefonband ohne Fixbesetzung. Gemeinsam bilden die Musiker eine virtuelle Organisation, mit dem Bandleiter als fokales Unternehmen. Jeder Teilnehmer bringt Kompetenzen ein, hat spezifische Geschäftsziele und muss Risiken tragen. Insbesondere muss das fokale Unternehmen die volle Haftung gegenüber dem Eventveranstalter übernehmen. Bandleiter, welche diese Organisationskonstrukte managen, haben jedoch typischerweise einen künstlerischen Hintergrund und keine Managementausbildung. Bislang wurden Prozesse, die mit dem Bandmanagement verbunden sind, nicht analysiert. Eine Prozessverbesserung wird damit unmöglich gemacht. Jedoch ist geteiltes Wissen die Basis für Prozessverbesserungen. Erstens zielt die Untersuchung daher darauf ab, die Aktivitäten, die mit dem Management einer mittelgroßen Telefonband verbunden sind, durch Prozessmodellierung transparent zu machen. Zweitens analysiert diese Arbeit die daraus resultierenden Modelle und empfiehlt Verbesserungen, insbesondere hinsichtlich des Einsatzes von Informations- und Kommunikationstechnologien. Durch den explorativen Charakter eignet sich die Fallstudienstrategie mit qualitativen Forschungsmethoden. Die Daten werden in einem semi-strukturierten Interview sowie durch teilnehmende Beobachtung erhoben. Die Resultate werden mittels UML-Notation für Aktivitätsdiagramme modelliert. Um Auswirkungen und Empfehlungen abzuleiten, wird eine SWOT-Analyse durchgeführt. Die zentralen Resultate beinhalten eine sorgfältige Dokumentation der Prozesse, wobei implizites wissen expliziert wird. Mit Technologiefokus zeigen die Ergebnisse die chronologische Abfolge von Aktivitäten, die auf Bandmanagement sowie Eventmanagement generalisiert werden können.

Diplomarbeitsposter Kaya Birgül

Birgül Kaya

Masterstudium Software Engineering & Internet Computing
Abstract:

Data Warehouses (DWH) bieten schnellen, zentralen Zugriff auf das gesamte unternehmensweite Wissen. Neben dem Speichern dieser wichtigen Geschäftsinformationen ist das schnelle und effiziente Auffinden von Daten eine der wichtigsten Funktionen eines DWH. Extraktion, Transformation und Laden (ETL) ist im Data Warehouse ein zentraler Prozess, der die Daten aus mehreren unterschiedlichen Datenquellen in einem zentralen DWH zur Verfügung stellt. Wird ETL nicht richtig designed, kostet dies viel Entwicklungsarbeit, bedeutet lange Ladeprozesse und hat schlechte Datenqualität zur Folge. In dieser Diplomarbeit wird, basierend auf einer Literaturrecherche, eine systematische Vorgehensweise für den ETL-Prozess erarbeitet. Damit werden einleitend Data Warehouse Systeme sowie der Begriff Datenqualität vorgestellt und in der Folge der ETL-Prozess von IBM, Oracle und Talend anhand eines Kriterienkatalogs geprüft. Um die ausgewählten Tools bewerten, und die funktionalen Unterschiede besser durchleuchten zu können, wird eine Funktionsanalyse ausgeführt. Mit einer Punkteskala werden die ausgewählten Tools bewertet und die Ergebnisse durch ein Spinnendiagramm visualisiert.

Diplomarbeitsposter Köhler Andreas

Andreas Köhler

Masterstudium Business Informatics
Abstract:

Diese Arbeit hat das Ziel, den „State of the Art“ von Web-Accessibility festzustellen und das Erarbeitete an einem praktischen Beispiel - in Kombination mit Typo3 - anzuwenden. Das inkludiert die Bereiche Assistierende Technologien, Barrieren im Web, Menschen mit Behinderungen und Internet, Ältere Menschen und Internet, die diesbezügliche Gesetzeslage, Tools und Richtlinien für barrierefreie Webseiten sowie Content Management Systeme und ihre Eignung für barrierefreie Seiten. Diese Themen werden unter Verwendung aktueller Literatur aufgearbeitet; ferner wird das in dieser Arbeit verwendete Tool, das Content Management System Typo3, genauer vorgestellt. Im Anschluss daran werden die Webseiten des Fachbereichs eBusiness der Universität Wien hinsichtlich Web-Accessibility analysiert. Die dabei gewonnenen Informationen werden dazu verwendet, mit Typo3 einen neuen, barrierefreien Web-Auftritt zu erstellen. Die neu erstellten Webseiten werden ebenfalls einer genauen Überprüfung unterzogen um den Grad ihrer Barrierefreiheit feststellen und bewerten zu können. Dabei werden aber auch die Probleme und Schwierigkeiten ersichtlich, die zum Teil durch die Verwendung von Typo3 auftreten, zum Teil aber auch auf vorgegebene Rahmenbedingungen auf Unternehmensebene sowie das Verwenden von bestimmten Inhaltstypen zurückzuführen sind. Diese Hindernisse und Probleme werden explizit beschrieben; ferner werden Herangehensweisen vorgestellt, die im Vorfeld der Entstehung von Problemen entgegenwirken und Methoden zur Bewältigung der Hindernisse auf Implementierungsebene erläutert. Die Arbeit kann daher bei zukünftigen Accessibility-Projekten mit Typo3 als Anleitung und Hilfestellung herangezogen werden. Sie erweitert zum Teil die Informationen der WAI um einen konkreten Bezug zu Typo3 und kann dadurch zu einem besseren und effektiveren Arbeiten mit Typo3 in Kombination mit barrierefreien Web-Auftritten führen.

Technische Universität Graz

Diplomarbeitsposter Osmic-Ahmic Maida

Maida Osmic-Ahmic

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

In Zusammenarbeit mit dem Partnerunternehmen Xohana ist das Ziel dieser Arbeit ein neuartiges Service zu entwickeln, das Benutzern einer sozialen Software mögliche Ziele vorschlägt. Diese Masterarbeit wendet sich damit einer praktischen Aufgabenstellung zu und untersucht das Potential der Agenten- und Ziel-orientierten Modellierungssprache i* für diesen Zweck. Die Aufgaben der Arbeit umfassen den Entwurf, die Implementierung basierend auf i* und die Evaluierung des Services. Nach der Einführung in die für die Arbeit wichtigen Themen wie Xohana Software System, Modellierung von Zielen, Suchalgorithmen sowie Empfehlungsdienste, wurde die Architektur des selbst entwickelten Ansatzes vorgestellt, gemeinsam mit dem Kern der entwickelten Applikation - 3 einfache Suchalgorithmen (Tiefensuche, Breitensuche und heuristischer Ansatz), die speziell für Xohana angepasst wurden. Durch die quantitative und qualitative Evaluierung wurden die Vorteile und Nachteile der oben erwähnten Ansätze untersucht sowie sowohl miteinander als auch mit dem Baseline-Algorithmus verglichen. Sowohl quantitativ als auch qualitativ hat sich die Tiefensuche für diesen Fall im Durchschnitt als am besten geeignet gezeigt.

Medizinische Universität Wien

Diplomarbeitsposter Beikzadeh Mohammad

Mohammad Beikzadeh

Masterstudium Medizinische Informatik
Abstract:

DICOM ist der etablierte Standard zum Austausch von Daten bildgebender Systeme in der Medizin. Für die Darstellung und Bearbeitung dieser DICOM-Dateien, die sowohl Bild- als auch Metadaten beinhalten, gibt es zahlreiche kommerzielle Programme, die sich entsprechend ihres Hauptanwendungsgebietes stark in ihrer Funktionalität unterscheiden. Die meisten Programme, die von Ärzten zur Befundung verwendet werden, sind auf die Darstellung ausgerichtete Viewer. Diese Programme erlauben zwar auch die Bearbeitung von DICOM-Dateien, doch steht diese Funktionalität sehr im Hintergrund. Das Ziel dieser Diplomarbeit war es daher, einen Editor zu entwickeln, mit dem DICOM-Dateien bearbeitet werden können.

Diplomarbeitsposter Engel Tamas David

Tamas David Engel

Masterstudium Medizinische Informatik
Abstract:

The rapidly changing and increasing medical knowledge leads to fast outdating of diagnostic tests and therapies.Clinical practice guidelines are important instruments to support health care personnel with up-to-date and state-of-the-art knowledge in a standardised form.The documents have great influence on quality control and assurance in health care.They structure complex medical procedures and therefore faciliate therapy planning. Nevertheless methods are needed to support the dissemination and the updating of these documents. Currently there exist 66 guidelines at the Division of Obstetrics and Feto-Maternal medicine at the Department of Gynaecology of the Vienna General Hospital. They describe selected situations during pregnancy and childbirth. The automated aid for physicians and the enhancement of adherence to these guidelines can increase treatment quality as well as transparency. Within this work possibilities of automated guideline-based assistance for physicians as a means for quality control and requirements for such a framework are evaluated. In this pilot project we have shown how medical personnel can be supported by the application of computerized medical guidelines. We implemented a web application to allow multiple-point access and easier maintenance and to spare an installation on client computers. The software monitors whether specific therapy is required and provides the physician with patient-specific treatment recommendations. During the present study four guidelines were implemented.For implementing the knowledge base we used the medical programming language Arden Syntax for Medical Logic Modules, an HL7 standard. Furthermore we performed a usability study according to Nielsen to assure an intuitive usage of the user interface.The application of this system can prevent the medical staff from omissions of existing policies according to the given clinical practice guidelines and supports the timely application of therapeutic recommendations.

Diplomarbeitsposter Lahnsteiner Eva

Eva Lahnsteiner

Masterstudium Medizinische Informatik
Abstract:

Computer-assisted analysis of medical image data represents an inherent part of clinical routine. This thesis deals with image processing methods used for monitoring and analysing post-operative states of cerebral aneurysms after coiling therapy. Coil embolization involves filling the interior of the vessel outpouching with a platinum coil to detach the aneurysm from blood circulation in order to minimize the risk of a rupture. The coil-occlusion rate of the treated aneurysm indicates the success of the procedure. Currently, coiling treatment outcomes are subjectively estimated by experts of neuroradiology or endovascular neurosurgery on basis of post-coiling image data. This thesis deals with efforts in 2D and 3D image processing to establish and support more objective methods to analyse coiling-treatment results and follow-up image data. Goal of this research was the development of a user-friendly system, which implements the recently published method by Camillo Sherif et al. for a standardized quantification of coil occlusion on follow-up DSA and CCT images. Main field of application is the support of a scientific study with the aim to define operating figures indicating the risk of re-rupture according to the coil occlusion rate of an aneurysm. Furthermore it shall be adequate for the use in clinical routine and for research purposes. The system has been designed in cooperation with the research team around Camillo Sherif. The prototyping process involved constant consultations with the end-users to implement functionality and appearance of the system according to their needs. Result is a Java-written, stand-alone application that supports comfortable evaluation and processing of sectional images acquired after coiling treatment.

Diplomarbeitsposter Seeling Walter

Walter Seeling

Masterstudium Medizinische Informatik
Abstract:

Für Patienten mit chronischer Niereninsuffizienz besteht die Möglichkeit, im Rahmen einer Nierentransplantation eine Spenderniere zu erhalten. Nach solch einem Eingriff ist jedoch eine lebenslange Immunsuppressiva-Therapie notwendig. Diese Therapie muss aufwendig durch ein Therapeutic-Drug-Monitoring begleitet werden. Ziel der vorliegenden Diplomarbeit ist es, die zumeist intuitive Therapieplanung zu objektivieren, die Gefahr einer Abstoßungsreaktion zu minimieren und letztendlich auch die Lebensqualität der betroffenen Patienten zu verbessern. Zur Wissensakquisition mittels Datenanalyse wurden Patientenverlaufsdaten der Jahre 1995 bis 2008 der Universitätsklinik für Innere Medizin III - Abteilung für Nephrologie und Dialyse des Allgemeinen Krankenhauses der Stadt Wien (AKH Wien) verwendet. Diese setzen sich aus Patientenstammdaten, Laborparametern und aus verschiedensten verabreichten Medikamenten mit deren Spiegelwerten zusammen. Aus den vorhandenen Immunsuppressiva-Daten wurde das Präparat Prograf, das auf dem Wirkstoff Tacrolimus basiert, ausgewählt, da es sich bei diesem in der Transplantationsmedizin um ein oft verwendetes und in der medizinischen Anwendung erfolgreiches Präparat handelt. In diesen retrospektiven Daten konnte durch den Einsatz eines Regressionsbaumes, der homogene Klassen bildet, das Problem der störenden Korrelation (Confounding) behoben werden. Innerhalb der Klassen wurde das Confounding fast vollständig aufgelöst, und es konnten Modelle gebildet werden, die den Spiegelwert des Präparates für die nächste Visite vorhersagen. Diese Modelle wurden zur Erstellung einer Wissensbasis für ein Clinical Decision Support System (CDSS) herangezogen. Im Zuge des neuen Allgemeines-Krankenhaus-Informations-Management (AKIM) des AKH Wien wird eine Expertensystemplattform geschaffen, welche es ermöglicht dieses CDSS in AKIM zu integrieren, dem Kliniker anzubieten und ihn dadurch bei der Immunsuppressiva-Therapie seines Patienten zu unterstützen.

Diplomarbeitsposter Wirthumer Andreas

Andreas Wirthumer

Masterstudium Medizinische Informatik
Abstract:

Im Zuge der Diplomarbeit wurde die Software Magnetic Brain Stimulation Model (MBSM) entwickelt, an welche die zwei folgenden Hauptanforderungen bestehen: Es soll eine interaktive 3D Visualisierung entstehen, welche der Audienz die Abläufe einer Therapie mittels transkranieller Magnetfeldstimulation begreifbar machen soll. Die Visualisierung enthält ein anatomisch detailliertes Modell eines menschlichen Kopfes sowie die für die Therapie platzierten Magnetfeldspulen und die von ihnen erzeugten Felder. Im Endeffekt soll es möglich sein alle Teile der Therapie (Kopf, Hirnregionen, Feldkomponenten, Spulen) auf an den Benutzer angepasste Art und Weise darzustellen. Weiters kann ein entsprechend geschulter Benutzer die Parameter der Therapie konfigurieren. Die zweite Anforderung beschäftigt sich mit dem Problem die vorhandenen Ressourcen möglichst effizient zu nutzen. Ausgehend von real vermessenen Magnetspulen werden die von ihnen erzeugten Feldkomponenten in Interaktion mit dem verwendeten Kopfmodell numerisch simuliert. Das Ergebnis sind Datenmatrizen der Feldverteilungen einzelner Magnetfeldspulen. Durch die Kombination der Simulationen isolierter Spulen per linearer Superposition wird das volle Pensum der vorhandenen Daten ausgenutzt. Es können aus den existierenden Daten durch Kombination neue Feldverteilungen abgeleitet werden, ohne die zeitaufwendige numerische Simulation erneut starten zu müssen. Die wurde Software mit C++, VTK, QT, boost, Visual Studio, GIT und CMAKE entwickelt und sie besteht aus zwei Bibliotheken (Toolbox - Arithmetik, Geometrie; TMSTools - 3D Modelle, Datenverarbeitung) sowie der Applikation MBSM. Mit den gewählten Technologien gelang es ein User Interface zu entwickeln, das die gestellten Anforderungen erfüllt. Der Prozess der Therapie kann vom User konfiguriert werden und wird von der Spule bis zur Stimulation im Gehirn anschaulich visualisiert.