EPILOG Wintersemester 2009

Auszeichnungen

Ausgestellte Arbeiten

Institut für (vor 2018) Technische InformatikE182

Arbeitsbereich (vor 2018) Cyber-Physical Systems

Diplomarbeitsposter Gutwenger Philipp

Philipp Gutwenger

Masterstudium Technische Informatik
Abstract:

The Time-Triggered System-on-a-Chip (TTSoC) is a Multi-Processor System-on-a-Chip (MPSoC) architecture, which is suitable for a wide range of embedded applications.The architecture consists of multiple, heterogeneous, processing components that are interconnected by a Time-Triggered Network-on-a-Chip (TTNoC). The TTNoC provides deterministic, as well as temporally coordinated, encapsulated communication channels between the components. The aim of this thesis is to enable a model-driven development process by de ning structural and behavioural models. The behavioural model allows to specify the components in a platform-independent manner, i.e. independent of the implementation details of the components. The specification of a component comprises the behaviour in the value and time domain, including state, at the interface to the TTNoC. In addition, the two models take architectural characteristics into account, such as time-triggered communication, run-time resource management and a global sparse time. Furthermore, the integration in an overall development tool chain is addressed and facilitated. The structural model, in XML, holds the structure of the system. It comprises the partitioning of the system into components and the connecting communication channels. Tool support is provided for the re nement of the structural to the behavioural model. SystemC is used for the behavioural model. The thesis proposes a way to reject the TTSoC architecture's characteristics in SystemC. Amongst others, a new communication channel has been developed in SystemC to reject the communication of the TTNoC at transaction-level. The simulation of the SystemC model provides valuable insights into the system behaviour. Early design faults may be discovered, the e ects of injected faults observed and design options may be compared. Therewith, veri cation and early trade o s between performance and resource requirements are facilitated.

Diplomarbeitsposter Klingler Gernot

Gernot Klingler

Masterstudium Technische Informatik
Abstract:

In this work we show how the time-triggered fieldbus system TTP/A can be connected to various other systems that we refer to as host systems, which follow different design-paradigms such as event-triggered, time-triggered with a global timebase and time-triggered without a global timebase. We elaborate several interface concepts which allow to separate a system into a smart transducer network and a host-system, with serial communication between the interconnected systems. The interfaces are developed with real-time capabilities in mind and expose different features. They are discussed regarding the required properties of the host system and the requirements of the total system. The introduced interfaces are explicit message based, whereby the messages are well defined in time and data domain. The definition of the interfaces are held as generic as possible and try to be valid for classes of host systems and not only for a specific host. Therefore, a non blocking read/write algorithm was developed, which eliminates the restrictions concerning the read and write frequency of the well known Non Blocking Write protocol. This algorithm is needed for some configurations to provide maximum generality of the interfaces. In this work TTP/A is used to demonstrate the elaborated concepts, but the findings of this work are applicable for interfacing time-triggered systems generally. Furthermore, some real world applications which demonstrate the utilization and implementation of some of the the introduced interfaces are presented.

Arbeitsbereich (vor 2018) Embedded Computing Systems

Diplomarbeitsposter Jahn Philipp

Philipp Jahn

Masterstudium Technische Informatik
Abstract:

This thesis deals with the execution of regression tests of embedded systems. It evolved from a problem posed by the department Skill Center System Software, which is part of the company FREQUENTIS. The exact phrasing of the firm’s inquiry was: “Which parts of the current testing process within our systems could be enhanced by the use of test automation, and by what means could this improvement be realized?” The mentioned systems are voice over IP systems, which are in use in the non-military air traffic management. First and foremost, this thesis deals with the increasingly important role of testing throughout the development cycle of software, as well as the diverse possibilities of implementing a structured testing process during the development. Due to the increasing complexity of systems, manual testing is not sufficient. Hence more possibilities for test automation are sought for. This thesis indicates the first steps towards the implementation of such a test automation framework, based on the requirements given by FREQUENTIS. To be specific, a framework was implemented for the realization of functional black-box regression tests. With help of Expect, the framework can remotely access any targets in the test environment and interact with these targets. Further basic requirements were the simple description of the test environment, simple specification of generic test cases, and clearly arranged log files of test runs to enable fast and efficient trouble shooting. Continuative approaches for state machine tests and protocol tests are contemplated in the course of this thesis.

Diplomarbeitsposter Polzer Thomas

Thomas Polzer

Masterstudium Technische Informatik
Abstract:

This thesis develops a new communication model for digital electronic systems. The proposed scheme is comparable to a GALS (globally asynchronous locally synchronous) system with the difference that the clock sources have a bounded, a-priory known precision. This loose synchrony is exploited to establish a communication that (i) is free of metastability by design and (ii) has a fully predictable temporal behavior. To compensate for the imperfect synchronization of the local clocks (within the defined precision), a FIFO buffer memory is used on each communication link. Using the theory of distributed systems the correctness of the approach is formally proved. For this purpose the communication activity is modeled as a distributed algorithm. Furthermore an efficient hardware implementation is given and used to experimentally show that the theoretical derived FIFO buffer size requirement represents a tight lower bound. Based on the new communication model, a fault tolerant electronic system, able to tolerate Byzantine faults even in case of non replica deterministic modules, is developed. The commonly known EIG algorithm is adapted such that it can be efficiently implemented in hardware. The equivalence of the adapted algorithm and the original EIG algorithm is shown. Performance and complexity of the implementation are analyzed.

Institut für (vor 2018) Rechnergestützte AutomationE183

Arbeitsbereich (vor 2018) Automatisierungssysteme

Diplomarbeitsposter Adler Martin

Martin Adler

Masterstudium Informatikmanagement
Abstract:

Die Diplomarbeit beschäftigt sich mit der Implementierung und Anwendung von virtuellen Umgebungen im Bildungsbereich. Dabei werden sowohl technische, finanzielle als auch didaktische Aspekte berücksichtigt um in weiterer Folge einen möglichen Einfluss auf Unterrichtskonzepte und Lehrpläne zu ermitteln und diesen zu interpretieren. Eine der Kernfragen im Zusammenhang mit Virtualisierung ist, wie der Benutzer, in diesem Fall der Schüler, tatsächlich mit der virtuellen Maschine arbeiten kann. Um diese Frage diskutieren zu können werden grundsätzliche Ansätze ermittelt und in weiterer Folge aktuelle Technologien zur Virtualisierung hinsichtlich ihrer Tauglichkeit evaluiert. Nachdem die technischen Grenzen ermittelt sind, wird ein speziell auf den schulischen Einsatz zugeschnittenes Konzept erstellt. Dieses soll aber dennoch soweit generisch sein, dass es einfach an die jeweilige Situation angepasst werden kann. Das Konzept wird im Anschluss exemplarischer aufgebaut. Diese Beispielimplementierung soll im Wesentlichen zwei Ziele verfolgen, die Demonstration der Funktion sowie als Leitfaden der im Fall einer Implementierung die grundsätzlichen Schritte auflistet. Danach wird basierend auf dem generischen Konzept sowie der exemplarischen Realisierung der Einfluss auf die Didaktik diskutiert. Für diese Analyse werden Schultypen sowie die Lehr- und Unterrichtspläne dieser herangezogen. Die Erkenntnisse beziehungsweise Erfahrungen die im Zuge der Arbeit gewonnen wurden sind in einem abschließenden Kapitel zusammengefasst.

Diplomarbeitsposter Gruber Daniel

Daniel Gruber

Masterstudium Informatikmanagement
Abstract:

The general goals of education should be the most important guideline for teachers and other responsible persons in educational systems. This thesis describes the history of educational goals in general and further more which role computer sciences and their ancestors, namely mathematics, sciences and engineering, play in this history. Defining essential terms and comparing, challenging and merging a set of relevant literature allow an understanding of education goals out of an historical context. An analysis of different positions concerning the value of computer science for general education shows various possibilities to integrate computer science into defined educational goals. Considering all these positions computer science can be integrated into the two fundamental educational theories, which exist since more than 2000 years, the humanistic oriented approach on one hand and the realistic oriented approach on the other hand. While the aspects of abstraction and modeling fit to the humanistic oriented approach, the aspects of using and understanding technology apply to the realistic oriented approach.

Diplomarbeitsposter Kienesberger Georg

Georg Kienesberger

Masterstudium Software Engineering & Internet Computing
Abstract:

Busy waiting occurs whenever a process repeatedly checks a condition until it becomes true without influencing that condition itself, thereby effectively wasting system resources and introducing the risk of system failure due to race conditions. Hence, busy waiting is considered bad programming practice and can be avoided by the use of higher communication facilities. In the development of critical systems, for which correctness and robustness are of vital importance, software quality assurance is of great value. However, it is difficult and impractical to manually discover busy waiting in existing program code, which is why a static analysis tool is needed for that purpose. Based on an existing algorithm that targets the detection of busy waiting using methods of static control flow analysis, I developed such software and further improved the analysis methods to increase efficiency and sharpen the results. Since the Ada programming language is often used for critical applications I selected it as target language for my analysis and also used it for the implementation of the analysis software itself. The main results of my work are a static analysis tool for detecting busy waiting in Ada programs and a framework providing a powerful CFG-based representation of Ada source code facilitating comprehensive static control flow analysis in general.

Diplomarbeitsposter Kopf Lothar

Lothar Kopf

Masterstudium Informatikmanagement
Abstract:

Der Lehrplan der Pflichtschulen beinhaltet für den Informatikunterricht meist Grundlagen zur Computerbenutzung, zur Hardware und zur Verwendung von Standardsoftware. Das Erlernen der sprachenunabhängigen Programmierung ist gerade für Programmieranfänger ein von Höhen und Tiefen gekennzeichneter Weg. Um hier motivierende Erfolge zu erzielen ist es sehr wichtig interdisziplinär vorzugehen, indem im nformatikunterricht Beispiele erarbeitet und programmiert werden, mit denen die SchülerInnen in anderen Unterrichtsgegenständen schon konfrontiert wurden oder werden. Dabei wird nicht nur das Interesse der SchülerInnen geweckt, sondern sie bauen auch neuen Lehrstoff in bestehenden ein und können somit ihr schon gelerntes Wissen sinnvoll einsetzen. Kernthema der vorliegenden Arbeit ist, die Möglichkeiten eines interdisziplinären Informatikunterrichts auszuloten, ein entsprechendes Unterrichtskonzept zu erarbeiten und exemplarisch umzusetzen. Der hier vorgestellte projektbezogene Informatikunterricht zeigt den SchülerInnen, wie sie selbständig die Schwierigkeiten von Aufgaben erfassen, diese Probleme lösen und anschließend diese Beispiele in lauffähige Programme umsetzen. Dabei wird die Fehlersuche und -beseitigung, das Testen und dokumentieren, wie auch die Komplexität und Optimierung von Programmen behandelt. Alle Beispiele sind modular aufgebaut, um einen späteren Einstieg in die objektorientierte Programmierung zu erleichtern.

Diplomarbeitsposter Kurz Gernot

Gernot Kurz

Masterstudium Informatikmanagement
Abstract:

Unter einer „Notebookklasse“ versteht man eine Schulklasse, in der alle Schüler ausnahmslos mit ihren eigenen mobilen Computern am Unterricht teilnehmen. Die vorliegende Diplomarbeit beschäftigt sich mit der Analyse des Unterrichts in Laptopklassen und möglichen Unterrichtsveränderungen durch das Notebook. Es geht größtenteils um didaktische Abläufe und deren Unterschiede im Vergleich zu herkömmlichen Schulklassen. Zusätzlich werden auch organisatorische Aspekte näher beleuchtet. Als Untersuchungsmethode wurde eine Studie mit Experteninterviews durchgeführt. Als Fallbeispiel dafür wurde der Digital Business Zweig der HAK in Spittal an der Drau (Kärnten) von Dezember 2008 bis Februar 2009 gewählt und genauer untersucht. Lehrer- und Schülermeinungen wurden mit Hilfe von speziell ausgearbeiteten Fragebogen zu diesem Thema eingeholt. Zusätzlich wurden der Direktor und einzelne Lehrer auch persönlich bzw. per Telefon interviewt. Mehr als 75 % der Schüler sind der Meinung, dass sich der Unterricht seit der Einführung definitiv verändert hat. Ebenfalls bestätigen ¾ aller befragten Lehrer, dass sie in Notebookklassen einen anderen Unterrichtsstil als in den herkömmlichen Schulklassen anwenden. Mehr als die Hälfte von ihnen trägt den Unterrichtsstoff weniger frontal vor und stellt den Schülern in Notebookklassen Unterrichtsmaterialien auch digital zur Verfügung. Andererseits wird von den Lehrern bestätigt, dass Notebookschüler nicht motivierter zum Unterricht erscheinen, ebenso durch den Einsatz von Notebooks vom Unterricht abgelenkt sind und auch deren Schulleistungen nicht wesentlich besser ausfallen als in normalen Schulklassen. Die neuen Technologien werden dennoch vollständig in den alltäglichen Schulbetrieb integriert und erleichtern bzw. verbessern somit den Lehr- bzw. Lernprozess in gewissen Hinsichten. Etwa ¾ der Schüler sind froh darüber, dass sie in einer Notebookklasse sitzen, weil sie die Vorteile davon nicht mehr missen wollen.

Diplomarbeitsposter Langer Andreas

Andreas Langer

Masterstudium Software Engineering & Internet Computing
Abstract:

Software testing is a part of the software development process. It is a challenging task and testing Web-based applications may be even more difficult, due to the peculiarities of such applications. New technologies in internet applications require adaptations of most test frameworks. A very popular technology which is widely used from many well known internet services is called AJAX. AJAX stands for “Asynchronous JavaScript and XML” and is a combination of many known technologies, which allow asynchro-nous data communication between server and client. In contrast to the standard syn-chronous data communication, which means loading an entire web page after each re-quest, AJAX allows dynamic refreshes of the web page and data exchange of parts of the page. Thus testing of such internet applications is different from testing of “normal” applications because there can be interactions with the server without the need to load a new page. Communication is done in the background and the current page stays the same except of minor changes. This paper gives an overview of the basic principles of automated software tests, espe-cially automated testing of web based applications. Furthermore it shows the influence of AJAX concerning web development and testing of web applications. The main issue of this paper is to extend HtmlUnit for test automation of web applications using AJAX. Based on the used concepts it is possible to extend further test frameworks. HtmlUnit is a test framework for internet applications. It simulates a web browser and provides many functions to check the content of a web page. HtmlUnit doesn’t have a graphical user interface but it is written in the programming language Java. Test cases are written using JUnit tests but like many other test frameworks HtmlUnit has some problems testing AJAX enabled internet applications.

Diplomarbeitsposter Lechner Daniel

Daniel Lechner

Masterstudium Technische Informatik
Abstract:

Home and Building Automation (HBA) systems control the traditional building services lighting and shading as well as heating, ventilation and air conditioning (HVAC). The main benefits of using HBA systems are the efficient use of resources with the following energy savings and the increased comfort and wellness. Up to now, other building service types like access control, alarm and fire alarm systems have only been realised by dedicated stand-alone systems. Today a tighter integration of these isolated systems is desirable, since data which is available in one system can also be used by other ones. This integration increases the security needs of HBA systems, which have been underrated in common protocols up to now. At the same time, the use of IP backbone networks to interconnect field networks becomes more common. Unfortunately, these IP based networks are even more attractive for adversaries and prone to security attacks. This thesis deals with the protection of communication on HBA backbone networks. The principle goal is to support embedded devices, since mainly devices with a small amount of memory and computational power are used in HBA installations. First, cryptographic principles and concepts are explained. Afterwards, state of the art protocols are discussed and rated with respect to the special requirements of HBA backbones. The main part of this thesis forms the elaboration of a new concept, satisfying these special security requirements. The proposed solution performs the necessary key management as well as the protection of the communication. While the protocol was designed with HBA networks in mind, it is also applicable to other application domains (e.g., industrial automation).

Diplomarbeitsposter Mayerhofer Christoph

Christoph Mayerhofer

Masterstudium Software Engineering & Internet Computing
Abstract:

Code-Reviews dienen der Qualitätssicherung in Software-Projekten. Obwohl deren Effizienz unumstritten ist und in vielen Studien belegt wurde, werden sie immer noch als zeit- und kostenintensive Notwendigkeit zur Steigerung der Produktqualität empfunden. Die Durchführung von streng formalen Review-Methoden wie der Inspektion oder dem Walkthrough bedürfen tatsächlich einem nicht unbeträchtlichen Einsatz an Ressourcen zur Planung und Durchführung der einzelnen Review-Phasen. Weniger formale Review-Methoden sind hingegen leichtgewichtiger und können so besser an die Bedürfnisse des jeweiligen Software-Projektes angepasst werden. Außerdem kann durch den verringerten Aufwand der Fokus des Reviews auf die ursprüngliche Arbeit - die Prüfung des Quellcodes - gelegt werden. Zur Durchführung eines leichtgewichtigen Review-Prozesses wird in dieser Arbeit ein Lösungskonzept vorgestellt, welches das Versionierungssystem zur Durchführung der Code-Reviews vorsieht. Im Gegensatz zu traditionellen Review-Verfahren, wo die Menge des zu überprüfenden Quellcodes durch den Review-Manager festgelegt wird, werden hier die zu überprüfenden Artefakte durch das Changeset im Versionierungssystem bestimmt. Die Änderungen innerhalb eines Changesets sind stark voneinander abhängig und bilden daher einen idealen Ausgangspunkt für den Reviewer um Codeänderungen besser verstehen zu können. Durch Autor-Reviewer-Zuordnungen können die Code-Reviews automatisch erstellt und kontinuierlich durchgeführt werden. Die initiale Einplanung der Reviews nimmt somit nur minimale Zeit in Anspruch. Das Lösungskonzept sieht eine zentrale Verteilung der Review-Daten durch das Versionierungssystem vor, es ist somit keine zusätzliche Server-Infrastruktur notwendig. Basierend auf dem vorgestellten Lösungskonzept wurde ein Prototyp für die Entwicklungsumgebung Eclipse implementiert, der die definierten Anforderungen für einen leichtgewichtigen Review-Prozess umsetzt.

Diplomarbeitsposter Mitterhofer Stefan Karl Christian

Stefan Karl Christian Mitterhofer

Masterstudium Software Engineering & Internet Computing
Abstract:

One of the greatest threats that MassivelyMultiplayer Online Games (MMOG) face nowadays is botting. Botting is a form of cheating where a player uses a script to automate actions in a game without actually playing herself. This has a severe adverse effect on honest players and impacts their motivation to continue the game, threatening the subscription-based business model of online game providers. However, if game companies make an effort at all to automatically detect bots, it is done through signature checking for suspicious programs on the client-side, essentially relying on information from an untrusted source outside their control. To address the problem, in this thesis an automated approach is proposed which detect bots on the server-side, solely based on the activity of a character. This approach is completely transparent to the end-user and takes advantage of the fact that bots follow a script that guides them through the virtual world. More precisely, by analyzing the movement data of a character, it extracts waypoints and detects paths that are taken repeatedly. This allows to find movement patterns that repeat frequently, indicating that a character is controlled by a script and not a human player. The conducted experiments show that within a short period of time, this approach is able to distinguish with high accuracy between human and botcontrolled game characters.

Diplomarbeitsposter Mujcinovic Asif

Asif Mujcinovic

Masterstudium Informatikmanagement
Abstract:

Professionelle Programmiersprachen und Programmierumgebungen sind für ProgrammieranfängerInnen aufgrund des großen Sprachumfangs sowie der vielen Funktionen der Programmierumgebungen zu schwierig. Um dieses Problem zu lösen,wurden Programmiersprachen mit dazugehörigen Umgebungen für AnfängerInnen geschaffen. Diese Programmierumgebungen werden auch Miniprogrammierumgebungen genannt. In dieser Arbeit wurden einige dieser Programmierumgebungen näher analysiert, wobei versucht wurde, anhand ausgearbeiteter Kriterien zu bestimmen, inwieweit diese AnfängerInnen beim Einstieg in die Programmierung unterstützen und für den Programmierunterricht geeignet sind. Generell ergab die Analyse, dass die untersuchten Miniprogrammierumgebungen für den Programmierunterricht geeignet sind und ProgrammieranfängerInnen einen sanften Einstieg in die Programmierung ermöglichen. Welche Programmierumgebung eingesetzt wird, hängt allerdings von der Zielgruppe und den zu vermittelnden Paradigmen ab

Diplomarbeitsposter Neugschwandtner Matthias

Matthias Neugschwandtner

Masterstudium Software Engineering & Internet Computing
Abstract:

Device driver behavior comes into interest when taking a closer look at modern day malware, especially rootkits. Actions such as process and file hiding or keylogging are not possible if the malware executes in the standard user-mode context of a Windows PE executable. Instead, the code must run in kernel mode. The existing Anubis project for ``Analyzing unknown binaries'', however, solely focuses on user-mode executables in its goal to discover malicious behavior of malware. Therefore, it is not covering suspicious device driver behavior despite the fact that this is the most convenient method to run arbitrary kernel-level code. In this thesis, an extension to Anubis is presented, which aims to provide a method to automatically detect and evaluate device drivers.

Diplomarbeitsposter Niederkofler Gerd

Gerd Niederkofler

Masterstudium Business Informatics
Abstract:

Im Rahmen dieser Arbeit wird untersucht, welche Anforderungen ein Kollaborationssoftware-Framework erfüllen muss, um repräsentative Geschäftsprozesse für KMU mittels Groupware realisieren zu können. Aufbauend auf theoretische Grundlagen werden repräsentative Geschäftsprozesse modelliert und analysiert. Die repräsentativ für Kollaboration in KMU modellierten Geschäftsprozesse betreffen Urlaubsmanagement, Identifikation von Know-How Trägern, synchrone und asynchrone Kommunikation, verteilte Zusammenarbeit an einem Projekt und die Allokation von Human Resource und können kommunikativen-, koordinativen- und kooperativen Prozesstypen zugeordnet werden. Diese Geschäftsprozesse werden durch Business Process Reengineering (BPR) neu modelliert, wobei die Möglichkeiten von innovativen Groupware-Lösungen integriert werden. Im SOLL-Zustand kommunikativer Prozesse werden Konzepte wie Awareness und digitale Werkzeuge genutzt um es Mitarbeitern zu gestatten ihre Anwesenheit und Verfügbarkeit zu kommunizieren und Meetings interaktiver zu gestalten. Bei koordinativen Prozessen wird der Fokus hin auf die Automatisierung von Workflows gelegt. Die Verwaltung von Informationen und Status soll gekapselt werden. Kooperative Prozesse sollen durch die Schaffung von gemeinsamen und zentralen Datengrundlagen verbessert werden, die helfen Konsistenz zu wahren und Redundanz zu vermeiden. Nachfolgend zu dem BPR werden ein Software-Screening und eine Software-Evaluierung durchgeführt, um das best geeignete Software-Paket für die Umsetzung der identifizierten Prozesse anhand eines Kriterienkatalogs auszuwählen. Die ausgewählten heterogenen Software-Module werden im Framework logisch gekapselt und entfalten als Gesamtprodukt ihre kollaborative Wirkung. Ergebnis dieser Arbeit ist ein in KMU einsetzbares, universales Kollaborationssoftware-Framework, das globale Zusammenarbeit substantiell optimiert und einen gesteigerten und für Unternehmen verwertbaren Nutzen begründet.

Diplomarbeitsposter Nikoll Daniel

Daniel Nikoll

Masterstudium Informatikmanagement
Abstract:

Diese Diplomarbeit beschäftigt sich mit diversen Einsatzmöglichkeiten eines Computers im klassischen Rechnungswesenunterricht an einer Handelsakademie. Die Forderung danach begründet sich nicht nur seitens der Schüler oder der Wirtschaft, sondern wird auch explizit seitens des Lehrplans eingefordert. Bevor Unterrichtseinheiten mit IT-Bezug näher ausgeführt werden, wird ein Überblick über die in den letzten Jahrzehnten gängigsten didaktischen Modelle sowie die in den Planungen verwendeten Unterrichtsmethoden gegeben. Die anschließend verfassten Unterrichtseinheiten sollen erweiterte Einsatzmöglichkeiten eines Computers im Schulunterricht aufzeigen und insbesondere über die im zweiten Jahrgang bereits laut Lehrplan vorgeschriebene Verwendung eines Standardprogrammes zur elektronischen Verbuchung von Buchungssätzen hinausgehen und auf die Möglichkeit hinweisen, für alle Unterrichtsjahrgänge IT-orientierte Sequenzen zu planen. Da-bei stellt aufgrund der unterrichtspezifischen Lehrinhalte insbesondere der Einsatz eines Tabellenkalkulationsprogrammes im Vordergrund.

Diplomarbeitsposter Pezerovic Edin

Edin Pezerovic

Masterstudium Informatikmanagement
Abstract:

Diese Diplomarbeit beschäftigt sich mit der Erstellung eines eLearning Tutorials, dessen Inhalt die Implementierung eines Web-Clients zur Grundstücksuche ist. Für die Erstellung des Tutorials wird eLessons Markup Language (eLML) verwendet. Grundlage von eLML ist ein eigenes XML Schema, welches zur Validierung der Inhalte der Lektionen dient. Ein valides XML Dokument kann daraufhin mittels XSLT (XML Style Sheet Transformation) in verschiedene Formate umgewandelt werden. Die Darstellungsinformationen werden dabei nicht mit dem Inhalt vermischt, sondern kommen erst durch den Schritt der Generierung hinzu. Dies bietet den Vorteil, dass der gleiche Inhalt in unterschiedlichen Formaten und Darstellungsformen ausgegeben werden kann. Die Erzeugung einer neuen Darstellungsform wird durch ein Template bewerkstelligt. Der Inhalt des Tutorials ist die Implementierung eines Web-Clients, der eine geografische Grundstücksuche bietet. Durch Eingabe der Grundstücksnummer wird das entsprechende Grundstück in einem Kartenfenster markiert. Die Suche erfolgt unter Einhaltung der Spezifikation des Open Geospatial Consortium (OGC), genauso wie die Darstellung der Karte im Kartenfenster. Für die Aufbereitung der Karte wird ein Web Map Service (WMS), für die Suche der Grundstücke ein Web Feature Service (WFS) verwendet. Der Web-Client wird mittels der frei verfügbaren JavaScript Bibliothek OpenLayers implementiert und greift auf Services des Bundesamt für Eich- und Vermessungswesen zu.

Diplomarbeitsposter Realfsen Asmund Realf

Asmund Realf Realfsen

Masterstudium Informatikmanagement
Abstract:

The term Information Technology (IT) governance can be defined as the continuous management of an organization's IT resources in order to optimally support the overall strategic business objectives. An IT organization can use international accepted standards for IT governance to achieve this goal. Internationally accepted standards are built on knowledge from a large community and can be valuable as a guideline or template in this process. In addition to document proven knowledge, several standards for IT governance provide certifications schemes in order to demonstrate quality to customers and shareholders. The goal of this master thesis is twofold. First, the master thesis is to support small and medium sized organizations managing information technology in the process of acquiring the required knowledge for implementing organizational structures and processes according to the Control Objectives for Information and Related Technology (COBIT), ISO/IEC 20000 and ISO/IEC 27001 standards. Second, the master thesis should provide methods supporting an organization's internal compliance audit of the three standards. The approach for solving both goals was to develop a common model that supports the learning process and compliance audit of the three standards. For the development of the model, several didactical considerations were taken into account. Especially the learning theories of cognitivism and constructivism influenced the structure and methods defined for the model. Moreover, the developed model can be used for measuring the maturity level of an IT organization's implemented business processes. The model's custom maturity levels are based on the Capability Maturity Model Integration (CMMI) approach and measure the maturity of processes as defined in COBIT, ISO 20000 and ISO 27001.

Diplomarbeitsposter Reitter Andreas

Andreas Reitter

Masterstudium Medizinische Informatik
Abstract:

Diese Arbeit befasst sich mit dem Problem, dass Arbeitsabläufe in Softwareerzeugenden Organisationen oft immer komplexer werden. Mangels vollständiger Dokumentation kann es vor allem bei neu aufgenommenen Mitarbeitern vorkommen, dass einzelne oftmals wichtige Arbeitsschritte nicht durchgeführt werden. Dies betrifft in den meisten Fällen Arbeitsschritte, deren Nichtdurchführung für den Prozess/das Projekt keinerlei unmittelbare Auswirkung haben, rechtlich aber verbindlich durchzuführen sind. Ein Beispiel hierfür ist die Dokumentation von durchgeführten Tätigkeiten auf Kundenservern. Die Einführung eines Workflow-Management-Systems (WMS) kann diesem Problem entgegenwirken. Dieser Masterarbeit zeigt auf, wie Prozesse erfasst, analysiert, dokumentiert und in ein dynamisches System zur Durchführung eingebunden werden können. Besonderer Wert wird darauf gelegt, wie die Anwender bei ihrer täglichen Arbeit unterstützt werden können, so dass sie ihre Arbeitsaufgaben schneller bzw. mit besserer Qualität durchführen können. Anhand des Fallbeispiels einer IT-Abteilung eines mittelständischen Unternehmens wird ein webbasiertes WMS, welches diese Aufgaben bewältigen soll, entworfen und entwickelt. Im Zuge der Einführung des WMS in der Organisation konnten Zuständigkeiten klar definiert, Grobabläufe für Prozesse vorgegeben und die Erstellung einer ausführlichen Dokumentation zu den Prozessen veranlasst werden. Das implementierte WMS wurde in ein bestehendes Zeitdokumentationssystem integriert, um die Akzeptanz der Nutzer möglichst hoch zu halten. Mit Hilfe der von WMS und Zeitdokumentationssystem erhobenen Zeitmarken können nun Auswertungen über die Prozessleistung generiert werden, welche der Verbesserung der Arbeitsabläufe dienen und zur Planung von zukünftigen Projekten beitragen. Als Abschluss der Arbeit wurde ein Fragebogen entworfen, mit Hilfe dessen eine Evaluierung der Arbeit durchgeführt wurde.

Diplomarbeitsposter Schmidt Peter

Peter Schmidt

Masterstudium Informatikmanagement
Abstract:

Der Einsatz von Lego Mindstorms in Kombination mit LeJOS im Unterricht erlaubt es, die Programmierung nicht nur in den dafür vorgesehenen Fächern zum Einsatz zu bringen, sondern äußerst interessante Projekte auch fächerübergreifend in andere Unterrichtsgegenstände zu integrieren. Auf die Hardware des Mindstorms NXT wird in der vorliegenden Arbeit ebenso eingegangen wie auf die Installation der benötigten Software. Dadurch wird es auch Einsteigern ermöglicht, schnell Erfolge zu erzielen. Nach Betrachtung der aktuellen Konzepte zum Einsatz von Mindstorms im Unterricht widmet sich der größte Teil der vorliegenden Arbeit der Ausarbeitung von Projekten, welche in diversen Unterrichtsgegenständen umgesetzt werden können, da bisher Mindstorms v.a. abseits der Informatik nur wenig zum Einsatz kommt. Neben der Programmierung mittels LeJOS, einem für Mindstorms implementierten Teil der Java Virtual Machine, ist ebenso auf die Konzeption und den Bau der Roboter zu achten.

Diplomarbeitsposter Strobl Stefan

Stefan Strobl

Masterstudium Software Engineering & Internet Computing
Abstract:

Diese Diplomarbeit demonstriert die Anwendung von Datenbank Reverse-Engineering (DBRE) zur Unterstützung eines umfassenden Software Re-Engineering Projekts. DBRE erleichtert das Extrahieren struktureller und semantischer Informationen aus veralteten Datenbanksystemen. Im Kontext eines Software Re-Engineering Projekts befasst sich diese Arbeit mit dem Extrahieren und Verarbeiten von Informationen aus zwei getrennten, aber semantisch eng verbundenen Datenbanken. Im Rahmen dieses Projektes wird der insgesamt mehr als dreißig Jahre umfassende Inhalt dieser Datenbanken in ein komplett überarbeitetes Schema migriert. Die Diplomarbeit definiert einen DBRE Prozess, der speziell darauf zugeschnitten wurde, ein bereits laufendes Projekt zu unterstützen, indem kontinuierlich Informationen über die Quelldaten und deren Einfluss auf die Umsetzung der Projektvorhaben zur Verfügung gestellt werden. Dieser Prozess wird in zweierlei Ausprägungen dargestellt. Zum Einen wird der Prozess in einer generischen und wiederverwendbaren Form dargestellt, zum Anderen wird die konkrete Umsetzung dieses Prozesses als Teil eines realen Projektes gezeigt um die praktische Anwendbarkeit des gewählten Ansatzes zu demonstrieren. Auf einer generischen Ebene zeigt diese Diplomarbeit, wie die verschiedenen Interessensgruppen von der praktischen Arbeit profitieren konnten und wie diese Vorteile auch in anderen Software Re-Engineering Projekten erreicht werden können. Auf der praktischen Ebene wurde eine Reihe von Artefakten erzeugt. Das bedeutendste davon war eine umfassende, Web-basierte Dokumentation der Altdatenbank inklusive einer graphischen Darstellung. Weitere Ergebnisse umfassen eine vollständige Kategorisierung der Datenbankobjekte nach Geschäftsfeld sowie Richtlinien für detaillierteres Daten-Reverse-Engineering (DER).

Diplomarbeitsposter Terenyi Thomas

Thomas Terenyi

Masterstudium Software Engineering & Internet Computing
Abstract:

Diese Arbeit behandelt das Thema Network Discovery - das Auffinden von Geräten in einem Computernetzwerk und von Informationen sowohl über diese selbst, als auch über deren Verbindungen untereinander. Network Discovery fällt in den Bereich des Network Managements und kann als Basis für viele der dazugehörigen Tätigkeiten dienen. Diese Arbeit beschreibt nicht nur die praktische Relevanz des Themas, sondern liefert auch einerseits eine Einführung in den Themenkomplex mit seinen wichtigsten Aspekten und behandelt andererseits konkrete Discovery-Techniken im Detail. Einige der vorgestellten Methoden werden in einem Algorithmus zusammengefasst, wobei besonderes Augenmerk auf ein Discovery bei minimalen Vorkenntnissen (d.h. a priori wird möglichst wenig Wissen über das Netzwerk benötigt) gelegt wird. Weiters wird dieser Algorithmus in dem Programm Network Explorer umgesetzt, das eigens im Rahmen dieser Arbeit entwickelt wurde. Dieses Programm wird in einer realen Umgebung zum Einsatz gebracht und dessen Ergebnisse werden vorgestellt, analysiert und bewertet. Anschließend werden konkrete, mögliche Szenarien für dessen praktische Anwendung beschrieben. Die wichtigsten Ziele dieser Arbeit sind eine Einführung in das Thema Network Discovery zu liefern sowie eine Überblick über Methoden und Technologien in diesem Bereich zu geben. Die vorgestellten Techniken werden vergleichend analysiert und ein Leitfaden zur deren Auswahl bei der Entwicklung eines Discovery-Systems erstellt. Anhand eines konkreten Algorithmus' und dessen Implementierung in einem Programm wird beispielhaft demonstriert, wie ein derartiges System erstellt werden kann. Weiters wird gezeigt, dass dieses System auch praxistauglich ist und eine Reihe von realen Anwendungen besitzt. Bei allen in dieser Arbeit vorgestellten Aspekten steht besonders der praktische Nutzen im Vordergrund.

Institut für (vor 2018) InformationssystemeE184

Arbeitsbereich (vor 2018) Distributed Systems

Diplomarbeitsposter Bruckner Alexander

Alexander Bruckner

Masterstudium Software Engineering & Internet Computing
Abstract:

The Representational State Transfer (REST) defines a set of architectural constraints for the implementation of distributed hypertext systems, and forms the basis for the implementation of the modern WorldWideWeb (WWW).Web services, primarily grounded on the principles of REST and base technologies of the WWW, such as HTTP, URI and XML are called RESTful Web services. Due to their uniform interface, formed by the methods of the HTTP protocol specification, the integration of such Web services is fostered by most modern programming languages. Representing a light weight implementation alternative to overly complex WS* Web services RESTful Web services are increasingly gaining relevance in Web 2.0 environments as well as enterprise level applications. This thesis deals with the issues of RESTful Web service integration in formally described, executable business workflows. Whereas the WS-BPEL specification or the Windows Workflow Foundation framework provide established workflow models for WS* based Web services, comparable solutions for RESTful Web services are rare in scientific research and commercial software products. The conceptual part of the thesis compares the theoretical foundations of the implementation styles REST and WS* and the compliance of real world RESTful Web services with the architectural constraints of REST, in respect of their workflow integratability. A detailed survey of description languages for RESTful Web services forms the basis for the first part of the implementation - a code generation library for WADL (Web Application Description Language) and WF (Windows Workflow Foundation) activity components, facilitating the invocation of RESTful Web services within WF workflows. The second part of the thesis implementation introduces a Web service integration wizard, allowing for dynamic integration of heterogeneous Web services in expressFlow, a web scale visual workflow design application.

Diplomarbeitsposter Huber Andreas

Andreas Huber

Masterstudium Software Engineering & Internet Computing
Abstract:

A Service-oriented Architecture primary aims to cover the principle of “publish-find-bind”, whereby Web services are its most important implementation. However, common Web service technologies are insufficient to meet the requirements of service-oriented applications. Mostly, the WSDL is taken from the requestor to generate stubs that are used for an invocation. To increase flexibility and loose coupling, services should not be seen as RPC-style method invocations, but as interchangeable components that fulfill certain demands. The VRESCo runtime environment addresses some of the current challenges related to Service-oriented Computing in practice, among others service discovery, QoS-aware dynamic (re-)binding and invocation, and service composition. For these purposes, additional information is required to describe semantic meanings of services. Furthermore, dynamic binding raises another challenge, namely services providing the same functionality but offering different interfaces. Regarding these problems, this thesis offers the following solutions. Firstly, an expressive metadata model is introduced including service classification, support of conditions and Quality of Service attributes. Secondly, based on the metadata model, the VRESCo Mapping Framework (VMF) is introduced to handle the problem with interface heterogeneities. It consists of a library including a broad collection of useful data manipulation functions to define mappings between different services with same functionality and a mediator which is integrated into VRESCo and executes these mappings on service invocation. This thesis introduces a motivating example to show the significance of these topics, gives a state of the art review of the concepts and technologies in SOC and Web services and presents related work. Apart from this, the thesis gives an introduction to the design and implementation of the metadata model and VMF. Finally, an evaluation demonstrates the runtime performance of VMF.

Diplomarbeitsposter Hummer Waldemar

Waldemar Hummer

Masterstudium Software Engineering & Internet Computing
Abstract:

The Web Services Resource Framework (WSRF) specifications are an extension to the core Web service standards (WSDL, SOAP, UDDI), which define how to use Web service technologies to address and access computational resources that maintain an internal state between invocations. This behavior is referred to as stateful. Web services which address stateful resources usually have implicit constraints concerning the order in which operations can be invoked. In order for the client to adhere to these constraints, it needs to obtain information about the intra-service protocol in terms of valid operation sequences and the expected input-output transformation across invocations. While the community has widely agreed on WSDL as the standard for functional service description (the "static" service interface), there is still an evident lack of languages to describe the dynamic, behavioral interface of services. In this thesis we introduce SEPL (SErvice Protocol Language) as a high-level domain-specific language (DSL) with a scripting-language like syntax, that is tailored specifically towards the needs of intra-service protocol description. Notable features of the DSL include support for WS-Addressing and simple creation of new Web service instances, synchronous and asynchronous service invocation facilities and easy access to WSRF-style service resource properties. Service providers can use SEPL to define the procedure which must be followed by clients in order to achieve a certain behavior. These functionalities, which are compounded from a combination of the service's operations, are themselves exposed as stand-alone operations. We provide a graphical representation of service protocols in the form of UML Activity Diagrams and tools to generate SEPL code from such models. We further present a solution to host and execute SEPL protocols in a server application based on Web services technology.

Diplomarbeitsposter Laner Thomas

Thomas Laner

Masterstudium Software Engineering & Internet Computing
Abstract:

Over the past few years, Service-oriented Architecture (SOA) has risen to one of the most hyped concepts, which enterprises are trying to adopt. Nevertheless, service-centric solutions in practice can hardly keep what SOA has promised. This fact relies on a number of wrongly used concepts and several shortcomings of currently applied technologies. According to that, these solutions are by far not indicated as flexible, dynamic and adaptable as originally envisioned. VRESCo represents a Web service runtime environment to support the development of SOA applications that meet the visionary promise. This thesis has contributed to VRESCo, taking up two major challenges. Firstly, a structured metadata model has been adapted in order to meet the crucial demand on more extensive service knowledge. This model covers all important aspects of services, including Quality of Service attributes (QoS), inputs, outputs, preconditions and effects (IOPE). Apart from that, the approach involves a service abstraction concept that enables one of the most essential SOA benefits, called endpoint transparency. Secondly, an expressive and type-safe query language (VQL) has been integrated to not only provide requests for services but rather requests for service metadata as a whole. Due to the fact that database structures are transparent to clients, the queries target an object-oriented model, defined by so-called data dontracts. As to that, VQL constitutes a view-based approach, depending on predefined mappings between this client-side model and the ORM registry model on the server. Furthermore, the approach involves fuzzy querying and relaxation strategies by user-specified preferences, which are particularly considerable when no exact match can be found. In this regard, it improves service discovery and selection at runtime and supports several aspired runtime behaviors, such as QoS aware dynamic rebinding.

Diplomarbeitsposter Müller Max Benjamin

Max Benjamin Müller

Masterstudium Software Engineering & Internet Computing
Abstract:

Aktuell zeigt sich im Bereich der Entwicklung von verteilten Geschäfts-Applikationen ein starker Trend zur Erstellung von Service-orientierten Architekturen (SOA). Ein großer Vorteil bei der Nutzung von SOAs ergibt sich durch die Komponierbarkeit von Services. Somit lassen sich aus einzelnen, atomaren Services composite Services erstellen. Im Bereich von Web services hat sich WS-BPEL als Standard durchgesetzt. Dieses bietet jedoch nur einen relativ statischen Ansatz, da alle Services zur Design-Zeit bekannt sein müssen, wodurch dynamische Adaptionen zur Laufzeit verhindert werden. Aus diesem Grund gibt es verstärkt Forschungsaktivitäten im Bereich der Entwicklung von SOA-Laufzeitumgebungen, die Unterstützung für die Definition von composite Services ausschließlich auf Basis von Schnittstellen bieten. Beim Aufruf eines solchen composite Services ist die Laufzeitumgebung dafür verantwortlich, an jede Schnittstelle eine von potentiell vielen verschiedenen Implementierungen dynamisch zu binden. Als Auswahlkriterium bieten sich dazu Quality of Service (QoS) Daten an, welche von der Laufzeitumgebung überwacht werden. Man spricht in diesem Fall von so genannten QoS-aware service compositions. Aufgrund der potentiell hohen Anzahlen an Schnittstellen, aus denen sich ein composite Service zusammensetzt, und der jeweils vorhandenen Implementierungen, sowie der Notwendigkeit, dass der Aufruf des composite Services nicht zu lange verzögert werden sollte, sind optimale Lösungsverfahren nicht zielführend. In dieser Arbeit wurden daher Algorithmen entwickelt, welche speziell für die genannten Anforderungen maßgeschneidert sind. Basierend auf den Konzepten von drei Metaheuristiken (Genetische Algorithmen, Simulated Annealing und Tabu Search), wurde ein hoch flexibles, erweiterbares und generell einsetzbares Framework zur Optimierung von QoS-aware service compositions implementiert und mit der VRESCo SOA-Laufzeitumgebung integriert.

Diplomarbeitsposter Schindler Alexander

Alexander Schindler

Masterstudium Software Engineering & Internet Computing
Abstract:

Das Interesse an Service-orientierter Architektur (SOA) im Bereich Software Entwicklung nimmt stetig zu - vor allem durch die erleichterte Integration von heterogenen Systemen. Web services ermöglichen es komplexe und dynamische Systeme zu implementieren, in denen einzelne Komponenten zur Laufzeit, anhand bestimmter Kriterien, wie z.B. Quality of Service (QoS), ausgewählt werden. QoS-bezogenes Service Management und Service Komposition hängen im großen Maße von diesen wichtigen Daten ab. Viele aktuell publizierte Ansätze gehen jedoch davon aus, dass diese Informationen bereits vorhanden sind. Diese Diplomarbeit widmet sich diesem fundamentalen Problem und stellt zwei Methoden zur Leistungsüberwachung von WCF basierten Web services, sowie zusammengesetzten Web services, sogenannte Workflows, vor. Die erste Methode basiert auf Windows Performance Counters (WPC), welche von der Windows Communication Foundation (WCF) zur Verfügung gestellt werden. Diese Zähler ermöglichen sehr genaue QoS-Messungen. Die Ergebnisse werden aufgearbeitet und als Metadata in der VRESCo Registry Datenbank gespeichert. Die zweite Methode überwacht Windows Workflow Foundation (WWF) Workflows. Durch das Miteinbeziehen der komplementären Aktivitäten eines Workflows, bekommt man ein differenzierteres Bild über dessen Leistung. Solche Informationen sind ausschlaggebend für QoS Aggregations Algorithmen. Diese Diplomarbeit führt des Weiteren in den State-of-the-Art von Service oriented Architecture ein und gibt einen überblick über aktuelle Arbeiten in diesem Gebiet.

Diplomarbeitsposter Schöllhammer Florian

Florian Schöllhammer

Masterstudium Software Engineering & Internet Computing
Abstract:

In collaborative working environments (CWE), context describes people, artefacts, activities and resources. One major challenge in this domain is to sense context changes. However, the integration and deployment of context sensors often poses a serious problem, since in pervasive SOA-based collaboration environment the sensor developer is not able to change 3rd party services by adding sensor modalities. To mitigate this shortcoming, our approach focuses on analysing the message exchange between service provider and service consumer. In this thesis we design and implement a toolkit that simplifies the development and deployment of SOA-based context sensors, filtering and forwarding SOAP messages as well as managing context data.

Arbeitsbereich (vor 2018) Database and Artificial Intelligence

Diplomarbeitsposter Chekol Melisachew Wudage

Melisachew Wudage Chekol

Masterstudium DDP Computational Logic (Erasmus-Mundus)
Abstract:

In this thesis a prototype for distributed reasoning for mobile devices is specified and implemented. The system is based on the open source Euler reasoner and Python programming language is used for its implementation. The system is intended to be used in a (mobile) network where there are a range of mobile devices communicating one another. But it can also be used as a stand-alone Notation3 reasoner. The system is capable of sending presence requests (reasoning tasks) to another device in a network and merging responses afterwards. It uses Notation3 policies and rules for performing reasoning tasks. It is the core component of the Policy Engine of MAGNET Beyond. Inserting this reasoner into the Policy Engine produces a decision making agent which can communicate with instances of its kind spread over a mobile network.

Diplomarbeitsposter Eder Johann

Johann Eder

Masterstudium Computational Intelligence
Abstract:

[The abstract for this thesis is shorter than 2000 characters, but when counting the whitespace it is longer than 2000 characters. That was not a problem until this web-form, please provide a workaround. Further more, please ensure that I will participate in the epilog in the winter term, so not the upcoming one. -Hannes Eder <hannes@hanneseder.net>]

Diplomarbeitsposter Prangnawarat Narumol

Narumol Prangnawarat

Masterstudium DDP Computational Logic (Erasmus-Mundus)
Abstract:

Diese Masterarbeit beschäftigt sich mit dem Verstehen und der Erkennung der inhaltlichen Struktur von Webseiten in der Supermarkt-Domäne, um sie für Sehbehinderte zugänglich und leichter handhabbar zu machen. Heutzutage können viele Websites von Blinden und Sehbehinderten besonders durch den Einsatz von JavaScript und komplizierte Strukturen praktisch nicht verwendet werden. Wir möchten diese Websites so restrukturieren, daß sehbehinderte Menschen einfacher damit umgehen können. Anstelle Extraktionstechniken zu verwenden, die auf der Baumstruktur von HTML aufsetzen, extrahieren wir Daten von Webseiten auf einer visuellen Ebene, der Gestalt-Ontologie (eine auf der Gestalt-Theorie basierende Entwicklung der DBAI-Gruppe), die auch jener Art entspricht, wie ein sehender Mensch eine Seite wahrnimmt. Diese Arbeit untersucht Supermarkt-Webseiten zur Identifikation gemeinsamer Konzepte, Strukturen, Funktionen und Interaktionen. Deren Layout wird auf Basis der Gestalt-Ontologie in Blöcke segmentiert, die wiederum in eine inhaltliche Hierarchie und nach Relevanz für Blinde klassifiziert werden. Die Arbeit beschreibt weiters Algorithmen zur Bestimmung des Leseflusses, zur Block-Gruppierung für einfacheres Lesen und die Erfassung von Formular-Interaktionselementen, um den Benutzern die Interaktion zu ermöglichen. Schließlich wird die Implementierung eines Prototypen und die Evaluierung von damit durchgeführten Experimenten beschrieben. Das Ergebnis dieser Arbeit ist ein Beitrag zu einem intelligenteren Web-Browser, der dabei hilft, Inhalt und Interaktionen für Screenreader und mobile Geräte adäaquat zu repräsentieren.

Diplomarbeitsposter Selinger Oliver

Oliver Selinger

Masterstudium Software Engineering & Internet Computing
Abstract:

Web Process Integration constitutes a procedure for a seamless integration of Web Processes into the enterprise's processes. Within a Web Process, contents from web sources are gained and transformed to meaningful and customizable data structures. These techniques bear a meaning especially for enterprises. These techniques bring companies competitive advantages through integrating processes easily for gathering hard to obtain information over several web portals. Contemplating Web Process Integration, the operation method of the information delivery process procures to be a workflow. The execution of the steps like data extraction, transformation, filtering and so on looks like a chain of tasks needed for information delivery. These tasks are arranged in a determined control flow and must be completed by a kind of a service. This master thesis ties in with a new trend towards Service-Oriented Architecture-based Mashups and describes a proof of concept of using a standardized service-based platform to build Situational Applications for Web Process Integration in enterprise environments. The non SOA-based solution of Lixto serves as orientation for a new concept of a SOA-based platform to develop Situational Applications. The most important requirements and demands were cumulated to design and implement a server application (WPIServer) for the creation of Web Processes. An Enterprise Service Bus was chosen as platform because it combines Service-Oriented Architecture with Business Process Management (BPM) which enables arrangements of SOA-services in a workflow-based process. Hence, the Enterprise Service Bus OpenESB was adapted to fit in the requirements assembled for Web Process Integration tools. How far the OpenESB and today's development tools support and solve Web Process Integration and where the Service Designer has to manipulate, shows an extensive reference example built on the implemented WPIServer application.

Diplomarbeitsposter Skritek Sebastian

Sebastian Skritek

Masterstudium Computational Intelligence
Abstract:

"Peer Data Management System" (PDMS) bezeichnet einen Ansatz um die Flexibilität von Peer-to-Peer (P2P) Systemen mit der Ausdruckskraft und klar definierten Semantik von Datenbanksystemen zu verbinden. Dabei nimmt man an, dass die Daten auf verschiedenen, unabhängigen Knoten (Peers) verteilt sind. Jeder Peer ermöglicht über ein Peer-Schema Zugriff auf seine Daten und kann - ähnlich wie bei Datenintegration ("Data Integration") und Datenaustausch ("Data Exchange") - Abbildungen fremder Peer-Schemata auf sein eigenes Schema definieren. Im Gegensatz zu Datenintegration, Datenaustausch oder Multidatenbanksystemen benötigen PDMSs jedoch kein globales Schema und somit keine zentrale Kontrollinstanz. Alle Beziehungen werden lokal zwischen jeweils zwei Peers definiert. Da dies im allgemeinen Fall dazu führen kann, dass etwa die Beantwortung einer Abfrage an ein PDMS unentscheidbar wird, wurden in den letzten Jahren verschiedene Ansätze entwickelt um die Entscheidbarkeit typischer Probleme im Bereich der Datenbanken zu erhalten. Deshalb die Topologie des P2P-Netzwerkes einzuschränken widerspricht jedoch der Idee von vollständig autonomen Peers. Eine andere Möglichkeit besteht darin, die Ausdruckskraft der Abbildungen stärker zu beschränken. Basierend auf dieser Idee schlugen De Giacomo et al. 2007 ein theoretisches Modell für ein PDMS vor, welches eine beliebige Topologie des P2P Netzwerkes erlaubt und sowohl den klassischen Datenaustausch als auch die klassische Datenintegration als spezialfälle umfasst. Nach unserem Wissenstand existiert bislang keine Implementierung dieses Ansatzes. Ziel der vorliegenden Arbeit war es die theoretischen Grundlagen von PDMSs zu untersuchen und einen Prototypen nach dem vorgeschlagenen Modell zu entwickeln. Die Arbeit gibt weiters einen Überblick über alternative Ansätze für PDMSs in der Literatur, enthält eine detaillierte Beschreibung des Modells von De Giacomo et al. und beschreibt Ergebnisse des implementierten Prototypen.

Diplomarbeitsposter Wagner Florian

Florian Wagner

Masterstudium Software Engineering & Internet Computing
Abstract:

Beim Datenaustausch (data exchange) wird versucht, die Daten eines Quellschemas möglichst adäquat in Daten eines Zielschemas zu überführen. Als Lösung gibt es viele Möglichkeiten, wobei die Kompakteste aller Lösungen Kern (core) genannt wird und in der Zieldatenbank gespeichert werden sollte. Bisherige Lösungen berechnen zuerst eine allgemeine Lösung und aus dieser den Kern. Die besten dieser Algorithmen, sind trotz polynomieller Laufzeit bei großen Datenbeständen nicht mehr sinnvoll verwendbar. Um auch bei großen Datenbanken den Kern in akzeptabler Zeit berechnen zu können, haben Pichler und Savenkov einen neuen Ansatz entwickelt, der den Kern ohne den Umweg einer allgemeinen Lösung berechnen kann. Dazu wird das Zusammenspiel alle Abhängigkeiten zwischen Quelle und Ziel untersucht und die Abhängigkeiten gegebenenfalls abgeändert. Darauf aufbauend kann der Kern direkt berechnet werden. Die Diplomarbeit verfolgt das Ziel, die Analyse von Abhängigkeiten in Java zu implementieren und als Ergebnis abgeänderte Abhängigkeiten zu liefern. Dies macht es möglich, einen Algorithmus zu entwickeln, der den Kern direkt berechnen kann. Trotz einer einmal notwendigen aufwändigen Untersuchung der Abhängigkeiten ist der neue Ansatz für große Datenmengen besser geeignet als der bisherige. Neben der Implementierung besteht die Diplomarbeit auch aus einer Betrachtung wesentlicher Grundlagen des Datenaustausches und dem bisherigen Ansatz zur Berechnung von Kernen.

Arbeitsbereich (vor 2018) Knowledge Based Systems

Diplomarbeitsposter Al-Manir Mohammad Sadnan

Mohammad Sadnan Al-Manir

Masterstudium DDP Computational Logic (Erasmus-Mundus)
Abstract:

For the development of Semantic Web the the World Wide Web Consortium has focussed on the future Web Ontology Language standard OWL 2 and rule languages in Rule Interchange Format which are required to interoperate. A lot of researches have been carried out towards the integration of various Description Logics and rules and RIF-OWL combination is a step forward in this direction. Most of the Description logics are a decidable subset of classical First-Order logic while rules originate from logic programming. In this thesis, we discuss the combination of Description Logics and negation-free rules, both of which are expressed in the standard First-Order logic semantics. We propose an algorithm for reasoning which is sound but not complete for these combinations. Our algorithm uses existing standard reasoning tool for retrieving facts from the Description Logic Knowledge Base with which rules are put together to form a logic program. Finally, rule reasoner is used for answering conjunctive queries on this logic program. We identify the reasons behind the incompleteness and chose a subset of these combinations which combines restricted Description Logic and rules. This restricted subset consists of Description Logic Horn-SHIQ and rules such that Description Logic predicates are allowed only in the rule bodies and all the rules are DL-safe. A prototype implementation of the reasoning process is also presented which uses Pellet Description Logic reasoner and XSB rule reasoner showing the effectiveness of using existing tools with our algorithm. The combination chosen in this thesis can express strictly more information in the Description Logic component compared to the combination of DLP extended using rules.

Diplomarbeitsposter Fraz Sana

Sana Fraz

Masterstudium DDP Computational Logic (Erasmus-Mundus)
Abstract:

Integrating ontologies in the form of Description Logic with the rules of Logic Programming (LP) in the context of Semantic Web Technologies has received considerable attention over the past few years. We introduce a hybrid framework based on Open Answer Set Programming (OASP) where the knowledge bases consist of simple conceptual logic programs (a decidable fragment of OASP) and the DL ALCH knowledge bases. We also define a formal translation of ALCH concept expressions to rules under the syntax and semantics of simple CoLPs in order to show that reasoning with such hybrid knowledge bases can be reduced to reasoning with simple CoLPs only. In addition, we provide a Java implementation that accepts the ALCH knowledge base and simple CoLP as input, and perform hybrid reasoning using the tableaux-based method. Finally, we present our experimental results and discuss the strengths and weaknesses of the implemented algorithm.

Diplomarbeitsposter Guagliardo Paolo

Paolo Guagliardo

Masterstudium DDP Computational Logic (Erasmus-Mundus)
Abstract:

Recent research showed that adopting formal ontologies as a means for accessing heterogeneous data sources has many benefits, in that not only does it provide a uniform and flexible approach to integrating and describing such sources, but it can also support the final user in querying them, thus improving the usability of the integrated system. The Query Tool is an experimental software supporting the user in the task of formulating a precise query -- which best captures their information needs -- even in the case of complete ignorance of the vocabulary of the underlying information system holding the data. The intelligent interface of the Query Tool is driven by means of appropriate automated reasoning techniques over an ontology describing the domain of the data in the information system. Although an implementation does exist, there is no characterisation of the Query Tool from the formal point of view, that precisely describes how such a system works and on which theoretical foundations it relies. Indeed, the central purpose of this thesis is that of providing a formal framework in which the Query Tool's components and operations are defined in a precise and unambiguous way. We will describe what a query is and how it is internally represented by the Query Tool, which operations are available to the user in order to modify the query and how the tool provides contextual feedback about it presenting only relevant pieces of information. Moreover, we will also investigate in detail how a query can be represented in a suitable ``linear form'', so that it can more easily be expressed in natural language. As a conclusive part of our work, a new implementation of the Query Tool, superseding the existing one and complying with the formal specification, has been devised. At present, the new system includes only the core of the Query Tool and is meant to provide a demonstrative though fully functional implementation based on our framework.

Diplomarbeitsposter Moura Joao

Joao Moura

Masterstudium DDP Computational Logic (Erasmus-Mundus)
Abstract:

The main motivation for any paraconsistent logic is the idea that reasoning with inconsistent information should be allowed and possible in a controlled and discriminating way. The principle of explosion makes this inviable, and as such must be abandoned. In non-paraconsistent logics, only one inconsistent theory exists: the trivial theory that contains every sentence as a theorem. Paraconsistent logic allows distinguishing between inconsistent theories and to reason with them. Sometimes it is possible to revise a theory to make it consistent, however in other cases (e.g., large software systems) it is currently impossible to attain consistency. Some philosophers and logicians take a radical approach, holding that some contradictions are true, and thus a theory being inconsistent is not something undesirable. We investigate possible characterizations of existing semantics for paraconsistency using semantic structures that have been proposed in non-monotonic logic programming more recently, while seeking for possible ways of implementation by means of transformation to standard non-monotonic logic programming. In this way, we characterize and present a new way of calculating the semi-stable models of a program (which are paraconsistent in the presence of incoherence) without having to explicitly perform a syntactical transformation as the ones in the characterizations available in the literature. We do this by dealing with strong negation and then calculating the program’s Routley models. Afterwards we only need to perform a selection according to some criteria.

Diplomarbeitsposter Mushthofa Mushthofa

Mushthofa Mushthofa

Masterstudium DDP Computational Logic (Erasmus-Mundus)
Abstract:

We consider the class of logic programs under the restriction of bounded predicate arities. Previous results showed that the complexity answer set semantics for such class of logic programs is lower than unrestricted programs. In particular, evaluation under answer set semantics is possible within polynomial space. However, current ASP solvers and grounders do not seem to respect this complexity bound, and may produce exponential size ground programs, even for programs with bounded predicate arities. We present three methods for evaluation of logic programs with bounded predicate arities which stays within polynomial space. We developed an evaluation framework built on top of current ASP solvers based on the methods, and also provided a prototype implementation of the framework. An experiment was conducted to measure the feasibility and performance of the methods, and to compare it with current ASP solvers, DLV and claspD. The test results showed that the proposed methods and framework are able to evaluate many test instances more efficiently than DLV and claspD. Evaluations by the prototype system stay within polynomial space, and hence, avoid the bottleneck associated with exponential size grounding.

Diplomarbeitsposter Rybenko Ksenia

Ksenia Rybenko

Masterstudium DDP Computational Logic (Erasmus-Mundus)
Abstract:

Abstract auf Deutsch: Diese Masterarbeit ist Teil des BauVOGrid-Projekts, deren Ziel ist es, die Struktur, Funktionsweise und Operabilität virtueller Organisationen (VO) im Bauwesen durch eine wiederverwendbare Bau-Grid-Infrastruktur entscheidend zu verbessern. Um dies zu erreichen wird ein D-Grid-basierter Lösungsansatz erarbeitet, der es ermöglichen soll: - Zuständigkeits- und Autorisierungsstrukturen beherrschbar auf Rollenbasis abzubilden, - VO-Prozesse schnell zu konfigurieren und entsprechend der Zuständigkeitsstruktur zu instanziieren und zu managen - Informationen aus unterschiedlichen Quellen integriert und schnell, flexibel und sicher sowohl im Büro als auch mobil auf der Baustelle zur Verfügung zu stellen - Ad-hoc-Änderungen von Prozessabläufen - die mobile Erfassung von Prozessen und Prozess- sowie Produktzuständen auf der Baustelle zu unterstützen Durch den Ontologieansatz in BauVOGrid wird erreicht: - eine einheitliche semantische Bindung (Commitment) aller Anwendungen und Services der Plattform, - Mapping der informationstechnischen Zugriffsrechte, Autorisierungen etc. auf die tatsächlichen, bauspezifischen Rechte und Pflichten in der VO, die über vertragliche Bindungen und Leistungsverzeichnisbeschreibungen geregelt werden, sowie - eine kontextabhängige Definition von Arbeits- und Informationsprofilen erreicht Der Kern des Projekts ist Kollaboratives Porzess Management. Zu diesem Zweck sollen die Informationen effizient analysiert werden, sowie werden die intelligenten Lösungen gefragt. Darüberhinaus ist ein Reasoning-Tool, das die Arbeit mit den Ontologien ermöglicht, notwendig. In dieser Masterarbeit wird Reasoning mit Regeln und Ontologien von der ASP (Answer Set Programming) Perspektive eingesetzt. Das hat viele Vorteile: Deklarativität, Nondeterminismus, Entscheidbarkeit, Skalierbarkeit. Mittels Regeln können solche Szenarien wie „Rollenbasiertes Management“ und „Business Prozess Objekt Management“ unterstützt werden.

Institut für (vor 2018) Institut für ComputersprachenE185

Arbeitsbereich (vor 2018) Programmiersprachen und Übersetzer

Diplomarbeitsposter Ehmann Stefan

Stefan Ehmann

Masterstudium Software Engineering & Internet Computing
Abstract:

Generisches Programmieren hat sich zu einer wichtigen Programmiertechnik entwickelt, die von vielen Programmiersprachen direkt unterstützt wird. Während Java Generics vergleichs­weise neu sind, ist die nächste C++ Version (die oft als C++0x bezeichnet wird) gerade in Arbeit. Diese versucht bekannte Probleme bezüglich Templates zu beheben. Diese Diplomarbeit behandelt das Thema, wie gut generisches Programmieren von C++ und Java in der Praxis unterstützt wird. Ziel ist es, sowohl die positiven als auch negativen Eigenschaften von C++ und Java, die bei der Benutzung von generischem Programmieren auftreten, herauszuarbeiten. Das Hauptaugenmerk liegt dabei auf jenen Aspekten, die in echten Programmen auftreten, und nicht auf theoretischen Beispielen. Um gute Unterstützung zu erreichen, sind verschiedene Aspekte wichtig, etwa knappe und präzise Syntax, verständliche Fehlermeldungen des Compilers und schnelle Ausführung. Es wird gezeigt, welche Bereiche gut funktionieren und wo noch Verbesserungsbedarf besteht. Im Fall von Problemen werden deren Ursachen erforscht und gezeigt, wie man diese umgehen kann. Spracherweiterungen, die manche der gezeigten Probleme beheben, werden ebenfalls betrachtet. Um die Unterstützung zu evaluieren, werden drei generische Bibliotheken implementiert. Dabei werden die aktuelle Version von Java und ein C++ Prototyp, der C++ Konzepte unterstützt, eingesetzt. Anhand von kleinen Codeausschnitten werden die Eigenschaften von C++ und Java erläutert. Es wird veranschaulicht, dass beide Sprachen geeignet sind, um sie für generische Programmierung einzusetzen. Es existieren zwar einige Einschränkungen, diese können jedoch meist umgangen werden. Die besprochenen Spracherweiterungen zeigen jedoch, dass beide Sprachen noch verbessert werden können.

Diplomarbeitsposter Goiss Hannu-Daniel

Hannu-Daniel Goiss

Masterstudium Software Engineering & Internet Computing
Abstract:

Locating information in the Internet is a demanding task because of the information flood. In telematics there is the challenge of finding the right data, due to the high amount of users and the high amount of information. This Master's Thesis introduces a "Naming Layer" for MozartSpaces, which is a middleware based on the Space Based Computing paradigm. Space Based Computing is a modern form of communication between various participants in a computer network. The participants communicate by using objects, which they store in a common communication area. One of the challenges is to locate objects, which have been created by other participants. This can be done by using the object identifier, if it is known in which communication area the object is located. The "Naming Layer" has the purpose to allow the location of objects that are located in various communication areas. A "Communication Layer" is introduced as well, which allows the use of various protocols for data communication.

Diplomarbeitsposter Kovanci Ayten

Ayten Kovanci

Masterstudium Software Engineering & Internet Computing
Abstract:

The rapid development of the Internet implicates more and more demand on Web applications and Internet presence. Scripting languages and development methods for the Web are becoming increasingly popular and powerful. The script PHP and JSP, which are widespread today, were available since the beginning. Besides the usual web programming there also exist development methods with content management systems. Content management systems (briefly called CMS) are developed with scripting languages. The goal of this work is an analysis and evaluation of these development methods. I will first compare „ JSP“ with „PHP“ and then the development using these languages with the CMS developing method. The comparison of PHP with JSP is based on a general evaluation of the two technologies based on a specific project as well as on performance tests. Besides the efficiency I will consider also issues such as reusability and learnability. After that, I will present a typical CMS and perform a similar comparison between development based on scripting languages and CMS. I will present also opinions from practitioners who deal with these development methods. Scripting languages have the advantages of platform independence, advanced security, and portability. In direct comparison of the two scripting languages, PHP was found to be better in learnability, performance, and Web technology than JSP. JSP scores, among other things, in efficiency, reusability, type safety, and exception handling. The biggest advantage of content management systems compared to scripting languages is easy learnability and improvement of the efficiency of website development. If, however, individual design layouts shall be developed, content management systems are fairly rigid, and any change without knowledge of CSS and HTML is not possible.

Diplomarbeitsposter Pavlu Viktor Christian

Viktor Christian Pavlu

Masterstudium Software Engineering & Internet Computing
Abstract:

Shape analysis is a static code analysis technique discovering properties of linked data structures allocated in the heap. It is typically used at compile time to find software bugs or to verify high-level correctness properties. Aim of this work is to evaluate merits and drawbacks of parametrized versions of two shape analyses: the SRW analysis, as described by ``Solving shape-analysis problems in languages with destructive updating'' (M. Sagiv, T. Reps, R. Wilhelm), which was the first to achieve strong update of pointer values for statements that modify pointer values. The second analysis, termed NNH, is based on the former but uses sets of shape graphs as abstraction instead of merging the analysis information into summary shape graphs. This shape analysis is described in the book ``Principles of Program Analysis'' (F. Nielson, H.R. Nielson, C. Hankin). To facilitate evaluation, both analyses were implemented for C++ using the SATIrE program analysis framework. An algorithm that computes a finite conservative set of may-aliases from a given shape graph has been developed. The precision of the shape analysis algorithms is measured by the size of extracted may-alias sets, where smaller sets indicate a more precise shape analysis. Experimental results show the relative quality of parametrized versions of both shape analyses and the impact that the parameters have on precision and runtime.

Diplomarbeitsposter Schabus Dietmar Arnold

Dietmar Arnold Schabus

Masterstudium Computational Intelligence
Abstract:

In contrast to widely used waveform concatenation methods, the presented approach to speech synthesis relies on a parametric analysis–re-synthesis technique, where the features extracted in the analysis stage are modeled by hidden Markov models (HMMs). Many important improvements in the last decade have helped this approach to reach impressive performance. Additionally, its inherent flexibility makes it suitable for advanced speech synthesis tasks, like speaker adaptation, speaker interpolation, emotional speech, etc. In this work, a flexible multi-dialect HMM-based speech synthesis system for Austrian German and Viennese dialect/sociolect is presented. A novel contribution is the interpolation of dialects, where we have to deal with phonological processes that change the segmental structure of the utterance. Evaluation results show that listeners do perceive both continuous and categorical changes of varieties.

Arbeitsbereich (vor 2018) Theoretische Informatik und Logik

Diplomarbeitsposter Bahr Patrick

Patrick Bahr

Masterstudium DDP Computational Logic (Erasmus-Mundus)
Abstract:

Infinitary rewriting generalises usual finitary rewriting by providing a notion of convergence for infinite reduction sequences. The goal of this thesis is to comprehensively survey the field of infinitary term rewriting, to point out its shortcomings, and to try to overcome some of these shortcomings. The most significant problem that arises in infinitary rewriting is the inherent difficulty to finitely represent and, hence, to implement it. To this end we consider term graph rewriting which is able to finitely represent restricted forms of infinitary term rewriting. Moreover, we study different models that are used to formalise infinite reduction sequences: The well-established metric approach as well as an alternative approach using partial orders. Beyond the abstract analysis of these two models we summarise results known for infinitary term rewriting using the metric approach and show that the partial order approach possesses more advantageous properties. It is also shown that so-called Böhm trees, usually constructed rather intricately, naturally arise as normal forms in the partial order model. Finally, we devise a complete ultrametric and a complete semilattice on term graphs both of which are used to introduce infinitary term graph rewriting.

Diplomarbeitsposter Dunchev Tsvetan

Tsvetan Dunchev

Masterstudium DDP Computational Logic (Erasmus-Mundus)
Abstract:

Eines der wichtigsten Resultate der mathematischen Logik ist der Satz von Herbrand, welcher besagt dass ein skolemisiertes Sequent S = A1,...,An |- C1,...,Cm gueltig ist genau dann wenn es ein Herbrand Sequent S0 zu S gibt welches aus Instanzen der Ai and Cj besteht (nach Entfernung der Quantoren) und aussagenlogisch gueltig ist. Herbrand Sequente welche aus mathematischen Beweisen extrahiert werden sind ein wichtiges Werkzeug um essentielle mathematische Argumente aus einem formalen LK-Beweis zu gewinnen. Im CERES-System (cut-elimination by resolution) gibt es einen Algorithmus zur Extraktion von Herbrand Sequenten. Das extrahierte Sequent ist allerdings meist sehr redundant und daher schwer interpretierbar. Die Hauptaufgabe dieser Arbeit ist die Entwicklung und Implementation von Algorithmen zur Vereinfachung von Herbrand Sequenten. Vereinfachungen werden dabei auf dem Term-Level und auf dem Formel-Level angewendet. Die Vereinfachungen beruhen auf Termersetzungsystemen welche vom Benutzer des Systems spezifiziert werden. Die entwickelten und getesteten Algorithmen verbessern die Funktionalitaet von CERES deutlich und ermoeglichen damit eine bessere interaktive Beweisanalyse von Beweisen nach der Schnittelimination.

Diplomarbeitsposter Kogler Marian

Marian Kogler

Masterstudium Computational Intelligence
Abstract:

In this thesis, after giving a short introduction to basic notions and notations of formal language theory and membrane computing, we describe the formalisms of hybrid transition modes and rule control. Hybrid transition modes allow us to specify transition modes not working on the whole P system, but on partitions of the set of rules. We show that it is possible to achieve a characterization of ET0L or computational completeness, depending on which transition modes are selected. Rule control allows us to specify which sets of rules can be used and which ones can not be used together. For this variant of P systems, computational completeness can be shown for minimal symport rules as well as for minimal antiport rules together with uniport rules.

Diplomarbeitsposter Rukhaia Mikheil

Mikheil Rukhaia

Masterstudium DDP Computational Logic (Erasmus-Mundus)
Abstract:

Es ist bekannt dass die Komplexitat der Schnittelimination im allgemeinen Fall nonelementar ist. In dieser Arbeit werden Klassen von Beweisen charakterisiert welche eine schnelle (elementare) Schnittelimination zulassen. Zuerst werden der Sequentialkalkul und der Resolutionskalkul eingefuhrt. Anschliessend werden zwei Methoden der Schnittelimination, die Methode von Gentzen und CERES (cut-elimination by resolution), beschrieben. Es wird gezeigt, dass CERES die Gentzen Methode nonelementar beschleunigt. Die Methode CERES wird dann verwendet um schnelle Schnitteliminationsklassen zu definieren. Einige der bekannten Klassen werden erweitert und nachgewiesen, dass die Schnittelimination schnell bleibt. Schliesslich wird eine neue Klasse ONEQ eingefuhrt und (ebenfalls mit der CERES-Methode) nachgewiesen, dass schnelle Schnittelimination auf ONEQ moglich ist.

Diplomarbeitsposter Slivovsky Friedrich

Friedrich Slivovsky

Masterstudium Computational Intelligence
Abstract:

Die Kognitionswissenschaft erhebt den Anspruch, eine einheitliche Theorie des Denkens zu formulieren, in der sich die Anstrengungen solch unterschiedlicher Disziplinen wie AI, Anthropologie, Philosophie, Psychologie und der Neurowissenschaften bündeln. Insbesondere geht man davon aus, die philosophische Frage nach dem Wesen von Intelligenz durch naturwissenschaftliche Untersuchung und Modellierung der Funktionsweise intelligenter Systeme klären zu können. Dieser methodische Zugang ist jedoch überaus fragwürdig, da philosophische Begriffsklärung und empirische Wissenschaft prima facie als voneinander unabhängig zu sehen sind. Ich beabsichtige zu zeigen, dass das dominante kognitionswissenschaftliche Paradigma, in dessen Zentrum eine Computer-Metapher steht (Computational-Representational Understanding of Mind), für diese Identifikation naturwissenschaftlicher und philosophischer Fragestellungen verantwortlich ist. Darüber hinaus werde ich die diesem Ansatze zugrundeliegenden Konzepte (Computation bzw. Representation) einer kritischen Analyse unterziehen, um einige gravierende begriffliche Probleme aufzuzeigen. Wie sich herausstellen wird, ist die Kognitionswissenschaft allgemein von funktionalistischen Motiven durchdrungen. Ein Blick auf die Funktionalismuskritik Hilary Putnams wird zeigen, dass diese philosophische Theorie unhaltbar ist. Auf der Suche nach Alternativen werde ich mich Robert Brandoms Inferentialismus zuwenden, und eine Zusammenfassung seiner Begriffstheorie vorlegen. Ich werde die These aufstellen, dass sein normativer Pragmatismus dazu beitragen könnte, einige innerhalb der Kognitionswissenschaft herrschende Missverständnisse zu beseitigen. Neben der Beantwortung philosophischer Fragen könnte Brandoms Projekt auch einem veränderten Verständnis naturwissenschaftlicher Forschung im Zusammenhang mit Kognition Vorschub leisten, das die Bedingungen für die Teilnahme an der sozialen Praxis des Gebens und Verlangens von Gründen in den Vordergrund stellt.

Institut für (vor 2018) Institut für Computergraphik und AlgorithmenE186

Arbeitsbereich (vor 2018) Algorithms and Complexity

Diplomarbeitsposter Misar Thomas

Thomas Misar

Masterstudium Software Engineering & Internet Computing
Abstract:

In dieser Arbeit wird eine konkrete Problemstellung aus dem Bereich der Lagerverwaltung behandelt. Dabei soll die benötigte Zeit zum Ausfassen von Artikeln aus dem Lager unter Berücksichtigung von domänenspezifischen Nebenbedingungen minimiert werden. Die für die gegebene Problemstellung zentrale Bestimmung effizienter Touren steht im Mittelpunkt der Arbeit. Es wird ein Algorithmus vorgestellt, der ein eigens entwickeltes dynamisches Programm zur Berechnung optimaler Wege durch das Warenlager mit einer Variablen Nachbarschaftssuche (engl.: Variable Neighborhood Search) (VNS) verbindet. In mehreren Phasen werden dabei vorhandene Bestellungen zerlegt und davon ausgehend Touren gebildet, welche zuletzt auf verfügbare Lagerarbeiter verteilt werden. Während über definierte Nachbarschaftsstrukturen unterschiedliche potentielle Lösungen erzeugt werden, erfolgt deren Bewertung durch die Berechnung von konkreten Touren mittels eines dafür entwickelten dynamischen Programms. Dabei werden spezielle Eigenschaften der zugrundeliegenden Lagerstruktur ausgenutzt, um in polynomieller Zeit die bestmögliche Wegführung durch das Lager zu finden. Für die Zuordnung von Arbeitern zu Touren wird schließlich eine zusätzliche VNS verwendet, welche dafür sorgen soll den letzten Artikel zum frühest möglichen Zeitpunkt auszufassen. Die anhand des implementierten Programms durchgeführten Tests zeigen, dass die erfolgte Tourenplanung wertvolle Ergebnisse liefert und die notwendige Rechenzeit niedrig gehalten werden kann. Getestet wurde mit Bezug auf eine Referenzlösung und die ausführliche Auswertung der Testergebnisse zeigte, dass eine Anwendung des vorgestellten Ansatzes im Echtbetrieb als sehr vielversprechend gilt und erhebliche Einsparungen bezüglich der benötigten Arbeitszeit erreicht werden können.

Diplomarbeitsposter Walla Jakob

Jakob Walla

Masterstudium Software Engineering & Internet Computing
Abstract:

Ein Video-on-Demand (VoD) System besteht häufig aus einer großen Anzahl unabhängiger Video-Server. Um mit einer gegebenen Anzahl an Video-Servern eine möglichst große Anzahl gleichzeitiger Zugriffe bedienen zu können, soll ein Ausgleich der Netzwerklast zwischen den vorhandenen Servern erzielt werden. Das Lastverteilungsproblem in einem VoD-System besteht darin, ausgehend von einer Schätzung der pro Video-Clip maximal gleichzeitig zu erwartenden Zugriffe eine Anzahl von Replikaten jedes Video-Clips und deren Platzierung auf den vorhandenen Servern zu ermitteln. Gleichzeitig erfolgt eine Zuordnung der geschätzten Zugriffe zu diesen Replikaten, sodass für jeden Server des Systems entsprechend seiner Übertragungskapazität eine gerechte Auslastung während der Phase höchster Nachfrage erreicht wird. Diese Diplomarbeit beschreibt eine Formulierung dieses Lastverteilungsproblems als kombinatorisches Optimierungsproblem, genannt Video-Server Load Re-Balancing (VSLRB). Es berücksichtigt im Gegensatz zu vielen Arbeiten aus der Literatur auch die Minimierung des Reorganisationsaufwands zur Herstellung der neu ermittelten Replikatszuordnung aus der bereits bestehenden. Zur exakten Lösung dieses Problems wird eine Formulierung als gemischt-ganzzahliges lineares Programm (MIP) entwickelt. Um auch Lösungen für größere Instanzen dieses Problems ermitteln zu können, wird weiters eine Anwendung der Metaheuristik Variable Neighbourhood Search (VNS) beschrieben. Diese verwendet unter anderem eine Nachbarschaftsstruktur basierend auf zyklischen Vertauschungen (Cyclic Exchange Neighbourhood) und eine Nachbarschaftsstruktur, die unter Verwendung des MIP-Ansatzes durchsucht wird. Tests mit insgesamt zehn Testinstanzen von unterschiedlicher Größe zeigen, dass das beschriebene Verfahren in der Lage ist, in jedem dieser Fälle Lösungen mit praktisch zu vernachlässigenden Abweichungen der Serverlasten von zuvor berechneten zu erzielenden Lasten zu ermitteln.

Diplomarbeitsposter Wolf Markus

Markus Wolf

Masterstudium Computational Intelligence
Abstract:

Das Generalized Minimum Spanning Tree (GMST)-Problem ist ein NP-schweres kombinatorisches Optimierungsproblem. Gegeben ist ein Graph, dessen Knoten in Cluster eingeteilt sind, und gesucht wird ein minimaler Spannbaum, wobei aus jedem Cluster genau ein Knoten gewählt werden muss. In dieser Arbeit wird ein evolutionärer Algorithmus verwendet, um dieses Problem zu behandeln. Ein Problem von derartigen Algorithmen sind die häufig mehrfach auftretenden Lösungen. Die gleiche Lösung mehrmals zu evaluieren, kostet unnötig Zeit. Deshalb wird zur Verbesserung des Algorithmus ein Lösungsarchiv basierend auf einer Trie-Struktur verwendet. Alle generierten Lösungen werden in dieses Archiv gespeichert. Stellt man dabei fest, dass die Lösung schon vorhanden ist, kann sie auf effiziente Weise in eine neue, garantiert noch nicht untersuchte Lösung umgewandelt werden. Auf diese Art können in der gleichen Laufzeit mehr unterschiedliche Lösungen untersucht werden. Derartige Lösungsarchive wurden bislang nur bei Problemen angewendet, deren Lösungen als Bitstrings repräsentiert wurden. Das ist beim GMSTP nicht möglich, weswegen der Trie eine andere Struktur hat, die zusätzliche Überlegungen bezüglich des Speicherplatzes nötig macht. Unter anderem wird eine Variante vorgestellt, bei der mehrere Tries verwendet werden, von denen jeder nur einen Teil der Lösung enthält. Es zeigt sich, dass mit Hilfe dieses Archivs bei vielen Instanzen bessere Lösungen gefunden werden können. Weiter verbessert werden können die Ergebnisse durch eine Optimierung, die auf einer alternativen Repräsentation von Lösungen basiert.

Arbeitsbereich (vor 2018) Computergraphik

Diplomarbeitsposter Alsallakh Bilal

Bilal Alsallakh

Masterstudium Visual Computing
Abstract:

Im Zuge der hier präsentierten Arbeit wurde ein System entwickelt, um attributierte Graphen visuell zu analysieren. In diesen Graphen werden Attribute zu den Konten und den Kanten zugeordnet. Das System erlaubt eine Navigation im Graph um die Struktur und die Attribute von einem Teil des Graphs zu erfoschen. Weiter Module erlauben die Verteilungen der Attribute in dem Graphen (oder im ausgewälten Teil vom Graph) zu verstehen, und bestehende Assoziationen zwischen den Attributen und den Relationen festzustellen. Die Arbeit präsentiert eine Reihe von Erweiterungen zu den Attributen, die z.B., graphtheoretische Merkmale, aggregierte Werte und hierarchische Gruppierungen repräsentieren können, und gleich wie die intrinsische Attribute behandelt werden. Zsätzlich präsentiert die Arbeit neue Methoden für das Zeichnen von Graphen, die speziell geeignet sind, um die Verteilung und Assoziation von Attributen zu betonen. Die können sowohl für die Navigierung im Graph als auch für die Darstellung von Abfrageergebnissen angewendet werden. Des weiterem erfoscht die Arbeit mehrere Arten von Assoziationen in relationalen Daten, und bietet Lösungen für die visuelle Analyse von diesen Assoziationen an. Dafür werden Erweiterungen für die bekannte "Parallel Sets"‐Technik präsentiert um die Perzeption zu verbesssern, und zusäzliche Informationen von den Daten einbeziehen. Darüber hinaus werden neue Methoden für anderen Arten von Assoziationen vorgeschlagen. Das System wurde anhand zweier realer Datensätze auf Einsatzfähigkeit geprüft. Im ersten Beispiel wird die Kaufhistorie analysiert. Das System erlaubt in der Folge eine Reihe von Analysen um z.B. festzustellen, welche Arten von Produkten vermehrt von Damen gekauft wurden, oder welche Altersgruppe besonderes Interesse für Bücher hat. Im zweiten Datensatz werden Ereignisse aus einem sogenannten Issue‐Tracking System analysiert um festzustellen, wie Support‐Fälle bearbeitet und auch zwischen Supportgruppen delegiert werden.

Diplomarbeitsposter Brandorff Clemens

Clemens Brandorff

Masterstudium Visual Computing
Abstract:

High Resolution Episcopic Microscopy (HREM) Daten werden durch Einfärben, mit folgenden Schneiden und Aufnehmen mittels eines episkopischen Mikroskops erzeugt. Das Resultat ist ein hochaufgelöster 3D Datensatz. In dieser Diplomarbeit untersuchen wir Ansätze um diese neue Art von Daten zu verbessern, zu registrieren und zu visualisieren. Wir befassen uns mit der unausgewogenen Beleuchtungssituation welche diese neue Methode mit sich bringt. Wir entwickelten einen Algorithmus um eine quadrische Fläche durch die Hintergrundpixel zu legen um die Beleuchtungssituation in den aufgenommenen Schnittbildern zu schätzen. Diese Schätzung wird zum Korrigieren des Datensatzes verwendet.Weiters wurde eine Erweiterung dieser Methode erforscht. Dabei werden geschnittene Sektionen ein erneutes Mal gefärbt, um weitere Informationen in den Datensatz einzubringen. Das resultiert in einem zweiten Datensatz von unausgerichteten Schnittbildern. Ein Registrierungsansatz in drei Schritten liefert die besten Resultate. Im ersten Schritt wird eine manuelle Eingangstransformation durchgeführt. Im zweiten Schritt wurde eine affine Registrierung benutzt um die Datensätze ungefähr auszurichten. Im dritten Schritt wird eine b-spline Registrierung durchgeführt um die nicht linearen Deformationen in den Schnittbildern zu kompensieren.Um die Registrierungsresultate visuell zu untersuchen und um einen Überblick über beide Datensätze zu bekommen präsentieren wir zwei Visualisierungsmethoden. "Checkerboard" Visualisierung wird benutzt um 2D Schnittbilder miteinander zu vergleichen. Eine dreidimensionale Methode basierend auf "direct volume rendering", mit Fokus- und Kontextregionen wird benutzt um die gesamten Datensätze miteinander zu vergleichen.

Diplomarbeitsposter Froschauer Matthias

Matthias Froschauer

Masterstudium Visual Computing
Abstract:

The field of information visualization tries to find graphical representations of data to explore regions of interest in potentially large data sets. Additionally, the use of algorithms to obtain exact solutions, which cannot be provided by basic visualization techniques, is a common approach in data analysis. This work focuses on optimization, distance computation and data estimation algorithms in the context of information visualization. Furthermore, information visualization is closely connected to interaction. To involve human abilities in the computation process, the goal is to embed these algorithms into an interactive environment. In an analysis dialog, the user observes the current solution, interprets the results and then formulates a strategy of how to proceed. This forms a tight loop of interaction, which uses human evaluation to improve the quality of the results. Optimization is a crucial approach in decision making. This work presents an interactive optimization approach, exemplified by parallel coordinates, which are a common visualization technique when dealing with multi-dimensional problems. According to this goal-based approach, multi-dimensional distance computation is discussed as well as a data estimation approach with the objective of approximating simulations by the analysis of existing values. All these approaches are integrated in an existing visual analysis framework and deal with multi-dimensional goals, which can be defined and modified interactively by the user. The goal of this work is to support decision makers to extract useful information from large data sets.

Diplomarbeitsposter Knecht Martin

Martin Knecht

Masterstudium Visual Computing
Abstract:

The goal of this thesis is to produce plausible global illumination in real time using temporal coherence. While direct illumination combined with precomputed static global illumination is widely used in today's computer games and 3D applications, real-time global illumination that supports arbitrary dynamic scenes and light setups is still an active area of research. This master thesis gives an introduction to global illumination and discusses various methods that have been developed. However, since most of the existing methods need some kind of precomputation to calculate global illumination in real time, they also introduce limitations like static light, scenes or view points. Furthermore other algorithms are not suitable for the capabilities of current graphics hardware or are simply fake approaches. The core of this thesis is an improved version of the instant radiosity and imperfect shadow maps algorithm that reuses illumination information from previous frames. The previous approaches needed a high number of so called virtual point lights to get convincing results, whereas our method achieves visually pleasing results with only a few virtual point lights. As a second extension to the base algorithms we introduce a new method to compute multiple light bounces. In this method the fill rate is drastically reduced and therefore computation time is much lower than in previous aproaches.

Diplomarbeitsposter Kusternig Alexander

Alexander Kusternig

Masterstudium Visual Computing
Abstract:

Plants are present in almost any type of interactive virtual environment like video games, movie pre-visualization or architectural or urban walkthroughs. The simulation complexity of plants increases with the evolution of graphics hardware, but rendering of plants still poses a lot of challenges. This is due to both the inherent geometric complexity of an individual tree having thousands of branches and tens of thousands of leaves, and the complex light interactions between the plant and sunlight. A portion of incoming light is transmitted through leaves, resulting in the bright translucency effect observed when looking at a leaf against the sun. Animating plants is another challenge, as thousands of interconnected branches and individual leaves have to react to turbulent wind moving through the treetop. All this should be performed at more than 60 frames per second for real-time interactive applications. This thesis presents novel algorithms to render leaves at very high detail with a physically based translucency model and to animate branches and leaves using a stochastic approach based on their physical properties. Both algorithms are executed entirely on the GPU in vertex and pixel shaders, so they can be easily integrated into any modern rendering pipeline. The efficiency of the algorithms allows rendering and animating highly detailed plants with thousands of branches and tens of thousands of leaves at a frame rate of at 60 frames per second.

Diplomarbeitsposter Luksch Christian

Christian Luksch

Masterstudium Visual Computing
Abstract:

Das Gebiet der Echtzeitgrafik hat viele Anwendungen. Visualisierungen von großen Städten oder weitflächigen Landschaften stellen höchste Ansprüche an die visuelle Komplexität der virtuellen Welt. Dabei muss die Bildwiederholrate über 60 Bilder pro Sekunde bleiben, da sonst Bewegungen und Animationen nicht mehr fließend wahrgenommen werden. Obwohl die Hardware jedes Jahr immer leistungsfähiger wird, sind Geometrievereinfachungen ein wichtiger Bestandteil, um die Ressourcen für optimale Qualität und Leistung zu verteilen. Diese Diplomarbeit präsentiert eine Übersicht von Geometrievereinfachungsverfahren basierend auf dem Billboad Cloud Prinzip. Anschließend wird die Problematik der zusammengefassten Verfahren erörtert und zahlreiche Verbesserungen und mögliche Änderungen beschrieben. Der Schwerpunkt dabei ist auf Reduzierung der Vereinfachungsartefakte und Verbesserung der Performance ohne dabei die visuelle Qualität zu beeinflussen. Abschließend werden die Ergebnisse in einer umfangreichen Auswertung präsentiert. Aus den dabei gewonnenen Erkenntnissen werden Regeln und Parameter für einen automatischen Geometrievereinfachungsprozess abgeleitet.

Diplomarbeitsposter Pühringer Nicolas

Nicolas Pühringer

Masterstudium Visual Computing
Abstract:

Berührungssensitive Eingabegeräte, wie etwa Tablet PCs, erleben seit einiger Zeit einen starken Aufschwung. Vorallem für Skizzen- oder Zeichenarbeiten lässt sich der Arbeitsprozess durch diese neuen Eingabegeräte stark optimieren. Diese Diplomarbeit stellt eine Integration genannter neuer Technologien in eine Volumenvisualisierungs Umgebung vor. Ziel ist hierbei eine Lösung für ein häufiges Problem der Volumensvisualisierung: das Selektieren spezieller Strukturen die nicht durch die Transferfunktion separierbar sind. Durch eine gesten-gesteuerte Benutzeroberfläche wird ein schneller und reibungsloser Arbeitsprozess gewährleistet ohne dabei die Aufmerksamkeit des Benutzers vom Hauptarbeitsbereich abzulenken. Weiters wird dem Benutzer durch ein intuitives Modellierungsverfahren ermöglicht 3D Modelle aus zweidimensionalen Eingabepfaden zu erstellen. Die erstellten Modelle dienen als eine Startselektion einer gewünschten Struktur im Volumensdatensatz. Diese Startselektion wird in Folge durch ein Modellverformungsverfahren automatisch an die Volumensstrukturen angepasst und resultiert in einer Selektion einer bestimmten Region des Volumens. Durch diese Kombination von verschiedenen Techniken können Selektionen in einem Volumensdatensatz schnell und intuitiv erreicht werden. Das Ergebnis kann in Folge zur Maskierung, Beschneidung oder Segmentierung der Volumensstrukturen verwendet werden.

Institut für (vor 2018) Gestaltungs- und WirkungsforschungE187

Arbeitsbereich (vor 2018) Multidisciplinary Design

Diplomarbeitsposter Carnogursky Martin

Martin Carnogursky

Masterstudium Medieninformatik
Abstract:

From all ERP system implementations over the world only a small number are managed within schedule and budget. A raising number of medium to large sized enterprises however is in need of integrated systems that cover and support their business. These systems however offer a wide range of functionality. Functionality of ERP systems has grown in the past years and will further grow in future. Introducing and setting up these systems in a reasonable way is a challenging task. Companies who need to introduce new systems as well as companies who need to redesign their available systems face this challenge and they need to do these tasks as good as possible. The goal of designing their systems is to have a good ERP system. A good system does not only mean a technically good system but also a system that is accepted by its users. In my thesis I describe the characteristics of ERP systems and I deal with methods that can help to set them up just in the way they have to be: “As simple as possible, but not one bit simpler.” I take the standpoint that an ERP system can only be good if it is accepted by the users. For that reason it is essential to involve the users in the design process. The field of participatory design offers many interesting methods that help designers and users to find a common language. One of these methods is “Design Games”. In a case study I show how participatory design, and especially “Design Games”, can help in a (re)design process. Potentials but also limits of these methods are discussed in this thesis. After reading this thesis the reader will have basic theoretical knowledge of ERP systems, of design according to Gedenryd, and s/he will get an idea in which way participatory design can help to support an ERP system implementation, or an ERP system redesign.

Diplomarbeitsposter Höglinger Christian

Christian Höglinger

Masterstudium Informatikmanagement
Abstract:

Für bildende KünstlerInnen fand die Präsentation ihrer Werke traditionell hauptsächlich über Ausstellungen und Galerien statt. Durch die Entstehung des Mediums Internet eröffneten sich neue Möglichkeiten zur Präsentation. Dies kann im Wesentlichen auf zwei Arten erfolgen: Zum Einen alleine über eine eigene, private Homepage und zum Anderen als TeilnehmerIn an einem KünstlerInnenportal, in dem mehrere KünstlerInnen sich und ihr Werk präsentieren. Inhalt dieser Arbeit ist die Erstellung eines solchen KünstlerInnenportals. Dieses verbindet Aspekte der reinen Präsentation mit Aspekten des Community-Management im Sinn des Web 2.0. Im Zuge der Erarbeitung der theoretischen Grundlagen werden die Disziplinen des Web Engineering und Requirements Engineering erläutert. Des Weiteren wird eine Definition von Usability bezüglich Web-Anwendungen erarbeitet und darauf aufbauend Methoden zur Evaluierung der Usability. Ebenso wurden rechtliche Aspekte aufgezeigt, die für Erstellung und Betrieb eines KünstlerInnenportals wichtig sind. In weiterer Folge werden didaktische Konzepte erarbeitet, die in die Benutzerhilfe einfließen und die Erlernbarkeit steigern. Möglichkeiten für die Erstellung und Betreuung einer Community und Aspekte des social networking schließen den theoretischen Teil. Der praktische Teil beschreibt die Realisierung eines KünstlerInnenportals aufbauend auf den Erkenntnissen der theoretischen Ausarbeitung. Dies bestand zunächst aus der Erhebung der Anforderungen aufgrund der Evaluierung ähnlicher Portale. Zusätzliche Erkenntnisse wurden aufgrund einer quantitativen Umfrage gewonnen. Die Anforderungen bilden die Basis für die eigentliche Implementierung, die mittels Use-Cases, einer Beschreibung der Evaluierung und Adaptierung eingesetzter Technologien dokumentiert wird. Den Abschluss der Realisierung bildeten zwei Benutzerstudien mit KünstlerInnen und Kunstinteressierten, die zur iterativen Weiterentwicklung des Portals eingesetzt wurden.

Diplomarbeitsposter Kastner Patrick

Patrick Kastner

Masterstudium Medieninformatik
Abstract:

Multimedia bringt neue Aspekte und Positionen in das seit Jahrhunderten wirkende Kulturmanagement. Bereits im Mittelalter entwickelten sich erste Strukturen, die auf die Vermarktung von bildenden KünstlerInnen absah. Mit dem ersten Auftreten des World Wide Web entstanden auch Präsentationsmöglichkeiten in Webportalen für KünstlerInnen. Die unübersichtliche Anzahl dieser Anbieter verlangte eine professionelle Struktur in diese neuen Tendenzen des Kulturmanagements zu bringen. Nach einer Einführung in die Entstehung von Webportalen, gibt eine anschließende Konkurrenzanalyse Aufschluß über deren positive Funktionalitäten. Diese werden aus der Sicht von bildenden KünstlerInnen und KunstkäuferInnen betrachtet. Anschließend spannt eine geschichtliche Entwicklung des Kulturmanagements den Bogen zwischen traditionellen Strukturen und einer modernen Präsentation von Kunstwerken im Internet. Ebenso wird der Aufgabenbereich eines Kulturmanagers näher beleuchtet. Neue Anwendungen des Web 2.0, wie social networks, Weblogs und Microblogging werden erläutert und auf den Einsatz im Bereich des Kulturmanagements evaluiert. Diese neuen Vermarktungsmöglichkeiten sind besonders für Institutionen, aber auch für bildende KünstlerInnen, interessant. Als Ergebnis präsentieren sich Design Guidelines, die die wichtigsten Punkte und Funktionalitäten eines Kunstportals beinhalten. Diese Punkte basieren auf der Auswertung vorhandener Portale und den qualitativen Interviews mit KünstlerInnen und KunstkäuferInnen.

Diplomarbeitsposter Kastner Patrick

Patrick Kastner

Masterstudium Informatikmanagement
Abstract:

Für bildende KünstlerInnen fand die Präsentation ihrer Werke traditionell hauptsächlich über Ausstellungen und Galerien statt. Durch die Entstehung des Mediums Internet eröffneten sich neue Möglichkeiten zur Präsentation. Dies kann im Wesentlichen auf zwei Arten erfolgen: Zum Einen alleine über eine eigene, private Homepage und zum Anderen als TeilnehmerIn an einem KünstlerInnenportal, in dem mehrere KünstlerInnen sich und ihr Werk präsentieren. Inhalt dieser Arbeit ist die Erstellung eines solchen KünstlerInnenportals. Dieses verbindet Aspekte der reinen Präsentation mit Aspekten des Community-Management im Sinn des Web 2.0. Im Zuge der Erarbeitung der theoretischen Grundlagen werden die Disziplinen des Web Engineering und Requirements Engineering erläutert. Des Weiteren wird eine Definition von Usability bezüglich Web-Anwendungen erarbeitet und darauf aufbauend Methoden zur Evaluierung der Usability. Ebenso wurden rechtliche Aspekte aufgezeigt, die für Erstellung und Betrieb eines KünstlerInnenportals wichtig sind. In weiterer Folge werden didaktische Konzepte erarbeitet, die in die Benutzerhilfe einfließen und die Erlernbarkeit steigern. Möglichkeiten für die Erstellung und Betreuung einer Community und Aspekte des social networking schließen den theoretischen Teil. Der praktische Teil beschreibt die Realisierung eines KünstlerInnenportals aufbauend auf den Erkenntnissen der theoretischen Ausarbeitung. Dies bestand zunächst aus der Erhebung der Anforderungen aufgrund der Evaluierung ähnlicher Portale. Zusätzliche Erkenntnisse wurden aufgrund einer quantitativen Umfrage gewonnen. Die Anforderungen bilden die Basis für die eigentliche Implementierung, die mittels Use-Cases, einer Beschreibung der Evaluierung und Adaptierung eingesetzter Technologien dokumentiert wird. Den Abschluss der Realisierung bildeten zwei Benutzerstudien mit KünstlerInnen und Kunstinteressierten, die zur iterativen Weiterentwicklung des Portals eingesetzt wurden.

Diplomarbeitsposter Lechthaler Christian

Christian Lechthaler

Masterstudium Informatikmanagement
Abstract:

Das Redesign von Geschäftsprozessen gewinnt - aufgrund der derzeitigen Globalisierungstrends und der daraus folgenden schnellen Änderungen der Marktnachfragen - zunehmend an Bedeutung. Unternehmen sind deshalb oft gezwungen ihre Produkte, Geschäfts- und Fertigungs-prozesse neu zu strukturieren, um Kosten zu reduzieren und die Effizienz zu steigern. Im Rahmen dieser Magisterarbeit wird ein Überblick über Redesignansätze gegeben, welche den Schwerpunkt auf die Modellierung von Geschäftsprozessen legen. Dabei werden neben einer Analyse der Rolle der Modellierung in Redesignprojekten unterschiedliche Modellierungs-techniken und die dafür notwendigen Modellierungs-sprachen beschrieben. Basierend auf den Redesign-Anforderungen eines Praxis-beispiels wird eine Modellierungssprache ausgewählt und ein Redesign-Ansatz, bezogen auf die vorhandene Problemstellung, ausgearbeitet. In diesem Rahmen werden folgende Modellierungssprachen evaluiert: Petrinetz, Business Process Modeling Notation, Ereignisgesteuerte Prozesskette, Yet Another Workflow Language, UML Anwendungsfalldiagramm und UML Aktivitätsdiagramm. Die Evaluierung erfolgt in zwei Schritten, wobei die Modellierungssprachen im ersten Schritt auf allgemeine Kriterien, wie z.B. Darstellung von Geschäftsprozess-perspektiven, Unterstützung der Kontrollflusspattern etc., untersucht werden. Im zweiten Schritt wird auf die Ausdruckstärke und die Lesbarkeit der Modellierungssprachen eingegangen Für die gegeben Problemstellung stellte sich die Business Process Modeling Notation als Favorit heraus, der die Kommunikation im Redesignprozess, zwischen den unterschiedlichen Abteilungen erheblich förderte.

Diplomarbeitsposter Reinisch Gerold Christof

Gerold Christof Reinisch

Masterstudium Medieninformatik
Abstract:

Das Benutzer/innen-Verhalten hat sich aufgrund der rasanten Entwicklung von Internet und Informationstechnologie verändert. Während Anwender/innen früher nur passiv Information und Inhalte nutzen konnten, verfügen sie heute über die neuesten Technologien wie Service-orientierte Architektur oder Web 2.0, welche Anwender/innen unterstützen, Informationen zu publizieren. Unterschiedliche Autoren/innen haben sich mit dem Thema Usability in der Informationstechnologie auseinandergesetzt. Es erscheinen immer wieder Veröffentlichungen von neuen Software Releases über deren verbesserte und einfache Interaktionsmöglichkeit zwischen Benutzer/innen und Anwendung. Ob dahinter eine Marketingstrategie der Softwarekonzerne steht, um deren Marktposition und Absatzzahlen zu steigern, oder wirklich die Bemühung ernsthafte Schritte für eine verbesserte Interaktion zwischen Benutzer/innen und Anwendung zu schaffen, soll zunächst offen bleiben. Diese Arbeit soll feststellen, welche Anstrengungen SAP im Bereich Benutzerschnittstellen an der Integrationsplattform SAP NetWeaver umgesetzt hat. Dabei wird hauptsächlich betrachtet, wie der Softwarehersteller die Leitlinien für Dialog- und Aufgabengestaltung für Anwendern/innen berücksichtigt hat. Durch eine aktuelle Bestandsaufnahme wird verdeutlicht, welcher technologische Wandel sich bei Benutzerschnittstellen von SAP Produkten vollzieht. Zunächst werden Definitionen von SAP NetWeaver erläutert und ISO Normen für Gebrauchstauglichkeit vorgestellt. Aufbauend auf diesen Erkenntnissen werden die Kriterien für Usability vorgestellt. Dies geschieht über die Grundsätze der Aufgabengestaltung sowie die Grundsätze der Dialoggestaltung in Form von Gestaltungsprinzipien. Folgend werden die Erkenntnisse von Interviews und teilnehmenden Beobachtungen bei Anwendern/innen der Unternehmen Pierre Lang erläutert. Die Architektur und den Benutzerschnittstellen von SAP NetWeaver wird mit geringerer Gewichtung einbezogen.

Diplomarbeitsposter Stüber Helmut

Helmut Stüber

Masterstudium Informatikmanagement
Abstract:

Im Rahmen des von der EU mitfinanzierten „Bridge-Projektes“ betreibt die Firma RF-IT Solutions zurzeit in Graz eine Studie in einem „Northland Professional – Outdoor Equipment and Fashion“ – Shop. Dort werden RFID-Tags zur Beschleunigung der Inventur und zur Diebstahlsicherung verwendet. Die Mitarbeiter dieses Shops müssen hierbei ein Graphical User Interface bedienen, um unter Anderem Gründe für das Auslösen des Diebstahl-Alarms festzustellen und um RFID-Etiketten zu drucken. Das Hauptaugenmerk dieser Diplomarbeit ist die Bedienungsoptimierung der im Northland-Shop in Verwendung stehenden RFID-Applikation und deren User Interfaces. Die Forschungsfrage dieser Arbeit lautet: Welche Probleme entstehen bei der Verwendung einer RFID-Applikation und deren User Interfaces jetzt und in naher Zukunft bzw. welche Verbesserungen und Weiterentwicklungen sind noch möglich? Diese Diplomarbeit veranschaulicht, welche RFID-Applikationen es mit User Interfaces bereits gibt, welche Verbesserungen man am Produkt erbringen kann und auch die Veränderungen für die Anwender, die durch diese Verbesserungen entstehen.

Diplomarbeitsposter Vucicevic Stevica

Stevica Vucicevic

Masterstudium Informatikmanagement
Abstract:

Der Inhalt der nachfolgenden Magisterarbeit beschäftigt sich mit der Einführung von Information Technology Infrastructure Library (ITIL) Release Management in einer österreichischen Großbank. Dabei gliedert sich die Arbeit in einen theoretischen und einen praktischen Teil. Der theoretische Teil liefert Grundkenntnisse zum Thema ITIL, einem „De facto Standard“ basierend auf ISO 20000, zur Reorganisation von IT Prozessen und behandelt speziell den Service Support Prozess Release Management. Daneben werden auch die Grundlagen von Projekt- und Prozessmanagement durchgegangen, wobei sich die hier vorliegende Arbeit auf den Programm- und Projektmanagement Standard von Roland Gareis bezieht, der als essentielles Werkzeug bei der Einführung von ITIL genutzt wird. Im praktischen Teil wird anhand eines Projekthandbuches die Einführung von ITIL auf das Praxisbeispiel einer Bank abgestimmt geschildert. Ein sehr wichtiger Faktor in diesem Werk ist auch das Beleuchten des Themas aus ethnografischer Sicht, da neben Prozessen auch Menschen und deren Einstellungen sowie Verhaltensmuster von ITIL maßgeblich geändert bzw. beeinflusst werden. Dabei werden folgende zwei wesentliche Betrachtungen in die Arbeit mit einbezogen: • Unternehmensanalyse • Organisationskultur

Arbeitsbereich (vor 2018) Human Computer Interaction

Diplomarbeitsposter Chung Daniel

Daniel Chung

Masterstudium Software Engineering & Internet Computing
Abstract:

Die Anfang der 80er Jahre eingeleitete Politik der Reform und Öffnung hat der VR China ein beachtliches Wirtschaftswachstum gebracht. Durch die Einführung neuer Informations- und Kommunikationstechnologien ist in China ein Internet entstanden, welches nach Ansicht von Beobachtern einzigartig ist. Dieses Phänomen der Einzigartigkeit macht sich sowohl in der Schnelligkeit der Entwicklung also auch in den Zensurmethoden bemerkbar, denen das Informationsmedium seit Bestehen unterliegt. Die Fragestellung dieser Untersuchung ist die Ausbreitung und Dynamik des Internet in China unter den regulativen Bedingungen der kommunistischen Regierung. Aus der Sicht der technischen Entwicklung, der Medienpolitik und der Netzkultur wird das Internet analysiert und die Position der Regierung charakterisiert. Es wird auf Webseiten, die den Inhalt dieser Arbeit thematisieren, Bezug genommen und deren Anliegen dargestellt. Auch wird die Rolle von einigen wichtigen ausländischen Unternehmen geklärt, die sich im wichtigen Zukunftsmarkt der Welt engagieren. Für die Erstellung dieser Arbeit sind Literatur in traditioneller Papierform, Berichte in elektronischer Form und Online-Pressemeldungen herangezogen worden. Trotz restriktiver Kontrollmaßnahmen kann eine interessante Entwicklung des Internet festgestellt werden. Es ist eine Dynamik erkennbar, die sich vor allem in der Netzkultur deutlich zeigt. Das Internet hat in technischer Sicht immer noch ein sehr hohes Entwicklungspotenzial – insbesondere in den ländlichen Regionen. Das Internet steht unter starker Reglementierung und wird von ausländischen Unternehmen aus Profitgründen akzeptiert. Die chinesische Netzkultur befindet sich in einer dynamischen Entwicklungsphase, die ein hohes Maß an Aktionspotenzial zeigt. Der durch das Internet entstandene Demokratisierungsprozess findet zwar nicht den anfangs vom Ausland erhofften Erfolg, doch aus politisch-demokratischer Sicht ist ein kleiner Schritt in die richtige Richtung gesetzt worden.

Diplomarbeitsposter Frohner Herbert

Herbert Frohner

Masterstudium Informatikmanagement
Abstract:

Social Tagging ist eine Methode zur semantischen Datenorganisation. Im Unterschied zu traditionellen Ansätzen wird die Kategorisierung nicht von Experten vorgenommen, sondern von einer Vielzahl von Benutzern gemeinschaftlich entwickelt. Bezüglich der Daten existieren grundsätzlich keinerlei Einschränkungen. Dabei kann es sich sowohl um multimediale Inhalte, als auch um wissenschaftliche Literatur handeln. Jeder Benutzer, unabhängig von Expertise oder Intention, ist aufgefordert mithilfe von frei gewählten Tags die Kategorisierung der verwendeten Ressourcen zu unterstützen. Insgesamt entsteht dadurch eine Sammlung verschiedenster subjektiver Einschätzungen, die zusammen eine umfassende semantische Organisation bestimmter Inhalte darstellen. Ziel dieser Arbeit ist es, die Auswirkungen im Hinblick auf die Wissensorganisation und im Hinblick auf die sozialen Beziehungen der Benutzer zu analysieren, unter Einbeziehung aktuellster wissenschaftlicher Veröffentlichungen. Eines der zentralen Ergebnisse dieser Arbeit ist die Erkenntnis, dass die gemeinschaftlich erzeugten Metadaten eine unerwartet hohe Qualität bzw. Bedeutsamkeit aufweisen, obwohl Mehrdeutigkeiten und verschiedene Schreibweisen diese negativ beeinflussen könnten. Social Tagging ist besonders effektiv für die Organisation von sehr großen oder auch heterogenen Datenbeständen, die mit herkömmlichen, expertenbasierten Kategorisierungsverfahren nicht mehr verarbeitet werden können oder durch automatische Verfahren qualitativ schlechter indexiert werden. Durch Social Tagging wird nicht nur die Wissensorganisation gefördert, sondern darüberhinaus auch die Zusammenarbeit und der Aufbau von Communities, weshalb Social Tagging auch effizient in der Lehre eingesetzt werden kann.

Diplomarbeitsposter Kaindl Georg Christoph

Georg Christoph Kaindl

Masterstudium Medieninformatik
Abstract:

The thesis aims to establish a departure point for designers to explore the rich opportunities offered by multi-touch interaction. The viability of multi-touch interaction as a technique in HCI is outlined by discussing the role of touch surfaces from the perspective of current trends in HCI such as experiential design and user-centric approaches, as well as by drawing a link to established theoretical frameworks such as activity theory. A summary of the state of the art of multi-touch research is presented with a focus both on aspects of hardware sensor and software technology as well as proposed interaction paradigms and metaphors. In order to enable the exploration of multi-touch interaction on large surfaces and screens, simple camera-based hardware setups suitable for assembly without a technological background are presented with the goal of providing designers with a prototyping platform for their endeavors. Finally, Touché is introduced, a vision-based tracking application to be used in conjunction with the aforementioned self-assembled hardware, providing designers with both hardware and software technologies to explore multi-touch interaction on affordable setups.

Diplomarbeitsposter Kluckner Sigmund

Sigmund Kluckner

Masterstudium Informatikmanagement
Abstract:

In dieser Arbeit werden Probleme und Konzepte von Trainings für ein Software System zur Unterstützung von Werschöpfungsketten in der Landwirtschaft behandelt, mit konkreter Anwendung auf ein System der Kaffeeproduktion. Im speziellen wird eine Lernumgebung aufgebaut, die sich mit Software für agrikulturelle Wertschöpfungsketten beschäftigt, und beschreibt Herausforderungen und Probleme, die in dieser speziellen Situation zu Tage treten. Wegen der internationalen Beschaffenheit von Wertschöpfungsketten werden auch kulturübergreifende Themen angesprochen. Weiters ergibt sich auch aus der unterschiedlichen geographischen Lage der Teilnehmer des Trainings die Notwendigkeit, neue oder veränderte Trainingsmethoden zu finden und anzuwenden. Um Trainings in dieser Umgebung abzuhalten, ist ein gute Wissensbasis von Trainings und Trainingsmöglichkeiten wichtig. Deshalb gibt diese Arbeit einen Überblick über Inhalt und Struktur der verfügbaren Methoden. Das ermöglicht es Trainern und Managern gleichermaßen, passende Trainings für eine gegebene Situation zu erstellen (zum Beispiel für die geographische Verteilung der Teilnehmer). Für die beschriebenen Herausforderungen werden in dieser Arbeit auch Lösungsansätze präsentiert. Diese Ansätze behandeln ebenso Management, Materialien und die eigentlichen Trainings, und wie diese in den Situationen am Besten eingesetzt bzw. durchgeführt werden können. Ebenso werden die multikulturellen Aspekte in allen Vorschlägen berücksichtigt. Einige dieser Vorschläge und Ansätze wurden anhand eines Fallbeispiels angewendet und getestet, ebenso wird das verwendete Trainingsmaterial beschrieben. Zusätzlich wurde eine Umfrage erstellt, um die Vorlieben der beteiligten Personen zu erheben, damit das Training an die Wünsche der Teilnehmer angepasst werden kann.

Diplomarbeitsposter Prost Sebastian

Sebastian Prost

Masterstudium Medieninformatik
Abstract:

Softwareentwicklung wurde bisher von den Ingenieurs- und Kognitionswissenschaften geprägt, die Design nur sehr langsam als ernstzunehmende Disziplin anerkennen. Diese Arbeit beschäftigt sich mit Interaktionsdesign und seiner derzeitigen Rolle im Softwareentwicklungsprozess anhand des Fallbeispiels "Infinica Process Designer". Sie gibt einen Überblick über die Designtheorie und die Besonderheiten von Designproblemen und beschreibt die Ziele von Interaktionsdesign und der erstrebenswerten Rolle der Interaktionsdesignerin in Softwareprojekten. Im Anschluss werden die theoretischen Erkenntnisse mit dem Fallbeispiel verglichen. Während des Designprozesses wurde ein neuer Ansatz zur Geschäftsprozessmodellierung entwickelt, der allerdings von der Perspektive des Kunden abwich. Gestützt auf die verbreitete Ansicht, dass der Entwickler sowohl für Design als auch Implementierung von Software zuständig ist, waren die Designentscheidungen, die dem Designteam zugestanden wurden, auf oberflächliches Styling reduziert. Die Evaluation der Zusammenarbeit macht deutlich, welche Akzeptanzprobleme Interaktionsdesign in der Praxis hat. Ein Ziel dieser Arbeit ist zu veranschaulichen, wie entscheidend solides Design für die Produktqualität ist. Das zweite Ziel ist die Wichtigkeit einer klaren Kommunikation über Verantwortlichkeiten innerhalb des Teams zu betonen, um erfolgreiche Produkte hervorzubringen.

Diplomarbeitsposter Stritzelberger Anita

Anita Stritzelberger

Masterstudium Medieninformatik
Abstract:

Die vorliegende Diplomarbeit beschäftigt sich mit der Weiterführung einer umfassenden Bewertung und Evaluierung einer Informationsvisualisierung. Das Tool Gravi++ visualisiert physiotherapeutische Daten von jungen Frauen mit Anorexia nervosa, welche am AKH in Wien behandelt werden. Ziel der Visualisierung ist es, alternative Therapiemöglichkeiten der PatientInnen zu identifizieren. In einer vorhergegangen Evaluierungsstudie, wurden sowohl die Benutzerfreundlichkeit, als auch die Nützlichkeit dieses Systems im Detail untersucht. Dabei wurden verschiedene Methoden und Benutzergruppen herangezogen. Während der so genannten ´Insight Study´ wurde ein Reportsystem entwickelt, welches jene Beobachtungen und Einsichten festhält, welche die Benutzer während der Studie identifiziert haben. Eine Sammlung an Reports, welche bereits vor Beginn dieser Arbeit erstellt wurden, bilden die Basis für die Evaluierung innerhalb dieser Diplomarbeit. Die Reports werden herangezogen, um Hypothesen über die zugrundeliegenden Daten erstellen zu können. Die Schlussfolgerungen machen einerseits die Informationen über die PatientInnen zugänglicher, schaffen andererseits aber auch ein besseres Verständnis über den Explorationsprozess von Informationsvisualisierungen. Weiters ist es wichtig herauszufinden, wie die Benutzer mit dem System arbeiten und umgehen. Um diese Fragen beantworten zu können, wurde eine systematische Betrachtungsweise gewählt, welche es zulässt, die einzelnen Reports miteinander zu vergleichen, wie auch komplexe Informationen über den Schlussfolgerungsprozess zu erlangen. Es gibt wenige Studien, welche sich mit dem explorativen Prozess von Informationsvisualisierungen beschäftigen. Daher wurde ein alternativer Ansatz gewählt, welcher helfen soll, gängige Probleme von anderen Methoden, wie z.B. ´thinking aloud´, zu überwinden.

Institut für (vor 2018) Softwaretechnik und Interaktive SystemeE188

Arbeitsbereich (vor 2018) Information & Software Engineering

Weitere ausgestellte AbsolventInnen dieses Arbeitsbereichs:
Martin Gruber, Marco Romauch, Bernhard Sauerteig
Diplomarbeitsposter Ablöscher Markus

Markus Ablöscher

Masterstudium Informatikmanagement
Abstract:

E-Learning und Internet sind Themen die vor allem für die ältere Generation (55+) in den letzten Jahren immer mehr an Bedeutung gewonnen hat. Meine Arbeit beschäftigt sich mit der Evaluierung von Lernplattformen für Senioren. Genauer betrachtet werden die beiden Open-Source Plattformen OLAT und TUWEL(Moodle) untersucht. Ausgehend von der Frage, welche Anforderungen und Grundbedürfnisse Senioren an IT-Produkte stellen, habe ich durch eine quantitative Befragung und qualitativ empirische Interviews evaluiert, welche Barrieren es in diesen Lernmanagementsystemen für ältere Menschen gibt. Im Rahmen der Untersuchung wurde festgestellt, dass vor allem durch die Berücksichtigung von inhaltlichen und kommunikativen Aspekten und bestimmten Kriterien der Usability, Lernplattformen aus dem Open Source Bereich für Senioren gezielter eingesetzt werden können. Ein weiteres Ergebnis dieser Arbeit ist, dass E-Learning als Lernform von der ausgewählten Zielgruppe an sich akzeptiert wird, Blended Learning jedoch geeigneter wäre.

Diplomarbeitsposter Abouakil Daniel

Daniel Abouakil

Masterstudium Software Engineering & Internet Computing
Abstract:

In den vergangenen Jahren nahmen einige Regierungen Umstrukturierungen im medizinischen Bereich vor. Sie führten digitale Systeme ein, um die Effizienz von Gesundheitssystemen zu steigern. Medizinische Institutionen sind untereinander verbunden und behandelnde Ärzte können unkompliziert den Krankheitsverlauf eines Patienten nachvollziehen. Diese Digitalisierung löste in der Bevölkerung Ängste bezüglich der Privatsphäre und Sicherheit von Patientendaten aus. Der Bereich der digitalen, medizinischen Bildverarbeitung ist, wegen der hohen Dateigröße von Aufnahmen, herausfordernd. Wenn jetzt diese Dateien zur besseren Sicherheit komplett verschlüsselt im Archiv abgelegt werden, würde das die Performance verschlechtern. Außerdem kann in diesem Archiv nicht mehr gesucht werden. Weiters bietet DICOM keinen vernünftigen Autorisierungs- und Authentifizierungsmechanismus an. Diese Diplomarbeit stellt eine Lösung zur Sicherung der Privatsphäre von Patienten in medizinischen Anwendungen vor. Nachdem eine ausführliche Analyse der Sicherheitsmechanismen des DICOM Standards vorgenommen wurde, werden alternative Technologien vorgestellt. Die Pseudonymisierung ist eine passende Technologie, um Eigenschaften wie das Freigeben von Daten, ein gutes Laufzeitverhalten, Datenzugriff für die Forschung und einen hohen Grad an Privatsphäre, zu erreichen. Der Fokus dieser Diplomarbeit liegt auf der Entwicklung eines DICOM konformen Prototypen, welcher die Privatsphäre von Patientendaten wahrt. Dieser Prototyp pseudonymisiert medizinische Aufnahmen und ist unabhängig von der jeweiligen DICOM Client/Server Implementierung. Der entwickelte Prototyp ermöglicht eine Suche nach Daten im Archiv und einen pseudonymisierten Zugriff für Forscher. Weiters definieren die Benutzer des Systems ihre individuellen Zugriffsrechte. Durch die Verwendung von eigenen, privaten Schlüsseln wird das Risiko eines Angriffs auf die Patientendaten minimiert und ein hoher Sicherheitsgrad erreicht.

Diplomarbeitsposter Apfelthaler Kathrin

Kathrin Apfelthaler

Masterstudium Informatikmanagement
Abstract:

Second Life ist eine virtuelle Online-Welt, die seit dem Start im Jahr 2003 über 15 Millionen registrierte Benutzer zählt. Zahlreiche Bildungsstätten sind in der virtuellen Welt Second Life bereits mit einer Repräsentanz vertreten. Dazu zählen namhafte Universitäten, wie die Princeton University oder die University of Edinburgh, oder aus dem deutschsprachigen Raum die Volkshochschule Goslar und die Universität Bielefeld. Diese bieten unterschiedliche Bildungsprogramme und Kurse für Studenten und Personen aus der ganzen Welt an. Die pädagogischen Möglichkeiten, die virtuelle Umgebungen bieten, sind vielfältig. Didaktische Konzepte, wie Simulationen oder Game Based Learning, lassen sich in Second Life besonders gut umsetzen. Großes Potenzial liegt auch in Exkursionen zu virtuellen Städten, antiken Plätzen und Museen. Dabei wird vor allem die Methode des Selbstlernens unterstützt. Soziale Lernsituationen können entstehen, wenn die Reise gemeinsam mit anderen Personen unternommen wird. Ausführliche Beschreibungen zu diesen Orten zeigen, wie diese für Lernzwecke genutzt werden können. Die Arbeit befasst sich mit den Potenzialen, welche der virtuelle Raum für die Lehre bietet. Anhand von ausgewählten Beispielen wird das derzeitige Angebot an virtuellen Kursen und Vorträgen dargestellt und ein Ausblick über mögliche Zukunftsszenarios skizziert.

Diplomarbeitsposter Benevolenskiy Alexander

Alexander Benevolenskiy

Masterstudium DDP Computational Logic (Erasmus-Mundus)
Abstract:

In the thesis an ontology for the TechScreen system is developed and ways to extend it automatically are investigated. Manual construction allows to build the most consistent and stable ontology, however it will often be not up-to-date. Therefore we investigate abilities of its automatic enrichment. In this research the possibilities of concept extraction from Wikipedia are considered. This involves the breadth-first search algorithm through the category’s system of Wikipedia and different approaches for concept analysis and recommendations for the TechScreen ontology.

Diplomarbeitsposter Bozkaya Emrah

Emrah Bozkaya

Masterstudium Software Engineering & Internet Computing
Abstract:

There is a wide gap between the developed and the developing countries, in nearly all areas developed countries are predominant, e.g. economic and political. Studies have shown that Information and Communications Technologies (ICTs) become more and more important, and that they can improve the life-quality of people. But particularly in ICTs the differences between the developed and the developing countries are significant. The theoretical part of this diploma thesis is concerned with three main research questions: 1. The significance of mobile devices, particularly mobile phones, as means of communication and computation platform for the developing regions in comparision to the developed regions? 2. The potential impact of open mobile platforms, like Google Android? 3. The potential of social networks, particularly using mobile platforms, to improve life-quality in the developing regions? In the practical part a Mobile Device Social Network (MDSN) runnning on mobile phones based on the Google Android platform was build. This MDSN has a special regard to the Indonesian people. It focuses on the free information access with especial regard to corruption, mismanagement, incident and price information. The name of the MDSN is Bareng, in Indonesian it means ”together”. Bareng also provides location-based data, using GPS or GSM triangulation.

Diplomarbeitsposter Dassler Harald

Harald Dassler

Masterstudium Informatikmanagement
Abstract:

Cryptology is one of the main topics in today’s Information Technologies, enabling secure communication and authentication over unsecure networks. Nevertheless it plays a lower role in IT studies at the Technical University of Vienna. The master thesis is intended to bring in an aspect of modern encryption by providing a complete learning sequence implementing Problem-Based Learning. As “problem” a challenge is created in which the students have to derive the key out 80 KB of plain text and the corresponding cipher text. This shall be solved self-reliantly in groups of five. For encryption a four round variation of DES is used so the students need to implement Linear Cryptanalysis as it was developed by Matsui in 1993 and extend it. Moreover the students will discover and comprehend many topics relevant for actual ciphers while doing their investigations. The thesis itself is intended to support the lector time-efficiently and will therefore show a subject-based structure. At first the educational framework is explained by discussing Problem-Based Learning, Authentic Learning and Curricular Learning as well as defining educational objectives and methods to reach them. Afterwards basic cryptographic methods (permutation, substitution, public keys, ...) and their cryptanalytical counterparts (frequency analysis, (wo)man-in-the-middle attacks, Kasiski Test, ...) are handled briefly. Next the theory of DES and Linear Cryptanalysis is covered in detail supported by many examples that can be used directly when teaching. The attack itself is built upon “seven steps of understanding” which explain each aspect separately to avoid the complexity most other documents show. Finally the challenge described above and a matching sample solution it are introduced. Together with the master thesis all necessary files, presentations and a student hand out is provided. Furthermore the required source codes and step-by-step-instructions to create own examples can be found.

Diplomarbeitsposter Gradwohl Manuel

Manuel Gradwohl

Masterstudium Software Engineering & Internet Computing
Abstract:

Für die Umsetzung der Visionen des Semantic Webs spielt das Kombinieren von unabhängigen Wissensbasen, die beim Semantic Web durch Ontologien umgesetzt werden, eine zentrale Rolle. Auf Grund der semantischen Heterogenität zwischen den Ontologien ähnlicher Domänen ist es allerdings erforderlich diese gegenseitig abzustimmen. Dieser Vorgang wird als Ontology Alignment bezeichnet. Die Kernaufgabe dabei ist die Ähnlichkeiten bzw. Übereinstimmungen - so genannte Alignments - zwischen Ontologien zu ermitteln. Es gibt bereits eine Menge an Ontology Alignment Algorithmen bzw. Systemen wie z.B. FOAM, RiMOM, Lily usw., welche Ähnlichkeiten basierend auf Domänenwissen, das durch die Ontologien beschrieben wird, (semi-)automatisch feststellen. Die Ergebnisse der Algorithmen sind leider nicht immer zufriedenstellend. Da die Größe von Ontologien ständig wächst, ist es für den bzw. die BenutzerIn schwierig, die vom Algorithmus gefundenen Alignments zu verfizieren. Hier schafft das Tool AlViz Abhilfe, indem es die Informationen der Ontologien mit den ermittelten Alignments durch Kombination und Verknüpfung mehrerer Visualisierungstechniken graphisch darstellt und Änderungen an Alignments ermöglicht. Die Arbeit präsentiert den Entwurf und die Umsetzung einer Erweiterung von AlViz für die Integration von Ontology Alignment Algorithmen. Dazu wird eine Architektur mit einheitlicher Schnittstelle definiert, die auf der Ontology Alignment API basiert. Die eingebundenen Alignment Algorithmen können dadurch direkt aus AlViz gestartet werden. Weiters ermöglicht dies eine schnelle Visualisierung und auch Analyse der Alignment-Ergebnisse in AlViz. Außerdem können nun auch unterschiedliche Alignment Algorithmen kombiniert werden. Dabei kann das Alignment-Ergebnis eines Algorithmus als Eingabe für den Start des nächsten Algorithmus herangezogen werden. Somit können die Stärken von bestimmten Alignment Algorithmen gezielt eingesetzt und kombiniert werden.

Diplomarbeitsposter Huber Martin

Martin Huber

Masterstudium Software Engineering & Internet Computing
Abstract:

In dieser Arbeit wird die Softwareentwicklung von AlViz, einem grafischen Tool für das Alignment von Ontologien einer gemeinsamen Domäne mit unterschiedlicher semantischer Struktur, vorgestellt. Ontologien spielen eine wichtige Rolle für die Interoperabilität zwischen Wissenssystemen, da sie Domänenwissen in einer weiterverarbeitbaren, interpretierbaren Form abbilden. Aufgrund des voranschreitenden Wachstums der Anzahl und der Größe von Ontologien und der immer größer werdenden Bedeutung des semantisches Webs werden geeignete Methoden zur Unifikation von Ontologien benötigt, um die Schaffung größerer, zusammengesetzter Wissensbasen zu ermöglichen. Beim Alignment werden zu jeder Entität einer Ontologie die korrespondierenden Entitäten mit den jeweils größten Ähnlichkeiten innerhalb einer anderen Ontologie zugeordnet. Dabei handelt es sich um einen aufwändigen und komplexen Vorgang, der durch geeignete Repräsentationsformen und Informationsaufbereitung unterstützt werden muss. AlViz schafft durch Umsetzung von Paradigmen aus der Informationsvisualisierung die Möglichkeit, mehrere Ansichten auf verschiedene Ontologien dermaßen miteinander zu verknüpfen, dass Ähnlichkeitsbeziehungen verschieden starker Ausprägungen zwischen den Klassen zweier Ontologien definiert werden können. Die resultierenden Mappings können dazu verwendet werden, neues Wissen implizit abzuleiten oder die Ontologien zusammenzuführen. Die Arbeit präsentiert die Problemstellung des Alignments, gibt eine funktionale Beschreibung des Tools mit dem Fokus auf die Anforderungen, liefert eine ausführliche Designdokumentation und stellt die eingesetzten Entwicklungs- und Implementierungsmodelle vor. Weiters werden die Ergebnisse und Erkenntnisse aus einer Evaluierung mit einer Testgruppe präsentiert.

Diplomarbeitsposter Kalchgruber Peter

Peter Kalchgruber

Masterstudium Business Informatics
Abstract:

Electronic-Voting (E-Voting) stellt eine junge Entwicklung im elementarsten Bereich der Demokratie dar: den Wahlen. Nach den ersten „in-vivo“-Einsätzen wird Bilanz über Vor- und Nachteile gezogen. In der Diplomarbeit wird die Grundlage und der Aufbau bekannter E-Wahlsysteme dargestellt. Der Fokus liegt hierbei auf end-to-end-verifizierbaren Wahlsystemen. Diese bieten Wählerinnen und Wählern die Möglichkeit, die korrekte Zählung ihrer abgegebenen Stimme nachzuverfolgen und zu überprüfen. Gleichzeitig wird das Wahlgeheimnis gewahrt, um die Wählerinnen und Wähler vor Stimmenkauf zu schützen. Zur Erhöhung der Transparenz bei Wahlen können end-to-end-verifizierbare Wahlsysteme unterstützend sowohl bei Präsenz- als auch bei Internet-Voting-Wahlsystemen eingesetzt werden. Vertiefend wird auf die end-to-end-Wahlsysteme Punchscan, Threeballot und Scantegrity eingegangen. Der praktische Teil umfasst die Implementierung des von Ben Adida entwickelten end-to-end-verifizierbaren Wahlsystems Scratch & Vote. Es wurde zu diesem Zweck mit einer Threshold-Entschlüsselung erweitert. Das gesamte Wissen, das für die Implementierung eines solchen Wahlsystems notwendig ist, wird verständlich und anhand von Beispielen vermittelt.

Diplomarbeitsposter Kaltenecker Alfred

Alfred Kaltenecker

Masterstudium Software Engineering & Internet Computing
Abstract:

Durch die rasante Verbreitung mobiler Endgeräte, in letzter Zeit immer mehr internetfähiger Mobiltelefone, ergeben sich neue Geschäftsmodelle. Durch die üblichen Modelle, und diese werden vorwiegend von den Telekommunikationsunternehmen vorgegeben, bleibt für den Entwickler am Ende der Vertriebskette viel zu wenig vom eigentlichen Verkaufspreis übrig. Mittlerweile beklagen somit immer mehr etablierte Entwickler die Wirtschaftlichkeit der Branche. Angesichts dieser Entwicklung habe ich ein alternatives Konzept für M-Payment innerhalb einer M-Commerce Applikation konzipiert. Anhand eines Prototyps wird die Machbarkeit des entwickelten Konzepts demonstriert. Neben der Abdeckung der Mobiltelefone und der Benutzerfreundlichkeit wird auch das Thema Sicherheit berücksichtigt.

Diplomarbeitsposter Kastler Florian

Florian Kastler

Masterstudium Information & Knowledge Management
Abstract:

ERP Software spielt heutzutage eine wichtige Rolle nicht nur für operationale, sondern auch für Business Intelligence Anwendungen in einem Unternehmen. Es ist nicht nur notwendig den Zugang zu Informationen zu öffnen und möglichst einfach zu gestalten, sondern es ist ebenfalls nötig die verschiedensten Abteilungen in einer Firma zu befähigen diese Daten zu verändern. Die Arbeit mit Daten in einem Business Intelligence System sollte möglichst transparent und einfach für die Benutzer des Systems sein. Webtechnologien können hier einen großen Beitrag leisten um verschiedene Systeme miteinander zu verbinden und einen einfachen Zugriff für die Benutzer zu ermöglichen. Diese Systeme bieten den Benutzern dann einen schnellen Zugriff auf die Daten die sie für ihre Arbeit benötigen, wo auch immer sich die Daten oder die Benutzer befinden mögen. Derzeit werden viele Webtechnologien hauptsächlich benutzt um schnell auf Berichte zugreifen zu können oder um Datenbeladungsprozesse oder Berechnungen in den BI Systemen anstarten zu können. Neue Webtechnologien erlauben eine relativ schnelle und einfache Entwicklung, nicht nur von simplen Datenbeladungscockpits, sondern auch von mächtigeren Webapplikationen welche andere nicht webfähige Applikationen ersetzen können oder auch um Arbeitsprozesse und Workflows in verschiedensten Abteilungen eines Unternehmens zu vereinfachen, in denen es nur eine schlechte oder gar keine IT Tool Unterstützung gibt. Es gibt heutzutage eine Unmenge an Webtechnologien und einige davon stehen auch nur speziell im ERP Umfeld für Geschäftsprozesse zur Verfügung. Welche Webtechnologie eignet sich aber nun am besten für Geschäftsprozessapplikationen im ERP Bereich? Es wird speziell im SAP Umfeld eine Intercompany Planungslösung die mit dem WebDynpro für ABAP Framework entwickelt wurde, als Fallstudie für Webtechnologien im ERP Umfeld herangezogen.

Diplomarbeitsposter Kolb Mathias

Mathias Kolb

Masterstudium Software Engineering & Internet Computing
Abstract:

Vor kurzem hat im Gesundheitswesen das digitale Zeitalter begonnen und neue Datenschutzprobleme erzeugt. Datenschutz ist ein Grundrecht jedes Menschen. Regierungen versuchen dieses durch Gesetze zu stärken. Vor allem im Gesundheitsbereich spielt der Datenschutz eine bedeutende Rolle, weil mit vielen sensiblen Daten gearbeitet wird. Zur Unterstützung des Datenschutzes wurden Sicherheitslösungen, z.B. Pseudonymisierung, entworfen, die aber oft nicht mit den Gesetzen konform gehen. Diese Konzepte beinhalten Zutrittsmechanismen, welche im Falle eines Verlustes oder Defektes wiederhergestellt werden müssen. Leider sind diese Backup-Systeme oftmals ineffizient und mangelhaft. Diese Diplomarbeit analysiert sechs verschiedene Pseudonymisierungsanwendungen und evaluiert ihre Schwachstellen im Bezug auf ihr Konzept bei Verlust der Karte. Außerdem werden die Anwendungen auf die Einhaltung der rechtlichen Vorgaben von der Europäischen Union und den Vereinigten Staaten von Amerika überprüft. Auf der Basis der Pseudonymisierungsanwendungen PIPE - Pseudonymization of Information for Privacy in e-Health - wird in dieser Diplomarbeit eine Verbesserung des Schlüssel-Backup-Systems vorgestellt. Es wird ein zweiteiliges Schlüssel-Backup-System entwickelt, welches mit Hilfe von Hardware Security Modulen und unter Verwendung von Shamir's threshold scheme arbeitet. Dadurch konnte die Sicherheit ohne große Leistungseinbußen erhöht werden. Ein Beispiel zeigt, dass, verglichen mit dem originalen Backup-System, die durchschnittliche Laufzeit des Wiederherstellungsprozesses nur ca. 2% länger dauert. Diese Diplomarbeit soll die Entwicklung zukünftiger Pseudonymisierungsanwendungen durch Auflisten von rechtlichen und technischen Anforderungen erleichtern und ein angemessenes und sicheres Backup-System garantieren.

Diplomarbeitsposter Liang Min

Min Liang

Masterstudium Informatikmanagement
Abstract:

UML und OWL sind wichtige Datenmodellierungssprachen bzw. Datenmodellierungstheorien im Bereich von Software Engineering und Knowledge Engineering. Die Zielgruppe für diese Arbeit sind Software und Modell Entwickler, die ihre Erfahrung mit traditionellen Datenmodellierungsmethoden vertiefen möchten, indem sie die Vorteile und möglichen Einschränkungen eines neuen, Ontologie-basierten Datenmodellierungsverfahrens analysieren. Die Ziele dieser Arbeit sind a) die Einführung in die Grundprinzipien von UML und Ontologien; b) ein Überblick über Standard Werkzeuge für die beiden Datenmodellierungssprachen, nämlich Visual Paradigm für UML und Protégé für Ontologien; c) das Herausarbeiten von grundsätzlichen Unterschieden zwischen beiden Modellierungsansätzen hinsichtlich eines Anwendungsszenarios aus dem Bereich der Multi-Agenten basierten Simulation von Produktionsautomatisierungssystemen; d) die Evaluation der Unterschiede zwischen Datenmodellierung mit UML oder Ontologien; e) der Vergleich ihrer jeweiligen unterschiedlichen Prüfungsfähigkeiten von Modellkonsistenz; f) zukünftige Verbesserungen bzw. Erweiterungen von UML und OWL zu untersuchen; und g) didaktische Methoden für die Verbesserung der Lehre im Bereich Ontologien vorzuschlagen. Zur Beantwortung der Forschungsfragen wird ein umfassender Datenmodellierungsprozess im Bereich der Multi-Agenten basierten Simulation von Produktionsautomatisierungssystemen mit UML und Ontologien durchgeführt. Beide Ansätze werden hinsichtlich ihrer Visualisierungsmöglichkeiten und Ausdrücke, Konsistenz, Leistung und zusätzlicher Funktionen evaluiert. Diese Evaluation charakterisiert und bewertet die allgemeine Eigenschaften, bzw. Vorteile und Einschränkungen von UML und Ontologien in einem detaillierten Evaluationsergebnis.

Diplomarbeitsposter Liegl Patrick

Patrick Liegl

Masterstudium Informatikmanagement
Abstract:

Als Konsequenz aus den europäischen Finanzskandalen veröffentlichte die Europäische Kommission in Anlehnung an den US-amerikanischen Sarbanes-Oxley Act die 8. EU-Richtlinie, auch bekannt unter EUROSOX. Sie verfolgt denselben Zweck wie der Sarbanes-Oxley Act, nämlich die Sicherstellung der Transparenz und Korrektheit der Finanzberichterstattung. Das Ziel der Arbeit ist, einen pädagogischen Umsetzungsleitfaden zu erarbeiten, der Führungskräfte in Unternehmen bei der Einführung eines wirksamen internen Kontrollsystems (IKS) für IT-Prozesse und bei der Implementierung von IT-Governance unterstützt. Die aktuellen und international anerkannten Modelle COSO, CobiT 4.1, ITIL v3, ISO/IEC 27002: 2005 sowie die IT-Grundschutz-Kataloge wurden auf ihre Eignung untersucht, ein IKS für IT-Prozesse und IT-Governance zu implementieren. Aufgrund ihres hohen Umfangs oder Detaillierungsgrades wurden CobiT als primäres Modell und ITIL und ISO27002 als unterstützende Modelle ausgewählt. Ein pädagogischer Umsetzungsleitfaden für Führungskräfte wurde ausgearbeitet, der stufenweise die Umsetzung der EUROSOX Vorgaben und die Erreichung von IT-Governance in der Praxis ermöglichen kann. Für die vier erfolgskritischen Funktionen Aufsichtsrat/Prüfungsausschuss, Geschäftsführung/Vorstand (CEO), IT-Manager (CIO) und Projektmanager wurden die wichtigsten Aufgaben strukturiert beschrieben. Basierend auf der Audit- und Beratungserfahrung des Autors wurden ausschließlich notwendige IT-Prozesse und interne Kontrollen vorgeschlagen, damit IT-Compliance mit EUROSOX erreicht werden kann. Weitere IT-Prozesse und Projektphasen (Projektplanung, Identifikation und Dokumentation der Kontrollen, Beurteilung der Wirksamkeit der Kontrollen, Sanierung von IT-Prozess- und -Kontrollschwachstellen, sowie Reporting und Monitoring) wurden detailliert beschrieben, um IT-Governance implementieren zu können.

Diplomarbeitsposter Niederer Markus

Markus Niederer

Masterstudium Business Informatics
Abstract:

In dieser Arbeit wird die Frage erörtert, wie die Suche nach geeigneten Zeiten für Besprechungen bzw. Treffen von zwei oder mehreren Personen schnell und effizient durch mobile Endgeräte unterstützt werden kann. Ziel ist die Konzeption, Modellierung sowie prototypische Implementierung eines Agenten-basierten Terminvereinbarungssystems für mobile Endgeräte. Mit diesem System sollen sich sowohl Termine von Personen, als auch von Ressourcen untereinander abstimmen lassen. Im Rahmen dieser Masterarbeit wurden bestehende Ansätze und Systeme für Gruppenterminvereinbarungen untersucht und anhand von zuvor definierten prototypischen Szenarien bewertet. Nicht alle Systeme sind uneingeschränkt für moble Geräte einsetzbar. Bedingt durch die knappere Verfügbarkeit von Ressourcen und eingeschränkte Bedienbarkeit, bedingt durch ihre Größe, haben mobile Geräte besondere Ansprüche an Applikationen. Die Anwendungen müßen diesen speziellen Anforderungen angepasst sein, um eine einfache und effiziente Bedienung zu ermöglichen. Die bestehenden Systeme wurden besonders im Hinblick auf die Anwendbarkeit auf diese Beschränkungen bewertet und verglichen. Aufbauend auf den Ergebnissen der Evaluierung wird ein Modell eines speziell für den mobilen Gebrauch zugeschnittenen Agenten-basierten Terminvereinbarungssystem entwickelt. Für die Kommunikation der Agenten untereinander wurde ein für mobile Systeme optimiertes Protokoll spezifiziert. Zur Untermauerung der Thesen und zur Überprüfung des Modells wurde ein Prototyp des Systems auf Basis der Android Plattform erstellt. Anhand der eingangs definierten alltäglichen Terminvereinbarungsszenarien wurde der Prototyp bewertet und Erweiterungsmöglichkeiten für zukünftige Entwicklungen aufzeigt.

Diplomarbeitsposter Pehn Markus Leopold

Markus Leopold Pehn

Masterstudium Business Informatics
Abstract:

Die Industrie ist derzeit mit stetig wachsenden und variierenden Bedrohungsszenarien bezüglich der Sicherheit und Sicherung von kritischen Informationen und Daten konfrontiert. Schon lange bezieht sich die Gewährleistung der Datensicherheit in einem Unternehmen oder einer Regierung nicht mehr nur auf Hackerangriffe, Viren oder Würmer, sondern umfasst auch den Faktor Mensch sowie organisatorische, nicht informationstechnische Gegebenheiten. In Anbetracht dieses wachsenden Gefahrenpotentials steigen auch die Investitionen in entsprechende Gegenmaßnahmen, die von Entscheidungsträgern getätigt werden. Es stellt sich bei diesen immensen Geldbeträgen natürlich die Frage in welchen Bereichen die Investments zu platzieren sind - Was ist sinnvoll, nützlich und notwendig und worauf kann verzichtet werden? Diese Arbeit präsentiert einen neuen Lösungsansatz um diesen Fragen zu begegnen. MOSEP (Multi Objective Safeguard Evaluation Process) ist ein Prozess um Sicherheitsprobleme und entsprechende Gegenmaßnahmen auf Basis eines Workshops zu evaluieren. Die Workshop Teilnehmer werden hierzu in Kleingruppen eingeteilt, und stammen aus verschiedensten unternehmerischen Fachbereichen, um eine möglichst vielfältige Sicht auf das Problem zu ermöglichen. Ein definiertes Rollensystem verlinkt die Workshop Teilnehmer mit spezifischen kategorisierten Aufgaben. Am Ende des Prozesses sollen nicht nur Gefahren und Gegenmaßnahmen evaluiert, sondern den Workshopteilnehmern auch ein Bewusstsein für Sicherheit vermittelt worden sein, welches sie in die Unternehmenskultur mit einbringen. Um dies zu gewährleisten wurde MOSEP unter Berücksichtigung didaktischer, psychologischer und gruppentheoretischer Prinzipien entwickelt, welche im Folgenden vorgestellt werden. Am Ende der Arbeit wird der Prototyp einer Softwarelösung die MOSEP implementiert anhand eines Beispiels präsentiert.

Diplomarbeitsposter Prucha Patrick

Patrick Prucha

Masterstudium Medieninformatik
Abstract:

Durch den rasanten Fortschritt der Informationstechnologie und der damit einher gehenden Weiterentwicklung virtueller Welten, werden diese für immer mehr Menschen attraktiver. Durch den enormen Zuwachs begann man sehr rasch, die marktwirtschaftlichen Konzepte der realen Welt für virtuelle Welten zu adaptieren und durch die Kaufkraft der Benutzer, die diese Welten bewohnen, Gewinne in realer Währung zu erwirtschaften. Woher der Reiz dafür kommt und wie sich diese Welten entwickelten, bis sie das Potenzial erreicht hatten auch marktwirtschaftlich interessant zu werden, sollen die ersten Kapiteln dieser Arbeit näher beleuchten. Ein weiterer Teilaspekt davon ist außerdem aufzuzeigen, welche Wege die Hersteller und Herstellerinnen gehen, um daraus Kapital zu erwirtschaften, aber auch wie die darin lebenden Menschen die Kommerzialisierung dieser Welten zu ihrem eigenen Vorteil nutzen, beziehungsweise darunter leiden. Dass zu diesem Zweck oft illegale Methoden eingesetzt werden, denen die Herstellerfirmen wiederum, auf mehr oder weniger erfolgreiche Art und Weise, versuchen entgegen zu wirken, scheint die logische Konsequenz des bis dato bestehenden Systems zu sein. Beide Seiten, die eingesetzten Mittel und deren Gegenmaßnahmen, werden näher betrachtet. Vor allem aber wird aufgezeigt, dass es dabei, wie im wirklichen Leben, Verlierer gibt, die zwar nicht unbedingt finanzielle Verluste erleiden, aber die ihren virtuellen Lebensraum dadurch gefährdet sehen und diesem gegebenenfalls für immer den Rücken kehren. Abschließend soll noch näher erläutert werden, wo in der derzeitigen Situation für alle Beteiligten, die Möglichkeiten aber auch Gefahren liegen und wie die Zukunft virtueller Welten aussehen wird.

Diplomarbeitsposter Pöchhacker Leopold

Leopold Pöchhacker

Masterstudium Informatikmanagement
Abstract:

Aktuelle Museumswebseiten sind oftmals statische Implementierungen, die den Besuchern nur wenige Features beiten. Teilweise beschränkt sich der Inhalt der Webseiten auf die für den realen Besuch notwendigsten Features wie Anfahrtspläne, Öffnungszeiten und Zeitplan aktueller Ausstellungen. Das gesamte Angebot ist auf den realen Besuch ausgerichtet. Mehrwert für einen Online Besucher ist nur selten vorhanden. Durch den Einsatz neuer Technologien in computern aber auch durch die starke Verbesserung von Netzwerktechnologien und damit einhergehenden Beschleunigung von Internetanschlüssen ist es mittlerweile ohne weiteres möglich, einem Online User zusätzliche Angebote zur Verfügung zu stellen. Diese Arbeit befasst sich mit den Grundlagen und der Entwicklung von Museumswebseiten, Implementierungen von zusätzlichen Features für Onlineuser sowie der Möglichkeit diese gezielt durch die Community zu erweitern. Dies soll anhand der wissenschaftlichen Lerntheorie „Community of Practice“ gezeigt werden. Die Erweiterung kann durch bestimmte Aktivitäten zur Vermittlung von Wissen ergänzt werden. Diese behandeln spezielle Methoden um Wissen zu vermitteln, die sich in einer Studie als besonders effektiv herausgestellt haben. Diese sollen in einem eigenen Kapitel behandelt und anhand von praktischen und theoretischen Beispielen erläutert werden. Zum Schluss soll ein Ausblick in die Zukunft von Museumswebseiten sowie Museumsimplementierungen gemacht werden. In welche Richtung könnte es gehen? Welchen Einfluss können neue Technologien wie Browser Plugins und „Web 2.0“ auf deren Entwicklung nehmen.

Diplomarbeitsposter Schwarzl Christian

Christian Schwarzl

Masterstudium Software Engineering & Internet Computing
Abstract:

Die vorliegende Arbeit beschäftigt sich mit der Sicherheit biometrischer Systeme. Ziel der Arbeit ist es, die vielen Berichte und Arbeiten, welche über die leichte Täuschungsmöglichkeit von Fingerprint-Scannern berichten, kritisch zu hinterfragen. Im Rahmen der Arbeit wird versucht, Fingerprint-Scanner durch Attrappen zu täuschen. Hierfür wurden über 80 Vorlagen aus drei verschiedenen Materialien (Fimo, Wachs und Leiterplatten) hergestellt. Von diesen Vorlagen wurden aus Holzleim, Silikon, Bastelkleber und Gelatine insgesamt 1741 Attrappen erzeugt, mit denen 34820 Einlogversuche durchgeführt und dokumentiert wurden. Die so gesammelten empirischen Daten werden in der Conlusio des Autors interpretiert und es wird versucht, eine Antwort auf die Frage der Sicherheit von gängigen Fingerprint-Scannern zu geben. Im Unterschied zu vielen der bislang existierenden Arbeiten zu diesem Thema werden die einzelnen Schritte des Versuchsablaufes detailliert beschrieben, um eine gewisse Nachvollziehbarkeit zu gewährleisten.

Diplomarbeitsposter Seemann Christoph

Christoph Seemann

Masterstudium Business Informatics
Abstract:

Die Architektur eines Softwareprodukts ist ein sehr kritischer Punkt in der Software Entwicklung. Architektur-Reviews unterstützen Entwickler dabei die Qualität der Architektur in frühen Entwicklungsphasen sicherzustellen und diese genau zu evaluieren. Szenarien sind bekannte Ansätze um einen guten Überblick zu bekommen, was von einer Software-Architektur verlangt wird. Diese können durch Brainstormings einzelner Personen aber auch in Teams identifiziert werden. Durch Team-Meetings können ‚bessere‘ Szenarios durch Diskussion der Teilnehmer entdeckt werden. In unserer Untersuchung wurden 54 Studenten gebeten Architektur-Szenarien für zwei unterschiedliche Systeme in einem kontrollierten Experiment zu finden. Zu Beginn mussten die Studenten Szenarien alleine finden und anschließend daran in einer Gruppe von drei Leuten. Während dieser Gruppenphase gab es zwei Möglichkeiten wie die Studenten miteinander kommunizieren konnten: Die eine Hälfte der Teams kommunizierte und diskutierte die Szenarien von Angesicht zu Angesicht, während die andere Hälfte der Teams über das Internet mit einer textbasierten Chat-Applikation kommunizierte. Welche Art von Team-Meetings bessere Ergebnisse liefert, ist eine sehr wichtige Frage, da reale Meetings viel teurer sind, weil alle Teilnehmer physisch am selben Ort zusammenkommen müssen. Wäre die Qualität der Szenarien beider Team-Meeting Möglichkeiten gleich, würde dies reale Meetings obsolet machen. Wir haben herausgefunden, dass Teams, die sich real getroffen haben, mehrere wichtige Szenarien gefunden haben, als Teams die über eine textbasierte Chat-Applikation kommuniziert haben. Wir haben auch herausgefunden, dass real-treffende Teams im Verhältnis mehr wichtige Szenarien in ihren Szenario-Profilen hatten als Teams, die über das Internet kommunizierten. Ein Zusammenhang zwischen der Erfahrung der Teilnehmer und der Anzahl an gefunden, wichtigen Szenarien konnte nicht festgestellt werden.

Diplomarbeitsposter Supper Patricia

Patricia Supper

Masterstudium Informatikmanagement
Abstract:

Die Nutzung des Internets nimmt stetig zu, dazu gehört auch die Geschäftsabwicklung im Internet, das E-Commerce. Allerdings wird das Phänomen des E-Commerce durch fehlendes Vertrauen immer noch gebremst. Dieses Misstrauen haben nicht nur potentielle Kunden, son-dern auch Händler. Obwohl das Fehlen des Vertrauens in den letzten Jahren abgenommen hat, stellt es immer noch die größte Hürde dar, die es im E-Commerce zu bewältigen gilt. Diese Hürde ist im E-Commerce größer als im traditionellen Handel, da das Internet Gefahren in sich birgt, wie Viren oder die einfache Tatsache, dass sich Personen nicht so einfach identifi-zieren lassen, wie das im täglichen Leben der Fall ist. Auch Geschäftspartner oder Kunden verhalten sich nicht immer so wie man es erwartet. Daher ist es wichtig Vertrauen zu haben, Vertrauen in die Sicherheit, in ein System oder in eine Person oder auch in Dritte, die an einer Transaktion beteiligt sind. Diese Arbeit zeigt vor allem anbieter- und kundenseitige Faktoren auf, die vertrauensbildend wirken. Zu diesen gehören vor allem die Websitegestaltung (Reduktion der Komplexität einer Website, einfache Navigation) und technische Aspekte wie die Wahrung der Datensicherheit. Außerdem gibt es zahlreiche Möglichkeiten wie die Reputation, die elektronische Signatur, Gütezeichen, Zertifikate und rechtliche Aspekte, die die Vertrauensbildung bei Konsumenten und Händlern beeinflussen. Haben die beteiligten Personen ein größeres Vertrauen aufgebaut, so ist das wahrgenommene Risiko für sie geringer und sie sind eher bereit mehr Risiko einzu-gehen, wie z. B. die Weitergabe von Daten. Diese Arbeit zeigt auf, wie es Händler und Konsumenten schaffen, durch Maßnahmen, die sie setzen, Vertrauen aufzubauen. Außerdem wird ein konzeptuelles Modell erstellt, das diese Maßnahmen und deren Mechanismen aufzeigt.

Diplomarbeitsposter Wagner Reinhard

Reinhard Wagner

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Die vorliegende Arbeit führt den Leser in das Thema des Spammens ein, welches in unterschiedlichsten Medien vorgefunden werden kann, wobei E-Mail-Spammen im Vordergrund steht und das Spammen in anderen Medien nur kurz vorgestellt wird. Neben einer Einführung in das Simple-Mail-Transfer-Protocol, welches Spammern bis heute aufgrund fehlender Standards zum Identitätsnachweis der Senderadresse einen entscheidenden Angriffspunkt bietet, werden die Vorgehensweisen und Techniken der Spammer, um 1) an eine möglichst große Anzahl an E-Mail-Adressen zu gelangen und 2) Systeme, welche genutzt werden, um Spams in Massen versenden zu können, vorgestellt. Desweiteren werden einfache Maßnahmen im Umgang mit der E-Mail-Adresse gezeigt, um das Spam-Aufkommen minimieren zu können, als auch verschiedenste Anti-Spam-Techniken zur Abwehr von Spam. Anschließend werden verschiedenste Open-Source Anti-Spam-Filter und deren eingesetzten Filtertechniken vorgestellt und die Effizienz dieser Filtertechniken mithilfe von Studien beleuchtet. Im letzten Teil dieser Arbeit wird ein Anti-Spam-Plug-In für den Microsoft Exchange Server 2007 zur Abwehr von Spam vorgestellt, welches vom Autor für Secure Business Austria entwickelt worden ist. Greylisting ist ein Verfahren zur Spambekämpfung, bei welchem E-Mails von unbekannten Sendern temporär am E-Mail-Server abgewiesen werden und erst nach einem weiteren Zustellversuch angenommen werden. Der Autor verwendet zur Spam-Abwehr einen modifizierten Ansatz des Greylisting: Unbekannten Sendern wird eine E-Mail zugestellt mit der Aufforderung, sich auf einer Webseite mithilfe einer Captcha-Aufgabe als „Mensch“ zu verifizieren. Erst nach erfolgreicher Verifizierung wird die E-Mail an die Empfänger-Mailbox zugestellt.

Diplomarbeitsposter Zarakowitis Harald

Harald Zarakowitis

Masterstudium Business Informatics
Abstract:

Informationssicherheit ist immer ein Wechselspiel zwischen Usability und Sicherheit. Ein Gleichgewicht zu finden, in dem ein Maximum an Sicherheit und ein Maximum an Usability herrscht, ist eines der Hauptprobleme. Während aber IT Personal von Usability redet sind Entscheidungsträger in Organisationen an Kosteneffizienz interessiert. Da historische Informationen über IT Angriffe fehlen führt der einzige Weg über Risiko Management. Methoden wie ALE (Annual Loss Expectancy) oder ROSI (Return on Security Investment) sind, oberflächlich betrachtet, einfach zu verwenden, aber es zeigt sich schnell das diese Methoden alles andere als akkurat sind. Der Fokus dieser Arbeit liegt daher nicht in der Entwicklung einer weiteren Lösung, sondern in der Evaluierung von bestehender Software, die IT Risiko Management unterstützt. Drei Tools (GSTool, CRISAM Explorer, AURUM) wurden aus zwei Gründen evaluiert. Erstens um zu entscheiden welches Tool die beste Unterstützung für einen Risiko Manager bietet und zweitens um Kriterien für eine Evaluierung zu definieren. Das System kann so angepasst werden, dass es den einzelnen Präferenzen von Unternehmen entspricht. Gängige Evaluierungsmethoden sind spezialisiert auf die einzelnen Risiko Management Methoden und geben nur einen oberflächlichen Überblick. Sie be-rücksichtigen nicht, dass die meisten Methoden ohne geeignete Softwareunterstützung nicht effizient zu verwenden sind. Das Ergebnis der Evaluierung zeigte, dass die wichtigsten Kriterien Automatisierung und Kosten / Nutzen Analyse sind. Automatisierung, weil IT Umgebungen einem ständigen Wandel unterzogen sind und demnach auch die Risikobewertung. Kosten / Nutzen Analyse, weil mit jedem zusätzlichen Element in der Umgebung der Lösungsraum überproportional ansteigt. AURUM hat deswegen entscheidende Vorteile gegenüber den anderen Tools, da es neue Wege im Bereich der Automatisierung von Risikoberechnungen und der computerunterstützten Kosten / Nutzen Analyse geht.

Arbeitsbereich (vor 2018) Interactive Media Systems

Diplomarbeitsposter Brosch Nicole

Nicole Brosch

Masterstudium Medieninformatik
Abstract:

This diploma thesis deals with the automated production of non-photorealistic animations from real video sequences. Stylization of video data poses the challenge of producing temporally coherent results. Video objects that are present in consecutive frames should be experienced as a functional unit, to enable users to regard the video as an animation, with disturbing artifacts largely suppressed. Therefore the work starts with a survey of different approaches described in the literature to enforce temporal coherence, and puts an emphasis on effects operating on image-space data. The main contribution of the thesis is to enlarge and enhance a library of image and video processing algorithms, which is already in use for educational purposes. In this context, a new cartoon-like image effect and, building on that, several video effects are developed. The implemented image effect creates a new style orientated on basic characteristics of cartoons. For this purpose, a color reduction is first applied to flatten details. Additional steps (highlighting edges, adding brightness and color detail, ...) offer parameters to control the influence of several characteristics of the result. The respective video effects refer to different approaches described in the literature to enhance temporal coherence. One of those video effects is based on techniques which process a video globally and attempt to include more than only one frame in the color reduction process. Another video effect relates colors of adjacent frames. A third video effect defines, inspired by approaches working with frame differences, a decision function to reduce flickering. A variety of stylization results are illustrated and evaluated. To verify and compare the effectiveness of the implemented effects in combination with different techniques, frame differences are analyzed. Finally, the additional benefit of the framework and, in particular, of the added effects for educational purposes is discussed.

Diplomarbeitsposter Gross Roland

Roland Gross

Masterstudium Visual Computing
Abstract:

Im Moment verwenden viele Stereo Matching Algorithmen (global sowie lokal) nur Intensitätswerte um Disparitätsbilder zu berechnen. Aktuelle Studien zeigen jedoch, dass die Verwendung von Farbinformation die Robustheit und Ergebnisqualität der Matchingkostenberechnung erhöhen kann. Dies zeigt sich besonders deutlich an radiometrisch verzerrten Basisdaten. Einfache Beispiele für radiometrische Verzerrungen sind zum Beispiel unterschiedliche Belichtungszeiten oder Beleuchtungsverhältnisse. Die Diplomarbeit beschäftigt sich mit der Frage, ob die Verwendung von Farbinformation und radiometrischen Transformationen bessere Ergebnisse als herkömmliche intensitätsbasierte Ansätze liefern kann. Dazu werden fünf Farbräume (Graustufen, RGB, AC1C2, I1I2I3, LUV), fünf radiometrische Transformationen (Mittelwert, Marr-Hildreth Operator, Rank, SoftRank, Bilaterale Subtraktion), vier Kostenberechnungsverfahren (Summe absoluter Differenzen, Birchfield Tomasi, Normalisierte Kreuzkorrelation, Hierarchische Transinformation) und zwei Optimierungsverfahren (Lokal, Global) in einer Evaluierung auf zehn Testdatensätzen untersucht. Weiters wird untersucht, ob eine Verwendung von Gewichten in radiometrischen Transformationen, normalisierter Kreuzkorrelation und Aggregation zu besseren Ergebnissen führt. Dabei wird auch ein Vergleich zwischen der Gewichtsberechnung nach Yoon und geodätischen Gewichten angestellt. Die Ergebnisse der Evaluierung zeigen, dass die Verwendung von Farb\-information, radiometrischen Transformationen und Gewichten die Ergebnisqualität signifikant erhöht.

Diplomarbeitsposter Kölndorfer Petra

Petra Kölndorfer

Masterstudium Medizinische Informatik
Abstract:

Kinetosis is the medical expression for motion sickness. It comes from the Greek word “kinein” which means “to move”. In this master’s thesis the effects of motion sickness and cybersickness are described. This topic is first discussed on the basis of existing works in which former approaches are demonstrated. Motion sickness occurs when the information of all parts of the equilibrium organ - ears, muscles and eyes - do not send consistent information to the brain. There exist three main theories which all try to describe the mechanism of becoming motion or cybersick. Besides this there are also other factors which cause cybersickness. The symptoms of the illness are very different and there are many of them, for example eye strain, headache and nausea. The first part of the thesis describes these medical foundations in detail. The practical part of this work tests the hypothesis if a short time training programme is useful for people who suffer from cybersickness. To prove this a virtual environment was built to train test persons within four days. The training itself required them to watch a replay of a racing game for up to 25 minutes per session. On each of the four days exactly one session was held. A questionnaire was created to quantify the results of this training. The sickness scores were analyzed and due to this data the conclusion was drawn. At the end a small outlook to the future of cybersickness research is given.

Diplomarbeitsposter Rott Pamela

Pamela Rott

Masterstudium Medieninformatik
Abstract:

Image Matting zielt darauf ab, ein Vordergrundobjekt aus einem beliebigen Bild herauszulösen, welches als eine Kombination aus Vorder- und Hintergrund beschrieben wird. Das Resultat eines Mattingverfahrens ist eine Alpha Matte, welche den Einfluss des Vorder- sowie Hintergrundes an jedem Pixel im Bild definiert. Die Vielzahl der Mattingverfahren bringt Resultate von unterschiedlicher Qualität hervor. Um die visuelle Qualität einer Alpha Matte festzustellen, können sowohl subjektive als auch objektive Evaluierungsverfahren eingesetzt werden. Der Mensch spielt hier eine wesentliche Rolle, da das menschliche Auge Kriterien zur Beurteilung heranzieht, die entscheidender sein können als die pixelweise Differenz zum Referenzbild. Subjektive Evaluierungsverfahren in Form von Benutzerstudien sind jedoch sehr aufwändig, weshalb automatisierte Berechnungen notwendig sind. Diese Berechnungen werden aber nur dann erfolgreich sein, wenn die Bewertung des Menschen damit korreliert. Dies motiviert die Verwendung von HVS (Human Visual System)-basierten Methoden. In dieser Studie werden Faktoren wie die räumliche Verbundenheit (Connectivity), der Gradientenverlauf und die auftretenden Artefakte im Vorder- und Hintergrund herangezogen und durch eine Auswahl an Probanden sowie automatisierte Berechnungen bewertet. Anschließend werden die Resultate der Probanden und der automatisierten Berechnungen verglichen. Die Auswertung der Studie hat gezeigt, dass Objekte mit starker Verbundenheit und niedrigem Gradientenverlauf von den Probanden tendenziell als visuell hochwertig eingestuft werden. Traditionell verwendete pixelbasierte Fehlermaße korrelieren in diesem Fall nicht mit den Probanden und dementsprechend nicht mit der visuellen Wahrnehmung. Bei der im Vorfeld getroffenen Annahme hingegen, dass Artefakte im Hintergrund störender wirken als im Vordergrund, konnte im Rahmen dieser Studie keine Einigkeit unter den Probanden festgestellt werden.

Diplomarbeitsposter Schleser Tobias

Tobias Schleser

Masterstudium Visual Computing
Abstract:

Bei der Gesichtserkennung wird versucht, eine unbekannte Anzahl an Gesichtern in einem Bild oder Video zu erkennen. Dabei geht es darum, möglichst alle Gesichter zu erkennen und gleichzeitig eine geringe Fehlerrate aufrechtzuerhalten. Weiters soll die Zeit für die Analyse eines Frames minimiert werden. In dieser Arbeit wird Gesichtserkennung im Kontext historischer Dokumentarfilme untersucht. Das Material sind aus den 1920er Jahren stammende Filme des sowjetischen Regisseurs Dziga Vertov. Das (digital) verfügbare Material weist zum Teil schwere Mängel wie beispielsweise Flimmern, Kratzer, Schmutz, schlechte Beleuchtung und Kontrast auf. Außerdem handelt es sich um schwarz-weiß Filme ohne Ton. Ausgehend von einer Literaturrecherche über die verschiedenen Ansätze zur Gesichtserkennung wurde eine Methode von Viola und Jones als Basis dieser Arbeit ausgewählt. Der Ansatz verwendet eine Kaskade von Klassifikatoren um Gesichter von nicht-Gesichtern zu unterscheiden. Die einzelnen Stufen dieser Kaskade bestehen aus einer Hierarchie von Klassifikatoren, welche aus einfachen, Haar-ähnlichen Features erstellt werden. Der Vorteil der Kaskade ist, dass für die einzelnen Stufen nur eine mittelmäßig gute Fehlerrate erreicht werden muss, da sich die individuellen Raten zur Gesamtfehlerrate aufmultiplizieren. Diese Arbeit beschreibt, wie die Methode für die Gesichtserkennung aufgebaut ist, wie sie an das alte Material angepasst wird und wie die konkrete Implementierung aussieht. Außerdem werden einige Nachverarbeitungsschritte vorgeschlagen, welche die Erkennungs- und Fehlerrate verbessern. Es werden detailierte Ergebnisse für einige Beispielszenen aus den Dokumentationen präsentiert und der Rechenaufwand für Training und Erkennung analysiert.

Arbeitsbereich (vor 2018) Business Informatics

Diplomarbeitsposter Karall Dominik

Dominik Karall

Masterstudium Software Engineering & Internet Computing
Abstract:

In Softwareprojekten werden Daten strukturiert um diese einfacher abzufragen und zu verarbeiten. Bei neuen Software Releases unterliegen diese Strukturen stetigen Änderungen, da teilweise neue Strukturen hinzugefügt, oder bestehende verändert werden. Oftmals wird mit einer Technologieumstellung auch eine Veränderung der Datenstrukturen notwendig. Bei der Änderung der Strukturen muss in vielen Fällen auf die vorhandenen Daten Rücksicht genommen werden, da diese nicht verloren gehen dürfen und in die neue Struktur zu migrieren sind. Diese Informationsmigration ist eine zeitintensive Aufgabe, da Experten die Transformationsregeln für die Migration manuell erstellen müssen. Um diese Aufgabe effizienter zu lösen, gibt es den Ansatz des Schema Matchings. Bei diesem Verfahren werden automatisch die Transformationsregeln, in Form von sogenannten Mappings, erstellt, welche danach auf die Daten angewendet werden um diese zu migrieren. Der Forschungsprototyp SmartMatcher, der in dieser Arbeit behandelt wird, ist ein Schema Matching Werkzeug das auf der TU Wien entwickelt wurde. Dieser Prototyp erlaubt es auf Basis eines Quell-/Zielschemas mit einer Trainingsinstanz Mappings zu generieren. Vor dieser Arbeit wurde der SmartMatcher mit einer neuen internen Datenstruktur ausgestattet welche es in Zukunft ermöglicht komplexere Migrationsregeln abzuleiten. Die Auswirkung der Datenstruktur bezüglich der Qualität der generierten Mappings soll in dieser Arbeit evaluiert werden. Desweiteren wird ein neues Feature integriert, welches es erlaubt vorhandene Mappings zu importieren. Damit erlangt der SmartMatcher die Fähigkeit auch Ergebnisse anderer Matching Werkzeuge zu verarbeiten und zu verbessern. Der SmartMatcher hatte bislang keine Möglichkeit für ein Schema mehrere Trainingsinstanzen zu verarbeiten. Deshalb soll ein weiteres Feature, genannt Multiple Samples Feature, implementiert werden, um die Übersichtlichkeit von Trainingsinstanzen zu wahren.

Diplomarbeitsposter Mauerhofer Roman

Roman Mauerhofer

Masterstudium Business Informatics
Abstract:

Model engineering is a current trend in software engineering. Its aim is the automatic generation of executable code from abstract software models. Latest techniques focus mainly on functional aspects of the generated code, e.g. how Java code is generated from UML diagrams. However, aspects of quality which do not come from the technical requirements are rarely considered. An important aspect of quality represents among other things the accessibility of web pages. Legislation in Austria requires a barrier free access to official internet appearances for humans with special needs. This should have been implemented until 1st of Jan. 2008. In order to determine the accessibility of web applications so called Web Accessibility Guidelines (WAG) have been developed. For example, there are the WCAG (Web Content Accessibility Guidelines) of the W3C, which already became generally accepted as a de facto web accessibility standard. In order to fulfil the conformity with the legal regulations demanded above, public internet appearances must correspond to the respectively demanded guidelines. In this diploma thesis it is evaluated, in which way modern component frameworks and code generators fulfil the requirements resulting from the given guidelines. Therefore, WAG conform static html pages are used as a starting point. These static pages are developed to dynamic web applications by means of chosen component frameworks and code generators. The result of the generation process of each chosen development technology is finally rendered in form of html pages in the browser. These rendered pages are evaluated by means of WAG evaluation tools (test programs for the WAG conformance) regarding guidelines selected before. The results of this conformance evaluation demonstrate, to which extent the selected Web accessibility guidelines are violated. This evaluation also highlights which of the used development environments are better in terms of WAG conformance.

Diplomarbeitsposter Mehlführer Andreas

Andreas Mehlführer

Masterstudium Software Engineering & Internet Computing
Abstract:

Das WWW wurde zu einem der wichtigsten Kommunikations- und Informationsmedium. Firmen können das Internet für die verschiedensten Anwendungen einsetzen. Ein mögliches Einsatzgebiet ist die Informationsbeschaffung. Da das Internet aber eine so große Menge an Information anbietet, ist es notwendig zwischen relevant und irrelevant zu unterscheiden. Web Scraper können verwendet werden um nur bestimmte Inhalte aus dem Internet zu sammeln. Es gibt sehr viele verschiedene Scraper, daher haben wir uns entschieden ein Case Study mit einem Unternehmen durchzuführen. Das Unternehmen ist ein führender Anbieter von online Spielunterhaltung. Für die Sportwettenplattform werden unter anderem Ereignisdaten von externen Feedprovidern verwendet. Daraus resultiert eine starke Abhängigkeit von diesen Providern. Ein weiteres Problem ist, dass weniger populäre Sportarten und Unterligen von diesen Providern größtenteils nicht zur Verfügung gestellt werden. Durch Dateninkonsistenzen der einzelnen Feedprovider sind aufwändige, händische Überprüfungen notwendig. Die Daten sollten idealerweise von einem unternehmensinternen Programm bereitgestellt werden. Eine solche Möglichkeit bietet der Einsatz eines bereichsspezifischen Web Scrapers. Dieser durchsucht bestimmte Seiten im Internet automatisiert nach bestimmten Informationen ab. Für das Unternehmen würde das also bedeuten, dass sie eine größere Abdeckung der Ligen anbieten könnten und nicht mehr von anderen Providern abhängig sind. Das erste Ziel der Diplomarbeit ist es, eine funktionelle Spezifikation zu erstellen für die Verwendung eines Web Scrapers. Acht Web Scraper werden ausgewählt und bewertet. Die Bewertung erfolgt anhand des auf die funktionale Spezifikation aufbauenden Evaluierungskatalogs. Der Katalog ist so konzipiert, dass er auch für weitere Projekte im Unternehmen verwendet werden kann. Die Evaluierung liefert als Ergebnis eine Empfehlung, welcher Web Scraper sich am besten für den Einsatz in diesem Bereich eignet.

Andere Institute der Technischen Universität Wien

(vor 2018) Institut für Analysis und Scientific Computing

Diplomarbeitsposter Cakmak Alime

Alime Cakmak

Masterstudium Informatikmanagement
Abstract:

Biosensors came to forth as a result of the integration of these biological matters which help the animals to sense these situmulu with analytical sistems. In general, biosensors can be defined as bio-analytical devices that are developed through the integration of the alternativeness feature of biological molecules and systems and the operative capability of modern electronic techniques. Besides that, biosensors are developed in a context of multidisciplinary understanding including all the knowledge background of differing sciences such as biology, physics, chemistry, bio-chemistry and engineering. We have explained the necessity of biosensors so far. However, in order to facilitate the access to biosensors (for example to control the patients in a hospital systematically; to save the data in order to observe the further developments; to make systematic health controls of the students of a certain school etc.), to widen the application of bio-censor systems the steps cited below should be followed: First of all these biosensors should be measured by amplifier; these measurements should be registered as matlab.csv datei; they should be visualised by using simulink toolbox; they should be stored in databank and reaching to these evaluations should be made available through webservice from anywhere. So in the first section of this work, you may find the structures, general features, application areas and general signal courses of some biosensors such as GSR (Galvanic Skin Response) Sensor, Respiration Sensor, EOG (Elektrookulografie), EKG (Elektrokardiogramm) and Pulse Sensor. In the second section, you may find all the documentation which would help us to register the measurements that are made by biosensors cited above, to store them in order to follow the changes and to make them visual.

Diplomarbeitsposter Furtana Abdullah

Abdullah Furtana

Masterstudium Informatikmanagement
Abstract:

Biosensors came to forth as a result of the integration of these biological matters which help the animals to sense these situmulu with analytical sistems. In general, biosensors can be defined as bio-analytical devices that are developed through the integration of the alternativeness feature of biological molecules and systems and the operative capability of modern electronic techniques. Besides that, biosensors are developed in a context of multidisciplinary understanding including all the knowledge background of differing sciences such as biology, physics, chemistry, bio-chemistry and engineering. First of all these biosensors should be measured by amplifier; these measurements should be registered as matlab.csv datei; they should be visualised by using simulink toolbox; they should be stored in databank and reaching to these evaluations should be made available through webservice from anywhere. So in the first section of this work, you may find the structures, general features, application areas and general signal courses of some biosensors such as GSR (Galvanic Skin Response) Sensor, Respiration Sensor, EOG (Elektrookulografie), EKG (Elektrokardiogramm) and Pulse Sensor. In the second section, you may find all the documentation which would help us to register the measurements that are made by biosensors cited above, to store them in order to follow the changes and to make them visual.

(vor 2018) Institut für Wirtschaftsmathematik

Diplomarbeitsposter Brodt Raffaela

Raffaela Brodt

Masterstudium Business Informatics
Abstract:

Die Balkanstaaten treten nach den Transformationen ihrer kommunistischen Regime in demokratische Systeme mit der Annäherung an die Europäische Union wieder in den Blickpunkt der Öffentlichkeit. Mit den Osterweiterungen 2004 und 2007 wurden drei Länder der Region bereits in die EU aufgenommen. Albanien, Bosnien-Herzegowina, Kroatien, Mazedonien, Montenegro und Serbien streben einen möglichst baldigen Beitritt an. Die Entwicklung eines Staates kann nicht autark betrachtet werden, sondern ist auch von den Entscheidungen seiner Nachbarstaaten und der EU abhängig. Für den Balkanraum existiert kein Modell, das diese Zusammenhänge beinhaltet und auf die Besonderheiten der Region eingeht. Das Ziel dieser Arbeit ist die Erarbeitung eines Modells, das die Entwicklungen der Staaten im Hinblick auf einen EU-Beitritt darstellt. Die Länder werden mit ökonomischen, politischen und ideologischen Kennzahlen beschrieben. Deren Grundlage bildet die Historie der Staaten und ihre individuellen Charakteristika. Die Ausgangswerte werden je nach getroffenen Entscheidungen verändert und stellen die Entwicklungen dar. Die Interaktionen der Länder untereinander und mit der EU werden mit Hilfe der Spieltheorie umgesetzt. Eine Simulation des Modells wird als parametrierbare Java-Applikation implementiert. Durch die einstellbaren Werte ist es möglich, direkt auf die Kalkulationen Einfluss zu nehmen. Mit der Simulation können lang- und kurzfristige Entwicklungen der Staaten berechnet werden. Die veränderten Kennzahlen stellen die Ergebnisse dar. Diese werden aufgelistet und können über unterschiedliche Diagramme visualisiert werden. Mit dem Modell und dessen Umsetzung wird ein Werkzeug geboten, das die Entwicklungen der sechs noch nicht in die EU aufgenommenen Balkanstaaten simuliert. Durch die einstellbaren Parameter wird kein allgemein gültiges Resultat erzielt, sondern es ergeben sich eine Vielzahl von Entwicklungen, welche für Betrachtungen des Balkans herangezogen werden können.

Diplomarbeitsposter Guggenbichler Judith

Judith Guggenbichler

Masterstudium Business Informatics
Abstract:

Die Balkanstaaten treten nach den Transformationen ihrer kommunistischen Regime in demokratische Systeme mit der Annäherung an die Europäische Union wieder in den Blickpunkt der Öffentlichkeit. Mit den Osterweiterungen 2004 und 2007 wurden drei Länder der Region bereits in die EU aufgenommen. Albanien, Bosnien-Herzegowina, Kroatien, Mazedonien, Montenegro und Serbien streben einen möglichst baldigen Beitritt an. Die Entwicklung eines Staates kann nicht autark betrachtet werden, sondern ist auch von den Entscheidungen seiner Nachbarstaaten und der EU abhängig. Für den Balkanraum existiert kein Modell, das diese Zusammenhänge beinhaltet und auf die Besonderheiten der Region eingeht. Das Ziel dieser Arbeit ist die Erarbeitung eines Modells, das die Entwicklungen der Staaten im Hinblick auf einen EU-Beitritt darstellt. Die Länder werden mit ökonomischen, politischen und ideologischen Kennzahlen beschrieben. Deren Grundlage bildet die Historie der Staaten und ihre individuellen Charakteristika. Die Ausgangswerte werden je nach getroffenen Entscheidungen verändert und stellen die Entwicklungen dar. Die Interaktionen der Länder untereinander und mit der EU werden mit Hilfe der Spieltheorie umgesetzt. Eine Simulation des Modells wird als parametrierbare Java-Applikation implementiert. Durch die einstellbaren Werte ist es möglich, direkt auf die Kalkulationen Einfluss zu nehmen. Mit der Simulation können lang- und kurzfristige Entwicklungen der Staaten berechnet werden. Die veränderten Kennzahlen stellen die Ergebnisse dar. Diese werden aufgelistet und können über unterschiedliche Diagramme visualisiert werden. Mit dem Modell und dessen Umsetzung wird ein Werkzeug geboten, das die Entwicklungen der sechs noch nicht in die EU aufgenommenen Balkanstaaten simuliert. Durch die einstellbaren Parameter wird kein allgemein gültiges Resultat erzielt, sondern es ergeben sich eine Vielzahl von Entwicklungen, welche für Betrachtungen des Balkans herangezogen werden können.

Diplomarbeitsposter Hirtl Andreas Leopold

Andreas Leopold Hirtl

Wirtschaftsinformatik
Abstract:

Die Analyse der Auswirkungen von finanzieller Entwicklungshilfe auf Entwicklungsländer war in der Vergangenheit Gegenstand von vielen Untersuchungen. Die Resultate haben gezeigt, dass Länder die über einen langen Zeitraum finanzielle Unterstützung erhalten haben, nur wenig Fortschritte in Bezug auf Armutsbekämpfung und Wirtschaftswachstum zu verzeichnen haben. In machen Fällen hat sich die Situation sogar verschlechtert. Ein Grund für diese Entwicklung ist die Verteilung der finanziellen Wirtschaftshilfe. Diese erfolgte oft auf Grundlage von strategischen Einflussfaktoren der Geberländer, wie koloniale Vergangenheit, Abstimmungsverhalten bei der Hauptversammlung der UN, oder anderen geopolitischen Gründen. Faktoren wie Demokratie, gute politische und institutionelle Rahmenbedingungen haben während des Verteilungsprozesses nur eine geringe Rolle gespielt. Daten deuten darauf hin, dass finanzielle Wirtschaftshilfe in einem Land mit guten politischen und institutionellen Rahmenbedingungen einen positiven Einfluss auf das Wirtschaftswachstum hat. Daten unterstützen auch die Vermutung, dass Wirtschaftshilfe in manchen Fällen negative Auswirkungen auf Entwicklungsländer hat. Ein theoretisches Wirtschaftsmodell, das sich mit dieser Problemstellung auseinandersetzt, wird analysiert. Das Modell zeigt, dass finanzielle Wirtschaftshilfe die Einkommensverteilung zu Lasten der armen Bevölkerungsschichte beeinflussen kann und somit die Einkommensunterschiede zwischen Arm und Reich vergrößert. Die Heavy Indebted Poor Countries (HIPC) Initiative und Programme wie Poverty Reduction Strategy Papers (PRSP) haben die Verteilung von finanzieller Wirtschaftshilfe zugunsten von politischen und institutionellen Faktoren beeinflusst. Der letzte Teil dieser Arbeit beschäftigt sich mit den Geldflüssen der OECD-Länder. Im speziellen werden Geldflüsse anhand von quantitativen Maßzahlen untersucht.

(vor 2018) Department für Raumplanung

Diplomarbeitsposter Traurig Peter

Peter Traurig

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Die vorliegende Arbeit gibt einen systematischen Überblick über die vergangenen zwei Jahrzehnte interdisziplinärer Forschungsarbeit zum Entscheidungsverhalten von Individuen in sogenannten Sozialen Dilemmasituationen, die den Sozial- und Wirtschaftswissenschaften durch den Einsatz leistungsfähiger experimenteller Methoden entscheidende neue Impulse beschert hat. Teil 1 dieser Arbeit stellt verschiedene Theorien zum Studium individuellen Verhaltens und deren Prognosen über das jeweils zu erwartende Verhalten vor. Den Ausgangspunkt der Argumentation bildet hierbei die Überzeugung, dass das in der Ökonomie vorherrschende Verhaltensmodell, der Homo Oeconomicus, die soziale Realität ohne Berücksichtigung prosozialen, insbesondere reziproken Verhaltens weit weniger universell abzubilden in der Lage ist als allgemein angenommen. Reziprokes Verhalten ist im Gegensatz zu strikt rationalem (egoistischen, nutzenmaximierenden) Verhalten durch die Einbeziehung von Fairness-Erwägungen gekennzeichnet: werden Individuen vom Gegenüber fair oder freundlich behandelt, sind sie ihrerseits bereit, ihr Gegenüber fair (kooperativ) oder freundlich zu behandeln, bzw. faires Verhalten zu belohnen, und unfaires Verhalten zu bestrafen, selbst wenn dies mit materiellen Kosten (für das Individuum) verbunden ist. Für welche Reaktion sich Individuen entscheiden hängt dabei von einer Vielzahl von Faktoren ab, die sich in situative (z.B. soziale Normen, institutionelle Arrangements, in die Entscheidungen eingebettet sind usw.) und die Persönlichkeit Charakterisierende unterscheiden lassen.

(vor 2018) Institut für Managementwissenschaften

Diplomarbeitsposter Baumgartner Markus

Markus Baumgartner

Masterstudium Business Informatics
Abstract:

Diese Arbeit behandelt das systematische Management von Kundenfeedback und dessen Chancen und Risiken in einem qualitätsorientierten Kontext. Durch intensiveren Verdrängungswettbewerb und kürere Produktlebenszyklen ist für Unternehmen ein genaues Eingehen auf die Kunden und deren Erwartungen, hinsichtlich einer hochwertigen Qualitätserfüllung, unumgänglich. In der Arbeit werden die Ursache und Wirkung von Kundenfeedback erörtert und ein kundenorientiertes Qualitätsmanagementsystem aus der Perspektive des COSO II Standards entworfen. Anschließend wird ein Modell für ein Kundenfeedbacksystem konzipiert, das Kundenzufriedenheit, Kundenreaktion und Kundenbindung in einem Wahrscheinlichkeitsmodell abbildet. Dabei werden die Möglichkeiten zum Nutzen und Lernen von Kundenfeedback nähergebracht. Abschließend wird eine Kosten-/Nutzenrechnung zur monetären Bewertung des Erfolgs des Kundenfeedbacksystems entworfen. Dieser Aspekt dient vor allem, um den dienlichen Charakter eines Kundenfeedbacksystems quantitativ näherzubringen. Insgesamt zeigt sich, dass Lob und Beschwerden von Kunden durch ein bewusstes Stimulieren und Beeinflussen der Auftrittswahrscheinlichkeiten zum monetären Erfolg beitragen können, welcher sich in der Verlängerung von profitablen Kundenbeziehungen äußert. Die längeren Kundenbeziehungen werden durch erweiterte Handlungsoptionen bei abwanderungsgefährdeten Kunden und dem permanenten Rückkoppeln von Kundenfeedback in das Unternehmen und die Produkte und Leistungen erreicht.

Diplomarbeitsposter Doppler Katharina

Katharina Doppler

Masterstudium Business Informatics
Abstract:

Diese Diplomarbeit befasst sich mit dem Thema Organisationskultur, was diese bedeutet, wie man sie messen kann und wie beziehungsweise ob man sie beeinflussen oder verändern kann. Nach einer Begriffserklärung und den unterschiedlichsten Definitionen und Modellen von Organisationskultur befasst sich die Arbeit in weiterer Folge mit den Funktionen von Organisationskultur und den Auswirkung von einer starken Organisationskultur auf das Unternehmen. Weiters wird die Kommunikation im Unternehmen, welche eine wichtige Rolle in der Organisationskultur spielt, behandelt. Die Frage wie beziehungsweise ob wir Organisationskultur beeinflussen können bildet einen wichtigen Abschnitt des theoretischen Teils der Arbeit. Auch die möglichen Erhebungsmethoden sowie deren Vor-und Nachteile werden erläutert. Im zweiten Teil befasst sich die Arbeit mit der empirischen Studie, welche an einem Unternehmen mittels einer Befragung durch standardisierte Fragebögen durchgeführt wurde. Sowohl die Methode der Durchführung als auch die Ergebnisse und deren Interpretation werden im zweiten Teil der Arbeit dargestellt. Die daraus folgenden Schlussfolgerungen und Handlungsempfehlungen für das Unternehmen bilden den Abschluss dieser Arbeit.

Diplomarbeitsposter Guwak Angela

Angela Guwak

Masterstudium Business Informatics
Abstract:

Die zentrale Frage dieser Arbeit ist, welche Modelle der Kommunikation es gibt, und mit welcher Methodik man diese bei Gesprächen umsetzen kann. Der Schwerpunkt liegt in der Problematik der „face-to-face“-Kommunikation. Es wird versucht den Begriff Kommunikation anhand der Axiome von Paul Watzlawick zu beschreiben. Weiters werden die Modelle von Friedemann Schulz v. Thun und Eric Berne behandelt um die Frage zu klären wie man erfolgreich kommuniziert. Den Abschluss bildet die Fallstudie „Kooperation und Kommunikation im Unternehmen ISIS Papyrus“.

Diplomarbeitsposter Pfannenstill Jochen

Jochen Pfannenstill

Masterstudium Business Informatics
Abstract:

Ziel der vorliegenden Arbeit ist die Optimierung des Anfrage- und Beschwerdemanagements einer österreichischen Software-Firma. Zur Evaluierung des Ist-Standes des Anfrage- und Beschwerdemanagements wird eine online Kundenumfrage durchgeführt, durch welche die aktuelle Kundenzufriedenheit und die Kundenbedürfnisse, sowie auch die derzeitige Qualität des Anfrage- und Beschwerdemanagements erhoben werden soll. Dieser Ist-Stand dient als Grundlage für einen Soll/Ist-Abgleich, durch den eine mögliche Optimierung des Sollzustandes erreicht werden soll. Als Basis für die Evaluierung eines Soll-Zustandes des Anfrage- und Beschwerdemanagements dient ein theoretischer Teil. In diesem werden die Grundlagen von Kundenzufriedenheit, Kundenbindung, Beschwerdemanagement und die Zusammenhänge der einzelnen Bereiche ausführlich erläutert.

Diplomarbeitsposter Schindler Sonja

Sonja Schindler

Masterstudium Business Informatics
Abstract:

Um das in einem Forschungsinstitut vorhandene Wissen auch für alle MitarbeiterInnen zugänglich zu machen kommt seit zirka zwei Jahren ein so genanntes MediaWiki als Wissensdatenbank zur Anwendung. Ziel dieser Diplomarbeit war es, das so genannte InstitutsWiki auf hinderliche Faktoren für die Benutzung zu analysieren und diese so weit wie möglich durch den anschließend eingeleiteten Verbesserungsprozess zu eliminieren. Nach einer eingehenden Auseinandersetzung mit dem theoretischen Wissen über Wiki-Systeme befasst sich die Arbeit in weiterer Folge mit ausgewählten qualitativen und quantitativen Methoden der Sozialforschung. Der praktische Teil beinhaltet Erläuterungen zur Durchführung, Aufbereitung und Analyse der Interviews und des Fragebogens. Für die Interviews wurde ein Leitfaden erstellt anhand dessen vier ForscherInnen interviewt wurden. Diese Interviews wurden transkribiert und nach Themen geordnet. Mittels der Erkenntnisse aus den vier Interviews wurde ein Fragebogen für alle Beschäftigten erstellt und dessen Ergebnisse anschließend vor allem auf die Frage „Welche Faktoren beeinflussen die Nutzung des Intranet-Wikis durch die MitarbeiterInnen?“ analysiert. Diese Faktoren reichen von geringer Technikaffinität der MitarbeiterInnen über Bevorzugung des internen Servers, interpersonaler Kommunikation und E-Mails bis hin zum Fehlen der notwendigen Kenntnisse über die Möglichkeiten eines Wikis bzw. der Wiki-Syntax. Mit den Ergebnissen der Analyse wurde ein Verbesserungsprozess initiiert, welcher vor allem auf Erweiterungen der Software basiert. Es wurde ein Editor integriert, Verweise zu Dateien am internen Server können nun gleich direkt vom Webbrowser aus mit der entsprechenden Anwendung gestartet werden und bei jeder Änderung an beobachteten Seiten im InstitutsWiki erfolgt eine E-Mail-Benachrichtigung an die ArbeitnehmerInnen.

In Zusammenarbeit mit anderen wissenschaftlichen Einrichtungen

(vor 2012) E029 - Institut "integriert studieren"

Diplomarbeitsposter Roedl Lukas

Lukas Roedl

Masterstudium Informatikmanagement
Abstract:

Diese Magisterarbeit beschäftigt sich mit den gerontologischen Aspekten, die bei der Ableitung von Gesundheitsparametern bei Home-Monitoring Systemen mittels Verhaltensmustererkennung zu Tage treten. Die Arbeit fällt somit in das spannende Gebiet des Ambient Assisted Living (AAL), welches in den letzten Jahren einen wahren Boom erlebt, da in der heutigen Zeit das Altern an sich mehr denn je als gesellschaftliches Phänomen wahrgenommen wird. Es werden die gerontologischen Aspekte, die bei der Ableitung von Gesundheitsparametern beim Home-Monitoring zu Tage treten, herausgearbeitet und es werden die Konzepte näher betrachtet, durch deren Verständnis und Beachtung man ein Projekt, das sich mit der Detektion von Gesundheitsparametern beschäftigt, zu einem erfolgreichen Abschluss bringen kann. In diesem Zusammenhang wird sowohl der demografische Wandel thematisiert und kritisch betrachtet, als auch die gerontologischen Aspekte. Zu diesen zählen unter anderem der Stellenwert, den das selbstbestimmte Altern heute bei den Menschen einnimmt, und der Wandel vom Defizitmodell zum Kompetenzmodell, der sich bei der Betrachtung alter Menschen vollzogen hat. Darüber hinaus werden auch die pädagogischen und didaktischen Aspekte in Betracht gezogen, wobei natürlich besonderes Augenmerk auf die Anforderungen alter Menschen gelegt wird. In diesen Bereich fällt auch die Thematik des "Lebenslangen Lernens", die heutzutage oftmals als Zukunft des Lernens diskutiert wird. Zu guter Letzt wird noch das Thema der Demenz - im speziellen der Alzheimer-Erkrankung - aufgegriffen und ausgehend von der medizinischen Betrachtung, näher auf das Krankheitsbild eingegangen. Auch werden didaktische Konzepte vorgestellt, die speziell für demente Menschen in Betracht kommen, um diese bestmöglich zu fordern aber auch zu fördern.

Universität Wien

Diplomarbeitsposter Esin Bülent

Bülent Esin

Masterstudium Informatikmanagement
Abstract:

Meine Diplomarbeit beinhaltet die Größe der Technologiebranche der Türkei. Neben der Größe wurden auch die Wirtschaft und der Untergrund auf einer rationellen Ebene ausgewertet. Die Kriterien der analysierten Statistiken wurden auf sozioökologischer, soziopolitischer und wissenschaftlicher Basis ausgewertet. Die Auswirkung der Technologieentwicklung auf der Gesellschaft, die Bildungsbasen, Einkommensverteilungen, die Ansiedlungen der Dörfer und Städte wurden in die Bewertung miteinbezogen, wobei das Geschlecht auch eine Rolle spielt. Von dieser Seite berücksichtigt meine Diplomarbeit, sowohl die Wirtschaft als auch die Technologiebranche.

Diplomarbeitsposter Hartjes Rudolf

Rudolf Hartjes

Masterstudium Business Informatics
Abstract:

Die Thematik des barrierefreien Internet nimmt in Österreich einen relativ geringen Stellenwert ein und wird primär unter einem sozialen Aspekt betrachtet. Untersuchungen zufolge sind die Hauptgründe für das Fehlen barrierefreier Internetangebote ein erwarteter hoher finanzieller und technischer Aufwand sowie mangelnde Fachkenntnis seitens der Betreiber . Um den zu erwartenden Aufwand zu konkretisieren, wurde ein Konzept zur Erstellung barrierefreier Websites erarbeitet. Die Analyse des wirtschaftlichen Nutzens der Barrierefreiheit erfolgte im Rahmen einer Single Embedded Case Study nach Yin. Diese Case Study bediente sich zum einen eines Vergleiches der Zugriffsstatistiken der nicht barrierefreien Version der Website mit jenen der barrierefreien Website. Hierbei erreichten sämtliche quantitativen und qualitativen Metriken der barrierefreien Website signifikant (p<0,05) bessere Werte als jene der nicht barrierefreien Website. Der zweite Teil der Case Study bestand in einer Analyse der Kosten und Nutzen der Barrierefreiheit, welche anhand dieses Fallbeispiels durchgeführt wurde. Bereits nach zwei Monaten konnte durch die barrierefreie Webpräsenz ein Umsatzzuwachs in Höhe der für die Einführung der Barriere angefallenen Kosten verzeichnet werden.

Diplomarbeitsposter Klutich Christian

Christian Klutich

Masterstudium Informatikmanagement
Abstract:

Diese Magisterarbeit befasst sich mit den aktuellen Ausprägungen des E-Government in Österreich mit besonderem Bezug auf die österreichische Bürgerkarte. Es werden Definitionen, Interaktionsstufen und Anwendungsbereiche von E-Government im Allgemeinen erläutert und weiterführend auf den aktuellen Stand und die gesetzlichen Grundlagen in Österreich Bezug genommen. Weiters wurden E-Commerce und E-Government miteinander verglichen: Da sich E-Commerce in Österreich sehr großer Beliebtheit erfreut, wurden dessen Erfolgsfaktoren und Vertrauensmodelle herangezogen und darauf basierend für E-Government abgeleitet. Des Weiteren werden die Funktionen der österreichischen Bürgerkarte, die zugrunde liegende Technik und die unterschiedlichen Einsatzmöglichkeiten beschrieben. Nachfolgend wird die Frage nach der aktuellen Akzeptanz der Bürgerkarte aufgeworfen und auf lautgewordene Kritik eingegangen. Abschließend beschäftigt sich diese Magisterarbeit mit dem für die österreichische Bürgerkarte relevanten Teil der Kryptographie und dem technischen Hintergrund der Bildung von Stammzahl und bereichsspezifischen Personenkennzeichen.

Diplomarbeitsposter Momeni Roochi Elaheh

Elaheh Momeni Roochi

Masterstudium Information & Knowledge Management
Abstract:

Incredible volumes of information from millions of public Web portals are readily accessible from virtually any computer in the world. We can see this as an enormous repository of information, which brings signif ficant business value for companies dedicated to e-commerce activities. However, the main problems with using this information are (I) information is published in di fferent, not machine-processable formats, (II) lack of services that match and store information from various sources in a homogenous processable structure, and (III) accessible datasets are rarely provided with e-commerce concepts in mind, which makes them difficult to use by e-commerce applications. The main goal of this thesis is to investigate the methodologies and components required for combining and integrating information into machine-processable dataset from diff erent Web data sources, based on suitable e-commerce ontologies. The main proposed component is an intelligent matching agent for finding information about a particular product from various available sources, as well as wrappers that extract the data from different sources to a machine-processable format. Each product category in an RDF dataset is created according to an individual ontology, which in turn is based on a main ontology. Relations between all business entities for each product category are described by URIs, which are also taken from a related ontology. In order to demonstrate proposed methodology, the process of wrapping and matching the data from two major public datasets will be discussed in detail as an example.

Diplomarbeitsposter Schneeweiss Paul

Paul Schneeweiss

Masterstudium Business Informatics
Abstract:

Im Mittelpunkt der Arbeit stehen das Phänomen der kollektiven Intelligenz und die Frage inwieweit diese, erzeugt durch eine Internetcommunity, zur Optimierung eines Portfolios bzw. zur Prognose von Aktienkursen, anwendbar ist. Dazu werden einleitend Onlinecommunitys hinsichtlich ihrer Struktur, ihrer Mitglieder und deren Motivation daran teilzunehmen, untersucht, sowie daraus abgeleitete Methoden angeführt die Partizipation zu erhöhen. Anwendungen kollektiver Intelligenz und Faktoren, die diese beeinflussen, werden detailliert beschrieben, um danach speziell auf den Einsatz für Portfolio-Optimierung einzugehen. Verschiedene Internetprojekte werden dabei vorgestellt, zu denen auch ein selbst implementierter Prototyp einer Facebook-Applikation zählt. Neben dem kollektiven Ansatz wurde darin auch die Portfoliotheorie nach Markowitz integriert, die in einem weiteren Kapitel gemeinsam mit dem eingesetzten genetischen Algorithmus zusammengefasst wurde.

Johannes Kepler Universität Linz

Diplomarbeitsposter Petsovits Jakob

Jakob Petsovits

Masterstudium Software Engineering & Internet Computing
Abstract:

Datenintegration verfolgt die Umwandlung von Daten zwischen verschiedenen Formaten mit einem Minimum an Informationsverlust, oft unter Zuhilfenahme von Mappings und Schemata. ETL ("extract, transform, load") bietet reichhaltige Möglichkeiten zur Datentransformation mittels einer vordefinierten Folge von Operationen; Beibehaltung der Ausgangsdaten ist jedoch zweitrangig. Die vorliegende Arbeit befasst sich mit der Entwicklung eines generischen Datentransformations-Frameworks auf PHP/Drupal-Basis, das den Datenfluss von ETL mit einem Augenmerk auf originalgetreue Erhaltung der Daten verbindet. Zusätzlich zu Pipelines, die sich aus Operationen zusammensetzen, werden zwei Aspekte aus der traditionellen Datenintegration als wesentliche Bestandteile des Frameworks verwendet. Datenwrapper bieten vereinheitlichten Zugriff auf Daten, die intern in ihrer ursprünglichen Form gehalten werden. Dies ermöglicht nicht nur Import/Export-Datenflüsse, sondern auch das Laden, Verändern und Speichern existierender Daten. Schemata beschreiben die Struktur dieser Daten, wodurch Typsicherheit verbessert und generische Mapping-Funktionalität ermöglicht werden kann. Die Implikationen und Problemstellungen beider Elemente werden in der Arbeit untersucht und ein Prototyp implementiert.

Technische Universität Graz

Diplomarbeitsposter Faller Josef A.

Josef A. Faller

Masterstudium Software Engineering & Internet Computing
Abstract:

Steady-state visual evoked potentials (SSVEPs) are brain signals used to operate Brain-Computer Interface (BCI) systems. SSVEP BCIs offer excellent information transfer rates (ITR). Reliably generating SSVEP stimuli in a virtual reality environment, allows for a much easier implementation of motivating, more realistic simulations of real-world applications. The aims of this thesis are (i) to integrate a highly configurable and flexible virtual reality application, that can generate SSVEP stimuli and display feedback in form of the movements of an avatar. Based on the Studierstube mixed reality framework, three Open Inventor (Coin3D) compatible components (a) StbAvatar (extended), (b) StbBCICommApp (extended) and (c) StbBCIToolbox (from scratch) were integrated and combined in order to create scenarios for both, accuracy measurements with a phototransistor circuit and online EEG experiments with five subjects. The experiments were successful, and showed, that both, moving and static, triangular or rectangular non-VSync software SSVEP stimuli at frequencies between 5 and 29Hz on a standard 60Hz TFT monitor, proved suitable to elicit steady-state visual evoked potentials. The results were reasonably good in direct comparison, with two out of five subjects performing worse by less than 7%. Only one out of five subjects performed significantly worse by 25%. The amplitudes of the peaks at the target frequencies and harmonics in the FFT spectra of the software SSVEP measurements were smaller for all except of one subject, which suggests, that the quality of the software SSVEP stimulation is to a certain degree inferior to that of the LEDs. This research direction could lead to vastly improved immersive virtual environments, that allow both disabled and healthy users to seamlessly navigate, communicate or interact through an intuitive, natural and friendly interface.

Medizinische Universität Wien

Diplomarbeitsposter Zechmeister Andreas

Andreas Zechmeister

Masterstudium Informatikmanagement
Abstract:

Die Luftverschmutzung stellt neben dem Klimawandel eines der bedeutendsten Umweltprobleme der Gegenwart dar. Die schädigende Wirkung von Luftschadstoffen auf den menschlichen Organismus wird von zahlreichen epidemiologischen und toxikologischen Studien belegt. Die Auswirkungen von emittierten Substanzen in die Atmosphäre sind vielseitig. Manche Schadstoffe schädigen die Umwelt, andere wiederum können die menschliche Gesundheit beeinträchtigen. Feinstaub kann mit einer Vielzahl von pulmonalen und kardiovaskulären Erkrankungen sowie erhöhter Sterblichkeit in Verbindung gebracht werden und wird überwiegend als Leitsubstanz zur gesundheitlichen Bewertung der Außenluftbelastung verwendet. Durch epidemiologische Studien können Konzentrations-Wirkungs-Beziehungen zwischen der Feinstaub-Konzentration in der Umgebungsluft und unterschiedlichen Gesundheitsfolgen hergestellt werden. Heizungsanlagen im Sektor Raumwärme sind für einen Großteil vieler Luftschadstoffe verantwortlich. Besonders dem Holzrauch konnte gesundheitsschädigende Effekte nachgewiesen werden. Die Weltgesundheitsorganisation bietet Instrumente zur Abschätzung und Bewertung der Gesundheitsbelastung durch externe Umweltrisiken. Nach Berechnung der Exposition, wobei die Schadstoffkonzentration in der Luft und die Verteilung der betroffenen Bevölkerung miteinander verschnitten werden, können mit Hilfe von Effektschätzern aus epidemiologischen Studien die spezifischen Gesundheitsfolgen berechnet werden. Bei Anwendung dieser Methodik auf Österreich wurde von etlichen Studien auf tausende Sterbefälle jährlich und einer Vielzahl von nicht letalen Erkrankungen aufgrund der Feinstaubbelastung hingewiesen. Erst durch die Quantifizierung von Gesundheitsfolgen der Luftverschmutzung wird der entstandene Schaden sichtbar. Dadurch erhält die Politik eine wichtige Entscheidungsgrundlage um Maßnahmen zu setzen. Aber auch durch Bewusstseinsbildung können weitere Handlungen zur Verminderung des Risikos angeregt werden.

(vor 2010) E183/2 - Bildverarbeitung und Mustererkennung

Diplomarbeitsposter Liensberger Christian

Christian Liensberger

Masterstudium Visual Computing
Abstract:

This thesis proposes a method to detect skin color in video sequences by using a combination of two different methods, face detection based on image features and skin detection based upon static color ranges. The focus lies on detecting skin in low-resolution videos as they are uploaded to various community websites by its users. Feature based face recognition detects faces in images without the need of the color information in the image. Skin detection using static color regions allows to detect skin regions in images. These color regions are usually modeled so that a great variety of skin color is detected and that results often in a lot of false positives. By combining these two methods the weak points of static skin color modeling should be overcome. The color information within the detected face regions, which introduces context to skin detection, is used to adapt the skin color model so that the original static skin region is narrowed down to a sub region that models best the skin found in the current video sequence. Further, a variety of people have been asked to compile an online poll to understand whether context is important to skin detection. Results for the developed algorithm are presented for a variety of randomly selected videos that have been provided by an external company and have been downloaded from online video portals.

Diplomarbeitsposter Machajdik Jana

Jana Machajdik

Masterstudium Visual Computing
Abstract:

Bilder sprechen mehr als tausend Worte. Einer ihrer Aspekte ist, dass sie auf Menschen eine emotionale Wirkung haben. Da diese meist subjektiv wird sie selten indexiert und kann somit nicht von Suchmaschinen wiedergefunden werden. In einigen Bereichen ist aber die Wahl des gesuchten Bildes vom emotionalen Ausdrucks abhängig. Das Ziel dieser Arbeit ist es, Methoden zu untersuchen um Bilder anhand ihres emotionalen Ausdrucks zu klassifizieren. Dabei werden theoretische und empirische Konzepte aus der Psychologie, Kunst und Digitaler Bildverarbeitung verwendet. Wir setzen theoretische Konzepte in mathematische Formeln um und berechnen spezifische Merkmale der Bilder. Diese werden dann von Machine Learning Algorithmen verarbeitet um eine Klassifizierung anhand von Emotionen zu erzielen. Mit unseren Merkmalen erzielen wir bessere Resultate als vergleichbare Publikationen in diesem Bereich.