EPILOG Wintersemester 2010

Auszeichnungen

Ausgestellte Arbeiten

Institut für (vor 2018) Technische InformatikE182

Arbeitsbereich (vor 2018) Cyber-Physical Systems

Diplomarbeitsposter Bilic Kenan

Kenan Bilic

Masterstudium Technische Informatik
Abstract:

In verteilten Systemen erfolgt die Kommunikation zwischen den Komponenten nach dem ereignisgesteuerten oder dem zeitgesteuertem Paradigma. Bei diesen Paradigmen gibt es Unterschiede bei signifikanten Eigenschaften wie Zeitverhalten (z.B. Latenz, Bandbreitenausnutzung), Fehlerisolation und der Stabilität von bereits validierten Services. Das Ziel dieser Arbeit war es FlexRay als Grundlage zu verwenden um ereignisgesteuerte Kommunikationen im statischen und dynamischen FlexRay Segment zu implementieren und diese Implementierungen auf ihre signifikanten Eigenschaften zu überprüfen. Zu diesen Zweck wurde eine Overlay-Networkebene implementiert, welche die zeitgesteuerte Kommunikation im statischen FlexRay Segment verwendet um einen ereignisgesteuerten Kommunikationsdienst zu realisieren. Diese Implementierung wird "ereignisgesteuertes System aufbauend auf einem zeitgesteuerten System" genannt. Für den zweiten Ansatz zur Implementierung der ereignisgesteuerten Kommunikation wurde das dynamische Segment von FlexRay benutzt. Das dynamische Segment implementiert die ereignisgesteuerte Kommunikation direkt am Media Access Control (MAC) Layer. Dieser Ansatz wird "ereignisgesteuertes System parallel zu einem zeitgesteuerten System" genannt. Ein experimenteller Aufbau wurde auf Grundlage eines Clusters mit vier Powerlink PL5A1-Knoten, dem FlexRay-Kommunikationskontroller MFR4200 und dem Betriebssystem TTX-OS realisiert. Die experimentellen Ergebnisse haben gezeigt, dass das ereignisgesteuerte System parallel zu einem zeitgesteuerten System bessere durchschnittliche Latenzzeiten und eine höhere Bandbreitenausnutzung bietet. Fehlerisolation und die Stabilität von bereits validierten Services sind nur im ereignisgesteuerten System aufbauend auf einem zeitgesteuerten System gegeben.

Diplomarbeitsposter Fischer Bernhard

Bernhard Fischer

Masterstudium Software Engineering & Internet Computing
Abstract:

Die Erstellung eingebetteter Systeme wird mit erhöhten funktionellen Anforderungen, der raschen Weiterentwicklung von Komponenten, und verkürzten Lieferzeiten konfrontiert. Eine Antwort auf erhöhte Anforderungen und Komplexität sind Entwicklungsmethoden basierend auf Modellen. Die modellbasierte Entwicklung trennt fachliche und technische Belange auf verschiedenen Ebenen, und unterstützt dabei die konzeptuelle Erfassung von Systemen, automatisierte Codegenerierung, formale Verifikation, und Zertifizierung. Diese Arbeit demonstriert den modellbasierten Entwurf von eingebetteten Systemen mit dem quelloffenen Scicos/SynDEx Framework. Scicos ist ein Modellierungs- und Simulationswerkzeug für hybride Systeme. SynDEx ist eine integrierte Entwicklungsumgebung für die Prototypenerstellung verteilter Systeme. Die Umsetzung des modellbasierten Ansatzes wird mit zwei konkreten Beispielen aus dem Bereich der Regelungstechnik auf einer Entwicklungsplattform bestehend aus mehreren vernetzten Mikrokontrollern, Sensoren, und Aktuatoren durchgeführt. Resultierende Ergebnisse helfen für mittelgroße eingebettete Systeme Vor- und Nachteile des modellbasierten Ansatzes gegenüber traditionellen, handgeschriebenen Ansätzen abzuwiegen. Einprozessoranwendungen zeigten einen erhöhten dynamischen und statischen Speicherverbrauch im Vergleich zu handgeschriebenen Ansätzen - dagegen ist der von den Werkzeugen gebotene Komfort durch Simulation, Verifikation und automatischer Codegenerierung abzuwiegen. Unökonomisch ist der Einsatz des Frameworks für einzelne Applikationen, dies wurde durch den nötigen Aufwand für die Erstellung eines nahtlosen Modellierungs-Frameworks und den erhöhten Entwicklungsaufwand bezeugt. Der mittels SynDEx generierte Code konnte nicht an Mikrokontroller angepasst werden ohne das Zeitverhalten der Applikation signifikant zu verändern. Das Scicos/SynDEx Framework wird deshalb nur für experimentelle Zwecke empfohlen.

Arbeitsbereich (vor 2018) Embedded Computing Systems

Diplomarbeitsposter Dielacher Andreas

Andreas Dielacher

Masterstudium Technische Informatik
Abstract:

Aufgrund der sinkenden Strukturgrößen und Taktdurchlaufzeiten ist die Leistungsfähigkeit von VLSI (very large scale integration) Schaltungen enorm angestiegen. Diese Entwicklung gibt den Hardwaredesignern einerseits die Möglichkeit, hochkomplexe Systeme zu bauen, andererseits führt das zu Nebeneffekten in Bezug auf die Takterzeugung: (i) Die geringen Strukturgrössen machen die Transistoren anfälliger für SEUs und SETs (single event upsets und transients), die durch Strahlung verursacht werden, und (ii) die zunehmende Komplexität macht eine voll synchrone Verteilung des Taktes sehr kostspielig oder gar unmöglich. Eine offensichtliche Lösung für (i) und (ii) ist die des GALS (Globally Asynchronous Locally Synchronous) Konzepts: Die Idee ist die Partitionierung des Chips in lose gekoppelten funktionalen Einheiten. Im Projekt DARTS wurde ein alternatives Taktgenerierungssystem für GALS entwickelt, das fehlertolerant ist und eine ausreichende Synchronität zwischen den funktionalen Einheiten aufrechterhält. Anders als beim herkömmlichen GALS Ansatz wird bei DARTS der lokale Takt durch Taktgenerationsmodule erzeugt, welche einen Byzantinisch fehlertoleranten verteilten Algorithmus realisieren. Ein Nachteil von DARTS ist, dass die erreichbare Taktfrequenz von den Laufzeiten der Verbindungen zwischen den einzelnen funktionalen Einheiten abhängt, welche nicht beliebig klein gemacht werden können. In dieser Arbeit wird eine pipelined Version von DARTS (pDARTS) präsentiert, die eine Erhöhung der Taktrate bis zur Geschwindigkeit der lokalen Funktionsblöcke erlaubt. Mittels formal-mathematischer Analyse wird gezeigt, dass der Algorithmus korrekt ist und auch im schlechtesten Fall die Synchronisationseigenschaften garantiert werden. Eine FPGA Prototyp-Implementierung von pDARTS demonstriert die praktische Umsetzbarkeit und zeigt die Effizienz des Pipelining-Konzepts im Kontext von DARTS.

Institut für (vor 2018) Rechnergestützte AutomationE183

Arbeitsbereich (vor 2018) Automatisierungssysteme

Diplomarbeitsposter Amanshauser Max

Max Amanshauser

Masterstudium Computational Intelligence
Abstract:

BitTorrent has become the most important protocol for peer-to-peer file sharing, and BitTorrent-related communication makes up a significant fraction of the total traffic on the Internet. The incentive mechanism to ensure a fair exchange of data between peers is a ``tit-for-tat'' variant, a mechanism that rewards other users connected to the same swarm for uploading, by reciprocally uploading to them. Unfortunately, as previous work has shown, this mechanism is not only largely ineffective against selfish peers, but it also does not help against ``hit-and-run'' peers (peers that disconnect once they have completed their download), which leads to the starvation of torrents. Private BitTorrent trackers attempt to solve the problem of misbehaving peers by requiring their users to maintain a certain ratio between uploaded and downloaded traffic. However, the tracker has to rely on traffic statistics that the peers provide themselves. As a result, malicious peers can misrepresent the traffic volume that they have exchanged, refuse to report back, or pretend not to be connected at all. This results in problems similar to the ones faced by public trackers. In this thesis, we first present the inner workings of private BitTorrent trackers and the way in which they keep track of user traffic statistics. Then, we discuss attack techniques used by malicious peers (cheaters) to download more data than they are entitled to and dissect them in turn. We then focus on cheaters, who spoof uploads and we present two techniques to identify cheaters in swarms. The first technique checks for the consistency of the traffic volumes that peers report within a single BitTorrent swarm. The second technique aggregates and correlates the activity of peers when they are active in multiple swarms. Our evaluation shows the effectiveness of both approaches, even when being faced with countermeasures cheaters might employ to stay undetected.

Diplomarbeitsposter Baumgartner Stefan

Stefan Baumgartner

Masterstudium Informatikmanagement
Abstract:

Die vorliegende Magisterarbeit befasst sich mit der Disziplin Mobile Learning. Mobile Learning ist eine Teildisziplin von E-Learning und dahingehend ein Schnittpunkt der Informatik und der Didaktik. Im Rahmen der Arbeit wurde der State of the Art der Disziplin erarbeitet. Zudem wurde die Open Source Anwendung Mobile Learning Engine evaluiert. Für die Erarbeitung des State of the Art wurde aktuelle wissenschaftliche Literatur beleuchtet und diskutiert. Im Rahmen der Evaluierung der Anwendung wurden die Entwicklung, sowie das Konzept und die Architektur dargestellt. Abgesehen davon wurde eine Testinstallation durchgeführt und der Betrieb des Systems wurde untersucht. Es konnten eine Reihe aktueller Architekturen der Disziplin beleuchtet werden, ein Großteil von ihnen zielt auf die Wiederverwendung bestehender E-Learning Inhalte für Projekte des Mobile Learnings ab. Eine Reihe von praktischen Feldversuchen führte zu positiven Resultaten, sowohl was den Nutzen, als auch die Akzeptanz dieses Ansatzes anbelangt. Zudem wurden Modelle für Entwicklungsländer dargestellt, welche der dortigen Bevölkerung mittels Mobile Learning Zugang zu Bildung ermöglichen sollen. Bedingt durch eine unzureichende Infrastruktur, hat der überwiegende Teil der Bevölkerung dieser Regionen der Welt keinerlei Zugang zu Bildung. Die Evaluierung der Anwendung Mobile Learning Engine zeigte eine durchaus gelungene Open Source Erweiterung für die E-Learning Plattform Moodle. Mittels der Erweiterung ist ein mobiler Zugriff auf eine ganze Reihe bestehender Funktionen der Plattform möglich, zudem wurden einige neue Funktionen speziell für mobiles Lernen hinzugefügt. Abgesehen davon unterstützt die Anwendung das Erstellen und Verwenden von multimedialen Inhalten im Rahmen von Kursen.

Diplomarbeitsposter Götzl Ingrid

Ingrid Götzl

Masterstudium Informatikmanagement
Abstract:

Im Zentrum der vorliegenden Arbeit steht die Implementierung von Electronic Go-vernment (E-Government) in einer großen Stadt, die das Ziel verfolgte, den Wandel ihrer Verwaltung zu einem kundennahen „öffentlichen Servicebetrieb“ zu unterstützen. In den Jahren 2001 – 2003 realisierte die Stadt Wien im Rahmen eines E-Government-Schirmprojekts 68 Einzelprojekte aus fast allen Zuständigkeitsbereichen der Stadt. Damit war Wien zwar unter den ersten Stadtverwaltungen, die sich an ein solches Gesamtprojekt heranwagten, konnte jedoch – auch bedingt durch Größe und Aufgabenvielfalt seiner Verwaltung – kaum auf Erfahrungswerte anderer zurückgreifen. Dies machte die Implementierung zu einem Pionierprojekt von E-Government, das erstmals in einer gesamthaften Übersicht dargestellt wird. Insbesondere wird anhand des Fallbeispiels herausgearbeitet, welch hohe Bedeutung koordiniertes Zusammenspiel und Engagement von politischer Ebene, Verwaltung und IKT-Strategie für den zielführenden E-Government-Einsatz hatten und wie diese Verknüpfung im vorliegenden Fall realisiert wurde. Als praktisches Ziel zeigt die Arbeit basierend auf den Ergebnissen des Schirmprojekts die Erfolgsfaktoren und positiven Rahmenbedingungen für ein E-Government-Projekt auf und schließt mit Empfehlungen für die Realisierung eines derartigen Projekts. Ein Relaunch eines großen E-Government-Programmes in Wien wird sich im Rahmen der genannten Erfolgsfaktoren bewegen.

Diplomarbeitsposter Harms Johannes

Johannes Harms

Masterstudium Business Informatics
Abstract:

Wayfinding aids communicate route and survey knowledge to help the user reach a distant goal. This knowledge can be objectified and transmitted using different media, e.g. through maps or verbal instructions. This work investigates web applications as technical medium for wayfinding aids: The focus of this work is the design of a new online wayfinding aid for students, teachers, and visitors at the Vienna University of Technology. One challenge with indoor route descriptions is that they will often include three-dimensional instructions such as when to change into a particular floor. These instructions can be described verbally in a comprehensible way, but are difficult to depict graphically together with a street map. As a solution, this work proposes to place two-dimensional floorplan images over a regular street map, and to add additional, verbal instructions concerning the floor levels. Usability Engineering methods have been employed in this work. It is structured by an iterative design process where prototyping and evaluation are used repeatedly during the design phase. The process kept a focus on users by involving them in interviews and usability tests. This work results in a prototype of a campus wayfinding aid built as a web application. The prototype features an interactive, two-dimensional street map with floorplans, and photos, text, and a hypertext structure. The interaction design of the prototype offers several different ways of accessing the system: navigation on the map, textual search, hyperlinks from other systems, and browsing in the hypertext structure. In summary, the work at hand provides an overview on relevant wayfinding theory and employs usability engineering methods for the construction of a prototype. It thereby offers a detailed specification of the content, appearance and interaction of an online campus wayfinding aid.

Diplomarbeitsposter Krammer Lukas

Lukas Krammer

Masterstudium Technische Informatik
Abstract:

Motion planning is one of the most challenging tasks in robotics. An interesting research area within this field is motion planning for car-like robots. In the last few years, car-like robots became increasingly important, because precise positioning systems like GPS and modern sensor technologies allowed navigating in rural or even in urban terrains. These car-like robots can be used, for example, in the agriculture area where applications like harvesting, fertilizing or lawn mowing can be realized. This thesis focuses on motion planning for car-like robots and particularly on applications where an arbitrary working area should be covered as efficient as possible. The aim of this thesis is to develop a path planning application which is able to compute a feasible path that fully covers a predefined area avoiding obstacles. Moreover, it is desired that the predefined working area is cruised in parallel lanes (e.g., for mowing a soccer field). At the beginning, basic concepts of system theory and system modeling will be studied. Next, different approaches for solving the basic motion planning problem will be discussed. Then, system models for car-like robots will be addressed and motion planning concepts for car-like robots are examined. Considering the benefits and the drawbacks of all investigated algorithms, a solution based on randomized trees is proposed. Finally, a motion planning algorithm covering predefined areas in parallel lanes is introduced. A proof-of-concept implementation in combination with a simulation framework allows evaluating the quality and the feasibility of the computed path. The simulation is based on a simple path following controller and a realistic system model for a car-like robot which considers errors of the system (e.g., GPS and heading errors) close to reality. Analyses of the simulation show that the car-like robot is able to follow the computed path even in presence of system errors.

Diplomarbeitsposter Krieber Michael

Michael Krieber

Masterstudium Business Informatics
Abstract:

Ziel der Diplomarbeit ist es, verschiedene Methoden zur Abwehr von SPIT in Voice over IP zu ermitteln und anschließend zu evaluieren. Zu Beginn wurde das Augenmerk auf das Thema IT-Security gelegt. Die Grundlagen der IT-Security bilden eine Einleitung in die Grundbegriffe und Thematik der IT-Security. Darauf aufbauend, bildet das Kapitel Grundlagen von Voice over IP einen detaillierten Einblick in das Thema VoIP, in dem Inhalte wie die Geschichte von VoIP bis hin zur technischen Übertragung behandelt werden. Ein weiteres Kapitel wurde dem Thema SPAM gewidmet. Dieses Kapitel erklärt dessen Problematik näher und gibt einen umfangreichen Überblick über die verschiedenen Arten von SPAM. Anschließend bildet das Kapitel SPAM over Internet Telephony eine Einleitung in die Thematik von SPIT. Darauf aufbauend bilden Kapitel 6, Methoden zur Abwehr von SPIT und Kapitel 7, Evaluation von Methoden zur Abwehr von SPIT, die beiden Kernpunkte dieser Diplomarbeit. In Kapitel 6 werden verschiedene aktuelle Methoden zur Abwehr von SPIT im Detail untersucht und beschrieben. Im Kapitel 7 werden die Methoden aus Kapitel 6 durch verschiedene Bewertungskriterien zuerst einzeln evaluiert und anschließend miteinander verglichen. Den Abschluss der Diplomarbeit bildet ein kurzer Ausblick in die Zukunft in Kombination mit einer Conclusio der gesamten Arbeit.

Diplomarbeitsposter Kögler Fabian

Fabian Kögler

Masterstudium Informatikmanagement
Abstract:

Der Informatikunterricht an der AHS ist knapp bemessen. Dennoch verfolgt er das Ziel, allgemein bildend zu sein. Eine verwertbare Berufsausbildung liefert er nicht. Ausgehend von lerntheoretischen Grundlagen, werden Ansätze beleuchtet, wie Schülern ohne spezifisches Vorwissen und in kurzer Zeit die Informatik näher gebracht werden kann. Game-based Learning im Team stellt sich als besonders geeignete Methode heraus. In einzelnen Projekten interagieren Schüler mit ihrer Umwelt und begreifen den Schulcomputer als Werkzeug zur Problemlösung. Die Voraussetzungen sind laut PISA-Sonderauswertung geschaffen. Österreich liegt bei Computerausstattung und –zugang im OECD-Spitzenfeld. Woran es mangelt, ist demzufolge nicht die Möglichkeit an einen Schul-PC zu gelangen, sondern an aktuellen Unterrichtskonzepten, die den Schüler befähigen, den Computer effektiv einzusetzen. Der Einsatz von LEGO® MINDSTORMS NXT-Robotern befreit den Schüler vom Irrglauben, den Schul-PC, einem Fernseher gleich, nur zur passiven Unterhaltung nutzen zu können. Anhand des Unterrichtkonzeptes „RENNWOCHENENDE“ werden jene didaktischen Aspekte herausgearbeitet, die den Einsatz von LEGO® MINDSTORMS NXT-Robotern für den Informatikunterricht an einer AHS so interessant machen. Die acht verpflichtenden Lernziele des Lehrplans fließen sowohl bei Erstellung als auch bei der Bewertung des Unterrichtskonzepts ein. Unterhaltung wird geboten, das Ziel, den Schüler auf das Leben, in bester allgemein bildender Manier, vorzubereiten, dabei aber nie aus den Augen verloren.

Diplomarbeitsposter Niederkofler Gerd

Gerd Niederkofler

Masterstudium Informatikmanagement
Abstract:

Das Management von Wissen ist in heutiger Zeit ein fundamentaler Bestandteil der Unternehmens- und Organisationspraxis. Je nach Betrachtungswinkel werden Wissensmanagement unterschiedliche Aufgaben zugeordnet, denen mittels Groupware begegnet werden kann. Groupware als informationstechnologisches Werkzeug zur Unterstützung von Zusammenarbeit ist ein ebenso wichtiges wie auch vielschichtiges Thema, über das es bereits viele Abhandlungen in der Literatur gibt. Die Kombination beider Konzepte, sowohl von WM als auch Kollaboration realisiert mittels Groupware, sind entscheidend für den organisationalen Erfolg von Unternehmen in Know-How-intensiven Branchen. Ziel dieser Arbeit ist eine Analyse der Katalysatoreffekte von Groupware im Wissensmanagement von Kleinst-, Klein- und Mittleren Unternehmen (KMU). Um dies zu erreichen, werden zunächst unterschiedliche theoretische Konzepte wie wissenschaftliche Wissensmanagement-Modelle vergleichend gegenübergestellt. Zusätzlich werden die konkreten Bedürfnisse von Unternehmen bzgl. des Wissensmanagements zu erfassen. Wissensmanagement kann je nach Zweck und Ziel des Unternehmens viele Aufgaben erfüllen, bedient sich aber Wissensmanagement-Systemen auf Basis von Groupware. Die Auswahl, Erfolgs- und Risikofaktoren werden in der vorliegenden Arbeit analysiert und es wird klar aufgezeigt, unter welchen Voraussetzungen Lösungspotential gegeben ist. Um praktische Aspekte von Wissensmanagement näher zu wird eine empirische Unternehmensstudie in drei ausgewählten KMU durchgeführt, durch die ein Vergleich praktischer und theoretischer Aspekte von WM möglich ist. Eine zentrale Ableitung der wissenschaftlichen Arbeit ist die Formulierung von Katalysatoreffekten in der WM von KMU durch Groupware und deren Rahmenbedingungen. Des Weiteren werden Gestaltungsempfehlungen zum Betrieb von WM und WMS in KMU beschrieben. Abschließend wird ein Vorgehensmodell zur Integration von WMS in eine bestehende WM-System- sowie Prozesslandschaft abgeleitet

Diplomarbeitsposter Riszt Michael

Michael Riszt

Masterstudium Informatikmanagement
Abstract:

Im Fokus dieser Arbeit steht die Betrachtung von Server-Software bzw. Systemlösungen, die zentral in einem Unternehmen, einer Bildungsorganisation oder Hochschule aufgebaut und betrieben werden können und in eigener administrativer Hoheit liegen. Eine mögliche Nutzung von Webkonferenzdiensten, die auf monatlicher oder jährlicher Basis angemietet werden können und in der Hand eines externen Anbieters liegen, werden nicht betrachtet. Zu Beginn werden die Grundlagen des E-Learnings wie Grundbegriffe, Kommunikationsformen und Arten des E-Learning behandelt, danach werden die organisatorischen, technischen, didaktischen und medialen Anforderungen von E-Learning Systemen im Allgemeinen und im Speziellen des virtuellen Klassenzimmers erörtert. Daraus abgeleitet erfolgt eine detaillierte Erstellung eines Kriterienkatalogs, mit dessen Hilfe eine Evaluierung spezifischer, dem Anwendungszweck entsprechende Webkonferenzsoftware durchgeführt wird. Geeignete Produkte und Lösungen sollen im Rahmen einer Marktbetrachtung als mögliche Evaluierungskandidaten herausgefunden werden, die am besten bewertete Konferenzsoftware oder -System wird auf einem Server installiert werden. Die einzelnen Vorraussetzungen und Installationsschritte werden detailliert beschrieben. Konfigurationsmöglichkeiten und Customization, kundenspezifische Anpassung, des Webkonferenzsystems bzw. des virtuellen Klassenzimmers werden ebenso angeführt. Zum Abschluss werden nach Vorstellung der Modelle zur Planung allgemeiner Unterrichtsszenarien die spezifischen Aspekte zur Konzeption von Lehrszenarien in E-Learning Umgebungen und insbesondere in virtuellen Klassenzimmern erarbeitet. Dies erfolgt zu dem Zweck, ein detailliertes Lehrkonzept für ein Lehrszenario im virtuellen Klassenzimmer zur Durchführung eines technischen Trainings zu planen.

Diplomarbeitsposter Schwarzinger Dieter

Dieter Schwarzinger

Masterstudium Informatikmanagement
Abstract:

Tangible User Interfaces (TUI) unterstützen auf natürliche Weise die haptischen Fähigkeiten des Menschen, indem digitale Informationen durch physische Repräsentationen visualisiert werden. Manipulationen des realen Objekts haben direkten Einfluss auf seine virtuelle Verkörperung im System. Die Bedienung des TUIs ist intuitiv, unterstützt kooperative Gruppenarbeit und ist ohne langwierige Einschulung nachvollziehbar. Allerdings kam es bislang zu keiner Standardisierung der Computerschnittstellen. Zusätzlich sind die Anschaffung und Lizenzierung kommerzieller Systeme mit einem hohen Kostenaufwand verbunden. Als kostengünstige Alternative zu herkömmlichen TUI Systemen wird im Rahmen der vorliegenden Magisterarbeit das Tangible Table ToolkiT (4T) Framework, entwickelt von der Forschungsgruppe INSO der TU Wien, sowie die zugrundeliegenden Technologien im Detail vorgestellt. Es dient der Gestaltung von TUI Applikationen, insbesondere jener der tischbasierten Variante Tangible Tabletop. Zusammen mit dem 4T Rückprojektionstisch bildet das Framework ein innovatives TUI System. Des Weiteren werden auch die Unterschiede von TUIs gegenüber herkömmlichen GUIs vergleichend diskutiert. Die vorliegende Magisterarbeit umfasst die technische Beschreibung und intensive Analyse des 4T Frameworks sowie seine Erweiterung um reacTIVision. Im Zuge des 4T Projekts wurde ein Framework geschaffen, das mittels optischer Trackingtechnologien (ARToolKit, reacTIVision) und geeignetem Rahmensystem (OpenTracker) vielfältige Gestaltungsmöglichkeiten bietet. Dabei wird die didaktische Relevanz physischer Verkörperungen und Manipulationen zur Gestaltung intuitiver Computerschnittstellen anhand erkenntnistheoretischer Aspekte betrachtet. Der Designer muss über keine bemerkenswerten Programmierkenntnisse verfügen und kann sich auf die Umsetzung seiner Ideen konzentrieren. Zusammenfasend kann die vorliegende Arbeit als Leitfaden für die Entwicklung neuer TUI Anordnungen herangezogen werden.

Diplomarbeitsposter Shadlau Pujan

Pujan Shadlau

Masterstudium Informatikmanagement
Abstract:

Diese wissenschaftliche Arbeit hat eine Prüfkomponente für das Projekt SPICS der Forschungsgrup-pe INSO am Institut für Rechnergestützte Automation der TU Wien zum Ziel. Aufgabe dieser Prüf-komponente ist die Überprüfung und die Bereitstellung einer Entscheidungsbasis für das Versenden von Daten, um sicherzustellen, dass diese keiner Person eindeutig zugeordnet werden können. Die Prüfkomponente stellt also ein gewisses Pseudonymisierungsniveau der Daten bezüglich ihrer Diver-sität und Anonymität sicher.

Diplomarbeitsposter Stiel Barbara

Barbara Stiel

Masterstudium Business Informatics
Abstract:

The advent of information technology has led to a growth of available information and consequently to the necessity of developing appropriate ways of information representation. The current trend of using social networking sites among others to publish personal data indicates the users’ desire for self-expression. Furthermore miniaturisation of hardware enabled mobile computers and subsequently wearable computing and furthermore wearable visualisation has evolved. Inspired by these evolving directions previous research has led to a wearable, publicly viewable device, which combines physical information visualisation with sonification to represent data about the user’s activity and environment. For aesthetic and privacy concerns fabric folding was chosen as the physical visualisation method and abstract sounds were used for sonification. The goal of this thesis project is to finish a second-iteration prototype for this device and to evaluate this prototype. To verify the value of this device a user evaluation study was designed to indicate the directions for further developments in this domain of information representation. As the device is a novel development in this field of research a new evaluation methodology based on common methods and measurements was modelled. The main research result revealed folding and sonification are able to fulfil the designers’ intentions of creating a useful and comprehensible wearable display. The method to realise the folds needs to be improved, to increase the value of the folding and sonifying device.

Diplomarbeitsposter Thier Thomas

Thomas Thier

Masterstudium Informatikmanagement
Abstract:

Die meisten mittleren und größeren Unternehmen sind für die Durchführung ihres Kerngeschäfts auf den Einsatz verschiedener Informations Technologien (IT) angewiesen. Durch den kontinuierlichen Wandel innerhalb der IT (Hard- und Software), sowie durch die laufenden Änderungen bei den IT-Anforderungen durch das Kerngeschäft, haben sich in denmeisten Unternehmen individuelle Änderungsprozesse entwickelt. Da durch historische Entwicklungen oft sogar innerhalb des gleichen Unternehmens verschiedenste Änderungsprozesse existieren, stehen diese Unternehmen früher oder später vor der Frage, wie diese Prozesse vereinheitlicht werden können, um dadurch Verbesserungen bei deren Qualität und in weiterer Folge auch finanzielle Einsparungen zu erzielen. In der vorliegenden Arbeit werden zuerst die theoretischen Grundlagen, wie die unter der Bezeichnung ‚Information Technology Infrastructure Library‘ (ITIL) veröffentlichte Sammlung an ‚Best Practices‘ und die darauf abgestimmte Norm ISO/IEC 20000 analysiert. Dabei wird vor allem der Change Management-Prozess und die beteiligten Nachbarprozesse (Service Asset and Configuration Management, Release Management, Incident Management, Problem Management, Service Level Management, Capacity Management, Qualitätsmanagement, Risikomanagement) näher betrachtet. Darauf aufbauend wird anhand des Fallbeispiels einer öffentlichen Institution untersucht, wie ein ITIL-konformer Change Management-Prozess modelliert und umgesetzt werden kann. Dabei wird der gesamte Projektablauf, von der Planung über die Analyse der bisherigen Prozesse und der Modellierung neuer Prozesse, bis hin zur Produktivsetzung und dem Projektabschluss alle nötigen Schritte beschrieben. Das Ergebis geht zwar auf die im öffentlichen Bereich erforderlichen Rahmenbedingungen ein, ist aber trotzdem so allgemein gehalten, dass es auch auf andere Unternehmen angewendet werden kann.

Diplomarbeitsposter Unger Markus

Markus Unger

Masterstudium Informatikmanagement
Abstract:

Heutige Lehrkräfte sehen sich im Unterricht zunehmend mit neuen Herausforderungen konfrontiert. Um diesen neuen Herausforderungen entgegenzutreten existieren bereits jetzt didaktische Konzepte bzw. Methoden. Jedoch zeigt die Praxis, dass die Umsetzung bzw. Anwendung dieser Konzepte und Methoden im konkreten Unterricht nur spärlich stattfindet. Ziel dieser Arbeit ist es ein Unterrichtskonzept anhand des Unterrichtsgegenstandes „Angewandte Datentechnik“ an einer HTL bereitzustellen, dass sowohl didaktische Methoden als auch inhaltliche Aspekte berücksichtigt. Hierzu werden die bestehenden didaktischen Konzepte und Methoden dargestellt, und in den Informatikunterricht eingeordnet. Ein weiterer Themenschwerpunkt ist die Unterrichtsplanung und vor allem die Bewertung von Unterricht, sowie die Klärung der Frage „Was ist guter Unterricht?“. Das Unterrichtskonzept wird mittels Stundenbildern der ersten 15 Unterrichtseinheiten dargestellt. Anschließend werden die didaktischen Aspekte und Inhalte, sowie Übungs- bzw. Praxisbeispiele, zu den jeweiligen Unterrichtseinheiten detailliert beschrieben. Abschließend werden zu jeder Einheit die Wiederholungsfragen des zugehörigen Stoffgebietes angeführt.

Diplomarbeitsposter Vilsecker Matthias

Matthias Vilsecker

Masterstudium Business Informatics
Abstract:

Im Rahmen der vorliegenden Diplomarbeit werden aktuelle Trends in der Mehrbenutzer-Anwendung an Multitouch-Tischen untersucht. Der Fokus der Arbeit liegt dabei darauf, auftretende Probleme zu erheben und Möglichkeiten aufzuzeigen, um deren Auswirkungen in Form von Heuristiken und Algorithmen zu minimieren. Es wird von der These ausgegangen, dass Heuristiken in Form algorithmischer Ansätze und Design Guidelines die Usability bei Kollaborationen erhöhen können, während in verwandten Arbeiten vorwiegend der Einsatz von zusätzlicher Hardware zur Verbesserung der Mehrbenutzer-Fähigkeit evaluiert wird. Häufige Probleme in der Mehrbenutzer-Anwendung stellen beispielsweise inkorrekte Gruppierungen oder Interpretationen von Gesten dar, die durch zu etablierende Heuristiken hinsichtlich Korrektheit, Performance, Stabilität und Robustheit verbessert werden sollen. Dabei werden zahlreiche Möglichkeiten dargestellt, wie mit Algorithmen und der Umsetzung von Design Guidelines Probleme der Mehrbenutzer-Anwendung verhindert werden können: Diese erschließen sich auf den Ebenen der gestenspezifischen, räumlichen, objektspezifischen und benutzerspezifischen Segmentierung. So wurde für jedes identifizierte Problem mindestens eine Verbesserungsmöglichkeit aufgezeigt. Im Vergleich zum Einsatz zusätzlicher Hardware, wie dies in der verwandten Literatur der Fall ist, sind die Heuristiken flexibel einsetzbar - bei der Benutzeridentifikation und den sich ergebenden zusätzlichen Interaktionsarten müssen jedoch Abstriche gemacht werden. Unter Einsatz einer explorativen, vergleichenden Evaluierung zweier in der Arbeit entwickelten Prototypen - einem mit und einem ohne implementierten Verbesserungen - wurden die Heuristiken validiert. Zusammenfassend zeigt diese Evaluierung klar auf, dass die getesteten Benutzer zufriedener mit der durch Heuristiken verbesserten Version des Prototyps sind und in dieser Version in Summe deutlich weniger Probleme auftreten.

Diplomarbeitsposter Zboray Viliam

Viliam Zboray

Masterstudium Business Informatics
Abstract:

SPICS (Secure Platform for Integrating Clinical Services) is an e-health research project at the Vienna University of Technology. The application allows different health care providers to share a common database of patients’ data for global surveys (e.g. progress of wound healing, effects of medications, etc.). Doctors, hospitals, and other specialist working groups can share their anonymized data and perform large-scale and long-term scientific analysis. The platform is implemented as a software product line to fulfill a number of critical requirements and special needs of the medical sector. After an initial pilot phase, the SPICS product portfolio started to grow and the platform has been enriched with more functionality. As the user group grew steadily, the decision was made to improve the quality assurance process in SPICS. The goal was to increase the quality of the products and minimize the test efforts by implementing a test management and requirements engineering structure that supported the variability concept of the product line. This thesis will describe the implementation of this process by means of a case study.

Arbeitsbereich (vor 2018) Computer Vision

Diplomarbeitsposter Kloihofer Werner

Werner Kloihofer

Masterstudium Computational Intelligence
Abstract:

In this thesis, known techniques from the research area of object recognition are analyzed according to their ability to track objects in video sequences. This approach is chosen to overcome the problems of traditional object tracking algorithms, relying on temporal coherence, which are infeasible in some situations - for instance in cases of video material with low frame rate. Objects move too far from one frame to the next, therefore it is hard to predict their movement. Another example is a nonstationary camera, where one cannot use a background model and has to deal with object motion as well as camera motion. Most object recognition methods rely on supervised training from examples, but the nature of the tracking task suggests utilizing online learning methods. The main contribution of this thesis is the IPTracker, a novel interest point based object tracking method. In the first step, interest points are detected and feature descriptors around them are calculated. Sets of known points are created, allowing tracking based on point matching. The set representation is updated online in every tracking step. The method uses one-shot learning with the first frame. Thus, neither offline nor supervised learning is required. An object recognition based approach does not need a background model or motion model, and therefore allows tracking of abrupt motion as well as with nonstationary cameras. In the evaluation, we experiment with the IPTracker as well as with an own implementation of an online boosting based tracker. The methods are compared to the state of the art mean shift method using a simple tracking rate metric and widely used evaluation datasets. The influence of image quality, object size and partial occlusions is analyzed, showing the benefits of the IPTracker. Long-term stability is evaluated and the speed, which is very important for real-time tracking, receives particular attention.

Diplomarbeitsposter Schwartz Ernst

Ernst Schwartz

Masterstudium Medizinische Informatik
Abstract:

Total supra-aortic rerouting - as well as double vessel transposition - followed by endovascular stent graft placement are established tools for treatment of pathologies of the aortic arch. However, details about the motion of the aortic arch after these procedures remain unknown. To address this issue, we propose a fully automated method to quantify the deformation patterns of the aortic arch in contrast enhanced echocardiogram-gated computed tomography sequences. The vessel lumen is segmented in each frame of the sequence by a level set approach. Consequently, correspondences between sets of landmarks extracted from theses segmentations are established using Coherent Point Drift registration. The resulting model of the aorta allows us to measure salient deformation properties of the vessel, like stretching and bending. Applying the same coherent point drift registration procedure to the models acquired pre-treatment, post-transposition, and post-stent-graft-placement then allows to compare these measurements of vessel dynamics and enables the quantification of change caused by the intervention to the aortic arch motion

Institut für (vor 2018) InformationssystemeE184

Arbeitsbereich (vor 2018) Distributed Systems

Diplomarbeitsposter Albl Alexander

Alexander Albl

Masterstudium Business Informatics
Abstract:

Arbeitsabläufe im Umfeld der Bioinformatik-Forschung unterliegen diversen Problemen, die in ihrer speziellen Kombination in keinem anderen Umfeld auftreten. Große Datenmengen an sequenzierten Genomen in unterschiedlichen Formaten müssen oftmals bearbeitet werden, und darüber hinaus im Sinne der wissenschaftlichen Nachvollziehbarkeit über einen langen Zeitraum gespeichert werden. Spezielle Fragestellungen der Forscher des Chairs of Bioinformatics erfordern die stichprobenartige Analyse von Genen oder Genomen von Mäusen zur Identifizierung von Kontaminierungen mit verschiedenen Bakterien, etwa Escherichia coli. Dabei werden unter oftmaliger Veränderung bzw. Neueinführung von Parametern die Daten in grundsätzlich gleichen Arbeitsabläufen untersucht und mit Referenzdatensätzen verglichen. Aktuell erfolgt diese Arbeit mit hohem Personalaufwand, da es keine Möglichkeit gibt, die Tätigkeit durch genormte Arbeitsabläufe mit Unterstützung von Parametern und Resultatsvergleichen zu vereinfachen. Bestehende Systeme bauen konsequent auf die Nutzung einer graphischen Benutzeroberfläche auf, ein leichtgewichtigerer Ansatz zur koordinierten Ausführung und Speicherung der Arbeitsabläufe ist zum aktuellen Zeitpunkt nicht bekannt. Darüber hinaus besteht die Notwendigkeit, bestehende Skripte und andere Applikationen weiterhin zu verwenden. In dieser Arbeit wird auf diese Problematik eingegangen, indem ein neu entwickeltes Framework vorgestellt wird, dass die Forscher des Vienna Science Chair of Bioinformatics dabei unterstützt, ihre vorhandenen sowie zukünftige Arbeitsabläufe in einer standardisierten Form zu beschreiben, diese in einer vorgegebenen Umgebung ablaufen zu lassen, und die Ergebnisse zu historisieren.

Diplomarbeitsposter Haitzer Thomas

Thomas Haitzer

Masterstudium Software Engineering & Internet Computing
Abstract:

With Business Processes becoming more and more popular and the applica- tions growing more complex, the need of monitoring and controlling enterprise business process systems grows. The existing solutions do not support model- based compliance control [16] and often have limited event-abstraction capabilities. In this thesis we develop and implement a monitoring system for BPELprocesses based on the ideas from Holmes et al. [15, 14], that can be used for monitoring business processes, compliance-constraint monitoring, as well as for debugging. It provides different user-interfaces for different users like high level views for non-technical personnel or debug-views for software engineers. By using model-driven engineering [5] and complex event processing we are able to build a monitoring system that can easily adapted for a variety of business process engines. From our event meta-model we generate a system, that is split into three independent components which can be distributed a long different servers and are connected via message queues. While the first component (event-listener) collects the events from the event-sources, the second component (event-processor) extract business relevant information like e.g. constraint violations from the event-streams generated by the eventlistener. The third component (monitoring application) provides a user-interface for reviewing the data extracted by the event-processor.

Diplomarbeitsposter Huber Markus

Markus Huber

Masterstudium Informatikmanagement
Abstract:

Nowadays, small and mid-sized companies focus their internal IT-strategy on centralization and standardization. The IT departments evolve to key departments. The usage of IT services generates significant financial costs. The decentralized and uncoordinated use of IT technology (hardware or software based) causes even higher costs and yields to security risks. The absence of standardization and improper use of software often leads to false and/or under licensing and legal problems. The executive management and controlling departments are interested in cost transparency and originator based cost allocation. The reduction of costs plays an important role, especially in times of crisis and depression. The primary aim of this thesis is to present existing possibilities and methods for implementing an internal charge back system. The state of the art IT management frameworks ITIL and the IT controlling framework COBIT delivers the solid fundament. In order to demonstrate the design process of an IT cost accounting system, the requirements are analyzed and the design of the system is shown by using a prototype. The implementation is evaluated by taking recourse to a case study. The potential future improvements and key benefits like cost reduction, transparency, fairness, and benchmarking are discussed and evaluated.

Diplomarbeitsposter Inzinger Christian Herbert

Christian Herbert Inzinger

Masterstudium Software Engineering & Internet Computing
Abstract:

Specialized domains like Health Care, Space and Software Engineering rely on the efficient retrieval of digital objects in order to work effectively. Digital objects in these domains not only include typical text documents but also multimedia objects, like presentations, audio and video elements. Despite this they are associated with domain specific concepts and persons which are crucial factors in retrieving the desired information out of a vast number of possible candidates. The extensive amount of data as well as the diverse types of objects require advanced extraction and search mecha- nisms in order to enable efficient digital object retrieval. Although seman- tic extraction and retrieval approaches exist, a truly extensible framework, fully customizable to the domains’ specifics, is missing. In this thesis we present a distributed concept search framework for specialized domains that fills this gap. We introduce a combined semantic representations that allows the linking of domain specific concepts, key- words and social structures. Further we develop a highly adaptable and extensible software framework incorporating this combined representa- tion and demonstrate its feasibility with a prototype implementation.

Diplomarbeitsposter Schleicher Johannes Michael

Johannes Michael Schleicher

Masterstudium Software Engineering & Internet Computing
Abstract:

Specialized domains like Health Care, Space and Software Engineering rely on the efficient retrieval of digital objects in order to work effectively. Digital objects in these domains not only include typical text documents but also multimedia objects, like presentations, audio and video elements. Despite this they are associated with domain specific concepts and persons which are crucial factors in retrieving the desired information out of a vast number of possible candidates. The extensive amount of data as well as the diverse types of objects require advanced extraction and search mecha- nisms in order to enable efficient digital object retrieval. Although seman- tic extraction and retrieval approaches exist, a truly extensible framework, fully customizable to the domains’ specifics, is missing. In this thesis we present a distributed concept search framework for specialized domains that fills this gap. We introduce a combined semantic representations that allows the linking of domain specific concepts, key- words and social structures. Further we develop a highly adaptable and extensible software framework incorporating this combined representa- tion and demonstrate its feasibility with a prototype implementation.

Diplomarbeitsposter Wilthaner Markus

Markus Wilthaner

Masterstudium Business Informatics
Abstract:

Online auction systems, especially of goods of high financial value, have to attain high standards in dependability and security. Current systems have shortcomings in two areas related to dependability: (1) they are susceptible to connection problems and server outages and (2) they require oversizing in order to handle high peak loads. This thesis proposes an online auction system that integrates earlier research on temporal decoupling, smart cards and interval-based time synchronization. In the proposed system, a bidder can issue a bid until a first deadline, sign it with a secure external device and submit it until a second deadline. The thesis contributes a mechanism for securing the proposed solution even if the auction client runs on an untrusted platform. It adds adaptive components to distribute server load. Combined with a fault tolerant client, a higher degree of dependability is attained, while requiring less hardware resources. The proposed approach is then applied in a prototype for a state bond auctioning system. Technologies for client-server communication, smart card communication and client storage in web browsers are compared. In order to overcome current limitations, a proxy component for accessing smart cards from web applications is proposed. The evaluation of the prototype shows that the system is protected against a set of attacks and that it can tolerate various faults. The adaptive approach avoids errors due to overload and is successful in increasing the responsiveness of the server. In the used test case, 10% more bids were processed when using adaptivity. Hardware requirements can be further reduced by adding an additional time period after the auction deadline and distributing the load in that time window. Using the statistics gathered for load control, the adaptivity component can also quickly detect possible Denial-of-Service attacks that pose a dangerous threat to critical online systems.

Diplomarbeitsposter Zettler Klaus

Klaus Zettler

Masterstudium Informatikmanagement
Abstract:

Im Rahmen dieser Arbeit wird die Implementierung eines Virtual Campus für das S-Cube Software Services and Systems Network geplant und realisiert. Der Virtual Campus soll drei organisatorisch getrennte, aber semantisch verbundene Teilbereiche umfassen. Der Public Campus dient als frei zugängliche Kommunikationsplattform auf technologischer Basis eines Internetforums. Die Knowledge Base dient als Wissensdatenbank auf Basis eines Dokumen-tenmanagement Systems und eines Wikis. Der Internal Campus dient als E-Learning Plattform auf Basis eines Course Management Systems. Die zugrundeliegende Problemstellung besteht darin, verschiedene frei verfügbare Open Source Tools in einem gemeinsamen Projekt zu vereinen, um eine Kommunikations- und Lernplattform für internationale Studenten/Studentinnen und Wissenschaft-ler/Wissenschaftlerinnen im Bereich Service Computing zu schaffen. Das Hauptaugenmerk wird auf die Evaluierung bestehender Lösungen im E-Learning Bereich gelegt, sowie auf die praktische Implementierung einer funktionsfähigen Plattform, die den Anforderungen der Benutzung im Rahmen eines großen internationalen Forschungsprojekts genügt. Der nach dem Wasserfallmodell implementierte Projektplan sieht die Phasen Analyse, Evaluierung, Implementierung und Review vor, an deren Ende eine voll funktionsfähige Lehr- und Lern-plattform hervorgehen soll. Die Evaluierung der Arbeit erfolgt anhand von funktionalen und nichtfunktionalen Anforderungen und durch den systematischen Vergleich mit bestehenden Plattformen.

Arbeitsbereich (vor 2018) Database and Artificial Intelligence

Diplomarbeitsposter Schmid Alexander

Alexander Schmid

Masterstudium Business Informatics
Abstract:

Web Intelligence and Effective Online Market Intelligence rely on a 24/7 access to various online resources. Market Monitoring Processes and Meta-Search have to keep up with nowadays dynamic markets, monitoring changing product offerings and price volatility. Companies which made it their core business to collect and extract data have to face one central question: How can I de-personalize and anonymize my online actions to avoid blocking and backtracking in a legal way to keep my business running? On one hand, Denial of Service attacks and similar threats ask for a higher demand of IT security. The Web Security Problem focuses on online anonymity, potential attacks and content & communication blocking technologies. On the other hand, political engagement & censorship, as well as copyright issues play a crucial role regarding jurisdiction on the Web and the role of exclusive rights. Hence, my work also covers the issue, if a provider of data is allowed banning certain individuals from the access of information without any justification. My research primarily focuses on technical fundamentals regarding Web Data Extraction and dynamic IP allocation in digital wireless communication systems, proxy systems, wired anonymization networks, and cloud computing environments. Based on an overall comparison of most promising scientific methods, I finally designed conceptual architectures for an implementation into a business environment. Taking elastic network address distribution (cloud computing) and mobile network address distribution (UMTS/HSPA) into account, I concentrated on a deployment of a blocking-resistant proxy solution and a blocking-resistant TOR-based relay solution. An implementation of a distributed Python/Java MultiProxy-Switcher application using GAE (Google App Engine) based on a company’s business processes (Web Data Extraction in the travel & tourism domain) delivered statistical and empirical data and revealed future problems and open issues.

Diplomarbeitsposter Widl Magdalena

Magdalena Widl

Masterstudium Computational Intelligence
Abstract:

Break scheduling problems arise in working areas where breaks are indispensable due to the nature of the tasks to be performed, e.g. in air traffic control, supervision or assembly lines. We regard such a problem, denoted BSP, originating in the area of supervision personnel. The objective is to assign breaks to an existing shiftplan such that various constraints reflecting legal demands or ergonomic criteria are satisfied and staffing requirement violations are minimised. We prove NP-completeness of this problem when all possible break patterns are given explicitly in the input. To solve BSP, we propose variations of a memetic algorithm. A memetic algorithm combines genetic operators such as selection, crossover and mutation with local improvement techniques. We suggest two different memetic representations of BSP and three different memetic algorithms built upon these representations. The algorithms differ in their genetic operators and memetic representation, but include the same local search heuristic. We propose three different neighbourhoods the local search can be based upon. Additionally, we evaluate the impact of a tabu list within one of the algorithms, and within another the impact of a penalty system that tries to detect local optima. Our approaches are influenced by various parameters, for which we experimentally evaluate different settings. The impact of each parameter is assessed with statistical methods. We compare the three algorithms, each with the best parameter setting according to the evaluation, to state of the art results on a set of publicly available instances. 20 instances were drawn from real life scenarios and 10 randomly generated. One of our algorithms returns improved results on 28 out of the 30 benchmark instances. To the best of our knowledge, our improved results for the real life instances constitute new upper bounds.

Arbeitsbereich (vor 2018) Knowledge Based Systems

Diplomarbeitsposter Carbotta Domenico

Domenico Carbotta

Masterstudium DDP Computational Logic (Erasmus-Mundus)
Abstract:

In the last years, the investigation on Description Logics has been driven by the goal of applying them in several areas, such as information integration, bioinformatics, software engineering. The reasoning requirements arising in these different scenarios have stimulated many paths of research. In this work, we will take advantage of specific properties of a wide range of Description Logics, the tree model property. This property makes it possible to reduce DL reasoning problems to verifying certain properties of an automaton over infinite trees. Many worst-case optimal algorithms have been obtained using this technique; however, their practicality is questioned because they usually involve costly computations on very large objects. The goal of this thesis is to overcome these hurdles, designing a new automata-based procedure for reasoning over expressive Description Logics that is worst-case optimal and lends itself to an efficient implementation. In order to show the feasibility of the approach, we have realized a working prototype of a reasoner based upon these techniques.

Diplomarbeitsposter Drescher Christian

Christian Drescher

Masterstudium DDP Computational Logic (Erasmus-Mundus)
Abstract:

In the context of answer set programming, this work investigates symmetry detection and symmetry breaking to eliminate symmetric parts of the search space and, thereby, simplify the solution process. We contribute a reduction of symmetry detection to a graph automorphism problem which allows to extract symmetries of a logic program from the symmetries of the constructed coloured graph. The correctness of our reduction is rigorously proven. We also propose an encoding of symmetry-breaking constraints in terms of permutation cycles and use only generators in this process which implicitly represent symmetries and always with exponential compression. These ideas are formulated as preprocessing and implemented in a completely automated flow that first detects symmetries from a given answer set program, adds symmetry-breaking constraints, and can be applied to any existing answer set solver. We demonstrate computational impact on benchmarks versus direct application of the solver. Furthermore, we explore symmetry breaking for answer set programming in two do- mains: first, constraint answer set programming as a novel approach to represent and solve constraint satisfaction problems, and second, distributed nonmonotonic multi-context systems. In particular, we formulate a translation-based approach to constraint answer set solving which allows for the application of our symmetry detection and symmetry breaking methods. To compare their performance with a-priori symmetry breaking techniques, we also contribute a decomposition of the global value precedence constraint that enforces do- main consistency on the original constraint via the unit-propagation of an answer set solver. We prove correctness and evaluate both options in an empirical analysis. In the context of distributed nonmonotonic multi-context system, we develop an algorithm for distributed symmetry detection and also carry over symmetry-breaking constraints for distributed answer set programming.

Diplomarbeitsposter Petzelbauer Max

Max Petzelbauer

Masterstudium Computational Intelligence
Abstract:

This thesis presents a new preprocessor qbfMax for quantified boolean formulas (QBFs) in prenex conjunctive normal form (PCNF). Such formulas are successfully used to represent many different problems (e.g. planning, scheduling, verification etc.). The preprocessor qbfMax simplifies formulas with many different simplification techniques (such as pure literal elimination, unit propagation, equivalence reduction, subsumption and the elimination of variables using resolution) to shorten the input formulas wrt. the number of clauses and the number of variables time efficient. The hypothesis this work is based on is that these simplifications support a QBF solver to perform the task of solving faster or even make it possible in the first place. To understand how a preprocessor can improve the solving capabilities of a solver it is important to know how todays solver work which is also presented in this work.

Diplomarbeitsposter Redl Christoph

Christoph Redl

Masterstudium Computational Intelligence
Abstract:

In many fields it is common to work with several data sources that are not entirely equivalent and need to be incorporated. Unfortunately, the naive union can lead to an inconsistent set of beliefs. Therefore the goal is to find a new base that is consistent and as similar to the existing ones as possible, according to some distance function. A very common task is ontology integration in the Semantic Web. Other examples include the union of multidimensional index structures and the combination of classifiers that were trained upon disjoint sets of samples. In this thesis our case study will be judgment aggregation, which is a topic from the field of social choice theory, where the judgments of several individuals need to merged into a group decision. dlvhex is a reasoner for an extension of logic programs under the answer-set semantics. The possibility of writing plugins for implementing external atoms will be exploited to develop a framework for belief merging tasks. The input is a set of HEX-programs that deliver sets of answer sets which represent the belief sources to be merged. For this purpose the user can use merging operators that are applied on belief bases or recursively on the result of previous operator applications. This leads to a tree-like structure, where the leaf nodes are belief bases and the inner nodes are merging operators. There were already defined operators for belief revision and update tasks. This idea can easily be generalized, such that not only a single formula is incorporated into an existing knowledge base, but complete belief bases are fused. To keep the framework flexible, the user can also implement custom operators that can be dynamically added to the framework. The benefit of the system is that it takes the burden of repeating routine tasks from the user. This allows him to concentrate on the development and optimization of the merging procedures.

Institut für (vor 2018) Institut für ComputersprachenE185

Arbeitsbereich (vor 2018) Programmiersprachen und Übersetzer

Diplomarbeitsposter Barisits Martin-Stefan

Martin-Stefan Barisits

Masterstudium Computational Intelligence
Abstract:

The rapid growth of the Internet has to be encountered by the development of well-engineered distributed systems. Thereby the programmer has to face the evident problem that implementing these complex systems is a complicated process, as aspects like concurrency, scalability or transactional safety have to be considered. The XVSM (eXtensible Virtual Shared Memory) concept is a framework based on the Space-Based Computing paradigm, which supports the developer to solve this architectural style. XVSM enables partners in a peer-to-peer infrastructure to collaborate with each other in an intuitive and efficient way. To this purpose it introduces different coordination patterns which dissolve most tasks of modern distributed applications. This thesis introduces the next-generation XVSM framework, called MozartSpaces which is implemented in Java. This framework is based on a modular software architecture approach which supports concurrent operations. Particular focus of the thesis lies in an extended transactional model supporting different isolation levels. In contrast to previous implementations, a new coordination concept based on streams has been specified and implemented. The evaluation includes different performance benchmarks and shows very promising results in contrast to other middle-ware systems.

Diplomarbeitsposter Baum Michael

Michael Baum

Masterstudium Software Engineering & Internet Computing
Abstract:

In der heutigen Zeit wird die Arbeit immer öfter in kooperativen Gruppen erledigt. Für solche Tätigkeiten findet man einige Programme, welche den kooperativen Prozess unterstützen und fördern. Diese, als Groupware bezeichneten Applikationen, bieten Unterstützung in den Bereichen Kommunikation, Koordination und Kooperation. Als erstes werden die Anforderungen an eine Groupware untersucht. Nach einer Analyse bestehender Groupware findet sich eine Definition von vierzehn Patterns, welche die Erstellung einer Groupware erleichtern. Diese Patterns wurden anschließend für die Entwicklung des Frameworks Work2Gether (W2G) verwendet, welches auf der Middleware MozartSpaces basiert. Mithilfe von W2G wurden zwei Prototypen erstellt (W2GShare und W2GCoop). W2GShare konzentriert sich dabei auf den Bereich der Kooperation, wohingegen W2GCoop auf die Bereiche der Kommunikation und Koordination eingeht.

Diplomarbeitsposter Baumann Christian

Christian Baumann

Masterstudium Software Engineering & Internet Computing
Abstract:

PostScript ist eine sehr mächtige Sprache zur Beschreibung von Grafiken zum Anzeigen und Ausdrucken. Etwas, das viele Leute aber nicht wissen, ist, dass PostScript auch eine großartige, stackbasierte Programmiersprache ist. Das .NET Framework wurde von Microsoft entwickelt und ist eine riesige Sammlung von Klassenbibliotheken, Programmiersprachen und Standards. Ziel dieser Arbeit ist es, einen Interpreter für PostScript mit Hilfe des .NET Frameworks zu entwickeln, bei dem das Hauptaugenmerk auf der Ausführungsgeschwindigkeit von PostScript-Programmen liegt. In einem ersten Schritt werden wir die Bottlenecks bei der Ausführung von PostScript-Programmen herausfinden. Dazu werden wir einige "Real-World" Programme analysieren. Ein weiterer, wichtiger Punkt bei der Ausführung sind sogenannte Prozeduren, die in PostScript als Arrays dargestellt werden. Diese können sich sogar noch während ihrer eigenen Ausführung verändern und erlauben unendliche Rekursion mittels Tail-Calls. Die Namensauflösung in PostScript ist auch besonders wichtig, da sie einen großen Anteil an der Gesamtausführungszeit von Programmen hat. Wir werden sehen, dass es durchaus möglich ist einen Interpreter für PostScript in einer höheren Programmiersprache wie C# zu entwickeln, der in Sachen Ausführungsgeschwindigkeit mit aktuellen (kommerziellen) Interpretern mithalten kann.

Diplomarbeitsposter Breitenstein Pia

Pia Breitenstein

Masterstudium Software Engineering & Internet Computing
Abstract:

Viele Tätigkeiten erfordern die Aufteilung der Arbeit auf mehrere Personen. Groupware beschreibt Software, die die Zusammenarbeit erleichtern und verbessern soll. Diese Diplomarbeit beschäftigt sich mit der Analyse bestehender Groupware Lösungen. Als Ergebnis werden funktionale Patterns definiert, die Anforderungen an eine Groupware beschreiben und diese wieder verwendbar und erweiterbar machen. Aus diesen Patterns ist ein Groupware Framework mit dem Namen Work2Gether - kurz W2G - entstanden, das diese Patterns implementiert. Um die Verwendung dieses Frameworks zu zeigen, ist ein Prototyp, W2GCoop, entstanden der anschließend an das Framework in dieser Arbeit beschrieben wird.

Diplomarbeitsposter Raab Markus

Markus Raab

Masterstudium Software Engineering & Internet Computing
Abstract:

Libraries like Elektra provide access to a shared configuration database across all locally installed applications. Users prefer applications integrated well within the system they use. They are in favour of settings that are always up to date. Users also want their favourite configuration file formats to be supported. They want a guarantee that the system storing their options only accepts a working configuration. The concrete problem is that the specific requirements vary according to the programs and the operating system. Similar or competing possibilities exist to achieve specific tasks. We address the problem by modifying Elektra in this master's thesis. A reusable, exchangeable plugin cares for a specific concern. Several plugins together build up the access to a part of the configuration database that deals with the complete users' requirements. We implemented a number of plugins to verify the approach. We tested the implementations in different use cases. It soon became clear that checking the configuration before storing is much more flexible if the validation of the structure and the values are separated in two phases. It facilitates combinations of several checks. Occasionally these checks are made specifically for an application or plugin. We evaluated and tried different ways in which to implement such plugins. We came to the conclusion that plugins can be realised quickly if the potential of existing plugins and libraries is used. Code needing operating system specific facilities can be easily separated into other plugins. As a result of mounting the plugins, the capabilities and features of the shared configuration database changes. But because of checking contracts exported by plugins, the interplay of plugins is guaranteed even though the system is now much more flexible. It even goes so far that plugins can count on actions taken by other plugins.

Diplomarbeitsposter Revucky Michal

Michal Revucky

Masterstudium Software Engineering & Internet Computing
Abstract:

Diese Diplomarbeit ist über Generische Programmierung wie sie von modernen Sprachen zur Verfügung gestellt wird. Wir vergleichen die Sprachen C++, Java und Haskell. Im Vergleich soll festgestellt werden welche Sprache es uns gestattet Programme mit hoher Qualität zu erstellen. Wir vergleichen zwei Programe. Das erste Problem ist in allen drei Sprachen implementiert. Das zweite Problem ist in C++ und Java implementiert. Durch unseren Vergleich erfahren wir, dass für das erste Problem C++ am besten geignet ist. Weil C++ es uns erlaubt schnelle und gut wartbare Programme zu schreiben. Im Vergleich der zweiten Implementierung erfahren wir dass C++ im allgemeinen schneller als Java ist, jedoch nicht so gut portierbar wie Java. In Sachen Wartbarkeit ist es ausgeglichen.

Diplomarbeitsposter Willner Viktoria

Viktoria Willner

Masterstudium Informatikmanagement
Abstract:

Diese Arbeit beschäftigt sich mit der Didaktik Informatik. Sie soll Lehrpersonen bei der Entscheidung helfen, ob und wenn ja welches Tool zum Erlernen der Programmiersprache Java eingesetzt werden soll. Mit Hilfe eines neu entwickelten Kriterienkatalog werden fünf Tools beurteilt. Ziel dieser Beurteilung ist, Einschätzungen darüber zu treffen, welches Werkzeug dazu in der Lage ist, Schülern der Unterstufe, ein Gefühl für objektorientierte Programmierung zu vermitteln. Hier finden sich auch die Grundlagen des Kriterienkatalogs. Um die Bewertung begründen zu können, werden für jedes einzelne Tool aussagekräftige Beispiele vorgestellt. Die Bespiele sollen zeigen, warum ein Werkzeug, welche Bewertung im Kriterienkatalog erhalten hat. Die fünf Werkzeuge, die dieser Beurteilung unterzogen werden sind: das Java-Hamster-Modell, JavaTurtle, JavaKara, JavaKarol und BlueJ. Nach der Beurteilung ist klar ersichtlich, dass die Tools JavaTurtle und JavaKara zwar einen einfachen Einstieg in die Programmiersprache Java ermöglichen, sich aber nicht zur Einführung von objektorientierter Programmierung eignen. Das Java-Hamster-Modell bietet einen guten Einsieg in die objektorientierte Programmierung. Es kann jedoch nur unter Verwendung von Zusatzmaterial leicht und schnell benützt werden. Der Programmeditor von BlueJ erinnert stark an professionelle Umgebungen. Wobei BlueJ als Darstellung von Objekte und Klassen Klassendiagramme verwendet und der Schüler diese Konzepte anhand des Diagramms auch ohne Programmierkenntnisse erkunden kann. Der Nachteil von BlueJ liegt darin, dass dieses Tool über keine Simulation verfügt. Dies ist ein Nachteil, weil Schüler durch die Visualisierung seines Codes motiviert werden, selbst zu programmieren. Verbindet man jedoch BlueJ mit JavaKarol, erlischt dieser Nachteil, da JavaKarol eine Robotersimulation darstellt. JavaKarol kann aber nicht nur in BlueJ sondern auch in andere Programmierumgebung, wie Eclipse, importiert werden.

Arbeitsbereich (vor 2018) Theoretische Informatik und Logik

Diplomarbeitsposter Hutagalung Milka

Milka Hutagalung

Masterstudium DDP Computational Logic (Erasmus-Mundus)
Abstract:

Termination is besides confluence the most important and fundamental property of term rewriting systems (TRSs). If a TRS is terminating, then this guarantees that every strategy of computing with the system will always end with normal forms. But unfortunately, the undecidability of termination shows that there cannot be an automated method that will succeed in proving termination of all terminating TRSs. Numerous syntactical as well as semantical methods have been developed, but there are still many important TRSs whose termination cannot be shown. The dependency pair framework (introduced in [AG00] and generally formulated in [GTS05], shortly called the DP framework) is currently the most powerful method that can increase significantly the class of systems where termination is provable automatically. The power of the framework lies in its high flexibility, due to its general and modular structure, and the ability to incorporate other general termination proof methods. This thesis will summarize the DP framework and its ingredients. First, we summarize the theoretical foundations of the framework, that allows various dependency pair processors (DP processors) to successively simplify the initial termination proof problems. Then, as the main part of the summary, we will give a comprehensive survey of some important types of DP processors. The DP processors can be seen as the termination techniques in the DP framework. All termination proofs in the DP framework are basically obtained by repeated applications of DP processors. For each DP processor we work out the basic underlying ideas and theory, present some refinements, and illustrate their applications by examples. In addition, we will also include a short survey of some general termination proof methods, e.g. reduction orders (polynomial interpretations, matrix interpretations, simplification orders), match-bounds, and semantic labeling, which can also be applied within the DP framework.

Diplomarbeitsposter Pkhakadze Nikoloz

Nikoloz Pkhakadze

Masterstudium DDP Computational Logic (Erasmus-Mundus)
Abstract:

In this master thesis we have determined the minimal extension of quantified propositional Lukasiewicz logic which admits quantifier elimination. To obtained this result we solved following problems: we have extended Lukasiewicz logic by all division operators and have proven completeness of the extended logic. Afterwards we used McNaughton theorem to determine so called minimax points of Lukasiewicz logic truth functions. We expressed this points in the language of Lukasiewicz logic extended by all division operators, then by combining the above mentioned results we have obtained the desired admissibility quantifier elimination. As a corollary we obtained that quantified propositional Lukasiewicz logic extended by all division operators is semantically complete, decidable and hence recursively enumerable.

Diplomarbeitsposter Reitter Andreas

Andreas Reitter

Masterstudium Informatikmanagement
Abstract:

Diese Arbeit befasst sich mit dem Problem, dass Arbeitsabläufe in Softwareerzeugenden Organisationen oft immer komplexer werden. Um diese komplexen Arbeitsabläufe zu bewältigen, wurde ein Workflow-Management-System (WMS) entworfen und implementiert. Ziel des WMS ist es, die Anwender bei ihrer täglichen Arbeit aktiv zu unterstützen und den Arbeitsaufwand sogar zu reduzieren. Damit das WMS optimal eingesetzt werden kann, ist eine ausführliche Schulung der Anwender unumgänglich. Diese Arbeit zeigt auf, wie den Anwendern die Funktionen des Workflow-Management-Systems nähergebracht werden können, so dass diese das System effizient nutzen können. Es werden die betriebliche Weiterbildung betrachtet und verschiedene Vorgehensweisen für Schulungen erläutert. Anhand des Fallbeispiels einer IT-Abteilung eines mittelständischen Unternehmens wird ein Konzept für eine auf Blended Learning basierende Schulung vorgestellt. Im Zuge der Einführung des Workflow-Management-Systems in der Organisation konnten Zuständigkeiten klar definiert, Grobabläufe für Prozesse vorgegeben und die Erstellung einer ausführlichen Dokumentation zu den Prozessen veranlasst werden. Weiters wurden die Anwender mit Hilfe von Anwenderschulungen auf die Arbeit mit dem WMS vorbereitet. Als Abschluss der Arbeit wurde ein Fragebogen entworfen, mit Hilfe dessen die Benutzerakzeptanz untersucht und die Funktionen des WMS selbst evaluiert wurden.

Diplomarbeitsposter Schinkinger Susanne

Susanne Schinkinger

Masterstudium Medizinische Informatik
Abstract:

In der laufenden Umsetzung einer elektronischen Gesundheitsakte (EGA) in Österreich spielt das Akzeptanzmanagement eine wichtige Rolle, dass Wünsche, Ängste und Vorstellungen der potentiellen Interessensgruppen berücksichtigt. In der vorliegenden Studie wurde die Gruppe der Patienten näher untersucht und deren verschiedenste soziodemographische Faktoren als mögliche Einflüsse analysiert. Die qualitative Erhebung wurde in Form von 20 Interviews durchgeführt und fokussiert die Diskrepanz zwischen Stadt und ländlicher Bevölkerung als bedeutender Faktor in unterschiedlichen Einstellungen und Ansichten zu einer EGA in Österreich. Nach der Erarbeitung eines theoretischen Modells und der Durchführung qualitativer Vor-Interviews, wurden die Unterfragestellungen definiert und mit problemzentrierten Interviews überprüft: Menschen aus der Stadt trauen sich häufiger die persönliche Nutzung einer EGA zu. Menschen aus ländlichen Regionen haben weniger Ängste und Sorgen bezüglich eines Datenmißbrauchs. Bei den geplanten EGA-Funktionen zeigt sich, dass "Gesundheitsinformationen" mehr von Menschen aus ruralen Gegenden genutzt werden und die "persönliche Dateneingabe" mehr von Menschen aus der Stadt. Menschen aus der Stadt wünschen sich noch mehr Informationen über eine EGA. Beim Fokus auf ältere Menschen zeigte sich, dass diese aus der Stadt einen Kurs zur EGA-Nutzung besuchen würden. Die Studie konnte Unterschiede in der Akzeptanz und Nutzung einer EGA zwischen Menschen aus Ballungszentren und denen aus ländlichen Gegenden aufzeigen, die aber nicht direkt auf die Zugehörigkeit zu einer dieser beiden Regionen zurückgeführt werden können, sondern maßgeblich mit der "regionalen digitalen Spaltung" zusammenhängen. Die Ergebnisse bedeuten, dass das Akzeptanzmanagement unterschiedliche Maßnahmen bei Menschen aus urbanen und bei ruralen Gebieten setzen muss. Abschließend werden konkrete Empfehlungen für die Umsetzung der präsentierten Ergebnisse gegeben.

Institut für (vor 2018) Institut für Computergraphik und AlgorithmenE186

Arbeitsbereich (vor 2018) Algorithms and Complexity

Diplomarbeitsposter Berlakovich Martin

Martin Berlakovich

Masterstudium Computational Intelligence
Abstract:

Viele kombinatorische Optimierungsprobleme sind NP-schwer und können deshalb höchstwahrscheinlich nicht effizient exakt gelöst werden. Aus diesem Grund bedient man sich oft Heuristiken um gute Näherungslösungen für derartige Probleme zu finden. In dieser Arbeit wird das Rooted Delay-Constrained Minimum Spanning Tree Problem (RDCMSTP) behandelt. Es handelt sich hierbei um ein NP-schweres Problem, wobei für einen gegebenen Graphen, dessen Kanten über Kosten und einen Delaywert verfügen, ein kostenminimaler Spannbaum gesucht wird. Jedoch besteht die Einschränkung, dass der Pfad zwischen einem beliebigen Knoten und einer definierten Wurzel nicht länger als eine gegebene Delaygrenze sein darf. Eine praktische Anwendung für dieses Problem ist eine Form von Vertrieb mit einer Lieferzeitgarantie, beispielsweise ein Paketversand mit 24 Stunden Liefergarantie. Im Zuge dieser Arbeit werden drei Multilevel-Heuristiken für das RDCMSTP vorgestellt. Eine Multilevel-Heuristik besteht grundsätzlich aus zwei Teilen, dem Coarsening und dem Refinement. Während des Coarsenings werden Knoten und/oder Kanten systematisch zusammengefasst um so den Graph zu vereinfachen. Der Graph wird in mehreren Iterationen vereinfacht und es entstehen verschiedene Ebenen des Graphen, sogenannte Levels. Im zweiten Schritt, dem Refinement, wird, mit Hilfe der Informationen aus dem Coarsening, sukzessiv der gesuchte Spannbaum erstellt. Während des Refinements kann der Graph, mit Hilfe von lokalem Improvement, unter Verwendung geeigneter Nachbarschaftsstrukturen untersucht werden, um so eine Verbesserung der Gesamtlösung zu erzielen.

Diplomarbeitsposter Inführ Johannes

Johannes Inführ

Masterstudium Computational Intelligence
Abstract:

Im Rahmen dieser Arbeit wird die Möglichkeit der automatischen Erstellung von Spielern für das Spiel 2-AntWars untersucht. 2-AntWars ist eine Generalisierung von AntWars. AntWars wurde für einen Wettbewerb der Genetic and Evolutionary Computation Converence 2007 erfunden. 2-AntWars ist ein Spiel für zwei Spieler, wobei jeder Spieler die Kontrolle über zwei Ameisen auf einem Spielfeld hat. Auf diesem Spielfeld ist Futter an zufälligen Orten platziert und die Aufgabe der Spieler ist es, mehr Futter zu finden als der jeweilige Gegner. Um das Problem zu lösen wird ein Modell für das Verhalten eines 2-AntWars Spielers entwickelt und Genetic Programming, eine populationsbasierte evolutionäre Methode zur Programminduktion, wird verwendet um Spieler basierend auf diesem Modell zu erstellen. Die Machbarkeit dieses Ansatzes wird gezeigt, indem Spieler sowohl per Evolution im Spiel gegen fixe Spielstrategien als auch per Koevolution im Spiel gegeneinander entwickelt werden. Ein weiterer Kernpunkt dieser Arbeit ist die Analyse der Dynamik die während der Entwicklung der Spieler auftritt, sowohl von der evolutionären Perspektive als auch von den zur Schau gestellten Verhaltensweisen der Spieler her. Die Ergebnisse zeigen, dass es in der Tat möglich ist erfolgreiche 2-AntWars Spieler zu erzeugen die in der Lage sind, fixe Strategien ihrer Gegner zu schlagen. Auch der Versuch 2-AntWars Spieler von Grund auf durch Spiele gegeneinander zu entwickeln war von Erfolg gekrönt. Das zeigt, dass es möglich ist, künstliche Intelligenz für Spiele (und im Prinzip für alle Probleme die als Spiele formuliert werden können) zu erzeugen, ohne Spielstrategien von Hand entwerfen zu müssen. Die Verhaltensweisen die die entwickelten 2-AntWars Spieler an den Tag legten waren überraschend vielfältig. Ameisen wurden als Köder verwendet, versteckt und wurden generell verwendet um Schwächen im Spiel des Gegners schamlos auszunutzen.

Diplomarbeitsposter Schauer Christian

Christian Schauer

Masterstudium Software Engineering & Internet Computing
Abstract:

Der Fokus dieser Masterarbeit liegt auf der Rekonstruktion von zerstörten Textdokumenten, die durch den maschinellen Einsatz von sogenannten Cross-Cut Schreddern vernichtet wurden. Diese Geräte schneiden das Papier in regelmäßige, gleichgroße - bevorzugterweise rechteckige - Teile, was dazu führt, dass diese Schnipsel anhand ihrer Form nicht mehr unterscheidbar sind. Das Bestreben dieser Masterarbeit ist nun maschinell durch Cross-Cut Schredder vernichtete Dokumente originalgetreu wiederherzustellen. Hierfür wurde ein Genetischer Algorithmus (GA) entwickelt, implementiert und getestet um sich dieser Herausforderung zu stellen. Zu allererst wird aber eine formale Definition dieses Problems gegeben und auf verwandte Themen verwiesen. Während nämlich für die Papierrekonstruktion an sich ein paar wenige Ansätze bereits publiziert wurden, ist das Gebiet rund um den Cross-Cut Schredder noch kaum erschlossen. Weiters wird eine Einführung in das Funktionsprinzip von GAs und darüber hinaus in die anderen Gebiete der Evolutionären Algorithmen gegeben. Das behandelte Problem bezieht sich, im geometrischen Sinne, auf einen zweidimensional Raum. Da die ausgereiften GA Operatoren aber auf eindimensionalen Lösungsrepräsentationen arbeiten, mussten für diese Masterarbeit bewährte Operatoren adaptiert und neue entworfen werden. Um den GA noch weiter zu verbessern wurde eine lokale Suche mittels variabler Nachbarschaftssuche (VNS) eingebunden. Schlussendlich werden die Testergebnisse von neunzig Instanzen basierend auf zehn Dokumenten präsentiert, wobei diese Resultate zur Evaluation der erstellten Operatoren dienen. Einer dieser Ansätze war nachweisbar im Stande die bisherigen Methoden aufbauend auf Ameisenkolonie Optimierung und alleiniger VNS zu schlagen.

Diplomarbeitsposter Sonnleitner Mika

Mika Sonnleitner

Masterstudium Software Engineering & Internet Computing
Abstract:

Diese Arbeit behandelt das Generalized Minimum Spanning Tree-Problem (GMST), ein kombinatorisches Optimierungsproblem, das auf dem Mininum Spanning Tree (MST)-Problem basiert. Das GMST ist eine Verallgemeinerung des klassischen MST-Problems, das darin besteht, für einen gegebenen Graphen einen minimalen Spannbaum zu finden. Die Verallgemeinerung besteht darin, dass die Knoten in Cluster partitioniert sind. Für eine konkrete Lösung wird ein Spannbaum gebildet, der aus jedem Cluster genau einen Knoten verwendet. Das GMST ist NP-schwierig. In dieser Arbeit wird ein evolutionärer Algorithmus (EA) verwendet, der ein trie-basiertes Lösungsarchiv, basierend auf zwei verschiedenen Betrachtungsweisen des GMST, verwendet. Die erste Sichtweise besteht darin, die Knoten in den jeweiligen Clustern festzulegen. Da das verbleibende Problem dem MST entspricht, kann eine Lösung durch die Angabe der Knoten spezifiziert werden. Die zweite Vorgehensweise ist dann, die globalen Verbindungen zwischen den Clustern festzulegen. Das verbleibende Problem kann mittels dynamischer Programmierung gelöst werden. In einem Lösungsarchiv können Lösungen gespeichert werden, um einerseits Duplikate zu erkennen, um sie nicht ein weiteres Mal bearbeiten zu müssen, und andererseits eine neue, noch nicht durchsuchte Lösung zu bekommen. Da ein Lösungsarchiv für die erste Sichtweise bereits implementiert wurde, wurde in dieser Arbeit eines für die zweite entworfen. Dieses Lösungsarchiv basiert auf der Sichtweise, die globalen Verbindungen festzulegen. Es werden zwei verschiedene Darstellungsarten von Spannbäumen verwendet, die diese globalen Kanten repräsentieren, nämlich die Darstellung der Predecessor sowie Prüfernummern. Außerdem wurden die beiden Archive für bessere Ergebnisse kombiniert. Wie die Tests gezeigt haben, konnten mit dem neuen Archiv bessere Lösungen im Vergleich zum EA gefunden werden. Mit der Verwendung beider Archive noch bessere Lösungen gefunden werden.

Arbeitsbereich (vor 2018) Computergraphik

Diplomarbeitsposter Bagar Florian

Florian Bagar

Masterstudium Visual Computing
Abstract:

Wir präsentieren ein physikalisch basiertes Echtzeit-Wassersimulations- und Renderingverfahren, welches volumetrischen Schaum in den Echtzeitbereich einführt und den Realismus von dynamischen Flüssigkeiten maßgeblich verbessert. Dazu kombinieren wir ein partikelbasiertes Flüssigkeitsmodell, welches das Entstehen von Schaum berücksichtigt. Der Ansatz dieses Modells ist auf drei Schichten aufgebaut und bezieht die volumetrischen Eigenschaften von Wasser und Schaum ein. Die Bildung von Schaum basiert auf der sogenannten "Weber-Nummer", wobei die Schaumbildung ab einem gewissen Schwellwert einsetzt. Die Wasser- und Schaumoberfläche wird durch Tiefenbilder repräsentiert auf deren Grundlage die jeweilige Dicke der Schichten berechnet wird, was wiederum eine effiziente Berechnung der optischen Eigenschaften des Wassers zulässt. Des Weiteren führen wir das sogenannte Adaptive Curvature Flow Filtering ein. Es ermöglicht uns eine Wasseroberfläche zu generieren, die, unabhängig vom Betrachtungsabstand, immer gleich viel Detail aufweist.

Diplomarbeitsposter Hornacek Michael

Michael Hornacek

Masterstudium Visual Computing
Abstract:

The realization that we see lines we know to be parallel in space as lines that appear to converge in a corresponding vanishing point has led to techniques employed by artists to render a credible impression of perspective. More recently, it has also led to techniques for recovering information embedded in images—or, indeed, in paintings that feature correct perspective—concerning the geometry of their underlying scene. In this thesis, we explore the extraction of vanishing points in the aim of facilitating the reconstruction of urban scenes. In departure from most vanishing point extraction methods, ours extracts a constellation of vanishing points across multiple views rather than in a single image alone. By making use of a strong orthogonality criterion per view, optimal segment intersection estimation and a novel tripod fitting technique, our approach allows for the extraction of results that correspond closely to the dominant three pairwise-orthogonal orientations of a typical urban scene. Accordingly, ours can fairly be described as a material refinement of the approach proposed in Sinha et al.

Diplomarbeitsposter Major David

David Major

Masterstudium Medizinische Informatik
Abstract:

Model-based segmentation approaches are promising techniques to cope with variations in form and texture of the anatomy of interest. This is done by incorporating information about shape and texture appearance gained from an imaging modality in a model. The model can then be applied to segment the object of interest in target data, however most of the model-based approaches need a model intialisation for a fast and reliable segmentation of the object of interest. This thesis was motivated by novel works on fast anatomical structure localisation with Markov Random Fields (MRFs) and focuses on the sparse structure localisation of single vertebrae in CT scans for a subsequent model initialisation of more sophisticated segmentation algorithms. A MRF based model of appearance, which employs local information in regions around anatomical landmarks and geometrical information through connections between adjacent landmarks, is built on volumetric CT datasets of lumbar vertebrae. The MRF based model is built on a 6 landmark configuration in vertebra volumetric data and is additionally matched with target data. This is done by finding a best fit MRF matching by the Max-sum algorithm among feature points found by a decision tree based feature detection algorithm called probabilistic boosting tree (PBT). Anatomical landmark regions are described by vector spin-images and shape index histograms. Adjacency information is extracted by Delaunay tetrahedralisation where distances and gradient-related angles describe connections between adjacent regions. The results on single lumbar vertebra CT scans show that the MRF approach is applicable on volumetric CT datasets with an accuracy enough for supporting more sophisticated segmentation algorithms such as Active Appearance Models (AAMs).

Diplomarbeitsposter Maschek Matthias

Matthias Maschek

Masterstudium Visual Computing
Abstract:

In this thesis we try to give an overview how to train people using virtual reality. Also we explore which technology is needed to create enough realism to immerse the user. We will discuss how we chose the technologies we used to create a system for fire extinguishing training. Then we will explain how we implemented a system using those virtual reality methods and how we tried to immerse the user by using tracking, stereo rendering and modern rendering techniques to create a convincing output. In this system the fire spread and reaction to the extinguishing agents are calculated in realtime. Also this system provides a powerful content pipeline to create new scenes for the training on the fly.

Diplomarbeitsposter Mayer Albert Julian

Albert Julian Mayer

Masterstudium Visual Computing
Abstract:

Virtual texturing is a solution to the problem of real-time rendering of scenes with vast amounts of texture data which does not fit into graphics or main memory. Virtual texturing works by preprocessing the texture data into equally-sized tiles and determining the necessary tiles for rendering before each frame. These tiles are streamed to the graphics card and rendering is performed with a special virtual texturing fragment shader that does texture coordinate adjustments to sample from the tile storage texture. A thorough description of virtual texturing and related topics is given, along with an examination of specific challenges. Tile determination in view space is examined in detail and an implementation for compressing the resulting buffer in OpenCL is presented. Rendering with correct texture filtering from a texture which contains de-correlated texture tiles is attained by using tile borders with specific coordinate adjustment and gradient correction in the fragment shader. A sample implementation is described and serves to provide results concerning performance and correctness with different settings and architecture choices. Integration into Open Scene Graph for usage within a hybrid point-cloud / polygonal renderer enables rendering of high resolution paintings within catacombs modeled with point clouds. Another application is presented, the real-time display of a highly detailed model of New York with more than 60 GB textures. Quantitative analysis reveals that framerates above 200 FPS are attainable on complex scenes with multi-million polygons even with outdated hardware. At the same time quality remains high, results indicate that ”fallbacks”, that occur when a needed texture tile is not available, occur only for 0.01% of the pixels on average. These results show that virtual texturing can be a competitive solution for games, scientific and industrial applications, allowing for real-time rendering of scenes that could not be displayed previously.

Diplomarbeitsposter Mistelbauer Gabriel

Gabriel Mistelbauer

Masterstudium Visual Computing
Abstract:

Automated processing and visualization of vascular structures is a common task in medical imaging. Maximum Intensity Projection (MIP) and Curved Planar Reformation (CPR) are well established and robust methods for clinical use. In case of calcified vessel walls, occlusion prevents exploring the inside of the vessels when using MIP. CPR allows to cut a single vessel along its centerline and to visualize the lumen. Extending the idea of CPR, a novel automatic method for vessel visualization is proposed. It works with multiple vessel centerlines that do not necessarily need to be connected into a tree structure. Arbitrarily complex vascular structures are rendered in the volume as point sets and optionally, occlusion halos are created around them to enhance depth perception. Vessel centerlines are automatically extracted from a volumetric data-set after performing feature extraction in a scale-space. The user is provided with the ability to control the final image and he or she can visually select the desired centerlines with visual queries by stroking with the mouse. Furthermore, a combination with the recent Maximum Intensity Difference Accumulation (MIDA) visualization technique is presented, which has the advantages of Direct Volume Rendering (DVR) such as occlusion and depth cues, but does not require an explicit transfer function specification. It is demonstrated how the proposed technique can be applied to large data-sets, particularly to data featuring peripheral arterial occlusive diseases or in order to detect possible embolisms as presented on a pulmonary data-set.

Diplomarbeitsposter Preiner Reinhold

Reinhold Preiner

Masterstudium Visual Computing
Abstract:

Im Bereich des Echtzeitrenderings verzeichnet die Computergraphik eine immer rascher zunehmende Darstellungsfähigkeit für immer größere und komplexere Szenen. In den letzten Jahren haben sich eine Vielzahl an Rendering-Techniken etabliert, die die Qualität der generierten Bilder in konventionellen Polygonszenen immer mehr an den Fotorealismus konvergieren lässt. Vor allem im Teilbereich der realistischen Beleuchtung von Szenen stellen Global-Illumination (GI) Techniken aktuell ein wichtiges Forschungsgebiet dar. Im Vorfeld dieser Arbeit haben wir erstmals einen GI-Algorithmus auf riesige Punktwolkenszenen angewandt, mit dem wir eine realistische Beleuchtung von diffusen und glänzenden Objekten in Echtzeit erzeugen können. Die vorliegende Diplomarbeit setzt die Leistungsfähigkeit dieses GI-Renderers auf die nächste Ebene. Sie implementiert erstmals die Darstellung von Oberflächenspiegelungen auch für Punktwolkenszenen. Bisherige Echtzeit-Rendering-Techniken für gekrümmte Spiegelungen in Polygonszenen sind entweder extrem ungenau, oder unterstützen nicht jede beliebige Art von Oberfläche. Speziell konkav gekrümmte Oberflächen stellen bei aktuellen physikalisch korrekten Ansätzen ein Problem dar. Bisher können korrekte Spiegelungen auf komplexeren Oberflächen nur durch Offline-Algorithmen erzeugt werden. Wir haben eine neuartige Technik namens „Screen-Space Curved Reflections“ entwickelt, die es erlaubt, physikalisch korrekte Spiegelungen auf beliebig komplexen Oberflächen darzustellen. Die Methode basiert auf dem Ansatz, für jeden Punkt in der Szene jenen Pixel im Framebuffer zu suchen, der dessen reflektierenden Oberflächenpunkt enthält. Wir erreichen dies durch eine effiziente Nullstellensuche in einer von uns eingeführten Fehlerfunktion, der „mirror-space error function“. Obwohl unsere Methode hohe Anforderungen an die Hardware stellt, sind wir in der Lage, gängige Szenen bei interaktiven Bildwiederholungsraten darzustellen.

Diplomarbeitsposter Ritzberger Andreas

Andreas Ritzberger

Masterstudium Visual Computing
Abstract:

Connectomics is an emerging area of neuroscience that is concerned with understanding the neural algorithms embeded in the neural circuits of the brain by tracking neurons and studying their connections. From all the available scanning technologies only electron microscopy (EM) can provide sufficient scanning resolutions in order to identify neural processes. EM data sets, however, suffer from bad signal-to-noise ratio and artifacts introduced to the data set during the sectioning and digital reconstruction process of the scanned specimen. In this thesis we present two different approaches that generally allow noise and artifact reduction on volumetric data sets and which can be used to increase the visual quality of direct volume renderings (DVRs) of EM data sets. The fist approach we developed was an interactive, on-the-fly filtering framework that allows a user to filter even very large volume data set with resizable 3D filter-kernels. For comparison, we implemented an average, a Gaussian, and a bilateral filter. The second approach we investigated is a semi-automatic one that allows a user to select regions within a data set. Similar regions are then retrieved by our algorithm using multiresolution histograms and the user can remove these regions from the rendering. By selecting and hiding regions containing noise or artifacts, the desired noise- and artifact-reduction can be achieved. We are going to show that both methods we investigated are suitable for removing noise and artifacts in EM data sets.

Diplomarbeitsposter Scharl Johannes

Johannes Scharl

Masterstudium Visual Computing
Abstract:

Das Erstellen von weitläufigen virtuellen Umgebungen für interaktive Anwendungen wie Computerspiele stellt eine große Herausforderung für die Computergraphik dar. Solche urbanen Umgebungen werden meist per Hand von Level Artists mithilfe von kommerzieller Modellierungssoftware erstellt. Das ist jedoch für detailreiche, moderne Spiele kaum noch machbar, da es sich dabei um einen sehr zeitintensiven Prozess handelt. Prozedurale Methoden versuchen, Artists das Gestalten von virtuellen Welten zu vereinfachen. In dieser Diplomarbeit stelle ich ein System vor, das Artists und Game Designern dabei hilft, urbane Umgebungen für Spiele zu planen und zu modellieren. Es werden Methoden beschrieben, wie ein Straßennetz manuell und prozedural erzeugt werden und zu jeder Zeit im Entwicklungsprozess bearbeitet werden kann. Weiters stelle ich eine Methode vor, mit der eine geometrische Repräsentation von Straßen generiert wird, die sowohl Straßensegmente als auch beliebige Kreuzungen darstellt und sich an das darunterliegende Terrain anpasst. Außerdem beschreibe ich ein System, das eine Stadt automatisch mit Gebäuden aus einem Set von bestehenden Modellen bestückt.

Institut für (vor 2018) Gestaltungs- und WirkungsforschungE187

Arbeitsbereich (vor 2018) Multidisciplinary Design

Diplomarbeitsposter Bogacs Hannes

Hannes Bogacs

Masterstudium Medieninformatik
Abstract:

Generally, art and science are considered to be two different cultures. Scientists believe in the proven and peer-accepted, while pioneering artists often subvert such an approach. The gap between all artistic and scientific disciplines widened because the discrete space of specialized disciplines was more convenient than the longing for total knowledge, as it was in the past. The result of this thesis is a statement for new collaborations between artists and scientists and a wide-spread integration of both disciplines into modern society. Ultimately, this thesis answers questions regarding the manner in which artists can enrich research processes and art's relevancy in connection with a technoscientific culture. This thesis provides an analysis of contemporary new media artworks, which challenge our conception of the relationships between art, science and technology. Furthermore, it is intended to be a guide to art, influenced by scientific and technological innovation, that addresses research activity. The discussed projects are divided into practical categories with a focus on common scientific disciplines, for example, biology, physics, and mathematics. In addition, this thesis explicates historical aspects of art/science cross-fertilization and cites contemporary research centers, festivals, and organizations as examples of how to promote adventageous results of collaborative multidisciplinary art-practice. Numerous theorists, pragmatists and authors argue in favor of bridging the gap between art and science in order to achieve persisting and important improvements for the prosperity of humanity, culture, academia, and industry.

Diplomarbeitsposter Grof Oliver

Oliver Grof

Masterstudium Software Engineering & Internet Computing
Abstract:

In den letzten Jahren wurde viel über soziale Software im Unternehmen diskutiert und seit 2006 wird der Begriff Enterprise 2.0 zunehmend benutzt. Die vorliegende Diplomarbeit untersucht die Herkunft dieser Konzepte, stellt eine Verbindung zu anderen wissenschaftlichen Disziplinen her und analysiert die Zukunftsmöglichkeiten. Die Arbeit besteht aus einem theoretischen und einem praktischem Teil. Im theoretischen Teil werden sowohl die aktuellen Trends bezüglich Enterprise 2.0, als auch die zugrunde liegenden Technologien vorgestellt. Weiters werden einige Fallbeispiele und mögliche Probleme hinsichtlich der Benutzbarkeit erörtert. Da speziell soziale Netzwerke an Bedeutung gewinnen, wird im praktischen Teil die Programmierschnittstelle OpenSocial untersucht. Um herauszu nden, inwiefern OpenSocial für die Lösung unternehmensspezifi scher Probleme geeignet ist, wurde eine einfache Applikation, der Social Conference Manager, implementiert. Die Applikation wurde in einem off enen sozialen Netzwerk installiert, sodass sie von einigen ausgewählten BenutzerInnen im Rahmen eines Interviews getestet werden konnte. Das Interview beinhaltete sowohl allgemeine Fragen zu Enterprise 2.0, als auch konkrete Fragen über das getestete Tool. Basierend auf den gewonnenen Erkenntnissen werden in der vorliegenden Arbeit einige neue Anforderungen formuliert. Schließlich wird die Frage, ob OpenSocial für den Einsatz im Unternehmen geeignet ist, beantwortet, und es werden auch die Zukunftsperspektiven gezeigt. Insgesamt sind die aktuellen Ansätze aus technologischer Sicht vielversprechend; ohne eine reformierte Geschäftskultur und eine gesteigerte Sicherheit jedoch nicht erfolgreich einsetzbar.

Arbeitsbereich (vor 2018) Human Computer Interaction

Diplomarbeitsposter Avci Aysegül

Aysegül Avci

Masterstudium Informatikmanagement
Abstract:

Das Internet ist heutzutage sehr verbreitet und wird in allen Bereichen des Lebens verwendet. Anfänglich wurde das Internet für die Mitteilungen und Kommunikation eingesetzt. Dies hat die Kommunikation zwischen den Menschen beeinträchtigt, welche auf diese neuen Technologien zugreifen und im alltäglichen Leben einsetzen.Die Kommunikation erfolgte anfangs nur im Form von Texten, die bald von Audio und später von Video-Audio Kommunikation erweitert wurden. Diese Magisterarbeit soll sich mit der Usability von Instant Messaging Tools auseinander setzen. Dazu habe ich die Usability von „Skype“ mit der Usability-Methode „Online-Befragung“ getestet. Das Ziel dieser Arbeit ist es, die Aspekte und Usabilitymethoden herauszuarbeiten,die zu einer positiven Benutzbarkeit führen.

Diplomarbeitsposter Esmaeili Mani

Mani Esmaeili

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Die Rolle der Informations- und Kommunikationstechnologie (IKT) in der Informationsgesellschaft und die daraus entstehenden Auswirkungen auf die repräsentative Demokratie sind das zentrale Thema dieser Arbeit. Zunächst werden die repräsentative Demokratie, ihre Sonderformen und die direkte Demokratie formal definiert, um in weiterer Folge ihre für die in der Informationsgesellschaft vorherrschenden Transformationsprozesse relevanten Schnittstellen zu bestimmen. Anschließend werden drei theoretische Modelle der Informationsgesellschaft, nämlich die „information economy“, die „nachindustrielle Gesellschaft“ sowie die „informatisierte Industriegesellschaft“ untersucht. Um das theoretisch-gesellschaftliche Grundgerüst zu komplettieren, wird Manuel Castells´ Netzwerkgesellschaft analysiert. Ausgehend von diesen Modellen wird das Konzept der „neuen Informationsgesellschaft“ spezifiziert. In weiterer Folge werden jene Transformationsprozesse dieser Gesellschaftsform bestimmt, die sich über die eingangs bestimmten Schnittstellen verstärkend bzw. erodierend auf die repräsentative Demokratie auswirken können. Um die daraus resultierenden Auswirkungen zu verdeutlichen, werden verschiedene Fallbeispiele analysiert: Zuerst die Technologie Tethering, danach die Homepage von Heinz Fischer aus dem Präsidentschaftswahlkampf 2010 in Österreich sowie WikiLeaks und der G8 Gipfel in Heiligendamm. Zum Abschluss werden die aus den Fallbeispielen gewonnenen Erkenntnisse dafür verwendet, um mögliche Zukunftsszenarien zu beschreiben: die repräsentative Funktionärsdemokratie, die repräsentative Herrschaft Weniger, die repräsentative Scheindemokratie sowie die repräsentative Plutokratie.

Diplomarbeitsposter Furm-Hazivar Andreas

Andreas Furm-Hazivar

Masterstudium Software Engineering & Internet Computing
Abstract:

Die vorliegende Diplomarbeit evaluiert WIP-Online, ein Moodle- und damit webbasiertes E-Learning-System. Als Vorarbeit dazu werden die Grundlagen der Human-Computer Interaction (HCI) und der Usability betrachtet, sowie die verschiedenen Möglichkeiten der Evaluation von User Interfaces diskutiert. Weiters werden die verwendeten Kategorien und die dahinter liegenden, für die Eva-luation notwendigen, Theorien beschrieben. Ziel der Arbeit ist es, das E-Learning-System möglichst umfassend zu evaluieren. Daher wer-den nicht nur klassische E-Learning- und Usability-Guidelines herangezogen, sondern auch Normen und allgemeine Design-Richtlinien, sowie Guidelines für die Bereiche Web-Usability, Gender, Universal Accessibility und E-Tutoring. Im Hauptteil der Arbeit werden die 101 Guidelines vor- und übersichtlich dargestellt und die Webapplikation hinsichtlich der jeweiligen Guideline betrachtet und evaluiert. Konkrete Verbesserungsvorschläge werden – dort wo sie angebracht sind – gemacht.

Diplomarbeitsposter Lendl Christian

Christian Lendl

Masterstudium Medieninformatik
Abstract:

Die Visualisierung zeitbasierter geographischer Daten gewinnt mit steigender Verwendung von Karten wie Google Maps oder OpenStreetMap immer mehr an Bedeutung. Eines der wichtigsten Anwendungsfelder interaktiver Darstellung sind historische Daten. Werden diese in Form eines interaktiven historischen Atlanten intelligent aufbereitet und ansprechend präsentiert, ergeben sich gegenüber klassischen Papier-Versionen eine Reihe von Vorteilen – insbesondere beim Einsatz im Geschichtsunterricht und der Verwendung in Museen. Es gibt derzeit eine Reihe von Systemen zur Visualisierung solcher Daten – beispielsweise TimeMap oder ConflictHistory – die allesamt einzelne Aspekte der zeitbasierten Darstellung herausgreifen, andere wiederum vernachlässigen oder gänzlich außer Acht lassen. Ein genereller Ansatz zum Umgang mit zeitbasierten Geodaten fehlt – besonders die Kombination von zeitlicher und geographischer Interaktion bedarf einer Weiterentwicklung. Die Vielfalt an unterschiedlichen Daten, für die eine solche Visualisierung geeignet wäre, ist immens. Neben den bereits erwähnten historischen Daten lassen sich auch Wirtschaftsdaten, kontinuierliche Messdaten oder Echtzeitdaten in ansprechender Weise darstellen. Eine interaktive Darstellung bringt jedoch auch Probleme und Herausforderungen mit sich. Eine der größten ist die Visualisierung von Unsicherheit. Eine allgemeingültige Methode, fehlendes Wissen über die darzustellenden Daten zu visualisieren, ist noch nicht gefunden. Daneben spielt auch die automatisierte Beschriftung – ein „klassisches“ Problem der computerunterstützten Kartographie, das durch Interaktivität an Komplexität gewinnt – eine wichtige Rolle. Alle diese Aspekte innerhalb des Rahmens einer Diplomarbeit zu einem neu entwickelten System zu verarbeiten, ist nicht möglich – diese Arbeit stellt jedoch eine wissenschaftlich fundierte Basis für weitere Entwicklungen und Folgeprojekte dar.

Diplomarbeitsposter Musil Andreas

Andreas Musil

Masterstudium Informatikmanagement
Abstract:

Das Ziel dieser Diplomarbeit ist die Beleuchtung des Spannungsfeldes, innerhalb dessen Entscheidungen getroffen werden, die die Abwicklung von großen Software-Projekten betreffen. Die Arbeit ist in zwei Teile geteilt, wobei sich der erste Teil mit den theoretischen Grundlagen dieser Thematik befasst, während der Praxisteil mit Hilfe von angeleiteten Interviews die in der Theorie gewonnenen Erkenntnisse kontrastriert. Der Theorieteil behandelt Themen wie bspw. die Fragen, was ein Projekt zu einem Großprojekt macht, welche Designfragen bei großen Softwareprojekten besonders im Vordergrund stehen sollten, bzw. welch weites Feld Entscheidungsprozesse darstellen. Im Praxisteil kommen Entscheidungsträger zu Wort, die bereits über Erfahrung mit Software-Großprojekten verfügen. Die Interviews werden in einer Weise zusammengefasst, die es ermöglicht, sie als Gegenüberstellung zu den theoretischen Erkenntnissen betrachtet werden können.

Diplomarbeitsposter Zdravkowitsch Alexander

Alexander Zdravkowitsch

Masterstudium Software Engineering & Internet Computing
Abstract:

Wer sich die Arbeit der Piloten im Laufe der vergangenen 100 Jahre ansieht merkt, dass sich die Distanz des Flugzeugführers zu seinem Werkzeug immer weiter vergrößert hat. Zu Beginn der Fliegerei saß der Pilot ungeschützt auf seiner Maschine, danach zwar in ihr, aber immer noch mit dem Kopf im Freien. In den 1930er Jahren wurde die Pilotenkabine eingeführt, mit der der Flugzeugführer von seinem Medium – der Luft – abgeschnitten wurde. Dennoch konnte er sich durch das Führen der Steuersäule, die ihm alle durch die Strömungen an Seiten- sowie Höhenruder verursachten Stöße mitteilte, ein Bild über die ihn umgebenden und für ihn informationsrelevanten Luftströme machen. Durch den Einbau der Hydraulik wurden diese Vibrationen jedoch gedämpft und nun – im Computerzeitalter – sind es elektrische Leitungen, die die Signale zum Betätigen der Ruder weiterleiten – die Abstraktion des Fliegens ist vollbracht. Wenn nicht der Ausblick aus dem Cockpit wäre, könnte der echte Flug nicht mehr von einer Computersimulation unterschieden werden. Der Airbus A320 prägte den Begriff des sogenannten „gläsernen“ Cockpits. Mit seiner Einführung wurden erstmals in einem Verkehrsflugzeug alle mechanischen Zeigerinstrumente durch Bildschirme ersetzt. Auch wurde das schwere Steuergestänge, das das Steuerhorn direkt mit den Rudern verband, durch Steuercomputer und elektrische Leitungen (Fly-by-wire) ausgetauscht. In der vorliegenden Diplomarbeit wird im ersten Teil das Cockpit moderner Verkehrsflugzeuge am Beispiel des Airbus A320 vorgestellt. Der zweite Teil befasst sich mit den Ursachen der Automatisierung, beschreibt Unfälle, die unmittelbar durch Computerfehler oder eine schlecht programmierte Mensch-Maschine-Schnittstelle verursacht wurden, und geht schließlich der Forschungsfrage nach, ob der vermehrte Computereinsatz zu einer Steigerung der Flugsicherheit geführt hat und ob durch eine weitere Automatisierung das derzeitige Zweimann-Cockpit durch ein Einmann-Cockpit ersetzt werden kann.

Institut für (vor 2018) Softwaretechnik und Interaktive SystemeE188

Arbeitsbereich (vor 2018) Information & Software Engineering

Diplomarbeitsposter Ambach Stephanie

Stephanie Ambach

Masterstudium Business Informatics
Abstract:

Der Einsatz moderner Informationstechnologien (IT) ist für Unternehmen eine Grundvoraussetzung ihrer Geschäftstätigkeit geworden. Aus diesem Grund betreiben viele Unternehmen Trendforschung, indem sie aktuelle IT-Trends ermitteln. Bei den klassischen Methoden der Trendforschung wird das Internet kaum als Datenbasis verwendet. Mit der Entstehung des Web 2.0 ist das Internet allerdings zu einer interaktiven Welt geworden, in der Meinungen und Kommentare zwischen Usern ausgetauscht und elektronisch gespeichert werden. Diese Informationen lassen sich in vier unterschiedliche Sphären einteilen: Wissen, Expertenmeinung, kollektive Intelligenz und Weisheit der Vielen. Im Rahmen dieser Diplomarbeit sollte im Allgemeinen untersucht werden, ob das Web 2.0 die Meinung von IT-Experten zu den IT-Trends 2010 widerspiegelt. Hierfür wurden in einem ersten Schritt die IT-Trends 2010 des deutschsprachigen und des englischsprachigen Raums erhoben. Dies geschah einerseits mittels einer Expertenbefragung und andererseits durch die Ermittlung der kollektiven Intelligenz des Web 2.0 mittels sozialer Netzwerkanalyse (SNA). Für die zweite Forschungsmethode wurde die vom MIT entwickelte Software Condor verwendet. Anschließend wurden die Ergebnisse beider Erhebungsinstrumente ausgewertet und miteinander verglichen. Es zeigte sich, dass die SNA des Web 2.0 ein anderes Ranking von IT-Themen im deutschsprachigen Raum liefert, als die Expertenbefragung. Zudem wurde mittels Condor ein Unterschied zwischen den IT-Trends 2010 im deutschsprachigen Raum und jenen im englischsprachigen Raum festgestellt. Die IT-Experten waren allerdings der Meinung, dass es keinen Unterschied zwischen den beiden Sprachräumen gibt. Des Weiteren wurde festgestellt, dass die Ermittlung von IT-Trends im deutschsprachigen Raum mittels der Analyse der kollektiven Intelligenz des Web 2.0 nicht immer realisierbar ist. Dies resultiert daraus, dass die Qualität von deutschen Blogs nicht der von englischen Blogs entspricht.

Diplomarbeitsposter Daferner Philipp

Philipp Daferner

Unterrichtsfach Informatik/Informatikmanagement
Abstract:

Heutzutage spielen eine steigende Anzahl von Kindern und Jugendlichen immer länger und immer öfter Computerspiele. Die Ausbildung nimmt eine immer wichtigere Rolle in der Gesellschaft ein. Die Zeit, die mit Computerspielen verbracht wird, könnte wesentlich gewinnbringender in Lernen investiert werden. Da herkömmliches Lernen Kinder und Jugendliche aber nicht so zu motivieren und zu faszinieren vermag wie Computerspiele und weil Menschen nicht durchgehend konzentriert Lernen können, beschäftigt sich diese Arbeit mit der Vereinigung der Vorteile von Computerspielen mit denen des Lernens. Diese Arbeit zeigt, wie der Designprozess moderner Computerspiele verändert werden muss, um Lerninhalte in solche Spiele zu verpacken. Zur Beantwortung dieser Frage muss geklärt werden, wann und wie Lernen stattfindet, wie der Inhalt strukturiert werden muss und welche Rolle Computerspiele beim Lernen spielen können. Deshalb wird ein Prototyp erstellt um herauszufinden, wie der Designprozess verändert werden muss und stellt ein Beispiel für die Erstellung eines Computerspiels mit Lerninhalt dar. Bevor dieser Prototyp gestaltet und implementiert werden kann, müssen mittels einer Literaturrecherche Fragen über Lerntheorien, Didaktik und den Designprozess von Computerspielen beantwortet werden. Die Ergebnisse dieser Arbeit zeigen, dass sich das Design eines Spiels aus Digital Game-Based Learning an vorherrschenden industriellen Richtlinien orientieren muss, die von Anfang an durch didaktische Aspekte modifiziert werden, damit der Lerninhalt nicht künstlich hinzugefügt wirkt, sondern wirklich ein Teil des Spiels ist.

Diplomarbeitsposter Haubner Philipp

Philipp Haubner

Masterstudium Business Informatics
Abstract:

Die Informations- und Kommunikationstechnologie (IKT) hat bereits jeden Aspekt unseres Lebens verändert. Die verstärkte Verwendung geht auch mit einer immer höher werdenden Abhängigkeit einher. Dabei werden vermehrt Schwächen der derzeitigen Systeme sichtbar. Speziell in Entwicklungsländern sind Menschen mit Fragen wie Leistbarkeit, Verlässlichkeit, fehlender Infrastruktur sowie unzureichender Ausbildung im Zusammenhang mit IKT konfrontiert. Diese lassen sich unter dem Begriff "ICT Gap" zusammenfassen. Abgesehen davon ist die Anonymität der Nutzer in aktuellen Systemen nicht gewahrt. Oft lassen sie sich leicht deaktivieren, überwachen und unter Zensur stellen. Bis vor wenigen Jahren wurde der starke Einfluss von IKT auf unsere Gesellschaft von Regierungen kaum wahrgenommen. Seither wächst das Engagement der Politik zur Kontrolle der IKT jedoch stetig. Kurz gesagt: Die freie Meinungsäußerung ist in Gefahr. Das Ziel dieser Diplomarbeit ist es sich dieser Bedrohung entgegenzustellen. Dazu wurden Anforderungen definiert, die ein System erfüllen muss, um diesem Zweck zu dienen. Besonderer Wert wurde auf eine verlässliche Kommunikation gelegt. Diese soll anonym, hoch verfügbar, sowie robust gegen Zensurmaßnahmen sein. Diese Anforderungen dienten als Ausgangspunkt um bestehende Ansätze zu diesem Thema zu sammeln. Dabei wurden verschiedenste Bereiche der Forschung, wie Peer-to-Peer Architekturen, verteiltes Speichermanagement in Distributed Hash Tables und Anonymität durch Onion Routing einbezogen. Unterschiedliche Aspekte wurden mit eigenen Ansätzen kombiniert und daraus eine theoretische Architektur abgeleitet. Dieses Konzept wurde anschließend durch einen Prototypen evaluiert. Die Implementierung umfasste dabei eine Java und eine Android Applikation. Abschließend wurde anhand von Tests überprüft, in welchem Ausmaß die definierten Anforderungen erfüllt wurden. Besonderes Augenmerk wurde dabei auf Ausfallstoleranz und Widerstandsfähigkeit gegen Zensur gelegt.

Diplomarbeitsposter Hötzendorfer Walter

Walter Hötzendorfer

Masterstudium Business Informatics
Abstract:

Cloud Computing ist ein Konzept, das die Nutzung von skalierbaren IT-Infrastrukturen, Plattformen und Anwendungen ermöglicht, die on-demand über das Internet bezogen und nutzungsabhängig abgerechnet werden. Der Untersuchungsgegenstand der Diplomarbeit ist auf Public Clouds beschränkt, die im Gegensatz zu Private Clouds von einem Anbieter für eine große Zahl von Kunden betrieben werden. Die zugrundeliegende Infrastruktur wird somit von vielen Kunden gemeinsam genutzt. Die Arbeit untersucht die Einsatzmöglichkeiten von Cloud Computing in österreichischen Unternehmen und bezieht dabei IT-strategische und rechtliche Aspekte sowie die aktuelle Marktsituation mit ein. Zunächst werden Cloud Computing und dessen verschiedene Ausprägungen sowie verwandte Begriffe definiert. Dabei wird deutlich, dass Cloud Computing kein völlig neuer Ansatz ist, sondern sich aus bestehenden Konzepten entwickelt hat. Ein Schwerpunkt liegt dann auf der Aufarbeitung der rechtlichen Rahmenbedingungen des Cloud Computing in Österreich, insbesondere des Datenschutzrechts. Dieses kann in bestimmten Fällen die Einsatzmöglichkeiten von Cloud-Services erheblich einschränken. Nach IT-strategischen Überlegungen pro und contra Cloud Computing werden ausgewählte, auf dem Markt befindliche Cloud-Services untersucht. Dies umfasst eine Beschreibung der Angebote sowie eine Analyse der Vertragsbedingungen und sonstiger relevanter Kriterien. Aus diesen und den davor gewonnenen theoretischen Erkenntnissen wird anschließend ein Vorgehensmodell für die Entscheidungsfindung hinsichtlich der Nutzung von Cloud Computing abgeleitet. Dieses bildet eine systematische Zusammenstellung der Ergebnisse der Arbeit und kann somit von österreichischen Unternehmen verwendet werden, um – unter Einbeziehung ihrer individuellen Gegebenheiten – geeignete Einsatzmöglichkeiten für Cloud-Services zu ermitteln. Im darauffolgenden Kapitel wird dies für mehrere prototypische Klassen von Unternehmen exemplarisch durchgeführt.

Diplomarbeitsposter Jaros Michael

Michael Jaros

Masterstudium Software Engineering & Internet Computing
Abstract:

Requirements Engineering is a crucial success factor in software development projects. Tool support for Requirements Management (ReqM) allows collaboration on requirements and keeping track of requirements changes, especially in projects that are distributed or have many requirements. Commercial tools typically have (high) license and training costs, their use is sophisticated and hard to learn; they offer limited integration with other tools and limited extensibility. Most open-source (OS) tools do not have these limitations, but there is practically no OS ReqM solution. Furthermore, most of the existing ReqM tools have the following shortcomings: Limited versioning, inadequate traceability support, limited integration with other tools. To address these issues, I have developed the OS ReqM plug-in TreqPro for the collaboration platform Trac. TreqPro provides extended versioning functionality, flexible traceability support, good integration with other tools, and high extensibility. For evaluating the TreqPro prototype, 8 ReqM experts at Siemens Austria participated in a usability pilot study in which I compared the prototype with the Siemens Austria standard tool Requisite Pro and the OS tool Trac considering (a) user satisfaction, (b) execution time and (c) completeness for 9 standard use cases. Furthermore, I have created a comprehensive ReqM tool feature catalog as a basis for the prototype development from expert interviews, a web survey and existing work. In the pilot study, the prototype displayed considerable improvements in all 3 measured parameters (a), (b), and (c) compared to existing tools. Satisfaction could be improved by 40 % compared to Trac and by 61 % compared to Requisite Pro. Execution time could be improved by 34 % compared to Trac and 39 % compared to Requisite Pro. Completeness could be improved by 87 % compared to Trac and 74 % compared to Requisite Pro. The participants gave valuable qualitative feedback on the prototype.

Diplomarbeitsposter Kaltenecker Andreas

Andreas Kaltenecker

Masterstudium Business Informatics
Abstract:

Free/Libre Open Source Software (FLOSS) differs from closed source software development in a variety of ways. There are different development processes, distinct motivations, toolsets and structures of a development team. In both cases it is possible to analyze the current quality of software. As a difference, Open Source Software provides the chance to look behind the scenes. Due to the open development process it is possible to analyze not only the product quality but also the structure of the community and the development process behind. This diploma thesis takes up this advantages and uses publicly available data in a social context in order to extract information about how members of a community act and interact. The interpretation of this information and the analysis of change over time allows to draw conclusions about the structure of a community which is used in order to evaluate the current health status and future development of a FLOSS project. The instruments introduced in this thesis which meet the requirements for evaluating the health status of FLOSS projects are provided within the concept of "Social Network Analysis". Social Network Analysis can be seen as a roof for measures describing and analyzing the composition, size and scope of social networks which consist out of actors and relations combining them. The possibilities of the Social Network Analysis are discussed and health indicators which are applied to specific examples in the practical part of this thesis are introduced. In order to calculate relevant measures or illustrate the dependencies within a network an own tool called "SNAnalyzer" was developed.

Diplomarbeitsposter Kasal Kresimir

Kresimir Kasal

Masterstudium Software Engineering & Internet Computing
Abstract:

Since our modern society is critically dependent on software systems, software security is rapidly becoming an important issue. Threats from security breaches range from defeats of copy protection mechanisms to harassments like malicious intrusions into systems that control crucial infrastructure. Software vulnerabilities, arising from deficiencies in the software design or its implementation due to increasing complexity, are one of the main reasons for security incidents. Because of its good characteristics in tackling software complexity, model-driven engineering was utilized to develop secure information systems. Many proposals dealing with integrating security and modeling languages followed and were summarized under the term Model-Driven Security. Due to the large amount of available modeling and specification approaches for describing secure information systems, the question arises which method to use for which problem. There is no common comparison framework to oppose the different methods to each other with regard to security and to indicate the promising approach. This thesis contributes to the research area of software engineering by defining a taxonomy for model-driven security. It evaluates eleven state-of-the-art approaches and classifies them according to the provided taxonomy. Thereby it answers the question which approaches are applicable for solving which development problems, and what specific characteristics these techniques feature. Furthermore, two evaluated methods are applied and security properties which are required for our case study system PIPE are evaluated. In addition, after analysing and validating the system and its security requirements, a solution is provided in case a required security property has been violated. The benefit of the work is a framework for classifying model-driven security approaches and formal specification methods, and an analysis of the PIPE system and its security requirements.

Diplomarbeitsposter Leberbauer Florian

Florian Leberbauer

Masterstudium Informatikmanagement
Abstract:

Die Diplomarbeit beschäftigt sich mit der Konzeption, Umsetzung, Durchführung und Evaluation eines Lernspiels zum Thema Internet Security. Sie soll eruieren, ob eine spielerische Vermittlung von Inhalten den Lernprozess fördern und die eigenständige Informationsbeschaffung stärken kann. Weiters soll geklärt werden, inwiefern man durch den Einsatz eines Lernspiels das Bewusstsein für Internet Security erhöhen kann. Es wurde ein Online (Rollen-)Spiel konzipiert und erstellt, das interessierten Internet-Usern die Thematik, Aktualität und Wichtigkeit des Themas Internet Security näher bringt. Im Vordergrund steht die spielerische Vermittlung von sicherheitsrelevanten Grundlagen im Internet durch praktische Anwendung in vorgegebenen Beispielen. Um die Attraktivität der Beispiele zu erhöhen, kommt es zum Einsatz verschiedener IKT-Technologien, alternativer Lösungswege und mehreren Schwierigkeitsstufen. Die Beispiele sind in einer Art und Weise ausgearbeitet, dass diese sowohl von IT-Anfängern als auch Fortgeschrittenen gelöst werden können. Die Durchführung erfolgte online und wurde von einer Stichprobe von 66 Teilnehmern absolviert. Die Evaluation erfolgte in Form einer quantitativen Befragung vor Spielbeginn und nach der (erfolgreichen) Durchführung des Spieles. Hierfür wurden Fragebögen ausgearbeitet, die das Spiel und den Spieler als Gesamtes evaluieren.

Diplomarbeitsposter Lindenbauer Beate

Beate Lindenbauer

Masterstudium Informatikmanagement
Abstract:

Diese Arbeit beschäftigt sich mit Lernsoftware, welche im Informatikunterricht eingesetzt werden kann, um den Schülerinnen und Schülern den Lehrstoff auf spielerischem Weg näherzubringen. Da das Gebiet der Informatik ein sehr komplexer Bereich ist, wurde besonders auf den explorativen beziehungsweise entdeckenden Faktor Wert gelegt, eine Unterrichtsform, bei der das Gelernte stärker im Gehirn verankert wird, indem neue Wissensgebiete durch Erforschen entdeckt werden. Zuerst wird auf den Begriff des entdeckenden Lernens näher eingegangen und wie dieser im Unterricht effizient angewendet werden kann. Außerdem wird erörtert, warum genau im schulischen Kontext die Rede von gelenktem Entdecken ist. In der Arbeit wird ein Bezug zwischen explorativem Lernen und dem Konstruktionismus hergestellt und dessen unterschiedliche Bedeutung zum Konstruktivismus erörtert. Um sich einen Überblick über Lernsoftware im Informatikunterricht, die in diesem Bereich existiert, zu verschaffen, werden die Programme Logo, Scratch und Informaticus exemplarisch vorgestellt. Schließlich wird das Programm Biber vorgestellt, welches ich im Rahmen dieser Arbeit eigenständig entwickelt habe. Dieses bezieht sich auf den Bebras-Contest, dessen Ziel es ist, bei Jugendlichen zwischen 10 und 19 Jahren Interesse an Informatik zu erwecken. Die Software beinhaltet sämtliche Fragen des Bebras-Contest von 2009. Die Art der Fragestellung erfolgt bis zu einem gewissen Grad adaptiv, ein wichtiges Kriterium im Bezug auf gelenktes Entdecken, wobei die Aufgaben explorativen Charakter aufweisen. Um auf diese besondere Lernform des entdeckenden Lernens weiter einzugehen, werden bei diversen Problemstellungen hilfreiche zusätzliche Informationen für die Lernenden bereitgestellt. Das hat zum Ziel, dass sich die Anwender des Programms mehr mit der Materie auseinandersetzen, wodurch der Lehrstoff besser verstanden wird und später wieder leichter aufgerufen werden kann, ein bedeutendes Ziel von entdeckendem Lernen.

Diplomarbeitsposter Pieber Andreas

Andreas Pieber

Masterstudium Software Engineering & Internet Computing
Abstract:

Software-intensive Systeme bestehen aus einer Vielzahl von Komponenten, wobei sowohl das Verhalten jeder einzelnen Komponente, als auch das Zusammenspiel mehrerer, durch Software gesteuert wird. Neben Prozesssteuerung und –überwachung, ist auch eine intensive Interaktion zwischen Softwareentwicklern und anderen Spezialisten (wie zum Beispiel Maschinenbauern und Elektroingenieuren) nötig um solche Systeme spezifizieren, designen und entwickeln zu können. Zur Zeit gibt es allerdings kaum Toolunterstützung für die flexible Integration von heterogenen, softwareintensiven Systemen. Zur Erhöhung der Produktqualität und Verringerung der Fehlerrate werden Systeme benötigt, die einen effizienten, flexiblen und plattformunabhängigen Ansatz zur Integration von heterogenen Teams, Werkzeugen und disziplinübergreifenden Prozesse erlauben. In dieser Arbeit wird ein Lösungsansatz vorgestellt, der in der quelloffenen Engineering Service Bus (OpenEngSB) Plattform implementiert wurde. Diese Plattform erweitert das Konzept des Enterprise Service Bus (ESB) um Lücken bei der Integration von heterogenen Werkzeugen zu schließen. Zusätzlich wird eine Methode definiert, um disziplinübergreifende Prozesse in softwareintensiven Systemen zu beschreiben und zu implementieren. Das OpenEngSB Konzept wird anhand einer Fallstudie mit zwei praxisorientierten Szenarios mit dem aktuellen Stand der Technik verglichen: (1) „Continuous Integration and Test“ und (2) "Änderungsmanagement von Signalen über Werkzeugdomänen hinweg“. Die Analyse zeigt, dass die Implementierung mit dem OpenEngSB verglichen mit den heute üblichen Vorgehensweisen, zu effizienteren und effektiveren Ergebnissen führt. Weiters ist die Integration der Tools und Prozesse mit Hilfe der OpenEngSB Plattform schneller durchzuführen und flexibler anzupassen.

Diplomarbeitsposter Reinbacher Thomas

Thomas Reinbacher

Masterstudium Informatikmanagement
Abstract:

Bildungsstandards, Kompetenzmodelle, Qualifikationsrahmen sind die Schlagwörter der jüngsten Bildungsdiskussionen. Eine Vergleichbarkeit zwischen den EU Mitgliedstaaten und eine eindeutige Kategorisierung der erworbenen Kompetenzen ist das erklärte Ziel. Mit dem Projekt Bildungsstandards in der Berufsbildung des Bundesministeriums für Unterricht, Kunst und Kultur (bm:ukk) sollen in einem ersten Schritt transparente Darstellungsformen von Lernergebnissen sowie Systemvergleichbarkeit erarbeitet werden. Einzelne Arbeitsgruppen arbeiten konkrete Kompetenzmodelle aus und definieren somit Fähigkeiten in verschiedenen Fachgebieten, die ein künftiger (z.B. HTL) Absolvent beherrschen soll. Wissenschaftliche Methode: Mithilfe von qualitativen Interviews wird der IST Zustand der Informatikausbildung in den HTLs erhoben. Weitere Interviews bringen die Anforderungen der Industrie an künftige HTL Absolventen in Erfahrung. Die in der Arbeit ausgearbeiteten Unterrichtsblöcke wurden in einer Experten Feedback Loop entwickelt. Eine umfassende Literaturrecherche stellt die theoretische Basis der Arbeit dar. Zentrale Ergebnisse: Im gegenwärtigen Informatikunterricht finden sich aber nur äußerst selten Themen der (formalen) Softwareverifikation wieder. Diese Vermutungen werden durch die durchgeführten Interviews mit Lehrenden als auch mit Personalverantwortlichen der Industrie bestätigt. Es stellt sich heraus, dass es ein signifikantes Ungleichgewicht zwischen Lehre und den Anforderungen der Industrie gibt. Die vorliegende Arbeit zeigt erstmals eine konkrete Umsetzung des Kompetenzmodells für eine Elektrotechnik HTL für einen auf Verifikation von Software und Systemen ausgerichteten Unterricht. Die ausgearbeiteten Unterrichtsblöcke sind mit einer Einordnung in den aktuell vorliegenden Entwurf des Kompetenzmodells versehen, aber bewusst so konzipiert, dass diese auch außerhalb dieses Modells im Unterrichtsalltag eingesetzt werden können.

Diplomarbeitsposter Richtsfeld Martin Gottfried Josef

Martin Gottfried Josef Richtsfeld

Masterstudium Business Informatics
Abstract:

In der Vergangenheit wurden stets neue Sicherheitszugriffskontrollmodelle aufgestellt. Die fünf wichtigsten, aktuellen Modelle, „Discretionary Access Control (DAC)“, „Lattice Based Access Control (LBAC)“ , „Role Based Access Control (RBAC)“ , „Enterprise Dynamic Access Control (EDAC)“ und „Attribute Based Access Control (ABAC)“ werden in dieser Arbeit abgehandelt. Die Modelle weisen Schwächen in Bezug auf die Sicherheitsanforderungen in einem aktuellen objektorientierten System auf. So ist beispielsweise DAC nur sehr eingeschränkt skalierbar. Bei der Entwicklung von LBAC stand die Kontrolle des Informationsflusses im Vordergrund. EDAC und ABAC sind sehr dynamische und mächtige Systeme, die Auswirkungen von Änderungen sind jedoch schwer vorhersehbar. RBAC hingegen ist gut skalierbar, jedoch ist die Rollenzuordnung statisch was zu redundanten Definitionen führt. Die Herausforderung ist es, ein System zu entwickeln, welches das statische Rollen- und Privilegienkonzept mit deren dynamischen Zuweisung verbindet. Eine Lösung des Komplexitätsproblems, welches sich unter Beachtung von Firmenstruktur, Systemstruktur und Unternehmenssicherheitsdefinition ergibt, wird ausgearbeitet. Die Definition und Zuweisung von Rollen und Zugriffsrechten werden auf die jeweiligen Spezialisten aufgeteilt um größte Skalierbarkeit und einfachere Wartbarkeit zu gewährleisten. Zusätzlich werden Vorlagen für eine einfachere Rollen-, Zugriffs- und Regelerstellung bereitgestellt. Im ersten Teil werden alle wichtigen Modelle analysiert. Nach der Erstellung der Forschungsfrage und Problemstellung wird im restlichen Teil „Privacy Enhanced Role Based Access Control (PERBAC)“ ausgearbeitet. Die Anforderungen an ein Zugriffsmodell für objektorientierte Systeme werden analysiert und alle notwendigen Eigenschaften, die PERBAC erfüllen muss, werden abgeleitet. Der letzte Teil zeigt ein praktisches Beispiel, um PERBAC in alle Teile eines Sicherheitssystems zu integrieren.

Diplomarbeitsposter Vuketich Nadine

Nadine Vuketich

Masterstudium Informatikmanagement
Abstract:

Die vorliegende Arbeit befasst sich mit der Entwicklung von Lernszenarien und Aufgaben-stellungen, um das Programmieren auf spielerische Weise zu erlernen. Die zentrale Fragestellung meiner Arbeit ist, mit welchen Lernszenarien die Grundzüge der Computerprogrammierung am besten spielerisch erlernt werden können. Der theoretische Teil der Arbeit befasst sich einerseits mit den verschiedenen Lerntheorien und der Entwicklung von Aufgabenstellungen mit Hilfe bestimmter Kriterien für den Infor-matikunterricht. Es werden mögliche Beispiele von Aufgabenstellungen für den Unterricht entwickelt. Andererseits werden zwei Lernumgebungen (Scratch und Starlogo TNG) vorge-stellt, mit denen die Aufgabenstellungen gelöst werden können. Der praktische Teil meiner Arbeit befasst sich mit der Untersuchung der beiden Lernumge-bungen an Hand von ausgesuchten Kriterien. Interviews und die Erprobung der Aufgabenstel-lungen umfassen den wesentlichen Teil meiner Arbeit. Es wird gezeigt, wie schwer oder leicht sich Kinder mit den Aufgabenstellungen tun und wie geeignet sie für den Unterricht sind. In der abschließenden Diskussion zeigte sich, dass beide Programme für den Unterricht sehr gut geeignet sind, da sie kostenfrei sind und durch eine einfache Bedienung die Motivation und Kreativität anregen. Es hat sich herausgestellt, dass die Lernszenarien in der Praxis sehr gut angewandt werden können.

Diplomarbeitsposter Wagner Alexander

Alexander Wagner

Masterstudium Software Engineering & Internet Computing
Abstract:

Project Reporting is the process of acquiring specific information about the status of a project. Todays reporting solutions are able to fill a user-designed template with defined data from certain sources. A problem of traditional reporting systems is the lack of semantic meaning that’s extractable from the data, like for example regarding its consistency. Requirements engineering aims at keeping the set of requirements that must be fulfilled by a software product consistent and up to date throughout the project. Therefore requirements management tasks as requirements categorization and requirements conflict analysis are conducted. However, the manual conduction of these tasks takes significant effort and is error-prone. My approach to realize a reporting solution that solves these problems makes use of ontologies as a semantic layer. Ontologies are formal, explicit specifications of concepts and their relations within a domain. By using ontologies, it is possible to infer new conclusions out of existing knowledge through automated reasoning. I developed a semantic reporting approach and implemented a prototype called “OntRep”. And evaluated it in a real-world industrial setting at Siemens Austria to answer the following research questions: .) Which benefits does an ontology-based reporting approach bring regarding the categorization and conflict analysis of software requirements? .) What efforts have to be realized in order to prepare ontology-based reporting? Major results were that OntRep provides reasonable capabilities for the automated categorization of requirements. It was considerably more effective to identify conflicts, and produced less false positives with similar effort compared to a manual approach. The target audience of OntRep consists of everyone involved in software development projects who benefit from status information through reporting, but especially persons involved in requirements engineering and project management.

Diplomarbeitsposter Ziegler Wolfgang

Wolfgang Ziegler

Masterstudium Information & Knowledge Management
Abstract:

Das Rules Erweiterungsmodul für das weit verbreitete Open Source Content Management System (CMS) Drupal erlaubt Drupal-Benutzern individuelle Reaktionen auf einem hohen Abstraktionsgrad zu definieren, ohne dass dafür Programmierkenntnisse nötig wären. Hierfür können Benutzer Reaktionen mit Hilfe sogenannter ECA-Regeln formulieren. Diese reaktiven Regeln bestehen aus Ereignissen, Bedingungen und Aktionen, wobei die Aktionen ausgeführt werden, wenn eines der definierten Ereignisse auftritt und die Bedingungen erfüllt sind. Schließlich ermöglicht das Erstellen von benutzerdefinierten Reaktionen Benutzern das Verhalten von Drupal-basierten Webapplikationen auf schnelle Art und Weise anzupassen. In dieser Arbeit wird das bestehende Rules Modul analysiert und überarbeitet, sodass nach Ausmerzen der erkannten Schwächen eine flexibel erweiterbare und wiederverwendbare Lösung entsteht. Darüber hinaus wird das Modul verbessert, um über Systemgrenzen hinweg zu funktionieren. Dies geschieht in dem die regelbasierte Einbindung von Web Services als auch das Reagieren auf entfernt auftretende Ereignisse ermöglicht wird. Um dies zu erreichen, wird das Modul um die Fähigkeit erweitert mit beliebigen Datenstrukturen mit Hilfe von Metadaten zu arbeiten, so dass durch die Verwendung von Metadaten die Daten von entfernten Systemen nahtlos integrierbar werden. Darauf aufbauend zeigen wir die regelbasierte Einbindung von REST und WS* Web Services und stellen Rules Web Hooks vor - ein neuartiger Ansatz für die Interaktion von Drupal-basierten Webapplikationen, welcher reaktive Regeln für die beinahe augenblickliche Reaktion auf entfernt auftretende Ereignisse einsetzt.

Arbeitsbereich (vor 2018) Interactive Media Systems

Diplomarbeitsposter Hörhan Markus

Markus Hörhan

Masterstudium Medieninformatik
Abstract:

The news very often reports on the bad influence that violence in movies has on children and young adults. Frequently, censors are employed to identify and remove such content. This is a time consuming and expensive task and therefore an automatic process would be beneficial. Software which solves this task in a fully automated fashion is not imaginable at this point in time because there are many different forms of violence and people generally disagree on whether a film scene is violent or not. Still, in this work a method is proposed to classify film scenes as either containing or not containing violent content in a computer assisted manner. For this task it is necessary to extract features that are characteristic for violent scenes. Then a classifier labels film scenes in violent and nonviolent scenes with respect to the chosen features. The output of the algorithm are all scenes that contain violence. The research prototype was implemented in the Matlab environment. To realize this prototype several experiments with different retrieval methods, various features and multiple classifiers were made. The tested methods and features that gave the best results were incorporated in the prototype. First results of the prototype evaluation are encouraging.

Diplomarbeitsposter Lepizh Dominik

Dominik Lepizh

Masterstudium Business Informatics
Abstract:

Bei der Analyse von Videoaufnahmen im Rahmen eines Snowboard-Lehrbetriebs stellt sich immer wieder das Problem, dass zur Diskussion passende Stellen am Videoband gesucht werden müssen. Einmal sucht man ähnliche Abfahrtsszenen (im Bezug auf Schwungart und Fehler) einer zweiten Person, kurz darauf sucht man weitere Abfahrten der gleichen Person. Die vorliegende Arbeit entwickelt eine entsprechende inhaltsbasierte Klassifikation von Snowboard-Videoclips und konzentriert sich dabei auf die beiden Merkmale Schwungart und Personenerkennung. Da Rhythmus und Geschwindigkeit die zwei Hauptunterscheidungsmerkmale unterschiedlicher Schwungarten sind, untersucht diese Arbeit die Möglichkeit, die beiden Merkmale mittels Methoden der Bewegungserkennung zu messen. Dabei bedient sich die vorgestellte Methode der Optical Flow Analyse, um den Rhythmus - also die mittlere Dauer zwischen zwei Schwüngen - zu berechnen und so eine Klassifizierung zu ermöglichen. Die zweite vorgestellte Methode stellt - anhand einer farb-analysierenden Technik - die Möglichkeit zur Verfügung, Videoclips nach Personen zu klassifizieren und so eine individuelle Clipselektion (im Schulungsbetrieb) zu ermöglichen. Um die verwendeten Techniken und entwickelten Methoden zu evaluieren, wurden sie an einem Test-Set von Videoclips angewandt und deren Ergebnisse beurteilt. Das notwendige Filmmaterial wurde dabei an Trainingstagen im Schnee aufgenommen und später für die Aufgabe dieser Arbeit von Hand selektiert. Die Klassifikation nach Schwungarten liefert bei der Berechnung der mittleren Bildanzahl (= Dauer) zwischen zwei Richtungswechseln sehr gute Ergebnisse, wodurch 85% der Testclips korrekt klassifiziert werden (65% sogar sehr klar). Der Bildvergleich aufgrund farblicher Aspekte (Personen) ist allerdings sehr von der Szenerie und den Lichtverhältnissen abhängig was zu erheblichen Fehlern in der Klassifizierung führt (Fehlerrate steigt linear mit der Anzahl an analysierten Clips).

Diplomarbeitsposter Planinc Rainer

Rainer Planinc

Masterstudium Medieninformatik
Abstract:

Analysis of real surveillance video footage is very challenging - hence this thesis provides solutions to enhance the quality of trajectories of dense crowded scenes in real-time. An efficient algorithm models dense crowded scenes with the aid of particles, moved by the optical flow calculated between two consecutive frames. Thus trajectories are obtained without using a people tracking algorithm. Sources and sinks are modeled by clustering of start and end points. As dense crowded scenes are analyzed, many trajectories are interrupted thus making the choice of an appropriate clustering algorithm challenging - this thesis provides approaches to enhance the quality of trajectories. Furthermore, it evaluates different clustering algorithms and their practicability in combination with the real-time particle advection algorithm on benchmark data of a Viennese train station and additional data provided by the PETS workshop and the University of Central Florida.

Arbeitsbereich (vor 2018) Business Informatics

Diplomarbeitsposter Kapellner Melanie

Melanie Kapellner

Masterstudium Business Informatics
Abstract:

The advances in software development lead to ever increasing complexity of software systems. Therewith rises the demand for technologies and techniques to shield the developers from that system complexity. For decades researchers and practioners have created abstractions to that end. At the moment, model-driven development, the next abstraction level, is on the rise, leveraging models to central artefacts of software development. Nowadays, software is developed in teams. Version control provides collaborative support on a technical level by enabling concurrent work. Current versioning tools, however, mainly provide support for code-centric software engineering. Versioning of models still faces major challenges. Due to parallel development, the versioning of models is especially prone to conflicts. The resolution of conflict situations is a precarious and preferably collaborative process. Progress in model-driven development research seems to be restricted to the technical level, while social aspects like human behaviour and cooperation are often neglected. This is surprising, since software developers spend more than 60% of their time with collaborative activities. Well working collaboration in a team leads to an overall better outcome. It is therefore important to actively shape collaboration to gain the huge potential benefits achieved through efficient teamwork. This thesis provides a general survey on possibilities to improve the model-driven development process in regard to collaborative aspects. We therefore analyse means and methods of collaboration in theory and practice, both in software engineering and various other fields. We highlight the importance of attaching a greater value to collaboration in research and in practice. Since collaboration is especially finical in conflict situations, we provide a specific example for enhanced collaboration in conflict resolution in model versioning.

Diplomarbeitsposter Kromer Fabian

Fabian Kromer

Masterstudium Informatikmanagement
Abstract:

Service-Oriented Mobile learning Architecture (SOMA) is a project focusing on interactive learning using mobile devices, with the main focus on devices running the Google Android operating system. While state-of-the-art solutions mainly cover text-based, multiple choice interrogator-responder concepts, our approach is characterized by interactivity, allowing multimedia-based e-learning concepts. Providing access to different hardware features enables a variety of novel input methods. Examples include obtaining user input through hardware accelerometers or cameras. In order to provide these advanced features we implemented the SOMA framework as part of this work, which acts as wrapper between the e-learning application and the underlying hardware components. Additional features can be developed using the SOMA plugin environment, which enables almost unlimited extension of the main application. Besides that, developers are encouraged to use any functionality provided by the SOMA framework. We use a custom implementation of Java Reflection for the plugin environment to guarantee extendibility. We will capture all user input needed for detection of learning styles, while the implementation of automatic recognition of learning styles is part of future work. Another important aspect is the integration of the e-learning process into social networks. The system allows users to publish their results online and invite friends to take the same course. We assume this will improve learning motivation significantly. Users can compete and incite each other to enhance their learning progress. Besides the SOMA framework itself, several sample plugins have been developed as part of this work. For evaluating our solution, we provide a sample course that uses these basic plugins. This sample course that covers basic first aid content has been created in cooperation with the Youth Red Cross Klosterneuburg.

Diplomarbeitsposter Topf Mario

Mario Topf

Masterstudium Software Engineering & Internet Computing
Abstract:

This thesis covers the transformation of interorganizational business processes in the area of business-to-business (B2B) electronic commerce. It builds upon the approach devised as part of the "Business Semantics on top of Process Technology" (BSOPT) project. BSopt aims to integrate management-, administration- and IT perspectives in B2B collaborations as inspired by the Open-edi reference model into one consistent tool environment. The resulting BSopt Designer tool was extended by the use of visual domain specific languages (DSLs) encompassing the concepts given in Open-edi. Additionally, C# developed transformation wizards were created to support a semi-automatic mapping from business models to business process models and, finally, to technologically dependent executable deployment artifacts. The thesis describes the contributions to the BSopt approach starting with the transformation of business process descriptions as seen by a neutral observer into a participant-view dependent design. It continues to show, how these so called "local choreographies" are transformed further into concrete Microsoft Windows Workflow Foundation (WF) 4.0 based workflow artifacts ready for integration into the service oriented architecture (SOA) of IT environments. In doing so we also accommodate adapted business document specifications into the transformation process. These specifications are used in business processes to define which messages are sent or received at any point in time during a B2B collaboration. The last contribution to the BSopt approach comes in the form of an example business application. It supports the one-click hosting of generated workflow artifacts and acts as a tool to test the validity and correct functionality of the generated workflows.

Diplomarbeitsposter Zwickl Patrick

Patrick Zwickl

Masterstudium Business Informatics
Abstract:

Modelltransformationen (MT) übernahmen eine Schlüsselrolle im Model Driven Engineering (MDE), welche zur Standardisierung der Modelltransformationssprache (MTL) Query / View / Transformation (QVT) führte. Allerdings konnte diese Sprache bislang nicht ausreichend Interesse wecken, da ein immanenter Mangel an Debugging Einrichtungen, welche aus folgenden drei Problemstellungen benötigt werden, besteht: Erstens offerieren deklarative Sprachen wie QVT Relations (QVT-R) keine operative Sicht des Transformationsprozesses. Nur die Informationen, die von Interpretern zur Verfügung gestellt werden, sowie Ein- und Ausgabedaten, können für eine Analyse genutzt werden. Dies kann zum Problem der Diskrepanz zwischen Design- und Laufzeit führen. Außerdem verschleiert die Execution-Engine als Black-Box-System die Ausführungsreihenfolge. Zweitens verfügt der QVT-R Code über ein höheres Abstraktionslevel als die Ausführung und das Debugging des Codes. Drittens sind Informationen über die Durchführung der MTen auf verschiedene Artefakte zerstreut. Zur Lösung dieser Probleme wird in dieser Diplomarbeit die Visualisierung von QVT-R in Transformationsnetzen mittels des MT Frameworks “Transformation On Petri Nets In Color” (TROPIC), das auf Colored Petri Nets (CPN) aufbaut, erörtert. Diese kann als explizite abstrakte Definition der operationalen Semantik für die Fehlersuche interpretiert werden. Die vorliegende Arbeit formuliert einen konzeptionellen Ansatz mit protoypischer Umsetzung zur Überwindung der bestehenden Kluft zwischen den verwendeten Paradigmen. Dies erfolgt durch die Abbildung der QVT-R Konzepte auf die genannten Netze. Konkret werden drei Kontributionen präsentiert: (i) ein Lösungsansatz für unidirektionale Transformationen von einem bestehenden Quell- zu einem Zielmodell, (ii) die Unterstützung von Modelvererbung, und (3) vielseitige Synchronisationsansä̈tze für inkrementelle Änderungen.

Arbeitsbereich (vor 2018) E-Commerce

Diplomarbeitsposter Raab Alexander

Alexander Raab

Masterstudium Business Informatics
Abstract:

Die weltweite Vernetzung durch das Internet und die dadurch entstandenen neuen Möglichkeiten haben unsere Gesellschaft und unser Leben grundlegend verändert. Die Wechselwirkungen zwischen den neu entstandenen Netzwerken und Communities und der Sozioökonomie sowie die besonderen Einflussfaktoren sind allgegenwärtig und zeigen sich in den Bereichen Politik, Wissenschaft und Wirtschaft. Die Sichtweise auf grundlegende Faktoren der Ökonomie, der Gesellschaft und der Politik wie Netzwerke, Sozialkapital und Vertrauen hat sich gravierend verschoben, nicht zuletzt durch die Tatsache, dass bei immer mehr Menschen die neuen Medien sowohl bei beruflichen Tätigkeiten als auch im privaten Umfeld zum Einsatz kommen; diese Medien sowie deren Möglichkeiten haben unsere Gesellschaft in nur kurzer Zeit massiv beeinflusst.

Diplomarbeitsposter Riedl Moritz

Moritz Riedl

Masterstudium Business Informatics
Abstract:

Metasearch Engines try to maximize the utility of search results by combining the best out of several lower layered search engines. The mode of operation of any metasearch engine basically involves a parallel invocation of all applied search engines with the given search parameter as well as a ranking mechanism to sort the retrieved result items. It seems obvious that the quality of the metasearch engine rises and falls with its ranking algorithm, as it attempts to utilize the advantages out of every utilized search engine. The idea of metasearch engines has not only been applied to common full text web search, but also to more structured and domain specific datasets. Metasearch is the key to any distributed database, translating the original user query to multiple queries for all target databases and retrieving all result sets as one. This thesis focuses on metasearch under the e-tourism domain, where efficient techniques gain importance as the number of tourism related data providers exceeds from day to day. Recent studies show that 26% of all worldwide e-commerce turnovers are related to travel and tourism transactions, underlining the important role and chance of well performing tourism portals. These portals either possess and manage their own data storages or gather information from several source providers by utilising the advantages of metasearch techniques. The thesis concentrates on the latter, better said on applying control mechanisms to their metasearch engines.

Diplomarbeitsposter Steindl Markus

Markus Steindl

Masterstudium Business Informatics
Abstract:

Die vorliegende Arbeit beschäftigt sich mit Vergleichsplattformen am touristischen Onlinemarkt. Vergleichsplattformen sammeln Informationen von unterschiedlichen Anbietern touristischer Reiseangebote und stellen diese Information in aufbereiteter Art und Weise zentral auf ihrer Plattform, teils mit zusätzlich integrierten Services, dar. Das Erscheinen von Vergleichsplattformen am E-Tourismusmarkt löste aber auch eine Veränderung desselbigen aus. Die einzelnen Akteure und Anbieter integrieren das Web immer stärker in ihre Prozesse und eine höhere Onlinepräsenz der Anbieter ist eine Folge daraus. Eine für den Endkunden unüberschaubare Menge an Reiseanbietern im Web ist die weitere Folge daraus. Vergleichsplattformen bieten nun in dieser undurchsichtigen Wolke zentrale Werkzeuge auf ihrer Plattform an, um einzelne Reiseanbieter zu finden, zu vergleichen und den bestmöglichen Anbieter, nach individuellen Kriterien, zu finden.

Diplomarbeitsposter Wong Ka Choi

Ka Choi Wong

Masterstudium Informatikmanagement
Abstract:

Das Vergleichen von Preisen vor dem Einkauf ist wichtig, um den dadurch möglichen Preisvorteil nutzen zu können, besonders bei den im Vergleich zu täglichen Gebrauchsgütern teureren Artikeln aus der Elektrobranche. War das Vergleichen von Preisen früher nur regional durch Fernsehen, Radio und vor allem Printmedien möglich, bietet uns heute das Internet vielfältigere Informations- und Einkaufsmöglichkeiten in Form zahlreicher Internetshops und Preisvergleichsseiten. Sowohl Online-Preisvergleichsdienste als auch Elektrogroßmärkte behaupten, den günstigsten Preis zu haben bzw. zu ermitteln. Um den tatsächlichen Sachverhalt zu prüfen, führe ich einen Vergleich zwischen im Portal gelisteten Fachhändlern und Elektrogroßmärkten durch. Für diese Analyse wähle ich verschiedene Elektroartikel aus unterschiedlichen Kategorien, deren Preise ich vier Monate lang prüfe. Die Erkenntnis daraus ist, dass die günstigsten Preise in der Regel auf den Preisvergleichsseiten zu finden sind. Des Weiteren behandle ich die Entstehung der ersten Preisvergleichsseite und die dazugehörigen Hintergründe. Ebenfalls ist die Beeinflussung des Kaufverhaltens durch das Medium Internet in didaktischer Hinsicht interessant: Hat der heutige Käufer bereits ein neues, auf Selbstinformation basierendes Kaufverhalten erlernt bzw. verzichtet der Käufer schon auf persönliche Besuche der Geschäfte und Beratung? Diese und weitere Fragen stelle ich in einer Online-Umfrage und analysiere die Antworten mit Hilfe statistischer Methoden. Bezeichnend ist, dass bei der Wahl des Händlers der günstigste Preis nicht der größte Anreiz ist. Zu erfragen ist auch: Welcher Preisvergleichsanbieter gibt den günstigsten Preis bzw. Händler aus und gibt es markante Unterschiede zwischen den Portalen? Hinsichtlich dieser Fragestellungen untersuche ich österreichische Preisvergleichsportale näher. Es zeigt sich, dass die Qualität des Preisvergleichens in einem Onlineportal abhängig von der Anzahl der eingetragenen Händler ist.

Diplomarbeitsposter Wurzer Richard

Richard Wurzer

Masterstudium Informatikmanagement
Abstract:

Die Arbeit beschäftigt sich mit der Modellierung und Analyse von Geschäftsprozessen im Umfeld der Wohnungswirtschaft. Es sollen Möglichkeiten gezeigt werden, um Geschäftsprozesse bei einem Wohnbauträger, durch einen stärker ausgeprägten „Service-Gedanken“ flexibler zu gestalten und den Kunden in die Prozesse besser einzubinden. Den Kunden soll damit auch mehr Wissen, über die vom Wohnbauträger angebotenen Business-Services bzw. Dienstleistungen vermittelt werden. Aus den Kernprozessen wird ein Prozess als Muster für eine detaillierte Untersuchung ausgewählt und versucht diesen durch Serviceorientierung _exibler zu gestalten. In einem Metamodell wird aus in BPMN modellierten Prozessvarianten ein klassifiziertes Servicerepository erstellt. Über ein Meta-Service werden dem Kunden daraus Services zur Verfügung gestellt. Prozesse können damit durch ändern oder hinzufügen von Services einfacher geändert werden. Das Ergebnis der Arbeit ist eine Modell in dem ausgehend von den Kundenprozessen des Wohnbauträgers die Geschäftsprozesse in Services zerlegt werden können und dem Kunden in einem Portal, auf seine Bedürfnisse abgestimmt, zur Verfügung gestellt werden können. Der Kunde kann sich dort flexibel aus den Services bedienen.

Andere Institute der Technischen Universität Wien

(vor 2018) Institut für Analysis und Scientific Computing

Diplomarbeitsposter Willi Paul

Paul Willi

Masterstudium Medizinische Informatik
Abstract:

Ziel dieser Arbeit war eine Software für die medizinische Forschung zu entwickeln, um Zusammenhänge im dem Gehirn während den Augenbewegungen bei Wachkomapatienten zu lokalisieren. Durch EEG Aufzeichnungen wurden die Daten für die Auswertungen gewonnen. Ein besonders Augenmerk wurde dem Gamma Frequenzband im Bereich um ca. 40 Hz. in den Zeitfenstern presaccadic, intersaccadic und postsaccadic zugewandt. Es stand dabei im Vordergrund, die aktuellen Forschungsergebnisse in die Software einzubauen. Mit dem EEG- Explorer wurde eine Software, welche ein komplexes Themengebiet behandelt, geschaffen. Der Anwender kann nicht nur die Biosignalauswertungen vornehmen, sondern er kann erste statistische Vergleiche ziehen. Für die Biosignalauswertung wurde im Wesentlichen mit der Wavelet Transformation mittels Fourier Transformation, einem Generalized Hilbert-Hermitian Wavelet und den Informationen für die Phasensynchroisation, dem Enropy Index und der Mutual Information gearbeitet, in der statistischen Komponente wurde die GLM Methode verwendet. Die Biosignalkomponente des EEG-Explorers bietet die Möglichkeit, unterschiedliche Datenformate zu laden und diese als mat File mit den vorgenommenen Auswertungen zu speichern. Für die geladenen Daten werden ein CWT und eine FFT automatisch berechnet, diese werden in der Oberfläche des EEG-Explorers dargestellt. Die analysis Komponente gibt dem Anwender die Möglichkeit, die manuell oder automatisch gefunden Sakkaden nach der power bzw. nach der Phasensynchronisation auszuwerten und diese Ergebnisse als mat File oder Excel zu speichern. Die GLM Komponente bietet die Möglichkeit, statistische Auswertungen mit den zugrunde liegenden Daten zu bewerkstelligen. Dabei können die im analysis Teil generierten Daten geladen werden. Die Definition der Faktoren ist sehr vage gehalten, da noch nicht die genauen Einflussfaktoren feststanden. Dies ist bei der Auswertung unbedingt zu berücksichtigen.

Diplomarbeitsposter Willi Paul

Paul Willi

Masterstudium Informatikmanagement
Abstract:

Um Zusammenhänge im menschlichen Gehirn während den Augenbewegungen zu lokalisieren, wurden Messungen an „gesunden“ Probanten und Patienten mit dem Apallischen Syndrom und mittels EEG Aufzeichnungen vorgenommen. Insbesondere wurde das Gamma Frequenzband im Bereich um ca. 40 Hz. in drei Zeitfenstern analysiert. Für die Analyse der Daten wurde eine Software, der EEG-Explorer, erstellt, welcher eine Biosignalauswertung und eine statischtische Komponente enthält. Für die Biosignalauswertung wurde im Wesentlichen mit der Wavelet Transformation [1] mittels Fourier Transformation, einem Generalized Hilbert-Hermitian Wavelet [2] und den Informationen für die Phasensynchroisation, dem Enropy Index und der Mutual Information gearbeitet. In der statistischen Komponente wurde die GLM Methode verwendet. Für die Schulung der Anwender wurde nach einem eigens entwickelten didaktischen Fünfeck verfahren, welches auch ein Bestandteil eines iteraktiven inkrementellen Entwicklungsprozesses wurde. Bei mehreren Analysen mittels des EEG-Explorers konnten Zusammenhänge bei „gesunden“ Probanten, insbesonders im Gammabereich, festgestellt werden. Bei Untersuchungen bei Wachkoma-Patienten, besonderes bei jenen, die sich in der Genesung befinden, wurde ein ähnliches Verhalten während des „slow Ballistic Eyemovement“ festgestellt. Weitere Untersuchungen zeigten, dass auch ein Zusammenhang mit den Extrema im intersaccadic Zeitfenster bei der Phasensynchronisation von Wachkoma-Patienten mit einer Besserung des Zustandes liegen könnte.

(vor 2018) Institut für Wirtschaftsmathematik

Diplomarbeitsposter Daeerasoli Mona

Mona Daeerasoli

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Wie für andere Länder war auch für Iran E-Commerce und seine effektive Anwendung, die zur Verbesserung und Entwicklung der Wettbewerbsfähigkeit in den internationalen Märkten führt, von großem Interesse. Diese Arbeit beschäftigt sich mit E-Commerce und seinen wirtschaftlichen Auswirkungen im Untersuchungsland Iran. Iran ist ein altes Volk mit einer jungen Gesellschaft und vielen Potenzialen und Ressourcen. Das Land mit seine vielen Akademikern und Intellektuellen stellt einen beachtlichen Faktor bei der Verbreitung der modernen Technologie im Mittleren Osten dar. Zur Beginn des 21 Jahrhunderts hat der Iran einen deutlichen Aufschwung im Hinblick der Infrastrukturkapazität und Entwicklung der Informations- und Kommunikationstechnologie erlebt. Die Anzahl der Internetnutzer ist stark angestiegen und in keinem Land des Nahe Ostens ist die Penetrationsrate so groß wie im Iran. Der Einsatz neuer Technologien im Besonderen des Internet hat wesentlich zur Erneuerung und Öffnung der iranischen Gesellschaft, beigetragen. Für die E-Commerce-Entwicklung wurden verschiedene Strategien formuliert und die erforderliche Infrastruktur geschaffen. Die Regierung hat bestimmte Initiativen zur Popularisierung des E-Commerce im Land gesetzt. Damit sind wesentliche Voraussetzungen gegeben um durch geeignete Maßnahmen und Ausbau der Infrastrukturen E-Commerce als Motor des Wirtschaftswachstums zu etablieren.

Diplomarbeitsposter Patnaik Raja

Raja Patnaik

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

The thesis provides the reader with a comparative analysis of two macroeconomic events that in their severity and intensity shaped and will shape the history of economics forever. Eight decades apart, the Great Depression and the current downturn exhibit a number of intriguing similarities. Both find their origins in the decline of asset prices and the collapse of the financial system. Largely unregulated financial entities and instruments served during both episodes as substantial catalysts to the detrimental developments. While in the 1930s the collapse of the money supply and lending were the results of the financial crisis, today a much more direct relationship between asset prices and stress in financial institutions was established by the use of complex derivatives. Yet, both episodes have proven to affect the global economy. In contrast to today’s integrated worldwide economy where financial shocks are rapidly transmitted, during the Great Depression the international gold standard represented a similar mechanism. Today’s policy makers have responded with swift and aggressive monetary and fiscal policies. An empirical analysis concluding the theoretical chapters uses panel data of 20 different countries for the time period 1925-38 to measure the effectiveness of fiscal and monetary policies. The results clearly show that together with monetary expansion, fiscal stimulus can provide an economy in recession with enough strength to set it on the track of sustained recovery.

(vor 2018) Institut für Verfahrenstechnik, Umwelttechnik und Technische Biowissenschaften

Diplomarbeitsposter Arzberger Markus

Markus Arzberger

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Mit der vorliegenden Masterarbeit soll das Masterstudium Wirtschaftsingenieurwesen Informatik abschlossen werden. Auf Basis von Aufkommens- und Verwendungstabellen sowie Input- und Outputtabellen die der Volkswirtschaftlichen Gesamtrechnungen entnommenen werden, soll in der Arbeit die Güterproduktion in Österreich modelliert werden. Als Datenquelle werden hierfür Werte der Statistik Austria von den Jahren 1995, 2000 und 2005 verwendet. Zur Datenverarbeitung und -auswertung werden die Programme e!Sankey, GaBi, STAN 2, Powersim, Excel aus Microsoft Office und der Consideo Modeler in Betracht gezogen. Alle Programme wurden im Vorfeld evaluiert, um das Werkzeug mit der besten Anforderungsdeckung zu ermitteln. Das Ziel ist, die Erstellung von effizienten Modellen für die hinter dem Konsum stehenden Produktionsprozessketten, sowie die Definition von Faktoren und Änderungsfaktoren, die im Rahmen von verschiedenen Szenarien manipuliert werden, um das System szenariospezifisch beeinflussen zu können. Des Weiteren sollen Abhängigkeiten im Produktionsbereich ausgeleuchtet werden. Aufgrund der hohen Komplexität des Beispiels ist ein übersichtliches, gut strukturiertes Modell unumgänglich. Anhand eines sehr vereinfachten Beziehungsgeflechts werden Risiken und Schwachstellen lokalisiert, um das System für den Einsatz optimal zu gestalten. Bei der Umsetzung handelt es sich um eine Matrix 59. Ordnung. Da sich jeder Faktor auch selbst beeinflussen kann, geht es um eine maximal mögliche Anzahl von 3599 Beziehungen. Wechselwirkungen zwischen Ökonomie und Wertschöpfung, Herstellungs- und Verkaufspreis sowie Güterproduktion und Konsum zu erkennen und zu verstehen, bildet die Grundlage für die Beschreibung eines in Zukunft – anzustrebenden - nachhaltigeren Wirtschaftsmodells mit weniger Überschussproduktion bei mehr Beschäftigung und umweltverträglicheren Produktionsweisen.

(vor 2018) Department für Raumplanung

Diplomarbeitsposter Berndorfer Sonja

Sonja Berndorfer

Masterstudium Information & Knowledge Management
Abstract:

Neueste Technologien ermöglichen es mittels File Sharing urheberrechtlich geschütztesMaterial, wie beispielsweise Musik, Filme, Spiele oder Software zu vervielfältigen und global zu verteilen. Der Downloadprozess kann bereits durch wenige Klicks initiiert werden. Dies hat für Benutzer und Anbieter, rechtlich gesehen, unterschiedliche Folgen, einerseits kann ein Benutzer oder ein Anbieter wegen Urheberrechtsverletzungen oder Beihilfe zu Urheberrechtsverletzungen strafrechtlich verfolgt werden. Wegen derartiger Vergehen gibt es laufend Prozesse, der Aspekt einheitlicher Strafen auf internationaler Ebene sowie die Frage, wer für die Urheberrechtsverletzung haftet, steht immer noch im Diskurs. Aspekte dieser Diskussionen, ausgelöst durch den Pirate Bay-Prozess, werden in dieser Arbeit behandelt. Das erstinstanzliche Urteil hat diesen Diskussionen zu einem breiteren medialen Interesse verholfen. Dieser Prozess bildet die Grundlage für alle weiteren Aussagen dieser Arbeit. Das im April 2009 verkündete Urteil wird analysiert und gleichzeitig gilt es existierende Schwachstellen unserer Urheberrechtssysteme undmögliche Einflüsse auf internationaler Ebene zu finden. Grundlage für eine genaue Analyse bildet der technische Hintergrund von File-Sharing. Im Prozess wurde auch auf relevante internationale Rechstinstrumente zurückgegriffen, wie EU-Richtlinien oder die Abkommen der WIPO. Neben der EU hat die WTO eine wichtige Rolle als eine der treibenden Internationalen Organisationen rund um den Schutz von geistigem Eigentum. Auf politischer Ebene verzeichneten die Pirate Party und deren Parteiprogramm nicht nur in Schweden Erfolge. Die genannten Kritikpunkte sollen zu möglichen Alternativen zum Schutz von geistigem Eigentum und Lösungsvorschlägen führen, wie beispielsweise neuen Formen von Lizenzen. Es werden bereits bestehende und neue Geschäftsmodelle sowie Preismodelle rund um das Thema Urheberrechtsschutz im Internet dargelegt und diskutiert.

(vor 2018) Institut für Mechanik und Mechatronik

Diplomarbeitsposter Nouri Jascha

Jascha Nouri

Masterstudium Informatikmanagement
Abstract:

In this work an interface is designed for a human robot. This master work is part of the humanoid robot project called Archie. Archie’s project starts from 2004 in institute of handling robotics and technology from Vienna University of Technology. The aim of this project is building a robot who can imitate human’s movements like walking. In this work the control concept of the robot is discussed slightly, later on the interface necessity for such are robot is presented. The main focus of this work is on providing an interface to prepare the necessary data for the robot’s joints. Since the whole robot consists of multiple joints connected to each other, calibrating and setting the parameters for each individual joint is a sophisticated phenomena. Therefore this interface is prepared to simply the entire process for the whole robot.

(vor 2018) Institut für Managementwissenschaften

Diplomarbeitsposter Achleitner Stefan

Stefan Achleitner

Masterstudium Software Engineering & Internet Computing
Abstract:

Besonders die aktuelle Wirtschaftskrise hat das Fehlen von Controlling in unserem Wirtschaftssystem gezeigt. Software Technologien auf dem neuesten Stand der Technik in Kombination mit dem „Resources, Events and Agents“, kurz REA, Model, erstmals vorgestellt 1982 von W. E. McCarthy, stellt die Grundlage für ein Controlling basiertes modernes ERP System dar. Es versichert, dass jede Ressource, die ein Unternehmen oder eine Organisation verlässt, mit einem entsprechenden Wert wieder zurückkommt. Die Realisation mit „State Of The Art“ Web 2.0 Technologien beabsichtigt die Erstellung eines komplett neuen Ansatzes für ein modernes Enterprise Resource Planning System. Auf der Basis der softwaretechnischen Implementierung des Resources, Events und Agents Models, erlaubt das System die Steuerung und Überwachung aller Ressourcen Flüsse innerhalb eines Unternehmens sowie auch mit anderen wirtschaftlichen Agenten. Auf der Basis dieses REA Software Kernels soll eine Anwendung zur Planung und Steuerung von Finanz Instrumenten entwickelt werden. Um die genannte Software Anwendung zu realisierten braucht jede Geschäftstransaktion innerhalb des Systems, neben der Implementierung von Benutzerschnittstellen und Java Beans, spezifische Buchungsmethoden um die Bilanz eines Unternehmens aktualisieren zu können, so dass die abfließenden Ressourcen dem Betrag der zufließenden Ressourcen entsprechen. Neben verschiedenen Frameworks und Software Engineering Techniken, stellt der ISO/IEC 15944-4:2006 Standard, der das REA Model spezifiziert, das theoretische Fundament dieser Arbeit dar. Dieser Ansatz soll helfen den Aspekt des Controllings in das System zu bringen. Das Ergebnis dieser Diplomarbeit besteht aus dem Design, der Implementierung und der Dokumentation von Softwarekomponenten die die Planung und Steuerung von Finanz Instrumenten behandeln. Die Softwaremodule sind implementiert als Web 2.0 Anwendungen, realisiert mit der Java Programmiersprache und dem JBoss Seam Framework.

Diplomarbeitsposter Antica Ninette Cristine

Ninette Cristine Antica

Masterstudium Business Informatics
Abstract:

Empirische Untersuchungen auf dem US-amerikanischen Kapitalmarkt haben ergeben, dass nicht nur das Marktrisiko einen Einfluß auf die Renditen von Aktien hat, sondern diese auch von unternehmensspezifischen Eigenschaften wie Unternehmensgröße, Verhältnis von Buchwert zu Marktwert, Kurs-Gewinn Verhältnis, Verschuldungsgrad und vergangener Rendite beeinflußt werden. Diese Arbeit untersucht mit Hilfe von Zeitreihen Regressionen inwieweit Multifaktormodelle, im Speziellen das Dreifaktormodell nach Fama und French (1993) und das Vierfaktormodell nach Carhart (1997), die Renditen von Aktienportfolios auf dem europäischen Aktienmarkt erklären können. Bei der empirischen Untersuchung werden die Daten der EU-15 Staaten ohne Luxemburg zuzüglich Schweiz und Norwegen verwendet. Der Untersuchungszeitraum erstreckt sich von Juli 1995 bis Juni 2008. Die Untersuchung erfolgt erstens für jedes Land und zweitens für alle Länder gemeinsam. Die Methoden zur Konstruktion der Aktienportfolios und Berechnung der Faktoren entsprechen jenen von Fama und French (1993, 2008). Die Ergebnisse lassen darauf schließen, dass das Vierfaktormodell auf den europäischen Aktienmarkt die Renditen von Aktienportfolios nicht besser als das Dreifaktormodell erklären kann. Im Gegensatz zum amerikanischen Markt hat auf dem europäischen Markt das Dreifaktormodell ein höheres, im schlechtesten Fall gleich hohes, adjustiertes R² als das Vierfaktormodell. Dies deutet darauf hin, dass der Momentumfaktor in Europa von geringerer Bedeutung ist als in den USA. Aus diesen neuen Ergebnissen lässt sich folgern, dass Finanzanalysten, Fondsmanager und (institutionelle) Anleger das einfachere Dreifaktormodell statt dem Vierfaktormodell verwenden sollten.

Diplomarbeitsposter Fellner Daniel

Daniel Fellner

Masterstudium Business Informatics
Abstract:

Planung und Steuerung sind Teil jener Kernkompetenzen, ohne welche sich heutzutage kein Unternehmen ab einer bestimmten Größe mehr auf eine sinnvolle Art und Weise führen lässt.Ein Vehikel zur Kontrolle eines Unternehmens sind ERP-Systeme, welche die Ressourcen und Vorgänge innerhalb eines Unternehmens systematisch erfassen. In diesem Forschungsgebiet wurde die Idee für diese Arbeit geboren. Dabei wird nicht auf der Basis altbewährter und etablierter Konzepte, welche in den heute verbreiteten ERP-Systemen Anwendung finden, gearbeitet, sondern unter der Federführung von Univ.-Prof. Mag. Dr. Schwaiger wird am IMW ein ERP-System namens ERP-Control entwickelt, welches neue Ansätze verfolgt und somit Alternativen zu den Paradigmen vergangener Tage aufzeigt. Ein ERP-System beinhaltet auch Planungsfunktionalitäten. Mit Hilfe von Plänen versuchen Menschen sich für eine ungewisse Zukunft zu wappnen. Das kann natürlich nur in einem bestimmten Rahmen passieren, da die Zukunft ja noch nicht fest steht und mit endsprechender zeitlicher Entfernung zur Gegenwart immer schwerer vorherzusagen ist. Der Umgang mit dieser Unsicherheit ist ein Themengebiet dieser Arbeit.Das Mittel zur Realisierung dieser Funktionalität ist die stochastisch optimale Produktionsplanung und –steuerung (SOPPS). Diese soll über mehrere Perioden hinweg eine möglichst optimale Ausbringungsmenge für die Produktion ermitteln. Hier wird mit Steuermechanismen versucht, den Plan anzupassen und im Laufe mehrerer Zeitperioden als gutes Modell für die Realität zu kalibrieren. Ansätze dafür kommen aus der Kybernetik. Aus dem kybernetischen Steuerungsprinzip wird in dieser Arbeit eine Methodik erarbeitet, welche die Produktionsmengen intertemporal optimiert steuert. Dabei wird die stochastische Kontrolltheorie angewandt, um den der Zukunft immanenten Zufall den Schrecken zu nehmen und in gewissen Schranken berechenbar zu machen.

Diplomarbeitsposter Greifenegg Andreas

Andreas Greifenegg

Masterstudium Business Informatics
Abstract:

In dieser Arbeit wird ein Rahmenwerk einer modellbasierten Planung und Steuerung unter Unsicherheit vorgestellt. Anhand eines fiktiven Beispielunternehmens werden schrittweise der Modellbildungsprozess und die stochastischen Grundlagen des Planungsmodells erläutert. Danach erfolgt eine Erläuterung der Implementierung der modellbasierten Planung und Steuerung in IBM Cognos Planning, einem Softwaretool für Unternehmensplanung. In einem weiteren Schritt wird unter der Berücksichtung eines integrierten Risikocontrollings die Integration einer Absatzplanung in ein intertemporales Planungs-, Kontroll- und Lenkungssystem betrachtet. Danach wird unter der Berücksichtigung dieser Aspekte eine konzeptionelle Umsetzung in IBM Cognos vorgestellt.

Diplomarbeitsposter Jördens Christoph

Christoph Jördens

Masterstudium Business Informatics
Abstract:

Entwicklungen von Neuprodukten mit hohem Ressourceneinsatz, also risikoreiche Innovationsprojekte sind für Unternehmen seit jeher mit großen Chancen und Gefah-ren verbunden. Schafft ein Produkt den erfolgreichen Durchbruch am Markt, kann dies zu hohen Margen führen, geschieht dies nicht, kann ein hoher Verlust zu negati-ven Einflüssen auf anderweitige Geschäftstätigkeiten eines Unternehmens führen. Daraus folgt die Fragestellung, ob Erfolgsfaktoren existieren die die Chancen derarti-ger Projekte systematisch erhöhen und umgekehrt die Gefahren dieser senken. Diese Fragestellung wird in der Arbeit auf Basis eines, mittels des Stage-Gate-Modells strukturierten Innovationsprozessen gelöst. Primäre Aufgabe ist es Schnittstellen zu finden in denen ein Prozess des klassischen Risikocontrollings (orientiert am Deming-Rad) in den Innovationsprozess integriert werden kann. Die daraus abzuleitende se-kundäre Problemstellung ist es, die Integration der Prozesse mit Hilfe adaptierter Ri-siko-Management-Werkzeuge durchzuführen, die zudem im Kontext eines unterneh-mensweiten (Risiko-)Managements stehen, um einerseits eine strategische Ausrich-tung zu gewährleisten und andererseits gesetzliche Vorlagen zukünftig zu erfüllen. Die in der Arbeit vorgestellte und für den Einsatzzweck adaptierten und bewerteten Methoden sind die der Szenario-Technik, für die frühzeitige Identifikation des Inno-vationsbedarfs, die um die Realoptionstheorie erweiterte Net-Present-Value-Methode, zur Bewertung und Selektion von Innovationsprojekten und ein operatives Projektcontrolling als Teil eines Performance-Messsystems, zur Überwachung und Steuerung von Projektmanagementrisiken. Die Analyse zeigt, dass es zweckmäßig ist, die vorgestellten Werkzeuge in der Praxis einzusetzen, um langfristig die Erfolgsaussichten von Innovationen zu steigern.

Diplomarbeitsposter Kittel Clemens

Clemens Kittel

Masterstudium Business Informatics
Abstract:

Es werden Informationen aus den Bereichen Fehler in der Intensivmedizin -, Qualität sowie rechtliche Aspekte der Qualität zusammengetragen Als Werkzeuge dienen mir eingehende Literaturrecherchen und eine Meinungserhebung mit Personen, die im intensivmedizinischen Umfeld tätig sind. Im ersten Abschnitt widme sich die Arbeit dem Thema Qualitätssicherung und dem Umgang mit Fehlern in der Intensivmedizin. Nachdem wir uns mit dem Fehlern in der Intensivmedizin auseinandergesetzt habe, beleuchten wir die rechtliche Situation der Qualitätssicherung. Die rechtliche Situation von CIRS als anonymes Berichtssystem wird mit einbezogen. Für den zweiten Teil der Arbeit wurden Ärzte zu einem bereits vorhandenem Berichts- und Lernsystem für kritische Ereignisse in der Medizin (CIRS) befragt. Einige Methoden der Qualitätssicherung zum Beispiel Benchmarking sowie auch Qualitätsindikatoren, fügen sich besonders gut in das Umfeld der Intensivstation ein und stellen ein wichtiges Hilfsmittel dar um die Qualität zu verbessern. Konzepte wie CRM, das „10-Sekunden-für-10-Minuten Prinzip“ und allen voran CIRS können ihren Beitrag zur Qualitätssicherung leisten. In unserer heutigen Gesellschaft hat sich noch keine gesunde „Fehlerkultur“ etabliert. Die Meinungserhebung, die unter mehr als 200 Ärzten und dem Pflegepersonal verschiedener österreichischer Intensivstationen stattgefunden hat ergab, dass Verbesserungspotential betreffend der Fehlerkultur auf der Intensivstation vorhanden ist.

Diplomarbeitsposter Meusburger Harald

Harald Meusburger

Masterstudium Business Informatics
Abstract:

Die Organisation und Durchführung einer internationalen Fachtagungen ist ohne eine durchdachte IT Unterstützung faktisch unmöglich. Da jedoch bei jeder Konferenz spezifische Bedürfnisse zu erfüllen sind, gibt es für ein solches Anwendungsszenario nur selten passende Standardsoftware. Es muss daher vielfach auf bestimmte nützliche Funktionen verzichtet werden oder aber es müssen teure und zeitintensive Eigenentwicklungen in Kauf genommen werden. Die erstellte Arbeit, die in Zusammenarbeit mit der Fraunhofer Austria Research GmbH, sowie dem Institut für Managementwissenschaften der TU Wien entstanden ist, beschreibt an einem konkreten Beispiel die Konzeptionierung und Realisierung der IT-Landschaft für einen internationalen Kongress. Es wird zunächst das gesamte Projektumfeld skizziert und die verschiedenen Teilsysteme werden vorgestellt. Der Fokus der Arbeit liegt dann auf der Implementierung einer Online Anmeldeplattform mit Kreditkartenzahlung. Das für diesen Zweck entwickelte Anmeldesystem basiert auf dem Open Source CMS-Framework Drupal und mehreren freien Drupal-Erweiterungen, wie beispielsweise dem E-Commerce Modul Ubercart. Da Freie Software für die Projektabwicklung eine essentielle Rolle gespielt hat, wurde die Arbeit abgerundet, indem die Motive hinter dieser Bewegung sowie die Gründe, die für den Einsatz und die Entwicklung von Freier Software sprechen, etwas genauer zu beleuchten. Ebenfalls wurde kurz auf die Grundsätze der Agilen Softwareentwicklung eingegangen, da einige der agilen Methodiken im Projektverlauf angewendet wurden. Den Abschluss bildet ein Fazit zum Projektverlauf.

Diplomarbeitsposter Ploninger Christian

Christian Ploninger

Masterstudium Business Informatics
Abstract:

Diese Arbeit beschäftigt sich mit der Entwicklung der Projektführung. Viele Studien und namhafte Vertreter des Forschungsgebiets Projektmanagement nennen das Fehlen von sozialen Kompetenzen als das gravierendste Problem in der Projektleitung von heute. Basierend auf diesem Kontext untersucht diese Arbeit den Einfluss von sozialen Aspekten auf die Projektleitung. Ausgehend von einer technisch, ingenieurswissenschaftlich geprägten Disziplin gewinnen sozialpsychologische Erkenntnisse immer stärkeren Einfluss. So entwickelt sich eine ganzheitliche Disziplin, Project Leadership genannt. Es wird ein Überblick über die wichtigsten sozialpsychologischen Einflüsse gegeben. Im Speziellen werden die Forschungsgebiete Führungstheorie, Motivationspsychologie und Kommunikationstheorie vorgestellt. Im Rahmen einer empirischen Studie wird die Wechselwirkung zwischen Abwicklungsmodell und Führungsverhalten untersucht. Es wird gezeigt, dass das Projektabwicklungsmodell einen maßgeblichen Einfluss auf die Anforderungen an die Projektleitung hat. Untersucht wird dabei die Erfolgskritikalität von Hard- und Soft Skills, sowie Art und Weise des Führungsverhaltens in konventionellen und agilen Projekten. Es wird gezeigt, dass in agilen Projekten Soft Skills wichtiger sind, als in konventionell geführten Projekten. Darüber hinaus wird nachgewiesen, dass in agilen Projekten Soft Skills sogar wichtiger sind als Hard Skills.

Diplomarbeitsposter Rzuchowski Michal Ryszard

Michal Ryszard Rzuchowski

Masterstudium Informatikmanagement
Abstract:

Viele IT-Projekte sind mit großen Risiken und Problemen konfrontiert. Diese können das Projekt sowohl in der Startphase als auch in den späteren Projektphasen zum Scheitern bringen. Die richtigen IT-Systeme, zur richtigen Zeit mit dem annehmbaren Aufwand durchgeführt, werden heute in sehr vielen Unternehmen als Erfolgsfaktor für den langfristigen Unternehmenserfolg gesehen. Die Kombination aus dem theoretischen Wissen und der Praxis verbessert das IT-Projektmanagement und steigert die Chancen, IT-Projekte erfolgreicher durchzuführen. In dieser Arbeit wird ein Überblick über das moderne IT-Projektmanagement gegeben. Der Schwer-punkt liegt in der Erarbeitung von Erfolgsfaktoren der Projektabwicklung. In Kapitel 2 „Grundbegriffe“ werden die Grundbegriffe des IT-Projektmanagements besprochen. Das Kapitel 3 „Aufbau- und Ablauforganisation“ beinhaltet sowohl die Aufbauorganisation als auch die Ablauforganisation von IT-Projekten. Das Kapitel 4 „Scheitern von IT-Projekten“ stellt diverse Studien über das Scheitern von IT-Projekten vor. Die Ursachen für das Scheitern der IT-Projekte werden anschließend gruppiert und ausgewertet. In Kapitel 5 „Regelwerk“ werden die Definitionen, Inhalte und Regelungen eines IT-Regelwerks für IT-Projekte beschrieben. Die häufigsten Misserfolgsfaktoren sowie Ansätze, wie diese vermieden wer-den können (Erfolgsfaktoren), werden ausgearbeitet.Das Kapitel 6 „Zusammenfassung“ beinhaltet ein Resümee der Arbeit.

Diplomarbeitsposter Senussi Ziad

Ziad Senussi

Masterstudium Business Informatics
Abstract:

Eine nachhaltig gestaltete Supply Chain leistet nicht nur einen positiven Beitrag zur Umwelt und Gesellschaft sondern spart auch Ressourcen sowie Kosten. Dennoch gibt es bis heute keine einheitliche Definition einer nachhaltigen Supply Chain. Daher wurde in dieser Arbeit unter Beachtung der ökologischen, sozialen und ökonomischen Aspekte als auch der vorhandenen Nachhaltigkeitskonzepte der Begriff der nachhaltigen Supply Chain sowie deren Merkmale definiert. Da die Informations- und Kommunikationstechologie (IKT) bei der Umsetzung von Nachhaltigkeitsstrategien eine signifikante Rolle spielt, wurde mittels einer Literaturrecherche analysiert, wie die IKT die Nachhaltigkeit in Supply Chains unterstützen kann und welche weiteren Potentiale dadurch genutzt werden können. Die Literaturrecherche ergab zudem, dass Nachhaltigkeitsstrategien, wie die Reduzierung von verbrauchten Ressourcen und die Vermeidung von Abfall, großteils auch mit bereits im Unternehmen oder in der Supply Chain vorhandenen IKT-Lösungen umgesetzt werden können. Neue und somit noch in die Unternehmenssysteme zu integrierende IKT-Lösungen sind hingegen Programme für die Messung der ökologischen "`Rucksäcke"' der Produkte und Dienstleistungen sowie für die demontage-freundliche Produktentwicklung. Was für die großflächige Umsetzung von nachhaltigen Supply Chains noch fehlt ist sowohl ein gemeinsames Verständnis für den Begriff der nachhaltigen Supply Chain als auch entsprechende Standards, die es IKT-Anbietern und auch Unternehmen in Supply Chains vereinfachen Nachhaltigkeitsstrategien umzusetzen.

Diplomarbeitsposter Wenk Georg

Georg Wenk

Masterstudium Informatikmanagement
Abstract:

Bei der Verwendung elektronischer Rechnungsstellung müssen im Vergleich zur papiergebundenen Rechnungsstellung zusätzliche Vorschriften eingehalten werden, damit der Vorsteuerabzug beim Rechnungsempfänger möglich ist. In dieser Arbeit wird gezeigt, wie das Risiko, diesen Vorschriften nicht gerecht zu werden, von Seiten des Rechnungsstellers minimiert werden kann. Dazu wird das Risikomanagement-Rahmenwerk Enterprise Risk Management – Integrated Framework des Committee of Sponsoring Organizations of the Treadway Commission, kurz COSO ERM oder COSO II genannt, verwendet. Dieses wird in einem beispielhaften Szenario, wie es in einem kleinen oder mittleren Betrieb vorkommen kann und das einen mit UML 2 formal definierten Rechnungsstellungsprozesses beinhaltet, angewandt. Die österreichische Rechtslage wird mit dem Stand Dezember 2009 berücksichtigt. Für die Ereignisidentifikation wird eine systemische und prozessorientierte Systematik von Kategorien nach O'Donnel verwendet; für die Risikobeurteilung eine qualitative Schätzung. Das Ergebnis der Analyse sind die Risikomanagementmaßnahmen, die nach den Komponenten von COSO ERM gegliedert dargestellt werden. Der überarbeitete Rechnungsstellungsprozess und die Vorgaben zum Prozessmanagement werden abschließend wieder mit UML 2 modelliert.

(vor 2018) Institut für Automatisierungs- und Regelungstechnik

Diplomarbeitsposter Thöny Matthias

Matthias Thöny

Masterstudium Visual Computing
Abstract:

Software development of avionic systems is based on software standards for airborne systems. These documents contain essential limitations for development methods and the implementation of software. The aim of this work is the gathering of requirements for a terrain rendering software used for a three dimensional representation on the „Primary Flight Display“ of a helicopter, so that the pilot can navigate according to this visualisation. The challenge lies in the „non-restricted-quadtree" data structure of the given input data and the following triangulation with the resources of an embedded system. The solution for this challenge can be found in an improvement of the work of Mariano Perez from 2004. In the original version, the work of Perez can not be used for this specific problem, because the triangulation does not fulfill a given accuracy which is important for the certification process. The quadtree triangulation approach is based on the possibility to fill individual nodes of a quadtree to a list structure, so that an optimized mesh structure can be created, based on the height values of each node and the neighbourhood information of the list structure. This master thesis shows an approach, how a terrain render engine can be designed, so that it fulfills the user requirements, and the software standardisation requirements for airborne systems. The implementation part discusses the integration in detail and explains challenges in memory consumption, performance and image quality.

(vor 2018) Institut für Computertechnik

Diplomarbeitsposter Cevan Ondrej

Ondrej Cevan

Masterstudium Technische Informatik
Abstract:

Es ist das Ziel jedes Netzwerksicherheitsprotokolls die Daten, die durch das nicht vertrauenswürdige Internet transportiert werden, zu sichern. Die verwendeten kryptografischen Algorithmen können allerdings einen gravierenden Einfluss auf die Leistung eines Prozessors haben. Deswegen wurden kryptografische Beschleuniger entwickelt, um den Prozessor von den kryptografischen Operationen zu entlasten. Diese Masterarbeit präsentiert eine Netzwerkanwendung, genannt KMedia, um die kryptografische Leistung eines Linux Kernels, der auf einem Kommunikations-Einchipsystem-Prozessor von Freescale mit einem eingebauten Verschlüsselungsbeschleuniger läuft, zu messen. Die "Authenticated Encryption" Algorithmen, die in dem Beschleuniger oder in dem Linux Kernel implementiert sind, wurden berücksichtigt und bezüglich ihrer Leistung verglichen. Diese kryptographischen Algorithmen ermöglichen die Geheimhaltung der Datenpakete, die Überprüfung der Datenherkunft und die Erkennung der Datenmanipulation. Die Tests wurden auf der Anwendungsschicht eines Netzwerkstacks ausgeführt und durch Werkzeuge unterstützt die entweder frei verfügbar waren oder im Rahmen der Masterarbeit entwickelt wurden. Die Ergebnisse zeigen, dass die Leistung des getesteten Netzwerkgeräts mit dem Krypto-Beschleuniger im Vergleich zur Leistung ohne Beschleuniger rund 1,3 mal besser mit Datenpaketen kleiner als 470 Bytes und bis zu 4 mal besser mit 32768 Bytes großen Paketen ist. Mit dem Beschleuniger wurden Datenraten nahe der maximalen Bandbreite des Testnetzwerkes erreicht. Die Ergebnisse zeigen auch, dass höhere Beschleunigungen erreicht werden können wenn die Ressourcen des Netzwerkgeräts nicht völlig ausgeschöpft sind, und, dass unterschiedliche Verschlüsselungsalgorithmen mit verschiedenen Datendurchsätzen in der Software ähnliche Durchsätze unter der Verwendung des Krypto-Beschleunigers erreichen.

Diplomarbeitsposter Engel Robert

Robert Engel

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

The Artificial Recognition System (ARS) project aims at the design and implementation of a cognitive architecture for autonomous agents that exhibits intelligent behavior that extends the current state of the art in Artificial Intelligence (AI) research. Agents based on this new cognitive architecture shall be able to handle complex situations in the real world, both in terms of accurate perception and appropriate reaction. In pursuance of this long-term goal, a bionic approach is taken where the human mind and body serve as biological archetypes for the developed technical model. The theory of psychoanalysis, which provides a comprehensive model of the human psychic apparatus, has strongly influenced the design of the ARS architecture. This work is specifically concerned with the design and implementation of the Decision Making Module in the ARS architecture. Information from preceding modules about homeostatic state, social rules, perception and known facts about reality are processed to synthesize concrete goals and plans of the agent. A model for the Decision Making Module has been proposed and implemented in a software agent based on the Jadex BDI framework. Where feasible, existing concepts from contemporary AI research have been considered in the implementation. The software agent has been evaluated in regard to its behavior in a virtual world environment in single- and multi-agent scenarios and has proven to exhibit facets of intelligent behavior that are envisioned in the long-term goals of the ARS project.

Diplomarbeitsposter Katzdobler Franz- josef

Franz- josef Katzdobler

Masterstudium Technische Informatik
Abstract:

Softwaremetriken waren in den letzten Jahrzehnten durchgehend ein Thema zur Unterstützung in der Abwicklung von Softwareprojekten. Viele verschiedene und teils widersprüchliche Ergebnisse liegen vor. Einige Studien kommen zu dem Ergebnis, dass aus statischer Softwareanalyse auf die Qualität eines Softwareproduktes geschlossen werden kann. Andere hingegen behaupten das genaue Gegenteil. Diese Arbeit konzentriert sich vor allem auf den Aspekt der Wartung im Bereich von sicherheitskritischen Systemen. Es ist belegt, dass bis zu 80 Prozent der Gesamtkosten eines Projektes auf Wartung zurückzuführen sind. Unterschiede zwischen verschiedenen Paradigmen und Programmiersprachen wurden untersucht und Metriken auf die praktische Anwendbarkeit geprüft. Dafür wurden Daten von erfahrenen Programmierern im Umfeld von sicherheitskritischen Systemen gesammelt und auf Korrelation mit den Daten von statischen Softwareanalysetools untersucht, wobei Wartbarkeitsmodelle auf der Basis des ISO 9126 Standards definiert wurden. Außerdem erfolgte eine Implementierung eines Prototypensystems, das es ermöglicht, Metriken aus mehreren Tools zu benzutzerdefinierten Wartbarkeitsmodellen zu kombinieren. In den Ergebnissen werden zwei Wartbarkeitsmodelle präsentiert, wobei eine Trennung von prozeduralen und objektorientierten Sprachen eingeführt wird. Außerdem zeigen die Experimente, dass der Wartbarkeitsbegriff zwar teils unterschiedlich interpretiert wird, es sich aber doch ein Konsensus zwischen den Entwicklern bilden lässt. Zusammen mit dem entwickelten Prototypensystem, durch das die Messung und Aggregation der benötigten Metriken erleichtert wird, zeigt diese Erkenntnis die Sinnhaftigkeit des Einsatzes von Metriken in der Softwareentwicklung.

(vor 2018) Institute of Telecommunications

Diplomarbeitsposter Semper Thomas

Thomas Semper

Masterstudium Technische Informatik
Abstract:

This diploma thesis deals with the research and implementation of digital audio effects, especially for electric guitars. On the one hand the signal processing aspects are of interest on the other hand a software development platform is created. Thus new audio effects can be added and existing ones can be improved easily. The aim is a software tool to demonstrate and experiment with audio signal processing algorithms. High value is set on a good user interface so that different audio effects can be changed and combined fast. In this thesis three groups of guitar effects have been studied: Delay based effects like the chorus or the flanger effect, spatial based effects like the reverb effect and nonlinear effects like distortion. In a first step all algorithms have been implemented with Matlab.

In Zusammenarbeit mit anderen wissenschaftlichen Einrichtungen

Universität Wien

Diplomarbeitsposter Dogan Mustafa

Mustafa Dogan

Masterstudium Informatikmanagement
Abstract:

E-Learning Systeme sind in Österreich weit verbreitet und nehmen eine große Bedeutung in der österreichischen Gesellschaft. In verschiedenen E-Learning Plattformen werden verschiedene Techniken eingesetzt um eine effiziente Bildung zu verschaffen. Die meisten Schulen verwenden nur einige von diesen E-Learning Plattformen bzw. Systemen. Ziel der Diplomarbeit: - Worauf müssen die höheren Schulen (HTL bzw. obere Stufe Gymnasium) bei der Einsetzung des E-Learning Systems beachten? - Vor- bzw. Nachteile der E-Learning Systeme analysieren - Schwachstellen der E-Learning Plattformen erkennen - Zusammenspiel der Technik - Vergleich Österreich und die Türkei hinsichtlich auf Einsetzung der E-Learning Systeme in den Schulen. - Werden die E-Learning Plattformen nur in den Schulen eingesetzt? - In wie weit ist die österreichische gegenüber der türkische Gesellschaft in der Türkei mit E-Learning Plattform vertraut (--> Umfrage) Die Diplomarbeit soll die höheren Schulen bei der Auswahl der E-Learning Plattformen erleichtern bzw. die Schwachstellen dadurch entdeckt werden. Aus diesem Grund ist uns hilfreich in wie weit wir uns mit E-Learning Systeme vertraut machen sollen.

Diplomarbeitsposter Fedrigotti Nicolas

Nicolas Fedrigotti

Masterstudium Informatikmanagement
Abstract:

Social Network Sites (SNS) sind in den letzten Jahren ständige Begleiter unseres (Online-) Alltags geworden. Als Teil des Web 2.0 sind sie allgegenwärtig, vor allem da sich die Nutzung in jüngster Zeit nicht mehr auf den (Desktop-) Computer und Laptop beschränkt, sondern diese wie auch andere typische Anwendungen vermehrt auch auf mobilen Geräte wie Handys zum Einsatz kommen. Doch was genau verbirgt sich dahinter? Wer benutzt welche SNS für welche Zwecke und wie wird mit Identität im Netz, mit privaten Inhalten und Informationen umgegangen? Wie weit reicht heute das Bewusstsein für Privatsphäre und Datenschutz? Diese Fragen sollen auf den folgenden Seiten beantwortet und verschiedene Aspekte betrachtet werden. Dafür werden einerseits Beobachtungen und Ergebnisse aus vorliegenden empirischen Erhebungen, sowie vor allem Daten aus einer eigenen durchgeführten Befragung herangezogen, beleuchtet und analysiert, sowie mit Erkenntnissen aus bestehender Literatur verglichen und ergänzt. Darüber hinaus wird der Begriff des Web 2.0 an sich erläutert, sowie Perspektiven, Neuerungen und bereits bestehende, vielleicht noch wenig bekannte, Anwendungen vorgestellt. Neben dem Aspekt des Datenschutzes beim Benutzerverhalten finden auch weitere Gefahren und (Sicherheits-) Probleme Beachtung.

Diplomarbeitsposter Kudla Kamil

Kamil Kudla

Masterstudium Informatikmanagement
Abstract:

Studien zu Folge, ist die Wissensaufnahme eines Menschen, der heutzutage einen Monat Zeitung liest, genauso hoch, wie die eines im 15. Jahrhundert lebenden Menschen über sein gesamtes Leben. Aus diesem Grund müssen die Methoden der Wissensvermittlung an die hohe Fluktuation von Lerninhalten angepasst werden. Die vorliegende Arbeit beschäftigt sich mit den Themen Lernmethoden und Wissensmanagement in der Dezentralen IT-Infrastruktur Services GesmbH (sDIS). Neben dem Abriss der bedeutendsten Lerntheorien, wird dem Leser ein Überblick über moderne Lernformen, wie E-Learning geboten. Mit dem Kapitel über Wissensmanagementansätze und deren Methoden bildet diese Arbeit die Grundlage für den praktischen Teil. Dieser umfasst die Bewertung der Ist-Situation in Hinblick auf Lernmethoden und Wissensaufbereitung in der sDIS. Die durchgeführte quantitative empirische Studie unter den Mitarbeitern diente zur Verifizierung der aufgestellten Hypothesen, die als Rahmen für die Erstellung eines neuen Wissensmanagementansatzes dienten. Das Ergebnis dieser Arbeit ist ein auf das Unternehmen zugeschnittener Wissenskreislauf, der durch optimierte Schulungsmethoden und neu erschaffene Rahmenbedingungen die schnell wechselnden Anforderungen eines IT-Dienstleistungsunternehmens unterstützt.

Diplomarbeitsposter Schnöpf Lorenz

Lorenz Schnöpf

Masterstudium Business Informatics
Abstract:

IT-Organisationen stehen in der heutigen Zeit unter besonderem Druck die Anforderungen, die an sie aufgrund der sich stetig ändernden Marktsituation im Zuge der Globalisierung gestellt werden, zu erfüllen. Unternehmen erwarten, dass IT nicht nur das Kerngeschäft unterstützt, sondern auch die Wirtschaftlichkeit und Produktivität verbessert, sowie einen entscheidenden Wettbewerbsvorteil mit sich bringt. Die zunehmende Komplexität der IT-Infrastruktur und Applikationslandschaft, häufige Veränderungen, höhere Ansprüche an die Qualität der IT-Services, sind weitere Aspekte die IT-Abteilungen unter besonderen Leistungs- und Kostendruck setzen. Um die Bedürfnisse zu befriedigen, ist eine flexible IT notwendig, um schneller und effizienter auf den sich ändernden Bedarf an IT-Services reagieren zu können. IT-Service Management stellt hier eine Möglichkeit dar, Standardisierungen von Prozessen und Methoden vorzunehmen, und so eine übersichtlichere, effizientere und genauere Ausrichtung der IT auf die Bedürfnisse und Ziele des Unternehmens zu vollziehen. Die Einführung von ITSM stellt Organisationen vor große Herausforderungen. Durch dessen Umsetzung wird ein Modell implementiert, welches zu Veränderungen in der gesamten Unternehmenskultur führt. Dies ist eine schwierige Aufgabe, da ohne eine holistische Herangehensweise, sich viele Hindernisse in den Weg stellen, deren Auswirkungen erfolgskritisch sein können.Ziel der Arbeit ist es, ein integriertes Vorgehensmodell zu entwickeln, welches bei der Transformation von einer herkömmlichen, hierarchischen Aufbauorganisation zu einer IT-Service Organisation, im Sinne eines Leitfaden unterstützt.Mit diesem integrierten Vorgehensmodell ist es möglich den Prozess der Transformation und Einführung von ITSM in Unternehmen abzubilden.

Diplomarbeitsposter Stürzlinger Johannes

Johannes Stürzlinger

Masterstudium Business Informatics
Abstract:

Heutzutage sind die Informationstechnologie (IT) und die damit zur Verfügung gestellten IT-Services für Unternehmen wichtige unterstützende Faktoren um die Unternehmensziele zu erreichen. In diesem Zusammenhang spielt IT-Service Management eine wesentliche Rolle um sicherzustellen, dass die richtigen IT-Services effizient bereitgestellt werden und der erwartete Nutzen erzielt wird. Eine adäquate Abstimmung zwischen den IT- und den Unternehmenszielen ist hierbei von besonderer Bedeutung. Die zentrale Fragestellung dieser Arbeit ist die Identifikation jener Faktoren aus dem IT-Service Management Bereich auf die mittelgroße österreichische Unternehmen einen besonderen Wert legen, damit deren IT-Services und die IT-Service Organisation effizient gemanagt und die Anforderungen der Geschäftsbereiche erfüllt werden können. Dabei wird ein besonderes Augenmerk auf die Aufgaben der IT-Governance gelegt. In der Arbeit werden zunächst theoretische Konzepte, Denkansätze und Zusammenhänge rund um den Bereich des IT-Service Managements vorgestellt. Ebenso werden Grundlagen zur Corporate- und IT-Governance und damit in Verbindung stehende Standards (ISO/IEC 20000 und ISO/IEC 38500) und Referenzmodellen (ITIL und COBIT) beschrieben und verglichen. Zur Ermittlung der für die Unternehmen wichtigen Faktoren aus dem IT-Service Management Bereich wurde eine branchenübergreifende empirische Untersuchung unter österreichischen Unternehmen mit 50 bis 499 Mitarbeitern durchgeführt. 245 Unternehmen wurden zur Studie eingeladen. 76 Unternehmen beantworteten den Online-Fragebogen, 28 der beantworteten Fragebögen konnten in die Studie einbezogen werden (48 vor der Quotenauswahl). Aus der Stichprobe konnten mit Hilfe der Faktorenanalyse vier Faktoren identifiziert werden, anhand derer sich die Auswirkungen von IT-Governance auf das IT-Service Management und auf IT-Service Organisationen unterscheiden. Schließlich werden diese Faktoren detailliert betrachtet und kritisch gewürdigt.

Diplomarbeitsposter Thöni Andreas

Andreas Thöni

Masterstudium Business Informatics
Abstract:

Mehrere große Firmenskandale während der letzten Jahre haben zu einer vermehrten Beachtung des Themas der Corporate Governance in der Öffentlichkeit geführt. Gleichzeitig nahm die Bedeutung der Informationstechnologie (IT) aufgrund von zunehmenden Investitionsvolumina und Wertbeiträgen signifikant zu. Folglich rückte auch IT-Governance, aus sowohl wirtschaftlichen wie rechtlichen Gründen, in den Mittelpunkt. Diese Arbeit beschäftigt sich dabei speziell mit der Beteiligung der Unternehmensleitung an der IT-Governance. Auf der einen Seite erfolgt eine Analyse der Dimensionen, anhand derer sich die Mitwirkung empirisch unterscheidet und andererseits wird die Frage untersucht, ob Unterschiede zwischen Unternehmen mit der strategischen Bedeutung der IT zusammenhängen. Der theoretische Teil der Arbeit beschäftigt sich mit den zugrunde liegenden Themen der Corporate und IT-Governance, worauf eine Auseinandersetzung mit der Beteiligung der Unternehmensleitung an der IT-Governance erfolgt. Darauf aufbauend werden Empfehlungen auf der Grundlage verschiedener aktueller Rahmenwerke und Standards entlang der Kernbereiche der IT-Governance erörtert. Abschließend wird die Kontextbezogenheit und Abhängigkeit derselben von der strategischen Bedeutung der IT formuliert. Im empirischen Teil der Arbeit wurde eine Online-Befragung von IT-Leitern österreichischer Unternehmen mit 50 bis 499 Mitarbeitern durchgeführt. Die finale Stichprobe enthielt 28, nach dem Quotenverfahren selektierte Unternehmen, aus Branchen, für die IT bedeutend ist. Die wesentlichsten Unterschiede in der Beteiligung der Unternehmensleitung konnten auf zwei Dimensionen, eine Zukunfts- und eine Effektivitätsdimension, zurückgeführt werden. Allerdings waren keine signifikanten Unterschiede zwischen Unternehmen, in denen IT strategisch wichtig bzw. nicht wichtig ist, feststellbar.

Diplomarbeitsposter Vujasin Viktor

Viktor Vujasin

Masterstudium Informatikmanagement
Abstract:

Für die meisten Menschen ist die Benutzung des Internets zu einer Selbstverständlichkeit geworden. Alle erdenklichen Informationen von Nachrichten über Produktinformationen, Telefonnummern und ganzen Wörterbüchern, bis hin zu Videos und den neuesten Musikstücken aus der Hitparade stehen im Internet rund um die Uhr, 365 Tage im Jahr, zur Verfügung. Die Leichtigkeit mit der auf riesige Datenmengen aus aller Welt zugegriffen werden kann, lässt leicht vergessen, dass viele Internetnutzer von diesen Angeboten ausgegrenzt werden. Dazu zählen ältere Menschen genauso wie Menschen mit Behinderungen. Auch Nutzer von mobilen Endgeräten müssen sich häufig damit abfinden, dass gewisse Angebote für sie nicht erreichbar sind oder nur mit Einschränkungen abgerufen werden können. Um diese Situation zu verbessern, ist es erforderlich Internetangebote barrierefrei und zugänglich zu erbringen. Zweifellos gibt es viele Gründe für Barrierefreiheit. Dazu zählen beispielsweise ethische Gründe, die nach Meinung des Autors eine besonders starke Motivation bilden sollten, für Zugänglichkeit zu sorgen. Es liegt jedoch die Vermutung nahe, dass eine Vielzahl von Webdesignern sich nicht bewusst sind, große Gruppen von Interessenten durch unzulängliche Programmierung von der Nutzung ihrer Internetseiten auszugrenzen. Die steigende Verbreitung des Internets und stärker werdende Thematisierung der Barrierefreiheit werden dahingehend möglicherweise ein Umdenken schaffen. Ein weiterer und für viele Internetseiten-Betreiber gewichtiger Grund für die Erstellung barrierearmer Internetseiten ist die demographische Entwicklung unserer Gesellschaft. Mit dem zunehmenden Anteil an Älteren Internetnutzern steigt naturgemäß auch die Nachfrage nach zugänglichen Webseiten, die sich beispielsweise durch frei wählbare Schriftgrößen auszeichnen.

Diplomarbeitsposter Yaman Fatma

Fatma Yaman

Masterstudium Informatikmanagement
Abstract:

Meine Arbeit bezieht sich auf das Thema Der Begriff des Lernens anhand von Lernspielen im Mathematikunterricht. Lernen im Rahmen einer Ausbildung ist immer der Erwerb von verschiedenen Arten von Wissen und Können, damit sie ihre Fertigkeiten steigern. Wissen besteht in Vorstellungen, die bleibend im Gedächtnis haften. Fertigkeiten sind abhängig von den Vorstellungen und Bewegungen zu der Fähigkeit, um gespeichertes Wissen anwenden zu können. Die Bedeutung von Zweck des Lernens ist etwas Neues zu erfahren, die Wichtigste verstehen und im Kopf behalten, das Wesentliche ermitteln. Wenn man das Lernen als Arbeit sieht, dann kann man das Gelernte bei der Lösung neuer Aufgaben oder Problemen verwerten. Um ein bestimmtes Ziel zu erreichen, ist es auch mit einem planmäßigen Verfahren möglich. Die vorliegende Arbeit beschäftigt sich mit dem Einsatz von dem Begriff Lernen sowohl im Bildungsbereich als auch im Schulbereich und gliedert sich in sechs große Teilbereiche: • Das Lernen • Motivation zum Lernen • Lernstrategien • Lernmethoden • Spiel und Lernspiele • Didaktische Prinzipien

Johannes Kepler Universität Linz

Diplomarbeitsposter Moreau Arnaud

Arnaud Moreau

Masterstudium Visual Computing
Abstract:

In this work the process of automatically arranging songs for solo-guitar by a computer on the basis of melodic and harmonic information contained in lead sheets is analyzed and discussed. The problem is defined and broken down to sub problems (guitar fingering, music segmentation) and solutions are presented and discussed. The focus of this work is mainly on technical rather than musical aspects. First an overview on the state of the art is given. Furthermore a prototype implementation is presented that incorporates many of herein discussed thoughts. The primary target of the implemented algorithm is to ensure the playability of the arrangement on the guitar, which imposes by nature constraints on the result. The results are generated using a genetic algorithm that optimizes the arrangements towards better playability. Background information on problems, methods (genetic algorithms) and data representations (MusicXML) is given in the introduction part. The arrangements produced by the prototype based on a testbed of six songs in the genre of Bossa Nova are discussed in detail. This work concludes with an outlook on future work.

Technische Universität Graz

Diplomarbeitsposter Pucher Sabrina

Sabrina Pucher

Masterstudium Business Informatics
Abstract:

In den letzten zwei Jahrhunderten veränderten sich Technologien und Unternehmen so enorm und rapide wie noch nie zuvor. Die Informationstechnologie hat heute nicht nur Auswirkungen auf die operativen Bereiche einer Firma, sondern auch auf strategische Ebenen, da Unternehmenssoftware heute alle Geschäftsprozesse unterstützt. Im strategischen Management ist erweisen, dass das Zusammenspiel von allen unternehmensweiten Geschäftsprozessen ausschlaggebend für das Erlangen von Wettbewerbsvorteilen ist. Im natürlichen Lauf der Standardisierung betrifft diese nun auch die technologischen Errungenschaften auf Geschäftsprozessebene. Festgelegte Prozesse und „best practices“ erhalten nun Einzug in den verschiedensten Bereichen und imitieren somit die Vorgangsweisen der Konkurrenz. Anhand von Wettbewerbsanalysen, im speziellen durch den ressourcenorientieren Ansatz, soll in dieser Arbeit erforscht werden, ob durch standardisierte Geschäftsprozesssoftware Unternehmen in ihrer Wettbewerbsfähigkeit eingeschränkt werden. Mit der Analyse von detailliert beschriebenen Fallstudien soll in Folge festgestellt werden, ob die Annahmen, welche durch das Studium der relevanten Literatur hervorgebracht wurden, auch in der Praxis nachvollzogen werden können.

Medizinische Universität Wien

Diplomarbeitsposter Bayer Werner

Werner Bayer

Masterstudium Software Engineering & Internet Computing
Abstract:

Agent-based models have proven to be a unique and valuable tool in a wide range of research areas, despite the inherent drawbacks of complex, large-scale, and often model-specific programming of agents. The use of a massive multiplayer online game (MMOG), with real human participants in place of programmed agents, eliminates many of those drawbacks and allows researchers to confidently read data as accurately reflecting genuine human behavior. The MMOG Pardus generates millions of data sets each day, logging each and every relevant user action including various social and economic engagements. These data sets are available in form of daily database backups. A system must be designed and implemented to combine and anonymize all data while keeping all correlations intact. Researchers need extensive querying capabilities on any and all timeframes of the data. Data mining strategies are evaluated and compared in regards to storage size, practicality, security, speed and ability for concurrent usage. Eventually a relational database management system (RDBMS) is used as data storage back-end due to its superiority in all areas. Subsequently a database layout is designed to accommodate the huge input of data. An application consisting of a command-line tool and a web front-end is implemented. The command-line tool contains functions for extracting the data from backups, anonymizing it and integrating it into the new system. The web front-end is both used by researchers accessing the data, and by administrators creating schedules for or manually exporting and importing data. First usage of the application shows promising results, supporting famous social science hypotheses and thus confirming the feasibility of data mining in large-scale human agent-based models like MMOGs.

Diplomarbeitsposter Freystätter Christian

Christian Freystätter

Masterstudium Medizinische Informatik
Abstract:

Wissensbasierte Systeme werden heutzutage in vielen Bereichen unserer Arbeitswelt eingesetzt, hauptsächlich um seine Anwender in bestimmten Fachgebieten zu unterstützen. Diese Unterstützung reicht von technischen Diagnoseaufgaben bis hin zu Trendprognosen wirtschaftlicher Fragestellungen. Die synonyme Bezeichnung Expertensysteme verrät, dass das System für die Lösung der jeweiligen Aufgaben das Wissen eines Experten benutzt, indem es dieses mit den Mitteln der künstlichen Intelligenz verarbeitet. Anders als die meisten Aufgabengebiete stellt die Medizin eine höchst anspruchsvolle Umgebung für ihren Einsatz dar. Das medizinische Wissen ist oftmals unsicher, heuristisch oder unvollständig, wodurch hohe Anforderungen an die automatische Wissensverarbeitung gestellt werden. Vorliegende Arbeit präsentiert, analysiert und diskutiert Konzepte der computerbasierten Wissensverarbeitung für medizinische Anwendungsgebiete. Dabei wird besonders auf informatischen Methoden entscheidungsunterstützender Systeme im klinischen Workflow eingegangen. Jedes Konzept wird theoretisch beschrieben, dessen Stärken und Schwäche im medizinischen Kontext aufgezeigt und diskutiert, sowie praktisch eingesetzten Systeme vorgestellt. Die behandelten Konzepte sind regelbasierte Systeme, Bayes´sche Netze, Dempster-Shafer-Theorie, Fuzzy-Logik und Neuronale Netze. Desweiteren werden unterschiedliche Einsatzgebiete klinischer Expertensysteme, deren praktischer Nutzen und dessen spezielle Anforderungen untersucht. Abschließend werden die Möglichkeiten, klinische Systeme adäquat zu evaluieren, aufgezeigt.

Diplomarbeitsposter Sieber Gregor

Gregor Sieber

Masterstudium Informatikmanagement
Abstract:

Artificial companions are interfaces designed to collaborate with a user over an extended period of time and communicate using natural language. This creates special requirements on the dialogue capabilities of companions. For acceptable long-term interactions, companions need to be aware of their own history and past interactions with their individual users. This can be accomplished by integrating episodic memory - the memory that remembers personal experiences - into the agent's cognitive model and dialogue capabilities. The thesis investigates on the one hand the design and implementation of an episodic memory for such artificial companions. On the other hand, how episodic memory can be used to enhance the dialogue capabilities of a companion. Based on a review of related literature, the required components are modeled and implemented. The model presented in the thesis thus takes into account the data structures and semantic representations of companions, and stores memories as RDF representations of the agent's experiences that are connected with semantic memory and a model of the interests and preferences of the user. The dialogue manager developed for the thesis uses a combination of rule-based processing and a scoring approach on a set of patterns operating on memories of the agent, the user's preferences, and the current input. The result of the thesis comprises two parts. First, the modelling and implementation of the respective components in the Java programming language using the Sesame RDF framework and the Elmo toolkit. Second, a set of use cases show application scenarios where the memory and dialogue manager enable the companion to refer to and comment on past interactions with the user, and to generate output taking into account the contents of the memory, the preferences of the user, and the current situation.

Diplomarbeitsposter Strasser Nadine

Nadine Strasser

Masterstudium Medizinische Informatik
Abstract:

Technische Systeme und die elektronische Patientenakte verdrängen schrittweise die Papierakte. Auf dieser Basis wird versucht, die dokumentierten Daten für verschiedene Zwecke weiter zu verwenden. Routinedaten aus der Krankengeschichte sind auch für die medizinischen Forschung essentiell. Ohne diese können keine aussagekräftigen Ergebnisse erhalten werden. Um eine redundante Datenerhebung in Dokumentations- und Auswertesystemen zu vermeiden, wird vermehrt auf Daten im zentralen Krankenhausinformationssystem zurückgegriffen. Diese Datenbasis kann in einigen Forschungssystemen mit weiteren ergänzenden Daten verknüpft werden und steht so für Analysen zur Verfügung. Die Herausforderung liegt in der technischen Realisierung, wie Dokumentations- und Forschungssysteme in Verbindung gebracht werden. Das Ziel dieser Arbeit liegt darin, zu untersuchen, ob deutsche Universitätskliniken Routinedaten aus bestehenden Systemen für die Forschung nutzen. Es wird dargestellt, wie die IT-Infrastruktur aufgebaut ist, welche Krankenhausinformationssysteme genutzt werden und wie diese zentralen Systeme mit Auswertesystemen verbunden sind. Ein wichtiger Ansatz ist der Aufbau eines Data Warehouse Systems. Dieses wird in einigen Universitätskliniken als einheitliche Forschungsplattform eingesetzt. Hier werden Routine- und Forschungsdaten gespeichert und stehen der Wissenschaft für Analysen zur Verfügung. Aufgrund von unterschiedlichen Möglichkeiten hinsichtlich der informationstechnologischen, personellen und finanziellen Ressourcen, wird dieses Thema mit unterschiedlichen Ansätzen verfolgt. Die Ergebnisse beruhen auf einer umfangreichen Internetrecherche und der Befragung von Verantwortlichen der einzelnen Universitätskliniken. Die vielen verschiedenen Lösungen zeigen, dass Dokumentations- und Auswertesysteme an die Struktur und Bedürfnisse der Klinik angepasst werden müssen.

Alpen-Adria-Universität Klagenfurt