EPILOG Sommersemester 2013

Auszeichnungen

Ausgestellte Arbeiten

Institut für Technische InformatikE182

Arbeitsbereich Cyber-Physical Systems

Diplomarbeitsposter Broder Jürgen Mario

Jürgen Mario Broder

Masterstudium Technische Informatik
Abstract:

Eingebettete Systeme verarbeiten sensible Daten und interagieren mit der realen Umwelt, wodurch Störungen oder Ausfälle der Systemsoftware erheblichen Schaden bewirken können. Neben der Anforderung (Software-) Systeme ausfallsicher zu machen (Safety), nimmt der Schutz solcher Systeme vor böswilligen Benutzern und Schadsoftware eine immer bedeutendere Rolle ein (Security). Diese Arbeit konzentriert sich auf den Sicherheitsaspekt in eingebetteten Systemen und beginnt mit einem allgemeinen Einblick in das Thema Security. Ein wesentlicher Bestandteil für die Sicherheit in Software-Systemen sind Isolationstechniken. Sie können dazu verwendet werden um Komponenten in einem resource-sharing System nach gewissen Kriterien zu partitionieren und so die Ausführung von Programmen zu kontrollieren. Beispiele für Isolationstechniken sind Sandboxing, Virtualisierung, Hardware-basierte Isolation und Isolation durch den Betriebssystem-Kernel. Sie liefern den theoretischen Unterbau für die weiteren Untersuchungen dieser Arbeit. Ein klassisches Beispiel für eine sicherheitsrelevante Anwendung ist ein kryptographische Schlüsselverwaltungsprogramm in dem gespeicherte Schlüssel hoch sensible Daten darstellen die es wert sind geschützt zu werden. Daher wird im ersten Schritt ein Schlüsselverwaltungsprogramm auf Linux implementiert, da es als Betriebssystem für eingebettete Systeme häufig zum Einsatz kommt. Anhand dieser Implementierung wird gezeigt, dass Linux in einer Basiskonfiguration als nicht sicher eingestuft werden kann, da es keine strikte Isolation zwischen Programmen erzwingt und dadurch das Auslesen der Schlüssel im Verwaltungsprogramm erlaubt. Partitioning Operating Systems hingegen implementieren Isolationstechniken und andere Sicherheitsmechanismen per Design. Anhand einer Portierung der Schlüsselverwaltungsapplikation auf solch ein Betriebssystem zeigt sich, dass eine Programmisolation erzwungen werden kann und somit Schlüssel sicher gespeichert werden können.

Diplomarbeitsposter Komes Andre

Andre Komes

Masterstudium Technische Informatik
Abstract:

Moderne verteilte Automatisierungssysteme haben hohe Anforderungen an deren Ausfallsicherheit, und das Zustellen von Nachrichten innerhalb ihrer Kommunikationsnetzwerke ist zeitkritisch. Da zusätzlich oft eine genaue Zeitsynchronisierung benötigt wird, wird IEEE 1588 häufig in Ethernet basierenden Automatisierungssystemen verwendet. Um die Anforderungen an das Kommunikationsnetz erfüllen zu können, werden redundante Netzwerke verwendet, die keine Erholzeit in Fehlerfällen braucht. Ethernent Redundanzprotokolle die diese Anforderungen erfüllen, führen oft eine Abstraktionsschicht ein, welche die Informationen über das redundante Netzwerk verstecken und dadurch den Netzwerkpfad, über welchen eine Nachricht empfangen wurde, verbirgt. Eine solche Abstraktionsschicht führt zu Problemen, wenn IEEE 1588 in solchen Netzwerken eingesetzt wird, da IEEE 1588 exakte Kenntnisse über die verwendeten Netzwerkpfade benötigt, um eine genaue Synchronisierung gewährleisten zu können. Diese Diplomarbeit untersucht diese Problematik und beschreibt drei Ansätze, die diese Probleme lösen. Zwei dieser Ansätze erlauben Zugriff auf die Zeitinformationen beider redundanter Netzwerke, welche im Verlauf der Arbeit verwendet wird um die Genauigkeit der Zeitsynchronisierung zu erhöhen. Verschiedene Methoden, welche die zusätzlichen Zeitinformationen des redundanten Netzwerkes verwenden, werden präsentiert und in einem Messaufbau analysiert. Eine Analyse der Messergebnisse zeigt, dass der worst-case Fehler pro Synchronisierungsrunde nicht reduziert, jedoch die Wahrscheinlichkeit seines Auftretens enorm gesenkt werden konnte und somit die durchschnittliche Synchronisierungsgenauigkeit eindeutig verbessert werden konnte.

Diplomarbeitsposter Operenyi Walther

Walther Operenyi

Masterstudium Technische Informatik
Abstract:

Typically, many tasks in a CAN system have to concurrently exchange data and control information in real-time. Low transmission latencies and a low variability of the transmission latencies are important to ensure high control performance. In this diploma thesis an experimental evaluation technique is presented to determine statistical data of the transmission behaviour in CAN such as the maximum, minimum and average transmission latencies. Therefore a hardware platform was developed that consists of processors that emulate ECUs. Furthermore, tasks are simulated on each processor which generates messages of the same unique id randomly but within limited time intervals. These messages are transmitted via CAN and the transmission times are measured to derive statistical data. In addition, auxiliary parameters are collected such as number of sent and received messages at each particular processor. Furthermore, a complete toolchain is presented to design test configurations and analyze statistical data. CAN has a good average transmission time behaviour but the transmission times are sometimes extremely delayed. In general, the transmission times are reduced if the collision probability is decreased. The collision probability is determined by the number of messages and by the send frequency of each message with a unique id. Thus the collision probability determines the utilization of the transmission medium.

Diplomarbeitsposter Rebernig Stefan

Stefan Rebernig

Masterstudium Technische Informatik
Abstract:

In this thesis, we analyze the two different Ethernet extensions Time-Triggered Ethernet (TTEthernet) and Audio/Video Bridging (AVB). The major goal is to develop a set of bandwidth availability parameters based on the parameters defined for AVB in order to integrate both extensions into one single switch implementation. Therefore, we use an existing TTEthernet Switch IP core provided by TTTech Computertechnik AG as a basis and implement the dynamic bandwidth reservation protocol together with a traffic shaping algorithm as defined in the standards describing the AVB protocols. The implementation of this protocols is realized in VHDL- and Embedded C code. An Altera NIOS2 based System on a Programmable Chip (SOPC) inside the switch IP is used for the execution of the software part. TTTech Computertechnik AG provided TTEthernet test hardware and AVB end systems were provided by XMOS. For testing the resulting design, we set up a demonstrator network using the provided hardware components. Based on a formal model, a set of parameters which define the integration of TTEthernet and AVB on one shared link are derived. The benefit of this solution is, that the latency guarantees offered by AVB together with the fault-tolerant realtime properties of TTEthernet remain unchanged. Solely some scheduling restrictions for TTEthernet emerge from that solution.

Institut für Rechnergestützte AutomationE183

Arbeitsbereich Automatisierungssysteme

Diplomarbeitsposter Asperger Michael

Michael Asperger

Masterstudium Informatikmanagement
Abstract:

Mit der Steigerung der Leistungsfähigkeit von Smartphones eröffnen sich Möglichkeiten, die einem herkömmlichen Computer ähneln. Viele AnwenderInnen schöpfen die Einsatzvariationen der heutigen Smartphones jedoch selten aus, da sie sich mit dem gebotenen Umfang an Funktionen zu wenig auseinandersetzen. Viele Jugendliche wachsen bereits mit der Verwendung von Smartphones und mobilem Internet auf. Diese Optionen erlauben einen ständigen Zugriff auf Informationen. Die Fähigkeiten der Geräte werden einerseits auf eine intuitive Art und Weise verwendet, andererseits ist das technische Verständnis über die Abläufe und Eigenschaften im Hintergrund nur in den wenigsten Fällen gegeben. Wissen über diese Vorgänge wird selten unterrichtet, da sich das Lehrpersonal oftmals mit den neuen Technologien schlechter auskennt als ihre SchülerInnen. Zudem fehlen dem Lehrpersonal entsprechende Unterrichtsmaterialien. Die Arbeit diskutiert am Beginn die technischen Fähigkeiten von Smartphones. Folgend werden Szenarien für den Unterricht mit dem Fokus auf Technologien, die in Smartphones Verwendung finden, konzipiert. Dazu werden vor allem Bluetooth, Satellitennavigation, Betriebssysteme und Multimedia mit Datenformaten erörtert. Die erstellten Unterrichtskonzepte demonstrieren wie die Techniken von Smartphones im Lehrbetrieb eingebunden werden können. Alle präsentierten Konzepte wurden bereits in der Praxis erprobt und beinhalten einen Erfahrungsbericht.

Diplomarbeitsposter Brandstötter Markus

Markus Brandstötter

Masterstudium Business Informatics
Abstract:

The directive as a legislative act adopted by the European Union sets basic objectives to be met. National authorities have the possibility to adjust the law within a given scope. One drawback of the directive is that certain aspects of such an act can be implemented differently in different member states of the EU. Furthermore, the implementation of one part of a directive may be spread over several national acts. Therefore, a concept for the realization of an application enabling the traceability of directive implementations across the European Union is the central aim of this thesis. At the beginning, boundary conditions and necessary basic decisions were evaluated. One data model combining the different law systems was defined. The decision was to construct documents in a tree-based manner for enabling the representation of implementations at different hierarchical layers. Subparts for tree nodes and textparts for leaves were identified as major elements. In a next step, existing legal databases were analyzed to define requirements for a Europe-wide legal database. Documents have to be imported to the system and implementations of directives in national acts have to be defined. Efficient search possibilities for document and text search need to be available. An authentication concept is needed to restrict the access to sensitive data. Up-to-dateness and correctness of data is of major importance for the user acceptance. Based on the gained information, a prototypical implementation was developed. One central part of this prototype was the extraction of data from existing legal databases. For each law source, another algorithm was developed to gather information from the national pages. The extracted documents are stored in a tree-based format as XML-files and in the database. A web application was implemented fulfilling the identified requirements. Afterwards a concise testing on functionality and performance was performed.

Diplomarbeitsposter Bunyai Dominik

Dominik Bunyai

Masterstudium Technische Informatik
Abstract:

Eine Vielzahl von funkbasierten Systemen wird bereits in unserer näheren Umgebung eingesetzt. Die bekannteren Systeme stellen die notwendige Infrastruktur für unsere Mobiltelefone dar. Mittlerweile haben sich funkbasierte Netzwerke auch in Privathaushalten durchgesetzt. In den letzten Jahren konnte ein Vorstoß von drahtlosen Systemen in Heim- und Gebäudeautomation beobachtet werden. ZigBee ist eines der führenden Protokolle in der Heim- und Gebäudeautomation. ZigBee unterstützt den Aufbau von Punkt-zu-Punkt Verbindungen sowie den Aufbau von Netzwerken in einer Stern-Struktur. Der Hauptaufgabenbereich von ZigBee ist das Routing von Paketen. Daher ist auch der Aufbau von vermaschten Netzwerken mit ZigBee-Geräten möglich. Die hohen Erwartungen an funkbasierte industrielle Sensor-Netzwerke, setzen niedrige Ausfallraten und hohe Verfügbarkeit voraus. Allerdings basieren die Zugriffsverfahren auf das Netzwerkmedium der meisten dieser Systeme auf nicht deterministischen Methoden. Da ein prognostizierbares Verhalten von Sensor-Netzwerken notwendig ist, müssen neue Konzepte zur Vorhersage entwickelt werden. Für die Entwicklung eines neuen Konzepts sind sowohl detailliertes Wissen über das zugrunde liegende Netzwerkprotokoll als auch die Kenntnis über das Grundgerüst des Protokolls selbst notwendig. In Folge muss das Konzept auf Korrektheit geprüft werden. Hierfür wurde das Netzwerkprotokoll in einer Simulationsumgebung implementiert. Die daraus resultierenden Ergebnisse können mit jenen der analytischen Konzepte verglichen werden. Das entwickelte Konzept kann zur Abschätzung und Vorhersage des Verhaltens von ZigBee-Netzwerken verwendet werden und bietet folgende Möglichkeiten: Die durchschnittliche Übertragungszeit von Paketen innerhalb eines ZigBee-Netzwerks, sowie deren tatsächliche Auslastung und Effizienz kann abgeschätzt werden. Vorhersagen über voraussichtliche Übertragungszeiten sowie Ausfälle auf Grund der Überlastung eines Netzwerks können getätigt werden.

Diplomarbeitsposter Fernbach Andreas

Andreas Fernbach

Masterstudium Technische Informatik
Abstract:

In modernen Gebäudeautomationssystemen existiert eine Vielzahl an verschiedenen Netzwerktechnologien. Deshalb ist Interoperabilität zwischen Geräten, die auf verschiedenen Technologien basieren, eine Schlüsselanforderung. Web Services als plattform- und technologieunabhängige Form der Kommunikation sind hierfür ein vielversprechender Ansatz. OPC Unified Architecture (OPC UA) ist ein mächtiger und vielversprechender Standard, der darauf abzielt, diese Problematik zu lösen. Das Ziel dieser Arbeit ist es, einen Ansatz zu entwickeln, nach dem das Interworking-Modell von BACnet auf OPC UA abgebildet werden kann. Hierbei entsteht ein OPC UA-Informationsmodell, das dazu benutzt werden kann, BACnet-Anwendungen in OPC UA zu repräsentieren. Auf dieses kann ein OPC UA-Client auf standardisierte und wohldefinierte Weise zugreifen. Zu Beginn dieser Arbeit steht eine Einführung in BACnet. Das folgende Kapitel beschäftigt sich mit dem Standard OPC Unified Architecture. In dem Teil der Arbeit, der dem eigentlichen Beitrag gewidmet ist, wird gezeigt, wie OPC UA in ein BACnet-Netzwerk integriert werden kann. Die Abbildung von BACnet-Datenpunkten auf ein OPC UA Informationsmodell bildet den Hauptteil dieses Kapitels. Schlussendlich wird noch die Abbildung von BACnet-Services auf OPC UA-Services gezeigt. Um die Machbarkeit der hier entwickelten Ideen zu evaluieren, wurde ein OPC UA-Server implementiert, der mit einem BACnet-Netzwerk interagiert. Zu diesem Zweck wurde ein Open Source BACnet-Stack in einen OPC UA-Server integriert, der auf einem Closed Source SDK für OPC UA-Server aufbaut. Der Anhang dieser Arbeit beschäftigt sich mit den Securitymechanismen in OPC UA. Da diese auf Softwarezertifikaten basieren, müssen Strategien gefunden werden, wie Zertifikate in einem Automationsnetzwerk verteilt, validiert und widerrufen werden sollen. Die bekannten Konzepte werden hier im Kontext verschiedener OPC UA Anwendungen miteinander verglichen.

Diplomarbeitsposter Fritsch Barbara

Barbara Fritsch

Masterstudium Informatikmanagement
Abstract:

Der zu Beginn erwartete Durchbruch des e-Learnings wurde aufgrund unterschiedlichster Bedingungen nicht erzielt. Dennoch besitzen Lernplattformen nicht von der Hand zu weisende Vorteile, die durch die Entwicklung neuer Medien und deren mögliche Einbindung in den Lernprozess erzielt werden können. Bei dem Einsatz von Lernplattformen müssen neben den didaktischen Inhalten zusätzliche Faktoren wie Benutzerfreundlichkeit, verschiedenste Gestaltgesetze, die Wahl von Farben, Navigation, Einbindung möglicher Standards sowie Autoren-Werkzeuge berücksichtigt werden. Des Weiteren sollten die sich ändernden Bedürfnisse der Lernenden durch passende Lehrstile aufgefangen werden. Lehrende benötigen daher zusätzlich zu dem Wissen über das Stoffgebiet grundlegende Kenntnisse über Anwendung und Einbindung von neuen Medien. Die Erfüllung dieser Anforderungen weist unmittelbare Auswirkungen auf die Qualität individueller Lernprozesse auf. Die vorliegende Arbeit analysiert die Eigenschaften von elektronischen Lernumgebungen. In diesem Zusammenhang werden Ausprägungen wie Drill & Practice, Personal Learning Environments, mobiles Lernen, verhaltensbasiertes Lernen, spielendes Lernen und virtuelle Welten analysiert. Sie bieten in bestimmten Anwendungsszenarien wie Schule, Hochschule oder Unternehmen eine unterschiedliche Nutzungsbandbreite. Die Merkmale dieser Ausprägungen als auch deren Einsatzgebiete werden mit Hilfe eines Kriterienkatalogs analysiert und verglichen. Ziel dieser Arbeit ist es, die Entscheidungsfindung zu unterstützen und auf mögliche Probleme bei bestimmten Lernszenarien hinzuweisen.

Diplomarbeitsposter Geyik Evrim

Evrim Geyik

Masterstudium Informatikmanagement
Abstract:

In zahlreichen Gebieten lässt sich beobachten, dass Informatik und Technik in der Gesellschaft eine wichtige Rolle eingenommen haben. Die Internetbranche, der Mobilfunksektor, der Automobilsektor, die Industrie, die Logistik und der Finanzsektor sind nur einige wenige hier zu nennende Industriezweige. Aus diesem Grund haben InformatikerInnen und TechnikerInnen nicht nur heute, sondern auch in absehbarer Zukunft vielfältige Berufsmöglichkeiten. In Bezug auf die Beschäftigungsaussichten ist es jedoch von essentieller Bedeutung zwischen Personen mit Migrationshintergrund und jenen ohne Migrationshintergrund zu unterscheiden, da erstere in Österreich stärker von der Arbeitslosigkeit betroffen sind. Bereits SchülerInnen mit Migrationshintergrund sind auf Grund ihrer sozioökonomischen Verhältnisse und fehlenden sprachlichen Kompetenzen oftmals benachteiligt. Beides Aspekte, die im späteren Erwerbsleben eine wichtige Rolle spielen. Gerade deshalb bietet sich eine spielerische Lernsituation wie mit LEGO Mindstorms an, da hier vor allem non-verbale Anforderungen an die LernerInnen gestellt werden. Auf Basis einer Analyse verschiedener Unterrichtskonzepte für LEGO Mindstorms, die in den Schulen bzw. im Zuge von Projekten umgesetzt wurden, wird ein eigenes Unterrichtskonzept (Lern- und Übungskonzept) für die entsprechenden Kurse erstellt. Dieses Konzept wird in Kursen für Kinder und Jugendliche mit Migrationshintergrund praktisch umgesetzt. Jeweils vor- und nach den Kursen werden die Einstellungen und Motivation der TeilnehmerInnen mittels Fragebögen erhoben. Danach wird evaluiert, inwieweit Kinder und Jugendliche mit Migrationshintergrund durch Kurse, bei denen LEGO Mindstorms Roboter-Baukästen eingesetzt worden sind, für Informatik und Technik begeistert werden konnten, damit sie dann in weiterer Folge beispielsweise ein einschlägiges Studium verfolgen.

Diplomarbeitsposter Habsburg-Lothringen Valentin

Valentin Habsburg-Lothringen

Masterstudium Software Engineering & Internet Computing
Abstract:

The primary goal of this Master’s thesis is to develop a focused crawling engine for information extraction from underground marketplaces. The crawling targets are forums in which illegal trade relations are being established, forums where illicit services – such as botnet renting – are offered, and public web stores for dual-use goods, i.e. goods that can be harnessed for harmful and non-harmful purposes, such as chemicals. Today’s general purpose crawlers are not sufficient for forum crawling, because they typically limit the search depth and have difficulties in handling dynamic sites which make extensive use of JavaScript and XML (for example, AJAX) languages. Focused crawlers usually can only handle either forums or web stores, but not both. However the participants in the underground economy carry out their trade in both. By using a generic crawling engine architecture it is possible to crawl various kinds of underground marketplaces using the same software system. This type of engine also features a component that supports API based crawling. What is more, some operators of marketplaces block crawlers after their detection. The crawler created in this work features built-in capabilities that greatly reduce the likelihood of detection and is, therefore, able to extract information in a covert way. The experimental evaluation shows that the software is capable of extracting data from distinct types of underground marketplaces within a reasonable timeframe and without excessive resource usage. Thus, this tool can help researchers to study the underground economy in qualitative as well as quantitative aspects of the goods and services offered.

Diplomarbeitsposter Matiasch Johannes

Johannes Matiasch

Masterstudium Informatikmanagement
Abstract:

Fundierte Kenntnisse der technischen Grundlagen sind im Bereich der Informatik ein Charakteristikum einer qualitativ hochwertigen Ausbildung. Im Rahmen des universitären Studiums werden sie in der Regel in den ersten beiden Semestern, dem sogenannten Grundstudium, vermittelt. Das Grundstudium kennzeichnet sich durch verhältnismäßig hohe Teilnehmendenzahlen bei den zugehörigen Lehrveranstaltungen. Gleichzeitig bestehen Einschränkungen in Bezug auf Personal- und Raumkapazitäten sowie stark ausgeprägte Unterschiede hinsichtlich Vorwissen und Motivation der Teilnehmenden. In dieser Arbeit wird ein Übungskonzept präsentiert, das ausgehend von den Grundlagen der Computernumerik und Booleschen Algebra zunächst Schaltnetze, Schaltwerke und schließlich einfache Mikroprozessoren praxisnah aufbereitet. In weiterer Folge werden mit Pipelining, unterschiedlichen Strategien der Speicherverwaltung und Scheduling weitergehende Aspekte vermittelt. Für die einzelnen Übungseinheiten werden unter Berücksichtigung nationaler Bildungsstandards für Hochschuldidaktik Übungsaufgaben konzipiert, die die einzelnen Themengebiete auf unterschiedlichen Kompetenzebenen praxisorientiert behandeln. Zunächst wurden Teile des Übungskonzeptes mit FFG-PraktikantInnen getestet. Die vollständige Umsetzung erfolgte dann im Rahmen der Lehrveranstaltung Technische Grundlagen der Informatik (VU), die im Wintersemester 2011/12 erstmals an der TU Wien durchgeführt wurde. Für den Übungsteil meldeten sich im gesamten Studienjahr 2011/12 über 1500 Studierende an. Die Durchführung wurde einerseits von einer kontinuierlichen Evaluierung der einzelnen Übungseinheiten begleitet, andererseits fand am Semesterende die gesetzlich vorgeschriebene Lehrveranstaltungsbewertung statt, bei der überdurchschnittlich gute Ergebnisse erzielt wurden.

Diplomarbeitsposter Novak Armin Johann

Armin Johann Novak

Masterstudium Technische Informatik
Abstract:

Ein positionsbasiertes Verschlüsselungssystem bietet eine solide Basis für sichere und authentifizierte Kommunikation, die strikt auf ein vordefiniertes Areal beschränkt ist. Ziel der vorliegenden Arbeit ist es, ein System vorzustellen, das es auch günstigen Sensoren mit äußerst beschränkten Ressourcen ermöglicht, die Vorteile positionsgebundener Verschlüsselung zu nutzen. Das System wird um jene Möglichkeit erweitert, die Position ohne Neuerstellung des Schlüssels aktualisieren, um eine schnellere Aktualisierung der Position zu ermöglichen und Verletzungen der positionsbezogenen Kommunikationsbeschränkungen schneller zu erkennen. Durch diese Erweiterung kann das System schneller reagieren, ohne die Sicherheit des zugrundeliegenden Systems zu beeinträchtigen. Eine zentrale Authorität, das Trust Center (TC), ist für die Positionsbestimmung und Authentisierung der Knoten zuständig. Dieses TC gibt auch das erlaubte Areal vor, in dem sich Knoten befinden dürfen. Erweiterte Beschränkungen des Kommunikationsareals bleiben den einzelnen Knoten selbst überlassen, das TC ist dafür nicht notwendig. Die Positionsbestimmung wird von einem Ultraschall-Positionierungssystem durchgeführt, dessen Eigenschaften Angriffsvektoren auf das Areal und die unmittelbare Umgebung beschränken. Das System erlaubt die Funktion von statischen und mobilen Knoten, die entweder auf vordefinierte Positionen oder Pfade beschränkt werden können. Auch temporäre Integration in das System sowie spätere Entfernung ist möglich.

Diplomarbeitsposter Riener Silvio

Silvio Riener

Masterstudium Software Engineering & Internet Computing
Abstract:

Im Rahmen dieser Arbeit werden unterschiedliche Sicherheitsprobleme und Sicherheitsmechanismen des mobilen Betriebssystems Android behandelt. Im Speziellen wird auf Androids Mechanismen zum Schutz gespeicherter Daten eingegangen. Die erarbeiteten Konzepte wurden zusätzlich zur theoretischen Arbeit in Form einer Android App umgesetzt. Das Ziel dieser App ist es, den Benutzer zu warnen, wenn installierte Apps Daten entwenden. Im ersten Teil dieser Arbeit werden diverse Angriffe auf Android vorgestellt, zusätzlich werden Möglichkeiten betrachtet, wie auf gespeicherte Informationen zugegriffen werden kann. Um auf Informationen zugreifen zu können, muss der Benutzer einer App sog. Permissions zuerkennen. Dabei hat ein Benutzer nur die Möglichkeiten der App entweder alle angeforderten Permissions zuzusprechen oder die Installation abzubrechen. Ein solches Berechtigungssystem kann zu einer Vielzahl von Sicherheitsproblemen führen - im Speziellen dann, wenn unbedarfte Benutzer entscheiden, ob Berechtigungen gewährt werden oder nicht. Erhält schädliche Software weitreichende Berechtigungen, kann dies zu ernsthaftem Datenverlust führen. In dieser Diplomarbeit werden zwei unterschiedliche Konzepte vorgestellt, welche es ermöglichen zu erkennen, wenn Apps Informationen entwenden. Das erste Konzept beschreibt eine Möglichkeit, um Apps in die Anubis Sandbox zu laden und den Benutzer über das Analyseergebnis zu informieren. Der Fokus des zweiten Konzeptes liegt auf dem, von einer Applikation generierten, Netzwerkverkehr. Dieser wird nach sensiblen Informationen durchsucht und der Benutzer wird informiert, wenn derartige Informationen gefunden werden. Diese Art der Analyse erlaubt es, sehr detaillierte Aussagen über das Verhalten einer Applikation zu treffen, ohne dabei die Privatsphäre des Benutzers zu verletzen. Beide Konzepte wurden in der iSecDroid Applikation umgesetzt.

Diplomarbeitsposter Schönbichler Roman

Roman Schönbichler

Masterstudium Software Engineering & Internet Computing
Abstract:

This work presents a user interface concept and a prototype for taking orders in a restaurant on a multi touch table. Traditional paper menus poorly support social and cooperative order taking because they are essentlially a single-user UI: While reading, the menu is a barrier between the guests, and to show a menu item to another guest requires handing around the paper menu. There is also a lack of process integration in many restaurants: Guests provide their orders to the waiter who then inputs the data into the electronic ordering system. To solve these challenges, a collaborative user interface implemented on a multi-touch restaurant table is proposed. Methodologically, this work uses an iterative usability engineering process to create a prototype of the proposed interactive table: Initial field studies provided the user requirements. Scenario descriptions, process models and use cases defined the system boundaries. Sketches, mock ups and wire frames were used to design the UI. The prototype was then developed using the MT4J multitouch programming framework. Usability tests showed that the UI was comprehended very quickly without any instructions given. The volunteers perceived the cooperative features for finding and recommending products as an advantage and generally enjoyed using the prototype.

Diplomarbeitsposter Stipsits Patrick

Patrick Stipsits

Masterstudium Medieninformatik
Abstract:

Die vorliegende Arbeit präsentiert die Konzeptionierung, Gestaltung, prototypische Implementierung und empirische Evaluierung eines Software-Keyboards zur Verwendung auf mobilen Geraten mit einem Touchscreen. Schwerpunkt bei der Konzeptionierung des im Rahmen der Arbeit entwickelten Texteingabeverfahrens war die Entwicklung einer platzsparenden Lösung im Vergleich zu bestehenden, verbreiteten Ansätzen. Um einen Buchstaben zu schreiben, wird neben der Auswahl der Taste auch die Anzahl der verwendeten Finger unterschieden. In der Fachliteratur werden zahlreiche alternative Layouts präsentiert, es wurden jedoch noch nie Single- und Multitouch für die Texteingabe kombiniert. Der entwickelte Prototyp wurde in einer Benutzer-Studie mit einer, auf dem wert Layout basierenden, Standardlösung verglichen. Die präsentierte Losung Pairsome wurde im Rahmen eines Usability-Tests evaluiert, wobei die Testkandidaten in 10 Sitzungen jeweils 10 Minuten mit jeder Tastatur einhändig Text kopieren mussten. Die Schreibgeschwindigkeit der Testpersonen zeigte eine signifikante Steigerung auf dem neuen Keyboard. Die maximale Schreibgeschwindigkeit lag bei 17.4 Wörtern pro Minute, das entspricht ca. 60% der Performance der Standardtastatur in dieser Evaluation (29.4 wem). Aus den vorliegenden Ergebnissen wird geschlossen, dass das vorgestellte Eingabekonzept funktioniert, dessen Performance jedoch nicht an die der Standardlösung heranreicht. Allerdings zeichnet sich die präsentierte Lösung gegenüber verbreiteten Ansätzen durch ihre geringeren Platzerfordernisse bei der Darstellung am Bildschirm aus.

Diplomarbeitsposter Szucsich Stefan Franz

Stefan Franz Szucsich

Masterstudium Technische Informatik
Abstract:

Moderne Verkehrsleitsysteme steuern das steigendene Verkehrsaufkommen und optimieren den Verkehrsfluss. Sie unterscheiden sich in ihrer Funktionalität sowie der Anzahl ihrer Komponenten und besitzen im Allgemeinen eine hierarchische Struktur. Während die höheren Ebenen den Operatoren Daten zur globalen Verkehrsüberwachung und -steuerung zur Verfügung stellen, sind die unteren Ebenen für die autonome Steuerung sowie die Erfassung von Vehrkehrs- und Umweltdaten zuständig. In der untersten Ebene befinden sich Sensoren (z.B. Induktivschleifendetektoren, Temperatursensoren) und Aktoren (z.B. Ampeln, Wechselverkehrszeichen) von einer Vielzahl an Herstellern. Diese verwenden in den meisten Fällen herstellerspezifische Kommunikationsprotokolle. Drahtlose Sensor- und Aktor-Netzwerke bestehen häufig aus einer Vielzahl von unterschiedlichsten Sensoren bzw. Aktoren, die einen physikalischen Prozess überwachen bzw. steuern. Aufgrund der großen Anzahl an Sensoren, die oftmals benötigt werden, um Prozessdaten zu sammeln, sollen diese möglichst klein und kostengünstig sein. Dies führt in weiterer Folge dazu, dass Sensoren bzw. Aktoren nur über eine stark eingeschränkte Rechenleistung verfügen. Im Gegensatz dazu steht der erhöhte Bedarf an Sicherheit bei drahtloser Datenübertragung. Diese Diplomarbeit verfolgt zwei Ziele. Einerseits soll ein generisches Informationsmodell für Sensoren und Aktoren aus dem Verkehrswesen entwickelt werden. Anhand dieses Informationsmodells kann ein Kommunikationsprotokoll für drahtlose Datenübertragung spezifiziert werden, das ein verteiltes Netzwerk von autonom interagierenden Sensoren und Aktoren ermöglicht. Das zweite Ziel dieser Arbeit ist die Entwicklung eines Sicherheitskonzepts für verteilte Applikationen in der Verkehrstelematik. Im Zuge dessen wird ein neuartiges Verfahren zur Broadcast-Authentifizierung vorgestellt und im Detail analysiert.

Diplomarbeitsposter Taber Stefan

Stefan Taber

Masterstudium Software Engineering & Internet Computing
Abstract:

Heutzutage verwenden die gängigen Applikationen graphische Benutzeroberflächen, um mit dem Anwender zu interagieren. Diese Graphical User Interfaces (GUIs) werden häufig von Angreifern missbraucht, um die Applikationen zu manipulieren. Obwohl im Zuge der Softwareentwicklung Anwendungen im Regelfall intensiv getestet werden, werden die GUIs der Software nur selten auf relevante Sicherheitsaspekte überprüft. Um die Robustheit der Applikationen zu erhöhen, sind entsprechende automatisierte Sicherheitstests erforderlich. Ziel der vorliegenden Arbeit ist es, ein umfassendes GUI-Testing-Framework zu entwerfen, das nicht nur funktionale Tests der GUIs erlaubt, sondern vor allem auf die Besonderheiten von Sicherheitstests eingeht. Zunächst werden die Grundlagen von automatisierten Sicherheitstests von GUIs und relevante Anforderungen an diese erhoben. Anschließend wird ein Überblick über bereits existierende Tools gegeben, welche die GUIs von Anwendungen testen. Diese Toolrecherche zeigt auf, dass die meisten Tools ausschließlich für funktionale Tests geeignet sind, während Sicherheitstests mit Hilfe dieser Tools nicht möglich sind. Gründe dafür sind der meist fehlende Support eines geeigneten Analysesystems, um auftretende Schwachstellen zu identifizieren, sowie eine saubere Trennung zwischen Testdaten und Testfällen. Dadurch können die Testfälle nicht mit vielen verschiedenen, sicherheitsrelevanten Testdaten ausgeführt werden. Basierend auf den gewonnenen Erkenntnissen wird ein plattform- und programmiersprachenunabhängiges Testframework entworfen, das auf bereits existierenden Lösungen aufbaut, um möglichst viele verschiedene Applikationen mit unterschiedlichen GUIs zu unterstützen. So ermöglicht das entworfene Framework nicht nur funktionale Tests der GUIs, sondern geht vor allem auf die speziellen Anforderungen von Sicherheitstests ein. Dieser Entwurf dient als Modell für die Entwicklung von GUI-Testing-Frameworks, um die Qualität und Sicherheit von GUIs zu erhöhen.

Diplomarbeitsposter Weigl Manuel

Manuel Weigl

Masterstudium Software Engineering & Internet Computing
Abstract:

Diese Arbeit präsentiert einen Software Prototypen basierend auf einem Multitouch Tisch, der die sozialen Abläufe des Bezahlens bei Restaurantbesuchen unterstützt. Aktuelle Bezahlprozesse sind schwerfällig, zeitintensiv, fehleranfällig und nicht kollaborativ: Einem Kellner muss im Regelfall zuerst signalisiert werden, dass die Gäste bezahlen wollen,woraufhin diese einzeln mitteilen, welche Produkte konsumiert wurden. Mit Hilfe von Usability Engineering Methoden wie Feldstudien, User Interface Design und Prototypen wurde ein Design für kooperatives Bezahlen erarbeitet. Als Ergebnis wird die Bezahlung schnell abgewickelt und das Erlebnis des gemeinsamen Essens in den Vordergrund gerückt. Mittels Usability Testing durchgeführte Evaluationen zeigen, dass der hier vorgestellte Ansatz von Benutzern positiv angenommen wird und sie das Benutzen des Systems als innovativ und unterhaltsam empfinden. Der Einsatz in einer realen Restaurantumgebung wird von den Probanden als wünschenswert bewertet.

Diplomarbeitsposter Wenzl Matthias

Matthias Wenzl

Masterstudium Informatikmanagement
Abstract:

During the last decades processor manufactures mainly increased performance by shrinking their production size and increasing the processor’s clock speed. However, due to physical limitations this approach is not efficient any more. As a consequence, the computer industry increased the number of processor cores on a single die, thus creating multi-core processors. Up to today multi-core processors are used in all kinds of computer systems ranging from super computers to mobile phones. However, programming multi-core systems is a challenging task, which requires software engineers to restructure the way they think about computer programs. Therefore, this thesis presents a best practice based approach, introducing two course concepts on parallel programming. The first course is a more guided one, where all students are obliged to focus on the same assessment types within the course. This course is aimed at a university of applied science context. The second course offers more theory and a greater freedom to the students as they are free to choose a certain topic within the field of multi-core systems. This course is aimed at a university context. The best-practice course concepts are obtained through a thorough analysis of numerous research articles with the following focus: .)The identification and proposition of solutions on the issues and pitfalls when teaching multi-core programming. .)The recommendation of suitable assessment methods when dealing with this challenging field. .)A set of related courses already teaching parallel programming in various aspects. Two best-practice based course concepts tailored to the needs of a university and a university of applied sciences are derived. Based on these best-practice examples, two actual courses are designed. This includes a detailed course schedule, learning outcome, assessment concepts, and a set of recommended research articles on the theory of concurrent systems.

Arbeitsbereich Computer Vision

Diplomarbeitsposter Dorfer Matthias

Matthias Dorfer

Masterstudium Medizinische Informatik
Abstract:

Human anatomy exhibits variability across different individuals as well as within single subjects. It encompasses different locations, sizes or shapes, physiological state, disease characteristics, or tissue differences of organs. Medical imaging based computational anatomy overcome this variability and establish comparability within large populations in a common reference space referred to as anatomical atlas. The daily routine of hospitals produces hundreds of gigabytes of pathology driven medical imaging data every day. This data holds imaging information of anatomical sites distributed across the entire body together with corresponding diagnostic information. The fact that existing atlas construction methods take only identical anatomical structures into account motivates the development of a method working with a set of imaging fragments each containing a different anatomical region such as the head, the thorax, or the abdomen. The present work overcomes the addressed limitation. We propose for the first time a framework for medical image fragment based unbiased Whole Body Atlas (WBA) construction and population analysis. The framework is evaluated on 60 head, thorax, and abdomen fragments and a set of expert annotated bone landmarks. It is capable to estimate the corresponding region of fragments in relation to a Whole Body (WB) reference space. In an iterative procedure the region estimates are first used to register fragments to the WB template. Based on these registered fragments the WB template is updated to reduce bias. The results show that this approach is feasible. Even though each fragment covers only a part of the entire template volume, the fragments further reduce bias compared to the initialization. In a second analysis the structure among the fragments is captured by computing similarities among the fragments, and then embedding the resulting affinity matrix. A clustering of this embedding reveals biologically plausible sub-populations.

Diplomarbeitsposter Kropp Timo

Timo Kropp

Masterstudium Visual Computing
Abstract:

Keypoint Matching bezeichnet das Problem vom Finden korrespondierender Punkte in zwei Bildern. Dies ist für Bilder von schwach texturierten Szene ein ungelöstes Problem in der Computer Vision. Derartige Szenen befinden sich z.B. in Gebäuden, welche hauptsächlich aus homogenen Flächen wie z.B. Wänden, Decken oder Böden bestehen. Es wird gezeigt, dass Kameras mit einem besonders großen Blickwinkel, sogenannte omnidirektionale Kameras, das Matching Problem in diesen Umgebungen besser lösen können. Jüngst wurden neue Algorithmen vorgeschlagen um das Finden von korrespondierenden Punkten in omnidirektionalen Bildern zu verbessern. Herkömmliche Verfahren, wie die Invariant Feature Transform (SIFT) für perspektivische Bilder ignorieren die nicht-lineare Verzerrung von omnidirektionalen Bildern, die mittels katadioptrischen oder Fischaugen Kameras erzeugt werden können. In dieser Arbeit wird die Leistung der Keypoint Erkennung und deren Zuordnung für SIFT, sRD-SIFT und SIFT Sphere im Kontext von Innenraumfotos untersucht und evaluiert. Die Vergleichsmaße der Auswertung sind Repeatability und Recall vs. 1-Precision. sRD-SIFT und SIFT Sphere sind Adaptierungen von SIFT, die ein geeignetes Model für die nichtlineare Bildverzerrung von Single Viewpoint Kameras verwenden. Das Ziel dieser Arbeit ist die Leistung von den genannten Verfahren im Zusammenhang mit unterschiedlichen Bildtransformationen wie Skalierungen, Rotationen, Änderungen des Standpunktes und Änderungen des Blickwinkels in schwach strukturierten und texturierten Bildszenen zu untersuchen. Es wird gezeigt, dass nur SIFT Sphere bezüglich der untersuchten Bildtransformationen invariant ist. Die wichtigste Erkenntnis dieser Arbeit ist, dass die untersuchten Verfahren komplementäre Ergebnisse liefern, welche wiederum stark von der jeweiligen Szene und Bildtransformation abhängen. Es wird gezeigt, dass sich keines der untersuchten Verfahren in Hinblick auf die Matching Leistung von den Anderen deutlich absetzt.

Institut für InformationssystemeE184

Arbeitsbereich Distributed Systems

Diplomarbeitsposter Gruber Armin

Armin Gruber

Masterstudium Software Engineering & Internet Computing
Abstract:

Mit dem Erfolg Service-orientierter Architekturen (SOA) und der zunehmenden Anzahl von Personen-basierten Services (HBS) in derartigen Servicelandschaften hat sich gleichermaßen auch die Komplexität hinsichtlich deren Integration erhöht. Das Vienna Elastic Computing Model (VieCOM) ist ein Konzept, dass die Komposition / Integration von Services verschiedenster Arten (Software- als auch Menschen-basiert) erleichtern soll. Teil dieses Konzeptes ist es, die verschiedenen existierenden Services sowie deren Zusammenhänge, als ein Ökosystem von Services darzustellen. Ein derartiges Modell erlaubt es, Interaktionen, Abhängigkeiten oder einen gemeinsamen Kontext zu erkennen. Anhand solcher Informationen ist es möglich zum Beispiel Probleme zu erkennen, Alternativen zu finden, oder Service Kompositionen zu verwalten. Diese Arbeit präsentiert ein Framework, welches ein Modell zur Abbildung von Serviceökosystemen bietet. Des Weiteren beinhaltet das Framework Funktionen, die es erlauben, die Statusinformation einer Servicelandschaft zu erfassen und zu verarbeiten. Das vorgestellte Framework implementiert somit einen Teil des VieCOM.

Diplomarbeitsposter Holzeis Richard

Richard Holzeis

Masterstudium Software Engineering & Internet Computing
Abstract:

Today's power grids are mainly based on a small number of power plants converting fuel-energy into electricity. The outdated infrastructure and the resulting inefficient use of our resources requires steps towards a smarter grid. The aim of a smart grid is to make extensive use of renewable energy resources and include more power producers like solar panels of single households. The basis for these additional features are the increasing number and capabilities of today's smart meters. They are widely spread within a power grid and expected to deliver more and more detailed information about the power consumption in the future. In order to determine the balance of supply and demand within the power grid the highly distributed meters have to be monitored. But this will exert a huge load on the network, thus more sophisticated monitoring approaches are required. We present an autonomic approach for adapting the amount of monitoring in a smart grid context. This approach is based on the existence of correlated sensors. We are using machine learning algorithms for detecting and grouping related sensors, thus the measurement of one sensor can be inferred by the measurement of another. The number of sensors suitable for preforming such a prediction is influenced by a required accuracy. We assume that it is not necessary to have a 100% accurate view onto the power generation, when an administrator is at least able to interpret if there is enough supply for the current or upcoming demand. The required accuracy has to be defined by an expert familiar with the domain and its properties. We manage two properties that directly influence the amount of monitoring. We present different strategies for adapting these properties and evaluate them on a prototype implementation. The comparison of our approach against a reference scenario with adaptation showed retrenchment potentials in sensor requests up to 95%, while providing a required accuracy.

Diplomarbeitsposter Hönisch Philipp

Philipp Hönisch

Masterstudium Software Engineering & Internet Computing
Abstract:

Within this thesis, we propose a Business Process Management System for the Cloud. It is able to process hundreds of workflows simultaneously while monitoring their executions and counteract against potential Service Level Agreement violations through scheduling the workflows and acquiring additional computing resources when needed or releasing unneeded ones. Elastic Processes are described in three ways: cost, resource and quality elasticity. Nowadays, these elasticities are also relevant for workflows in the Cloud. A workflow consists out of several individual processes, each requires a different amount of resources, follows different Quality-of-Service attributes and produces a different amount of costs. Since in today’s workflows resource intensive tasks get more and more common, and the amount of workflows executed in parallel varies over time, the amount of needed resources will also diversify enormous. That is way it is necessary to acquire additional computing resources during the system’s runtime, or release some whenever they are not needed anymore. We developed ViePEP – the Vienna Platform for Elastic Processes. ViePEP is on the one hand a Business Process Management System for the Cloud, capable to manage and process the execution of several hundred workflows simultaneously. It further monitors their executions in order to identify potential Service Level Agreement violations in time. And on the other hand, ViePEP is able to counteract against the lack of needed or the excess of used computing resources. Using a prediction model, ViePEP is able to counteract in-time and predict the future need of resources in order to acquire additional resources punctual or release unneeded ones. By evaluating ViePEP with different configured experiments we have shown, that ViePEP is able to automatically process workflows, while taking care of Service Level Agreements through scheduling their executions and acquiring or releasing computing resources.

Diplomarbeitsposter Kölbel Roland

Roland Kölbel

Masterstudium Software Engineering & Internet Computing
Abstract:

The processing of large data sets is normally done using batch-oriented approaches. However, when confronted with the processing of live data streams and events, which are usually subject to high fluctuations in terms of data arrival, these batch-oriented approaches are not applicable. For addressing these kinds of processing requirements, various stream processing engines have been developed. One of these engines is ESC, a cloud based stream processing engine designed for computations with real time demands written in Erlang. In order to cope with increasing or decreasing computational needs, ESC is able to automatically scale by attaching or releasing nodes using information about the workload. But, for preventing an overload of a node due to bursty data arrival, this approach alone is not sufficient. An adaptation technique is needed that, on the one hand, is able to identify unbalanced work distributions and take counteracting measures, and, on the other hand, is utilizing strategies of placing operators intelligently onto nodes, such that the chance of an overload situation becomes less likely. The problem of mapping operators to nodes can be divided into two separate problems. First of all, the question on where to place operators initially is to be answered. Therefore, three different approaches have been implemented and analyzed. Secondly, a strategy is needed, which is deciding when and where to move operators between nodes, in order to establish a balanced load distribution. Hence, two different load-balancing approaches have been implemented and analyzed. In order to compare the developed concepts with each other, a benchmarking application is required. The developed methods are therefore checked using Linear Road, a benchmark for stream processing systems. Observed performance gains with different approaches are compared with each other and with the results of other stream computing engines.

Arbeitsbereich Database and Artificial Intelligence

Diplomarbeitsposter Abseher Michael

Michael Abseher

Masterstudium Software Engineering & Internet Computing
Abstract:

Aufgrund ökonomischer Überlegungen zum optimalen Einsatz des zur Verfügung stehenden Personals zählen Schichtplanungsprobleme bereits seit Langem zu den wichtigsten Punkte bei der Organisation vieler Unternehmen. Aufgrund dieser immensen Wichtigkeit im Bereich der Unternehmensorganisation wurde bereits sehr früh versucht, den Schichtplanungsproblemen mit computergestützten Methoden zu begegnen um diese komfortabel lösen zu können. Seitdem wurden zahlreiche Methoden entwickelt, um Werkzeuge für optimale Organisation zu liefern. Abgesehen von mathematischen Modellierungen wurden die meisten dieser Anwendungen unter Verwendung von prozeduralen sowie objektorientierten Programmiersprachen entwickelt. In unserer Arbeit werden wir unseren Fokus auf deklarative Konzepte legen und untersuchen, wie gut sich diese zur Lösung von Schichtplanungsprobleme einsetzen lassen. Wir stellen drei Modellierungsansätze vor, welche Antwortmengenprogrammierung (ASP) als Programmierparadigma nutzen. ASP ist eine deklarativen Programmiertechnik, die oft auch als die Verkörperung des nicht-monotonen Schließens basierend auf der Semantik von stabilen Modellen bezeichnet wird. Das Ziel der von uns entwickelten logikorientierten Programme ist es, das sogenannte “Minimum Shift Design Problem” zu lösen. Um eine wissenschaftlich fundierte Aussage über die Leistungsfähigkeit von ASP im Kontext von Schichtplanungsproblemen treffen zu können, präsentieren wir in unserer Arbeit eine Reihe von Experimenten, welche mit aktuellen Programmierumgebungen durchgeführt wurden. Unsere Ergebnisse zeigen, dass ASP in zahlreichen Fällen bereits jetzt vielversprechende Resultate liefert, es aber vermutlich noch ein weiter Weg ist bis Implementierungen entstehen, die ähnliche Leistungsfähigkeit aufweisen wie aktuellen Heuristiken. Aufgrund ermutigender Ergebnisse sind wir allerdings zuversichtlich, dass sich unsere Arbeit als ein solider Startpunkt für weitere Forschungen erweisen wird.

Diplomarbeitsposter Kim Bong Min

Bong Min Kim

Masterstudium Computational Intelligence
Abstract:

The problem of finding optimal schedules for professional sports leagues has attracted interests of many researchers in recent years. On the one hand, sport scheduling is an economically important class of combinatorial optimization applications, since sport leagues generate considerable amount of revenue for major radio and television networks, whose profits also depend on the quality of schedules. On the other hand, sport scheduling poses a very challenging optimization problem which involves issues of both feasibility and optimality. To solve the TTP, we propose a metaheuristic approach based on Iterated Local Search (ILS) framework. Our ILS algorithm (TTILS) embeds a hill-climbing local-search combined with dynamic perturbation and simulated annealing type acceptance criterion. Furthermore, we propose an efficient algorithm for incremental neighbor-evaluation, which speeds up the embedded local-search considerably. We conduct extensive computational experiments on selected TTP benchmark-sets and compare our results with those obtained by current state-of-the-art approaches in literature. In general, our results show that our ILS algorithm is very competitive with current state-of-the-art approaches in the literature.

Diplomarbeitsposter Weichselbaum Christian

Christian Weichselbaum

Masterstudium Computational Intelligence
Abstract:

Since its emergence in the 20th century, the field of Argumentation in Artificial Intelligence (AI) has experienced significant growth. One central topic within this field is the acceptability of arguments for which P. M.Dung introduced a theory based on the notion of abstract argumentation frameworks. These frameworks are simply consisting of a set of arguments and a binary relation constituting attacks, without any inner structure. Since arguments may attack each other, it is the case that not all of them might be able to stand together. Therefore, arguments are subject to an evaluation method, of which the formal definition is called an argumentation semantics . This method can either be declarative or procedural. In order to be able to compare those semantics, several formal principles have been defined which should be fulfilled by a single extension or the whole set of extensions of a semantics. In their paper P.Baroni, P. E. Dunne and M. Giacomin introduced a new family of semantics for abstract argumentation systems, among them the resolution-based grounded semantics, which has the unique property of satisfying all principles. There have already been encodings developed within the realm of Answer-Set Programming (ASP) and based on the stable model semantics as presented by M. Gelfond and V. Lifschitz Gelfond88thestable. Yet there are still performance problems with the encodings of this particular semantics. Our task is to develop ASP encodings, based on an algorithm presented by P. Baroni and M. Giacomin that compute the extensions of this semantics and provide performance gains compared to existing approaches. These encodings shall then be incorporated in the \emph{ASPARTIX system}, introduced by U. Egly et al. Furthermore, we keep track of any optimizations which result in a performance gain since they might be applicable on other semantics as well.

Arbeitsbereich Knowledge Based Systems

Diplomarbeitsposter Oetsch Johannes

Johannes Oetsch

Masterstudium Computational Intelligence
Abstract:

Diese Arbeit beschäftigt sich mit erweiterten Äquivalenzbegriffen für nichtmonotone logische Programme unter der Answer-Set Semantik. Dieses Thema erfreut sich zunehmendem Interesse da solche Äquivalenzbegriffe die theoretische Basis für viele Entwicklungsaufgaben wie Optimierung von Programmen, Debugging, modulares Programmieren und Verifikation bilden. Verschiedene Äquivalenzbegriffe für Logikprogramme sind ein relevanter Forschungsschwerpunkt auf dem Gebiet der Answer-Set Programmierung (ASP). Ein prominenter Vertreter eines solchen Äquivalenzbegriffes ist uniforme Äquivalenz, welche überprüft ob zwei Programme, vereint mit einer beliebigen Menge von Fakten, die gleiche Semantik besitzen. In dieser Diplomarbeit studieren wir eine Familie von verfeinerten Versionen der uniformen Äquivalenz, nämlich relativierte uniforme Äquivalenz mit Projektion, welche gewöhnliche uniforme Äquivalenz durch zwei zusätzliche Parameter ergänzt: einen, um das Eingabealphabet der Programme zu spezifizieren, und einen, um das Ausgabealphabet festzulegen. Der zweite Parameter wird benötigt um Answer Sets auf bestimmte Ausgabeatome zu projizieren. Diese Answer-Set Projektion erlaubt es, im speziellen, Programme, die auf Hilfsatome zurückgreifen, miteinander zu vergleichen. Dieser Aspekt ist aufgrund praktischer Erfordernisse unerlässlich.

Diplomarbeitsposter Paramonov Sergey

Sergey Paramonov

Masterstudium DDP Computational Logic (Erasmus-Mundus)
Abstract:

How to manage incomplete information has been studied in database research almost from the beginning. The focus was on how to represent incomplete information and how to compute certain answers. Less attention has been given to describing which parts of a database are complete and how to find out whether a query returns complete answers over a partially complete database. To address these questions, we build on previous work by Motro (1989) and Levy (1995) who formalized when a query is complete over a partially complete database and what it means that parts of the tables are complete. Recently, Razniewski and Nutt (2011) characterized the complexity of various reasoning tasks in this setting. It was open, however, how to implement completeness reasoners in practice. In this work, we introduce the problem of query completeness reasoning and show that it can be mapped elegantly to answer set programming (ASP) over datalog with negation. Then we consider extensions of the original problem that take into account foreign key constraints and finite domain constraints. To encode the extensions, we make use of Skolem functions and of datalog rules with disjunctions in the head. We show the correctness and completeness of the encodings by several characterization theorems. We also discuss a possible approach that takes into account comparisons and show how it can solve this problem if comparisons satisfy some syntactical restrictions. With our encodings we can solve completeness reasoning tasks using the DLV system, which implements answer set programming for disjunctive logic programs. DLV is being developed at TU Vienna and at the University of Calabria.

Arbeitsbereich Formal Methods in Systems Engineering

Diplomarbeitsposter Gil Vegliach

Vegliach Gil

Masterstudium DDP Computational Logic (Erasmus-Mundus)
Abstract:

A first-order temporal logic is introduced and argued to be suitable for modelling business processes and security policies for Android. The monitoring problem in such logic is introduced and argued to be undecidable under specific and reasonable assumptions underlying any proper monitor. Although no one can hope for a complete monitoring algorithm, a construction based on a novel automata model is depicted and its correctness demonstrated. Concrete examples taking root in the business process and Android framework are laid out and shown in detail. A digression on the model checking problem displays the difference of our approach from propositional LTL and other work.

Arbeitsbereich Parallel Computing

Diplomarbeitsposter Eisserer Clemens

Clemens Eisserer

Masterstudium Software Engineering & Internet Computing
Abstract:

Computer stereo vision is a versatile technique that is used in many industrial domains such as robotics and quality conformance tests. Because it is computationally intensive, it is often performed on powerful multicore PCs, specialized hardware or Graphics Processing Units to achieve high throughput required for real-time processing. In this diploma thesis we present a real-time capable 3D stereo vision implementation targeted at the C6678 Digital Signal Processor. The C6678 architecture represents a middle-ground between general purpose commodity hardware and highly specialized FPGA or ASIC solutions. It features eight processing cores, each core providing instruction level parallelism with an 8-unit Very Large Instruction Word based architecture and core-local memory regions. We have ported the local, non-parametric Census transform-based S3E stereo engine to the C6678 platform. Computationally-intensive image processing functions were hand-optimized in assembly to fully exploit the processing capabilities of the DSP. For parallelization we have used OpenMP and show that its high overhead on C6678 does not negatively affect the achieved throughput for our use case. Furthermore, we have removed limitations regarding the size of input images by introducing a multi-step processing approach. For the presented implementation, when processing is performed in parallel using eight DSP cores, an absolute speedup of 6.7 is achieved. Parallel processing allows for up to 1156 million disparity evaluations per second when processing 456x375 pixel input images. These results are on par with commercial stereo vision systems implemented in specialized hardware and software implementations running on high-performance GPUs with relatively high power consumption. Therefore, the presented DSP version of S3E is able to advance to performance and efficiency levels that have been previously reserved to custom logic or programmable hardware-based stereo engine implementations.

Institut für ComputersprachenE185

Arbeitsbereich Programmiersprachen und Übersetzer

Diplomarbeitsposter Urban Bernhard

Bernhard Urban

Individuelles Masterstudium: Software Engineering and Internet Computing
Abstract:

Just-in-time compilation became popular lately, among others, due to the success of the Java programming language. In this thesis we successfully demonstrate a modern prototype of the Java virtual machine implemented as method-based just-in-time compiler in the purely functional programming language Haskell. Motivated by the powerful abstraction mechanism provided by the language, we were able to build a sophisticated compiler. Since a high-level language is used, we had to solve problems regarding the interface between Haskell and native code. Existing libraries from the Haskell community are used. hs-java for processing Java class files. Hoopl to implement a sophisticated compiler, that supports data-flow analysis on an intermediate representation by making extensive use of the type system. Harpy is used to generate machine code for the target architecture x86 in the manner of a domain specific language. We tried to keep as much as possible in pure code to gain the elegance of Haskell. The compilation pipeline, e.g. JVM stack elimination or linear scan register allocation, is presented in detail in this thesis. Basic features of a run-time system in order to complete a JVM, such as method invocation, lazy class loading, dynamic type checking or exception handling, are presented. Although implemented in Haskell and therefore at a high abstraction level, our prototype performs well. The performance is compared to mainstream JVMs.

Arbeitsbereich Theoretische Informatik und Logik

Diplomarbeitsposter Dissauer Gerald

Gerald Dissauer

Masterstudium Medizinische Informatik
Abstract:

Classic cryptographic methods are based on mathematical principles i.e. they are based on unproven computational complexity assumptions. The substitution of the IPv4 standard by the newer IPv6 standard leads to new fields of interest according to authentication, information security, privacy and reliable secret key distribution. The involvment of human lives results in an increasing sensitivity and consequently the need of secure authentication, key exchange, communication and privacy to gain scalable security. Quantum cryptography or formally known as quantum key distribution is a method to deliver secret key material between two communication partners in a provable and information theoretically secure manner. The communication partners encode the key to deliver on quantum systems and transmit qubits on an authenticated quantum channel. Classic cryptographic methods have mathematical limits whereas quantum key distribution could solve one of the major problems in classic cryptography, the reliable secret key exchange. Quantum cryptography can be integrated in existing concepts and it is an enhancement of existing classical environments and unconditionally secure algorithms such as the one time pad. The bottlenecks of quantum key distribution are the limitations in the distance and speed. The present work will show, how it is possible to secure IPv6 by quantum key distribution and bridge larger distances over optical fibres, how privacy could be realised and how unconditional security gets involved to gain scalable security on quantum networks to provide end to end connectivity over IPv6. We investigate the latency of IPv4, IPv6 and quantum key distribution to show that quantum key distribution is a potential solution to secure IPv6.

Diplomarbeitsposter Kausl Matthias

Matthias Kausl

Masterstudium Computational Intelligence
Abstract:

Games are useful tools to characterize the semantics of various logics. In this thesis we include a representative range of game theoretic approaches, such as Lorenzen’s dialogical logic and Hintikka’s game-theoretic semantics. In particular, we discuss Giles’ evaluation game which, motivated by reasoning about physical theories, characterizes the semantics of infinite valued Łukasiewicz logic. Moreover, we describe extensions of the game to other logics, such as Gödel and Product logic. We present disjunctive winning strategies which provide an approach to connect validity of a formula to winning strategies in Giles’ game. The central aim of this work is to create a framework for Giles-style evaluation games. This framework features user definable rules and evaluation mechanisms used to define games, which can be simulated in a web browser. Additionally, the framework supports the automated search for disjunctive winning strategies and visualizes these in tree form.

Diplomarbeitsposter Preier Cornelia

Cornelia Preier

Masterstudium Medizinische Informatik
Abstract:

Der MIND3 (Minimaler Notfall Datensatz) wurde in Deutschland eingeführt, um einen einheitlichen Standard für die Erfassung von Daten in der Notfallmedizin zu schaffen. In Österreich wurde dieser Standard mit dem MIND A umgesetzt. Das Sanitäter- und das Ärztegesetz sehen vor, dass das Rettungspersonal bei Tätigkeitsausübung die gesetzten Sanitätsmaßnahmen dokumentieren muss. In dieser Arbeit richtet sich der Fokus auf jene Dokumentationspflicht, die Sanitäter bewerkstelligen müssen. Ziel war unter Anderem eine Gegenüberstellung dieser Dokumentationssysteme mit tatsächlich im Einsatz befindlichen Einsatzprotokollen des RK Mistelbach und dem NACA-X Protokoll. In einer Vergleichsanalyse werden die wesentlichen Unterschiede dargestellt, wobei Vollständigkeit und Befüllungsgrad auf Protokoll- als auch auf Merkmalsebene analysiert wurden. Bis dato existieren in der Organisation des NÖ Roten Kreuzes keine elektronischen Erfassungsmedien zur Dokumentation von Transport- und Einsatzprotokollen für die Rettungssanitäter. Um die Auswertung der nachträglich elektronisch erfassten Einsatzprotokolle des RK Mistelbach (n=1129) zu ermöglichen, werden 2 C#-Softwareprogramme implementiert. In Folge wird eine detaillierte Analyse der Vollständigkeit der Einsatzprotokolle hinsichtlich MIND3 bzw. MIND A-Vorgaben sowie der Ausfüllgrade auf verschiedenen Ebenen präsentiert. Danach werden Verbesserungspotenziale aufgezeigt und Adaptionsmöglichkeiten evaluiert, sodass eine ausreichende Dokumentation entsprechend den MIND A-Vorgaben auch in der Praxis erreichbar ist. Als Hauptaussage gilt, dass MIND A-Vorgaben als Grundgerüst für die Definition eines umfassenden und einheitlichen Protokolls für die Dokumentation von Einsatz- und Notfalldaten durch Sanitäter/Innen Verwendung finden kann. Die Ergebnisse der Auswertung zeigen, dass auch am MIND A Adaptierungen und Ergänzungen vorzunehmen sind. Die Umstellung auf ausschließlich elektronische Datenführung ist eine unumgängliche Notwendigkeit.

Diplomarbeitsposter Weinwurm Stephan

Stephan Weinwurm

Masterstudium Medizinische Informatik
Abstract:

The work confronts a common challenge arising from genome-wide association studies. The ultimate goal of genome-wide association studies is to identify the true subset of single-nucleotide polymorphisms(SNPs), specific locations within an organism’s genome, strongly influencing a certain characteristic, such as a trait or disease. This problem has often been tackled by using methods such as hybrid correlation-based search(CBS), a modification of a method called stochastic search variable selection, as well as penalized regression methods namely lasso and ridge regression. Due to their generality, these methods are not limited to genome analysis; in fact, they are applicable to a variety of large scale regression problems. Typical state of the art genome-wide association studies comprise hundreds of thousands or even millions of SNPs in contrast with a much lower number of genomes. The above mentioned approaches are capable of dealing with situations where the number of variables (SNPs) exceeds the number of observations (phenotypes); also known as p≫n problems. The work at hand discusses modifications of the methods mentioned above to improve performance in terms of variable selection and prediction. Furthermore, all methods, as well as their modifications, are evaluated and compared in settings of highly correlated datasets, as is common in genome-wide association studies.

Institut für Computergraphik und AlgorithmenE186

Arbeitsbereich Algorithms and Complexity

Diplomarbeitsposter Jahrmann Peter

Peter Jahrmann

Masterstudium Software Engineering & Internet Computing
Abstract:

Heutzutage bilden Glasfaserverbindungen durch ihre hohe Bandbreite und Übertragungsgeschwindigkeit den Standard für eine schnelle Informationsübertragung. Obwohl sie robust gegenüber von Störeinflüssen sind, treten mit zunehmender Übertragungsreichweite Signaldämpfungen auf, die eine Signalregeneration in Form von Regeneratorknoten erfordern. Ziel des NP-schwierigen Regenerator Location Problems (RLP) ist es durch die Installation möglichst weniger Regeneratoren eine zuverlässige Kommunikation zwischen allen Knotenpaaren sicherzustellen. In der Literatur wurden bisher exakte Verfahren in Form eines Branch-and-Cut Ansatzes beschrieben, sowie die Anwendung einer Greedy Randomized Adaptive Search Procedure (GRASP) Metaheuristik mit randomisierter Konstruktionsheuristik und 2x1 Nachbarschaftsstruktur vorgestellt. Im Zuge dieser Arbeit werden weitere Mechanismen im Zusammenhang mit Cliques und Independent Sets als spezielle Knotenmengen der Graphentheorie erforscht und sowohl in Konstruktionsheuristiken, als auch Nachbarschaftsstrukturen für die lokale Suche eingesetzt. Idee dabei ist es einerseits Cliques durch die Einführung von Regeneratoren immer weiter zusammenzufassen, bis nur noch eine einzige übrig bleibt und andererseits Independent Sets als fehlende Kommunikationsmöglichkeit zwischen mehreren Knotenpaaren zu identifizieren und diese durch Regeneratoren immer weiter zu reduzieren. Die gefundenen Regeneratorknoten formen jeweils eine gültige Lösung. Die entwickelten Heuristiken wurden in GRASP und VNS Frameworks eingebettet und mit dem in der Literatur beschriebenen Ansatz verglichen. Dabei stellte sich heraus, dass GRASP Metaheuristiken, die Clique und Independent Set Strategien benutzen, hervorragende Ergebnisse auf den getesteten Instanzen erzielen.

Arbeitsbereich Computergraphik

Diplomarbeitsposter Ernst Markus

Markus Ernst

Masterstudium Visual Computing
Abstract:

The increasingly computational power and programmability of modern graphics hardware provides developers of real-time rendering applications with the resources needed to realize more and more complex graphical effects. Some of these effects, like Depth-of-Field, require an efficient image blurring technique to achieve real-time frame rates of 30 frames per second or above. This work presents a comparison of various blurring techniques in terms of their performance on modern graphics hardware. Whereas most of the chosen methods are exclusively used to blur an image, some of them are capable of applying an arbitrary filter. Furthermore, the quality of the different methods has been determined using an automatic process which utilizes a calibrated visual metric. Another aspect when using modern graphics hardware is the increasing scope of operations, especially in the domain of image processing, that can be carried out by using general-purpose computing on graphics processing units (GPGPU). In the recent years, utilizing GPGPU has become increasingly popular inside real-time rendering applications for special tasks like physics simulations. Therefore, all chosen algorithms have been implemented using shaders (GLSL) and GPGPU (CUDA), to answer the question whether or not the usage of a general purpose computing language is applicable for image blurring in real-time rendering and how it compares to using a shading language.

Diplomarbeitsposter Felberbauer Florian

Florian Felberbauer

Masterstudium Visual Computing
Abstract:

A variety of 3D-model databases are available on the internet, but the process of finding the right models is often tiring. This is because the majority of the available models is barely annotated or the quality is low. Annotations often are ambiguous, vague or too specialized. Besides 3D-model annotations, remote sensing data can be ambiguous too. Global land cover maps show large differences in certain areas of the world. This lack of correct data is a problem, because it is a basic requirement for a variety of research areas and applications. Consequently, this thesis aims at tackling both aforementioned problems. The task of recognizing and classifying images as well as 3D-models is easy to solve for humans. For that reason, this thesis makes use of the concepts of crowdsourcing. The quality of user annotations can be improved by collecting annotations from a variety of users and extract those with the highest frequency. Thus, a game has been implemented that unifies crowdsourcing and social games mechanics. It consists of game-rounds which lead the user through the process of annotating 3D-models as well as land cover data. Also, users are able to classify a given land cover area using a pre-defined set of categories. To reach as many users as possible, including users of mobile devices, the game has been implemented platform-independent. The potential of the approach is demonstrated on the basis of a user study. The results show that the annotations with the highest frequency are good descriptors for the underlying 3D-models as well as for the land cover maps. Analyzing the user paintings also shows very good results. The majority of maps were classified correctly and even the distribution of categories over the maps are correct to a high degree. We thus show, that the combination of crowdsourcing and social games can improve land cover data and 3D-model annotations.

Diplomarbeitsposter Mühlbacher Thomas

Thomas Mühlbacher

Masterstudium Visual Computing
Abstract:

Interactive walkthroughs of virtual scenes are a popular way of presenting novel architecture, furnishings or illumination. A realistic material appearance is crucial to scene immersion during such walkthroughs, and computing it at interactive frame rates is a challenging task. In my thesis, I present an algorithm that achieves the rendering of static scenes featuring view-dependent materials in real-time. The initial inputs to the method are the results of a global illumination simulation, stored as light maps of diffuse irradiance. The diffuse part of the shading is then directly derived from these light maps. A specular overlay is dynamically computed during walkthroughs by sampling derived intermediate representations of local incident light (cube maps for curved surfaces, planar reflection renderings for planar surfaces) while weighting the samples according to the local material properties. Materials are represented by a parametric model, which is fitted to measured reflectance data to obtain a realistic quantification of real-world scattering properties. The main contributions of the thesis are: 1) a deterministic sample placement strategy to approximate the view-dependent illumination integral using very few samples in real-time 2) the extension of a state-of-the-art material model to represent transmission additionally to reflection 3) a transformation scheme that maps angular sampling directions to sampling positions within a planar mirror rendering buffer, allowing the use of planar reflection renderings as an alternative incident light representation for large planar reflectors

Diplomarbeitsposter Pajer Stephan

Stephan Pajer

Masterstudium Visual Computing
Abstract:

Multivariate networks are graphs, which consist of a set of nodes and a set of connections between these nodes, that have additional data dimensions for each node and/or connection. Such multivariate graphs are prevalent in a number of different fields, including biological systems and social sciences. In this thesis, an existing linked-view system for analyzing multivariate data has been extended for the analysis of networks. A node-link view has been implemented to give an overview of the graph. To leverage existing visualizations, additional data about the structure of the network can be added to the nodes and analyzed with views designed for unconnected multivariate data. Another contribution is a novel visualization that supports the study of queries concerning relationships between different groups of nodes in a network.

Diplomarbeitsposter Pangerl Dietmar

Dietmar Pangerl

Masterstudium Medieninformatik
Abstract:

Die Fernerkundung der Bodenbedeckung hat, nicht zuletzt aufgrund der rasant wachsenden Weltbevölkerung und der globalen Klimaerwärmung, an wissenschaftlicher sowie wirtschaftlicher Bedeutung gewonnen. Internationale Projekte wie GLC2000, MODIS und GlobCover haben zum Ziel, die globale Bodenbedeckung zu bestimmen und zu kartographieren. Leider weisen die Ergebnisse dieser Projekte oft signifikante Unterschiede auf. Das Projekt Geo-Wiki.org untersucht in einer Anwendung die Ergebnisse der genannten Fernerkundungsprojekte und versucht diese mit der Hilfe von Freiwilligen zu validieren. Freiwillige zu motivieren an der Validierung mitzuwirken ist eines der Hauptprobleme im Geo-Wiki.org Projekt. Ein Ansatz um neue Benutzerschichten zu gewinnen ist die Entwicklung von Computerspielen, die die Kategorisierung der Bodenbedeckung von Landgebieten als Teil des Spiels implementieren. Das Projekt Landspotting hat zum Ziel Serious Games zu entwickeln, um die Fernerkundung der Bodenbedeckung zu unterstützen. Diese Diplomarbeit konzentriert sich auf die Entwicklung eines Computerspiels für mobile Endgeräte, das die Kategorisierung der Bodenbedeckung als integrativen Bestandteil implementiert. Das entwickelte Serious Game Landspotting kombiniert Spielmechaniken von Tower-Defense- Games mit der Kategorisierung der Bodenbedeckung von Landgebieten. Das im Rahmen der Diplomarbeit entwickelte Computerspiel wurde am 4. Jänner 2013 im Apple AppStore veröffentlicht und in weiterer Folge von einer Vielzahl an SpielerInnen heruntergeladen und installiert. Die große Zahl an durch SpielerInnen erhaltenen Daten zur Bodenbedeckung veranschaulicht das Potential das sich hinter der Kombination von Crowdsourcingsystemen und Serious Games verbirgt. Die Analyse der gewonnen Daten lässt Rückschlüsse auf die Qualität der Ergebnisse des entwickelten Computerspiels zu und belegt, dass Computerspiele eine wertvolle Ressource zur Bestimmung der Fernerkundung der Bodenbedeckung darstellen können.

Diplomarbeitsposter Sorger Johannes Christoph

Johannes Christoph Sorger

Masterstudium Visual Computing
Abstract:

Neuroscientists study the function of neural circuits in the brain of the common fruit fly Drosophila Melanogaster to discover how complex behavior is generated. Through a combination of molecular-genetic techniques and confocal microscopy the scientists are able to highlight single neurons and produce three-dimensional images of the fly's brain. Neurons are segmented, annotated, and compiled into a digital atlas. Brain atlases offer tools for exploring and analyzing their underlying data. To establish models of neural information processing, knowledge about possible connections between individual neurons is necessary. Connections can occur when arborizations (the terminal branchings of nerve fibers) of two neurons are overlapping. However, analyzing overlapping objects using traditional volumetric visualization is difficult since the examined objects occlude each other. A more abstract form of representation is therefore required. The work in this thesis was motivated by a manually constructed two-dimensional circuit diagram of potential neuronal connections that represents a novel way of visualizing neural connectivity data. Through abstracting the complex volumetric data, the diagram offers an intuitive and clear overview of potential connectivity. In collaboration with a group of neuroscientists neuroMap was designed and implemented in an attempt to deliver the visual features and encoded information of this circuit diagram in an automatically generated interactive graph, with the goal of facilitating hypothesis formation and exploration of neural connectivity. In this thesis the visual and interaction design decisions that went into neuroMap are presented, as well as the result of evaluative discussions that shows that the integration of this novel type of visualization into the existing datamining infrastructure of our clients is indeed beneficial to their research.

Diplomarbeitsposter Stabel Florian

Florian Stabel

Masterstudium Medieninformatik
Abstract:

Ein WebGIS ist eine Applikation, die dazu dient, geographische Daten zu speichern, zu analysieren, zu verwalten und zu präsentieren. Um die zugrunde liegenden Daten zu verstehen, bietet ein WebGIS unterschiedliche Hilfsmittel an. Diese unterscheiden sich zudem in der Art der Datenquelle (Raster- oder Vektordaten). Vektordaten haben zusätzlich Positionsinformationen gespeichert, die es dem System ermöglichen, eine größer Auswahl an Stiloptionen anzubieten. Diese Arbeit handelt über benutzergesteuerte Manipulation von Permafrost-Daten und ist Teil des ESA DUE Permafrost-Projektes. Der Zweck dieser Arbeit ist es, Benutzer in der Navigation von Fernerkundungsdaten und deren Untersuchung von relevanten Merkmalen zu unterstützen. Dabei werden Methoden vorgestellt, die die Darstellung von Daten in einem WebGIS verändern können. Dies wird ermöglicht, indem Stilprofile zur Laufzeit auf die jeweiligen Daten angewendet werden. Die Referenz-Implementierung basiert auf einer vorgegeben Software-Architektur. Zur Verwaltung der geographischen Daten wird ein Open Source Software-Server namens GeoServer verwendet. Um eine visuelle Repräsentation der Daten zu erhalten, wendet GeoServer einen sogenannten Styled Layer Descriptor (SLD) an. Ein SLD ist eine auf XML basierte Sprache, mittels der das Aussehen von verknüpften Datenschichten beeinflusst werden kann. Da sämtliche Daten des ESA DUE Permafrost-Projektes Rasterdaten sind, konzentriert sich diese Arbeit auf diese. Als Ergebnis dieser Arbeit wird eine interaktive Legende vorgestellt. Dieses Benutzer-Interface manipuliert einen SLD zur Laufzeit, abhängig von den Benutzereinstellungen und aktualisiert die Datenansicht. Somit ermöglicht die interaktive Legende dem Benutzer interessante Werte aus den Permafrost-Daten hervorzuheben.

Diplomarbeitsposter Winklhofer Christoph Johann

Christoph Johann Winklhofer

Masterstudium Visual Computing
Abstract:

In a mixed-reality environment virtual objects are merged into a real scene. Such an augmentation with virtual objects offers great possibilities to present content in new and innovative ways. The visual appearance of these virtual objects depends on a plausible lighting simulation. Otherwise, virtual objects look artificial and out of place, which destroys the overall impression of the perceived scene. Reflective and refractive objects are an inherent part of our physical environment. Accordingly, virtual objects of this type also enhance the overall impression and scope of a mixed-reality application. Many mixed-reality systems still neglect them: Such objects require a complex light simulation that is hard to embed in a mixed-reality system, which demands real-time frame rates to handle the user interaction. This thesis describes the integration of reflective and refractive objects in a mixed-reality environment. The aim is to create a realistic light distribution that simulates reflections and refractions between real and virtual objects. Another important aspect for a believable perception are caustics, light focusing due to the scattering from reflective or refractive objects. Until recently, this effect was simply excluded in the lighting simulation of mixed-reality systems. The proposed rendering method extends differential instant radiosity with three other image space rendering techniques capable to handle reflections, refractions and caustics in real time. By combining these techniques, our method successfully simulates the various lighting effects from reflective and refractive objects and is able to handle user interactions at interactive to real-time frame rates. This offers a practicable possibility to greatly improve the visual quality of a mixed-reality environment.

Diplomarbeitsposter Wörister Michael

Michael Wörister

Masterstudium Software Engineering & Internet Computing
Abstract:

In grafischen Anwendungen werden 3-dimensionale Szenen häufig als sogenannte Szenengraphen dargestellt. Die Knoten in einem solchen Szenengraphen repräsentieren dabei geometrische Formen, deren räumliche Transformationen, Oberflächeneigenschaften und andere, möglicherweise anwendungsspezifische, Aspekte. Szenengraphensysteme können sehr flexibel und erweiterbar gestaltet werden, indem z.B. die Definition eigener Knoten- und Traversierungstypen erlaubt wird. Dieses Flexibilität bringt aber meist aufwendigere Laufzeitlogik mit sich, was besonders in CPU-beschränkten Applikationen zu einer niedrigeren Ausführungsgeschwindigkeit führt. Um dieses Problem zu verringern, schlägt diese Arbeit ein Caching System für Szenengraphen vor. Dieses System legt automatisch so genannte render caches für ausgewählte Subgraphen an. Ein render cache enthält dabei einen sogenannten instruction stream, der es erlaubt den gecachten Subgraph effizienter zu rendern als dies mit einer herkömmlichen Traversierung der Fall ist. Zusätzlich wurde eine Reihe von Optimierungen für render caches implementiert, die eine weitere Leistungssteigerung ermöglichen. Damit render caches nicht bei jeder Szenengraphänderung komplett neu erstellt werden müssen, wurde ein sogenanntes dependency system entwickelt. Dieses System erlaubt es, bestimmte Änderungen in der Szene zu beschreiben und automatisiert darauf zu reagieren. Als Folge können render caches inkrementell auf dem neuesten Stand gehalten werden, was eine wesentliche Effizienzsteigerung bedeutet. Die tatsächlichen Leistungscharakteristika des Caching Systems wurden in einer Reihe synthetischer Testszenen in verschiedenen Konfigurationen getestet. Diese Tests haben gezeigt, dass das Caching System in Szenen mit hoher struktureller Komplexität (d.h. hohe Anzahl an Geometrieknoten und/oder tiefe Szenengraphhierarchie) und moderater Anzahl von Dreiecken pro Geometrie den größten Nutzen hat.

Arbeitsbereich Bildverarbeitung und Mustererkennung

Diplomarbeitsposter Gerstmayer Michael

Michael Gerstmayer

Masterstudium Medizinische Informatik
Abstract:

Unter Bildsegmentierung versteht man im Allgemeinen den Prozess des Aufteilens eines digitalen Bildes in Segmente, wobei diese eine starke Korrelation mit den im Bild enthaltenen Objekten aufweisen sollen. Jedoch lässt sich ein perfektes Ergebnis nicht mit Ansätzen, die für eine breites Anwendungsgebiet gedacht sind und nur mit den im Bild enthaltenen Farbinformationen arbeiten, erzielen. Ein Weg, um dieses Problem zu lösen, besteht darin, nicht ein perfektes Ergebnis, sondern eine Hierarchie von Segmentierungen mit unterschiedlichen Auflösungen zu erstellen. Diese Arbeit nimmt diesen Ansatz auf. Einzelne Segmente einer irregulären Bildpyramide werden dabei – unter Einbindung von zusätzlichem Wissen – bestätigt oder bearbeitet. Basierend auf einem automatischen regionenbasierten Verfahren, das Boruvkas minimalen aufspannenden Baum (MST) dazu verwendet, wichtige Gruppierungen – ähnlich dem Vorgang der menschlichen Wahrnehmung – zu segmentieren, binden wir den Benutzer in den Prozess ein. Speziell dafür definierte interaktive Operationen - basierend auf ’merging’ (dt. Verschmelzen) von Regionen und ’inhibition’ (dt. Verhindern) derselbigen - sollen so den Segmentierungsprozess beeinflussen. Dies jedoch ohne, dass der automatische Teil - der Regionen anhand des festgelegten Homogenitätskriteriums auswählt - selbst eingeschränkt wird. Die dafür notwendigen Verarbeitungsschritte basieren der strukturellen Beschreibung durch kombinatorische Graphen und der Eltern-Kind Information. Solche halbautomatisierten Ansätze haben in Bezug auf Flexibilität und Akzeptanz viele Vorteile. Im Rahmen der Evaluierung versuchten wir, Antworten einerseits zu Fragen der Benutzerfreundlichkeit der interaktiven Segmentierungmethode zu finden und andererseits empirische Werte zu den Operationen selbst zu bekommen. Dieses Verfahren kann zur Problemlösung verwendet werden, wenn Genauigkeit bei der Bildsegmentierung, der Annotation von Bildern oder dem Erstellen von Ground Truth benötigt wird.

Institut für Gestaltungs- und WirkungsforschungE187

Arbeitsbereich Multidisciplinary Design

Diplomarbeitsposter Guggenberger Stefanie

Stefanie Guggenberger

Masterstudium Medieninformatik
Abstract:

Die Aufrechterhaltung von Beziehungen zu Familienmitgliedern als auch zu Freunden und Bekannten erfordert ausreichende Kommunikation. Oft genügt es bereits, eine bestimmte Person wissen zu lassen, dass an sie gedacht wird, um so eine Form der Verbundenheit zu vermitteln. Die Zielsetzung der vorliegenden Arbeit ist, den Benutzern und Benutzerinnen eine neue Kommunikations- und Interaktionsform zu ermöglichen und mit Hilfe dieses Systems eine Form der Verbundenheit zu übermitteln, indem die Personen das Gefühl erhalten, dass an sie gedacht wird. Dies soll mit Hilfe eines iterativen Designprozesses unter Anwendung verschiedener benutzerzentrierter Methoden erreicht werden. Nach einer theoretischen Auseinandersetzung mit Tangible User Interfaces und Awareness Systemen liegt das Hauptaugenmerk auf der Evaluierung der Gestaltung einer neuen Kommunikations- und Interaktionsform, sowie dem Entwurf einer intuitiven Interaktion mit Tangibles und der visuellen Darstellung der Kommunikation. In dieser Arbeit sollen daher die Fragen beantwortet werden, inwiefern der entwickelte Prototyp ein Bewusstsein schaffen und eine Form der Verbundenheit zwischen Usern vermitteln kann. Zu diesem Zweck werden mit Testpersonen zuerst verschiedene Visualisierungsmöglichkeiten anhand eines narrativen Interviews evaluiert und auf Basis dieser Ergebnisse anschließend der Prototyp weiterentwickelt. Die Analyse der Interaktionen mittels Videobeobachtung bildet den darauffolgenden Evaluierungsschritt. Die aus den Tests resultierenden Erkenntnisse präsentieren schließlich die Forschungsgrundlage für eine mögliche Weiterentwicklung des Prototyps.

Diplomarbeitsposter Kaiser Stefanie

Stefanie Kaiser

Masterstudium Medieninformatik
Abstract:

Die demographische Entwicklung in Österreich zeigt einen deutlichen Anstieg der Lebenserwartung und einen Rückgang der Geburtenrate. Die Zielgruppe dieser Arbeit sind also ältere Menschen im Alter von 50 bis 65 Jahren. Ziel ist es, neue Interaktionsmechanismen für den Haushaltsbereich, unter Einbeziehung der speziellen Bedürfnisse dieser Altersgruppe, wie zum Beispiel den körperlichen und geistigen Veränderungen, zu entwerfen. Im Rahmen dieser Arbeit wird in einem iterativen Design-Prozess mit menschenzentrierten Methoden eine gesten- und objektbasierte Steuerung für ältere Menschen entwickelt. Es soll überprüft werden, ob eine derartige Bedienung eine bessere Möglichkeit der Interaktion für die gewählte Zielgruppe darstellt. Als Anwendungsgebiet wird eine Küchenumgebung gewählt und ein Kochsystem entwickelt. Hierbei sollen die kognitiven Veränderungen im Alter berücksichtigt werden, daher verfügt das System über eine Erinnerungsfunktion bezüglich der Vorlieben und Abneigungen von Freundinnen/Freunden. Um der Isolation im Alter entgegen zu wirken, werden Videokonferenzen und der Versand von Einladungen zum Essen integriert. Als Ergebnis lässt sich sagen, dass die Gestensteuerung eine gute Möglichkeit der Interaktion für ältere Menschen darstellt. Das Hantieren mit den greifbaren Objekten wurde schnell verstanden und benötigte keine detaillierte Erklärung. Allerdings bedarf es einer genauen Einführung in die unterschiedlichen Gesten und einer kurzen Probezeit dieser. Wird dies nicht eingehalten, führt die fehlerhafte Ausführung der Gesten und somit falsche bzw. fehlende Reaktion des Systems, schnell zu einem hohen Frustrationslevel der Benutzerinnen und Benutzer. Die Interaktionsmechanismen, Gestensteuerung und Bedienung über greifbare Objekte, stellen abschließend betrachtet eine bessere Möglichkeit der Interaktion für ältere Menschen dar, da sie bei Tätigkeiten im Haushalt gut integriert werden können und gerade in der Küche den Hygieneanforderungen entsprechen.

Diplomarbeitsposter Rainer Christian

Christian Rainer

Masterstudium Medieninformatik
Abstract:

Zwei Web Applications werden mittels partizipativer Design Methoden entwickelt, um somit eine bestmögliche Gestaltung und Wirkung im allgemeinen Sinne für deren UserInnen zu erlangen. Die Web Applications werden im Rahmen eines Projekts mit Inhalten der APA (Austria Presse Agentur) erstellt und nach Möglichkeit zur Verbreitung auf heimischen und unter Umständen auch ausländischen News Portalen online gestellt. In beiden Applications dreht es sich rund um die Welt des Wintersports mit folgenden Inhalten: > Alpiner Ski Weltcup (Neues Design) > Olympische Winterspiele (Redesign). Gängige Design Methoden sollen im Zuge dieser Diplomarbeit aus der zur Verfügung stehenden Literatur auf mögliche Anwendbarkeit überprüft und gegebenenfalls modifiziert werden. Anschließend sollen diese Methoden in einem Design- und einem Redesign- Prozess zur Anwendung gebracht werden. Nach der Anwendung soll bewertet werden wie effizient die Methoden gewesen sind und welchen Einfluss die Partizipation gehabt hat.

Arbeitsbereich Human Computer Interaction

Diplomarbeitsposter Bilgin Fahrünnisa

Fahrünnisa Bilgin

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Smartphones sind zu weitaus mehr als Tools für mobile Kommunikation im Alltag geworden. Seit der enormen Entwicklung von Mobile Computing im letzten Jahrzehnt, besteht ein breitgefächerter Anwendungsbereich von Smartphones. Somit könnte der Gebrauch von Smartphones auch für pädagogische Softwarelösungen in Betracht gezogen werden um gegebene Hindernisse von deskbound Computern zu überwinden. Diesbezüglich ist es das Ziel dieser Diplomarbeit, Ideen zu Möglichkeiten für die Verwendung von Smartphones im Bildungsbereich zu erforschen. Was die Benutzung von Smartphones an Schulen angeht, haben Lehrkräfte ein großes Wort mitzureden. Demnach wird das gemeinsame Gespräch zu LehrerInnen und Pädagogen/Pädagoginnen gesucht um Ihre Anliegen und Zweifel zu mobilen Geräten zu diskutieren. Auf die Zusammenarbeit mit Lehrkräften wird ein großer Wert gelegt um Art und Weise zu definieren, wie Smartphones in einem festgelegten Lehrplan verwendet werden könnten. Desweiteren werden Ideen entwickelt, um Smartphonepraxis im Zuge von Unterrichtsfächern zu sammeln und das Lernen sowie Lehren in der Schule zu verbessern. Zudem werden Lernerfahrungen mit Smartphones auch außerhalb der Schule, auf Lehrausgängen behandelt. Alle genannten Vorhaben werden sich auf die Analyse der Ergebnisse von qualitativen Interviews mit LehrerInnen der Volksschule St.Elisabethplatz in Wien beziehen. Der Entwurf pädagogischer Lernapplikationen wird mit Volksschulkindern derselben Anstalt durchgeführt und diskutiert. Anhand der Ergebnisse welche während den Participatory Design Sitzungen mit den Kindern erzielt wurden, werden Ideen für mobile pädagogische Applikationen analysiert. Außerdem wird die Benutzung von Smartphones im alltäglichen Leben der Kinder untersucht. Mit diesem Ansatz wird ihre Motivation diese Geräte im Schullalltag zu verwenden, diskutiert.

Diplomarbeitsposter Brandstetter Jürgen

Jürgen Brandstetter

Masterstudium Medieninformatik
Abstract:

Durch die stetige Verbesserung der chirurgischen Medizin und der rapiden Weiterentwicklung der Biosignalverarbeitung können von Jahr zu Jahr bessere und qualitativ hochwertigere Prothesen entwickelt werden. Trotz der schnellen Entwicklung liegt immer noch eine beträchtliche Zeitspanne zwischen einer Amputation und dem Anlegen der ersten voll funktionstüchtigen myoelektrischen Prothese. Um diese Zeit zu verkürzen wurde am \ac{IMS} in Zusammenarbeit mit Otto-Bock eine virtuelle Trainingsumgebung geschaffen welche es PatientInnen schon während dem Heilungsprozess erlaubt die ersten Übungen mit der Prothese zu beginnen. In der folgenden Diplomarbeit wird dieses Thema aufgegriffen und die Übungsumgebung durch ein Spiel ersetzt. Der/die LeserIn soll mit Hilfe dieser Diplomarbeit in der Lage sein, die Probleme die nach einer Amputation entstehen zu verstehen, ein Verständnis von den wichtigsten Bereichen des Gamedesigns bekommen sowie unterschiedlichste Spielegenres kennenlernen. Ein besonderes Augenmerk wurde auf das Spielegenre "Positive Impact Game" gelegt. Der zu Grunde liegende Ansatz dieses Genre ist, wie der Name schon andeutet, dass jedes Spiel einen positiven Einfluss auf den/die SpielerIn hinterlassen soll. Am Ende dieser Diplomarbeit steht ein fertiger Showcase, welcher versucht die Verbindung zwischen psychologischer und physiologischer Rehabilitation herzustellen. Über mögliche Weiterentwicklungen wird unter dem letzten Punkt "Future Work" diskutiert.

Diplomarbeitsposter Glavanovits Philipp

Philipp Glavanovits

Masterstudium Information & Knowledge Management
Abstract:

TEWii is a low-cost therapy program for clients with mobility deficits in the upper limbs running on the Nintendo Wii. It uses the Homebrew Channel to run self-programmed software on the Nintendo Wii and is designed for the special needs of therapists and clients. TEWii separates itself into the TEWii-Framework and the TEWii-Exercises whereas the framework supports scene-based application and provides all tools and methods necessary for visualization and drawing purposes. The TEWii-Exercises are built by using the TEWii-Framework and represent the part of the program used by the clients and therapists. 5 Exercises have been created which are training the shoulder, elbow and arm joint with different movements. The exercises adapt to the mobility values of each client. TEWii has been tested by 4 therapists of the occupational and physical department of the regional hospital Lower Austria with 12 different clients. They tested approximately 4-5 exercises with each client with mobility deficits. The clients included stroke patients, patients with multiple sclerosis, Morbus Parkinson and Guillain–Barré syndrome. The setting of using the Nintendo Wii to move something on the screen was easy to grasp by the clients. A higher motivation of the client could be determined as well as the therapists interest to continue to use TEWii in therapy. This work has shown that an application running on the Nintendo Wii specialized for therapy still has a great potential and it is worth to extend the efforts in this direction.

Diplomarbeitsposter Haider Johanna

Johanna Haider

Masterstudium Medieninformatik
Abstract:

The need for human maintenance of complex systems and monitoring huge data is present in many fields of informatics. This especially applies for Traffic Management Systems (TMS), which need to visualise highly dynamic spatio-temporal datasets, such as from Floating Car Data (FCD), in order to improve their quality of service. This quasi-real-time data from individual vehicles is a new and cost-effective source for traffic data because there is no need for additional hardware or maintenance, but due the massive amount of data this also poses new challenges for visualisation techniques. To work properly with visual information systems their design has to meet the principles of human perception. A well designed visualisation efficiently conveys the desired information to the targeted audience considering the task of the visualisation (i.e. exploration, confirmation, presentation). This thesis aims to improve the understanding of human perceptual and cognitive processes by studying the comprehensive literature to spatial and temporal information and visual displays of such information. Current TMS, which use FCD, and their requirements get described and their advantages as well as disadvantages are shown. This work gives an overview of relevant theories and results of empirical studies in the fields of the human visual system and animation. It further provides a catalogue of design guidelines which are categorised in the following context groups: visual perception, geographic data, perception of motion, monitoring tasks and interaction. The thesis therewith is supporting the design of complex, dynamic visualisations in order to accomplish optimal visualisation techniques for traffic management displays.

Diplomarbeitsposter Heiss Daniel

Daniel Heiss

Masterstudium Medizinische Informatik
Abstract:

Der Sturz und dessen Folgen stellen für Personen im hohen Alter ein großes Problem dar. Neben den direkten Konsequenzen leiden die Betroffenen oftmals an den Folgen der Stürze. Dies führt aus Angst davor oftmals zum sozialen Rückzug, der für eine weitere Erhöhung der Sturzgefahr sorgt. Um Stürze frühzeitig zu erkennen, gibt es bereits eine Vielzahl an verschiedenen Sturzerkennungssystemen am Markt. Diese Systeme werden zwar von den jeweiligen Herstellern getestet, jedoch gibt es keine einheitliche Methodik, um die Sturzerkenner vergleichbar untersuchen zu können. In dieser Diplomarbeit wurde dieses Problem aufgegriffen und eine einheitliche Testmethodik geschaffen. Dabei behandelt die Arbeit die folgenden Themen: - Sturz im Allgemeinen (Gründe, Betroffene, Folgen, Sturzarten) - Typen von Sturzerkennungssystemen - Methodik, um Sturzerkennungssysteme zu testen - Anwendung der Methodik und Evaluation verschiedener Systeme - Vergleich der Methoden und Ausblick. Neben der allgemeinen Erarbeitung des Themas wurden die verschiedene Themen rund um das Thema Sturz abgehandelt. Dabei wurde mit Hilfe von Health Professionals eine Einteilung der häufigsten Stürze durchgeführt und daraus mögliche Sturzszenarien abgeleitet. Zusätzlich zu den Sturzszenarien wurden auch Aktivitäten des täglichen Lebens definiert, die ebenfalls wichtig für die Evaluierung der Systeme sind. Bei der Erstellung der Szenarien wurde großer Wert auf die Reproduzierbarkeit gelegt, um auch in Zukunft Tests mit gleichen Voraussetzungen durchführen zu können. Im zweiten Teil der Arbeit wurde die erstellte Methodik auf mehrere, aktuell auf dem Markt befindliche Systeme getestet und eine Auswertung anhand verschiedenster Aspekte (stat. Merkmale, techn. Merkmale und Usability-Eigenschaften) durchgeführt. Die Arbeit schließt mit einer Zusammenfassung der Ergebnisse, einer kritischen Betrachtung der Methodik sowie einer Beschreibung wichtiger Funktionen für zukünftige Systeme ab.

Diplomarbeitsposter Horvath Andreas Josef

Andreas Josef Horvath

Masterstudium Informatikmanagement
Abstract:

Die vorliegende Diplomarbeit beschäftigt sich mit der Frage, welche Arten von Virtuellen Forschungsumgebungen existieren, in wieweit diese Bildung, Erhalt und Zusammenarbeit von Forschungsgemeinschaften unterstützen und deren kollaborative Wissenskonstruktion fördern. Da der Wissenswertschöpfungsprozess hierbei durch soziale Interaktion in Forschergruppen stattfindet, wird vor allem auf community-zentrierte Web 2.0 Architekturen eingegangen. In Hinblick darauf wird der Einsatz von Social Software auf Einsatzmöglichkeiten und Nutzungsszenarien für die Bereiche Vernetzung und Kollaboration von ForscherInnen untersucht. Um die Partiziptionsschranken junger ForscherInnen bei der Teilnahme an virtuellen Forschungsgemeinschaften abzubauen, werden didaktische Konzepte wie das der Community of Inquiry und der Community of Practice vorgestellt, bei denen die Teilnahme an einer Gemeinschaft, zum Zweck der gemeinsamen Wissenskonstruktion, ein zentrales Element ist. Gerade durch die Darstellung des Modells der Community of Practice, werden Analogien der sozialen Interaktion bei Kollaborationsprozessen in Forschungs- und Lerngemeinschaften sichtbar und die Anforderungen für die Unterstützung von virtuellen Gemeinschaften herausgearbeitet. Durch eine Kombination von Evaluationsverfahren, wird einerseits die Gebrauchstauglichkeit ausgewählter Nutzungsszenarien mit der Methode des Groupware Walkthroughs und der Groupware Heuristic analysiert und andererseits die Unterstützung der oben skizzierten Community of Practice mittels des Knowledge Managment Approach untersucht. Dieser Methodenmix wird bei drei vorgestellten Softwaresystemen (Hubzero, elgg, Sakai OAE) angewendet und dadurch deren jeweilige Stärken und Schwächen aufgezeigt. Durch diesen Erkenntnissgewinn werden Empfehlungen für den weiteren praktischen Einsatz dieser, als community-zentrierte Virtuelle Forschungsumgebung, gegeben.

Diplomarbeitsposter Kashi Emirjola

Emirjola Kashi

Masterstudium Informatikmanagement
Abstract:

In der vorliegenden Magisterarbeit soll untersucht werden, welche organisatorischen bzw. fachlichen Schwierigkeiten sind durch den Einsatz neuer Technologien im Informatikunterricht in einer interkulturellen Schulumgebung entstanden basierend an einer Studie an der österreichischen technischen Hochschule in Shkodra (AL). Es wird einzeln auf die jeweiligen Unterrichtsfächer der Informatik eingegangen, um mehr Klarheit darüber zu bekommen, welche Gebiete den Schülern der österreichischen HTL große Verständnis- und Lernprobleme bereiten. Ein sehr wesentlicher Teil meiner Forschungsarbeit beschäftigt sich mit den Problemen, die durch den Zusammenprall der Kulturen in einer interkulturellen Lernumgebung entstehen. Ein anderer Teil behandelt technologisch bedingte Schwierigkeiten. Darauf folgen empirische Untersuchungen, Beobachtungen und direkte Interviews mit den Beteiligten. Diese geben einen Überblick, auf dessen Basis ich meine Schlussfolgerungen ziehen kann. Die zu Beginn gestellten Fragen werden bei der Zusammenfassung der Studienergebnisse beantwortet. Eine optimale Wissensvermittlung kann nur dann erreicht werden, wenn entstandene Probleme rechtzeitig erkannt werden. Danach müssen die geeigneten Werkzeuge zur Lösung der Probleme gefunden werden. Daher beschäftigt sich ein wesentlicher Teil dieser Arbeit mit der Identifikation der erfolgreichen Unterrichtsmethoden des Informatiklehrens und -lernens in einer interkulturellen Umgebung. Es wird unter anderem über die Vorteile für die Schüler berichtet, in der österreichischen Schule in Albanien zu lernen, über ihre Zukunftsperspektive und ihre Chancen im In- und Ausland. An anderer Stelle wird dokumentiert, an welchen Strukturen Albanien arbeiten muss, um internationalen Firmen, welche im Bereich Informatik investieren wollen, den Standort Albanien schmackhaft zu machen.

Diplomarbeitsposter Kastenmiller Martin

Martin Kastenmiller

Masterstudium Medieninformatik
Abstract:

People living together in shared flats face the daily challenge of coordinating and negotiating a fair distribution of household tasks, which have been described as the invisible work carried out in the home respectively the shared spaces of a flat. The persuasive system presented and evaluated in this thesis aims to support members of shared flats by making the individuals’ contributions to household work in the shared areas more visible. Using distributed ambient displays - each representing the state of its surrounding area - the prototype enables occupants to log and visualize their efforts and to interact with the system at the time and place where it matters. The iterative design approach led to a fully functional prototype inheriting multiple persuasive methods and techniques, such as social facilitation, suggestion, self-monitoring and rewards that aim at motivating occupants to accom- plish chores while increasing their fair distribution. In order to get information on user acceptance and on the system’s impact on peoples behaviour, the prototype was carried out for a field study in two flat shares, also serving as a tool for collect- ing data about their occupants’ behaviour concerning household chores. Before the installation, this data - which included information about the completed tasks and its executors, such as the invested time, the types of the tasks and the individual’s presence in the flat - was gathered manually in both flats. The methods used for the system’s evaluation involved the analysis and comparison of measured variables from the periods before and during the presence of the proto- type, semi-structured interviews and observations. The results show a rise of the occupants’ awareness about the invisible work in both flats and also an increased engagement in household tasks during the presence of the system. Furthermore, the prototype supported a fair distribution of chores and enabled opportunities for reflection.

Diplomarbeitsposter Lavaulx- Vrecourt Desiree

Desiree Lavaulx- Vrecourt

Masterstudium Medieninformatik
Abstract:

In vielen Bereichen der Wissenschaft, sowie der Wirtschaft, sind die Analyse und das Evaluieren komplexer, multivariater Matrixdaten notwendig. Besonders bei großen Datenmengen ist es schwierig Erkenntnisse und Relationen herauszufiltern, weshalb eine geeignete Darstellung benötigt wird. Das Projekt CVAST (Centre for Visual Analytics Science and Technology, Laura Bassi Centre of Expertise) hat als Ziel, solche komplexen Informationsstrukturen besser verständlich zu machen und führt unterschiedliche Studien und Analysen in diesem Forschungsbereich durch. Eine dieser Studien befasst sich mit dem interaktiven Informationsvisualisierungssystem Contingency Wheel (Kontingenzrad). Im Rahmen des Projektes wurde eine Think Aloud-Studie an zehn Probanden durchgeführt, deren Resultate, in Form von Video- und Audioaufzeichnungen sowie Logfiles, die Grundlage der vorliegenden Arbeit bilden. Die zur Verfügung stehenden Ergebnisse sollen im Zuge dieser Arbeit einerseits auf Muster in Denkprozessen und andererseits auf Interaktionsmuster analysiert werden. Dazu wird jeweils ein passendes Kodierungsschemata erarbeitet, mit welchem die Aufzeichnungen beziehungsweise die Logfiles anschließend kodiert werden. Daraus ergeben sich Sequenzen, welche mit der lag und log-linearen sequentiellen Analyse statistisch auf Zweier- und Dreierketten geprüft werden. Die sich daraus ergebenden Muster sollen abschließend interpretiert werden und Aufschluss über die Denkprozesse und das Benutzerverhalten der Probanden geben.

Diplomarbeitsposter Nemecek Werner

Werner Nemecek

Masterstudium Software Engineering & Internet Computing
Abstract:

Der Modellversuch GESTU hatte es zum Ziel bestehende Hürden für gehörlose sowie schwerhörige Studierende abzubauen. Das sollte nicht nur mit klassischen Mitteln ermöglicht werden, sondern auch unter Zuhilfenahme technischer Hilfsmittel. Im Zuge der Diplomarbeit wurden vielversprechendste Methoden ausgewählt und an den Wiener Universitäten erprobt und evaluiert. Das am häufigsten eingesetzte technische Hilfsmittel war die Aufzeichnung der Gebärdensprachdolmetscher/-innen in den Lehrveranstaltungen. Bei der sehr positiven Bewertung durch die hörbehinderten Studierenden zeigte sich der oftmals nicht sofort ersichtliche Beitrag zum Abbau von bestehenden sprachlichen Barrieren. Eine Vorlesung kann auch durch den Einsatz von Untertiteln zugänglich gemacht werden. Sie können unter anderem mit der sogenannten Respeaking Technik erstellt werden. Das wurde während des GESTU Projekts mit großem Erfolg erprobt. Es zeigte sich nicht nur die grundsätzliche Einsetzbarkeit in bestimmten Lehrveranstaltungstypen an den Wiener Universitäten sondern auch, dass es damit den hörbehinderten Studierenden möglich war, dem Inhalt der Vorlesungen zu folgen. Bei den Aufnahmen ist es auch möglich die Untertitel nachträglich hinzuzufügen. In diesem Zusammenhang ist die automatische und kostengünstige Erstellung durch Spracherkennungssoftware interessant. Daher wurde versucht, ein sprecherunabhängiges Spracherkennungssystem für den österreichischen Dialekt zu trainieren und somit zur Transkription von Lehrveranstaltungen einsetzbar zu machen. Der letzte Schwerpunkt der Arbeit war die Konzeptionierung einer Plattform zur Sammlung von Fachgebärden. Diese konnte erfolgreich umgesetzt werden und ein verhältnismäßig großer Grundstock an Einträgen gesammelt werden. Durch die Erprobung der ausgewählten technischen Hilfsmittel konnten wichtige Erkenntnisse gewonnen und ein Beitrag zum Abbau bestehender Barrieren für hörbehinderte Studierende an den Wiener Universitäten geleistet werden.

Diplomarbeitsposter Saric Martina

Martina Saric

Masterstudium Medieninformatik
Abstract:

Diese Arbeit Konzentriert sich auf das Diabetes Selbstmanagement in Bezug auf ältere Diabetiker mit dem Augenmerk auf die körperliche Aktivität und Unterstützung durch mobile Anwendung. Der Grund aus dem ich mich entschieden habe, über die Aktivität der Diabetes Typ II erkrankten Menschen zu forschen und nicht über die Ernährung, ist der, dass auf diesem Gebiet unzureichend Untersuchungen existieren. Diese Arbeit fokussiert sich nicht auf medizinische Werte (Messungen, medizinische Tests) um die Verbesserung der Gesundheit zu sehen, sondern nur um das Potenzial mobiler Anwendungen zu erkunden, die die Motivation von Selbst-Management-Konzept durch körperliche Aktivität fördert. Für die Zwecke dieser Arbeit habe ich die Anwendung für Android-Handys namens "Diasport" implementiert. Diese Anwendung kann älteren Diabetikern bei der Überwachung der Beziehung zwischen ihrer Tätigkeit und Gesundheitszustand helfen und sie ermutigen, eine fundierte Entscheidung über ihren Lebensstil zu machen. Die Ergebnisse zeigen, dass ein Ansatz, die körperliche Aktivität bei älteren Menschen zu fördern, mit einer mobiler Anwendung vielversprechend ist aufgrund der positiv bewerteten Nützlichkeit, Wirksamkeit und Zufriedenheit der Teilnehmer im Hinblick auf die Diasport. Da es sich um eine 2-wöchigen Studie handelt sollten die künftigen Arbeiten die Durchführung einer vollständigen Untersuchung beinhalten, um den Nutzen und die Wirksamkeit der Anwendung zu ermitteln.

Diplomarbeitsposter Sommersguter Paul

Paul Sommersguter

Masterstudium Medieninformatik
Abstract:

The main goal of this master’s thesis is to propose intuitive, convenient, yet powerful interaction techniques for an Audio-Enhanced Tactile Multi-Touch Map designed to help blind children with acquiring map reading skills. The focus is on both making various layers of urban audio information originating from web services easily and intuitively navigable and manipulable, and letting users add their own content effortlessly by using gesture-based interaction. The interaction design is based on hardware which is currently under development at IGW: A tactile paper map superimposed onto a low-cost do-it-yourself capacitive multi-touch tablet that takes user input. This thesis consists of a theoretical and a practical part in which an interaction design is proposed. The theoretical part reviews and discusses relevant literature on Urban Information in Maps, Multi-Touch and Gestural Interaction, Blindness and Accessibility, and Audio Feedback Design. The practical part is based on the theoretical findings and iterative design sessions, plus participatory design methods such as a map reading workshop and feedback interviews with blind children and their teaching staff. The outcome of this master’s thesis is a multi-touch gesture language that reflects the circumstance that blind people interact distinctly different from sighted users when using touch devices. Also, the proposed interaction design aims at a quick implementation. The map’s features, system states, user scenarios, gesture semantics, and gesture syntactics are described in detail. With the Audio-Enhanced Tactile Multi-Touch Map up and running, blind and visually impaired children will be able to interact independently and comfortably with geolocated information.

Diplomarbeitsposter Wittmann Ruth

Ruth Wittmann

Masterstudium Medieninformatik
Abstract:

In vielen Bereichen der Wissenschaft, sowie der Wirtschaft, sind die Analyse und das Evaluieren komplexer, multivariater Matrixdaten notwendig. Besonders bei großen Datenmengen ist es schwierig Erkenntnisse und Relationen herauszufiltern, weshalb eine geeignete Darstellung benötigt wird. Das Projekt CVAST (Centre for Visual Analytics Science and Technology, Laura Bassi Centre of Expertise) hat als Ziel, solche komplexen Informationsstrukturen besser verständlich zu machen und führt unterschiedliche Studien und Analysen in diesem Forschungsbereich durch. Eine dieser Studien befasst sich mit dem interaktiven Informationsvisualisierungssystem Contingency Wheel (Kontingenzrad). Im Rahmen des Projektes wurde eine Think Aloud-Studie an zehn Probanden durchgeführt, deren Resultate, in Form von Video- und Audioaufzeichnungen sowie Logfiles, die Grundlage der vorliegenden Arbeit bilden. Die zur Verfügung stehenden Ergebnisse sollen im Zuge dieser Arbeit einerseits auf Muster in Denkprozessen und andererseits auf Interaktionsmuster analysiert werden. Dazu wird jeweils ein passendes Kodierungsschemata erarbeitet, mit welchem die Aufzeichnungen beziehungsweise die Logfiles anschließend kodiert werden. Daraus ergeben sich Sequenzen, welche mit der lag und log-linearen sequentiellen Analyse statistisch auf Zweier- und Dreierketten geprüft werden. Die sich daraus ergebenden Muster sollen abschließend interpretiert werden und Aufschluss über die Denkprozesse und das Benutzerverhalten der Probanden geben.

Diplomarbeitsposter Wong Mei Yih

Mei Yih Wong

Masterstudium Informatikmanagement
Abstract:

Bildung kann mit Wachstum und wirtschaftlicher Entwicklung einer Nation assoziiert werden. Mit dem wirtschaftlichen Fortschritt und der schnellen Entwicklung der Infrastruktur in Malaysia seit der Unabhängigkeit wurde mehr und mehr Aufmerksamkeit darauf gerichtet, den Grundstein für eine stärkere Wirtschaftsausbildung -als wichtigen Beitrag zu dieser Entwicklung - zu legen. In diesem 21. Jahrhundert bestimmt Computertechnologie jeden Aspekt unseres Alltags. Der Beitrag der ICT in Bildung ist unbestritten. Diese Arbeit wird deshalb sowohl die Rolle der Informationstechnik (IT) in der allgemeinen Entwicklung Malaysias als auch die Rolle der Bildung in diesem Zusammenhang beschreiben. Neben dem Einsatz von Technologie an Schulen sind Lehrer einer der Faktoren, die die Effektivität des Technologieeinsatzes ebendort stark beeinflussen kann; oft herrscht sogar die Ansicht, dass der Einsatz der Lehrer in der Technologie entscheidend ist. Darüber hinaus ist die Einstellung ein wichtiger Faktor, der die Akzeptanz der Lehrer für den Computer als Lehrmittel in der Unterrichtspraxis beeinflussen kann; daher untersucht diese Arbeit auch die Einstellung der malaysischen Lehrern zur Nutzung von ICT als Hilfsmittel im Unterricht unter und versucht herauszufinden, welche Faktoren ihre Einstellung zur Nutzung der ICT im Unterricht beeinflussen. Für diese Studie wurde ein Fragebogen mit demografischen Daten wie Alter, höchste abgeschlossene Ausbildung, Erfahrung am Computer sowie einer „Computer Attitude Skala“ wurde in dieser Studie erstellt. Die Daten wurden durch deskriptive Analyse, T-, Chi-Quadrat- und Korrelationstest untersucht. Die Ergebnisse zeigen, dass nur bestimmte Teile der demographischen Daten signifikant waren und die Haltung der Lehrer zur Benutzung von Computern im Unterricht beeinflussen. Zusätzlich zu den Ergebnissen werden in der Arbeit auch die im Zusammenhang mit der Informationstechnologien (ICT) in den Schulen auftretenden Probleme aufgezeigt.

Institut für Softwaretechnik und Interaktive SystemeE188

Arbeitsbereich Information & Software Engineering

Diplomarbeitsposter Dösinger Stefan

Stefan Dösinger

Masterstudium Software Engineering & Internet Computing
Abstract:

This thesis introduces and evaluates the Continuous Change Impact Analysis Process, short CCIP, an extension to continuous integration. Continuous integration (CI) is a well-established concept to automate building and testing of software projects, with the goal of improving quality and time to delivery. Automated tests, which are an integral part of CI, test whether a piece of software behaves according to its specification. However, the behavior of software is not defined by its code alone, but also by external dependencies that provide part of the functionality and may be developed by outside organizations or outside the engineering domain. Currently CI falls short of its potential because it does not take into account changes to dependencies and therefore executes tests in an isolated environment. CCIP attempts to break up the isolation by introducing communication between CI servers. If a dependency is modified, a notification is sent to its dependents, which import the changes, run their own tests and send feedback. This provides quick feedback for dependency developers and helps to discover regressions earlier. This thesis uses a prototype CCIP implementation to answer research questions concerning the costs and benefits of the extension, feedback quality and expected issues in large-scale deployments. This prototype implementation has been evaluated with two sets of interdependent open source projects consisting of a total of 10 projects. One set of projects originates from the Linux 3D driver and gaming stack, the other centers on the Apache Foundation's OSGi implementation. The empirical evaluation showed that CCIP can discover additional regressions that slip through the dependencies' own tests, but API changes, false-positives and random test failures severely reduce the usefulness of CCIP.

Diplomarbeitsposter Hobel Heidelinde

Heidelinde Hobel

Masterstudium Business Informatics
Abstract:

Das Konzept von Mashups bietet eine Vielzahl an Möglichkeiten, um auf einfache Weise Daten aus verschiedenen Quellen zu verarbeiten und daraus eine neue, personalisierte und wiederverwendbare Daten-Ressource zu schaffen. Mashups in Unternehmen werden auch Enterprise Mashups genannt und sind dazu optimiert, dass Angestellte einfach ihre eigenen Applikationen entwickeln können, um ihre täglichen Aufgaben zu automatisieren oder zu erleichtern, vorzugsweise ohne oder mit nur minimalem Support von der Software Engineering Abteilung. Die Architektur eines Mashups bildet die Form einer Pipeline, die Operationen wie zum Beispiel Filtern, Selektieren oder Zusammenfügen miteinander verbindet, sodass die Daten sequentiell verarbeitet werden. Die Operationen sind vordefiniert, oder im Fall von Enterprise Mashups durch die Software EntwicklerInnen des Unternehmens bereitgestellt. In dieser Arbeit betrachten wir aus der Perspektive der EndanwenderInnen, wie sie diese Daten nach ihren Wünschen manipulieren können. Denn schon durch den Einsatz von einer oder einer Reihe von simplen Operationen, zum Beispiel Filtern, können sensitive Datensätze erzeugt werden. Da die Daten eines Unternehmens wertvolle Vermögensbestände sind, stellt sich bei unregulierter Verarbeitung von Daten die Frage des Datenschutzes. Dazu wird in dieser Arbeit ein theoretischer Background sowohl über die Grundlagen von Mashups als auch von Enterprise Mashups vermittelt und ein semantischer Ansatz vorgestellt, der darauf abzielt, die Architektur von Mashups zu beschreiben und zu restriktieren. Im Rahmen dieser Arbeit wurde eine Web Applikation entwickelt, die anhand eines Peer Review Systems den vorgestellten Ansatz verdeutlichen soll. Dazu können Skripts von Mashups, welche in Enterprise Mashup Markup Language (EMML) geschrieben sind, hochgeladen und anschließend automatisch auf die Konformität mit den erstellten Regeln getestet werden.

Diplomarbeitsposter Kabon Thomas

Thomas Kabon

Masterstudium Medizinische Informatik
Abstract:

Glyph-basierte Visualisierungstechniken bieten eine elegante Möglichkeit zur Repräsentation von multivariaten Daten. Allerdings wird das Untersuchen von multivariaten Datensätzen nur erleichtert, wenn ein effizientes Glyph-Design verwendet wird. Schlechte Designs können verwirrend oder mehrdeutig sein, und sogar zu falschen Schlussfolgerungen führen. In vielen Bereichen, wie zum Beispiel in der Medizin, wird mit zeit-orientierten Daten gearbeitet. Die speziellen Eigenschaften der Zeit erhöhen die Komplexität von glyph-basierten Repräsentationen zusätzlich. Um ein passendes Glyph-Konzept zu finden, muss ein Designer zumeist mehrere verschiedene Ansätze ausprobieren. Ohne einen visuellen Editor, der es dem Benutzer erlaubt neuartige Glyph-Repräsentationen schnell zu erstellen und einfach Daten-variablen damit zu verknüpfen, muss der Designer entweder ein Visualisierungs-Framework verwenden, was aufwändiges Programmieren erfordert, oder die Glyphen von Hand selbst zeichnen. Um diesen Vorgang zu erleichtern, ist das Ziel dieser Arbeit der Entwurf eines Visuellen Glyph Editors für das schnelle Erstellen von Musterexemplaren von neuartigen Glyph-Repräsentationen. Weiters wollen wir einen Schwerpunkt auf das Verarbeiten und Analysieren von zeit-orientierten Daten setzen, um ihre inhärenten Eigenschaften besser zu unterstützen. In dieser Arbeit beginnen wir mit einer Literaturrecherche, bevor wir das Design und die Architektur des Prototypen näher beschreiben. Um unser Konzept zu evaluieren wurden sowohl Performance-Tests als auch Interviews mit drei Experten im Bereich der Informationsvisualisierung durchgeführt, die die Idee und den Protoypen positiv bewerteten. Die Ergebnisse der Evaluierung werden im letzten Abschnitt der Arbeit vorgestellt.

Diplomarbeitsposter Koch Robert

Robert Koch

Masterstudium Software Engineering & Internet Computing
Abstract:

In recent years the Web has grown to a platform, where standalone application types known from desktop computers run direct in a browser. WebSockets emerged with the powerful HTML5 standard, although their specification was outsourced to its own standardization process, which is nearly finalized. This new way to communicate enables two endpoints to send & receive messages at the same time. A new WebSocket connection starts with a HTTP-based handshake. Afterwards a lightweight protocol takes over, enabling real-time communication. WebSocket connections are based on TCP and feature asynchronous & bi-directional communication. We need not to forget about securing our web applications. Developers and security testers need to keep up with new standards and be aware of new threats. Only if they are educated well enough, they are able to think out-of-the-box, to think like an attacker. This is required especially in the field of penetration testing, where you try to find vulnerabilities by acting like an attacker. Intercepting proxies can aid the search for weaknesses. Such tools are put as Man-in-the-Middle between your browser and the Internet. While you are browsing your web application under test, the communication is recorded and displayed to the penetration tester. Thorough support for WebSockets does not exist for any web application scanner, which may result in untested parts. Within this work, attack vectors for WebSockets are identified and support for the open-source intercepting proxy Zed Attack Proxy (ZAP) is developed. Consequently, web applications using WebSockets can be analysed in-depth. While the usage of WebSockets on the Internet was already evaluated by other researchers, I did an evaluation on WebSocket usage in smartphone apps. Therefore I fetched over 15000 freely available Android apps and examined if they make use of WebSockets. 14 apps proofed to use the soon-standardized WebSockets.

Diplomarbeitsposter Kurzmann Bernd

Bernd Kurzmann

Unterrichtsfach Informatik/Informatikmanagement
Abstract:

Wie der Unterricht an einer Schule möglichst zielorientiert und effizient gestaltet werden kann, um die grundlegenden Konzepte der objektorientierten Programmierung darzustellen, ist die zentrale Fragestellung dieser Arbeit. Um die Konzepte der objektorientierten Programmierung in didaktisch aufbereiteter Form im Unterricht zu behandeln, werden für eine Auswahl von geeigneten Lernumgebungen Unterrichtsszenarien erstellt. Die Auswahl der Lernumgebungen erfolgte mittels Evaluation anhand einer Liste von Kriterien, die einerseits prüfen, in welchem Ausmaß die Konzepte der objektorientierten Programmierung jeweils umsetzbar sind, andererseits aber auch Aspekte rund um den Schulkontext sowie der didaktischen Aufbereitung berücksichtigen. Dabei wurden nicht nur die Möglichkeiten der Lernumgebungen analysiert, sondern auch ihre Grenzen ausgelotet. In die engere Wahl für den Einsatz im Unterricht kamen die Lernumgebungen BYOB, Greenfoot, BlueJ und Java-Editor, für die jeweils Unterrichtsszenarien erstellt wurden. Die entwickelten Unterrichtsszenarien basieren auf zwei verschiedenen Ansätzen, die die jeweils vorhandenen Hauptmerkmale der Lernumgebungen berücksichtigen. Spielerischer Ansatz: Der spielerische Ansatz lässt sich mit den Lernumgebungen BYOB und Greenfoot wegen ihrer grafischen Ausgabe gut umsetzen und hat als Hauptmerkmal die sehr niedrige Einstiegsschwelle. Durch die Visualisierung der Objekte kann mit gezielter Auswahl von Beispielen die Vorstellung des Objektbegriffs gefördert werden, allerdings muss man auf die durch die Lernumgebungen vorgegebenen Beschränkungen achten. Modellierungs-Ansatz: Der Modellierungs-Ansatz, für welchen sich BlueJ und Java-Editor als Lernumgebungen eignen, geht von den Konzepten der objektorientierten Modellierung aus. Da keine Einschränkungen durch die Lernumgebungen vorhanden sind, ist hier der Vorteil der freien Wahl des Objektdesigns gegeben, der durch die höhere Einstiegsschwelle etwas relativiert wird.

Diplomarbeitsposter Kögl Stefan

Stefan Kögl

Masterstudium Software Engineering & Internet Computing
Abstract:

Viele aktuelle Anwendungen arbeiten mit zeit-bezogenen Daten, wie beispielsweise dem zeitlichen Ablauf von Ereignissen und der zeitlichen Gültigkeit von Informationen. Die meisten Datenbanken bieten jedoch nur mangelnde Unterstützung für solche Anwendungsfälle, wodurch Entwickler dazu gezwungen werden, benötigte Funktionalitäten als Middleware oder direkt in der Anwendung selbst zu implementieren. In dieser Diplomarbeit wird evaluiert, inwiefern sich die dokumenten-basierte Datenbank MongoDB um Unterstützung für bi-temporale Funktionen erweitern lässt. Erweiterungen für die Datenbank werden vorgestellt, die automatische Verwaltung von historischen Datenbank- Inhalten mittels transaction-time erlauben. Alte Versionen von Dokumenten werden dabei nach Update- bzw Delete-Operationen beibehalten und mit ihrem Gültigkeits-Zeitraum versehen. Die Abfrage-Sprache von MongoDB wird erweitert um zeitbezogene Aspekte in den Abfragen formulieren zu können. Die Erweiterungen erlauben es Anwendungen mit historischen Daten zu arbeiten, um beispielsweise frühere Ergebnisse anhand der damaligen Daten rekonstruieren zu können, oder um Veränderungen der Daten über die Zeit zu analysieren. Durch die Verwendung der vorgestellten Erweiterungen ergeben sich jedoch auch Auswirkungen auf den regulären Betrieb von MongoDB, wie beispielsweise erhöhter Speicherbedarf. Dies kann durch automatisches Löschen von historischen Daten ab einem bestimmten Alter jedoch abgewendet werden. Dadurch, dass MongoDB das Speichern Schema-freier Daten erlaubt, können historische Daten in ihrem ursprünglichen Format erhalten bleiben, auch wenn sich die Schemata aktueller Daten ändern. Die Evaluierung zeigt, dass die Konzepte von MongoDB und Dokument-basierten Datenbanken im Allgemeinen für eine Erweiterung um transaction-time-Unterstützung eignen. Daraus resultieren jedoch Einschränkungen, beispielsweise im Bezug auf vorhandene Sharding-Funktionalitäten, die jedoch umgangen werden können.

Diplomarbeitsposter Königsmayr Michael

Michael Königsmayr

Masterstudium Informatikmanagement
Abstract:

Es ist allgemein anerkannt, dass die Emissionen von Treibhausgasen wie Kohlendioxid den Klimawandel vorantreiben. Trotz internationaler Vereinbarungen zur Reduktion von Emissionen, wie dem Kyoto Protokoll, steigt die Treibhausgaskonzentration in der Atmosphäre immer weiter an. Obwohl die Auswirkungen des Klimawandels in sämtlichen Medien thematisiert werden, belegen Studien das mangelnde Umweltbewusstsein der Gesellschaft. Da Meinungen und Ansichten durch Wissen geprägt werden, kann ein Grund für diese Einstellung innerhalb der Gesellschaft der Mangel an geeigneten Informationen sein. Informationsquellen zu nachhaltigem Konsumverhalten sind weit verteilt und aktuelle Forschungsergebnisse erreichen kaum den Endverbraucher. Diese Arbeit argumentiert, dass durch effektive Informationsverteilung ein Umdenken und eine Veränderung von Gewohnheiten und Verbrauchsmustern erreicht werden kann. In diesem Zusammenhang wird ein Ansatz zur Vermittlung von Wissen über Informations- und Kommunikationstechnologien (IKT) für eine kohlenstoffemissionsarme Gesellschaft vorgestellt, der auf den Erkenntnissen von Wissensmanagement und Lerntheorie basiert. IKT haben das Potential Emissionsreduktionen in den verschiedensten Anwendungsgebieten zu ermöglichen. Jedoch ist die Ausschöpfung dieses Potentials und damit der Umwelteinfluss von IKT abhängig von Verbrauchsmustern. Aus diesem Grund wurden junge Konsumenten als Zielgruppe für den vorgestellten Ansatz definiert, da deren Ressourcennutzungsverhalten die größte Bedeutung für die Zukunft aufweist. Zur Klassifizierung von IKT-Anwendungen wird in dieser Arbeit eine Taxonomie eingeführt. Die Implementierung des Ansatzes erfolgt durch Mind-Maps zur Abbildung der Taxonomie und Soziale Medien als Publikationsplattform.

Diplomarbeitsposter Merzdovnik Georg

Georg Merzdovnik

Masterstudium Software Engineering & Internet Computing
Abstract:

Bösartige Software dient als Plattform für Internet-Kriminalität und ist eines der größten Sicherheitsprobleme in heutigen Systemen und Netzwerken. Die Analyse solcher Malware kann tieferen Einblick in die Ziele eines Angreifers geben. Die hohe Anzahl an Malware, welche jeden Tag neu auftritt macht es unmöglich für Sicherheitsforscher jede einzelne gefundene Schadsoftware individuell zu betrachten. Deshalb verlassen sie sich auf dynamische Ausführungs- und Analyseumgebungen wie Anubis um Malware in einer Sandbox auszuführen und zu klassifizieren. Diese Umgebungen führen Malware in einer Sandbox automatisiert aus und geben einen Bericht über das beobachtete Verhalten zurück. Solche Systeme haben den Nachteil, dass sie nicht darauf eingehen, wie ein Angreifer die Schadsoftware am System eines Opfers installiert. In vielen Fällen wird Schadsoftware installiert indem Sicherheitslücken in Software, welche am System des Opfers läuft, ausgenutzt werden. Solche Schwachstellen erlauben es dem Angreifer beliebigen Code in den Speicher eines Programmes zu laden und anschliessend auszuführen. Dieses kleine Stück Code, welches geladen und ausgeführt wird, wird normalerweise als Shellcode bezeichnet. Typischerweise wird es dazu benutzt um weitere Schadsoftware herunterzuladen und auf dem System des Opfers auszuführen. In dieser Arbeit präsentieren wir eine Erweiterung für Anubis zur Shellcode-Analyse, welche die Analyse und das Clustering unterschiedlicher Shellcodes automatisiert. Das System selbst arbeitet mit Hilfe der Instrumentierung der Anubis Malware Analyse Umgebung um eine genauere Inspektion von Shellcodes zu ermöglichen. Weiters verwenden wir Techniken um Gemeinsamkeiten und Unterschiede verschiedener Shellcodes zu finden. Für dies haben wir eine Reihe von Distanzmetriken und Clustering-Ansätzen evaluiert um zu verstehen, wie solche Clustering Methoden zum Finden von Gemeinsamkeiten in Shellcodes verwendet werden können.

Diplomarbeitsposter Michalski Piotr

Piotr Michalski

Unterrichtsfach Informatik/Informatikmanagement
Abstract:

Die vorliegende Arbeit beschäftigt sich mit der Auswertung österreichischer Daten des internationalen Informatik-Wettbewerbs „Biber der Informatik“ aus dem Jahr 2010. Nach der Datenbereinigung habe ich hauptsächlich versucht der Forschungsfrage: „Welche Aussagen über die TeilnehmerInnen und die Fragen können durch die statistische Auswertung der Daten aus dem Biber-Contest getätigt werden?“ nachzugehen und diese mittels logischer Schlussfolgerungen nach statistischer Auswertung mit Microsoft Excel und IBM SPSS zu begründen. Zu den weniger überraschenden Ergebnissen zählt, unter anderem, dass Schüler besser als Schülerinnen abschneiden. Genauso war davon auszugehen, dass man mehr Punkte erreichen kann, wenn man mehr Zeit in die Beantwortung der Fragen investiert. Zu den größeren Überraschungen zählten vor allem, dass am zweiten von fünf Wettbewerbstagen sehr viele TeilnehmerInnen ungewöhnlich viele Punkte erreicht haben und dass im Bundesländervergleich die Steiermark signifikant besser abgeschnitten hat. Im Laufe der Arbeit wurde jedoch die Begründung dazu gefunden: eine Schulklasse hat den Contest mit unfairen Bedingungen absolviert. Des weiteren wurden die Aufgabenstruktur und Schwierigkeitseinschätzung analysiert und zukunftsweisende Ergebnisse erzielt, die in den folgenden Contests beachtet werden sollten. So zeigte sich, dass vorhandene Bilder und bei jüngeren SchülerInnen auch kürzerer Text sich auffällig positiv auf die Ergebnisse auswirken.

Diplomarbeitsposter Petrov Petar

Petar Petrov

Masterstudium Software Engineering & Internet Computing
Abstract:

Information Technology enables us to organise and manage our digital content into collections in an easy fashion. As a result, massive volumes of data are produced each day. However, it creates a huge set of technical and social issues regarding its safety and long-term accessibility. Digital Preservation copes with issues related to hardware and software obsolescence and tries to keep our digital content accessible in the long term. In order to make a meaningful decision about the course of action that should be chosen for a digital collection, preservation planning is conducted. A preservation plan is an artefact that specifies a concrete action for the preservation of a set of objects and includes potential alternative actions and the reasons for the decision-making. The decision is based on knowledge about the content and the evaluation results of experiments conducted over sample objects of the collection. Inarguably, a content profile which is a thorough description of the collection and a small set of representative sample objects, is crucial for effective planning. Because of the large volume of data, planners face many technical challenges. Characterising millions of digital objects is a cumbersome and error prone process. Furthermore, aggregating output of various characterisation tools with complex output schemas is a atedious task that requires the expertise of preservation experts and is almost impossible on large scales. The lack of a thorough description and overview of the data often forces planners to select sample objects at random or based on a single property of the data. This results in subsets that are not representative and could lead to biased experiments. In this thesis we observe the existing gaps in terms of content profiling and its importance within preservation planning. The contribution of this work is a conceptual solution of the content profiling problem, how it could be approached and a software prototype implementing the process.

Arbeitsbereich Interactive Media Systems

Diplomarbeitsposter Hochstöger Roman

Roman Hochstöger

Masterstudium Visual Computing
Abstract:

Diese Diplomarbeit beschäftigt sich mit dem Entwurf und der Entwicklung einer auf Android basierten Lifeloggingarchitektur. Das Ziel ist die Realisierung eines Prototyps, genannt Android Lifelogging (ALL), der eine automatische Erfassung multimedialer Benutzerdaten ermöglicht. Durch eine dynamische Konfiguration soll der Prototyp an möglichst viele Anwendungsszenarien anpassbar sein. Mithilfe einer geeigneten Visualisierung können die erfassten Daten dargestellt werden. Der Austausch sämtlicher Daten wie Fotos, SMS-Nachrichten oder Telefongespräche in gängige Formate wird unterstützt. Die Entstehung und die grundlegenden Ideen von mobilen Lifeloggingsystemen vorgestellt. Technologien und Vorgehensweisen, die für die Indizierung von Lifeloggingdaten relevant sind, werden erklärt. Multimodale Ansätze, ein Vergleich existierender Ansätze und einige kommerzielle Lifeloggingsysteme werden erörtert. Die Anforderungen von ALL, sowie dessen Architektur und grundlegende Konzepte werden näher erläutert. Die umfassende Konfiguration, realisierbar mithilfe der Lifelogging Description Language (LLDL), wird vorgestellt. Sämtliche Ergebnisse von ALL werden betrachtet. Experimente ermitteln die Genauigkeit der Datenerfassung.

Diplomarbeitsposter Perl Thomas

Thomas Perl

Masterstudium Software Engineering & Internet Computing
Abstract:

This thesis introduces the PS Move API, a cross-platform open source library for multiple programming languages that can be used to track PS Move Motion Controllers via Bluetooth and a PS Eye camera. The library implements sensor fusion to track all six degrees of freedom: 3-axis position and 3-axis rotation. The library solves the problems of communicating with the controller via USB and Bluetooth using the HID (Human Interface Device) protocol, pairing the controller with the host computer (for Bluetooth connections) and connecting to the controller in a cross-platform manner. Vision tracking is implemented using the freely available OpenCV framework and a PS Eye camera. The PS Move Motion Controller has a sphere at its top that can change its color using RGB LEDs - this is used to track the controller and to distinguish between multiple controllers. Orientation tracking is implemented using an open source AHRS (attitude heading reference system) algorithm, integrating inertial sensor readings from accelerometers, gyroscopes and magnetometers into a quaternion representation, which describes rotations in 3D space. Sensor fusion combines data from the visual and orientation tracking to get the controller position and orientation relative to the camera position in world coordinates. This data can then be used for different input mechanisms, such as augmented or virtual reality applications.

Diplomarbeitsposter Wendelin Katharina-Anna

Katharina-Anna Wendelin

Masterstudium Visual Computing
Abstract:

In the past few years depth cameras and their applications have gained more and more attention. Especially the publication of the Microsoft Kinect which is a cheap alternative to the expensive industrial cameras has initiated the research and development in this area. Adding depth information to images makes it possible to develop a lot of different application areas. Gesture and motion recognition, 3D Reconstruction of people and objects and the analysis of work movements are just a few possibilities for using the depth camera technology. This work treats the combination of depth cameras in order to support future work like 3D reconstruction. The configuration of the cameras, external factors and camera calibration have to be considered. Different techniques for 3D image generation are described and analyzed and similar publications with various approaches are explained and evaluated. Subsequently the practical part of this work is explained covering the combination of two different depth cameras and the challenges which arise out of it.

Diplomarbeitsposter Zeller David

David Zeller

Masterstudium Informatikmanagement
Abstract:

Räumliche Fähigkeiten sind ein essentieller Bestandteil menschlicher Wahrnehmung und Intelligenz. Sie stellen unsere Fähigkeit dar räumliche Muster zu erkennen, zwei- oder dreidimensionale Objekte im Geiste zu manipulieren und uns innerhalb unserer Umwelt zu orientieren. Zudem spielen sie eine Schlüsselrolle in kreativen Denkprozessen, bei der Lösung von Problemen und beim Auffinden von Informationen in größeren Datenmengen. Letzterer Faktor gewinnt vor allem in der heutigen Zeit zunehmend an Bedeutung, da er in enger Verbindung zu unserer Fähigkeit steht, durch umfangreiche Websites zu navigieren bzw. uns in komplexen User Interfaces zurechtzufinden. In Anbetracht der vielfältigen Arten und Weisen in denen räumliche Fähigkeiten unser tägliches Leben beeinflussen, wird in dieser Arbeit eine Software vorgestellt, deren Ziel es ist, die Entwicklung jener Fähigkeit bereits im Kindesalter zu unterstützen. Hierzu wird eine virtuelle Umgebung mit Elementen des Geometrie-Unterrichts kombiniert, wobei sich beide Faktoren als nützlich bei der Verbesserung von räumlichen Fähigkeiten herausgestellt haben. Zudem wird diesem Mix eine Physik-Komponente hinzugefügt, wodurch die Applikation einem virtuellen Spielplatz gleicht, in dem Benutzer komplexe Szenen aus simplen geometrischen Objekten aufbauen können. Die Software wurde in Unity 3D entwickelt und benutzt einen neuartigen Motion Controller als Eingabegerät, um den Benutzern zu erlauben, leichter und vor allem tiefer in die virtuelle Welt einzutauchen. Eingebettet in den schulischen Unterricht, mit spezifischen Anweisungen und Arbeitsaufgaben, wird angenommen, dass das Programm einen durchwegs positiven Einfluss auf die Entwicklung räumlicher Fähigkeiten haben wird.

Arbeitsbereich E-Commerce

Diplomarbeitsposter Asperger Michael

Michael Asperger

Masterstudium Visual Computing
Abstract:

Mit der Entwicklung von besseren Smartphones und ihrer steigenden Verbreitung verändern sich die Anwendungsgebiete dieser mobiler Helfer. Mit ihren technischen Fähigkeiten bieten sie viele Möglichkeiten, wie die geographische Position bestimmen zu lassen oder einen ständigen Zugang zu der Vielzahl an Informationen im Internet. Basierend auf der Umgebung können naheliegende Orte entdeckt werden. Im Falle von Touristen wird versucht, Informationen über historische Gebäude und künstlerische Objekte der Umgebung zu erfahren. Das Smartphone dient hier als eine Art Reiseführer, dass die klassische Landkarte um zusätzliche Informationen erweitert. Da es in vielen Städten keine Anwendungen mit Informationen der Umgebung gibt, oder falls eine Anwendung dieser Art vorhanden ist, nicht mit einheitlichen Datenbanken, müssen für Informationen über Objekte eine Vielzahl an unterschiedlichen Applikationen und Websites konsultiert werden. Die Fragen, die in dieser Arbeit behandelt werden, beinhalten den Aufbau eines Informationssystems ohne regionale Einschränkungen basierend auf der aktuellen geographischen Position für mobile Geräte mit Daten aus frei verfügbaren Datenbanken. Es werden die betreffenden technischen Grundlagen und Forschungsfelder für eine Applikation dieser Art betrachtet. Dazu zählen Einführungen in die Thematiken von Satellitennavigationssystemen, Koordinatensystemen, Mobilem Internet auf modernen Geräten sowie Augmented Reality als eine Sparte von Virtual Reality. Auf dieses Wissen aufbauend wird eine Augmented Reality Anwendung erstellt, in der Aufnahmen der Umgebung von der Kamera mit zusätzlichen Informationen von freien Onlinedatenbanken aufbereitet werden. Die Anwendung kann als Reiseführer oder Informant für Sehenswürdigkeiten in Gebieten ohne Applikationen mit zuvor aufbereiteten Daten verwendet werden.

Diplomarbeitsposter Giurginca Alin - Ioan

Alin - Ioan Giurginca

Masterstudium Information & Knowledge Management
Abstract:

This thesis deals with the categorization of business economics online news, according to previously defined categories. Ontology based and multilingual Text Mining classification methods are used within web application to facilitate fast discovery of information. Experimental research has been carried out in the field of multilingual text categorization. Considering multilingual aspects allows the combination of information from different countries in several languages. Furthermore the suitability of enriching Text Mining classification techniques with context ontology or thesauri concepts has been examined. In this particular research area, using additional concepts from specific domain ontology by Text Mining feature selection process have been examined with respect of classification accuracy.

Diplomarbeitsposter Hoisl Bernhard

Bernhard Hoisl

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

In jüngster Zeit ist ein Trend bei Internet-basierten Lernumgebungen zu Erkennen, der eine Abkehr von monolithischen Systemen, hin zu einem kombinatorischen Ansatz erkennen lässt. Mashing-up steht dabei für die Wiederverwendung, mehrmalige Kombination und freie Organisation von kleinen in sich geschlossenen Softwarebausteinen klar definierter Funktionalität (sogenannte Widgets). Mash-up Lernsysteme beschreiben hochgradig anpassbare Umgebungen, die die individuelle Personalisierung weg von den Administratoren von Lernsystemen hin zu den Endbenutzern (die Lernenden) verschiebt. Diese Verschiebung hat erhebliche Auswirkungen auf Softwaredesignentscheidungen, vor allem im Hinblick auf effiziente Datenkommunikationsstrategien innerhalb Internet-basierter Lernsysteme. Diese Arbeit stellt eine technische Lösung für eine auf Widgets basierende Kommunikation für personalisierte Mash-up-Lernumgebungen vor, sodass verschiedene Sende- und Empfangsstrategien für Daten eines Lernenden realisiert werden können; zum Beispiel: Push/Pull-Methoden für unterschiedliche Lerngegenstände, themenspezifische Nachrichten an alle Lernenden oder nutzerspezifische Benachrichtigungen. Damit wird das Modellieren von Workflows von und zwischen Lernenden in verteilten Umgebungen ermöglicht. Es wird dabei der technische Hintergrund des Widget-Konzepts erklärt und warum eine Kommunikation der Lernenden durch Widgets, insbesondere im Bereich des E-Learnings, von Nutzen ist. Das Ergebnis dieser Arbeit sind neue Methoden und entsprechende Open-Source-Softwareprototypen. Ein pädagogisches Szenario eines lebenslangen Lernenden und die darin erfolgreiche Anwendung der Widget-basierten Kommunikationsmöglichkeiten in einer ausgesuchten Lernumgebung validieren den Ansatz.

Diplomarbeitsposter Siedler Markus

Markus Siedler

Masterstudium Business Informatics
Abstract:

Today, the cultural heritage sector shows a broad variety of initiatives like colorful websites, mobile applications and multimedia interactive compilations, which shows the motivation and the potential of museums and cultural institutions in general to extend their physical existence to an rewarding interactive Web experience. The Master\'s thesis first provides a comprehensive overview about current trends of presentation forms of art history artefacts on the Web. Several examples about Web presentations illustrate these theoretical descriptions. Furthermore, the role of the Semantic Web is described, since its popularity in the cultural sector gained significantly over the last years. Based on acquainted knowledge of the State-of-the-art analysis, an alternative approach of presenting cultural artefacts on the Web is found and implemented. Since textual descriptions of people from the scientific field of art history are generally written in a language hardly to understand for people who are new in the field of art history, the implemented prototype concentrates on the comparison of artwork images. The presentation of this alternative approach of user interaction tries to motivate lay persons as well as more experienced users to increase their interest in art history. Furthermore, the developed approach tries to give the virtual visitor the chance to discover something new and unexpected. Finally, a demonstration of a sample comparison process provides a first impression about the prototype\'s functions and its usability. Additional information of museum professionals illustrates how comparing images of artworks can complement the exploration of artworks. The subsequently performed proof-of-concept verifies the developed prototype's feasibility in a real environment through testing three different persons. Furthermore it aims to receive initial feedback from users about the prototype's usability and the degree of interaction with the provided content.

Andere Institute der Technischen Universität Wien

Institut für Wirtschaftsmathematik

Diplomarbeitsposter Papesch Rene

Rene Papesch

Masterstudium Business Informatics
Abstract:

Diese Arbeit führt eine Netzwerkanalyse durch, um die empirischen Eigenschaften des maritimen Seehandels im Mittelmeer, unter Einbeziehung einer großen Anzahl von Häfen und deren Handelspartner, sowie dessen Veränderung, zu studieren. Unter der Verwendung der europäischen Seehandelsstatistik Commission (2009) wird ein Netzwerk konstruiert. Jeder Knoten in dem MTN Netzwerk repräsentiert einen Hafen oder ein Land, während jede gerichtete Kante den Güterfluss zwischen Ländern und Häfen abbildet. Das Ergebnis der statistischen Netzwerkanalyse ist, dass das MTN nicht triviale Eigenschaften komplexer Netzwerke zeigt. Das MTN ist ein gewichtetes und gerichtetes Netzwerk mit bipartiter Eigenschaft. Ein Schnappschuss des MTN in einem Quartal enthält über 17.000 Links und 600 Knoten, welche sich in zwei Klassen, Häfen und Küstenabschnitte, einteilen lassen. Es kann gezeigt werden, dass Häfen mit wenigen Handelspartnern sich im Verhalten von Häfen mit vielen Handelspartnern unterscheiden. Die Knotenverteilung für Häfen mit einer hohen Anzahl an Handelspartnern folgt dem Potenzgesetz mit einem Exponent von 2.12. Die Knotengewichte sind extrem rechtsschief verteilt, wobei 20% der verkehrsreichsten Häfen 79% vom Gesamtwarenvolumen verursachen. Außerdem ist das "Kleine-Welt-Phänomen" in diesem Netzwerk vorhanden, da jeder Hafen von jedem anderen Hafen im Durchschnitt über 2.51 Schritte erreicht werden kann. Häfen mit hoher Anzahl an Handelspartnern sind im Schnitt mit Küstenabschnitten mit wenig Partnern verbunden, daher sind Knoten im MTN disassortative gepaart. Weiters besteht eine hohe Dichte in der Nachbarschaft von Knoten, der erhöhte Clusterkoeffizient zeigt eine nicht zufällige Anordnung von Knoten an.

Diplomarbeitsposter Schwarz Thomas

Thomas Schwarz

Masterstudium Business Informatics
Abstract:

The variety of currency regimes that have been used throughout history is very diverse and goes from fixed to floating exchange rates under various alternations. This thesis compares and describes these currency differences starting from the classical gold standard, to the Bretton Woods agreement to free floating currency regimes. Target zones, realignment expectations, monetary policy rules and the credibility of a currency pegs will be an essential role in the first part of the paper. The basic design of such a peg together with its effort to hold the exchange rate at the defined price will be covered in detail. Currency crisis models particularly in the case for fixed exchange rates will be part of chapter 3. These generation crisis models can be distinguished into the simplest limited foreign exchange reserves models, into multiple equilibria models (2nd generation) and into models where debt denominated in foreign currency can play a vital role. The fourth generation model remains to be an asset price model but fits appropriately to the 3rd generation crisis model. The Dornbusch overshooting model later on describes a very simplistic and natural way how the ever changing dynamic of the exchange rate markets for a free floating currency system works. Global imbalances within the euro zone as well as under various currency regimes and its elemental nature to occur in every time period will be part of chapter 5. These current account imbalances will be described, compared and explained between several countries. Additionally to the literature research and the assumptions of the Obstfeld-Rogoff model, dynamic interactions of the most important macroeconomic variables are used to create a dynamic two country trading model that has been implemented by using System Dynamics. This simulation shows the ever changing reaction and sensitivity of any occurring diversification to the overall business cycle, the exchange rate and the current account.

Institut für Statistik und Wahrscheinlichkeitstheorie

Diplomarbeitsposter Bögl Markus

Markus Bögl

Masterstudium Medizinische Informatik
Abstract:

Zeitreihenanalyse wird von Experten vieler Forschungsdisziplinen durchgeführt. Sie kommt unter anderem in der Epidemiologie, der medizinischen Signalverarbeitung, der Neurophysiologie, den Umweltwissenschaften und bei Anwendungen mit biologischen Daten zum Einsatz. Zeitreihen sind in diesen Bereichen häufig nicht äquidistant oder enthalten fehlende Werte, wobei Standardmethoden meist äquidistante Zeitreihen ohne fehlende Werte voraussetzen. Um hier dennoch eine Anwendung der Methoden, wie etwa der Box-Jenkins Methode, zu ermöglichen, müssen die Zeitreihen transformiert werden. Gängige Softwaretools für Zeitreihenanalyse, die solche Methoden und Modelle implementieren, verfügen oft nur über eine mangelhafte Unterstützung durch intuitive und interaktive visuelle Darstellungen für die Aufgaben der Transformation, der Imputation, der nahtlosen Integration im Prozess der Modellselektion sowie der Box-Jenkins Methode. Ziel der vorliegenden Arbeit ist es, diese Schwachpunkte auszugleichen, indem Visual Analytics Methoden im Problemfeld untersucht und identifiziert werden, anhand der gewonnenen Erkenntnisse ein Visual Analytics Prozess formuliert und als Prototyp implementiert wird. Zur anschließenden Evaluierung wird der Prototyp für definierte Anwendungsfälle mit Hilfe von Beispieldaten getestet. Die Szenarien zeigen, dass Visual Analytics Methoden zur Lösung der beschriebenen Probleme geeignet sind und den Benutzer/die Benutzerin zusätzlich mit interaktiven Visualisierungen und kurzen Feedbackzyklen bei der Problemstellung von Zeitreihen-Transformation und Modellselektion unterstützen können.

Department für Geodäsie und Geoinformation

Diplomarbeitsposter Heider Stefan

Stefan Heider

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Tragbare elektronische Geräte, wie Mobiltelefone oder Tablets, ermöglichen dem Nutzer, den eigenen Standort durch GPS oder das Mobilfunknetz abzurufen. Diese räumlichen Informationen bieten im Hinblick auf eine ”Personal Information Management (PIM)” Applikation eine Basis für verschiedene Funktionen, die den Anwender bei der Aufgabenplanung unterstützen. Das Ziel dieser Arbeit ist zu erörtern, ob durch eine statistische Auswertung von Standort-Informationen, die durch einen Benutzer gesammelt werden, die Planung von Terminen und Aufgaben verbessert werden kann und welche Funktionen, basierend auf der statistischen Auswertung, in eine entsprechende Anwendung integriert werden können. Um das Ziel zu erreichen wird ein Prototyp einer Aufgabenverwaltungssoftware programmiert, der Unzulänglichkeiten von früheren Arbeiten vermeiden und Funktionen zur Terminverwaltung zur Verfügung stellen soll. Die Daten des Nutzers werden statistisch ausgewertet und können zur Planung von Aufgaben herangezogen werden. Die Arbeit zeigt, dass die Aufgabenplanung durch die Nutzung von Standort-Koordinaten und Statistik verbessert werden kann. Es wird deutlich, dass die Auswertung von Terminen allein nur wenige Informationen liefert. Der Aufenthaltsort des Anwenders muss zu jeder Zeit bekannt sein, um genügend Daten für Funktionen zur Unterstützung der Planung zu sammeln. Die Umsetzung der Anwendung als Web-Applikation erlaubt die Realisierung von Basisfunktionen für die Aufgabenverwaltung, es werden jedoch Einschränkungen im Zugriff auf die Hardware bzw. das Betriebssystem deutlich.

Department für Raumplanung

Diplomarbeitsposter Brezina Matthias

Matthias Brezina

Masterstudium Business Informatics
Abstract:

E-Learning ist ein weitverbreitender Begriff der modernen Lehre, für den es keine einheitliche Definition gibt. Jegliche Art der elektronisch unterstützten Lehre fällt unter die Bezeichnung E-Learning, angefangen von Lernspielen für Kinder bis hin zu Börsensimulationsanwendungen. Im Zuge der Hochschulausbildung erfährt man als Student diverse Auslegungen von „E-Learning“, kommt mit verschiedenen Systemen in Kontakt und bekommt diese Lehre mit modernen Medien in unterschiedlicher Qualität geboten. Doch wie sinnvoll ist der Einsatz moderner Medien in der universitären Lehre und in welchem Ausmaß sollte er betrieben werden? Wozu gibt es an einer Universität verschiedene E-Learning-Systeme und wie werden diese von den Studenten bewertet? Welche rechtlichen Problemstellungen ergeben sich durch die Anwendung von E-Learning? Diese Arbeit beschäftigt sich mit dem Thema E-Learning im Hochschulbetrieb. Genauer wird vor allem auf das so genannte Collaborative Blended Learning eingegangen – dieses beschreibt Lehrveranstaltungen, die aus einem Präsenz- und einem Onlineteil bestehen. Durch die Auswertung einschlägiger Fachliteratur wird ein Überblick über die klassischen Lerntheorien sowie über eigens für das E-Learning entwickelte Theorien gegeben. Weiterführend werden diverse Praxisratschläge und Gestaltungshinweise für E-Learning-Kurse behandelt. In einem weiteren Teil der Arbeit werden die rechtlichen Angrenzungspunkte zum Lehren mit modernen Medien beschrieben. Für eine Situationsanalyse an der Technischen Universität Wien wurden Interviews mit Lehrveranstaltungsleitern geführt sowie eine Umfrage unter den Studierenden durchgeführt. In den theoretischen Kapiteln wird ein Überblick über die vorhandene Forschung gegeben und in der Situationsanalyse an der TU Wien werden interessante Ergebnisse beschrieben. Die Vorstellung von Lehrenden und Studierenden ist in Bezug auf Sinnhaftigkeit und Mehrnutzen einzelner E-Learning-Komponenten durchaus widersprüchlich.

Institut für Automatisierungs- und Regelungstechnik

Diplomarbeitsposter Schenk Martin

Martin Schenk

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

The present thesis shows a method to estimate overturn hazard for a mobile (remote-controlled), chain-wheeled robot equipped with a multi-Degrees-of-Freedom (DoF) arm. By indicating this hazard to the operator, the estimation is a means for (passive) overturn prevention of said robot. An approach to use the estimation for active overturn prevention will be introduced briefly as well, however this thesis focuses on the estimation itself. It is based on a static analysis of the robot's weight distribution in its current pose, which is achieved by (a) using IMU sensor data to measure roll and pitch angles of the robot, and (b) creating a model composed of logical entities with known mass and centers of mass, and transforming this model according to the current arm pose and measured roll and pitch angles. The result of this analysis is the location of the center of mass of the entire robot for its current pose, and its distance to the instantaneous turning axis is a measure for the overturn hazard. Finally, a weighting function will be derived to provide an intuitive measure for operators. The IMU data consists of accelerometer and gyroscope measurements, and a method for fusioning and filtering this data will be presented. This entails a comparison between implementations of the Kalman and the Complementary filter regarding performance and cost (i.e., computing time and complexity). The solution was implemented on a physical robot, and details of this implementation will be discussed as well (with the emphasis on limited resources on embedded systems such as the robot's microcontrollers). The validity and performance of said implementation will be examined experimentally.

Institute of Telecommunications

Diplomarbeitsposter Weninger Alwin

Alwin Weninger

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Ziel dieser Arbeit war es herauszufinden, wie ein analoges nichtlineares Audiosystem am Digitalrechner möglichst genau modelliert werden kann. Als solches wurde ein Röhrenvorverstärker zur Verstärkung einer E-Gitarre gewählt. Elektronenröhren gelten bis heute im Audioverstärkerbereich als State-of-the-Art Technologie und werden aufgrund ihrer Sättigungscharakteristik verwendet, welche nicht abrupt wirkt, sondern einen sanften, kurvigen Verlauf hat. Als proof-of-concept wurde auf Basis eines Schaltplanes ein typischer Vorverstärker mit zwei Röhrenvorstufen und einem Tonestack modelliert. Mehrere mathematische Modelle für das Verhalten der Elektronenröhre werden vorgestellt und evaluiert. Weiters werden verschiedene Möglichkeiten, elektrische Netzwerke mit nichtlinearen Elementen zu modellieren, diskutiert und eine Zustandsraumdarstellung gewählt. Die Diskretisierung des Modells mit impliziten Methoden ergibt, dass verzögerungsfreie Rückwirkungszweige auftreten. Das resultierende nichtlineare Gleichungssystem muss für jedes Sample gelöst werden. Ein Newton-Raphson Algorithmus kommt zur Lösung dieses Problems zur Anwendung. Um Echtzeitfähigkeit zu gewährleisten, werden diverse Optimierungen diskutiert und am Modell angewendet: die Trennung des Verstärkers in einzelne Röhrenstufen, Vorabberechnung des nichtlinearen Verhaltens im Schaltkreis sowie Interpolationstechniken für zeitkritische Teile des Modells. Ein besonderes Augenmerk wird auf die Verbindung der Röhrenstufen gelegt; um für Lasteffekte zu kontrollieren, werden Lastströme verwendet. Durch iterative Methoden ist es möglich, den Fehler, entstanden durch Ignorieren der Lasteffekte, zu korrigieren. Ein Überkorrekturparameter, mit dessen die Effekte antizipiert werden können, sorgt dafür, dass eine hohe Konvergenzgeschwindigkeit erreicht wird. Bereits zwei Iterationen des Modells lassen dieses zufriedenstellend zum realen Verhalten konvergieren.

In Zusammenarbeit mit anderen wissenschaftlichen Einrichtungen

Universität Wien

Diplomarbeitsposter Wojdecka Agnieszka

Agnieszka Wojdecka

Masterstudium Medieninformatik
Abstract:

Das Sehen von menschlichen Gesichtern - ein Thema des Maschinellen Sehens - benötigt dreidimensionale Daten. Im Falle des Stereoskopen Sehens, welches Teil des Maschinellen Sehens ist, ist diese Aufgabe eine Herausforderung, da die Haut eines Gesichtes wenig Textur hat. Einige Beispiele für Anwendungen, welche Tiefeninformationen nützen, wären Computerspiele und animierte Filme. Diese Diplomarbeit konzentriert sich auf das Auffinden von Tiefenkarten oder Disparitätskarten. In meiner Arbeit wird ein völlig passiver Ansatz mit der Verwendung von gewöhnlichen Videokameras beschrieben. Er ist korrelationsbasiert und arbeitet mit lokalen Vergleichsmehoden. Trotz der Tatsache, dass aktive Verfahren zur Zeit am besten geeignet sind für das Wiedergewinnen von 3D Informationen eines Gesichtes, existieren Arbeiten (Bradley et al. und Beeler et al.), die beweisen, dass auch passive Methoden hochqualitative Resultate liefern. Dies dient als Motivation für die eigene Arbeit. Ich habe einen einfachen Ansatz entwickelt, welcher minimale Benutzereingaben verlangt. Er arbeitet mit Bildern in HD-Auflösung, um das Problem der wenigen Textur zu lösen. Das Verfahren wird unter verschiedenen Lichtbedingungen, Basislängen und strukturellen Informationen des Gesichtes evaluiert. Weiters wird gezeigt, wo die schwer zu berechnenden Bereiche des Gesichtes liegen. Es wurde eine eigene Beleuchtungsumgebung gebaut und eine synthetische Ground Truth wurde durch Modellierung erzeugt.