EPILOG Sommersemester 2016

Auszeichnungen

Weitere Nominierungen für Distinguished Young Alumnus- a Award

Ausgestellte Arbeiten

Institut für Rechnergestützte AutomationE183

Arbeitsbereich Automatisierungssysteme

Diplomarbeitsposter Brosch Florian

Florian Brosch

Masterstudium Medizinische Informatik
Abstract:

MSR is the field of applying data mining techniques to software repositories such as issue trackers and version control systems to study changes or to ease the development process based. Researchers in this field use techniques including machine learning, source code analysis and knowledge discovery to study topics from software engineering, software evolution and defect predictions. This thesis implements a flexible framework for repository mining that focuses on software evolution by analysing natural language. It uses text classification to analyse the type of code modifications or tracked issues, interlinks users, detects relations between software changes and reported tickets. It analyses sentiment of and between users in natural language by rating each. The framework provides a configurable ui that visualises mined data and allows interacting with it. In addition, we evaluate the code modification classifier based on high-quality data by comparing automatic classification with a hand-labelled corpus. These labels are usually applied by external developers who lack insight in a project. To overcome this limitation, we collected ground truth based on a survey among maintainers and experienced core developers. We analysed all classification errors in detail and proposed improvements based on our findings. We published an intersection of the ground truth in MSR 2015 to support the broader community. Our evaluations show that text classification is sufficient to classify commits with an average kappa of 0.343, sensitivity of 0.579 and precision of 0.613. Furthermore, we demonstrate that the performance of our classifier is highly dependent on features such as issue tracker references and the lack of a concept of phrases. Determined values are significant lower than for the original evaluation based on external developers. This indicates that contextual information not known by external developers play a significant role when collecting ground truth.

Diplomarbeitsposter Hammerl Konrad Johann

Konrad Johann Hammerl

Masterstudium Software Engineering & Internet Computing
Abstract:

Software testing is an essential activity in any software engineering project. In line with the increasing expectations regarding the quality of the tested products, also the challenges for test experts rise due to accelerated development cycles, a rapid technological progress and because of the distributed nature of modern information technology (IT) systems. While manual testing continues to play a substantial role in the testing process, more and more attention is paid to automated software testing. This work reflects this development and examines basic concepts and important needs for an automation framework for functional software testing with respect to the increasing complexity of modern IT systems. What are the key demands with a focus on black box testing and automated test execution on the system level? What are the requirements and basic concepts for such a testing framework that enables even technically less experienced staff to benefit from high levels of test automation? What are the developer's needs regarding extensibility or flexibility of such a framework? This master thesis provides answers to these questions. Essentially, the outcome of the work is divided into two main parts. The first part is an explanation of the basic concepts that have to be considered in the development of such a framework. This includes, for example, six fundamental design principles for a functional test automation framework and a suitable definition of the term framework. The second part is a comprehensive catalog with more than five hundred requirements. These requirements are sorted into eight major categories: Abstraction of Test Objects, Test Specification, Element Interaction, Element Identification, Execution Control, Test Results, Utilities for Automation and Miscellaneous Requirements. Thus, this work provides a unique academic compendium of appropriate concepts and concrete requirements for a corresponding test automation framework.

Diplomarbeitsposter Hausberger Peter

Peter Hausberger

Masterstudium Technische Informatik
Abstract:

Die automatische Datenerfassung von sportlichen Aktivitäten wurde in den letzten Jahren immer wichtiger. Sie hilft Sportlern ihre Fortschritte zu kontrollieren und ihre Trainingseffekte zu maximieren. In Ausdauersportarten ist eine automatische Trainingserfassung bereits sehr verbreitet. In anaeroben Sportarten, vor allem im Krafttraining, erfolgt die Trainingserfassung jedoch nach wie vor hauptsächlich manuell, was eine mühsame Aufgabe darstellt. Diese Arbeit untersucht das Problem der automatischen Erfassung und Analyse von Kraftsportübungen (d.h. die Erkennung der Übungsart, der Anzahl der Wiederholungen sowie die Bestimmung weiterer Metriken wie Timing oder Intensität) durch den Einsatz von energiesparenden intelligenten Fitnessgeräten basierend auf inertialen Messeinheiten (engl. inertial measurement units, IMUs), bestehend aus Beschleunigungs- und Drehratensensoren. Dazu werden verschiedene Signalverarbeitungsverfahren angewendet. Um ein besseres Verständnis von Bewegung zu erhalten, werden Position und Orientierung aus den originalen Signalen abgeschätzt. Der Datenstrom wird durch die Erkennung von Minima/Maxima im vertikalen Positionsprofil in einzelne Wiederholungen segmentiert. Zur Ermittlung des Übungstyps werden verschiedene Klassifikationsverfahren, wie Support Vector Machines (SVMs) oder Nächste-Nachbarn-Klassifikatoren basierend auf dem Dynamic-Time-Warping (DTW) Abstandsmaß, verwendet. Eine High-Level-Implementierung der entwickelten Methoden wird in Matlab durchgeführt. Darüber hinaus wird eine Proof of Concept Umsetzung auf einem speziell angefertigten eingebetteten System realisiert. Abschließend erfolgt eine umfassende Evaluierung basierend auf ausgewählten Kurzhantel-Übungen. Der entwickelte Prototyp erreicht eine Genauigkeit von 99.7% und eine Antwortzeit von ca. 300ms. Zusammenfassend zeigen die Ergebnisse, dass die spezifizierten Anforderungen erfüllt werden und dass eine genaue und schnelle Erfassung von Kraftsportübungen möglich ist.

Diplomarbeitsposter Holzapfel Rainer

Rainer Holzapfel

Masterstudium Software Engineering & Internet Computing
Abstract:

JavaScript kann in der Webentwicklung als Programmiersprache zur Erstellung moderner Benutzeroberflächen verwendet werden. Unter anderem ermöglicht diese Technik kurze Ladezeiten und schnelle, interaktive Benutzerschnittstellen. Mit Hilfe von JavaScript-MV*- Frameworks kann der Sourcecode ähnlich wie bei serverseitigen Technologien strukturiert werden. In den letzten Jahren ist das Angebot dieser Frameworks rasant angewachsen. Auch große IT-Konzerne wie Google und Yahoo treiben ihre eigenen Entwicklungen voran. Folglich ist eine große Diversität bei JavaScript-MV*-Frameworks hinsichtlich Umfang und Funktionalität entstanden. Für potenzielle NutzerInnen der Frameworks ist es ein langwieriger Prozess, das passende Framework für eine bestimmte Fragestellung herauszufiltern. Das Ziel dieser Arbeit ist, diesen Vorgang mithilfe einer geeigneten Evaluationsmethode, welche JavaScript-MV*-Frameworks auf die angeforderte Qualität überprüft, zu unterstützen. Methodisch beginnt die Arbeit mit der Aufbereitung der theoretischen Grundlagen und der anschließenden Identifikation eines geeigneten Qualitätsmodells, das für die Evaluierung der Qualität der JavaScript-MV*-Frameworks verwendet werden kann. Der dafür geeignete ISO/IEC 9126 Standard wurde an die Methodik der Programmierung einer Beispielanwendung angepasst. Als Ergebnis der Arbeit wurde eine Evaluationsmethode definiert, bei der eine Beispielanwendung parallel in mehreren ausgewählten JavaScript-MV*- Frameworks entwickelt wird. Die Qualität der Beispielanwendung wird mithilfe der im ISO/IEC 9126 Standard enthaltenen Qualitätsmodellen gemessen. Die Anwendbarkeit und Nützlichkeit der vorgestellten Methode wurde anhand der Evaluierungsergebnisse eines ersten Fallbeispiels bestätigt.

Diplomarbeitsposter Kloiber Christian

Christian Kloiber

Masterstudium Informatikmanagement
Abstract:

Umschulungen haben bei Instituten wie AMS, PVA, AUVA oder ähnlichen Institutionen einen hohen Stellenwert. Eine dieser Umschulungen ist der Lehrabschluss für Informatiker/innen, dessen Hauptfokus auf dem Programmierunterricht liegt. Eine besondere Zielgruppe sind erwachsene Personen mit Reha-Hintergrund. Dieser Zielgruppe wird über den zweiten Bildungsweg eine Umschulung angeboten, welche sie innerhalb von 90 Wochen fit für den IT-Arbeitsmarkt machen soll. Doch muss diese Zielgruppe nicht nur die allgemeinen Herausforderungen des Erlernens einer Programmiersprache meistern, sondern hat zumeist auch eine physische oder psychische Vorgeschichte zu bewältigen. Bei dieser Evaluierung muss noch mehr als in Schulen ein Spagat zwischen Menschlichkeit und Wirtschaftlichkeit gemeistert werden. Daher ist es hilfreich, im Rahmen einer Erhebung festzustellen, welcher Unterrichtsansatz im Hauptfach Programmieren die Teilnehmer/innen entlasten kann, aber dennoch zum gewünschten Ziel – der beruflichen Rehabilitation in Form eines IT-Lehrabschlusses – führt. Im Rahmen dieser Arbeit werden im Programmierunterricht einerseits prozedurale und andererseits objektorientierte Lehransätze verwendet, welche auf Ihre Auswir-kungen auf die Kursteilnehmer/innen untersucht werden. Hierfür wird ein eigenes Unterrichtskonzept für den Programmierunterricht erstellt. Dieses Konzept wird in vier Gruppen, jeweils zwei pro verwendetem Lehransatz, praktisch umgesetzt. Während und nach der Unterrichtseinheit werden die Trainer/innen die Reaktionen der Kursteilnehmer/innen erfassen. Am Beginn und Ende des Kurses werden mittels Fragebogen die persönlichen Eindrücke der Kursteilnehmer/innen erhoben. Anhand dieser Ergebnisse und weiterer Unterlagen wie z.B. Tests, Fragebögen usw. wird evaluiert, inwieweit die verschiedenen Lehransätze geeignet sind um das benötigte Wissen zu vermitteln.

Diplomarbeitsposter Kreutzer Hans Jürgen

Hans Jürgen Kreutzer

Masterstudium Informatikmanagement
Abstract:

Social Web Software eröffnet Lehrenden neue und vielfältige Möglichkeiten der Gestaltung von problemorientierten, interaktiven und situierten Lernumgebungen. Durch die Einbeziehung der (Teil-)Öffentlichkeit in den Lernprozess können interessante, anspruchsvolle und lebensnahe Problemstellungen generiert sowie von den Lernenden in authentischen Lernsituationen gemeinsam bearbeitet werden. Durch das Feedback der Öffentlichkeit ergeben sich multiple und divergierende Perspektiven auf den Lerngegenstand. Zur gemeinsamen Wissenskonstruktion und zur Koordination von Gruppenprozessen kommen kollaborative Anwendungen und Social Networking-Plattformen zum Einsatz. Die Gestaltung von offenen und partizipativen Lernumgebungen impliziert eine Reihe von Veränderungen für Lernende und Lehrende, zudem sind seitens der Institution und Politik entsprechende Rahmenbedingungen zu schaffen. Die Chancen und Herausforderungen der Integration von Social Web Software in formale Lehr-/Lernsettings werden in dieser Arbeit im Rahmen einer Diskussion verschiedener didaktischer Konzepte, praxisbezogener Fallbeispiele sowie aktueller Forschungsergebnisse beleuchtet. Des Weiteren wird ein Vergleich mit den traditionellen, multifunktionalen, lehrendenzentrierten Lernmanagementsystemen (LMS) angestellt. Ein in den letzten Jahren viel diskutiertes Konzept für individuelles, selbstgesteuertes, eigenverantwortliches und gleichzeitig vernetztes, offenes, gemeinsames, fortlaufendes Online-Lernen stellen die Massive Open Online Courses (MOOCs) dar. Für eine fundierte Reflexion des MOOC-Phänomens ist zwischen den konnektivistisch orientierten, seminarähnlichen cMOOCs und den instruktional konzipierten, vorlesungsähnlichen xMOOCs zu differenzieren. Basierend auf einer Bestandsaufnahme sowie einer Betrachtung der Potenziale und Schwächen von MOOCs wird in dieser Arbeit der mit diesen frei zugänglichen und kostenlosen Bildungsangeboten einhergehende Wandel der Lehr-/Lernkultur diskutiert.

Diplomarbeitsposter Malinowsky Boris

Boris Malinowsky

Masterstudium Informatikmanagement
Abstract:

This work proposes an interactive learning approach by means of a learning platform solely based on software for the field of domotics. The learning platform is intended to complement introductory courses to control and automation theory and laboratory work, and supports the concept of distance learning. The described method shall apply to a wide range of students’ age. It is crucial to provide age-appropriate education material and recognize the different levels of experience with the subject matter. The two target groups are young students participating in children’s university activities (“Kinder-Uni”), and graduate level university students participating in courses in the respective field. This work encourages a design solution which maintains a low entry threshold for beginning users, to uphold motivation and allow rapid prototyping for experiments. The didactic focus is to cover the main concepts of communication protocols by example of KNX, and the functioning of network stacks in sensors and actuators. By allowing to resemble laboratory setups, the aim is to gradually introduce sensor/actuator setups and communication networks, which can later be realized for laboratory experiments. To provide a realistic learning environment, the network stack is not simulated but uses the same implementation as in physical KNX devices. This avoids the challenge of creating an accurate simulation model and introducing unwanted divergency through abstraction. Compared to other types of laboratories, the proposed software solution improves in that it requires no laboratory hardware or per-seat licensing, supports easy deployment to user platforms, and has the incentive for student participation by following an open-source software model. The design and development of the software prototype adheres to a cross-platform implementation in JavaFX. This accounts for different computer platforms and the increasing replacement of traditional workstations with mobile devices.

Diplomarbeitsposter Porzer Florian

Florian Porzer

Masterstudium Business Informatics
Abstract:

Projektarbeit ist für viele Organisationen ein Mittel zu Wachstum, Veränderung und Wertsteigerung und wird eingesetzt, um strategische Ziele zu verfolgen. Projekt Portfolio Management (PPM) dient der Wertmaximierung der Projekte eines Portfolios, der Portfolio Balance und der strategischen Ausrichtung. Projekt Portfolio Selektion (PPS) strebt die optimale Zusammenstellung des Portfolios an. In der aktuellen Literatur existiert keine ausreichend umfassende Übersicht oder ein Klassifizierungsmodell. Mit einer Struktur zum Vergleich von PPS-Ansätzen können eingesetzte PPS-Methoden und -Kriterien strukturiert und verglichen. Basierend auf einer umfassenden Literaturrecherche wurden aktuelle PPS-Methoden und Kriterien sowie existierende Klassifizierungsmodelle identifiziert. Aus den bestehenden Strukturen zu PPS-Methoden und Kriterien wurde durch Zusammenführung und Ergänzung eine neue, einheitliche und umfassende Struktur für ein Klassifikationsmodell geschaffen. Zusätzlich wurde ein System aus Tags für die beiden Ebenen PPS-Methoden und -Kriterien entwickelt. Damit die praktische Anwendbarkeit des Klassifizierungsmodells demonstriert werden kann, wurde ein Machbarkeitsnachweis bei einer europäischen Versicherungsgesellschaft und fünf Tochtergesellschaften durchgeführt. In Interviews wurden die Entscheidungsträger zu den jeweilig verwendeten PPS-Methoden und Kriterien sowie zu generellen PPM-Aspekten befragt und die Antworten in das Klassifizierungsmodell eingeordnet. Die Analyse der gesammelten Daten zeigte, dass die befragten Entscheidungsträger die Tags der Modellstruktur verwenden konnten, um die Methoden und Kriterien der jeweiligen PPS-Ansätze zu klassifizieren und zu vergleichen. Folglich konnte der Machbarkeitsnachweis als erfolgreich angesehen werden. Das entworfene Klassifizierungsmodell bietet somit einerseits eine umfassendere Übersicht als bestehende Ansätze und erlaubt zudem eine flexiblere und präzisere Klassifizierung durch den Einsatz von Tags.

Diplomarbeitsposter Schaumberger Michaela

Michaela Schaumberger

Masterstudium Informatikmanagement
Abstract:

Die neue standardisierte kompetenzorientierte Reifeprüfung ging im Schuljahr 2014/15 erstmals über die Bühne. Im Hinblick auf die neue Reifeprüfung müssen einige Aspekte des Unterrichts und des Prüfens verändert werden. In dieser Arbeit wird der Aufbau der neuen Reifeprüfung kurz erläutert, wobei im Zuge des Wahlpflichtfaches Informatik das Hauptaugenmerk auf die mündliche Teilprüfung und die Themenpools, die dafür benötigt werden, gelegt wird. Hat man sich früher an den Lehrplan gehalten und Themen wie „Webdesign“ oder „Programmierung“ unterrichtet, muss man seine Stunden nun nach unterschiedlichen Dimensionen und Aspekten aufbauen. Neben Inhalten muss die Vermittlung von Kompetenzen im Mittelpunkt stehen. Wie genau dies nun auszusehen hat, was man unter der Kompetenzorientierung zu verstehen hat und wie diese umgesetzt werden kann, wird in dieser Arbeit behandelt. Neben diesen Inhalten werden folgende Leitfragen in Anbetracht der mündlichen Reifeprüfung im Rahmen des Wahlpflichtfaches Informatik untersucht: Welchen Spielraum hat eine Lehrperson unter Berücksichtigung der rechtlichen Rahmenbedingungen? Wie können Unterrichtssequenzen beispielsweise aussehen? Zur Beantwortung dieser Fragen wurden passende Quellen wie Gesetzestexte, Leitfäden und fachdidaktische Bücher und Webseiten ausgesucht, gelesen, zusammengeführt und bezüglich der neuen Reifeprüfung interpretiert bzw. analysiert. Neben der Beantwortung der Leitfragen sind in dieser Arbeit Vorschläge für einen Themenpool entstanden, wobei jedem der Bereiche daraus jeweils eine beispielhafte kompetenzorientierte Fragestellung zugeordnet wurde.

Diplomarbeitsposter Scholz Birgit

Birgit Scholz

Masterstudium Informatikmanagement
Abstract:

In 2006 a feasibility study on introducing an Austria-ELGA, an electronic health record, was published, which identified general practitioners as stakeholders. They will play a major role in the successful implementation of the electronic health record, which is why an analysis of acceptance of those future users seems essential. After an initial analysis, hypotheses were established, which served as a basis for the creation of a questionnaire. Existing publications show that doctors have a low acceptance concerning ELGA, however, the questionnaires used for these publications did not address any concrete functionalities. Over a period of about 4 months, 104 doctors based in Vienna were contacted and 51 valid questionnaires on the topic of „useful functions of a doctor’s patient system“ were returned. The results suggest that the majority of the established medical community deem the planned ELGA functionalities useful. This work thus complements existing publications about the low level of acceptance of ELGA on the part of physicians with a result that says „doctors mostly find the planned ELGA functionalities useful“. Information about ELGA is widely scattered and not conveyed to physicians in a centralized manner. Another part of the work shows how an eLearning platform can be built and used to facilitate ELGA training for physicians.

Diplomarbeitsposter Siegl Iris

Iris Siegl

Masterstudium Business Informatics
Abstract:

Aufgrund dieser zahlreich auftretenden Herausforderungen in kleinen bis mittelgroßen IT-Projekten im Umfeld des Projektmanagements und der virtuellen Teamarbeit wurden die folgenden Forschungsfragen formuliert: (1) Wie könnte ein integriertes Framework-Konzept für Projektmanagement die Zusammenarbeit in virtuellen Teams einheitlich unterstützen? (2) Wie kann die Realisierung des Framework-Konzepts durch einen Prototypen adressiert werden? Die Fragen wurden in der vorliegenden Arbeit mithilfe eines qualitativen Forschungsansatzes beantwortet, der eine Literaturrecherche, die in einer detaillierten Situationsanalyse resultiert, umfasst und die Basis für das entwickelte Praxiskonzept bildet. Bei diesem handelt es sich um ein Framework-Konzept für die Entwicklung einer Kollaborationsplattform, die einheitlich sowohl die Anwendbarkeit eines Projektmanagementstandards als auch das Arbeiten in einem virtuellen mittelgroßen IT-Projekt (Team) unterstützt. Deren Realisierbarkeit wurde durch die Entwicklung eines Prototyps aufgezeigt. Abschließend wurde das praktische Konzept mittels einer Umfrage und der Prototyp anhand von Experteninterviews evaluiert. Schlussendlich hat sich herausgestellt, dass ein großes Interesse an einer technischen Lösung besteht, die die Anwendung eines Projektmanagementansatzes und die Zusammenarbeit in virtuellen IT-Projektteams einheitlich unterstützt.

Diplomarbeitsposter Sonderegger Josef

Josef Sonderegger

Masterstudium Medieninformatik
Abstract:

In dieser Arbeit werden die Standards und Technologien von Elektronischen Fahrtgeldmanagement (EFM)-Systemen mittels Smart Cards betrachtet. Anhand wissenschaftlicher Studien werden unterschiedliche Ansätze in der Kombination von Verkehrstickets mit weiteren Ticketformen beschrieben und die Datensicherheit und deren Entwicklung gezeigt. In weiterer Folge wurde ein Konzept entwickelt, das eine Kombination von Verkehrs- und Freizeittickets auf einer Smart Card ermöglicht. Dieses Konzept soll auf dem von der Open Standards for Public Transportation Alliance (OSPT-Alliance) vorgestellten offenen Standard CiPurse basieren. Dieser Standard bietet höchste Datensicherheit und Interoperabilität und bietet mit seinem modularen Design Transportunternehmen die Möglichkeit, auf ein offenes System umzusteigen. Zunächst werden der State-of-the-Art und konkrete Anforderungen an das EFM erhoben. Zur Evaluierung des vorgestellten Konzepts wird ein Prototyp entwickelt, der eine Kombination von Verkehrs- und Freizeittickets auf Open Source-Basis ermöglicht. CiPurse wird etablierten, proprietären Lösungen wie MiFare und FeliCa vergleichend gegenüber gestellt. Ein spezieller Fokus wird von CiPurse auf Sicherheitsaspekte gelegt, wobei neben einer 128 Bit Advanced Encryption Standard (AES)-Verschlüsselung auch eine Seitenkanalabsicherung durchgeführt wird. Als Ergebnis dieser Arbeit ist festzuhalten, dass eine Umsetzung des erstellten Konzeptes mit CiPurse durchgeführt werden kann. Wenngleich der für Wien entwickelte Prototyp einige Limitierungen aufweist, können die Sicherheitsstandards von CiPurse eingehalten werden. Gerade in diesem Bereich zeigt eine Anforderungsanalyse, wo die Unterschiede zwischen CiPurse, MiFare und FeliCa liegen. Die Vorteile von EFM-Systemen liegen vor allem in den niedrigeren laufenden Kosten im Vergleich zu herkömmlichen Papiertickets.

Diplomarbeitsposter Szoldatits Thomas

Thomas Szoldatits

Masterstudium Software Engineering & Internet Computing
Abstract:

Im Zuge dieser Masterarbeit wurde eine Android Library, namens TeaLib entwickelt. Die TeaLib kann unkompliziert in neue und bereits bestehende Android Applikatio- nen eingebunden werden um Texteingabegeschwindigkeitswerte und Fehlerraten auf Android-Geräten zu messen und zu protokollieren. Der Einsatz der Library erlaubt es App-Entwicklern sich auf das Design und den Aufbau der App zu konzentrieren. Um die Nutzbarkeit der TeaLib zu zeigen wurde des Weiteren noch die Android App TeaApp entwickelt, welche diese verwendet. Die TeaApp ist für die Durchführung von Texteingabeexperimenten konzipiert und wurde auch für ein solches im Rahmen der Masterarbeit eingesetzt. Das Experiment evaluierte und verglich zwei unterschiedliche Eingabemethoden (Tippen und Swypen) und drei unterschiedliche Tastaturen (Google Tastatur, SwiftKey Tastatur und Swype Tastatur). Die Tipp-Variante erwies sich als deutlich schneller und genauer als die Swype-Eingabevariante. Man muss allerdings anmerken, dass sämtliche Teilnehmer die Tipp-Variante täglich benutzen und die Swype-Variante mehr oder weniger neu erlernt werden musste. Beim Vergleich der drei Tastaturen schnitt die SwiftKey Tastatur sowohl im Bezug auf Geschwindigkeit, als auch im Bezug auf Genauigkeit am besten ab. Als Bonusrunde wurde während des Experiments zusätzlich noch die Spracheingabe via Google Voice getestet. Dieses Eingabeverfahren schnitt im Vergleich mit den zuvor genannten Varianten sehr gut ab. Die Spracheingabe erlaubte es den Teilnehmern die Phrasen beinahe doppelt so schnell einzugeben. Jedoch wurden bei dieser Variante auch annähernd drei Mal so hohe Gesamtfehlerrate (TER) festgestellt.

Diplomarbeitsposter Warmuth Bernd

Bernd Warmuth

Masterstudium Software Engineering & Internet Computing
Abstract:

During user tests of high-tech prostheses, test managers are very busy with tasks like monitoring the correct application of the prosthesis, detecting incorrect walking patterns, dealing with the prosthetic user, as well as (re)adjusting the prosthesis configuration and documenting system failures. Due to the vast amount of sensor data, it is hard to find short events within the monitored sensor data and to identify and extract the set of sensor data that were captured during a problematic functioning of the prosthesis. Therefore, it is important to have tools which are capable of monitoring the sensor information of the prosthesis in a very user friendly and widely automatic way in order to draw inferences from sensor data about possible problems with the use of the prosthesis. In this work, it was investigated whether mobile platforms are able to contribute to the field of gait- and sensor analysis from external sources like a high-tech prosthesis. Using mobile platforms instead of classical computer desktops could improve the efficiency of user tests and contribute to the flexibility of an engineer's work during maintenance and development tasks. A proof-of-concept prototype has been implemented on the Android platform which enables the capabilities of communicating with a high-tech microprocessor-controlled prosthesis in order to transmit, store and analyze data including 3D-position, acceleration data, joint angles and many more. In order to make a link between the monitored sensor data and the physical activities of the prosthetic user, the proposed system is able to record video material simultaneously. The prototype implementation has been evaluated and tested in the context of user tests performed by the target user group. Finally, we give a short outlook on future work as well as possible optimizations of the prototype.

Diplomarbeitsposter Winkelbauer Klaus

Klaus Winkelbauer

Masterstudium Informatikmanagement
Abstract:

The purpose of a project for product development in industry is the development of a product within a given time. It should comply with the market´s requirements and its production has to correspond in quality to perform successfully on the market. These product developments rely on new technologies in many cases, without having them used before. The use of new technologies in the development process increase several risks, such as a technology which can be difficult or impossible be used for product development. If realized too late, the product can neither be produced within the given time and budget frame nor in the appropriate quality. The initiation of preliminary development projects is mandatory to deal with this problem at an early stage, which means the elimination of the main risks in the feasibility of the technology for the evolving product. The presented thesis focuses on the particular field research and development in companies which is characterized by demanding contributors, high cost pressure, and constantly changing conditions. The main task of this thesis is the explanation and implementation of a process to address technical risks in complex research and development projects. A case study was conducted to demonstrate the implementation of a new technology in the departments of Electronics Engineering, Hardware- und Software-Engineering. By using a new technology in a product development, severe problems may occurre which make a differentiated approach and defined process steps necessary for future projects.

Arbeitsbereich Computer Vision

Diplomarbeitsposter Licandro Roxane

Roxane Licandro

Masterstudium Medizinische Informatik
Abstract:

The human brain undergoes structural changes in size and in morphology between the second and the third trimester of pregnancy, according to accelerated growth and the progress of cortical folding. The most accurate non-invasive method for observing these events is the fast Magnetic Resonance (MR) imaging technique. It allows to image a fetus within 20 seconds and consequently reduce artefacts, caused by the fetal movement. A problem of MR imaging is the lack of comparability and constancy of gray-values. To make fetal brains comparable, atlases are used as a standard space for studying brain development, fetal pathology locations, fetal abnormalities or anatomy. The fetal atlas building process takes into account both inter-patient variability of brain shapes and the gestational age dependent structural changes. Thus, a time-varying atlas is required. The aim of the work is to provide a continuous model of brain development and to use it as base for an automatic tissue labeling framework. This master’s thesis provides a novel longitudinal fetal brain atlas construction concept for geodesic image regression using three different age-ranges which are parametrized according to the developmental stage of the fetus. The dataset used for evaluation contains 45 T2 weighted 1.5 Tesla MR images between Gestational Week (GW) 18 and GW 30 day 2. The proposed tissue labeling framework uses the learned spatio-temporal atlas as cost term in a graph cut based annotation procedure to automatically segment cortical and ventricle brain tissue. The automatic tissue labeling framework estimates cortical segmentations with a Dice Coefficient (DC) up to 0.85 and ventricle segmentations with a DC up to 0.60.

Diplomarbeitsposter Sperl Georg

Georg Sperl

Masterstudium Visual Computing
Abstract:

Large-scale object recognition challenges such as the ImageNet Large Scale Visual Object Recognition Challenge or the Microsoft Common Objects in Context challenge have shown that convolutional neural networks achieve state-of-the-art performance on computer vision problems like object detection and image classification. Convolutional neural networks benefit from datasets of hundreds of thousands of images, which cover more intraclass variabilities and aid in learning robust and invariant features. However, these datasets are designed for general object recognition and no dataset of similar dimensions exist for person recognition. Therefore, data is collected from over 30 datasets for person detection, classification, segmentation and tracking to form a pool of data sources for person recognition. A method of extracting application-specific data from this pool and training a convolutional neural network for binary person classification is proposed. Additionally, performance improvements of subclass labeling are analyzed for the nonperson class and an error rate of 2.82% is achieved. Results demonstrate that using our person recognition dataset as a pre-training set for person classification tasks with training sets of only up to a few thousand images leads to an increase in accuracy of over 8% to a total accuracy of over 99%. The quality of our dataset is demonstrated by additional evaluation. Furthermore, results emphasize the complexity of convolutional neural network architecture choice and indicate increased robustness in training with subclass labeling with regards to initialization and solver algorithms.

Institut für InformationssystemeE184

Arbeitsbereich Distributed Systems

Diplomarbeitsposter Hanappi Oliver

Oliver Hanappi

Masterstudium Software Engineering & Internet Computing
Abstract:

Das Aufkommen von Cloud Computing führte zu einem erhöhten Wunsch nach automatisierter Verwaltung von IT Ressourcen und somit zur Verbreitung von Lösungen zur automatischen Konfiguration. Diese arbeiten auf der Grundlage einer deklarativen Beschreibung des gewünschten Zustands des Systems. Durch wiederholte Ausführungen wird das System entsprechend konfiguriert. Die ausgeführten Aktionen können zwar zwischenzeitlich fehlschlagen, werden schlussendlich jedoch erfolgreich angewandt. Das System konvergiert somit zum gewünschten Zustand. Essentiell für Konvergenz ist die Idempotenz der Aktionen, also die Eigenschaft, dass diese das System nach erfolgreicher Ausführung nicht weiter verändern und ebenso nicht fehlschlagen. Zusätzlich können verschiedene Aktionen in Konflikt zueinander stehen. Insbesondere ist eine Sequenz idempotenter Aktionen nicht zwangsläufig idempotent. Weiters muss die Ausführungsreihenfolge der Aktionen nicht vollständig definiert sein, sodass sie sich pro Ausführung unterscheiden kann. Durch den konvergenten Konfigurationsprozess wird der gewünschte Zustand letztendlich erreicht, unabhängig von der Ausführungsreihenfolge. Das Erstellen von idempotenten und konvergenten Konfigurationen ist eine schwere Aufgabe, die systematisches Testen erfordert. Wir stellen ein konzeptuelles Modell zum Testen vor und setzen dieses anhand eines Prototypen um, der auf Puppet basiert. Aktionen sind partiell geordnet, sodass nicht alle Ausführungsreihenfolgen getestet werden können. Wir führen daher Erhaltung (engl. preservation) ein, was die Konvergenz der Konfiguration sicherstellt, sofern Erhaltung paarweise zwischen allen Aktionen erfüllt ist. Wir evaluieren das vorgestellte Model anhand realer Puppet. Der entwickelte Prototyp ist effektiv und in der Lage, sowohl alle Idempotenz- und Konvergenzprobleme in einer Menge von Scripts mit bekannten Problemen als auch einige bislang unentdeckte Probleme in einer zufällig gewählten Menge zu identifizieren.

Diplomarbeitsposter Korherr Jakob

Jakob Korherr

Masterstudium Software Engineering & Internet Computing
Abstract:

Klassische Webapplikationen senden zu viele Daten vom Webserver zum Browser des Benutzers, weil für jede Server-Anfrage eine vollständige Seite generiert und übertragen wird, obwohl sich nur Teile dieser Seite wirklich ändern. In Wirklichkeit reicht es vollkommen aus nur die Teile der aktuellen Seite neu zu berechnen und zu übertragen, welche sich auch tatsächlich ändern. Dieser Ansatz, welcher unter dem Begriff "single-page Webapplikationen" bekannt ist, kann mit Hilfe von AJAX implementiert werden, wobei das jedoch zu neuen Problemen führt, wie z.B. verminderter Funktionalität des Zurück-Buttons des Browsers auf der Webseite. Durch die Verwendung der HTML5 History API können diese Probleme jedoch beseitigt werden. Das Ziel dieser Arbeit ist es die HTML5 History API auf deklarative Weise in Java EE einzubinden. Realisiert wird dieses Ziel durch die Entwicklung eines neuen Webframeworks für die Erstellung von single-page Webapplikationen, basierend auf etablierten Java EE Standards. Dieses Framework nutzt partielles Rendering zusammen mit AJAX und der HTML5 History API, damit die resultierende Webapplikation bookmarkfähige Internetadressen verwendet, obwohl rein technisch der Webbrowser immer auf derselben Webseite bleibt. Das Berechnen und Rendern der partiellen Aktualisierungen der Webseite geschieht dabei vollständig am Server. Außerdem beschäftigt sich diese Arbeit mit dem weit verbreiteten Skalierbarkeitsproblem von aktuellen Webapplikationen, welches hauptsächlich durch die Verwendung von zustandsorientierten Webservern sowie synchroner, blockierender Anfragebearbeitung entsteht. Mit dem neu entwickelten Webframework ist es möglich vollständig zustandslose Webapplikationen zu erstellen, was eine horizontale Skalierung ohne Weiteres ermöglicht. Zusätzlich können Benutzer-Anfragen auch asynchron und ohne Blockieren eines Server-Threads abgearbeitet werden, wodurch eine große Anzahl von Anfragen gleichzeitig bedient werden kann.

Diplomarbeitsposter Nickel Bernhard

Bernhard Nickel

Masterstudium Software Engineering & Internet Computing
Abstract:

In the age of big data with ever-growing data volumes, data-processing applications face considerable performance challenges. If they do not fulfill their performance requirements, they do not deliver their intended benefit to their organization. Therefore, performance testing and monitoring is crucial for organizations as it enables them to test, analyze and assess the performance of their data-processing applications. Since single machines have not kept up with the growing data volumes, data-processing applications have to scale across clusters, grids or other distributed infrastructures. Whereas distribution allows such applications to meet their performance requirements, it comes at a cost. Performance testing and monitoring become more difficult to conduct. This especially applies to data-processing applications, where monitoring has not been considered at design time. Unfortunately existing tools are often limited in their scope: Either they are focused on certain metrics, such as a server's resource metrics, or bound to a particular environment or data-processing engine. The goal of this work is to investigate how the performance of distributed JVM-based data-processing applications can be tested and monitored independently from a particular environment. The different challenges when monitoring a JVM-based distributed data-processing application are analyzed step by step, from defining proper metrics, dealing with data acquisition and publication, to measurement data analysis. Based on that, a design for a framework that allows to monitor and test any JVM-based distributed data-processing application is proposed. To demonstrate the feasibility of our design, a proof-of-concept implementation of the framework is developed. In order to evaluate the framework, it is applied to a demonstration scenario implemented based on both, Apache Spark Streaming and Apache Storm, where the resulting measurement data is analyzed and the results are discussed.

Diplomarbeitsposter Rathmanner Bernd

Bernd Rathmanner

Masterstudium Software Engineering & Internet Computing
Abstract:

Distributed applications are becoming more common, especially cloud-based applications are a major topic in recent research. These application mostly contain complex application logic and should be built for dynamic adoption. Thus monitoring of an applications components is an important topic for adaption and scalability. There currently are different methods of adaption approaches: localized and remote. Localized approaches do not always yield optimal solutions due to their localized views. Adoption strategies might include or effect multiple parts of the application, or might need information of those parts to create an optimal adoption strategy. Due to the localized view it is impossible to assess the impact of the adaption effects in one part of the system on other system parts, thus yielding sub-optimal adaption strategies and unforeseen side effects. Remote approaches on the other hand provide a holistic view which allows for more intelligent adoption strategies. But existing solutions have limitations with distributed applications. Pure probing might not be feasible (e.g. bandwidth, granularity, \ldots) and the given level of details may not be needed by the adaption control. We propose a distributed architecture tracking framework based on \textit{architecture-based-self-adaption}. By decoupling the application and the model generation itself we are able to generate a holistic view of the overall application architecture. Thus it is possible to perform optimal adaption decisions for the application. Our proposed framework is evaluated using a simple distributed application, that is a cloud-based publish-subscribe system.

Diplomarbeitsposter Schauer Gregor

Gregor Schauer

Masterstudium Software Engineering & Internet Computing
Abstract:

Cloud Computing eröffnet eine Vielzahl an Möglichkeiten wie z.B. die Verfügbarkeit oder Fehlertoleranz von Applikationen zu verbessern. Dabei entsteht aber auch ein unter Umständen nicht vernachlässigbarer Overhead. Es gibt verschiedene Ansätze um diesen, beispielsweise mittels Monitoring, zu identifizieren und zu vermindern. Diese großteils reaktiven Lösungen bieten jedoch keine Möglichkeit vorab hinreichend genaue Vorhersagen über Skalierbarkeit von Applikationen auf Cloud Plattformen zu treffen. Die vorliegende Diplomarbeit beschäftigt sich mit dieser Thematik und geht unter anderem der Frage nach ob und wie sich gewisse Performanceeigenschaften einer Applikation vorhersagen lassen ohne diese auf der Zielplattform zu betreiben. Dazu wurden anerkannte Modelle wie jene von Amdahl und Gustafson auf ihre Anwendbarkeit für Cloud Computing untersucht. Darauf aufbauend wurde ein Modell entwickelt, welches die Skalierbarkeit von Programmen unter Berücksichtigung von cloud-spezifischen Eigenschaften mathematisch beschreibt. Anhand zweier Applikationen mit unterschiedlichen Lastprofilen wurde dieses Modell evaluiert. Dazu wurde ein leichtgewichtiger Profiler implementiert um Laufzeitinformationen der verteilten Applikationen zu sammeln. Die so gewonnen Daten wurden gefiltert, nach Thread geclustert und auf Methoden- und Klassenebene aggregiert. Anschließend wurden sie interpoliert und mit den Vorhersagen über die zu erwartende Performance verglichen. Desweiteren wurden Abweichungen analysiert und deren Ursachen wie Garbage Collection diskutiert. Die Arbeit zeigt, dass beispielsweise im Zuge einer Applikationsmigration entstehende geringfügige Änderungen die Performancecharakteristika der Applikation signifikant verändern können. Modelle, wie jenes, das im Rahmen der Arbeit entwickelt wurde, können wertvolle Informationen über beispielsweise Skalierbarkeit und technische Limits liefern.

Diplomarbeitsposter Stifter Nicholas Alexander

Nicholas Alexander Stifter

Masterstudium Informatikmanagement
Abstract:

This thesis covers the development of an educational software framework aimed at assisting learners in the implementation and testing of reliable multicast protocols and other software components related to (process) group communication. Its motivation is the extension of an existing group communication simulator employed in an advanced distributed systems laboratory assignment. Currently student-developed protocols are restricted to the simulation environment and cannot be used in real-world scenarios. Ideally students should be able to develop and test their own protocol implementations using tools that foster the learning process and simplify the complex task of creating reliable distributed software while retaining its full functionality. Part one of this work conducts an extensive literature review addressing the necessary pedagogical considerations for developing educational software tools for the topic of group communication. It is highlighted that further research on the subject matter is needed and the presented results should be seen as an initial step towards formulating guidelines for creating educational tools for more advanced distributed systems topics. Part two covers the development of a framework prototype aimed at solving the initial problem of extending a group communication simulator and is informed by the results presented in part one of this thesis. The proposed design employs a header-driven model for protocol composition, an extended variant of Chandra-Toueg Consensus as the basis for a combined group membership service and view synchronous multicast communication protocol, and the distributed middleware simulation environment MINHA for simulations. A preliminary implementation of the proposed design outlines its feasibility, however seldom but hard to debug issues associated with MINHA's bytecode instrumentation process render the chosen simulation approach questionable in an educational scenario at this point in time.

Diplomarbeitsposter Vodep Michael

Michael Vodep

Masterstudium Software Engineering & Internet Computing
Abstract:

Das Verhalten von Systemen, welche in einem sicherheitskritischen Systemumfeld die Kollaboration der Benutzer unterstützen, ist meist schwer vorhersehbar. Im Bereich Public-Safety erfolgt die Kollaboration u.a. über ein Einsatzleitsystem. Einsatzleitsysteme dienen in erster Linie zum Informationsaustausch und in weiterer Folge zur Koordination zwischen Disponenten. Neben der hohen Softwarevariabilität (getrieben primär durch funktionale Anforderungen), hat ein Einsatzleitsystem auch viele nicht-funktionale Anforderungen wie u.a. Verfügbarkeit, Skalierbarkeit und niedrige Latenzzeiten. Es ist oft nicht ohne weiteres möglich, Aussagen über die Einhaltung dieser Anforderungen zu treffen. Neben den technischen Aspekten stellt sich auch die Frage nach optimalen Arbeits-Workflows zwischen Notrufern (e.g. verbalen Notrufer), Disponenten und Ressourcen (e.g. Einsatzleiter). Eine Lösung, um das reale Arbeitsumfeld abbilden und dokumentieren zu können, sind Modelle. Modelle können in eine ausführbare Simulation übergeführt werden, um das Verhalten und weitere Eigenschaften des Systems vorhersagen zu können, ohne einen kostspieligen Prototyp bauen zu müssen. Ein Ansatz, um kollaborative Umgebungen abbilden zu können, wurde von Dorn, Dustdar und Osterweil diskutiert. Dabei kamen die Sprachen hADL und LittleJIL zum Einsatz. Ziel der vorliegenden Arbeit ist es, Modelle, welche in hADL und LittleJIL beschrieben wurden, in eine ausführbare Simulation überzuführen. Die Umsetzung erfolgte in mehreren Schritten, da das gewählte Simulationstool nur generische Hilfsmittel zur Simulations-Modellierung zur Verfügung stellt. Es wurden initial Umsetzungsmuster festgelegt, welche Elemente des Ursprungsmodells (Human Architecture Description Language (hADL) und LittleJIL) auf Elemente des Ziel-Modells beschreiben. Das umgesetzte Feature-Set wurde Eingangs priorisiert - im Zuge der Arbeit wurde ein Teil des Sets umgesetzt.

Arbeitsbereich Database and Artificial Intelligence

Diplomarbeitsposter Aleksandrova Alina

Alina Aleksandrova

Masterstudium DDP Computational Logic (Erasmus-Mundus)
Abstract:

Every large company nowadays represents a complex system, containing distributed units interconnected by social relations. Such systems can be modeled using the Multiagent system (MAS) approach. However, in virtually all current approaches to MAS modeling, data and processes are completely isolated. The result is that the model of the system is not in line with the implementation used at execution time, and that the system components, including their social relation, are not properly captured. In particular, in the last decade the commitment-based approach has been extensively studied to model the social relations in a MAS, and consequently to capture business contracts and interactions at a high-level of abstractions. However, to the best of our knowledge, all existing infrastructures and approaches can operate only with propositional commitments, which leads to seriously downgrade their impact and effectiveness. In this thesis, we show how to build MAS that can be specified using a simple declarative language that accounts for both data and processes. We also attack the problem of using propositional commitments and show the necessity of lifting them to first-order commitments. For this purpose, we propose different possible architectures for modeling data-aware, commitmentregulated MAS, and show a concrete implementation that combines the advantages of the standard relational technology with the well-established JADE multiagent infrastructure.

Diplomarbeitsposter Ambroz Thomas

Thomas Ambroz

Masterstudium Software Engineering & Internet Computing
Abstract:

The concept of dynamic programming (DP) on tree decompositions (TDs) has emerged in recent years as an important research field in computer science for solving hard problems efficiently. Since the understanding and improvements of decomposition approaches and DP concepts represent an enormous challenge due to complex algorithms, large amount of data and the hardness of problems, we put the focus on the development of a tool used for the analysis of systems applying DP on TDs. Moreover, recent systems have failed to address the possibility for analyzing the entire dynamic programming process from the instance, over the tree decomposition to the computation that is resulting from the application of specific algorithms on each TD node. In particular, the approach of BDD-based DP on TDs is considered, that combines the concept of DP with the storage of information by means of Binary Decision Diagrams (BDDs). In summary, our attempt is to design and develop a tool for analyzing systems applying BDD-based DP on TDs for solving complex problems. For this purpose we develop DecoVis, a system that provides - beside the visualization of instances, tree decompositions and computations - several possibilities for analyzing DP systems such as statistic report generation, emphasis of particular metadata information or algorithm execution animation. In order to compare various systems applying DP on TDs (dynBDD, D-FLAT, D-FLAT^2 and Sequoia) regarding performance and stability, several benchmark tests are generated and the results are analyzed. The benchmark tests cover the problems 3-Colorability, Stable Extension, Hamiltonian Cycle and Preferred Extensions. Furthermore, we examine the usage of DecoVis in practice by analyzing different behaviors of various options and settings of systems applying BDD-based DP on TDs. Based on specific instances that are selected from results of benchmark tests, we compare different algorithm concepts and variable orders in the BDDs.

Diplomarbeitsposter Hecher Markus

Markus Hecher

Masterstudium Computational Intelligence
Abstract:

Für viele bekannte AI-Probleme wurde bereits gezeigt, dass sie -- bei beschränkter Baumweite (tree-width) -- mit polynomiellen Ressourcen (tractable) lösbar sind. Es wurden diffizile Algorithmen für Baumzerlegungen (tree decompositions, TDs) basierend auf Dynamischer Programmierung (DP) entwickelt, die typischerweise wiederkehrende Muster (zB. Teilmengen-Minimierung) zeigen. Bei der Answer-Set Programmierung (ASP) zB. war oft Saturierung notwendig, um die volle Ausdrucksstärke auszunutzen, was zu entlastenden Ansätzen führte. Diese „Bequemlichkeiten“ gibt es bei der DP noch nicht. Daher wird eine neue Methode vorgestellt, um Algorithmen basierend auf DP für TDs zu vereinfachen; im Speziellen wird dadurch Teilmengen-Minimierung (-Maximierung) automatisch durchgeführt. Diese Methode ermöglicht es beispielsweise, einen SAT-Algorithmus (entscheidet über Existenz einer formelerfüllenden Variablenbelegung einer aussagenlogischen Formel) gemeinsam mit einer einfachen Angabe, worüber optimiert wird, in einen Algorithmus für Teilmengen-minimale Modelle zu verwandeln. Leider verbrauchen optimierende DP-Algorithmen für TDs oft viele Ressourcen. Die neue Methode umgeht dieses Problem dadurch, dass die Berechnung nun in zwei Phasen erfolgt. In Phase eins werden Lösungskandidaten ohne Berücksichtigung des Optimierungskriteriums berechnet; danach werden Kandidaten durch Finden von Gegenbeispielen invalidiert. Neben einer Implementierung dieses Ansatzes -- genannt D-FLAT^2 -- werden Anwendungen gezeigt. Ferner wird ein neuer Algorithmus für die Berechnung von „semi-stable“ Mengen (Abstrakte Argumentation) entwickelt. Ergebnisse zeigen, dass D-FLAT^2 einen großen Vorteil -- im Vergleich zum einphasigen D-FLAT -- mit sich bringt und die Fixed-Paramter-Tractability (FPT) Resultate bezüglich TD mit diesen kompatibel sind. Für viele Probleme tritt die Optimierung annähernd kostenlos auf, d.h. die korrespondierenden Probleme ohne Optimierung brauchen ungefähr die gleichen Ressourcen.

Diplomarbeitsposter Heißenberger Georg

Georg Heißenberger

Masterstudium Computational Intelligence
Abstract:

The main goal of this work is to provide an evaluation system for GRAPPA. This system consists of two parts, namely Answer Set Programming (ASP)-encodings to evaluate GRAPPA- instances and GrappaVis. GrappaVis is a graphical tool to specify GRAPPA-instances, to evaluate them (making use of the ASP-encodings) and visualize the results of the evaluation. Regarding the ASP-encodings, two different approaches are presented, namely the static and dynamic encoding to evaluate GRAPPA-instances. The static approach is the “classical” one, which corresponds to considerations based on data complexity, where one (static) program handles all GRAPPA-instances. On the other hand, the dynamic approach, which corresponds to considerations based on combined complexity, i. e. the encoding is not fixed, but dynamically generated for each GRAPPA-instance. As shown in this work this approach allows to express evaluation methods which are not expressible in the static approach. Finally, performance results for the different ASP-encodings are presented.

Diplomarbeitsposter Jusits Andreas

Andreas Jusits

Masterstudium Software Engineering & Internet Computing
Abstract:

The concept of dynamic programming (DP) on tree decompositions (TDs) has emerged in recent years as an important research field in computer science for solving hard problems efficiently. Since the understanding and improvements of decomposition approaches and DP concepts represent an enormous challenge due to complex algorithms, large amount of data and the hardness of problems, we put the focus on the development of a tool used for the analysis of systems applying DP on TDs. Moreover, recent systems have failed to address the possibility for analyzing the entire dynamic programming process from the instance, over the tree decomposition to the computation that is resulting from the application of specific algorithms on each TD node. In particular, the approach of BDD-based DP on TDs is considered, that combines the concept of DP with the storage of information by means of Binary Decision Diagrams (BDDs). In summary, our attempt is to design and develop a tool for analyzing systems applying BDD-based DP on TDs for solving complex problems. For this purpose we develop DecoVis, a system that provides - beside the visualization of instances, tree decompositions and computations - several possibilities for analyzing DP systems such as statistic report generation, emphasis of particular metadata information or algorithm execution animation. In order to compare various systems applying DP on TDs (dynBDD, D-FLAT, D-FLAT^2 and Sequoia) regarding performance and stability, several benchmark tests are generated and the results are analyzed. The benchmark tests cover the problems 3-Colorability, Stable Extension, Hamiltonian Cycle and Preferred Extensions. Furthermore, we examine the usage of DecoVis in practice by analyzing different behaviors of various options and settings of systems applying BDD-based DP on TDs. Based on specific instances that are selected from results of benchmark tests, we compare different algorithm concepts and variable orders in the BDDs.

Arbeitsbereich Knowledge Based Systems

Diplomarbeitsposter Andresel Medina

Medina Andresel

Masterstudium DDP Computational Logic (Erasmus-Mundus)
Abstract:

Ontologies have been extensively advocated in the last decade as a means to enable a shared understanding of resources between different users and applications. One of their championed applications is Ontology-based Data Access (OBDA), where ontologies mediate access to data sources, providing a high-level conceptual view of the data and making background knowledge available for reasoning at query time. Ontology-mediated query answering(OMQA) is a central problem in OBDA, where most work focuses on providing algorithms for answering queries one-at-a-time. In this thesis, we make a first step towards the interactive exploration of data in the ontology-mediated setting. We introduce a technique to construct an offline compilation that allows for efficiently answering different variations of a family of queries on the online phase, without the need to access the original data source. We consider ontologies formalized using DL-Lite, and focus on conjunctive queries (CQs) that are tree-shaped and have one answer variable. The compilation phase takes as input two queries that bound the information needs of the user from above and below, and then in the online phase, it allows to navigate between all the queries (of the mentioned restricted form) that fall between these two bounds. We also propose algorithms that construct relevant variations of a given query that may help the user analyze the data by, for example, reducing or increasing the number of answers in a minimal way, or identifying common properties of all objects that are in the answer to a given query. The experiments carried out with our prototype implementation reveal an overall good performance of the query-answering procedure and, most importantly, seem to be a promising first step towards flexible ontology-mediated data exploration.

Diplomarbeitsposter Wurl Alexander Maximilian

Alexander Maximilian Wurl

Masterstudium Software Engineering & Internet Computing
Abstract:

The description and monitoring of complex engineering processes is a vital component in the overall execution of large scale engineering projects. In addition to that the just-in time coordination of (human) resources collaborating in the different tasks involved is a challenge in itself that needs to be optimized for the timely completion of the end product. In this presented master thesis we present the modeling of engineering processes by means of a selected modeling language from Business Process Management (BPM) and we further present a proof of concept integrating an approach to automate the coordination of available resources in an optimal fashion into a selected BPM system. Although there are settings for coordinating resources in already existing systems, they are falling short of mechanisms that allow for an automated allocation of resources in one stroke under constraints. As a support for the coordination of (human) resources we employ an approach for the automated allocation of resources from academia based on Answer Set Programming (ASP) that we integrate into a BPM system. In addition to the monitoring of complex engineering processes, the resulting extension allows to generate an automated resource allocation plan for currently available resources - a result that shall minimize errors as well as achieve time and cost savings.

Arbeitsbereich Parallel Computing

Diplomarbeitsposter Gruber Jakob

Jakob Gruber

Masterstudium Software Engineering & Internet Computing
Abstract:

Priority queues are abstract data structures which store a set of key/value pairs and allow efficient access to the item with the minimal (maximal) key. Such queues are an important element in various areas of computer science such as algorithmics (e.g. Dijkstra's shortest path algorithm) and operating system (e.g. priority schedulers). Concurrent priority queues have been extensively researched over the past decades. In recent years, most research within the field has focused on SkipList-based structures, based mainly on the fact that they exhibit very high disjoint access parallelism, i.e., modifications on different elements access disjoint parts of the data structure. Contention between threads and traffic through the cache-coherency protocol can therefore be reduced. Relaxed data structures are a new and promising approach in which quality guarantees are weakened in return for improved scalability. The k-LSM is a concurrent, lock-free, and relaxed priority queue design which aims to improve scalability by 1) using arrays as backing data structures and the standard merge algorithm as its central operation (for high cache locality); and 2) by relaxing semantic guarantees to allow the delete_min operation to return one of the kP minimal (maximal) elements, where P is the number of threads and k is a configuration parameter. During the course of this thesis, we have implemented an improved standalone version of the k-LSM priority queue and explain its design and implementation in detail. We finally evaluate the the k-LSM against other state-of-the-art concurrent priority queues including the Spraylist, the Linden and Jonsson queue, and Rihani, Sanders and Dementiev's Multiqueues.

Institut für ComputersprachenE185

Arbeitsbereich Programmiersprachen und Übersetzer

Diplomarbeitsposter Atesman Necdet Can

Necdet Can Atesman

Masterstudium Software Engineering & Internet Computing
Abstract:

When referring to the quality of 3D graphics engines, the central point of interest is usually computational performance. This very intense occupation with this aspect of such graphics engines leads to the exposure of performance-relevant implementation specifics in the API, to allow performance-aware usage of the product, but limiting the audience to those knowledgeable about the details of graphics engine implementation. Our aim was to evaluate whether the amount of domain knowledge in existing graphics engine APIs was justified; whether it would be possible to reduce the knowledge expected from the user of such APIs without sacrificing too much performance. We have analyzed three different open source graphics engines to identify elements that are less known outside of the graphics development domain. Based on our findings, we have created PURGE, our own high-level API for graphics development, which makes use of other libraries for the actual rendering. We have found that the performance impact of the added software layer was not notice- able during the development of simple test scenes, which we assume to be the prior concern of developers who are starting graphics development for the first time.

Arbeitsbereich Theoretische Informatik und Logik

Diplomarbeitsposter Alani Russol

Russol Alani

Masterstudium Informatikmanagement
Abstract:

In der Literatur gibt es nur wenige empirische Untersuchungen, die sich mit dieser Fragestel-lung beschäftigen. Es wird meist lediglich sehr oberflächlich auf manche soziale Eigenschaften hingewiesen, die für einen Testmanager von Vorteil sein könnten. Auch die angeführten Fortbildungskonzepte beschränken sich meist auf den fachlichen und methodischen Bereich. Um mehr Erkenntnisse über diesen Bereich zu gewinnen, wurden mittels halbstrukturierter Leitfadeninterviews Experten und Expertinnen aus dem Testmanagement ausführlich zu diesem Themenbereich befragt. Ein weiterer Schwerpunkt der Interviews war die Ermittlung von Ausbildungsprofilen für die Tätigkeit eines Testmanagers in größeren IT-Projekten. Basierend auf den durchgeführten Interviews werden Soft Skills identifiziert, denen eine sehr wichtige Rolle für einen erfolgreichen Projektverlauf zugeschrieben wird. Dazu zählen in erster Linie kommunikative Fähigkeiten, Teamfähigkeit, Führungsqualitäten, Durchsetzungsvermögen, Verlässlichkeit, Motivationsfähigkeit, Verantwortungsbewusstsein, Lernbereitschaft und Ausdauer. Die Befragung hat darüber hinaus gezeigt, dass die befragten Experten der Ansicht sind, dass neben einer fachlichen und methodischen Ausbildung verstärkt auch Schulungen von sozialen Kompetenzen angeboten werden sollten, um die Fähigkeiten in diesem Bereich zu stärken. Bei den klassischen Ausbildungsprofilen werden bisher die Bereiche Testmethoden, Softwareent-wicklungsmethoden, Requirement Management, Prozesse und Testautomatisierung sowie Zertifizierungen wie International Software Testing Qualifications Board (ISTQB), International Requirements Engineering Board (IREB) oder Certified Agile Tester (CAT) in den Mittelpunkt gestellt. Die im Rahmen der vorliegenden Arbeit gewonnenen Erkenntnisse zu den fachlichen und methodischen Voraussetzungen werden als Basis für die Beschreibung von umfassenden Ausbildungskonzepten für Testmanager herangezogen.

Diplomarbeitsposter Blumberger Stefan

Stefan Blumberger

Masterstudium Medizinische Informatik
Abstract:

Die Erzeugung von 3D-Objekten mittels 3D-Scannersystemen hat in den letzten Jahren stark zugenommen. Durch intensive Forschung und weiterentwickelte Methoden wurden neue Systeme entwickelt. Dies betrifft unterschiedliche Bereiche wie die medizinische Bildgebung, Qualitätssicherung, virtuelle Realitäten, Konzeptplanungen, Prototyperstellung und viele weitere. Diese Systeme sind meist teuer und stehen nicht im Verhältnis zu dem Nutzen für den privaten Benutzer. Außerdem sind sie meist kompliziert und benötigen einen hohen Einschulungsaufwand. Jedoch wird die Technologie der 3D- Scanner durch einfachere und kostengünstigere neue Systeme auch im privaten Bereich zunehmender attraktiver. Diese Arbeit zeigt einen Lösungsvorschlag für die Umsetzung eines einfachen, robusten, günstigen, auf Open-Source basierenden und einfach nachzubauenden Prototypens. Der dabei verwendete Prototyp wird um die Technologie des Infrarots erweitert. So wird eine bessere Abtastung bei Farbüberlagerungen des Objektes mit dem Laser erreicht. Das System wird für das Scannen von Knochenoberflächen bzw. Knochenfrakturen eingesetzt. Der entwickelte Prototyp zeigt sich bei der abschließenden Evaluierung als eine sehr gute Alternative zu kommerziell erhältlichen Produkten. Er ist stabil, benutzerfreundlich, basiert auf Open Source-Technologien und erzielt vielversprechende Ergebnisse hinsichtlich Scan-Dauer und Detailschärfe. Die Umsetzung des Infrarots zeigt eine enorme Verbesserung bei der Fehleranfälligkeit gegenüber äußeren Einflüssen und der Farbüberlagerung des Lasers mit der Oberfläche des Objektes. Neben diesen Vorteilen bietet der Prototyp allerdings noch Potential für Verbesserungen, die im Ausblick diskutiert werden.

Diplomarbeitsposter Deissenberger Walter

Walter Deissenberger

Masterstudium Informatikmanagement
Abstract:

Im zunehmenden Maße ist angewandte Informatik Teil der neuen Methoden und Techniken im Weinbau, in Önologie und in der Weinwirtschaft, sei es mit Standardprogrammen zur Betriebsführung, Applikationen im Internet, Datenspeicherung und -übertragung oder Prozesssteuerung. Um in diesem Umfeld erfolgreich zu sein, ist eine solide Ausbildung unumgänglich, die die aktuellen Entwicklungen abdeckt und das notwendige theoretische und praktische Wissen vermittelt. In der Diplomarbeit wird für den Informatikunterricht erhoben, welches Informatikwissen Schulabgänger oder Fachhochschul- bzw. Universitätsabsolventinnen oder -absolventen erworben haben. Es werden die Curricula der wichtigsten Bildungsstätten in Österreich analysiert, die eine branchenspezifische Ausbildung anbieten. Das Ergebnis der Untersuchung zeigt auf, inwieweit der Informatikunterricht an berufsbildenden mittleren und höheren Schulen, Fachhochschulen und Universitäten den Anforderungen der in der Praxis angewandten Informatik in Weinbau, Önologie und Weinwirtschaft entspricht.

Diplomarbeitsposter Görlich Gerhard

Gerhard Görlich

Masterstudium Informatikmanagement
Abstract:

This thesis explores how a combination of agile methods, open-ended design and the integration of students on different educational levels can circumvent the limitations of common student projects in software engineering (SE) education and thus contribute to a richer learning experience. Student projects in SE education typically have a very reduced scope ("toy projects"), are limited to short periods and address a homogeneous group of students. The combination of the investigated factors constitutes a rather unique case. It was expected that these additional complexities require unique approaches in project management and that results show benefits in terms of learning opportunities and motivation. A case study with two projects that were part of the "Assisting Airports" (ASAP) program at the Vienna University of Technology was conducted to verify these assumptions. Data was collected applying participant observation, semi-structured interviews and an analysis of the artefacts created during software development. The results showed that synergies on various levels emerged: in long running complex projects the need for exploration tasks ("Spikes") rises, which turned out to be better suited for more advanced students, while less advanced students profited by getting to know more complex technical and organisational patterns. The application of agile methods helped in the organisation of these larger projects, but also fostered the communication among the vertically integrated teams. It was shown that most soft skills relevant for software engineers could be promoted with the examined project setup. In addition, most intrinsic motivational factors of professional SE projects contained in the MOCC-model for SE motivation could be found in the examined projects. The examination of extrinsic and external factors however showed the demand for a model of motivation tailored to the context of SE education.

Diplomarbeitsposter Komarek Alexander

Alexander Komarek

Masterstudium Medieninformatik
Abstract:

Diese Arbeit untersucht Vorgehensmodelle, Vorgehensweisen und Praktiken aus dem Game Development, die eine erfolgreiche Software-Projektabwicklung erlauben. Ziel ist die Erarbeitung eines Best Practice-Konzepts, um ein allgemein gültiges Orientierungswerkzeug zu entwickeln. Die methodische Vorgehensweise zur Bearbeitung der Fragestellung basiert auf qualitativen Interviews mit Experten mit mehrjähriger Erfahrung im Game Development, welche auch Projektverantwortung tragen und somit eine breite Einsicht in die jeweiligen Entwicklungsprozesse haben. Aus den Fallbeispielen wurden erfolgreiche Entwicklungspraktiken extrahiert und in einem Best Practice-Konzept zusammengeführt. Das Ergebnis dieser Arbeit vereint praxiserprobte Vorgehensweisen und Praktiken aus dem Game Development und stellt diese in Form eines Richtlinienkatalogs dar. Aus den Fallbeispielen konnte kein konkretes Vorgehensmodell als Best Practice-Modell extrahiert werden. Die durchgeführte Analyse zeigt, dass sich projektverantwortliche Personen stark an agilen Modellen (allen voran Scrum) orientieren, diese werden jedoch an die eigenen firmen- und projektkontextuellen Rahmenbedingungen angepasst. Diese Anpassungen manifestieren sich in der Praxis in verschiedenen Ausprägungen, die in Form von 12 Richtlinien im Rahmen des Konzepts dargestellt sind. Die Richtlinien enthalten untergeordnete Elemente, die additiv nutzbare Umsetzungsvarianten einer Richtlinie aufzeigen. Das Best Practice-Konzept deckt verschiedene Entwicklungsbereiche aus dem Game Development ab. Die Richtlinien lassen sich hinsichtlich ihrer inhaltlichen Schwerpunkte wie folgt gruppieren: Präproduktion und Dokumentation, Iterative Entwicklung, Prototypen, Kommunikation, Qualitätskontrolle. Da eine allgemeine Gültigkeit des Richtlinienkatalogs angestrebt wurde, dient das vorliegende Ergebnis der Arbeit als geeignete Ausgangsbasis für weiterführende Forschungen ausgewählter Teilbereiche.

Diplomarbeitsposter Melcher Helmuth

Helmuth Melcher

Intelligente Systeme
Abstract:

Turnier-Poker ist ein beliebtes stochastisches Spiel mit imperfekter Information. Das Spiel bewegt sich abhängig von den Aktionen der Spieler zufällig in einer Menge von Turnierzuständen. Heuristische Equity Modelle sind ein häufig genutztes Werkzeug um die erwarteten Auszahlungen der Spieler für einen gewählten Turnierzustand anhand der Chipstände zu approximieren. Trotz der Beliebtheit dieser Modelle, und einer Auswahl von dedizierter Software um sie auf Spielsituationen anzuwenden, gibt es kaum öffentlich verfügbare Evaluierungen der verwendeten Methoden. Als Teil dieser Arbeit wird durch Anwendung von aktuellen Techniken zur Lösung von Spielen mit imperfekter Information ein Epsilon-Nash Gleichgewicht für eine umfangreiche Abstraktion eines Poker-Turnierspiels berechnet. Die Auszahlungswerte und Strategien dieser Lösung werden im Folgenden als Referenz verwendet, um die Genauigkeit der heuristischen Equity Modelle zu untersuchen. Die bereits bekannte Tendenz des Malmuth-Harville Standardmodells zur Unterschätzung der Auszahlungen für Spieler mit großen Chipständen wird als Teil dieser Evaluierung bestätigt, und wird von dem neueren Roberts Modell in einem geringeren Ausmaß geteilt. Von einer der zugrunde liegenden Annahmen der untersuchten Heuristiken, die Gewinnwahrscheinlichkeiten der Spieler wären proportional zu ihren Chipständen, wurden in der berechneten Spielabstraktion bemerkenswerte Abweichungen gefunden. Für die ebenfalls betrachtete Suchtechnik Future Game Simulation (FGS) konnte eine deutliche Verbesserung gegenüber den Standardmodellen festgestellt werden.

Diplomarbeitsposter Niszl Michael

Michael Niszl

Masterstudium Medizinische Informatik
Abstract:

Smartphones have not only become indispensable in people's lives - they are also progressing into valuable assets in the medical sector. This thesis focuses on the design and implementation of a cryptographic concept for secure storage and transmission of medical images. The used reference application is part of a medical skin imaging and analysis software, which is employed during clinical trials, targeting patients suffering from radiation induced dermatitis. The goal of this thesis is to create an encryption architecture, which protects data even if the native security features are broken. At first, laws and medical guidelines are reviewed and security ground rules are derived. Then the iOS security mechanisms and best practice methods are evaluated. As a next step, a threat model is created and the gained knowledge is used to design the encryption architecture. After the implementation of the concept, the prototype is analyzed. The analysis showed that the majority of the OS security mechanisms can be bypassed with elevated privileges. Only the iOS Data Protection mechanism could not be bypassed on the passcode locked device. The raised privileges also allowed the interception of the network traffic. Due to the implemented security layer, the sent data was still encrypted. Even method calls can be traced on a jailbroken device, which allowed the recording of the password. Recent aspirations to legally bypass encryption mechanisms fortify the results that OS security mechanisms are not sufficient. It is also not recommended to solely rely on specifications required by law or guidelines. State of the art methods need to be utilized, evaluated and updated on a regular basis to provide an adequate level of security. Mobile Device Management systems are a valuable asset to detect runtime manipulation. An additional layer of security, utilizing state of the art cryptography, and components securing the runtime are crucial for the safety of sensitive medical data.

Institut für Computergraphik und AlgorithmenE186

Arbeitsbereich Algorithms and Complexity

Diplomarbeitsposter Bonigl Bernhard

Bernhard Bonigl

Masterstudium Software Engineering & Internet Computing
Abstract:

Das K-stufige 2-dimensionale Zuschnittproblem mit variabler Plattengröße (K-2CSV) ist ein häufig in der Industrie auftretendes Problem. Oftmals sollen rechteckige Elemente aus großen Platten oder Blättern herausgeschnitten werden. Die NP-harte Natur dieses Problems macht es schwer ein gutes Schnittmuster zu finden das möglichst wenig Ausschuss produziert. Der historische Ansatz ist mittels Dynamic Programming ein optimales Muster zu finden. Später wurde diese Vorgehensweise durch Branch-and-Bound und heuristische Ansätze ergänzt. In dieser Arbeit entwickeln wir einen bottom-up Branch-and-Bound Ansatz welcher ein optimales Schnittmuster für eine einzelne Platte aus dem Bestand berechnet. Während ein top-down Ansatz die Platte Schritt für Schritt in kleinere Rechtecke unterteilt um letztendlich an die geforderten Elemente zu gelangen, kombiniert ein bottom-up Ansatz Elemente und Kombinationen von Elementen um sein Ziel zu erreichen. Dieser Prozess wird um ein generelles Framework erweitert um es in die Implementierung der Algorithms and Complexity Group der TU Wien zu integrieren. Das Framework erlaubt das Lösen von Probleminstanzen die mehrere Platten benötigen indem es den Algorithmus auf jede Platte einzeln anwendet. Anschließend verbessern wir die Leistung des Algorithmus indem wir bessere Schranken finden und den Suchraum durch Erkennung von dominierten oder doppelten Mustern einschränken. Zu guter Letzt wird der Algorithmus in verschiedenen Konfigurationen auf Probleminstanzen aus der Literatur angewandt um an rechnerische Ergebnisse zu gelangen.

Diplomarbeitsposter Leberl Franz

Franz Leberl

Masterstudium Computational Intelligence
Abstract:

Several industrial applications exist for packing non overlapping objects, called elements, into larger objects, called bins, such that the total number of used bins is minimal. Examples are wood, metal and glass industries, where the customers' orders must be cut from larger pieces of stock material. Assuming both elements and bins are rectangular, the problem is called the 2-dimensional bin packing problem (2BP) or cutting stock problem (2CS), both of which are NP-hard. Only guillotine cuts are allowed, which are orthogonal cuts from one side to another. This leads to a further specification of the 2CS, which is the number of stages it allows, denoted by K. A stage is a series of parallel cuts. The aim of this thesis is to present an efficient implementation of a new strip-based column generation approach for the 2-staged and 3-staged 2CS with guillotine cuts.\\ The Stage Shifted Column Generation (SSCG) is presented, which entails both definitions for the master problem and the relevant pricing problems. The master problem is formulated as a set covering problem, while the pricing problems are variants of knapsack problems. For K=2, EDUK is an efficient implementation for the unbounded knapsack problem, while a new algorithm is developed for the bounded knapsack problem, called BKP-Generator. It essentially processes the entire knapsack element by element. For K=3, BKP-Generator is adapted, and called DP-Generator. Two heuristic algorithms are also presented, which rely on randomizing DP-Generator. Finally, an integrality heuristic is introduced, as the master problem offers possibly fractional results. The different pricing problems are experimentally tested and compared to an insertion heuristic and a dynamic programming implementation. The results show good LP relaxed solutions, and integral results are competitive with previous implementations.

Diplomarbeitsposter Schwab Carina

Carina Schwab

Masterstudium Computational Intelligence
Abstract:

Diese Masterarbeit befasst sich mit dem Problem eine Mehrzahl an Objekten in einem diskreten 2D Raum zu platzieren. Ein Beispiel eines realen Problems dieser Art ist das Platzieren von Ausstellungsstücken in einem Museum. Vergangene Studien diverser Autoren zeigten, dass das Verhalten von Menschen in Räumen mit der Zirkularität – auch Kompaktheit – von ihrem Sichtfeld zusammen hängt. Dieses Maß beschreibt die Form des Raumes der von einem bestimmten Punkt aus gesehen werden kann. Im Rahmen dieser Arbeit wurde ein evolutionärer Algorithmus (EA) entwickelt, der definierte Objekte abhängig von der Kompaktheit des freibleibenden Raumes platziert. Der EA verwendet verschiedene Zielfunktionen um die Kompaktheit global oder lokal entweder zu minimieren oder zu maximieren. Mehrere Testreihen wurden ausgeführt um den Einfluss der Parameter des Algorithmus auf seine Effizienz zu untersuchen. Die Lösungen die der EA produziert zeigen dass sich bestimmte Muster für unterschiedliche Zielfunktionen entwickeln. Basierend auf diesen Ergebnissen wurde eine schnellere konstruierende Heuristik entwickelt, die mehrere unterschiedliche Lösungen für einfache Platzierungsprobleme in kurzer Zeit berechnen kann. Im EA wurde eine Version des Shadow Casting Algorithmus verwendet um das Sichtfeld für einen Punkt zu berechnen. Die Heuristik erweitert diesen Algorithmus um das Platzieren von Objekten während dem Durchlaufen des Sichtfeldes. Die Objekte werden so platziert, dass voreingestellte Punkte eine hohe Kompaktheit aufweisen und die präsentierten Lösungen dem Architekt als Inspiration dienen.

Arbeitsbereich Computergraphik

Diplomarbeitsposter Hafner Christian

Christian Hafner

Masterstudium Visual Computing
Abstract:

Diese Arbeit befasst sich mit der Synthese von drei-dimensionalen Geometrien, deren natürliches Frequenzspektrum die gewünschte Zielfrequenz enthält und deren Erscheinungsbild dem beabsichtigten Entwurf ähnelt. Wir schlagen drei Methoden zur Parametrisierung von Geometrien vor, welche sinnvolle Freiheitsgrade zur Konstruktion von Musikinstrumenten wie Marimba und Glocken gewähren. Die Formfamilie, auf welcher der Optimierungsalgorithmus arbeitet, basiert auf der Repräsentation eines Körpers als das Volumen zwischen einer Außenfläche und einer inneren Versatzfläche. Die Evaluierung des Frequenzspektrums eines gegebenen Körpers wird mithilfe der Finite-Elemente-Methode vorgenommen. Zu diesem Zweck werden verschiedene Elementtypen erklärt und deren Eignung für die vorliegende Aufgabe analysiert. Zur Herstellung eines optimierten Körpers stellen wir eine Fabrikationsmethode vor, welche es Amateurhandwerkern ermöglicht, mithilfe von Sand- oder Kautschukformen Zinninstrumente herzustellen. Die Effizienz dieser Methode wird an den Beispielen einer simplen Zinnglocke und einer komplexeren Glocke in Form eines Hasen demonstriert. Die Tonhöhe der Glocken stimmt mit der von dem Finite-Element-Modell prognostizierten Frequenz mit einer Abweichung von 2,8% bzw. 6% überein. Wir ergänzen diese Resultate mit einer Reihe von rechentechnischen Ergebnissen, welche die Optimierung von Obertonfrequenzverhältnissen sowie den Einflussgrad von Netzauflösung und Geometrieglätte auf die Genaugikeit des Berechnungsmodells erforschen.

Diplomarbeitsposter Klein Tobias

Tobias Klein

Masterstudium Visual Computing
Abstract:

The utilization of GPUs and the massively parallel computing paradigm have become increasingly prominent in many research domains. Recent developments of platforms, such as OpenCL and CUDA, enable the usage of heterogeneous parallel computing in a wide-spread field. However, the efficient utilization of parallel hardware requires profound knowledge of parallel programming and the hardware itself. Our approach presents a domain-specific language that facilitates fast prototyping of parallel programs, and a visual explorer which reveals their execution behavior. With the aid of our visualizations, interactions with the hardware become visible, supporting the comprehensibility of the program and its utilization of the hardware components. Furthermore, we aggregate behavior that leads to common issues in parallel programming and present it in a clearly structured view to the user. We augment the standard methods for debugging and profiling by a visual approach that enables a more problem-specific, fine-grained way of analyzing parallel code. Our framework parses all program code and user-specified annotations in order to enable automatic, yet configurable code instrumentation. The resulting recordings are directly linked to interactive visualizations created with the well-known D3 (data-driven documents) framework. To demonstrate our approach, we present two case studies about the visual analysis of memory bank conflicts and branch divergence. They investigate different parallel reduction implementations and a common image processing example (all from the NVIDIA OpenCL SDK). We show that our visualizations provide immediate visual insight in the execution behavior of the program and that the performance influence of the implementations is directly reflected visually

Diplomarbeitsposter Kriegisch Adi

Adi Kriegisch

Masterstudium Informatikmanagement
Abstract:

Diese Arbeit versucht, aus den vielen nützlichen Werkzeugen, um eine IT Infrastruktur zu verwalten und zu überwachen, einige auszuwählen und zusammen mit XMPP, mit seinen vielfältigen Protokollerweiterungen und seinen ausgeprägten Sicherheitsmechanismen, als Nachrichtensystem zu verbinden. Der Fokus für ein derartiges System liegt auf kleineren und mittleren Netzwerken, die sehr oft keinerlei Überwachungs- und Verwaltungslösungen einsetzen. Statt dessen wird SMTP für Benachrichtungen über den Systemzustand verwenden und Verwaltungsaufgaben werden manuell oder mit einfachen Skripten für wiederkehrende Aufgaben erledigt. Eine Auswahl an Werkzeugen zur Systemüberwachung wird getroffen und für die Verwendung mit XMPP adaptiert. Wo immer es sinnvoll ist, werden anfallende Informationen automatisch aggregiert, ausgewertet und gespeichert. Das stellt sicher, dass ausreichend Information zum Lösen von Problemen vorhanden ist und gleichzeitig die Systemadministration nicht mit einer Flut an nicht direkt verwendbaren Information überlastet wird. Weiters werden einige Aspekte von Systemüberwachung und Verwaltung detailierter behandelt: das Aggregieren von Systemmeldungen zu Ereignissen, das Sammeln von Performancedaten und die Möglichkeit, Aufgaben zu verteilen und auszuführen. Letzteres erfordert, dass einfache Schnittstellen für Systemadministratoren existieren, um ihre Aufgaben innerhalb des Systems abzubilden. Das entstandene Instrumentarium versteht sich selbst nicht als eine vollständige Lösung, die einfach ``das Richtige'' tut, sondern eher als Versuch, eine Musterlösung für den sicheren und zuverlässigen Einsatz von XMPP als Nachrichtensystem für die Systemverwaltung und Überwachung zu etablieren. Weiters wird eine Reihe nützlicher Rezepte für die Verwendung und Erweiterung zur Verfügung gestellt.

Diplomarbeitsposter Labschütz Matthias

Matthias Labschütz

Masterstudium Visual Computing
Abstract:

Der Umgang mit großen, spärlich besetzten Volumen-Daten auf der Graphikkarte ist in vielen Applikationen notwendig, wie beispielsweise im Volumen-Rendering, in der Datenverarbeitung oder bei Simulationen. In vorhergehenden Publikationen wurde dafür eine Vielzahl von Datenstrukturen mit unterschiedlichen Eigenschaften verwendet. Unserer Beobachtung nach besitzen Datensätze oft Regionen mit unterschiedlicher Dichte. Entsprechend der Dichte einer Region hat eine unterschiedliche Datenstruktur, beispielsweise ein Octree oder eine Liste von Voxeln, den geringsten Speicherverbrauch. Wir präsentieren einen Algorithmus, der diese speicheroptimale Repräsentation automatisch finden kann. Für realitätsnahe Datensätze besitzt so eine Kombination von unterschiedlichen Datenstrukturen einen geringeren Speicher-Verbrauch als jede einzelne Datenstruktur für sich. Wir nennen diese Datenstruktur hybride Datenstruktur. Jede effiziente Datenstruktur für spärlich besetzte Daten erzeugt einen Zugriffs-Mehraufwand. Beispielsweise braucht ein Octree eine weitere Dereferenzierung pro Höhenstufe des Baumes. Eine Liste von Voxeln muss erst durchsucht werden, um ein bestimmtes Element zurückzuliefern. Beim Verwenden einer hybriden Datenstruktur wird die Zugriffszeit ebenfalls verringert. Das entsteht einerseits dadurch, dass man nun statt Arrays beispielsweise Octrees oder Listen von Voxeln verwendet, und andererseits verringert auch die Realisierung einer hybrid Datenstruktur die Zugriffszeit. Um die Zugriffszeit zu erhöhen, stellen wir erstmals JiTTree vor. JiTTree erzeugt zur Laufzeit des Programmes datenspezifischen Programmcode, der verwendet wird um auf unsere Datenstruktur mit höherer Performanz zuzugreifen. Es zeigt sich, dass diese hybride Datenstruktur spärlich besetzte Datensätze effizient speichern kann. Außerdem kann JiTTree die Zugriffszeit für bestimmte Zugriffsmuster, beispielsweise das Stencil-Zugriffsmuster, verbessern.

Diplomarbeitsposter Leimer Kurt

Kurt Leimer

Masterstudium Visual Computing
Abstract:

Dank täglich wachsender Online-Datenbanken für 3D Models eröffnen sich sowohl für erfahrene, als auch für unerfahrene Benutzer neue Möglichkeiten zur Erstellung von neuen Inhalten. Eine solche Möglichkeit ist die Erstellung von neuen Formen durch das Kombinieren von Teilen bereits existierender Formen. Zu den Vorteilen dieser Methode der Formsynthese gehören einerseits, dass sie weniger Zeit beansprucht als herkömmliche Modeling Methoden, andererseits, dass sie ebenfalls von unerfahrenen Benutzern verwendet werden kann. Diese Diplomarbeit präsentiert ein Grundgerüst für diesen Typ der Formsynthese, das aus 4 Schritten besteht und eine neue Art der Parametrisierung und Erkundung von Formkollektionen beinhaltet. Mithilfe einer modularen und erweiterbaren Vorgehensweise werden im Co-Analyse-Schritt Teile von Formen basierend auf ihrer Funktion zu Kategorien gruppiert und dadurch eine Korrespondenz zwischen Teilen verschiedener Formen erstellt. Indem Relationen zwischen Teilen und die Art und Weise, wie deren räumliche Verteilungen innerhalb der Kollektion variieren, anaylsiert werden, kann im Parametrisierungs-Schritt eine kleine Anzahl an Parametern gefunden werden. Beginnend mit einer existierenden Form als Startpunkt können diese Parameter im Erkundungs-Schritt dazu genutzt werden, die Kollektion zu durchsuchen, entweder indem die Parameter direkt geändert werden, oder durch Interaktion mit der Form selbst. Schließlich können im Formsynthese-Schritt neue Formen erstellt werden, indem Teile der Start-Form durch korrespondierende Teile von anderen Formen ausgetauscht werden, die während der Erkundung gefunden wurden.

Diplomarbeitsposter Meindl Lukas

Lukas Meindl

Masterstudium Visual Computing
Abstract:

In this thesis we discuss omnidirectional stereo (omnistereo) rendering of virtual environments. Object warping has been proposed as a solution for rendering omnistereo projections for the CAVE artefact-free technique to render omnistereo images for the CAVE. However, rendering large polygons with this techniques induces artefacts in the image due to the non-linear perspective, which are described and illustrated in this work. A solution to the problem is provided, which involves preceding the object warping with a screen-space adaptive tessellation step. A frame-rate comparison between the rendering techniques is given. Finally, we suggest a technique for efficiently rendering omnistereo skyboxes using a pre-tessellated full-screen quad.

Institut für Gestaltungs- und WirkungsforschungE187

Arbeitsbereich Multidisciplinary Design

Diplomarbeitsposter Kropatschek Martin

Martin Kropatschek

Masterstudium Informatikmanagement
Abstract:

Within the last few years Austria’s secondary schools have faced a new trend: The replacement of the class register by the electronic class register. Compared to other areas of the digital era, this development has occurred with a noticeable delay. A reason for this fact is that schools often cannot use the technical devices in a meanigful way, since they lack a (structural) IT basic equipment. This is due to the fact that electronic class registers usually focus on desktop computers as preferred display devices, and therefore a permanent internet connection is required. Although there already exist apps for operating systems, such as iOS and Android, allowing smartphones and tablets to view and partially use the system, it must be said, however, that the range of functions of the apps are very restricted compared to the web-version. The majority of schools already happen to have internet connection, but even so, that does not guarantee that each classroom is able to connect an electronic device to the internet. The first aim of this master thesis is to discuss the functional requirements of the school community ( that is: teachers, students, and legal guardians) towards a modern electronic class register. For doing so user centered design methods were used. Subsequent to the findings of the research, a prototype has been developed, which can be used likewise with all web-enabled devices, regardless of their display size. This prototype has been implemented via a Responsive Web Design. Finally, the prototype is being tested according to its usability and the results of the testing are analyzed and discussed in this paper.

Arbeitsbereich Human Computer Interaction

Diplomarbeitsposter Adamer Jasmin

Jasmin Adamer

Masterstudium Informatikmanagement
Abstract:

Für Kinder deren Muttersprache nicht Deutsch ist, ist es oftmals schwierig die deutsche Sprache zu erlernen. Aus wissenschaftlicher Sicht konnte bewiesen werden, dass die Erlernung der Sprachwahrnehmung noch vor der Erlernung der eigentlichen Fremdsprache sinnvoll ist (Adaktylos & Madelska, Mehrsprachige Kinder: Sprachliche Vorbereitung auf das Lesen- und Schreibenlernen im Deutschen, 2011). Aufgrund des rasant wachsenden Markts im Bereich des E-Learning und der großen Auswahl an Multimedia Elementen, welche unter anderem das Abspielen von Tonaufnahmen ermöglichen, erscheint es der Autorin sinnvoll eine Lernsoftware mit Fokus auf die Sprachwahrnehmung zu erstellen. Die zentralen Fragen die sich dabei stellen sind, wie soll eine solche Lernsoftware aussehen und was muss beachtet werden? Auf der einen Seite müssen die wissenschaftlichen Erkenntnisse zur Sprachwahrnehmung eingebaut werden. Dazu wurde Frau Anna-Maria Adaktylos vom Institut für Sprachwissenschaft der Universität Wien (Sprachwissenschaft, 2015) eingebunden, von welcher auch die Idee für das Spiel und somit die entsprechenden Anforderungen stammen. Zusätzlich existiert auch eine Reihe an Designrichtlinien zur Erstellung von E-Learning Software, welche ebenfalls berücksichtigt werden sollen. Um das Ziel zu erreichen wurden einerseits die Anforderungen von Frau Anna-Maria Adaktylos genauestens diskutiert, andererseits wurde auch eine Literaturrecherche zu den gängigsten Designprinzipien durchgeführt. Basierend auf diesen Erkenntnissen wurde die Lernsoftware mit allen notwendigen Funktionalitäten entworfen. Zu guter Letzt erfolgte die Implementierung dieser. Durch die Diplomarbeit ist eine Lernsoftware entstanden, welche von Kindern verwendet werden kann, um die deutsche Sprachwahrnehmung zu erlernen. Es steht ein Prototyp mit allen Grundfunktionen zur Verfügung, welcher von anderen Personen jederzeit weiterentwickelt werden kann. Das Spiel hält sich an erprobte Leitfäden und Richtlinien.

Diplomarbeitsposter Brandmüller Mario

Mario Brandmüller

Masterstudium Informatikmanagement
Abstract:

Smartphones stellen für heranwachsende Kinder und Jugendliche einen wichtigen Teil ihres Lebens dar. Wenn sie ihrem gewohnten Verhalten mit digitalen Medien auch in der Schule nachgehen wollen kann dies zu Problemen führen, da innerhalb der meist relativ starren Unterrichtsstrukturen oft kein Platz für die Benutzung von mobilen Endgeräten ist. Vielmehr werden sie als Ablenkung oder Störung empfunden, weshalb die Diskussion entbrannt ist, ob es nicht besser wäre sie komplett aus der Schule zu verbannen. Vor allem für Unterrichtsgegenstände, die von einem Großteil der Lernenden als eher langweilig, uninteressant oder überfordernd wahrgenommen wird, kann der Einsatz von Serious Games einen positiven Zugang zu den zu vermittelnden Inhalten schaffen. Um sowohl die vorhandenen mobilen Geräte der Schülerinnen und Schüler sinnvoll in den Unterricht zu integrieren, als auch das Interesse an einem Themengebiet der Mathematik zu wecken wird eine digitale Lernmethode kreiert, die einen Einblick in die Welt der Routenprobleme und -optimierung gibt. Diese entwickelte mobile Android Applikation signalisiert anhand der gemessenen GPS-Daten der Smartphones die Bewegungen, die im Rahmen der Aufgabenstellungen durchgeführt werden und bietet mit der Anzeige der berechneten zurückgelegten Distanz zudem die Möglichkeit in Konkurrenz mit anderen Mitschülern zu treten. Neben der Vermittlung praktischer Fähigkeiten sind im Rahmen von freizuspielenden Levels auch Lernfragen zu beantworten. Mit der Gegenüberstellung der aufgenommenen Kenntnisse und Fähigkeiten im Bereich der Routenplanung vor und nach einer einwöchigen Testphase wird gezeigt, dass sich das Verständnis für das Hamiltonpfadproblem und das Travelling-Salesman-Problem durch Anwendung der mobilen Applikation zu verbessern scheint. Es bietet sich somit an die mobile Applikation im Rahmen des Unterrichts als "Opener" für die Thematik zu benutzen oder als Belohnung für das Erfüllen zuvor gestellter Aufgaben.

Diplomarbeitsposter Cap Thomas

Thomas Cap

Masterstudium Informatikmanagement
Abstract:

Eine der größeren Herausforderungen für viele, die sich zum ersten Mal mit Themen der Informatik beschäftigen, ist es oft, ein Verständnis für die Grundlagen des Programmierens zu entwickeln. Die vorliegende Arbeit möchte daher vor allem jenen, die mit Computernutzung und / oder Programmierkonzepten noch wenig bis gar nichts zu tun hatten, einen leichteren Einstieg in die Materie zu erlauben. Verarbeitung und Präsentation erfolgen dabei zwar computergestützt, die Benutzer und Benutzerinnen selbst müssen aber niemals zu einer Maus oder Tastatur greifen, sondern arbeiten ausschließlich mit vorbedruckten Karten, die einfache (Programmier-)Statements enthalten. Diese werden entsprechend den “Spielregeln” aufgelegt und anschließend mit einem Mobilgerät auf Android-Basis fotografiert. Das so entstehende „Programm“ wird ausgeführt und das Ergebnis auf dem verbauten oder einem externen Display dargestellt. Durch Wegfall der wirtschaftlichen und/oder in manchen Fällen vielleicht sogar psychologischen Hürde „PC“ wird erwartet, dass einem deutlich breiteren Zielpublikum die Grundlagen des Programmierens näher gebracht werden können. Erleichtert wird dies auch durch den teilweise sehr spielerischeren Ansatz (Stichwort: Gamification). Außerdem kann man das Lösen von einfachen Programmierbeispielen auf diesem Weg leicht zur Gruppenaufgabe machen – ein weiterer Aspekt, der bei Einzelarbeit am PC nicht leicht umzusetzen wäre. Trotzdem versteht sich dieser Ansatz nicht als Ersatz für traditionellen Programmierunterricht. Er kann allerdings eine sinnvolle Ergänzung darstellen, um Einstiegshürden abzubauen. Besonders jüngere Zielgruppen und Informatik-„Quereinsteiger“ können mit dieser Lösung vielleicht besser erreicht werden, als mit bisherigen Ansätzen, welche die Nutzer teilweise in das sprichwörtliche kalte Wasser stoßen.

Diplomarbeitsposter Dizdarevic Damir

Damir Dizdarevic

Masterstudium Medieninformatik
Abstract:

Diese Arbeit nimmt die Entwicklungen und Spannungsfelder im Bereich des urbanen Lebens als Ausgangspunkt für einen explorativen Designprozess. Die verstärkte Urbanisierung, die Privatisierung und Kommerzialisierung von öffentlichen Räumen und das Aufkommen der sogenannten Sharing Economy stellen gesellschaftliches Zusammenleben vor neue Aufgaben und machen neue Methoden der öffentlichen Partizipation notwendig. Ziel dieser Arbeit war es ein System zu konzipieren, dass stärkere Interaktion zwischen Menschen in Ballungsräumen fördert, den öffentlichen Raum wiederbelegt und somit, als übergeordnetes Ziel, lokale Gemeinschaften stärkt. Das Ziel dieser Arbeit wurde bewusst so formuliert, dass die Aufgabenstellung keine potentielle Lösung impliziert. Die Methodologie dieser Arbeit besteht, neben einer anfänglichen Literaturrecherche, darin iterativ Prototypen zu entwickeln und diese mittels Begutachtungen von Experten zu evaluieren. Basierend auf den Erkenntnissen der Gutachten wurden iterativ neue Prototypen entwickelt. Der erste Prototyp war eine Crowdfunding Plattform für zivilgesellschaftliche Projekte. Im Zuge des Designprozesses wurde daraus eine kollaborative Plattform die es Menschen ermöglichen soll grüne und nachhaltige Projekte zu initiieren und umzusetzen. Dieses Konzept wurde anschließend in einem funktionellen, web-basierten Prototypen umgesetzt und mit Hilfe von Expertengesprächen evaluiert. Diese Arbeit betrachtet dabei sehr stark den Designprozess und die Entwicklung des Projektes, basierend auf den Erkenntnissen der Expertengespräche.

Diplomarbeitsposter Endl Harald

Harald Endl

Masterstudium Informatikmanagement
Abstract:

Das in dieser Diplomarbeit zu untersuchende Programm soll der „zufriedenstellenden“ Visualisierung von diversen Patientenklassen und -daten für medizinisches Personal, zwecks Weiter- und Fortbildung dienen. Im Detail sollen 30 Kenngrößen und deren Entwicklungen über die Zeit dargestellt werden. Wobei die Messungen in unregelmäßigen Abständen zwischen sechs Wochen und drei Monaten stattfanden(http://ieg.ifs.tuwien.ac.at/projects/VisualizingPatientCohorts/). Dieses neuartige Programm wird mittels mehreren Kategorien, welche ein tieferes Verständnis für die Rolle der Interaktion in der Informationsvisualisierung aufzeigen sollen, untersucht um sowohl etwaige Verbesserungen als auch Mängel in der Benutzerfreundlichkeit aufzuzeigen (Yi, J.S., Kang, Y.a., Stasko, J.T., Jacko, J.A., 2007; IEEE November/December 2007, 13(6), pp.1226-1229). Für die eigentliche Benutzertestung wird auf fachkundiges medizinisches Personal zurückgegriffen welches unter speziellen Untersuchungsmethoden und Vorgaben, die im detaillierten Umfang in der Diplomarbeit beschrieben werden, das Programm ausgiebig verwenden soll. Das Ziel der Diplomarbeit ist eine umfangreiche Überprüfung der Software sowohl auf ihre didaktische Nutzbarkeit in der medizinischen Ausbildung als auch auf ihre Vorzüge und Schwächen im Sinne der Informationsvisualisierung und der Benutzerfreundlichkeit.

Diplomarbeitsposter Fels Ulrich

Ulrich Fels

Masterstudium Informatikmanagement
Abstract:

Investigation object of this master thesis is the visualisation tool Animated Scatter Plot. It dynamically provides medical time-dependent data, using an interactive interface. In addition the change of two medical parametres of diabetes patients is shown as an animation. The users should be able to get specific knowledge out of the data and recognize a significant trend (if there is one?) by changing the medically relevant parametres and by using different settings on the visualization. The aim of this work was to carry out a usability test of the visualisation tool. Special attention was given to the advantages and disadvantages of the animation in view of the tool‘s usability and gaining new insights. To receive conclusions on the usability, 10 medical professionals (physicians) after a limited training period worked on four different exactly defined tasks, that they tried to solve, using different options, filters and other interaction methods, to influence the visualization. After that, a questioning was carried out in each case in the form of a guide interview. The results were written down and afterwards evaluated. The usability analysis proved that „Animated Scatter Plot“ was seen by the doctors as helpful tool in treatment of e.g. diabetes patients. Also a potential as an aid for the medical education was located. All together the animation was judged by the test persons as helpful for the recognition of a group trend. Disadvantages were located in the representation of one single patient’s data out of the animation and in missing „direct manipulation abiliyties“ on represented data.

Diplomarbeitsposter Freiberger Bettina Rosa

Bettina Rosa Freiberger

Masterstudium Medizinische Informatik
Abstract:

Altersbedingte Schwerhörigkeit wie sensorische Presbyakusis führt durch Haarzellschwund zu einer Verringerung des Hörvermögens, insbesondere im hohen Frequenzbereich. Diese Schallempfindungsschwerhörigkeit beeinflusst bei Erfassung des Hauptsprachbereichs die Sprachperzeptionsleistung der Person und bewirkt eine Verschlechterung der Sprachverständlichkeit. Zur Verbesserung der Kommunikationsfähigkeit verstärken Hörgeräte den Schall entsprechend der Hörminderung. Fehlender Tragekomfort und Probleme bei der Pflege oder beim Telefonieren verursachen bei schwerhörigen Menschen Unzufriedenheit mit der Hörgeräteversorgung und zeigen daher Verbesserungspotenzial auf. Mit der Erweiterung einer personalisierten Hörunterstützung in einem altersgerechten Kommunikationssystem, die das Audiosignal entsprechend des Hörverlusts verstärkt und über einen Lautsprecher ausgibt, soll ein komfortables Hören ohne Tragen der Hörgeräte für ältere, schwerhörige Personen in den eigenen vier Wänden ermöglicht werden. Vor diesem Hintergrund beschäftigt sich diese Diplomarbeit mit präskriptiven Verfahren zur Bestimmung einer geeigneten Verstärkung auf Basis der Hörschwelle zur Kompensation des Intensitätsverlusts. Mit fünf Seniorinnen und Senioren mit Presbyakusis wurde mit Hilfe des Freiburger Sprachtests die Sprachverständlichkeit mit und ohne Tragen der Hörgeräte sowie mit unterschiedlichen Verstärkungen nach den präskriptiven Verfahren NAL-RP, FIG6 und Berger erhoben. Der Sprachverständlichkeitswert, der während des Tragens der Hörgeräte erreicht wurde, konnte von jeder Testperson bei zumindest einer frequenzabhängigen Verstärkung übertroffen werden. Mittels Radiosequenzen ohne und mit frequenzbezogener Anpassung wurde die subjektive Lautheitswahrnehmung und Verständlichkeit der Teilnehmerinnen und Teilnehmer untersucht. Aufgrund der unterschiedlich besten Testergebnisse empfiehlt sich für eine Hörunterstützung in der Videotelefonie eine Integration von mehreren präskriptiven Verfahren.

Diplomarbeitsposter Hartl Dominik

Dominik Hartl

Masterstudium Medieninformatik
Abstract:

Sleep deprivation is a prevalent problem that can seriously impair a person’s quality of life. While there is a multitude of causes that can lead to insufficient sleep, recent research in the field of health psychology unveiled that sleep deprivation can not be exclusively attributed to external factors that are beyond a person’s own control, such as sleep disorders. This newly discovered phenomenon has been labeled bedtime procrastination and means the deliberate and voluntary, but ultimately not extrinsically motivated delay of a person’s originally intended bedtime, which renders it a problem closely tied to behaviour. In the past, persuasive technology has been successfully applied to alleviate similar behavioural problems, which is why it is assumed to be a promising candidate for addressing the issue of bedtime procrastination. Consequently, the purpose of this thesis is to explore (a) whether persuasive technology constitutes an approach that seems applicable for bedtime procrastination in the first place and (b) whether there are persuasive strategies that seem able to tackle bedtime procrastination specifically efficiently. For this, three different prototypes of persuasive systems are designed and implemented. In order to motivate the design of these prototypes and to account for the fact that bedtime procrastination is a newfound phenomenon, a broad spectrum of related literature is reviewed. Furthermore, qualitative research is conducted to develop a better understanding of people’s needs and habits in context of sleep, for the prototypes to be acceptable from a user’s point of view. Finally, the persuasive potential of all implemented prototypes is evaluated by means of a field trial. The results of the evaluation suggest that feedback mechanisms, which are able to instill a sense of progress, as well as goal setting in general, can represent efficient incentives.

Diplomarbeitsposter Löw Christian

Christian Löw

Masterstudium Medieninformatik
Abstract:

The design of Electronic Health Record (EHR) systems remains a challenging task, as health care systems, professions and institutions in themselves and at the interfaces of their collaboration yield a complex, intricate concept of (cooperative) work in a professional context at the intersection of systematization and care-giving. EHR documentation data furthermore is not only used in settings of primary cooperative work, but also taken for secondary analysis; a broadly used tool, used e.g. by epidemiologists to understand disease spread, prevalence or morbidity by means of statistical analyses. This thesis builds on a field study conducted in the United Kingdom on the work practice of general practitioners (GPs): GPs were recorded in their work with patient-actors, who enacted two pre-defined scenarios. In a first step, it is the purpose of this work to obtain an in-depth understanding of how these scenarios are treated and subsequently documented in the EHR system by the GPs. To this end, video recordings and EHR system screen recordings of 30 consultations, conducted by 15 GPs of five GP surgeries as well as walkthrough interviews with the attending GPs were subjected to ethnographic analysis, yielding a variety of variabilities and influencing factors in case documentation. In a further step, these results are put in relation to aspects of secondary analysis. To this end, interviews were conducted with experts in the fields of epidemiology, Natural Language Processing (NLP), and EHR system design. This revealed a rich picture of the practice of the GPs’ work and needs directed at EHR systems as well as means of structuring EHR documentation on one hand and incentives to formalize their EHR documentation directed at them from the „outside world“ that is secondary analysis to it on the other hand. The thesis concludes with recommendations directed at the design of EHR systems and EHR data structures that aim at reducing variability in EHR documentation.

Diplomarbeitsposter Meissner Janis

Janis Meissner

Masterstudium Medieninformatik
Abstract:

Die vorliegende Arbeit beschäftigt sich mit der Frage, wie Strickgraffiti und dessen Ausdruckskraft durch Interaktionsdesign unterstützt werden können. Es wird ein Designprojekt vorgestellt, das die Enthüllung inhärenter Narrative von physischen Handarbeitsstücken anstrebte und zur Entwicklung einer digital erweiterte Installation führte. Der zugrundeliegende Forschungsprozess war vom ``Research through Design''-Konzept gekennzeichnet und umfasste drei ineinandergreifende Projektphasen von methodenbasierter Erkundung, Prototypenerstellung und Reflexion. Auf diese Weise führte das Streben nach technologischer Innovation zu Wissenserwerb auf inhaltlicher, technischer und methodischer Ebene: Eine umfassende qualitative Erörterung ermittelte Unterstützungsmöglichkeiten innerhalb aktueller Strickkunst-Praktiken. Die anschließende Datenanalyse führte zur Konzeption eines interaktiven Prototypen, der Handarbeitsstücke mit kapazitiven Berührungssensoren und einem Anzeigegerät kombiniert, um die Geschichten hinter der Strickkunst offenzulegen. Die abschließende Evaluation konsolidierte die gewonnenen Erkenntnisse und trägt zu einem umfassenden Verständnis von Strickgraffiti als eine Form von kreativer Bürgerintervention bei.

Institut für Softwaretechnik und Interaktive SystemeE188

Arbeitsbereich Information & Software Engineering

Weitere ausgestellte AbsolventInnen dieses Arbeitsbereichs:
Christian Manfred Proschinger, Thorsten Sigmund
Diplomarbeitsposter Baston Roscoe

Roscoe Baston

Masterstudium Business Informatics
Abstract:

Hubness ist ein relativ neues Problem, welches aus den Sparten Business Intelligence und Machine Learning kommt. Es entsteht durch ein asymmetrisches Distanzverhältnis zwischen zwei Punkten in einem Datenset. Dieses Verhältnis ist der Grund, warum es wenige Punkte mit vielen Nachbarn gibt, welche alle kurze Distanzen zueinander haben. Diese werden "hub points" genannt. Auf der anderen Seite gibt es viele Punkte mit großer Distanz zu deren Nachbarn. Diese werden als "anti hubs" bezeichnet. Das ist der Grund warum Hub Punkte oft und andere selten als Nachbarn anderer Punkte gefunden werden. Es gibt bereits eine Matlab hubness Toolbox, welche Methoden zur Hubnessmessung anbietet. Es fehlt jedoch die Möglichkeit die Hubness für große Datenmengen zu berechnen. Außerdem beinhaltet sie keine Möglichkeit unterschiedliche Metriken zu verwenden und diese zu vergleichen. Diese Diplomarbeit versucht Forschungsfragen bezüglich beinhalteter Hubness mit diversen Metriken (L1, L2, Linf, cosine) zu beantworten. Außerdem soll die Hubness mittels neuer Methoden reduziert werden. Dabei sollte die Datenqualität nicht reduziert werden. Zwei dieser Reduktionsmethoden, die Exclusion der größten Hub Punkte und die Projektion auf eine Hypershpere wurden von Abdel Aziz Taha vorgeschlagen. Die dritte Reduktionsmethode ist eine principal component analysis welche dazu eingesetzt wird die wichtigsten Dimensionen zu finden. Gleichzeitig kann diese verwendet werden um die Daten und die Hubpunkte zu visualisieren. Diese Methoden wurden unter Verwendung von generierten Daten implementiert und getestet. Dies hat gezeigt, dass alle Methoden erwartungsgemäß funktionieren und die Hubness reduzieren. Allerdings stellte sich heraus das die pca Methode keine brauchbare Reduktionsmethode darstellt, weil dabei die Datenqualität reduziert wird. Eine weitere Beobachtung war, dass generierte Daten tendenziell mehr Hubness beinhalten als "real-world" Daten.

Diplomarbeitsposter Buk Thomas

Thomas Buk

Masterstudium Informatikmanagement
Abstract:

Das Angebot von Massive Open Online Courses (MOOC) nimmt seit deren Anfängen, in den Jahren 2007/2008, stetig zu und erfreuen sich einem steigenden Interesse bei Lehrenden als auch Lernenden. Die Möglichkeit tausende von Lernenden durch freien Kurszugang zu erreichen, als auch das gemeinsame vernetze Lernen durch das Web zu nutzen, macht MOOCs zur spannenden Alternative bestehenden Formen des Online-Lernens. Die vorliegende Arbeit soll dabei klären, welche technischen Ausprägungen, didaktischen Konzepte sowie organisatorische Maßnahmen bei der Realisierung von MOOCs zu beachten sind? Eine vertiefte Literatur Recherche zu organisatorischen Kriterien, fachdidaktischen Konzepten und technischen Ausprägungen von MOOCs, bildet dabei das grundlegende methodische Vorgehen, auf der die weitere Analyse der drei ausgewählten MOOC Plattformen, Coursera, edX und openHPI basiert. Das Ergebnis beinhaltet dabei eine aktuelle Marktübersicht von bestehenden MOOC Management Systemen, ein Klassifikationsschema der bekanntesten MOOC Typen sowie einen Kriterien Katalog welcher sich in technische Kriterien, fachdidaktische Konzepte sowie organisatorischen Kriterien unterteilt. Das abgeleitete Organisationsmodell, bietet dabei einen Überblick, hinsichtlich Planung, Ablauf, Beurteilung sowie Feedback und Support der Kursteilnehmer, für die Realisierung von MOOCs.

Diplomarbeitsposter Ducic Eldin

Eldin Ducic

Masterstudium Informatikmanagement
Abstract:

Programmieren gilt als eine komplexe Disziplin, deren Erlernen häufig mit Schwierigkeiten verbunden ist. Die Kompliziertheit der Konzepte, die eine Umstellung auf neue Denkmuster erfordern, geht oft mit Desinteresse und Verlust an Motivation zum Lernen einher. Diese Arbeit schlägt den Ansatz vor, Programmierkenntnisse durch Entwicklung von Apps zu vermitteln, um anhand der Verwendung von neuen Technologien und anwendungsnahen Programmierbeispielen motivationsfördernde Effekte zu erzielen. Sie gibt eine Antwort auf die Frage, wie der Einstieg ins Programmieren durch App-Entwicklung gestaltet werden kann und was für Aufgabenstellungen dafür geeignet sind. Dafür werden zunächst durch Literaturrecherche die Basiskonzepte des Programmierens festgelegt, sowie die häufigsten Hürden für Novizen identifiziert. Darauf aufbauend wird ein Prototyp eines Curriculums mit passenden Aufgaben didaktisch aufbereitet und anschließend anhand von Richtlinien aus einschlägiger Literatur und Argumentation evaluiert. Das zentrale Ergebnis dieser Arbeit ist ein Curriculum mit entsprechenden Unterrichtsszenarien für Programmiereinsteiger, welche grundlegende Konzepte des Programmierens durch App-Entwicklung vermitteln. Novizen werden befähigt, einfache Anwendungs-Apps selbst zu erstellen, wodurch das Interesse und Motivation am Programmierunterricht gesteigert werden soll.

Diplomarbeitsposter Garscha Peter

Peter Garscha

Unterrichtsfach Informatik/Informatikmanagement
Abstract:

Ziel dieser Arbeit ist die frühzeitige Erkennung neuer Trends auf Twitter. Zu diesem Zweck wurden innerhalb von drei Beobachtungszeiträumen, die insgesamt 247 Tage umfassten, 1004254 Tweets von verschiedensten österreichischen Twitter-Usern gesammelt und anschließend analysiert. Die Tweets und deren Meta-Daten wurden daraufhin auf unterschiedlichste Merkmale hin untersucht. Von besonderem Interesse war beispielsweise der Anteil der Retweets, aber auch der Anteil der Tweets mit Bildern, URLs oder GPS-Koordinaten. Dabei wurde festgestellt, dass sich einige der Merkmale im Vergleich zu Studien, welche Tweets in anderen Sprachen untersuchten, teilweise deutlich unterscheiden, wodurch kulturelle Unterschiede in der Verwendung sozialer Medien im Internet naheliegend sind. Im Speziellen wurden dabei auch zu den einzelnen Merkmalen Annahmen getroffen, wie sich diese bei neuen Trends, in den ersten Stunden nach dem erstmaligen Auftreten der Trends, im Vergleich zur Gesamtheit aller gesammelten Tweets unterscheiden könnten. Daran anschließend wurde durch mehrere Kriterien eine Definition für Top-Trends eingeführt, mit der unter allen gesammelten Tweets eine Menge an Top-Trends identifiziert werden konnte. Nachfolgend wurden die Tweets der Top-Trends auf die zuvor vorgestellten Merkmale untersucht. Von besonderem Interesse waren hier vor allem Unterschiede in den ersten 72 Stunden eines neuen Trends. Zuletzt wurde untersucht, welche Merkmale kombiniert werden können, um neue Trends möglichst früh zu erkennen. Dabei wurden insgesamt knapp 30 Millionen Varianten evaluiert, wobei festgestellt wurde, dass bis zu 40 % der Top-Trends bereits in den ersten zwei Stunden als solche identifiziert werden können.

Diplomarbeitsposter Grömer Lukas

Lukas Grömer

Masterstudium Business Informatics
Abstract:

Ein großes Problem von Crowdfunding ist, dass mehr als die Hälfte aller Kampagnen scheitern. Dies hat zur Folge, dass einerseits Projektgründerinnen und Projektgründer ihre Ideen nicht in die Wirklichkeit umsetzen können und andererseits, dass Crowdfunding- Plattformen keine Provision bekommen. Das bedeutet einen Verlust für beide Seiten. Das Ziel dieser Arbeit ist es, Methoden vorzustellen, die Projektgründerinnen und Projekt- gründern sowie Plattformen helfen, die Erfolgsaussichten von Projekten zu verbessern. Die Analyse wurde mit Data-Mining Algorithmen durchgeführt und basiert auf über 14.000 Kickstarter-Projekten, gesammelt im Zeitraum zwischen Juni und Oktober 2015. Zu Beginn wurden rein statische Attribute von Projekten untersucht. Das sind jene Attribute, die bereits vor dem Projektstart erschließbar sind, wie zum Beispiel das Projektziel, die Projektbeschreibung, Belohnungen und das soziale Netzwerk der Gründerin beziehungsweise des Gründers. Mit dieser Analyse konnten die Projekte bereits mit einer Genauigkeit von 78.5% als erfolgreiche oder gescheiterte Projekte identifiziert werden. Indem man die dynamischen, sich zeitlich verändernden Projektattribute in das Modell aufnimmt, konnte diese Genauigkeit auf einen Wert von 83.4% nach einem Prozent der Projektdauer gesteigert werden. Möglich macht das die rapide Projektentwicklung von erfolgreichen-Kickstarter Projekten. Die gefundenen Modelle wurden zum Abschluss noch in ein CrowdData Framework verpackt, welches Projektgründerinnen und Projektgründer in der Findung des optimalen Projektsetups unterstützt und sie den Projektverlauf überwachen lässt.

Diplomarbeitsposter Hackner Denise

Denise Hackner

Unterrichtsfach Informatik/Informatikmanagement
Abstract:

Die vorliegende Arbeit beschäftigt sich mit dem konstruktionistischen - digitalen Schulbuch. Das zugrundeliegende Unterrichtskonzept zielt darauf ab, selbstständiges und kreatives Lernen der SchülerInnen zu fördern. Digitale Medien mit ihrer Interaktivität sollen den Lernprozess unterstützen, während der Konstruktionismus die theoretische Grundlage für das Projekt liefert. Im Zuge der Arbeit wird geklärt: Welche Kriterien sind bei der Erstellung eines digitalen Schulbuches zu beachten, um das didaktische Konzept des Konstruktionismus zu unterstützen? Inwiefern eignet sich das Autorenwerkzeug tet.folio, welches speziell für die Portfolioarbeit entwickelt wurde, für das digitale, konstruktionistische Schulbuch? Eine umfangreiche Untersuchung bereits laufender Projekte zum digitalen Schulbuch liefert die Grundlage für den Prototyp eines digitalen, konstruktionistischen Schulbuches für den Mathematikunterricht. Dazu wird ein Kapitel für die 5. Klasse zum Thema „lineare Funktionen“ erstellt und anhand eines erprobten Kriterienkataloges für digitale Lehrmittel von SchülerInnen und Lehrenden getestet. Der Konstruktionismus spiegelt sich dabei einerseits in den einzelnen interaktiven Aufgabenblättern wieder, andererseits in der Unterrichtsmethodik an sich. Die Lernenden gestalten, um nicht zu sagen „konstruieren“ sich, im Rahmen einer Portfolioarbeit, ihr Schulbuch selbst. Im Kriterienkatalog konnten im Wesentlichen vier Kriterien gefunden werden, die den konstruktionistischen Aspekt beurteilen: die handelnde Dimension wird angesprochen, das eigenständige Lernen und Arbeiten wird unterstützt, eigenen Interessen und Fragen kann nachgegangen werden und das Lehrmittel ermöglicht unterschiedliche Zugangsweisen zum Lernstoff. Die Untersuchung ergab, dass die genannten Kriterien entsprechend im Prototyp umgesetzt werden konnten. Mit tet.folio wurde ein Autorenwerkzeug gefunden, das unzählige gestalterische Möglichkeiten zulässt und sich bestens für das Vorhaben eignet.

Diplomarbeitsposter Holler Markus

Markus Holler

Masterstudium Informatikmanagement
Abstract:

Mobile Geräte und Apps sind heutzutage allgegenwertig, sie sind in jedem Haushalt vorzufinden. Auch auf die Kinder wirken sie eine große Faszination aus. In dieser Arbeit soll die Frage geklärt werden, welche Kriterien muss eine App erfüllen, damit sie zur Wissensvermittlung im Kindergarten geeignet ist. Zu Beginn wird ein Überblick über die aktuellen Forschungen gegeben, die zurzeit zu diesem Thema stattfinden. Die miniKim Studie zeigt ein hohes Nutzungsverhalten von Kindern im Alter von zwei bis fünf Jahren mit mobilen Geräten und Apps. Es werden zwei weitere Studien zum Vergleich angeführt. Anhand der Studien lässt sich ein allgemeines Nutzungsverhalten der Kinder ableiten und in welchen Bereichen die Kinder bereits Vorerfahrungen mit Tablets und Smartphones gemacht haben. Im weitern Verlauf der Arbeit, werden die Lernbereiche aus dem Lehrplan des Österreichischen Elementarbereichs vorgestellt. Die Lernbereiche des Lehrplans werden den Lernerfahrungen, die Kinder mit Apps am Tablet oder Smartphone machen können, zugeordnet. Für den wissenschaftlichen Teil der Arbeit werden Thesen aufgestellt, welche Lernerfahrungen Kinder mit einer App machen können. Um diese Thesen zu überprüfen, wird ein Praxistest in einem Wiener Kindergarten durchgeführt. Für den Test wurden zwei Apps ausgewählt und nach dem Kriterienkatalog der Medialab Gruppe bewertet. Die Ergebnisse der App-Bewertung und des Praxistests werden im letzten Teil der Arbeit ausgewertet. Mit den Ergebnissen wurden Kriterien festgelegt, die eine App aufweisen muss, damit sie zur Wissensvermittlung im Kindergarten geeignet ist. Als Ergebnis stellte sich heraus, dass die Usability und die Aufbereitung des Inhaltes maßgebende Faktoren für einen erfolgreichen Einsatz im Elementarbereich bilden.

Diplomarbeitsposter Kiselka Bernhard

Bernhard Kiselka

Masterstudium Business Informatics
Abstract:

Metriken von Softwareprojekten messen die Vergangenheit und den Status Quo. Die Frage, ob ein Informationssystem in Zukunft immer noch verwendbar ist, wird nicht wirklich beantwortet. Im Gegensatz dazu wird Langlebigkeit als wichtiges Thema des Entwurfs gesehen. Denn optimalerweise wollen wir die Langlebigkeit eines Softwareprodukts bereits vom Start weg messen können, nicht erst am Ende wenn der ganze Aufwand bereits geleistet wurde. Diese Arbeit will herausfinden, was ein (Open Source) Softwareprojekt so erfolgreich macht, dass dessen Software über lange Zeit verwendet wird, und wie diese Langlebigkeit im Vorhinein gemessen werden kann. Das wissenschaftliche Vorgehen umfasst eine systematische Literaturrecherche über die Kennzeichen von gesunden Projekten, die erfolgreiche Softwareprojekte, Metriken und Tools identifizieren. Mit einem Auswahlverfahren werden die am Besten geeigneten Tools für ein Framework zur Beurteilung von Langlebigkeit basierend auf Qualitätsattributen von ISO SQuaRE ermittelt. Das Ergebnis der Arbeit ist eine Menge an Tools die ein Beurteilungsframework bilden, um Qualitätsattribute, Metriken und Leistungskennzahlen mit dem Fokus auf der Langlebigkeit von Softwareprojekten zu beurteilen. Hauptresultat ist eine kurze Liste von Metriken, die Qualitätsattribute messen, welche für die Langlebigkeit wichtig sind. Wie eine Machbarkeitsstudie zeigt, können diese Metriken für Teilaspekte von Langlebigkeit verwendet werden.

Diplomarbeitsposter Kraxner Michael

Michael Kraxner

Masterstudium Software Engineering & Internet Computing
Abstract:

The amount of digital content produced every day is increasing rapidly and challenges organisations with the obligation to preserve it for the long term. Preservation planning aims to select the best suited strategy to keep content accessible for a specific user community over time. This decision should be based on a repeatable process relying on objective criteria that leads to reproducible results and thus provides evidence to further trust. In the last decade a number of initiatives were dedicated to solve related problems on different levels, and provided insight in intricacies of digital preservation. Particularly, a preservation planning workflow was defined. It guides the planner to collect all related information, about the organisation, the content, requirements, and potential strategies. Experiments are conducted with representative samples and results are evaluated against specified requirements, providing the basis to take an informed decision and resulting in a well documented preservation plan. So far tool support is limited, and the lack of automation leaving it a mainly manual and effort intensive task. This thesis aims to improve the preservation planning process and increase automation by integration with its context. It identifies existing information sources and systems, adopts a common language based on a set of ontologies to describe related concepts, specifies missing interfaces to complete integration, and introduces a methodology to specify monitoring conditions. A prototype implementation of the planning tool is extended and evaluated in a case study. It shows that proposed measures not only benefit the planning process, but can enable continuous preservation of content.

Diplomarbeitsposter Kunerth Michael

Michael Kunerth

Masterstudium Visual Computing
Abstract:

Diese Arbeit optimiert "Optical Character Recognition" (OCR), i.e. die Erkennung von Zeichen durch den Computer. Vor allem Freeware in diesem Bereich liefern keine perfekten Ergebnisse, die sich mit sinkender Auflösung des Eingabebildes erheblich verschlechtern. Dies liegt daran, dass diese Systeme auf der Erkennung von einzelnen Zeichen "Characters", und nicht auf der Erkennung von Wörtern beruhen. Der vorgeschlagene Algorithmus basiert auf der Klassifikation ganzer Wörter mithilfe eines Wörterbuches. Für das Training werden im ersten Schritt alle Wörter des Wörterbuches in verschiedenen Schriftarten gerendert. Anschließend werden daraus jeweils verschiedene Merkmale extrahiert und zu einem Merkmalsvektor zusammengefüugt. Die Wahl der richtigen Merkmale ist dabei sehr wichtig, weil diese für die Zwecke der Worterkennung geeignet sein müssen. Mit diesem wird füur jede Schriftart und jeden Schriftstil ein eigener Klassifikator traininert und gespeichert. Zum Testen der Worterkennung müussen im ersten Schritt die einzelnen Wörter aus dem Eingabebild segmentiert werden. Danach werden aus jedem Wort typografische Merkmale extrahiert, um die jeweilige Schiftart zu erkennen. Diese ist notwendig, um den richtigen Klassifikator zu laden. Anschließend werden aus jedem Wort die gleichen Merkmale wie beim Trianing extrahiert und an den Klassifikator übergeben. Dieser gibt schließlich das erkannte Wort zurück. Der Algorithmus liefert mit einer durchschnittlichen Erkennungsrate von 99.91% sehr gute Ergebnisse und schneidet besser als alle anderen getesteten Methoden ab. Speziell bei Eingabebildern, die bei niedriger Auflösung gescannt wurden, ist die Überlegenheit des Algorithmus zu sehen.

Diplomarbeitsposter Ljatifi Dritan

Dritan Ljatifi

Masterstudium Software Engineering & Internet Computing
Abstract:

Informationsvisualisierung hat eine große Bedeutung, um Benutzer/innen die Darstellung komplexer, großer Datenmengen zu ermöglichen. Sie besitzt eine lange Geschichte auf dem Desktop-Computer, und deswegen gibt es bereits zahlreiche Tools und Frame- works, die den Bedarf eines Großteils der Nutzer/innen abdecken. Durch die zuneh- mende Verbreitung von mobilen Geräten in den letzten Jahren und durch die Verbesse- rung bei Geräten in Bezug auf Performance und Bildschirmqualität ist der Bedarf an Informationsvisualisierung auf mobilen Geräten gestiegen. Da es sich hierbei um ein neues Gebiet im mobilen Bereich handelt, gibt es relativ wenige Tools und Frameworks dafür. In dieser Arbeit werden zunächst die vorhandenen Tools und Frameworks in Android untersucht. Dann werden deren Funktionalität und Möglichkeiten kurz erläutert. Im Anschluss wird die Struktur von prefuse, einer der erfolgreichsten Desktop-Frame- works im Informationsvisualisierungsbereich, analysiert. Dabei werden die Informationen, die aus dem State of the Art über prefuse gewonnen wurden, durch ein Review des eigentlichen Quellcodes ergänzt. Fokus wird dabei auf die verwendeten Design-Patterns gelegt. Am Ende werden die durchgeführte Portierung und ihr Endresultat, AndroidPrefuse, beschrieben. Im Allgemeinen ist die Architektur von AndroidPrefuse nach der Portierung gleich wie prefuse geblieben. Um die erfolgreiche Portierung zu demonstrieren, wurde ein einfaches Streudiagramm in AndroidPrefuse implementiert bzw. portiert. Es werden folgende Fragen in Bezug auf die Portierung beantwortet: Welche Portierungsmöglich- keiten standen zur Verfügung? Warum wurde die Möglichkeit zur Übernahme in Android- Prefuse von AWT- und Swing-Bibliotheken für die Portierung ausgewählt? Welche Her- ausforderungen traten bei der Portierung auf, und wie wurden sie gelöst? Welche Teile wurden von prefuse komplett, und welche teilweise bzw. gar nicht übernommen?

Diplomarbeitsposter Melbinger Stefan

Stefan Melbinger

Masterstudium Informatikmanagement
Abstract:

Teaching algorithmic thinking, which is one of the fundamental skills in computer science, is a challenging task. Preparatory courses for budding students of computer science at the Vienna University of Technology use a computer program called Theseus to visualise the execution of maze solving algorithms, thus making the discussion of algorithms more tangible. However, Theseus does not explicitly describe the executed algorithms and students are left to wonder what is happening "inside" them while the search for a maze’s finish is visualised on screen. This thesis investigates how an interactive learning environment can not only execute but also formulate maze algorithms in order to support the teaching of algorithmic thinking and increase the learning effect for students. After performing an analysis of various didactic options and selecting a suitable approach that is aligned with the constructionist learning theory, the actual implementation of a new online learning environment called Ariadne is described, which integrates a visual programming language for describing algorithms. This allows students and teachers to understand Ariadne's pre-defined maze solving algorithms, to modify them and to even create new algorithms from scratch.

Diplomarbeitsposter Müller Alexander

Alexander Müller

Masterstudium Informatikmanagement
Abstract:

Im Rahmen dieser Arbeit sollte beantwortet werden, inwieweit und ob durch die Implementierung eines VLEs, eines sogenannten Virtual Learning Environments, eine Lösung oder Vereinfachung der privaten Lizenzproblematik der Schülerinnen und Schüler und eine damit einhergehende Verbesserung des Lerneergebnisses, erreicht werden kann. Dazu soll ein Prototyp des LVE, der auch in anderen Schulen verwendet werden kann, entwickelt werden und dessen Einführung formal beschrieben. Das methodische Vorgehen belief sich auf die Erhebung der Noten der relevanten dritten und vierten Vorjahres-Jahrgänge mittels Umfrage, sowie auf die Erhebung der Daten betreffend einer sinnvollen Nutzung des VLEs durch die Schülerinnen und Schüler im Rahmen wöchentlicher Feedbacks. Den ausführenden Teil dieser Arbeit, stellte die Implementierung des VLEs auf dem Microsoft 2012 R2 Server mittels Microsoft Hyper-V als Prototypen, sowie dessen Evaluierung dar. Begleitend wurde eine technische Dokumentation für die Überprüfung der Ladezeiten für relevante Programme in den verschiedenen Umgebungen, in denen das VLE benutzt werden soll, erstellt. Die wissenschaftliche Methodik sah vor, das VLE über einen Zeitraum von acht Wochen zu evaluieren. Dabei wurde eine Schülergruppe mittels VLE, und eine zweite Gruppe, die Kontrollgruppe, im klassischen EDV-Labor unterrichtet. Dabei konnte festgestellt werden, dass durch die Verwendung des VLEs durchaus Verbesserungen in den Lernergebnissen erreicht werden konnten. Auch wöchentliche Feedbacks, was die Benutzung bzw. die Performance des VLEs betrifft, wurden ausgewertet und analysiert. Diese ergaben, dass das VLE, durchaus als sinnvolle Alternative zum klassischen CLient-Server-Modell angewendet werden kann. Am Ende der Arbeit, wurden lizenzrechtlich relevante Fragen, welche bei der Verwendung der virtuellen Clients auftreten, sowie Ansätze zu deren Lösung, dargestellt und behandelt.

Diplomarbeitsposter Ortner Bernhard

Bernhard Ortner

Masterstudium Medizinische Informatik
Abstract:

Moderne Gesundheismonitoringsysteme erfordern die automatisierte Weitergabe von persönlichen Daten. Linked Stream Data (LSD) unterstützt diesen Vorgang, indem die Daten in ein einheitliches Format konvertiert werden. Surveillance Systeme sammeln und analysieren diese Daten, um die Verbreitung von Krankheiten zu dokumentieren und vorherzusagen. Eine Gefahr der Verarbeitungskette ist, dass einzelne Personen identifiziert werden können, sogar wenn die verarbeiteten Daten anonymisiert wurden. Um dieses Problem zu lösen, schlagen wir einen neuen Anonymisierungsalgorithmus vor, der LSD in zwei Stufen anonymisiert. Zuerst werden personenbezogene Daten auf Basis der verfügbaren Datenmenge generalisiert oder unterdrückt. Danach analysiert der Algorithmus den zeitlichen Verlauf der Daten und verhindert so Inferenzattacken zwischen zeitlich verschiedenen Daten. Das minimiert die Menge der Daten, die durch den Anonymisierungsprozess verloren geht. Ein Ergebnis unserer Arbeit ist auch, dass der inkrementelle Anonymisierungsansatz einen geringeren Informationsverlust als der derzeitige Stand der Technik aufweist.

Diplomarbeitsposter Petritsch Michael

Michael Petritsch

Masterstudium Software Engineering & Internet Computing
Abstract:

In heterogeneous engineering environments, such as power plant engineering, different tools and systems are used independently by various engineers from various disciplines, like mechanical, electrical or software engineering. Collaboration between these tools and system domains can be facilitated by designing a system-of-systems that implements all required use-cases. Current approaches have the disadvantage that they require stakeholders to perform critical process steps outside of the system and are therefore time consuming, prone to errors and offer room for improvement. Such a system also has to provide monitoring capabilities that deliver ad hoc insights into ongoing and past processes and allow to derive meaningful data based on defined metrics for project progress and collaboration analysis. This is particularly important for project and business process managers who may not only be interested in factual process data, but also in the collaborative behavior of the involved stakeholders across different domains. With such a monitoring system, they obtain more information for decision making, prediction of future trends about development activities, as well as indicators of product quality. This thesis offers a solution that allows improved insights into multidisciplinary engineering environments. The approach of this thesis will be the modeling and execution of collaboration related processes to collect event data from, which can be used to derive characteristics of system behavior. This is achieved by storing the historical progress of product data in the engineering database and linking process event data to it. The evaluation showed that the benefits of the solution are increased quality of collaboration processes, identification of standard system behavior and detection of anomalies, as well as reducing the overall effort of the involved stakeholders.

Diplomarbeitsposter Weihs Christian

Christian Weihs

Masterstudium Software Engineering & Internet Computing
Abstract:

Die Planung und der Betrieb eines digitalen Repositories ist ein aufwändiges und komplexes Vorhaben. Insbesondere die Abschätzung der langfristig benötigten Systemressourcen (Speicherkapazität und Rechenleistung) ist ein schwieriges Unterfangen. Die Haltbarkeit der verwendeten Dateiformate erzwingt über den Jahrzehnte langen Betrieb immer wieder Migrationen in neuere Dateiformate, was abhängig von den verwendeten Werkzeugen einerseits entsprechend Rechenleistung benötigt, andererseits steigt damit auch der Speicherverbrauch, weil nach der Migration die Datei sowohl in der alten als auch in der neuen Version vorhanden ist. In dieser Arbeit wird ein Simulator vorgestellt, der dabei hilft diese langfristigen Entwicklungen abzuschätzen. Es ist damit möglich den Archivinhalt und die notwendigen Migrationsvorgänge zu beschreiben und darauf aufbauend eine Simulation über einen beliebig langen Zeitraum durchzuführen. Im Anschluss werden Statistiken und Diagramme erzeugt um die Ergebnisse zu analysieren und mit ähnlichen Simulationen vergleichen zu können. Das Ziel ist ein Werkzeug bereitzustellen, mit dem ausgehend von einem bestimmten Archivinhalt verschiedene Szenarien mit unterschiedlichen Migrationsregeln und den dazugehörigen Migrationstools evaluiert werden können. Dabei soll analysiert werden wie sich unterschiedliche Regeln und Tools auf den Ressourcenbedarf des Archivs auswirken, speziell ob zu bestimmten Zeitpunkten unerwartet hohe Zuwächse entstehen. Die Verwendbarkeit wird anhand von Beispielsimulationen gezeigt. Dabei wird eine Konfiguration aufgebaut, die auf einem real existierenden Archiv basiert und mittels Zuhilfenahme der Formatregistry PRONOM erzeugt wird. Auf der Beispielkonfiguration wird die Verwendung von unterschiedlichen Regeln gezeigt und das Ergebnis der Simulation besprochen.

Diplomarbeitsposter Weiß Sophie

Sophie Weiß

Masterstudium Medieninformatik
Abstract:

Especially in security-critical industries, companies want to ensure that company-internal data remain hidden from unauthorized eyes, e.g., if external workers like cleaning staff are entering critical areas. If an increased security standard is mandatory at the office, it must be ensured that non-authorized persons have no possibility to get access to confidential data, which is displayed on the computer screen. This thesis describes an approach for preserving screen privacy by implementing a context-aware access control framework called Confidential Desktop, which continuously checks whether the user is alone at the office or not. This is done by detecting predefined intruder's activities by the use of different features like detecting faces, motion, sounds and bluetooth devices. The feasibility is shown in simulated scenarios that even with existing standard office hardware and state-of-the-art methods, intruder's activities can be detected by the framework in real-time. Thus the proposed solution can control the access to displayed data and preserve the confidentiality of sensitive information from prying eyes.

Arbeitsbereich Interactive Media Systems

Diplomarbeitsposter Byrtus Miroslav

Miroslav Byrtus

Masterstudium Medieninformatik
Abstract:

Das Entwerfen von Systemen, die fähig sind mit den Menschen zu interagieren, ist eine aufwändige Aufgabe. Ein wichtiger Aspekt bei diesem Problem ist, die menschlichen Emotionen zu verstehen und auf diese auf menschliche Weise zu reagieren. Kompliziert ist auch die Tatsache, dass Menschen selber Probleme haben, die Emotionen richtig zu erkennen. Derzeit gibt es zahlreiche robuste und gut funktionierende Systeme, die Gesichter erkennen, Augen, Nase und Mund lokalisieren können. Hier fehlt aber die sogenannte Meta-Information in Form einer ausführlichen Beschreibung des Gesichts, die ein tieferes Verständnis des Ausdrucks bringen kann. Diese Information sollte nicht unterschätzt werden, denn die Gesichtsausdrücke beinhalten eine große Menge von Information der non-verbalen Kommunikation. Die Gesichtsausdrücke spielen in der menschlichen Kommunikation eine wichtige Rolle, denn eine große Informationsmenge wird auch durch die non-verbale Kommunikation übermittelt. Ein System, das die menschlichen Emotionen automatisch erkennen kann, wäre für Bereiche wie Human-Computer Interaktion, Psychologie, Soziologie etc. hilfreich. Ein solches System würde eine automatische Analyse von Stress-, Höhenangst und Aggressivität ermöglichen. Außerdem würde es auch für die Überwachung nutzbar sein. Das Ziel dieses Projektes ist es, ein robustes System zu entwerfen und zu implementieren, das die Emotionen in Gesichtern erkennen und analysieren kann. Das System wird voll automatisiert, sodass der Benutzer keine weiteren Einstellungen tätigen muss, um das System zum Laufen zu bringen. Die erwartete Ausgabe ist eine textuelle Beschreibung der Emotion. Die analysierten Gesichtsparameter werden zudem weiter an die Animationskomponente geschickt, wo die erkannte Emotion in der Form einer Animation nachgespielt und angezeigt wird.

Diplomarbeitsposter Gerstweiler Georg

Georg Gerstweiler

Masterstudium Informatikmanagement
Abstract:

Das Aneignen komplexer motorischer Fähigkeiten in einer Virtual-Reality-Umgebung bedarf nicht nur präziser Motion-Tracking-Systeme, sondern auch einer angemessenen Visualisierung optimaler Bewegungsabfolgen und einer entsprechenden Präsentation von Echtzeit-Feedbackvarianten. Head-Mounted-Displays erzeugen für den Benutzer solcher Systeme eine realitätsnahe und daher immersive Lernumgebung. Aus diesem Grund beschreibt die vorliegende Arbeit die Entwicklung und die Analyse verschiedener Visualisierungsmethoden für das Erlernen komplexer Bewegungsabfolgen. Dabei wurden diese Methoden speziell für den Einsatz in Systemen angepasst, welche über eine Echtzeit-Bewegungserkennung verfügen und ein HMD als Ausgabegerät verwenden. Die vorliegende Arbeit präsentiert zwei verschiedene Methoden zur Beobachtung von Bewegungsabfolgen eines Avatars. Aufgrund der Komplexität ganzheitlicher Bewegungen werden vier erweiterte Visualisierungen umgesetzt, die speziell bei Drehungen und Positionen welche die Blickrichtung beeinflussen, Vorteile aufweisen. Darüber hinaus wurden drei Varianten entwickelt um Benutzer ein aktives Feedback bereitzustellen, welche in Echtzeit oder als Zusammenfassung Fehler im Bewegungsablauf visuell darstellen. Für eine autonome Steuerung der implementierten Techniken wurden zusätzlich drei Interaktionsmöglichkeiten integriert und deren Einsatz in einer VR-Lernumgebung für motorische Fähigkeiten studiert. Eine Benutzerstudie mit neun Probanden zeigt die Akzeptanz der entwickelten Visualisierungs- und Interaktionstechniken anhand einer komplexen Übung aus Taekwondo.

Diplomarbeitsposter Huber Christoph

Christoph Huber

Masterstudium Medieninformatik
Abstract:

Available consumer solutions for 3D reconstruction with depth cameras offer no or very limited ways for a user to navigate and manipulate the reconstructed environment in a natural and intuitive manner. To this end, the virtual scene must be segmented into distinct objects that should resemble their real-world counterparts. To further aid the design of an intuitive system, prevalent approaches to scene navigation have to be revisited and improved upon. In this thesis, a prototype for the virtual reconstruction and manipulation of three-dimensional scenes has been developed. The system allows for quick and intuitive 3D scanning and reconstruction by using a tablet in combination with a depth camera. Distinct planes and objects are identified and separated from each other by utilizing a combination of automatic and manual segmentation techniques. The subsequent processing stage allows users to fill possible gaps and remove unwanted components. Afterwards, the tracking capabilities of the 3D reconstruction algorithm enable users to navigate through their reconstructed virtual scene by physically moving the tablet. The mobile display functions as a window into the virtual world. By utilizing the touch capabilities of the screen, previously segmented objects can be carried around and repositioned anywhere in the scene. Duplication, transformation and removal of items is also possible with the provided tools. Edited scenes can be exported to one of several common file formats for use in other applications. After development, a small user study was conducted in order to evaluate the prototype. The results show that the system has good usability and can be learned easily. Participants were able to reconstruct and segment scenes in reasonable quality without much effort. Moreover, the methods used for scene navigation and interaction proved to be highly intuitive and natural. The evaluation also revealed several possible areas of improvement for future releases.

Diplomarbeitsposter Vonach Emanuel

Emanuel Vonach

Masterstudium Informatikmanagement
Abstract:

Für das erfolgreiche Erlernen von Bewegungsabfolgen im Sport oder der Physiotherapie ist es wichtig Übungen regelmäßig, häufig und korrekt durchzuführen. Aber nicht immer kann ein Lehrer bzw. Therapeut anwesend sein, um auf die korrekte Durchführung von Übungen zu achten. Derzeit übliche multimediale Hilfsmittel für das autonome Lernen von komplexen Bewegungen, wie Lernvideos oder Animationen, bieten keine Möglichkeit für Feedback und können dadurch zu negativen Effekten führen wenn eine Bewegung falsch eingelernt wird. Als Lösung für diese Problematik wurde in der vorliegenden Arbeit die interaktive Virtual-Reality-Applikation MoCapGym entwickelt. Als Grundlage für die Entwicklung dieser Anwendung wurden verschiedene Lerntheorien und konventionelle Konzepte auf deren Eignung in Hinblick auf das vorliegende Szenario analysiert. Auf Basis dessen wurde ein neuartiges, mehrphasiges Lernszenario entwickelt, welches sowohl traditionelle Aspekte berücksichtigt, aber auch das volle Potential einer VR-Anwendung ausschöpft. Mit Hilfe eines optischen Trackingsystems und eines aktiven Motion-Capture-Suits ist es mit Hilfe der Lernumgebung möglich, ohne Anwesenheit eines Professionisten komplexe Bewegungsabfolgen zu erlernen und anhand von automatischem Feedback zu optimieren. Die erfassten Bewegungsdaten werden dafür in Echtzeit analysiert und in geeigneter Form dem Benutzer präsentiert. Eine durchgeführte Benutzerstudie zeigt, dass es das entwickelte Konzept ermöglicht, in kurzer Zeit beliebige Bewegungsabfolgen einzustudieren und zu optimieren.

Arbeitsbereich Business Informatics

Diplomarbeitsposter Djordjevic Aleksandar

Aleksandar Djordjevic

Masterstudium Software Engineering & Internet Computing
Abstract:

Ab dem 2007 eingeführten iPhone hat Mobile Computing bei Softwareentwicklern rasch an Bedeutung gewonnen. Die Folge ist eine immer größer werdende Menge an mobilen Apps, vorwiegend für iOS und Android Betriebssysteme. Obwohl es derzeit bereits mehr als 1,5 Millionen Apps für jede der erwähnten Plattformen gibt, hat sich die Verwendung von semantischen Technologien auf den aktuellen mobilen Geräten noch nicht durchgesetzt. Gerade der Einsatz von semantischen Technologien und Wissensverarbeitungstechnologien in einer mobilen App ermöglicht es aber, sich den steigenden Anforderungen an mobile Anwendungen erfolgreich zu stellen. Die Idee der vorliegenden Arbeit ist es nun, semantische Technologien mit der Leistung von Smartphones zu kombinieren und eine App zu entwickeln, die diesen Denkansatz auf essensbasierte Szenarien umlegt. Eine semantische App hat die Aufgabe, die Bedeutung der eingegebenen Benutzerdaten bereitzustellen. Im vorliegenden Fall ist das die Eingabe eines Fotos von Speisen aus einer Speisekarte – die Ausgangskommunikation zwischen dem/der Benutzer/in und der mobilen App. Die Ergebnisse der Eingabedatenanalyse sind dabei sowohl graphisch als auch textuell, sprachenspezifisch und kontextuell. Das Ziel der Arbeit ist die Implementierung eines App-Prototypen für Android. Die App sollte es ermöglichen, fotografierten textuellen Inhalt aus der Originalsprache in die Sprache des/der Benutzers/Bentzuerin umzuwandeln, und dieses Ergebnis wiederum eingebettet im Ausgangsfoto anzuzeigen. Hierfür stehen schon die Kerntechnologien Optical Character Recognition (OCR) und Machine Translation (MT) zur Verfügung.

Diplomarbeitsposter Obweger Hannes

Hannes Obweger

Masterstudium Informatikmanagement
Abstract:

In recent years, Single Page Applications (SPAs) emerged as a de-facto standard for modern, user-friendly web sites. While their advantages are manifold, SPAs massively impact the distribution of code and responsibility among an application: Where before, the web front-end of a Java application was essentially an orchestration of servlets and JavaServer Pages - driven from, and developed as part of the server - it is now an independent application in its own right. As a result of these developments, more and more developers are required to implement features to run in the browser, written in JavaScript. For companies as well as for individuals, the shift towards browser-centred engineering raises issues of developer education. Despite of their similar name and syntax, JavaScript and Java are highly different languages that require specific patterns and engineering practises. For a developer with many years of experience in Java or similar languages, learning JavaScript means more than just learning a new language: It requires a fundamental change in how to think about and approach programming problems - a so-called mind shift. The issue of knowledge transfer across programming paradigms and languages has been intensely researched in the field's transition from procedural to object-oriented programming, and diverse strategies have been proposed. The goal of this thesis is to show if, and how, existing strategies and experiences reflect in today's expert developer education, in the context of teaching JavaScript to expert Java developers. For this purpose, we conduct a qualitative content analysis of three real-world examples, each representing a popular format of eduction: (i) talks at developer-centred tech conferences, (ii) non-academic professional literature, and (iii) company-internal trainings.

Arbeitsbereich E-Commerce

Weitere ausgestellte AbsolventInnen dieses Arbeitsbereichs:
Daniel Rubas
Diplomarbeitsposter Zildzo Edin

Edin Zildzo

Masterstudium Software Engineering & Internet Computing
Abstract:

Diese Arbeit präsentiert einen Ansatz um Daten von Mitarbeitern einer Universität und ihre berufliche Kompetenzen zu extrahieren, während man sich mit Themen wie Web-Datenextraktion Probleme wie z.B. Seitenstruktur Probleme, Dynamic Data, Unstrukturierte Daten usw. auseinandersetzen muss. Die Software die in dieser Arbeit vorgeschlagen versucht Daten zu extrahieren von Universitätsmitarbeitern und ihre berufliche Kompetenzen und das soweit möglich von den meisten Universitäten. Die Professionellen Kompetenzen der Universitätsmitarbeiter werden durch die Verwendung einer bestehenden Ontologie ermittelt, die erweitert wird um die Domäne eines Anwendungsfalls abzudecken. Diese Software wird aus zwei Teilen zusammengesetzt sein. Der erste Teil wird sich damit beschäftigen um alle nötigen Daten zu besorgen die ein Input für den zweiten Teil sein wird, welches ein Datenextrahieren ist. Es wird den SelectorGadget Bookmarklet verwenden, welches die CSS-selector Elemente bereitstellt mit denen Benutzer auswählen können welche Daten sie für die Extraktion möchten. Das andere Bookmarklet wird den Input von SelectorGadget bekommen und es dann an das Data extraction Software weiterleiten. Um das vorgeschlagene Verfahren zur Extraktion von den oben angeführten Daten zu evaluieren wird eine Umfrage durchgeführt mit Mitarbeitern eines Anwendungsfalls. Die Genauigkeit der extrahierten Kompetenzen die durch diese Arbeit ermittelt wurden wird durch den Vergleich mit Kompetenzen die aus der Umfrage gewonnen wurden gemessen.

Andere Institute der Technischen Universität Wien

Institut für Analysis und Scientific Computing

Diplomarbeitsposter Kupka Brigitte

Brigitte Kupka

Masterstudium Medizinische Informatik
Abstract:

Active and Assisted Living (AAL) versucht älteren Menschen und Personen mit speziellen Bedürfnissen maßgeschneiderte Dienste anzubieten, die ihnen das Leben in ihrem Zuhause erleichtern und zu einer höheren Lebensqualität beitragen. Die Middleware AALuis (Ambient Assisted Living user interfaces) bietet die Generierung von barrierefreie Interfaces für verschiedene elektronische Dienste im Gesundheitsbereich an. Dazu können die User Interfaces unter der Nutzung von verschiedenen Modalitäten erzeugt werden, abhängig davon, welche Ausgabegeräte zur Verfügung stehen. Das Ziel dieser Arbeit ist die Definition und Umsetzung eines modellbasierten Selektionsmechanismus für die Benutzerinteraktion mit AAL Services über AALuis. Für die Auswahl sollen zahlreiche Entscheidungskriterien, wie ein Benutzerprofil, die Verfügbarkeit von Geräten und Sensordaten, wie zum Beispiel Umgebungslärm, herangezogen werden. Insbesondere soll es möglich sein neue Geräte und Modalitäten einfach in die Auswahl einzubeziehen. Der Selektionmechanismus wurde mit Hilfe eines Bayes'sches Netzwerk realisiert und als Java Programm umgesetzt. Als Eingabegrößen für den Selektionsmechanismus dient Kontextinformation betreffend den Benutzer, die vorhandenen Geräte, sowie Sensordaten die die Umgebung beschreiben. Ausgegeben wird diejenige Kombination aus Gerät und Modalität, die in der aktuellen Situation am besten geeignet ist die Ausgabeinformation zu transportieren. In Szenarien wurde gezeigt, dass die Ergebnisse in den beschriebenen Situationen sowohl plausibel sind, als auch in einer nachvollziehbaren Art und Weise auf Veränderungen des Kontext reagieren. Die Laufzeit des Selektionsmechanismus liegt in einem Bereich, der keine störende Verzögerung der Ausgabe der Services nach sich zieht. Dies lässt den Schluss zu, dass die entwickelte Lösung geeignet ist die Selektion von Gerät und Modalität in AALuis zufriedenstellend zu erfüllen.

Department für Geodäsie und Geoinformation

Diplomarbeitsposter Hofer Hannes

Hannes Hofer

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

In unserer heutigen mobilen Welt kann nahezu jeder Punkt der Erde innerhalb von einigen Stunden erreicht werden. Mithilfe von GPS-Receivern, die wir in unseren Smartphones finden, ist die Navigation von A nach B sehr einfach geworden. Im urbanen Raum und in Gebäuden ist die Positionierung jedoch oft nicht ausreichend genau oder gar nicht möglich, da die Positionsbestimmung per GPS ungenauer wird, wenn das Signal gestreut, reflektiert oder abgeschwächt wird. Da wir die Welt aber so leicht bereisen können, ist auch die Navigation in einer lokalen, unbekannten Umgebung wichtiger geworden. Neben dem GPS-Receiver verfügen Smartphones auch über Bauteile wie z. B. Bewegungssensoren, digitalen Kompass und WLAN-Modul, die für das Navigieren herangezogen werden können. Das Ziel dieser Diplomarbeit ist es, die Daten der genannten Komponenten zu kombinieren, um die Genauigkeit der Positionierung sowohl im Outdoor- als auch im Indoor-Bereich zu verbessern. Die Grundidee ist, wegentscheidende Positionen intelligent zu wählen und mithilfe des WLAN-Moduls zu erkennen sowie Positionsveränderungen mithilfe des Bewegungssensors und des digitalen Kompasses zu ermitteln. Zur Erfassung der Daten wurde eine App erstellt, die in einem Framework von programmierten MATLAB-Funktionen zur Simulation der Navigation verwendet wurde. So konnte gezeigt werden, dass durch die Kombination der Sensoren und Module, die Positionen für die untersuchten Testläufe, im Mittel auf 2,0 m genau errechnet werden konnten, während die Abweichung der mittels GPS ermittelten Koordinaten bei 16,7 m lag, sofern dieses verfügbar war.

Institut für Mechanik und Mechatronik

Diplomarbeitsposter Buchheit Michael

Michael Buchheit

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Im Rahmen eines von Drittmitteln finanzierten Projektes (FFG und Simonsfeld AG) am Institut für Mechanik und Mechatronik, Abteilung Messtechnik und Aktorik, an der Technischen Universität Wien wurde eine graphische Benutzeroberfläche (GUI) geschaffen werden, die es dem Nutzer ermöglicht Maschinen (im Speziellen Getriebe) zu modellieren, Spezifikationen von Baugruppen, Lagern, Sensoren durchzuführen und wichtige Parameter, wie zum Beispiel Drehzahlen und Zahneingriffsfrequenzen, zu berechnen. Die durch das Programm erstellten Modelle bzw. deren Modelldaten werden in Form von semi-strukturierten XML-Datensätzen gespeichert. Die, mit dem Programm erstellten, Modelldatensätze werden schließlich von einem weiteren, an diesem Institut, entwickelten Softwarepaket, dessen Fokus auf der Zustandsüberwachung von Maschinen liegt, eingelesen und für die Lokalisierung von Schäden an Komponenten der zu überwachenden Anlagen eingesetzt. Für die Entwicklung des Programms waren neben guten Kenntnissen in einer Programmiersprache auch Kenntnisse in Softwareengineering, UML und XML notwendig. Des Weiteren war für die Kommunikation mit den beteiligten Personen, dem Entwurf und der Entwicklung der Software Detailwissen aus dem Bereich Maschinenbau erforderlich. Dies betraf u.a. Wissen über die normgerechte Darstellung von Getriebeteilen, die Berechnung der Lagerkennwerte und der Wellendrehzahlen. Im Folgenden wird die Entwicklung von der Ideenfindung für das Projekt bis zur Implementierung und dem Testen des erzeugten Softwareproduktes beschrieben. Die Arbeit ist sowohl an interessierte Informatiker|innen als auch Maschinenbauer|innen gerichtet.

Institut für Managementwissenschaften

Diplomarbeitsposter Bartl Alexander

Alexander Bartl

Masterstudium Business Informatics
Abstract:

The general demographic change of the population also leads to a demographic change and increasing average age of employees, whereby the topic of Workability and Productive ageing and which strategies IT companies use in regard to this topic is getting more and more present. The thesis pursues the question whether the 10 biggest IT companies in Austria survey the workability of their employees and whether there is a need for action in the area of Productive Ageing. Interviews with the responsible persons for that topic from the HR departments of the companies were used for the information gathering and results evaluated in regard to the research questions. Even though the topic of Productive ageing is already well known to the companies, most of them don’t have an interest to do something here, as the demographic change hasn’t progressed far enough so that the companies can still recruit younger employees quite easily. In contrast to that, the idea of workability is not wide spread and is therefore not surveyed respectively not surveyed in a standard way

Diplomarbeitsposter Eichinger Irene

Irene Eichinger

Masterstudium Business Informatics
Abstract:

Teams with flexible work arrangements are continuing to gain importance. The different working hours and places involved, however, lead to an increased complexity of communication within the teams. Literature suggests that by striving to improve communication, teams can build shared context and shared identity, which will help prevent conflicts and misunderstandings, promote mutual understanding, and lead to improved communication. The proposed research therefore strives to answer the following question: How does communication facilitate the development of shared context and shared identity in teams with flexible work arrangements? A qualitative content analysis of interviews conducted at software development teams in two technical organizations located in Austria and the USA is presented. The findings suggest that communication influences the development of shared context and shared identity in three ways: (1) it provides the necessary platform and precondition, (2) certain communication tools support the development of shared context and shared identity, and (3) shared context and shared identity are fostered by getting to know each other. Ultimately, guidelines were derived from the results, which are intended to support team members and make developing shared context and shared identity more achievable.

Diplomarbeitsposter Felder Clemens

Clemens Felder

Masterstudium Business Informatics
Abstract:

Im Forschung- und Entwicklungsprozess verwenden immer mehr Unternehmen offene Innovationsmodelle, da die Geschwindigkeit, in der die Unternehmen neue Produkte und Services entwickeln müssen, stetig zunimmt. Auch der wachsende Wettbewerb, welcher durch die Globalisierung steigt, und die hohen Risiken der Entwicklung von neuen Produkten fördern die neuen Innovationsmodelle. Der erste Teil der vorliegenden Arbeit beschäftigt sich mit dem theoretischen Hintergrund von Open Innovation und dessen Implikationen. Die Grundidee ist einfach zu erfassen - Unternehmen versuchen ihre Innovationskompetenz zu erhöhen, indem sie zusätzlich zu ihren internen Abteilungen auch die Umwelt in den Forschungs- und Entwicklungsprozess von neuen Produkten involvieren. Dies geschieht nicht nur durch Handeln mit externen Partnern, sondern auch durch die Schaffung einer aktiven Kommunikation mit der Wertschöpfungskette, um neues Marktpotential zu erkennen. In der Literatur existieren einzelne Studien über die Auswirkungen in spezifischen Regionen und über die Verwendung von Open Innovation, aber bislang gibt es keine breite Untersuchung der Perspektiven und Potentiale für Österreich, unter Berücksichtigung der heimischen Unternehmens- und Branchenstruktur. Daher wird im Zuge dieser Arbeit eine empirische Untersuchung durchgeführt, welche die Perspektiven und Potentiale der neuen Innovationsstrategien in Österreich evaluiert. Zum Schluss werden statistisch fundierte und geprüfte Aussagen über die Faktoren und Barrieren der Implementierung und Verwendung der neuen und geöffneten Innovationsstrategien angeführt. Daraus resultierende Erkenntnisse sind an die österreichischen Begebenheiten angepasst und können folglich verwendet werden, um etwaige Rahmenbedingungen für die österreichischen Unternehmen zu verbessern und dadurch die Verwendung von Open Innovation zu verstärken.

Diplomarbeitsposter Friedl Markus

Markus Friedl

Masterstudium Business Informatics
Abstract:

Business simulations are defined as serious games in which attendees play the role of managers or firm owners competing to sell their goods to the consumers against other companies on the market. Business games are widely used for the development of individual’s decision making or organization capabilities in universities and companies. Such business simulation games also provide an extensive view of the complexity of a business situation and allow players to get a multidimensional insight of the real-life business process and problematic. A business strategy game is a more special case of a business simulation or business game. With such a type of game, different types of markets can be simulated, to force the participants of the game to develop or test different strategies like cost advantage, differentiation or focus and make appropriate strategic decisions. The problem, of modeling the marketplace or buyers’ market for the game, is perhaps the most central and unavoidable issue of a business simulation game. The algorithms that are responsible for calculating the market and firm demand have been evaluated as the most complex and important algorithms of a business simulation game. In this thesis an agent-based model approach is used to model the market at a consumer detailed level for the implementation of a web-based strategic business game. The flexible composition of the market, which results from the usage of the agent-based model approach allows simulating different scenarios in the strategic business game and overcome the lack of flexibility of the standard models. The results of the implemented artifact in this thesis provided some evidence to sustain the hypothesis that an agent-based model can provide additional information and advantages in a strategic business simulation game.

Diplomarbeitsposter Schuh Patrick

Patrick Schuh

Masterstudium Business Informatics
Abstract:

Business strategy games are defined as sequential decision-making exercises structured around a model of an enterprise. In these games, participants have to make management decisions from time to time. Their choices of different strategies, such as cost leadership, differentiation or focus, at one time generally affect the environmental conditions under which the subsequent decisions must be made. These games have a long history and with the change of technology also the fields of application changed. Current reasons for using such games are to evaluate personnel, to study individual and group behavior but also to support teaching because of their incredible opportunities for learning. Thus, the aim of this thesis is to develop an own web-based business strategy game, to integrate it in a strategic management course at the university and to analyze if the usage of this game can improve the students' understanding of strategic management. This evaluation was done with a pre- and post-survey to prove if the knowledge level of understanding strategic management has changed significantly. Furthermore, it was also tested how the game participants perceived the game. The results of the first statistical tests identified no significant improvements in understanding. Nevertheless, the second part of the evaluation showed that the participants perceived the game as useful for understanding strategic management and were also satisfied with the learning experience. Moreover, they enjoyed playing the game and perceived it as interesting and challenging. These findings motivate to further improve the business strategy game itself and the course integration to achieve significant results of performance improvements the next time.

Institut für Automatisierungs- und Regelungstechnik

Weitere ausgestellte AbsolventInnen dieses Arbeitsbereichs:
Erhard List
Diplomarbeitsposter Vittori Lisa

Lisa Vittori

Masterstudium Informatikmanagement
Abstract:

Robots have been considered for several years in teaching introductory programming or programming languages. The robots are seen as vehicle to motivate younger students and introduce them to programming and engineering principles especially computational thinking. As such they have the potential to solve the motivational problems when teaching introductory programming. A second big problem with teaching programming is the depth of the gained knowledge and the reported failure rates when students take exams. This work aims to provide a coherent teaching concept with robots in the center point. I combined educational robotic with single approaches already found to be effective in different contexts to counter the reported problems of introductory programming courses. The utilized approaches are: constructionism, story-telling, quick wins, team work, related knowledge presentation and explicit design teaching. The concept itself is designed for introductory programming courses for technical high schools with focus on computer science. Therefore teaching an industrial used programming language is a must. The students are age 13-18 and already interested in programming and computer science. The concept was evaluated in a case study with students who attended a robotic workshop at the Practical Robotics Institute Austria. During the workshop the students completed evaluation sheets which were used together with protocols of the workshops for qualitative analysis. The implementation of the proposed teaching concept showed that the usage of robots with the presented concept seems a promising approach to solve motivational and achievement-problems with introductory programming courses.

Institut für Computertechnik

Diplomarbeitsposter Plott Wolfgang

Wolfgang Plott

Masterstudium Informatikmanagement
Abstract:

Die vorliegende Diplomarbeit beschäftigt sich mit den Vor- und Nachteilen von unterschiedlichen Softwareentwicklungsansätzen in einem Telekommunikationsunternehmen. Die eingesetzten Softwareentwicklungsansätze sind verschiedene Methoden, Teilen davon und agilen Praktiken. Es hat sich in einem betrachteten Telekommunikationsunternehmen keine einheitliche unternehmensweite Softwareentwicklungsmethode etabliert, was zu langen Projektlaufzeiten und schlechter Umsetzungsqualität geführt hat. In dieser Arbeit werden Softwareentwicklungsmodelle wie V-Modell, SEM-VM und die „agile“ Entwicklungsmethode Scrum sowie mit dieser in Bezug stehende Praktiken wie Refactoring, Pair Programming und agiles Testen beschrieben. Diese werden bezüglich Ihrer jeweiligen Eignung in verschiedenen Projekttypen verglichen. Zusätzlich wird ein Bezug zu didaktischen Lerntheorien hergestellt. Es wird ein Telekommunikationsunternehmen bezüglich Projektformen und Rollenbildern beschrieben. Anhand eines realen Projektbeispiels zum Thema „Einführung einer Internet Hybrid-Technologie“ wird die jeweilige Einsatzmöglichkeit der beschriebenen Softwareentwicklungsansätze erläutert. Es werden Schwachstellen in der Projektumsetzung identifiziert und ein Verbesserungsvorschlag für eine effizientere Abhandlung eines solchen Themas wird vorgestellt. Das Fazit dieser Arbeit ist, dass eine unternehmensweite Einführung einer einzigen Softwareentwicklungsmethode nicht zielführend ist, sondern es praktikabler und effizienter ist, je technischem Bereich einen speziellen Softwareentwicklungsansatz einzusetzen.

In Zusammenarbeit mit anderen wissenschaftlichen Einrichtungen

Universität Wien

Diplomarbeitsposter Dalipi Bersant

Bersant Dalipi

Masterstudium Informatikmanagement
Abstract:

Unter Zugrundelegung der verschiedenen Lerntheorien, auf welche unsere Lernprogramme gründen, befasst sich die vorliegende Arbeit mit dem Begriff und den unterschiedlichen Formen des E-Learning (sog. elektronisch unterstütztes Lernen). Das zentrale Thema dieser Arbeit bildet die Evaluation von Lernplattformen. Im Hauptteil werden die Ziele der Evaluation dargestellt sowie die Evaluationstypen und -methoden beleuchtet. Nach Erörterung der Grundlagen der Lernplattformen wird schließlich ein besonderes Augenmerk auf die gängigen Lernplattformen Moodle und Fronter gelegt. Die Ergebnisse dieser Arbeit konnten vor allem anhand der durchgeführten Be-fragungen einer Vielzahl von Lernplattformen verwendenden Personen und der Datenauswertungen erzielt werden. Als zentrale Ergebnisse können folgende Erkenntnisse festgehalten werden: Die Lernplattformen erfreuen sich großer Be-liebtheit mit steigender Tendenz. Sie sind zu einem gewichtigen Bestandteil in unserem Lernalltag geworden, da sie im heutigen Zeitalter des Internets ein zeit- und ortunabhängiges Lernen ermöglichen und dadurch den Lernprozess verein-fachen. Durch diese Zeitersparnis und Effizienzsteigerung nehmen die Lernplatt-formen immer mehr an Bedeutung zu.

Diplomarbeitsposter Kilic Tekmile

Tekmile Kilic

Masterstudium Informatikmanagement
Abstract:

Gemäß aktuellen Studien sind Schulbücher nach wie vor das dominante Medium in Bezug auf Durchführung von Unterricht. Sie kommen nicht nur regelmäßig in der Unterrichtsstunde zum Einsatz, sondern werden auch gerne im Selbststudium zuhause und zur Prüfungsvorbereitung von den Schülern verwendet. Schulbücher haben einen wesentlichen Einfluss auf das Gelernte als auch auf das Gelehrte. Hier schließt die vorliegende Magisterarbeit an, indem sie Wirtschaftsinformatik-Bücher einer quantitativen und qualitativen Analyse unterzieht. Die Besonderheit von Wirtschaftsinformatik ergibt sich aus der Interdisziplinarität des Unterrichtsfaches an sich, da es im Rahmen des Wirtschaftsinformatik-Unterrichts Vernetzungen zu zahlreichen anderen Disziplinen gibt. Im Rahmen dieser Arbeit werden daher Wirtschaftsinformatik-Schulbücher von zwei verschiedenen Schulbuchverbänden analysiert, die zu den am häufigsten vorkommenden in der Praxis zählen: Wirtschaftsinformatik I (Manz-Verlag) sowie Wirtschaftsinformatik I (Trauner-Verlag). Hierfür wurde anhand der Inhaltsanalyse ein Raster in Anlehnung an den „Reutlinger Raster“ verwendet. Zwei verschiedene Bepunktungssysteme der einzelnen Items wurden angewendet. Die quantitative Schulbuchanalyse erfolgte auf Basis der Bloom’schen Taxonomiestufen, insofern, als dass die einzelnen Übungsbeispielen in den Schulbüchern zu den Taxonomiestufen zugeordnet wurden. Zentrale Ergebnisse der Arbeit inkludieren die Erkenntnis, dass das Schulbuch des Manz-Verlages nicht nur quantitativ eine höhere Anzahl an Seiten aufweist, sondern sich dies durch ein Mehr an kompetenzorientierten Übungsbeispielen ergibt. Beide Bücher bieten jedoch eine gute Struktur und einen roten Faden. Ein ausgewogenes Verhältnis zwischen Text und Abbildungen sowie die leichte Verständlichkeit der Inhalte sind zusätzliche Faktoren. Trotz kleinerer Schwachpunkte der beiden Schulbücher kann ein zeitgemäßer praxisnaher Wirtschaftsinformatik-Unterricht durchaus realisiert werden.

Diplomarbeitsposter Kryeziu Salim

Salim Kryeziu

Masterstudium Informatikmanagement
Abstract:

In der heutigen Zeit stellt E-Learning modernes Lehren als auch Lernen dar. E-Learning ist ebenfalls ein zentrales Thema in der Schulentwicklung. Auch im Einsatz in der betrieblichen Aus- und Weiterbildung sowie an Hochschulen gewinnt es immer mehr an Bedeutung. Mit dem Einsatz von E-Learning in der Schule wird ein wichtiger Fortschritt in der Schulentwicklung gemacht. Die vorliegende Arbeit beschäftigt sich mit dem Thema E-Learning sowie mit E-Learning Plattformen bzw. mit einer Lernplattform für SchülerInnen. Genauer betrachtet wird die Unternehmerführerschein-Lernplattform und deren Einsatz an österreichischen Schulen. Der Unternehmerführerschein bzw. die Module richten sich vorrangig an SchülerInnen aller Schularten im Altersbereich von 12 bis 19 Jahren. Weiters wird er nicht nur als Zusatzqualifikation gesehen, sondern auch als Verbesserung und Vertiefung des Wirtschaftswissens der SchülerInnen. Der Unternehmerführerschein kann darüber hinaus auch in der Aus- und Weiterbildung von Erwachsenen verwendet werden. Ziel der Arbeit ist es, die Unternehmerführerschein-Lernplattform möglichst umfassend zu evaluieren. Daher werden die Lehr- und Lerninhalte der Lernplattform untersucht und dargestellt. Ebenfalls werden die Aspekte Effektivität, Erfolg, Funktionalität und Qualität der Lernplattform im Bezug auf Schule und SchülerInnen berücksichtigt. In diesem Zusammenhang wird der Einsatz der Unternehmerführerschein-Lernplattform an österreichischen Schulen dargestellt. Dabei handelt es sich grundsätzlich um die Evaluierung und Bewertung der Lernplattform mit Hilfe von qualitativen und quantitativen Methoden der empirischen Sozialforschung. Dies wurde mittels zwei Fragebögen, einer für LehrerInnen und einer für SchülerInnen, und einigen Interviews mit LehrerInnen durchgeführt. Als Ergebnis dieser Arbeit zeigt sich, dass die Lernplattform sowohl von den LehrerInnen als auch von den SchülerInnen akzeptiert und sehr gut bewertet wird.

Diplomarbeitsposter Pollak (Daniel) Katrin

Katrin Pollak (Daniel)

Masterstudium Informatikmanagement
Abstract:

Diese Diplomarbeit beschäftigt sich mit der Untersuchung mobiler Betriebssysteme und deren Einsatz im Mathematikunterricht. Ziel ist eine Zusammenfassung aktueller Erkenntnisse bezüglich schulischer Verwendung von Smartphones bzw. Tablets. Dabei werden Themen zum Schwerpunkt „Lernen“ behandelt. Um die aktuelle Situation im Klassenraum zu beurteilen, liefert der zweite Teil dieser Diplomarbeit Ergebnisse einer an einer Wiener HTL durchgeführten Umfrage. In dieser wurden Voraussetzungen, der persönliche Bezug zum Smartphone und mögliche Einsatzgebiete im schulischen Bereich erfragt. Im dritten Teil der Diplomarbeit wird ein Katalog mit Applikationen zu diversen mathematischen Themengebieten für die Verwendung im Unterricht vorgestellt.

Diplomarbeitsposter Yazicioglu Yildiz

Yildiz Yazicioglu

Masterstudium Informatikmanagement
Abstract:

In der heutigen digitalen Welt spielt Software eine bedeutende Rolle. Die Fähigkeit zur richtigen Benutzung von Software ist dabei unerlässlich. Neben der Verwendung von Programmen gewinnt zunehmend auch die Fähigkeit zur Erstellung einfacher Software – also die Programmierung – an Bedeutung. Nun stellt sich die Frage wie man Schüler in das komplexe Gebiet der Programmierung einführen soll. Eine essentielle Rolle spielt dabei die gewählte Programmiersprache. Heute werden zur Einführung in die Programmierung meist Industriesprachen wie C oder Java verwendet. Diese Sprachen wurden dabei explizit nicht für Anfänger geschaffen. Diese Arbeit soll deshalb beleuchten wie die Verwendung der Programmiersprache Python den Einstieg in die Programmierung erleichtern kann. Die Arbeit zeigt, dass eine der großen Hürden des Einstiegs in die Programmierung das abstrakte Denken darstellt. Da diese Barriere allgemeiner Natur ist kann die Verwendung von Python hier wenig dazu beitragen diese Hürde zu verkleinern. Bei der Formulierung des abstrakten Gedankengang in eine für den Computer verständliche Form hilft die einfachere Syntax und Semantik von Python hingegen sehr wohl. Ein weiteres Problem des Anfängerunterrichts stellt die mangelnde Motivation von Schülern selbstständig Beispiele zu lösen dar. Hier hilft die direkte Rückmeldung des Interpreters und der hohe Abstraktionslevel von Python – schon einzelne Python-Statements sind ein vollständiges Programm – die Hürde zu Programmieren für die Schüler zu senken.

Freie Universität von Bozen

Diplomarbeitsposter Chen Yue

Yue Chen

Masterstudium DDP Computational Logic (Erasmus-Mundus)
Abstract:

This thesis is a study on different approaches towards answering query via efficient plans. Efficient plans can be implemented by SQL technique, hence the application to database technology. Reformulation of query helps to limit the query expression to fully accessible database tables so that such an expression can be easily translated into an efficient plan. The approaches presented here function under their own conditions. However, they share a fundamental strategy of connecting proof with plan. The proof is an answerability proof, signifying the existence of a reformulation of the query in a certain fixed vocabulary, and the plan is an executable query extracted from the proof by interpolation technique. The classification of approaches can be based on the query answering problem that they address, or it can be based on the kind of proof they exploit. Roughly speaking, the first three chapters are devoted to the problem of ontology based query answering. Therefore the conditions under which the approach functions are those constraining the ontology and its relation to the query, especially the data model employed by the ontology, a D box data model instead of the more description-logic-conventional A box data model, which motivates the use of reformulation technique. The last two chapters can be viewed as addressing a slightly different problem at hand: query answering over restricted interface. Across the approaches the goal of reformulation is always an executable query, whether this executability reveals itself in a safe range executable query or a relational algebra plan. At the end of chapter five I present an algorithm for extracting a Select-Project-Join-plan from a forward chaining proof given tuple generating dependencies as constraints. Though the proof here is represented by a chase sequence, it is still an entailment proof and the plan is still extracted by interpolation.